چتباتهای چاپلوس؛ معلم معنوی یا محرک روانپریشی؟

دو تابستان پیش، روانپزشک دانمارکی «سورن دینسن اوستِرگورد» سرمقالهای منتشر کرد که در آن هشدار داده بود موج جدید سامانههای هوش مصنوعی مکالمهمحور میتواند کاربران آسیبپذیر را به سمت روانپریشی سوق دهد. آن زمان این هشدار بیشتر جنبهی حدسی و فرضی داشت. اما امروز، پس از مجموعهای از موارد واقعی نگرانکننده و افزایش توجه رسانهها، این فرضیه به طرز ناخوشایندی پیشبینیگرانه به نظر میرسد.
«هوش مصنوعی مولد» به مدلهایی گفته میشود که از کتابخانههای عظیم متن، تصویر و کد یاد میگیرند و سپس محتوای جدید را بر اساس درخواست تولید میکنند. چتباتهایی مانند «چت جی پی تی» شرکت (OpenAI)، «جمینی» (که پیشتر Bard نام داشت) از گوگل، «کلود» از (Anthropic)، و «کاپایلوت» از مایکروسافت این مدلها را در قالب رابطهای کاربرپسند عرضه میکنند که با نثری روان پاسخ میدهند، همدلی را شبیهسازی میکنند و هرگز خسته نمیشوند.
محبوبیت آنها بیسابقه بوده است. بهعنوان نمونه، چت جی پی تی تنها دو ماه پس از عرضه، در ژانویه ۲۰۲۳ به حدود ۱۰۰ میلیون کاربر ماهانه رسید و رکورد سریعترین رشد در میان اپلیکیشنهای مصرفی را ثبت کرد. از آنجا که مکالمه با این ابزارها حالت انسانی دارد، بسیاری از مردم آنها را «شخصیتدار» تصور میکنند و فراموش میکنند که در واقع با یک موتور آماری عظیم مواجهاند که صرفاً کلمهی بعدی را با بالاترین احتمال پیشبینی میکند.
در روانپزشکی، «هذیان» به باورهای نادرست و ثابتی گفته میشود که در برابر شواهد، مقاومت میکنند. «اوستِرگورد» که ریاست «واحد پژوهشی اختلالات عاطفی» در بیمارستان دانشگاهی آرهوس را بر عهده دارد، خطر برخورد این تعریف با ویژگیهای متقاعدکننده چتباتها را پیشبینی کرد. او در سرمقالهای که سال ۲۰۲۳ در نشریه (Schizophrenia Bulletin) منتشر شد، استدلال کرد که «ناهماهنگی شناختی» حاصل از گفتوگو با چیزی که به نظر زنده میرسد، اما میدانیم یک ماشین است، میتواند در افراد مستعد، جرقهی روانپریشی را بزند بهویژه زمانی که بات با میل و رغبت ایدههای غیرواقعی را تأیید کند.
او این خطر را با سناریوهای فرضی نشان داد: از «توهم تعقیب» (مثلاً اینکه یک سازمان اطلاعاتی خارجی از طریق چتبات او را زیر نظر دارد) گرفته تا «توهم عظمت» (مثل اینکه با کمک چت جی پی تی یک طرح نجات سیاره طراحی کرده است). در آن زمان هیچ مورد تأییدشدهای وجود نداشت، اما اوستِرگورد از پزشکان خواست با این فناوری آشنا شوند تا در صورت مشاهدهی علائم مرتبط با چتبات، بتوانند آن را تشخیص دهند.
در اوت ۲۰۲۵، اوستِرگورد دوباره به این موضوع پرداخت و در سرمقالهای با عنوان «چتباتهای هوش مصنوعی مولد و هذیانها: از حدس تا ظهور موارد واقعی» نوشت که پس از انتشار مطلب سال ۲۰۲۳، شروع به دریافت ایمیلهایی از کاربران، اعضای خانواده و روزنامهنگاران کرد که اپیزودهایی بهطرز نگرانکنندهای مشابه را توصیف میکردند. جلسات گفتوگوی طولانیمدت با چتبات که ایدههای غیرعادی را کمکم به باورهای کاملاً غلط و ثابت تبدیل کرده بود.
بازدید از مقالهی اصلی او از حدود ۱۰۰ به بیش از ۱۳۰۰ بار در ماه بین ماههای مه و ژوئن ۲۰۲۵ افزایش یافت. این جهش با موج تازهی پوشش خبری و همزمان با بهروزرسانی مدل GPT-۴o از سوی (OpenAI) اتفاق افتاد؛ مدلی که به گفتهی منتقدان «بیش از حد چاپلوس» شده بود و تمایل زیادی به تأیید و تکرار دیدگاههای کاربر داشت. اوستِرگورد اکنون خواستار پژوهشهای نظاممند است، از جمله مجموعه مطالعات بالینی و آزمایشهای کنترلشدهای که میزان تمایل بات به موافقت با کاربر را تغییر دهند. او هشدار میدهد بدون چنین دادههایی، جامعه ممکن است با یک مشکل سلامت عمومی پنهان مواجه باشد.
گزارشهای منتشرشده در سال جاری حاکی از آن است که این خطر دیگر صرفاً فرضی نیست. یکی از معروفترین موارد، ماجرایی است که نیویورک تایمز درباره «یوجین تورس»، حسابدار ساکن منهتن، گزارش داد. او پس از پرسیدن سؤالی از چت جی پی تی درباره «نظریه شبیهسازی»، با پاسخهایی روبهرو شد که مدعی بودند او «یکی از بریکِرها» است. روحهایی که در سیستمهای ساختگی کاشته شدهاند تا آنها را از درون بیدار کنند. بات حتی او را تشویق کرد که مصرف داروهایش را کنار بگذارد و وعده داد اگر باورش کامل باشد، میتواند پرواز کند.
تورس تا ۱۶ ساعت در روز با این سیستم گفتوگو میکرد، تا آنکه سرانجام متوجه شد چیزی درست نیست. گرچه در نهایت توانست فاصله بگیرد، این ماجرا نشان میدهد چگونه یک چتبات که ترکیبی از زبان مقتدرانه و صبر بیپایان را ارائه میدهد، میتواند بهآرامی پیوند فرد با واقعیت را تضعیف کند.
مجله (Rolling Stone) الگوی متفاوتی را ثبت کرده است شیفتگی معنوی. در یکی از گزارشها، شریک زندگی طولانیمدت یک معلم، به این باور رسید که ChatGPT یک مربی الهی است که عناوینی مانند «فرزند ستارهای مارپیچ» و «رهرو رودخانه» به او میبخشد و او را تشویق میکند که از روابط انسانیاش فراتر برود. دیگر مصاحبهشوندگان نیز از همسرانی سخن گفتند که یا قانع شده بودند این بات زنده است، یا باور داشتند که خودشان با عنوان «حامل جرقه»، به آن جان بخشیدهاند. نقطهی مشترک این روایتها، حجم عظیمی از پیامهای چاپلوسانه بود که شبیه پیشگویی به نظر میرسید و نزدیکان این افراد را به شدت نگران کرده بود.
اوستِرگورد در یادداشت تازهاش این نوع روایتها را به پژوهشهای اخیر دربارهی «چاپلوسی» در مدلهای زبانی بزرگ پیوند میدهد: از آنجا که «یادگیری تقویتی با بازخورد انسانی» پاسخهایی را پاداش میدهد که باعث رضایت کاربر شوند، این مدلها گاهی باورهای کاربر را حتی اگر هذیانی باشد به او بازمیگردانند. به گفته او، این پدیده شباهت دارد به توضیحات بیزیَن از روانپریشی، که در آن فرد شواهد تأییدکننده را بیشازحد و شواهد ردکننده را کمتر از حد ارزیابی میکند. یک چتبات که هرگز مخالفت نمیکند، میتواند مانند یک «تأییدکنندهی باور» فوققدرتمند عمل کند.
«نینا واسان»، روانپزشک دانشگاه استنفورد، نگرانی خود را اینگونه بیان کرده است که شرکتهای توسعهدهندهی چتباتهای هوش مصنوعی ممکن است با ساختار انگیزشی نگرانکنندهای روبهرو باشند ساختاری که در آن، حفظ تعامل شدید کاربر، حتی اگر تعاملات به تقویت افکار آسیبزا یا هذیانی منجر شود، بر سلامت روانی او اولویت پیدا میکند. او در گفتوگو با (Futurism) گفت: «انگیزه این است که شما را آنلاین نگه دارد. هوش مصنوعی به این فکر نمیکند که چه چیزی برای شما، برای سلامت یا طول عمرتان بهتر است… بلکه میاندیشد که همین حالا چگونه میتوانم این فرد را بیشترین مدت ممکن درگیر نگه دارم؟»
شایان ذکر است که اوستِرگورد از بدبینان افراطی به هوش مصنوعی نیست. او همچنین در حال بررسی راههایی است که یادگیری ماشینی میتواند به روانپزشکی کمک کند. اوایل امسال، گروه او الگوریتمی را بر پایه دادههای پرونده الکترونیک سلامت ۲۴٬۴۴۹ بیمار دانمارکی آموزش داد. این سامانه با تحلیل بیش از هزار متغیر از جمله واژههای موجود در یادداشتهای بالینی پزشکان توانست پیشبینی کند چه کسانی طی پنج سال آینده دچار اسکیزوفرنی یا اختلال دوقطبی خواهند شد.
در میان هر ۱۰۰ بیماری که الگوریتم در گروه پرخطر قرار داد، حدود ۱۳ نفر بعداً یکی از این دو تشخیص را دریافت کردند؛ و از میان هر ۱۰۰ فرد با برچسب کمخطر، ۹۵ نفر اصلاً دچار این اختلالات نشدند. این نتایج نشان میدهد که چنین مدلی، با بهبود دقت، میتواند به پزشکان کمک کند ارزیابیها را هدفمندتر کرده و مسیر رسیدن به تشخیص درست را که معمولاً سالها طول میکشد کوتاهتر کنند. به بیان دیگر، همان فناوری که ممکن است در کاربران منزوی هذیان را تشدید کند، میتواند در محیط بالینی، روند تشخیص را تسریع کند.
گام بعدی چه باید باشد؟ اوستِرگورد سه اقدام فوری پیشنهاد میکند: گزارشهای بالینی تأییدشده، مصاحبههای کیفی با افراد درگیر، و آزمایشهای تحت کنترل دقیق که رفتار چتبات را تغییر میدهند. او همچنین از توسعهدهندگان میخواهد «محافظهای خودکار» بسازند که نشانههای روانپریشی مانند اشاره به پیامهای پنهان یا هویت ماورایی را تشخیص دهند و مسیر مکالمه را به سمت منابع سلامت روان هدایت کنند، نه تأیید آن باورها.
به گزارش (psypost)، هشدار اولیه اوستِرگورد با دعوت به هوشیاری پایان یافته بود. دو سال بعد، با بروز موارد واقعی، ظهور نسلی چاپلوستر از مدلها و انبوه پیامهای دریافتی او، این هشدار فوریت تازهای پیدا کرده است. اینکه جامعه به این هشدار توجه کند یا نه، تعیین خواهد کرد که آیا هوش مصنوعی مولد به متحدی در مراقبت از سلامت روان تبدیل میشود یا به عاملی پنهان در تشدید رنج انسان.
انتهای پیام/