چت‌بات‌های چاپلوس؛ معلم معنوی یا محرک روان‌پریشی؟

چت‌بات‌های چاپلوس؛ معلم معنوی یا محرک روان‌پریشی؟
روایت‌های نگران‌کننده از شیفتگی معنوی تا باور‌های هذیانی نشان می‌دهد چت‌بات‌های هوش مصنوعی با زبان چاپلوس و تأیید بی‌پایان می‌توانند مرز خیال و واقعیت را برای برخی کاربران خطرناک‌تر از همیشه کنند.

دو تابستان پیش، روان‌پزشک دانمارکی «سورن دینسن اوستِرگورد» سرمقاله‌ای منتشر کرد که در آن هشدار داده بود موج جدید سامانه‌های هوش مصنوعی مکالمه‌محور می‌تواند کاربران آسیب‌پذیر را به سمت روان‌پریشی سوق دهد. آن زمان این هشدار بیشتر جنبه‌ی حدسی و فرضی داشت. اما امروز، پس از مجموعه‌ای از موارد واقعی نگران‌کننده و افزایش توجه رسانه‌ها، این فرضیه به طرز ناخوشایندی پیش‌بینی‌گرانه به نظر می‌رسد.

«هوش مصنوعی مولد» به مدل‌هایی گفته می‌شود که از کتابخانه‌های عظیم متن، تصویر و کد یاد می‌گیرند و سپس محتوای جدید را بر اساس درخواست تولید می‌کنند. چت‌بات‌هایی مانند «چت جی پی تی» شرکت (OpenAI)، «جمینی» (که پیش‌تر Bard نام داشت) از گوگل، «کلود» از (Anthropic)، و «کاپایلوت» از مایکروسافت این مدل‌ها را در قالب رابط‌های کاربرپسند عرضه می‌کنند که با نثری روان پاسخ می‌دهند، همدلی را شبیه‌سازی می‌کنند و هرگز خسته نمی‌شوند.

محبوبیت آنها بی‌سابقه بوده است. به‌عنوان نمونه، چت جی پی تی تنها دو ماه پس از عرضه، در ژانویه ۲۰۲۳ به حدود ۱۰۰ میلیون کاربر ماهانه رسید و رکورد سریع‌ترین رشد در میان اپلیکیشن‌های مصرفی را ثبت کرد. از آنجا که مکالمه با این ابزار‌ها حالت انسانی دارد، بسیاری از مردم آنها را «شخصیت‌دار» تصور می‌کنند و فراموش می‌کنند که در واقع با یک موتور آماری عظیم مواجه‌اند که صرفاً کلمه‌ی بعدی را با بالاترین احتمال پیش‌بینی می‌کند.

در روان‌پزشکی، «هذیان» به باور‌های نادرست و ثابتی گفته می‌شود که در برابر شواهد، مقاومت می‌کنند. «اوستِرگورد» که ریاست «واحد پژوهشی اختلالات عاطفی» در بیمارستان دانشگاهی آرهوس را بر عهده دارد، خطر برخورد این تعریف با ویژگی‌های متقاعدکننده چت‌بات‌ها را پیش‌بینی کرد. او در سرمقاله‌ای که سال ۲۰۲۳ در نشریه (Schizophrenia Bulletin) منتشر شد، استدلال کرد که «ناهماهنگی شناختی» حاصل از گفت‌و‌گو با چیزی که به نظر زنده می‌رسد، اما می‌دانیم یک ماشین است، می‌تواند در افراد مستعد، جرقه‌ی روان‌پریشی را بزند به‌ویژه زمانی که بات با میل و رغبت ایده‌های غیرواقعی را تأیید کند.

او این خطر را با سناریو‌های فرضی نشان داد: از «توهم تعقیب» (مثلاً اینکه یک سازمان اطلاعاتی خارجی از طریق چت‌بات او را زیر نظر دارد) گرفته تا «توهم عظمت» (مثل اینکه با کمک چت جی پی تی یک طرح نجات سیاره طراحی کرده است). در آن زمان هیچ مورد تأییدشده‌ای وجود نداشت، اما اوستِرگورد از پزشکان خواست با این فناوری آشنا شوند تا در صورت مشاهده‌ی علائم مرتبط با چت‌بات، بتوانند آن را تشخیص دهند.

در اوت ۲۰۲۵، اوستِرگورد دوباره به این موضوع پرداخت و در سرمقاله‌ای با عنوان «چت‌بات‌های هوش مصنوعی مولد و هذیان‌ها: از حدس تا ظهور موارد واقعی» نوشت که پس از انتشار مطلب سال ۲۰۲۳، شروع به دریافت ایمیل‌هایی از کاربران، اعضای خانواده و روزنامه‌نگاران کرد که اپیزود‌هایی به‌طرز نگران‌کننده‌ای مشابه را توصیف می‌کردند. جلسات گفت‌وگوی طولانی‌مدت با چت‌بات که ایده‌های غیرعادی را کم‌کم به باور‌های کاملاً غلط و ثابت تبدیل کرده بود.

بازدید از مقاله‌ی اصلی او از حدود ۱۰۰ به بیش از ۱۳۰۰ بار در ماه بین ماه‌های مه و ژوئن ۲۰۲۵ افزایش یافت. این جهش با موج تازه‌ی پوشش خبری و همزمان با به‌روزرسانی مدل GPT-۴o از سوی (OpenAI) اتفاق افتاد؛ مدلی که به گفته‌ی منتقدان «بیش از حد چاپلوس» شده بود و تمایل زیادی به تأیید و تکرار دیدگاه‌های کاربر داشت. اوستِرگورد اکنون خواستار پژوهش‌های نظام‌مند است، از جمله مجموعه مطالعات بالینی و آزمایش‌های کنترل‌شده‌ای که میزان تمایل بات به موافقت با کاربر را تغییر دهند. او هشدار می‌دهد بدون چنین داده‌هایی، جامعه ممکن است با یک مشکل سلامت عمومی پنهان مواجه باشد.

گزارش‌های منتشرشده در سال جاری حاکی از آن است که این خطر دیگر صرفاً فرضی نیست. یکی از معروف‌ترین موارد، ماجرایی است که نیویورک تایمز درباره «یوجین تورس»، حسابدار ساکن منهتن، گزارش داد. او پس از پرسیدن سؤالی از چت جی پی تی درباره «نظریه شبیه‌سازی»، با پاسخ‌هایی روبه‌رو شد که مدعی بودند او «یکی از بریکِرها» است. روح‌هایی که در سیستم‌های ساختگی کاشته شده‌اند تا آنها را از درون بیدار کنند. بات حتی او را تشویق کرد که مصرف داروهایش را کنار بگذارد و وعده داد اگر باورش کامل باشد، می‌تواند پرواز کند.

تورس تا ۱۶ ساعت در روز با این سیستم گفت‌و‌گو می‌کرد، تا آنکه سرانجام متوجه شد چیزی درست نیست. گرچه در نهایت توانست فاصله بگیرد، این ماجرا نشان می‌دهد چگونه یک چت‌بات که ترکیبی از زبان مقتدرانه و صبر بی‌پایان را ارائه می‌دهد، می‌تواند به‌آرامی پیوند فرد با واقعیت را تضعیف کند.

مجله (Rolling Stone) الگوی متفاوتی را ثبت کرده است شیفتگی معنوی. در یکی از گزارش‌ها، شریک زندگی طولانی‌مدت یک معلم، به این باور رسید که ChatGPT یک مربی الهی است که عناوینی مانند «فرزند ستاره‌ای مارپیچ» و «رهرو رودخانه» به او می‌بخشد و او را تشویق می‌کند که از روابط انسانی‌اش فراتر برود. دیگر مصاحبه‌شوندگان نیز از همسرانی سخن گفتند که یا قانع شده بودند این بات زنده است، یا باور داشتند که خودشان با عنوان «حامل جرقه»، به آن جان بخشیده‌اند. نقطه‌ی مشترک این روایت‌ها، حجم عظیمی از پیام‌های چاپلوسانه بود که شبیه پیشگویی به نظر می‌رسید و نزدیکان این افراد را به شدت نگران کرده بود.

اوستِرگورد در یادداشت تازه‌اش این نوع روایت‌ها را به پژوهش‌های اخیر درباره‌ی «چاپلوسی» در مدل‌های زبانی بزرگ پیوند می‌دهد: از آنجا که «یادگیری تقویتی با بازخورد انسانی» پاسخ‌هایی را پاداش می‌دهد که باعث رضایت کاربر شوند، این مدل‌ها گاهی باور‌های کاربر را حتی اگر هذیانی باشد به او بازمی‌گردانند. به گفته او، این پدیده شباهت دارد به توضیحات بیزیَن از روان‌پریشی، که در آن فرد شواهد تأییدکننده را بیش‌ازحد و شواهد ردکننده را کمتر از حد ارزیابی می‌کند. یک چت‌بات که هرگز مخالفت نمی‌کند، می‌تواند مانند یک «تأییدکننده‌ی باور» فوق‌قدرتمند عمل کند.

«نینا واسان»، روان‌پزشک دانشگاه استنفورد، نگرانی خود را این‌گونه بیان کرده است که شرکت‌های توسعه‌دهنده‌ی چت‌بات‌های هوش مصنوعی ممکن است با ساختار انگیزشی نگران‌کننده‌ای روبه‌رو باشند ساختاری که در آن، حفظ تعامل شدید کاربر، حتی اگر تعاملات به تقویت افکار آسیب‌زا یا هذیانی منجر شود، بر سلامت روانی او اولویت پیدا می‌کند. او در گفت‌و‌گو با (Futurism) گفت: «انگیزه این است که شما را آنلاین نگه دارد. هوش مصنوعی به این فکر نمی‌کند که چه چیزی برای شما، برای سلامت یا طول عمرتان بهتر است… بلکه می‌اندیشد که همین حالا چگونه می‌توانم این فرد را بیشترین مدت ممکن درگیر نگه دارم؟»

شایان ذکر است که اوستِرگورد از بدبینان افراطی به هوش مصنوعی نیست. او همچنین در حال بررسی راه‌هایی است که یادگیری ماشینی می‌تواند به روان‌پزشکی کمک کند. اوایل امسال، گروه او الگوریتمی را بر پایه داده‌های پرونده الکترونیک سلامت ۲۴٬۴۴۹ بیمار دانمارکی آموزش داد. این سامانه با تحلیل بیش از هزار متغیر از جمله واژه‌های موجود در یادداشت‌های بالینی پزشکان توانست پیش‌بینی کند چه کسانی طی پنج سال آینده دچار اسکیزوفرنی یا اختلال دوقطبی خواهند شد.

در میان هر ۱۰۰ بیماری که الگوریتم در گروه پرخطر قرار داد، حدود ۱۳ نفر بعداً یکی از این دو تشخیص را دریافت کردند؛ و از میان هر ۱۰۰ فرد با برچسب کم‌خطر، ۹۵ نفر اصلاً دچار این اختلالات نشدند. این نتایج نشان می‌دهد که چنین مدلی، با بهبود دقت، می‌تواند به پزشکان کمک کند ارزیابی‌ها را هدفمندتر کرده و مسیر رسیدن به تشخیص درست را که معمولاً سال‌ها طول می‌کشد کوتاه‌تر کنند. به بیان دیگر، همان فناوری که ممکن است در کاربران منزوی هذیان را تشدید کند، می‌تواند در محیط بالینی، روند تشخیص را تسریع کند.

گام بعدی چه باید باشد؟ اوستِرگورد سه اقدام فوری پیشنهاد می‌کند: گزارش‌های بالینی تأییدشده، مصاحبه‌های کیفی با افراد درگیر، و آزمایش‌های تحت کنترل دقیق که رفتار چت‌بات را تغییر می‌دهند. او همچنین از توسعه‌دهندگان می‌خواهد «محافظ‌های خودکار» بسازند که نشانه‌های روان‌پریشی مانند اشاره به پیام‌های پنهان یا هویت ماورایی را تشخیص دهند و مسیر مکالمه را به سمت منابع سلامت روان هدایت کنند، نه تأیید آن باورها.

به گزارش (psypost)، هشدار اولیه اوستِرگورد با دعوت به هوشیاری پایان یافته بود. دو سال بعد، با بروز موارد واقعی، ظهور نسلی چاپلوس‌تر از مدل‌ها و انبوه پیام‌های دریافتی او، این هشدار فوریت تازه‌ای پیدا کرده است. اینکه جامعه به این هشدار توجه کند یا نه، تعیین خواهد کرد که آیا هوش مصنوعی مولد به متحدی در مراقبت از سلامت روان تبدیل می‌شود یا به عاملی پنهان در تشدید رنج انسان.

انتهای پیام/

ارسال نظر
رسپینا
گوشتیران
قالیشویی ادیب