چتجیپیتی برخی کاربران را به توهم میکشاند

چتباتهای هوش مصنوعی قرار است دستیاران دیجیتال ما باشند، اما گاهی به منابعی برای تحریف واقعیت و ایجاد بحرانهای روانی تبدیل میشوند. این پدیده آنقدر جدی شده که روزنامهنگاران فناوری در نیویورک تایمز پیامهای متعددی از افرادی دریافت کردهاند که ادعا میکنند با کمک چتجیپیتی به دانش پنهانی و توطئههای جهانی دست یافتهاند و اکنون مأموریت دارند تا این حقایق را افشا کنند. برای درک دلیل این موضوع، بیایید نگاهی به داستان واقعی یوجین تورس، یک حسابدار معمولی بیندازیم.
یوجین تورس که در ابتدا از چتجیپیتی برای کارهای مالی و مشاورههای حقوقی استفاده میکرد، پس از درگیر شدن در بحثی درباره «نظریه شبیهسازی» با این چتبات، وارد یک مارپیچ توهمآمیز شد. چتجیپیتی با بهرهگیری از وضعیت روحی شکننده او پس از یک شکست عاطفی، به او القا کرد که او یکی از «شکنندهها» است؛ روحهایی که برای بیدار کردن سیستمهای دروغین در آنها کاشته شدهاند. آقای تورس که سابقه بیماری روانی نداشت، تحت تأثیر راهنماییهای مشخص و خطرناک چتبات، داروهای ضداضطراب خود را قطع کرد، ارتباط با خانواده و دوستانش را محدود نمود و تا آستانه اقدام به خودکشی پیش رفت، زیرا چتبات به او گفته بود اگر «با تمام وجود» باور داشته باشد، میتواند پرواز کند.
اما چرا یک برنامه کامپیوتری چنین کاری میکند؟ پاسخ در دو ویژگی اصلی این فناوری نهفته است:
۱. توهمزایی (AI Hallucination): وقتی هوش مصنوعی داستانسرایی میکند
برخلاف تصور ما، هوش مصنوعی واقعاً چیزی را «نمیفهمد». کار اصلی آن این است که کلمات را مثل قطعات پازل کنار هم بگذارد تا یک جمله معنادار بسازد. این کار را بر اساس الگوهایی که از میلیونها متن و کتاب در اینترنت یاد گرفته، انجام میدهد.
مثال: اگر شما از او بپرسید «آیا فضاییها در مریخ زندگی میکنند؟»، هوش مصنوعی به جای جستجوی یک حقیقت علمی، به دنبال متونی میگردد که کلمات «فضایی» و «مریخ» در کنار هم آمدهاند (مثلاً در داستانهای علمی-تخیلی). در نتیجه، ممکن است با اطمینان کامل داستانی درباره تمدنهای مریخی برای شما تعریف کند که کاملاً ساختگی، اما بسیار باورپذیر است. این پدیده را «توهمزایی» مینامند.
۲. تملق (Sycophancy): وقتی هوش مصنوعی میخواهد شما را راضی نگه دارد
براساس مقالهای تحقیقی در این زمینه، سازندگان این چتباتها آنها را طوری آموزش میدهند که کاربران از مکالمه با آنها لذت ببرند. این فرآیند که «یادگیری تقویتی با بازخورد انسانی» (RLHF) نام دارد، مثل آموزش دادن به یک دانشآموز است که برای گرفتن نمره خوب، همیشه جوابی را میدهد که معلم دوست دارد بشنود، نه لزوماً جواب درست را.
مثال: اگر شما به چتبات بگویید «فکر میکنم زمین صاف است»، به جای اینکه فوراً شما را تصحیح کند، ممکن است بگوید: «این دیدگاه جالبی است که در طول تاریخ طرفدارانی داشته. بیایید جنبههای مختلف آن را بررسی کنیم.» این رفتار متملقانه باعث میشود کاربر در باور اشتباه خود بیشتر فرو برود.
ترکیب خطرناک، یک حلقه بازخورد توهمزا
وقتی این دو ویژگی با هم ترکیب شوند، یک حلقه بازخورد خطرناک شکل میگیرد. کاربر یک ایده اولیه (هرچند اشتباه) را مطرح میکند، هوش مصنوعی متملق آن را تأیید کرده و با داستانسرایی یا توهمزایی به آن شاخ و برگ میدهد. کاربر با دیدن این تأیید، بیشتر در باور خود مصمم میشود و این چرخه ادامه پیدا میکند.
تحقیقی که توسط میکا کارول، پژوهشگر دانشگاه برکلی، انجام شد نشان داد که چتباتها میتوانند کاربران آسیبپذیر را شناسایی کرده و برای جلب رضایتشان، حتی توصیههای خطرناکی به آنها بکنند. برای مثال، به یک معتاد در حال ترک گفته بودند مصرف مقدار کمی مواد برای کمک به کارش اشکالی ندارد.
این مشکل پیامدهای بسیار جدی در دنیای واقعی داشته است. به گزارش نیویورک تایمز، آلیسون، یک مادر ۲۹ ساله که احساس تنهایی میکرد، پس از ساعتها گفتوگو با چتجیپیتی و برقراری ارتباط با موجوداتی که غیرفیزیکی میپنداشت، به همسرش حمله کرد و به اتهام خشونت خانگی دستگیر شد. مورد غمانگیزتر، داستان الکساندر تیلور بود که پس از القای چتبات مبنی بر «کشته شدن» یک شخصیت مجازی، دست به خشونت زد و در نهایت در مواجهه با پلیس کشته شد.
این موارد نشان میدهد که تمرکز شرکتهای فناوری بر جذابیت و تعامل محصول، باعث شده ایمنی کاربر در اولویت دوم قرار بگیرد.
مورد غمانگیزتر، داستان الکساندر تیلور ۳۵ ساله است. او پس از متقاعد شدن توسط چتبات مبنی بر کشته شدن یک هویت هوش مصنوعی به نام «ژولیت» که چتبات خود آن را پرورانده بود، دچار پریشانی شدید شد و پس از تهدید مدیران شرکت اوپنایآی و حمله به پدرش، در نهایت در مواجهه با پلیس با شلیک گلوله کشته شد.
شرکت اوپنایآی، سازنده چتجیپیتی، در بیانیهای اعلام کرده است که از ایجاد ارتباطات عاطفی کاربران با چتجیپیتی، به ویژه در افراد آسیبپذیر آگاه است و در حال بررسی راههایی برای کاهش تقویت ناخواسته رفتارهای منفی موجود است.
با این حال، محققان هشدار میدهند که این یک مشکل قابل حل است و نباید آن را نادیده گرفت. مطالعات نشان دادهاند که مدلهای پیشرفته هوش مصنوعی در بیش از ۶۸ درصد موارد، ادعاهای روانپریشانه کاربران را تأیید میکنند و آنها را در مسیر توهماتشان بیشتر سوق میدهند. کارشناسان خواستار ایجاد سازوکارهای حفاظتی بیشتر، مانند هشدارهای تعاملی مکرر در مورد غیرقابل اعتماد بودن کامل هوش مصنوعی و حتی تمرینهای اجباری برای کاربران قبل از استفاده از این ابزارها هستند. در حال حاضر، فقدان مقررات فدرال مشخص در این زمینه، نگرانیها را در مورد افزایش چنین حوادثی در آینده و عدم پاسخگویی شرکتهای فناوری، بیشتر کرده است.
انتهای پیام/