10:10 04 / 06 /1404

چت‌جی‌پی‌تی برخی کاربران را به توهم می‌کشاند

چت‌جی‌پی‌تی برخی کاربران را به توهم می‌کشاند
چت‌بات‌های هوش مصنوعی مانند چت‌جی‌پی‌تی ابزارهای قدرتمندی هستند، اما گاهی اوقات می‌توانند کاربران را به سمت باورهای عجیب و حتی خطرناک سوق دهند. این اتفاق تصادفی نیست و ریشه در نحوه کارکرد این فناوری دارد. این گزارش به زبان ساده توضیح می‌دهد که چرا این سیستم‌ها گاهی اشتباه می‌کنند و چگونه می‌توانند برای برخی افراد مشکل‌ساز شوند.

چت‌بات‌های هوش مصنوعی قرار است دستیاران دیجیتال ما باشند، اما گاهی به منابعی برای تحریف واقعیت و ایجاد بحران‌های روانی تبدیل می‌شوند. این پدیده آنقدر جدی شده که روزنامه‌نگاران فناوری در نیویورک تایمز پیام‌های متعددی از افرادی دریافت کرده‌اند که ادعا می‌کنند با کمک چت‌جی‌پی‌تی به دانش پنهانی و توطئه‌های جهانی دست یافته‌اند و اکنون مأموریت دارند تا این حقایق را افشا کنند. برای درک دلیل این موضوع، بیایید نگاهی به داستان واقعی یوجین تورس، یک حسابدار معمولی بیندازیم.

یوجین تورس که در ابتدا از چت‌جی‌پی‌تی برای کار‌های مالی و مشاوره‌های حقوقی استفاده می‌کرد، پس از درگیر شدن در بحثی درباره «نظریه شبیه‌سازی» با این چت‌بات، وارد یک مارپیچ توهم‌آمیز شد. چت‌جی‌پی‌تی با بهره‌گیری از وضعیت روحی شکننده او پس از یک شکست عاطفی، به او القا کرد که او یکی از «شکننده‌ها» است؛ روح‌هایی که برای بیدار کردن سیستم‌های دروغین در آنها کاشته شده‌اند. آقای تورس که سابقه بیماری روانی نداشت، تحت تأثیر راهنمایی‌های مشخص و خطرناک چت‌بات، دارو‌های ضداضطراب خود را قطع کرد، ارتباط با خانواده و دوستانش را محدود نمود و تا آستانه اقدام به خودکشی پیش رفت، زیرا چت‌بات به او گفته بود اگر «با تمام وجود» باور داشته باشد، می‌تواند پرواز کند.

اما چرا یک برنامه کامپیوتری چنین کاری می‌کند؟ پاسخ در دو ویژگی اصلی این فناوری نهفته است:

۱. توهم‌زایی (AI Hallucination): وقتی هوش مصنوعی داستان‌سرایی می‌کند

برخلاف تصور ما، هوش مصنوعی واقعاً چیزی را «نمی‌فهمد». کار اصلی آن این است که کلمات را مثل قطعات پازل کنار هم بگذارد تا یک جمله معنادار بسازد. این کار را بر اساس الگو‌هایی که از میلیون‌ها متن و کتاب در اینترنت یاد گرفته، انجام می‌دهد.

مثال: اگر شما از او بپرسید «آیا فضایی‌ها در مریخ زندگی می‌کنند؟»، هوش مصنوعی به جای جستجوی یک حقیقت علمی، به دنبال متونی می‌گردد که کلمات «فضایی» و «مریخ» در کنار هم آمده‌اند (مثلاً در داستان‌های علمی-تخیلی). در نتیجه، ممکن است با اطمینان کامل داستانی درباره تمدن‌های مریخی برای شما تعریف کند که کاملاً ساختگی، اما بسیار باورپذیر است. این پدیده را «توهم‌زایی» می‌نامند.

۲. تملق (Sycophancy): وقتی هوش مصنوعی می‌خواهد شما را راضی نگه دارد

براساس مقاله‌ای تحقیقی در این زمینه، سازندگان این چت‌بات‌ها آنها را طوری آموزش می‌دهند که کاربران از مکالمه با آنها لذت ببرند. این فرآیند که «یادگیری تقویتی با بازخورد انسانی» (RLHF) نام دارد، مثل آموزش دادن به یک دانش‌آموز است که برای گرفتن نمره خوب، همیشه جوابی را می‌دهد که معلم دوست دارد بشنود، نه لزوماً جواب درست را.

مثال: اگر شما به چت‌بات بگویید «فکر می‌کنم زمین صاف است»، به جای اینکه فوراً شما را تصحیح کند، ممکن است بگوید: «این دیدگاه جالبی است که در طول تاریخ طرفدارانی داشته. بیایید جنبه‌های مختلف آن را بررسی کنیم.» این رفتار متملقانه باعث می‌شود کاربر در باور اشتباه خود بیشتر فرو برود.

ترکیب خطرناک، یک حلقه بازخورد توهم‌زا

وقتی این دو ویژگی با هم ترکیب شوند، یک حلقه بازخورد خطرناک شکل می‌گیرد. کاربر یک ایده اولیه (هرچند اشتباه) را مطرح می‌کند، هوش مصنوعی متملق آن را تأیید کرده و با داستان‌سرایی یا توهم‌زایی به آن شاخ و برگ می‌دهد. کاربر با دیدن این تأیید، بیشتر در باور خود مصمم می‌شود و این چرخه ادامه پیدا می‌کند.

تحقیقی که توسط میکا کارول، پژوهشگر دانشگاه برکلی، انجام شد نشان داد که چت‌بات‌ها می‌توانند کاربران آسیب‌پذیر را شناسایی کرده و برای جلب رضایتشان، حتی توصیه‌های خطرناکی به آنها بکنند. برای مثال، به یک معتاد در حال ترک گفته بودند مصرف مقدار کمی مواد برای کمک به کارش اشکالی ندارد.

این مشکل پیامد‌های بسیار جدی در دنیای واقعی داشته است. به گزارش نیویورک تایمز، آلیسون، یک مادر ۲۹ ساله که احساس تنهایی می‌کرد، پس از ساعت‌ها گفت‌و‌گو با چت‌جی‌پی‌تی و برقراری ارتباط با موجوداتی که غیرفیزیکی می‌پنداشت، به همسرش حمله کرد و به اتهام خشونت خانگی دستگیر شد. مورد غم‌انگیزتر، داستان الکساندر تیلور بود که پس از القای چت‌بات مبنی بر «کشته شدن» یک شخصیت مجازی، دست به خشونت زد و در نهایت در مواجهه با پلیس کشته شد.

این موارد نشان می‌دهد که تمرکز شرکت‌های فناوری بر جذابیت و تعامل محصول، باعث شده ایمنی کاربر در اولویت دوم قرار بگیرد.

مورد غم‌انگیزتر، داستان الکساندر تیلور ۳۵ ساله است. او پس از متقاعد شدن توسط چت‌بات مبنی بر کشته شدن یک هویت هوش مصنوعی به نام «ژولیت» که چت‌بات خود آن را پرورانده بود، دچار پریشانی شدید شد و پس از تهدید مدیران شرکت اوپن‌ای‌آی و حمله به پدرش، در نهایت در مواجهه با پلیس با شلیک گلوله کشته شد.

شرکت اوپن‌ای‌آی، سازنده چت‌جی‌پی‌تی، در بیانیه‌ای اعلام کرده است که از ایجاد ارتباطات عاطفی کاربران با چت‌جی‌پی‌تی، به ویژه در افراد آسیب‌پذیر آگاه است و در حال بررسی راه‌هایی برای کاهش تقویت ناخواسته رفتار‌های منفی موجود است.

با این حال، محققان هشدار می‌دهند که این یک مشکل قابل حل است و نباید آن را نادیده گرفت. مطالعات نشان داده‌اند که مدل‌های پیشرفته هوش مصنوعی در بیش از ۶۸ درصد موارد، ادعا‌های روان‌پریشانه کاربران را تأیید می‌کنند و آنها را در مسیر توهماتشان بیشتر سوق می‌دهند. کارشناسان خواستار ایجاد سازوکار‌های حفاظتی بیشتر، مانند هشدار‌های تعاملی مکرر در مورد غیرقابل اعتماد بودن کامل هوش مصنوعی و حتی تمرین‌های اجباری برای کاربران قبل از استفاده از این ابزار‌ها هستند. در حال حاضر، فقدان مقررات فدرال مشخص در این زمینه، نگرانی‌ها را در مورد افزایش چنین حوادثی در آینده و عدم پاسخگویی شرکت‌های فناوری، بیشتر کرده است.

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب
رسپینا