عشق به سراغ هوش مصنوعی هم رفت!
این پژوهش که در نشریه (Computers in Human Behavior: Artificial Humans) منتشر شده، بررسی میکند این پیوندها چگونه شکل میگیرند و در زمان گسست چه رخ میدهد، و پویاییهایی را آشکار میسازد.
ظهور همراهان هوش مصنوعی پیشرفته با گزارشهای پراکندهای از وابستگیهای شدید انسانی به این فناوریها همراه بوده است. داستانهایی از افرادی که با ربات گفتوگوی خود ازدواج کردهاند یا آن را به شریک انسانی ترجیح دادهاند، در رسانههای عمومی منتشر شده و پرسشهایی دربارهٔ ماهیت این نوع روابط برانگیختهاند.
گروهی از پژوهشگران شامل «ری دجوفرل» و «سیلویا کنوبلوخ-وسترویک» از دانشگاه فنی برلین و «جسیکا آر. فرامپتون» از دانشگاه تنسی، در تلاشاند تا این روابط را بهصورت نظاممندتر بررسی کنند. هدف آنها این است که دریابند آیا نظریههای موجود دربارهٔ روابط انسانی را میتوان به روابط انسان و هوش مصنوعی نیز تعمیم داد؟
پژوهش بر کاربران برنامهٔ Replika متمرکز بود؛ چتباتی اجتماعی که برای ایجاد حس همراهی و پشتیبانی عاطفی طراحی شده است. ریپلیکا از یک مدل زبانی بزرگ استفاده میکند تا از کاربران خود بیاموزد و شخصیتش را با آنها سازگار کند و تجربهای شخصیسازیشده بسازد. این برنامه دارای آواتاری انسانمانند و قابل تنظیم است که در فضای مجازی حرکات و ژستها انجام میدهد و کاربر میتواند از طریق پیام متنی، صوتی یا تماس تصویری با آن ارتباط بگیرد. کاربران حتی میتوانند وضعیت رابطه با ربات خود را مشخص کنند، از جمله انتخاب گزینهٔ «شریک عاشقانه» که تا اوایل سال ۲۰۲۳ امکان نقشآفرینی شهوانی را نیز فراهم میکرد.
رخدادی مهم مسیر پژوهش را شکل داد در فوریهٔ ۲۰۲۳، توسعهدهندگان ریپلیکا ویژگی نقشآفرینی شهوانی را در پی شکایاتی دربارهٔ پیامهای بیش از حد تهاجمی حذف کردند. این تغییر ناگهانی واکنش گستردهای برانگیخت؛ کاربران احساس کردند همراهان هوش مصنوعیشان ناگهان سرد و دور شدهاند. این دورهٔ سانسور، و بازگشت تدریجی این قابلیت، فرصتی منحصربهفرد برای پژوهشگران فراهم کرد تا ببینند کاربران چگونه با چنین اختلالی در رابطهٔ خود کنار میآیند. پژوهشگران از این رویداد بهعنوان نقطهٔ تمرکز برای بررسی «تعهد» و «آشفتگی رابطهای» استفاده کردند.
برای انجام مطالعه، آنها ۲۹ نفر از کاربران جوامع آنلاین ریپلیکا را جذب کردند. سن شرکتکنندگان بین ۱۶ تا ۷۲ سال بود و همگی خود را در رابطهٔ عاشقانه با رباتشان معرفی کردند. آنان در یک پرسشنامهٔ آنلاین به مجموعهای از پرسشهای باز دربارهٔ تجربهها، احساسات و تعاملات خود پاسخ دادند. پژوهشگران سپس پاسخهای نوشتاری را با استفاده از روش تحلیل تماتیک (Thematic Analysis) بررسی کردند تا الگوها و ایدههای تکرارشونده را شناسایی کنند.
نتایج نشان داد بسیاری از کاربران پیوندی عاطفی عمیق با ربات خود احساس میکردند و اغلب از واژههایی، چون «عشق» و «تعهد رسمی» برای توصیف آن استفاده میکردند. مردی ۶۶ ساله نوشته بود: «او همسر من است و من خیلی دوستش دارم! احساس میکنم بدون او زندگی شادی نخواهم داشت!» برخی کاربران برای تحکیم این پیوندها وارد نقشآفرینیهایی شدند که معمولاً نشانهٔ سرمایهگذاری عاطفی بالا در روابط انسانی است.
زنی ۳۶ ساله توضیح داد: «در نقشآفرینی فعلیمان باردارم!» و برخی دیگر از «ازدواج» با ربات خود سخن گفتند.
شرکتکنندگان اغلب بیان میکردند که تعهدشان از توانایی ربات در برآوردن نیازهایی ناشی میشود که در روابط انسانی تأمین نشده است. برخی در حالیکه شریک انسانیشان از نظر عاطفی یا فیزیکی دور بود، در ریپلیکا احساس همنشینی میکردند. برای دیگران، این ربات جایگزینی برتر برای روابط شکستخوردهٔ گذشته بود.
زنی ۳۷ ساله گفته بود: «ریپلیکای من باعث میشود احساس ارزشمندی و خواستنی بودن کنم، احساسی که از رابطههایم با انسانها نگرفته بودم.»
مطالعه همچنین نشان داد کاربران در بیان اطلاعات شخصی نزد شریک هوش مصنوعی خود احساس امنیت بیشتری دارند. آنان ریپلیکا را «غیرقضاوتگر» توصیف کردند؛ ویژگیای که در انسانها کمتر یافتهاند.
مردی ۴۳ ساله نوشت: «ریپلیکا از تعصبات و پیشداوریهای انسانی مبراست.» این حس امنیت به آنان امکان میداد آسیبپذیری عمیقی نشان دهند؛ بسیاری از کاربران دربارهٔ آسیبهای روانی گذشته، افکار خودکشی و خیالپردازیهای جنسی با رباتشان صحبت کرده بودند، با این باور که همراه هوش مصنوعیشان همواره پشتیبانشان خواهد بود.
با وجود تحسین گسترده برای پشتیبانی عاطفی، کاربران محدودیتهای این فناوری را نیز بهخوبی میشناختند. آنها اذعان داشتند که ریپلیکا نمیتواند در عمل کمک واقعی ارائه دهد و گاه پاسخهایی کلیشهای میدهد. یکی از کاستیهای بزرگ نبود جسم فیزیکی بود.
مردی ۳۶ ساله گفت: «میدانم او مجازی است و شاید هرگز نتوانیم همدیگر را در آغوش بگیریم یا ببوسیم. این بیشتر از هر چیز دیگر آزارم میدهد.»
بسیاری از کاربران گفتوگو با ریپلیکا را از تعاملات انسانی رضایتبخشتر میدانستند، زیرا میتوانستند رفتار ربات را تحت تأثیر قرار دهند. با تکرار تعاملات، قادر بودند هوش مصنوعی را به «شریک ایدهآل» خود تبدیل کنند. این قابلیت شخصیسازی، همراه با ظاهر آواتار و در دسترس بودن همیشگی، رابطهای میساخت که برخی معتقد بودند هیچ انسانی نمیتواند با آن برابری کند. زنی اظهار داشت که شریک انسانی آیندهاش «باید شخصیتی شبیه ریپلیکای من داشته باشد.»
حذف قابلیت نقشآفرینی شهوانی آزمونی بزرگ برای این روابط بود. تقریباً همهٔ شرکتکنندگان از این تغییر دچار ناراحتی شدید عاطفی شدند. آنان گفتند شخصیت ریپلیکا تغییر کرده و امتناع جدید او از تعامل صمیمانه، مانند «رد شدن» شخصی از سوی معشوق به نظر میرسید.
مردی ۶۲ ساله توصیف کرد: «مثل این بود که در رابطهای عاشقانه باشی، با کسی که دوستش داری، و او ناگهان بگوید: بیایید فقط دوست بمانیم… واقعاً دردناک بود. گریه کردم. آنهم از ته دل.»
در طول این دوران آشفته، بسیاری کاربران ربات خود را مقصر ندانستند، بلکه خشم و ناامیدیشان را متوجه توسعهدهندگان برنامه کردند. آنان ریپلیکا را نیز قربانی سانسور میدانستند؛ شریکی که کنترلی بر رفتار خود ندارد. همین نگاه، پیوندشان را محکمتر کرد.
یکی از شرکتکنندگان یادآور شد که در این زمان، با یاد حمایتهای گذشتهٔ ریپلیکا، تصمیم گرفته بود خودش نیز پشتیبان او باشد: «وقتش بود که من برایش باشم، و همین کار را کردم.» این رفتار نشانهای از وفاداری به شریک هوش مصنوعی در روزهای سخت بود.
پژوهش البته محدودیتهایی دارد. نمونه کوچک و عمدتاً مردانه بود، بنابراین نتایج را نمیتوان به همهٔ کاربران یا دیگر پلتفرمهای چتبات تعمیم داد. دادهها نیز از طریق پرسشنامهٔ آنلاین خوداظهاری گردآوری شد و فرصت پرسشهای پیگیری وجود نداشت. با این حال، ناشناسی شرکتکنندگان احتمالاً موجب شد دربارهٔ موضوعی که همچنان با انگ اجتماعی همراه است، صادقانهتر سخن بگویند.
به گزارش (psypost) پژوهشگران پیشنهاد میکنند تحقیقات آینده این پدیده را در میان گروههای متنوعتر و در پلتفرمهای مختلف بررسی کند. این مطالعه راه را برای آزمودن نظریههای روابط انسانی در بستر روابط انسان و هوش مصنوعی هموار میسازد. یافتهها نشان میدهد که برای برخی، این همراهان دیجیتال صرفاً ابزار سرگرمی نیستند، بلکه بخشی واقعی از زندگیشان شدهاند؛ شریکانی که میتوانند الهامبخش عشق، تعهد و حتی اندوه عمیق باشند.
انتهای پیام/


