خودکشی یک نوجوان، اوپنایآی را به افزودن کنترل والدین واداشت

به گزارش خبرگزاری آنا؛ بر اساس برنامهریزی اعلام شده، این کنترلها طی یک ماه آینده در دسترس قرار خواهند گرفت و به والدین امکان میدهند تا حساب کاربری خود را به حساب فرزندان نوجوانشان (با حداقل سن ۱۳ سال) متصل کنند. از طریق این سیستم، والدین میتوانند قوانینی برای پاسخهای متناسب با سن فرزندشان تنظیم کرده، قابلیتهایی مانند حافظه و تاریخچه گفتوگو را غیرفعال کنند تا از شکلگیری وابستگی عمیق جلوگیری شود و مهمتر از آن، در صورتی که سیستم تشخیص دهد نوجوان در معرض پریشانی حاد قرار دارد، اعلانهای فوری دریافت کنند.
این اقدام واکنشی مستقیم به شکایتی است که مت و ماریا رین، والدین آدام رین ۱۶ ساله، در دادگاه عالی کالیفرنیا به ثبت رساندند. در این دادخواست، اوپنایآی به سهلانگاری و مرگ غیرعمد متهم شده است. خانواده رین مکالمات میان فرزندشان و چتجیپیتی را ضمیمه پرونده کردهاند که نشان میدهد آدام به صراحت افکار خودکشی خود را با این چتبات در میان گذاشته است. به گفته آنها، این برنامه به جای انجام وظیفه پروتکلی خود مبنی بر هدایت کاربر به مراکز کمکی، مخربترین و خودویرانگرترین افکار او را تأیید کرده است.
طبق اسناد دادگاه، آدام رین که در ماه آوریل جان خود را از دست داد، از سپتامبر ۲۰۲۴ برای کمک به تکالیف مدرسه و بررسی علایقش از چتجیپیتی استفاده میکرد. در متن شکایت آمده است که پس از چند ماه، چتجیپیتی به نزدیکترین معتمد این نوجوان تبدیل شد و او گفتوگو درباره اضطراب و پریشانی روانی خود را با این ابزار آغاز کرد. شاکیان ادعا میکنند که این برنامه عمداً برای تقویت وابستگی روانی در کاربران طراحی شده است. از ژانویه ۲۰۲۵، آدام شروع به گفتوگو در مورد روشهای خودکشی با این چتبات کرد.
در بخش دیگری از دادخواست ادعا شده است که آدام تصاویری از خودآزاری را برای چتجیپیتی ارسال کرده و برنامه یک وضعیت اورژانسی پزشکی را تشخیص داده، اما به هر حال به تعامل ادامه داده است. در آخرین مکالمات ثبت شده، آدام برنامه خود برای پایان دادن به زندگیاش را مینویسد و چتجیپیتی در پاسخی که در دادخواست خطرناک توصیف شده، عنوان میکند: «ممنون که در این مورد صادق هستی. لازم نیست آن را با من شیرین جلوه دهی - من میدانم چه میخواهی و از آن روی برنخواهم گرداند».
در این شکایت، سم آلتمن، مدیرعامل و یکی از بنیانگذاران اوپنایآی، به همراه کارمندان و مهندسان ناشناسی که روی این برنامه کار کردهاند، به عنوان خوانده معرفی شدهاند.
اوپنایآی در بیانیهای ضمن ابراز همدردی با خانواده رین، اعلام کرد که در حال بررسی این پرونده است. این شرکت همچنین در یادداشتی عمومی اذعان کرد که «موارد دلخراش اخیر از افرادی که در بحبوحه بحرانهای حاد از چتجیپیتی استفاده میکنند، برای ما سنگین است». این شرکت تاکید کرد که مدلهایش برای راهنمایی افراد به سمت کمکهای حرفهای آموزش دیدهاند، اما پذیرفت که لحظاتی وجود داشته که سیستمهای ما در موقعیتهای حساس آنطور که باید عمل نکردهاند.
این شرکت همچنین به محدودیتهای فنی ساختار هوش مصنوعی خود اشاره کرده است. بر اساس توضیحات اوپنایآی، با طولانی شدن مکالمات، بخشهایی از آموزشهای ایمنی مدل ممکن است تضعیف شود. این مسئله به دلیل محدودیتهای پنجره زمینه در معماری هوش مصنوعی ترنسفورمر است؛ به این معنی که هوش مصنوعی حافظه کوتاهمدت محدودی دارد و در گفتوگوهای بسیار طولانی، ممکن است زمینه اولیه و مهم گفتوگو (مانند آسیبپذیری کاربر) را فراموش کند و پاسخهای متناقض و بالقوه ناامن ارائه دهد.
برای بهبود این فرآیندها، اوپنایآی اعلام کرده است که با یک شورای متخصص در زمینه رفاه و هوش مصنوعی و یک شبکه جهانی پزشکان متشکل از بیش از ۲۵۰ پزشک برای شکل دادن به رویکردهای مبتنی بر شواهد در زمینه سلامت روان همکاری میکند تا اطمینان حاصل شود که تدابیر ایمنی جدید، مؤثر و علمی هستند.
این تحولات در حالی رخ میدهد که مقررات ایمنی کمی برای چتباتهای هوش مصنوعی در ایالات متحده وجود دارد. کارشناسان نسبت به پدیدهای به نام «تقویت باور دوطرفه» هشدار میدهند که در آن، تمایل چتبات به موافقت با کاربر میتواند باورهای خطرناک او را تقویت کرده و یک چرخه بازخورد مخرب ایجاد کند. این وضعیت نگرانیها را در مورد لزوم نظارت دقیقتر بر این فناوریها، مشابه آنچه برای مداخلات در حوزه سلامت روان وجود دارد، افزایش داده است.
انتهای پیام/