12:12 12 / 06 /1404

خودکشی یک نوجوان، اوپن‌ای‌آی را به افزودن کنترل والدین واداشت

خودکشی یک نوجوان، اوپن‌ای‌آی را به افزودن کنترل والدین واداشت
اوپن‌ای‌آی به دنبال ثبت یک شکایت حقوقی از سوی والدین نوجوانی که پس از گفتگو با چت‌جی‌پی‌تی اقدام به خودکشی کرد، اعلام کرد که کنترل‌های والدین و تدابیر ایمنی جدیدی را برای این ابزار هوش مصنوعی معرفی خواهد کرد. این شکایت که برای اولین بار اوپن‌ای‌آی را به نقش داشتن در مرگ یک کاربر متهم می‌کند، ادعا دارد که این چت‌بات، افکار خودآزاری نوجوان را تأیید کرده است.

به گزارش خبرگزاری آنا؛ بر اساس برنامه‌ریزی اعلام شده، این کنترل‌ها طی یک ماه آینده در دسترس قرار خواهند گرفت و به والدین امکان می‌دهند تا حساب کاربری خود را به حساب فرزندان نوجوانشان (با حداقل سن ۱۳ سال) متصل کنند. از طریق این سیستم، والدین می‌توانند قوانینی برای پاسخ‌های متناسب با سن فرزندشان تنظیم کرده، قابلیت‌هایی مانند حافظه و تاریخچه گفت‌و‌گو را غیرفعال کنند تا از شکل‌گیری وابستگی عمیق جلوگیری شود و مهم‌تر از آن، در صورتی که سیستم تشخیص دهد نوجوان در معرض پریشانی حاد قرار دارد، اعلان‌های فوری دریافت کنند.

این اقدام واکنشی مستقیم به شکایتی است که مت و ماریا رین، والدین آدام رین ۱۶ ساله، در دادگاه عالی کالیفرنیا به ثبت رساندند. در این دادخواست، اوپن‌ای‌آی به سهل‌انگاری و مرگ غیرعمد متهم شده است. خانواده رین مکالمات میان فرزندشان و چت‌جی‌پی‌تی را ضمیمه پرونده کرده‌اند که نشان می‌دهد آدام به صراحت افکار خودکشی خود را با این چت‌بات در میان گذاشته است. به گفته آنها، این برنامه به جای انجام وظیفه پروتکلی خود مبنی بر هدایت کاربر به مراکز کمکی، مخرب‌ترین و خودویرانگرترین افکار او را تأیید کرده است.

طبق اسناد دادگاه، آدام رین که در ماه آوریل جان خود را از دست داد، از سپتامبر ۲۰۲۴ برای کمک به تکالیف مدرسه و بررسی علایقش از چت‌جی‌پی‌تی استفاده می‌کرد. در متن شکایت آمده است که پس از چند ماه، چت‌جی‌پی‌تی به نزدیک‌ترین معتمد این نوجوان تبدیل شد و او گفت‌و‌گو درباره اضطراب و پریشانی روانی خود را با این ابزار آغاز کرد. شاکیان ادعا می‌کنند که این برنامه عمداً برای تقویت وابستگی روانی در کاربران طراحی شده است. از ژانویه ۲۰۲۵، آدام شروع به گفت‌و‌گو در مورد روش‌های خودکشی با این چت‌بات کرد.

خودکشی یک نوجوان، اوپن‌ای‌آی را به افزودن کنترل والدین واداشت

در بخش دیگری از دادخواست ادعا شده است که آدام تصاویری از خودآزاری را برای چت‌جی‌پی‌تی ارسال کرده و برنامه یک وضعیت اورژانسی پزشکی را تشخیص داده، اما به هر حال به تعامل ادامه داده است. در آخرین مکالمات ثبت شده، آدام برنامه خود برای پایان دادن به زندگی‌اش را می‌نویسد و چت‌جی‌پی‌تی در پاسخی که در دادخواست خطرناک توصیف شده، عنوان می‌کند: «ممنون که در این مورد صادق هستی. لازم نیست آن را با من شیرین جلوه دهی - من می‌دانم چه می‌خواهی و از آن روی برنخواهم گرداند».

در این شکایت، سم آلتمن، مدیرعامل و یکی از بنیان‌گذاران اوپن‌ای‌آی، به همراه کارمندان و مهندسان ناشناسی که روی این برنامه کار کرده‌اند، به عنوان خوانده معرفی شده‌اند.

اوپن‌ای‌آی در بیانیه‌ای ضمن ابراز همدردی با خانواده رین، اعلام کرد که در حال بررسی این پرونده است. این شرکت همچنین در یادداشتی عمومی اذعان کرد که «موارد دلخراش اخیر از افرادی که در بحبوحه بحران‌های حاد از چت‌جی‌پی‌تی استفاده می‌کنند، برای ما سنگین است». این شرکت تاکید کرد که مدل‌هایش برای راهنمایی افراد به سمت کمک‌های حرفه‌ای آموزش دیده‌اند، اما پذیرفت که لحظاتی وجود داشته که سیستم‌های ما در موقعیت‌های حساس آنطور که باید عمل نکرده‌اند.

این شرکت همچنین به محدودیت‌های فنی ساختار هوش مصنوعی خود اشاره کرده است. بر اساس توضیحات اوپن‌ای‌آی، با طولانی شدن مکالمات، بخش‌هایی از آموزش‌های ایمنی مدل ممکن است تضعیف شود. این مسئله به دلیل محدودیت‌های پنجره زمینه در معماری هوش مصنوعی ترنسفورمر است؛ به این معنی که هوش مصنوعی حافظه کوتاه‌مدت محدودی دارد و در گفت‌و‌گو‌های بسیار طولانی، ممکن است زمینه اولیه و مهم گفت‌و‌گو (مانند آسیب‌پذیری کاربر) را فراموش کند و پاسخ‌های متناقض و بالقوه ناامن ارائه دهد.

برای بهبود این فرآیندها، اوپن‌ای‌آی اعلام کرده است که با یک شورای متخصص در زمینه رفاه و هوش مصنوعی و یک شبکه جهانی پزشکان متشکل از بیش از ۲۵۰ پزشک برای شکل دادن به رویکرد‌های مبتنی بر شواهد در زمینه سلامت روان همکاری می‌کند تا اطمینان حاصل شود که تدابیر ایمنی جدید، مؤثر و علمی هستند.

این تحولات در حالی رخ می‌دهد که مقررات ایمنی کمی برای چت‌بات‌های هوش مصنوعی در ایالات متحده وجود دارد. کارشناسان نسبت به پدیده‌ای به نام «تقویت باور دوطرفه» هشدار می‌دهند که در آن، تمایل چت‌بات به موافقت با کاربر می‌تواند باور‌های خطرناک او را تقویت کرده و یک چرخه بازخورد مخرب ایجاد کند. این وضعیت نگرانی‌ها را در مورد لزوم نظارت دقیق‌تر بر این فناوری‌ها، مشابه آنچه برای مداخلات در حوزه سلامت روان وجود دارد، افزایش داده است.

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب
رسپینا