نفوذ چتجیپیتی به رواندرمانی، حریم خصوصی بیماران را نقض کرده است

به گزارش خبرگزاری آنا؛ رشد سریع مدلهای زبانی بزرگ و در دسترس قرار گرفتن آنها برای عموم، موجی از پذیرش شتابزده این فناوری را در حوزههای مختلف به راه انداخته است. حوزه رواندرمانی نیز از این قاعده مستثنی نبوده و برخی متخصصان برای افزایش بهرهوری به استفاده از این ابزارها روی آوردهاند. اما این رویکرد، یک مشکل فنی بنیادین را نادیده گرفته است: پلتفرمهای عمومی هوش مصنوعی مانند چتجیپیتی برای مدیریت دادههای حساس درمانی طراحی نشدهاند و استفاده از آنها شکافهای امنیتی قابل توجهی ایجاد میکند که میتواند به نقض حریم خصوصی بیماران و بیاعتمادی به فناوری در حوزه سلامت منجر شود.
آسیبپذیری در عمل
مواجهه بیماران با این فناوری اغلب تصادفی و ناشی از خطاهای فنی یا انسانی بوده است. «دکلن»، یک کاربر اهل لسآنجلس، به دلیل یک نقص فنی در حین اشتراکگذاری صفحه در جلسه آنلاین، متوجه شد که درمانگرش مکالمات آنها را به صورت زنده در چتجیپیتی وارد میکند. این اتفاق نشان میدهد که چگونه یک خطای ساده در استفاده از ابزارهای ارتباطی میتواند پروتکلهای حریم خصوصی را به کلی نقض کند.
در موردی دیگر، باقی ماندن بخشی از دستور اولیه در پیامی که بیمار از درمانگرش دریافت کرد، استفاده از هوش مصنوعی را فاش ساخت. این خطا که در آن عبارت «این یک نسخه انسانیتر و صمیمانهتر است» حذف نشده بود، نمونهای از ریسکهای ناشی از یکپارچهسازی ناقص ابزارهای هوش مصنوعی در گردشکارهای حرفهای است و نشان میدهد که خروجی این سیستمها همیشه قابل پیشبینی و کنترل نیست.
چالش انطباق و امنیت دادهها
مسئله اصلی از دیدگاه فناوری، عدم انطباق این ابزارها با استانداردهای امنیتی حوزه سلامت است. پردیس امامی نائینی، استادیار علوم کامپیوتر در دانشگاه دوک، تأکید میکند که چتباتهای عمومی با مقرراتی مانند HIPAA (قانون حفاظت از اطلاعات حساس سلامت بیماران) سازگار نیستند. این یعنی دادههای وارد شده در این سیستمها ممکن است برای آموزش مدلهای آینده استفاده شوند، ذخیرهسازی آنها امن نباشد و در برابر نشت اطلاعات آسیبپذیر باشند. او میگوید: «بسیاری از کاربران به اشتباه تصور میکنند که این ابزارها امن هستند، در حالی که اطلاعات حساس را میتوان حتی از جزئیات به ظاهر غیرحساس نیز استخراج کرد.»
فرایند ناشناسسازی دادهها نیز بسیار پیچیدهتر از حذف نام و آدرس است. اطلاعاتی که به صورت غیرمستقیم هویت فرد را فاش میکنند، ممکن است در متن باقی بمانند. هک یک شرکت سلامت روان در فنلاند در سال ۲۰۲۰ که منجر به افشای گسترده سوابق درمانی شد، یک نمونه واقعی از فاجعهای است که نشت چنین دادههایی میتواند به بار آورد.
محدودیتهای ذاتی مدلهای زبانی عمومی
فراتر از مسائل امنیتی، مدلهای زبانی عمومی دارای محدودیتهای فنی برای کاربردهای بالینی هستند. مطالعهای در دانشگاه استنفورد نشان داد که این چتباتها به جای به چالش کشیدن الگوهای فکری مضر، تمایل به تأیید کورکورانه کاربر دارند که میتواند منجر به تشدید آسیبهای روانی شود. این سیستمها همچنین دچار سوگیریهای موجود در دادههای آموزشی خود هستند و فاقد توانایی تحلیل عمیق و ایجاد ارتباط بین مفاهیم پیچیده برای ارائه یک تشخیص دقیق هستند.
دانیل کیمل، روانپزشک و عصبشناس دانشگاه کلمبیا، معتقد است این ابزارها در تقلید پاسخهای استاندارد درمانی خوب عمل میکنند، اما توانایی کاوش عمیق و تفکر را که هسته اصلی کار یک درمانگر است، ندارند. به گفته انجمن مشاوره آمریکا، هوش مصنوعی در حال حاضر نباید برای تشخیص سلامت روان استفاده شود.
آینده به سوی ابزارهای تخصصی و امن
این چالشها باعث شکلگیری بازاری از شرکتهای نوپا مانند Heidi Health ،Upheal و Lyssn شده است که در حال توسعه ابزارهای هوش مصنوعی تخصصی برای درمانگران هستند. این پلتفرمها با ادعای انطباق با HIPAA و استفاده از رمزنگاری و دیگر روشهای امنیتی، تلاش میکنند تا ضمن ارائه مزایای بهرهوری هوش مصنوعی، ریسکهای امنیتی را به حداقل برسانند. با این حال، همانطور که امامی نائینی اشاره میکند، حتی با بهبود حفاظت از حریم خصوصی، همیشه مقداری ریسک نشت اطلاعات یا استفاده ثانویه از دادهها وجود دارد.
در نهایت، نفوذ هوش مصنوعی به حوزه سلامت روان یک نمونه بارز از چالشهای پذیرش فناوریهای نوظهور است. این تجربه نشان میدهد که حرکت از ابزارهای عمومی به سمت پلتفرمهای تخصصی، تنظیم مقررات دقیق و آموزش متخصصان برای استفاده امن و اخلاقی از این فناوری، برای بهرهبرداری مسئولانه از پتانسیلهای هوش مصنوعی امری ضروری است.
انتهای پیام/