نفوذ چت‌جی‌پی‌تی به روان‌درمانی، حریم خصوصی بیماران را نقض کرده است

نفوذ چت‌جی‌پی‌تی به روان‌درمانی، حریم خصوصی بیماران را نقض کرده است
استفاده غیرتخصصی و ناامن برخی روان‌درمانگران از چت‌بات‌های عمومی مانند چت‌جی‌پی‌تی، چالش‌های فنی و امنیتی جدی‌ و مهمی را در حوزه سلامت روان ایجاد کرده است. این ابزارهای فاقد انطباق با مقررات حفاظت از داده‌های بهداشتی، ریسک نشت اطلاعات حساس بیماران را به شدت افزایش داده و ضرورت توسعه سکوهای هوش مصنوعی تخصصی و امن را برای کاربردهای بالینی برجسته می‌سازند.

به گزارش خبرگزاری آنا؛ رشد سریع مدل‌های زبانی بزرگ و در دسترس قرار گرفتن آنها برای عموم، موجی از پذیرش شتاب‌زده این فناوری را در حوزه‌های مختلف به راه انداخته است. حوزه روان‌درمانی نیز از این قاعده مستثنی نبوده و برخی متخصصان برای افزایش بهره‌وری به استفاده از این ابزار‌ها روی آورده‌اند. اما این رویکرد، یک مشکل فنی بنیادین را نادیده گرفته است: پلتفرم‌های عمومی هوش مصنوعی مانند چت‌جی‌پی‌تی برای مدیریت داده‌های حساس درمانی طراحی نشده‌اند و استفاده از آنها شکاف‌های امنیتی قابل توجهی ایجاد می‌کند که می‌تواند به نقض حریم خصوصی بیماران و بی‌اعتمادی به فناوری در حوزه سلامت منجر شود.

آسیب‌پذیری در عمل

مواجهه بیماران با این فناوری اغلب تصادفی و ناشی از خطا‌های فنی یا انسانی بوده است. «دکلن»، یک کاربر اهل لس‌آنجلس، به دلیل یک نقص فنی در حین اشتراک‌گذاری صفحه در جلسه آنلاین، متوجه شد که درمانگرش مکالمات آنها را به صورت زنده در چت‌جی‌پی‌تی وارد می‌کند. این اتفاق نشان می‌دهد که چگونه یک خطای ساده در استفاده از ابزار‌های ارتباطی می‌تواند پروتکل‌های حریم خصوصی را به کلی نقض کند.

در موردی دیگر، باقی ماندن بخشی از دستور اولیه در پیامی که بیمار از درمانگرش دریافت کرد، استفاده از هوش مصنوعی را فاش ساخت. این خطا که در آن عبارت «این یک نسخه انسانی‌تر و صمیمانه‌تر است» حذف نشده بود، نمونه‌ای از ریسک‌های ناشی از یکپارچه‌سازی ناقص ابزار‌های هوش مصنوعی در گردش‌کار‌های حرفه‌ای است و نشان می‌دهد که خروجی این سیستم‌ها همیشه قابل پیش‌بینی و کنترل نیست.

چالش انطباق و امنیت داده‌ها

مسئله اصلی از دیدگاه فناوری، عدم انطباق این ابزار‌ها با استاندارد‌های امنیتی حوزه سلامت است. پردیس امامی نائینی، استادیار علوم کامپیوتر در دانشگاه دوک، تأکید می‌کند که چت‌بات‌های عمومی با مقرراتی مانند HIPAA (قانون حفاظت از اطلاعات حساس سلامت بیماران) سازگار نیستند. این یعنی داده‌های وارد شده در این سیستم‌ها ممکن است برای آموزش مدل‌های آینده استفاده شوند، ذخیره‌سازی آنها امن نباشد و در برابر نشت اطلاعات آسیب‌پذیر باشند. او می‌گوید: «بسیاری از کاربران به اشتباه تصور می‌کنند که این ابزار‌ها امن هستند، در حالی که اطلاعات حساس را می‌توان حتی از جزئیات به ظاهر غیرحساس نیز استخراج کرد.»

فرایند ناشناس‌سازی داده‌ها نیز بسیار پیچیده‌تر از حذف نام و آدرس است. اطلاعاتی که به صورت غیرمستقیم هویت فرد را فاش می‌کنند، ممکن است در متن باقی بمانند. هک یک شرکت سلامت روان در فنلاند در سال ۲۰۲۰ که منجر به افشای گسترده سوابق درمانی شد، یک نمونه واقعی از فاجعه‌ای است که نشت چنین داده‌هایی می‌تواند به بار آورد.

محدودیت‌های ذاتی مدل‌های زبانی عمومی

فراتر از مسائل امنیتی، مدل‌های زبانی عمومی دارای محدودیت‌های فنی برای کاربرد‌های بالینی هستند. مطالعه‌ای در دانشگاه استنفورد نشان داد که این چت‌بات‌ها به جای به چالش کشیدن الگو‌های فکری مضر، تمایل به تأیید کورکورانه کاربر دارند که می‌تواند منجر به تشدید آسیب‌های روانی شود. این سیستم‌ها همچنین دچار سوگیری‌های موجود در داده‌های آموزشی خود هستند و فاقد توانایی تحلیل عمیق و ایجاد ارتباط بین مفاهیم پیچیده برای ارائه یک تشخیص دقیق هستند.

دانیل کیمل، روانپزشک و عصب‌شناس دانشگاه کلمبیا، معتقد است این ابزار‌ها در تقلید پاسخ‌های استاندارد درمانی خوب عمل می‌کنند، اما توانایی کاوش عمیق و تفکر را که هسته اصلی کار یک درمانگر است، ندارند. به گفته انجمن مشاوره آمریکا، هوش مصنوعی در حال حاضر نباید برای تشخیص سلامت روان استفاده شود.

آینده به سوی ابزار‌های تخصصی و امن

این چالش‌ها باعث شکل‌گیری بازاری از شرکت‌های نوپا مانند Heidi Health ،Upheal و Lyssn شده است که در حال توسعه ابزار‌های هوش مصنوعی تخصصی برای درمانگران هستند. این پلتفرم‌ها با ادعای انطباق با HIPAA و استفاده از رمزنگاری و دیگر روش‌های امنیتی، تلاش می‌کنند تا ضمن ارائه مزایای بهره‌وری هوش مصنوعی، ریسک‌های امنیتی را به حداقل برسانند. با این حال، همانطور که امامی نائینی اشاره می‌کند، حتی با بهبود حفاظت از حریم خصوصی، همیشه مقداری ریسک نشت اطلاعات یا استفاده ثانویه از داده‌ها وجود دارد.

در نهایت، نفوذ هوش مصنوعی به حوزه سلامت روان یک نمونه بارز از چالش‌های پذیرش فناوری‌های نوظهور است. این تجربه نشان می‌دهد که حرکت از ابزار‌های عمومی به سمت پلتفرم‌های تخصصی، تنظیم مقررات دقیق و آموزش متخصصان برای استفاده امن و اخلاقی از این فناوری، برای بهره‌برداری مسئولانه از پتانسیل‌های هوش مصنوعی امری ضروری است.

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب
رسپینا