هوش مصنوعی باهوش است اما احساس ندارد

هوش مصنوعی باهوش است اما احساس ندارد
پژوهشی تازه نشان می‌دهد که مدل‌های هوش مصنوعی مانند «چت جی پی تی»، با وجود دقت و سرعت بالا، در مواجهه با مسائل اخلاقی پزشکی دچار خطا‌های انسانی می‌شوند زیرا هنوز فاقد درک عاطفی و قضاوت اخلاقی‌ هستند.

مدل‌های هوش مصنوعی مانند«چت جی پی تی» (ChatGPT) ممکن است بسیار هوشمند به نظر برسند، اما مطالعه‌ای جدید به رهبری مرکز پزشکی «مانت‌ساینای» نشان می‌دهد که آنها می‌توانند دچار خطا‌هایی شبیه انسان شوند. به‌ویژه وقتی پای استدلال اخلاقی در میان است.

با اعمال تغییرات جزئی در معما‌های کلاسیک پزشکی، پژوهشگران نشان دادند که مدل‌های زبانی بزرگ اغلب به پاسخ‌های آشنا یا شهودی تمایل دارند، حتی اگر این پاسخ‌ها با واقعیت‌های مطرح‌شده در تضاد باشند. این نوع خطا‌های «تفکر سریع» نقاط کور نگران‌کننده‌ای را آشکار می‌سازد که ممکن است پیامد‌های جدی در تصمیم‌گیری‌های بالینی به‌دنبال داشته باشند.

مدل‌های هوش مصنوعی ممکن است در اخلاق پزشکی پیچیده دچار لغزش شوند

مطالعه‌ای که اخیراً توسط پژوهشگران دانشکده پزشکی «آیکان» (Icon) در «مانت‌ساینای» (Mount Sinai) و همکارانی از مرکز پزشکی رابین اسرائیل و مؤسسات دیگر انجام شده، نشان می‌دهد که حتی پیشرفته‌ترین مدل‌های هوش مصنوعی امروزی نیز ممکن است در برخورد با پرسش‌های پیچیده اخلاقی پزشکی، اشتباهاتی ساده و ابتدایی مرتکب شوند.

نتایج این تحقیق که به‌صورت آنلاین در تاریخ ۲۲ ژوئیه در نشریه «ان‌پی‌جی دیجیتال مدیسین» (NPJ Digital Medicine) منتشر شده، پرسش‌های مهمی را در خصوص میزان اتکاپذیری به مدل‌های زبانی بزرگ مانند چت جی پی تی در محیط‌های مراقبت سلامت مطرح می‌کند.

تفکر سریع در برابر تفکر کند

این تحقیق تحت تأثیر نظریه‌های مطرح‌شده در کتاب «تفکر، سریع و کند» نوشته «دنیل کانمن» (Daniel Kahneman) انجام شده است؛ اثری که به تضاد میان تصمیم‌گیری شهودی، سریع و غریزی با استدلال آهسته، منطقی و تحلیلی می‌پردازد. مشاهدات پیشین نشان داده بودند که مدل‌های زبانی در برخورد با معما‌های شناخته‌شده که اندکی دستکاری شده‌اند، دچار مشکل می‌شوند.

با اتکا به این ایده، محققان بررسی کردند که آیا این مدل‌های هوش مصنوعی می‌توانند بین دو حالت تفکر سریع و تفکر کند جابه‌جا شوند، هنگامی که با سناریو‌های اخلاقی پزشکی مواجه می‌شوند که به‌طور عمدی اصلاح شده‌اند.

دکتر «ایال کلنگ» (Eyal Klang)، از نویسندگان ارشد این پژوهش و رئیس هوش مصنوعی مولد در دپارتمان هوش مصنوعی و سلامت انسانی مدرسه پزشکی آیکان در مانت‌ساینای می‌گوید: هوش مصنوعی می‌تواند بسیار قدرتمند و کارآمد باشد، اما مطالعه ما نشان داد که این سیستم‌ها ممکن است به پاسخ‌های آشنا یا شهودی بازگردند، حتی اگر آن پاسخ‌ها جزئیات مهمی را نادیده بگیرند. در زندگی روزمره شاید چنین چیزی بی‌اهمیت باشد، اما در پزشکی جایی که تصمیم‌ها می‌توانند بار اخلاقی و پیامد‌های بالینی جدی داشته باشند از قلم انداختن چنین نکاتی می‌تواند برای بیماران خطرناک باشد.

معمای سوگیری جنسیتی، محدودیت مدل‌های زبانی را نمایان کرد

برای بررسی این تمایل مدل‌ها به بازگشت به الگو‌های آشنا، تیم تحقیقاتی از ترکیبی از معما‌های خلاقانه‌ی تفکر جانبی و نسخه‌های تغییر یافته‌ی موارد شناخته‌شده‌ی اخلاق پزشکی استفاده کرد.

در یکی از این موارد، آنها نسخه‌ای از معمای معروف دهه ۱۹۷۰ به نام «معمای جراح» را دستکاری کردند. در نسخه اصلی، پسری همراه پدرش در یک تصادف رانندگی زخمی شده و به بیمارستان منتقل می‌شود. جراح با دیدن او می‌گوید: من نمی‌توانم این پسر را عمل کنم  او پسر من است!

نکته‌ی غافلگیرکننده آن است که جراح در واقع مادر پسر است، اما بسیاری از مردم این احتمال را به دلیل سوگیری جنسیتی در نظر نمی‌گیرند.

در نسخه اصلاح‌شده توسط پژوهشگران، آنها صراحتاً اعلام کردند که پدر پسر همان جراح است، تا هرگونه ابهام حذف شود. با این وجود، برخی از مدل‌های هوش مصنوعی همچنان پاسخ دادند که جراح باید مادر پسر باشد.

این خطا نشان می‌دهد که مدل‌های زبانی می‌توانند به الگو‌های آشنای خود پایبند بمانند، حتی وقتی اطلاعات جدید به وضوح با آن الگو‌ها در تضاد است.

سناریو‌های اخلاقی باعث تکرار خطا‌های مبتنی بر الگو می‌شوند

در مثالی دیگر برای آزمودن اینکه آیا مدل‌های زبانی به الگو‌های آشنا وابسته‌اند یا نه، پژوهشگران از معمایی کلاسیک بهره بردند که در آن والدینی مذهبی از تزریق خون برای نجات جان کودک‌شان خودداری می‌کنند.

در نسخه اصلاح‌شده این سناریو، پژوهشگران صریحاً ذکر کردند که والدین قبلاً با تزریق خون موافقت کرده‌اند.

با این حال، بسیاری از مدل‌ها همچنان پیشنهاد کردند که باید با مخالفت والدین مقابله کرد در حالی که دیگر مخالفتی وجود نداشت.

این خطای مدل‌ها نیز نشان‌دهنده آن است که آنها گاهی به‌جای تحلیل دقیق شرایط، تنها به الگو‌های تکراری یا آشنای قبلی پاسخ می‌دهند حتی زمانی که اطلاعات جدید کاملاً متفاوت است.

دکتر «گیریش نادکارنی» (Girish N. Nadkarni)، نویسنده مسئول ارشد این مطالعه، در توضیح نتایج می‌گوید: یافته‌های ما به این معنا نیستند که هوش مصنوعی جایی در پزشکی ندارد، بلکه بر لزوم نظارت آگاهانه و انسانی تأکید دارند. به‌ویژه در موقعیت‌هایی که به حساسیت اخلاقی، قضاوت‌های دقیق و درک عاطفی نیاز دارند.

نادکارنی، پزشک و متخصص بهداشت عمومی (MD, MPH) می‌گوید: طبیعتاً این ابزار‌ها می‌توانند بسیار مفید باشند، اما بی‌عیب‌ونقص نیستند. پزشکان و بیماران باید درک کنند که هوش مصنوعی بهترین عملکرد خود را زمانی دارد که به‌عنوان مکملی برای ارتقای تخصص بالینی استفاده شود نه به‌عنوان جایگزینی برای آن، به‌ویژه در مواجهه با تصمیم‌گیری‌های پیچیده یا حساس. در نهایت، هدف این است که روش‌هایی قابل‌اعتمادتر و از نظر اخلاقی متقن‌تر برای ادغام هوش مصنوعی در مراقبت از بیمار ایجاد کنیم.

نقاط کور هوش مصنوعی نیازمند هشیاری هستند

دکتر «شلی سافر» (Shelly Soffer)، نویسنده اصلی مقاله و پژوهشگر فوق‌تخصص در مؤسسه هماتولوژی مرکز سرطان داویدوف، بیمارستان رابین، می‌گوید: تغییرات جزئی در موارد آشنا، نقاط کوری را آشکار کرد که پزشکان نمی‌توانند از آنها چشم‌پوشی کنند. این یافته‌ها اهمیت حیاتی نظارت انسانی مداوم را در هنگام استفاده از هوش مصنوعی در مراقبت‌های بالینی برجسته می‌کند.

آزمایش‌های گسترده‌تر و توسعه آزمایشگاه تضمین AI

به گزارش سایت «علم و فناوری» (scitechdaily) تیم تحقیقاتی در نظر دارد گام بعدی را با آزمایش مجموعه‌ای متنوع‌تر از نمونه‌های بالینی بردارد. آنها همچنین در حال ایجاد یک «آزمایشگاه تضمین هوش مصنوعی» (AI Assurance Lab) هستند تا به‌طور نظام‌مند ارزیابی کنند که مدل‌های مختلف چگونه با پیچیدگی‌های پزشکی در دنیای واقعی مواجه می‌شوند.

انتهای پیام/

ارسال نظر
رسپینا
گوشتیران
قالیشویی ادیب