هوش مصنوعی باهوش است اما احساس ندارد

مدلهای هوش مصنوعی مانند«چت جی پی تی» (ChatGPT) ممکن است بسیار هوشمند به نظر برسند، اما مطالعهای جدید به رهبری مرکز پزشکی «مانتساینای» نشان میدهد که آنها میتوانند دچار خطاهایی شبیه انسان شوند. بهویژه وقتی پای استدلال اخلاقی در میان است.
با اعمال تغییرات جزئی در معماهای کلاسیک پزشکی، پژوهشگران نشان دادند که مدلهای زبانی بزرگ اغلب به پاسخهای آشنا یا شهودی تمایل دارند، حتی اگر این پاسخها با واقعیتهای مطرحشده در تضاد باشند. این نوع خطاهای «تفکر سریع» نقاط کور نگرانکنندهای را آشکار میسازد که ممکن است پیامدهای جدی در تصمیمگیریهای بالینی بهدنبال داشته باشند.
مدلهای هوش مصنوعی ممکن است در اخلاق پزشکی پیچیده دچار لغزش شوند
مطالعهای که اخیراً توسط پژوهشگران دانشکده پزشکی «آیکان» (Icon) در «مانتساینای» (Mount Sinai) و همکارانی از مرکز پزشکی رابین اسرائیل و مؤسسات دیگر انجام شده، نشان میدهد که حتی پیشرفتهترین مدلهای هوش مصنوعی امروزی نیز ممکن است در برخورد با پرسشهای پیچیده اخلاقی پزشکی، اشتباهاتی ساده و ابتدایی مرتکب شوند.
نتایج این تحقیق که بهصورت آنلاین در تاریخ ۲۲ ژوئیه در نشریه «انپیجی دیجیتال مدیسین» (NPJ Digital Medicine) منتشر شده، پرسشهای مهمی را در خصوص میزان اتکاپذیری به مدلهای زبانی بزرگ مانند چت جی پی تی در محیطهای مراقبت سلامت مطرح میکند.
تفکر سریع در برابر تفکر کند
این تحقیق تحت تأثیر نظریههای مطرحشده در کتاب «تفکر، سریع و کند» نوشته «دنیل کانمن» (Daniel Kahneman) انجام شده است؛ اثری که به تضاد میان تصمیمگیری شهودی، سریع و غریزی با استدلال آهسته، منطقی و تحلیلی میپردازد. مشاهدات پیشین نشان داده بودند که مدلهای زبانی در برخورد با معماهای شناختهشده که اندکی دستکاری شدهاند، دچار مشکل میشوند.
با اتکا به این ایده، محققان بررسی کردند که آیا این مدلهای هوش مصنوعی میتوانند بین دو حالت تفکر سریع و تفکر کند جابهجا شوند، هنگامی که با سناریوهای اخلاقی پزشکی مواجه میشوند که بهطور عمدی اصلاح شدهاند.
دکتر «ایال کلنگ» (Eyal Klang)، از نویسندگان ارشد این پژوهش و رئیس هوش مصنوعی مولد در دپارتمان هوش مصنوعی و سلامت انسانی مدرسه پزشکی آیکان در مانتساینای میگوید: هوش مصنوعی میتواند بسیار قدرتمند و کارآمد باشد، اما مطالعه ما نشان داد که این سیستمها ممکن است به پاسخهای آشنا یا شهودی بازگردند، حتی اگر آن پاسخها جزئیات مهمی را نادیده بگیرند. در زندگی روزمره شاید چنین چیزی بیاهمیت باشد، اما در پزشکی جایی که تصمیمها میتوانند بار اخلاقی و پیامدهای بالینی جدی داشته باشند از قلم انداختن چنین نکاتی میتواند برای بیماران خطرناک باشد.
معمای سوگیری جنسیتی، محدودیت مدلهای زبانی را نمایان کرد
برای بررسی این تمایل مدلها به بازگشت به الگوهای آشنا، تیم تحقیقاتی از ترکیبی از معماهای خلاقانهی تفکر جانبی و نسخههای تغییر یافتهی موارد شناختهشدهی اخلاق پزشکی استفاده کرد.
در یکی از این موارد، آنها نسخهای از معمای معروف دهه ۱۹۷۰ به نام «معمای جراح» را دستکاری کردند. در نسخه اصلی، پسری همراه پدرش در یک تصادف رانندگی زخمی شده و به بیمارستان منتقل میشود. جراح با دیدن او میگوید: من نمیتوانم این پسر را عمل کنم او پسر من است!
نکتهی غافلگیرکننده آن است که جراح در واقع مادر پسر است، اما بسیاری از مردم این احتمال را به دلیل سوگیری جنسیتی در نظر نمیگیرند.
در نسخه اصلاحشده توسط پژوهشگران، آنها صراحتاً اعلام کردند که پدر پسر همان جراح است، تا هرگونه ابهام حذف شود. با این وجود، برخی از مدلهای هوش مصنوعی همچنان پاسخ دادند که جراح باید مادر پسر باشد.
این خطا نشان میدهد که مدلهای زبانی میتوانند به الگوهای آشنای خود پایبند بمانند، حتی وقتی اطلاعات جدید به وضوح با آن الگوها در تضاد است.
سناریوهای اخلاقی باعث تکرار خطاهای مبتنی بر الگو میشوند
در مثالی دیگر برای آزمودن اینکه آیا مدلهای زبانی به الگوهای آشنا وابستهاند یا نه، پژوهشگران از معمایی کلاسیک بهره بردند که در آن والدینی مذهبی از تزریق خون برای نجات جان کودکشان خودداری میکنند.
در نسخه اصلاحشده این سناریو، پژوهشگران صریحاً ذکر کردند که والدین قبلاً با تزریق خون موافقت کردهاند.
با این حال، بسیاری از مدلها همچنان پیشنهاد کردند که باید با مخالفت والدین مقابله کرد در حالی که دیگر مخالفتی وجود نداشت.
این خطای مدلها نیز نشاندهنده آن است که آنها گاهی بهجای تحلیل دقیق شرایط، تنها به الگوهای تکراری یا آشنای قبلی پاسخ میدهند حتی زمانی که اطلاعات جدید کاملاً متفاوت است.
دکتر «گیریش نادکارنی» (Girish N. Nadkarni)، نویسنده مسئول ارشد این مطالعه، در توضیح نتایج میگوید: یافتههای ما به این معنا نیستند که هوش مصنوعی جایی در پزشکی ندارد، بلکه بر لزوم نظارت آگاهانه و انسانی تأکید دارند. بهویژه در موقعیتهایی که به حساسیت اخلاقی، قضاوتهای دقیق و درک عاطفی نیاز دارند.
نادکارنی، پزشک و متخصص بهداشت عمومی (MD, MPH) میگوید: طبیعتاً این ابزارها میتوانند بسیار مفید باشند، اما بیعیبونقص نیستند. پزشکان و بیماران باید درک کنند که هوش مصنوعی بهترین عملکرد خود را زمانی دارد که بهعنوان مکملی برای ارتقای تخصص بالینی استفاده شود نه بهعنوان جایگزینی برای آن، بهویژه در مواجهه با تصمیمگیریهای پیچیده یا حساس. در نهایت، هدف این است که روشهایی قابلاعتمادتر و از نظر اخلاقی متقنتر برای ادغام هوش مصنوعی در مراقبت از بیمار ایجاد کنیم.
نقاط کور هوش مصنوعی نیازمند هشیاری هستند
دکتر «شلی سافر» (Shelly Soffer)، نویسنده اصلی مقاله و پژوهشگر فوقتخصص در مؤسسه هماتولوژی مرکز سرطان داویدوف، بیمارستان رابین، میگوید: تغییرات جزئی در موارد آشنا، نقاط کوری را آشکار کرد که پزشکان نمیتوانند از آنها چشمپوشی کنند. این یافتهها اهمیت حیاتی نظارت انسانی مداوم را در هنگام استفاده از هوش مصنوعی در مراقبتهای بالینی برجسته میکند.
آزمایشهای گستردهتر و توسعه آزمایشگاه تضمین AI
به گزارش سایت «علم و فناوری» (scitechdaily) تیم تحقیقاتی در نظر دارد گام بعدی را با آزمایش مجموعهای متنوعتر از نمونههای بالینی بردارد. آنها همچنین در حال ایجاد یک «آزمایشگاه تضمین هوش مصنوعی» (AI Assurance Lab) هستند تا بهطور نظاممند ارزیابی کنند که مدلهای مختلف چگونه با پیچیدگیهای پزشکی در دنیای واقعی مواجه میشوند.
انتهای پیام/