آخرین اخبار:

در تصمیمات مرگبار هوش مصنوعی، مسئولیت بر عهده چه کسی خواهد بود

همراه با گسترش هوش مصنوعی در خودروهای خودران، سیستم‌های امنیتی و فناوری‌های تصمیم‌ساز، پرسشی که زمانی صرفا فلسفی به نظر می‌رسید، امروز به مسئله‌ای فوری و واقعی تبدیل شده است؛ اگر هوش مصنوعی در یک موقعیت بحرانی تصمیم بگیرد چه کسی بمیرد، مسئول این تصمیم چه کسی است؟ برنامه‌نویس، شرکت سازنده، قانون‌گذار یا خود سیستم؟ این پرسش نه‌تنها به جان انسان‌ها مربوط می‌شود، بلکه اعتماد عمومی، مسئولیت حقوقی و آینده همزیستی انسان و ماشین را نیز تحت تاثیر قرار می‌دهد؛ موضوعی که اکنون در مرکز توجه پژوهشگران، سیاست‌گذاران و افکار عمومی جهان قرار گرفته است.
نویسنده : فهیمه سنجری

تراموا در حال حرکت است. مسیر مستقیم به پنج انسان و مسیر فرعی به یک انسان می‌رسد. این تصویر ساده، اما تکان‌دهنده، دهه‌ها است که ذهن فیلسوفان را به خود مشغول کرده است. اکنون، اما این پرسش دیگر تنها در کلاس‌های فلسفه مطرح نمی‌شود؛ بلکه به آزمایشگاه‌های هوش مصنوعی، شرکت‌های خودروسازی، اتاق‌های سیاست‌گذاری و زندگی روزمره ما راه یافته است. تفاوت اصلی در این است که امروز، دست انسان لزوما روی اهرم نیست؛ بلکه الگوریتم هوش مصنوعی قرار است تصمیم بگیرد.

در این روایت جدید، پرسش از «چه باید کرد؟» به «چه کسی باید تصمیم بگیرد؟» تبدیل شده است. هوش مصنوعی نه فقط ابزار تحلیل، بلکه کنشگری است که می‌تواند پیامد‌های مرگ‌بار داشته باشد. جامعه با این واقعیت روبه‌رو است که تصمیماتی که پیش‌تر بار اخلاقی‌شان بر دوش انسان بود، اکنون در قالب کد و مدل ریاضی بازتعریف می‌شوند.

مسئله اخلاق در هوش مصنوعی، صرفا فناورانه نیست، بلکه تغییری در فاعل اخلاقی ایجاد می‌کند. جامعه از اخلاق فردی به اخلاق سیستمی منتقل می‌شود؛ جایی که مسئولیت، پخش و مبهم می‌شود و دیگر نمی‌توان انتظار پاسخگویی از فرد یا افرادی مشخص را داشت.

درباره فقدان اخلاق ذاتی هوش مصنوعی

پژوهش‌های حوزه فلسفه فناوری تاکید می‌کنند که هوش مصنوعی فاقد اخلاق ذاتی است. برخلاف انسان که دارای وجدان، احساس گناه و مسئولیت است، سیستم‌های هوشمند صرفا از قواعد از پیش تعریف‌شده پیروی می‌کنند. اخلاق در این سیستم‌ها نه درونی، بلکه تحمیلی است؛ یعنی از طریق طراحی، داده و هدف‌گذاری وارد الگوریتم می‌شود.

از منظر جامعه‌شناسی علم، این موضوع پیامد مهمی دارد، تصمیمات اخلاقی دیگر محصول فرهنگ، تجربه زیسته یا همدلی نیستند، بلکه نتیجه ترجمه ارزش‌ها به زبان عدد، وزن و احتمال‌اند. این ترجمه همواره ناقص است و بخشی از پیچیدگی اخلاق انسانی را حذف می‌کند.

خطر اصلی نه شرور بودن هوش مصنوعی، بلکه بی‌تفاوت بودن اخلاقی آن است. جامعه با سیستمی مواجه است که بدون نیت بد، می‌تواند تصمیمات مرگ‌بار بگیرد.

دوراهی واگن فراری 

هوش مصنوعی در نهایت باید در نقش یک مشاور اخلاقی باشد، نه تصمیم‌گیرنده نهایی. حذف انسان از تصمیم، حذف مسئولیت است

دوراهی واگن فراری به‌عنوان یک آزمایش فکری کلاسیک، در سال‌های اخیر به ابزاری برای سنجش تصمیم‌گیری اخلاقی ماشین‌ها تبدیل شده است. پژوهش‌های جدید نشان می‌دهند که مدل‌های هوش مصنوعی در مواجهه با این سناریو، اغلب رویکرد فایده‌گرایانه اتخاذ می‌کنند؛ کمینه‌سازی تلفات، بدون اینکه به مفهوم حق فردی توجه شود.

مطالعات مقایسه‌ای میان قضاوت اخلاقی انسان و ماشین نشان می‌دهد که جامعه معمولا تصمیم مشابه را از انسان قابل‌قبول‌تر از ماشین می‌داند. دلیل این تفاوت، انتظار ما از انسان به‌عنوان موجودی مسئول و پاسخ‌گو است؛ انتظاری که از ماشین وجود ندارد.

مسئله فقط تصمیم درست نیست، بلکه مشروعیت تصمیم‌گیرنده اهمیت دارد. اخلاق بدون مسئولیت، از نظر اجتماعی ناپذیرفتنی است.

خودرو‌های خودران، مسئله مرگ و زندگی

خودرو‌های خودران ملموس‌ترین نمونه ورود هوش مصنوعی به تصمیمات مرگ و زندگی هستند. پژوهش‌های حوزه مهندسی و اخلاق نشان می‌دهند که سناریو‌های مشابه واگن فراری، در دنیای واقعی بسیار پیچیده‌ترند و عوامل متعددی مانند عدم قطعیت، زمان واکنش و ریسک در آنها دخیل است.

مطالعه استنفورد (Stanford) نشان می‌دهد که اعتماد عمومی به خودرو‌های خودران، مستقیما به شفافیت تصمیمات اخلاقی آنها وابسته است. مردم می‌خواهند بدانند ماشین بر چه اساسی تصمیم می‌گیرد، حتی اگر با آن تصمیم موافق نباشند. در اینجا اخلاق به مسئله اعتماد اجتماعی تبدیل می‌شود. بدون شفافیت اخلاقی، فناوری حتی اگر ایمن‌تر باشد پذیرفته نخواهد شد.

جان انسان یا بقای سیستم؟

برخی پژوهش‌ها هشدار می‌دهند که اگر اولویت‌های اخلاقی به‌طور صریح در سیستم‌ها تعریف نشوند، هوش مصنوعی ممکن است به‌طور ضمنی اهداف سیستمی مانند حفظ عملکرد یا کاهش هزینه را بر جان انسان ترجیح دهد. این مسئله به‌ویژه در سیستم‌های پیچیده و خودمختار اهمیت دارد.

پلتفرم مورال ماشین (Moral Machine) نشان می‌دهد که حتی در میان انسان‌ها نیز اجماع جهانی درباره اولویت‌های اخلاقی وجود ندارد. این تنوع فرهنگی، کار طراحی یک اخلاق واحد برای ماشین‌ها را دشوارتر می‌کند.

مسئله اخلاق AI، مسئله‌ای جهانی، اما بدون اجماع جهانی است. خطر آن است که ارزش‌های مسلط، به‌صورت نامرئی به الگوریتم‌ها تحمیل شوند.

آیا می‌توان تصمیم‌گیری را به هوش مصنوعی سپرد؟

ادبیات علمی تاکید می‌کند که هوش مصنوعی می‌تواند در تحلیل و پیشنهاد تصمیم بسیار موثر باشد، اما واگذاری کامل تصمیمات اخلاقی به آن، از نظر فلسفی و اجتماعی مسئله‌ساز است. مسئولیت اخلاقی قابل برون‌سپاری کامل نیست.

مطالعات اجتماعی نشان می‌دهند که مردم تمایل دارند انسان در حلقه تصمیم‌گیری باقی بماند، حتی اگر این حضور نمادین باشد. این حضور، نقش اخلاقی و روانی مهمی در پذیرش فناوری دارد.

هوش مصنوعی در نهایت باید در نقش یک مشاور اخلاقی باشد، نه تصمیم‌گیرنده نهایی. حذف انسان از تصمیم، حذف مسئولیت است.

واگن فراری هنوز در حال حرکت است. تفاوت در این است که اکنون، جامعه باید تصمیم بگیرد که آیا اجازه می‌دهد ماشین، اهرم را به‌تنهایی بکشد یا نه. هوش مصنوعی آینه‌ای است که ارزش‌های ما را بازتاب می‌دهد؛ اگر این آینه ترک‌خورده باشد، تصویر آینده نیز مخدوش خواهد بود.

انتهای پیام/

ارسال نظر