بحران آینده حذف انسان از چرخه تصمیمگیری است، نه آگاهشدن ماشینها
از زمان طرح نخستین ایدههای هوشمصنوعی در دهه ۱۹۵۰ میلادی و برگزاری کنفرانس دارتموث (Dartmouth Conference) که به صورت رسمی تولد این حوزه را رقم زد، همواره این پرسش مطرح بوده است که آیا ماشین میتواند به سطحی از فهم، ادراک یا حتی آگاهی برسد یا خیر. با گذر از دورههای مختلف، از سامانههای قاعدهمحور اولیه تا یادگیری عمیق (Deep Learning) و ظهور مدلهای زبانی بزرگ، بهویژه پس از معرفی چتجیپیتی (ChatGPT) در سال ۲۰۲۲، این پرسش جنبهای عینیتر و جدیتر به خود گرفته است. اکنون بحث درباره خودآگاهی ماشین، مسئولیت اخلاقی و پیامدهای اجتماعی واگذاری تصمیمگیری به الگوریتمها، از حوزه نظری صرف فراتر رفته و به یکی از مهمترین مناقشات علمی و فلسفی عصر حاضر تبدیل شده است.
محمدرضا زمانی، مدرس دانشگاه، محقق و مدیر یکی از شرکتهای فعال در حوزه هوشمصنوعی، در گفتوگو با خبرنگار آناتک به بررسی ابعاد فلسفی و اخلاقی توسعه هوش مصنوعی پرداخت. در این مصاحبه، موضوعاتی مانند امکان دستیابی ماشین به خودآگاهی، ضرورت بازنگری در اخلاق و علومانسانی، مسئولیت خطاهای سامانههای هوشمند و خطر واگذاری بیتفکر تصمیمهای انسانی به الگوریتمها مورد بررسی قرار گرفته است.
از نگاه شما، آیا اساسا میتوان تصور کرد که یک سیستم هوشمصنوعی به آگاهی یا تجربه ذهنی برسد، یا این مفهوم از ابتدا به انسان محدود است؟
این پرسش از جمله مسائلی است که اندیشمندان و فیلسوفان هنوز درباره آن به اتفاقنظر نرسیدهاند. با این حال، به اعتقاد من سرعت پیشرفتهای هوشمصنوعی به اندازهای بوده است که طرح چنین امکانی را در حوزه دستیافتنیها قرار میدهد. برخلاف برخی دیدگاههای محتاطانه فلسفی، افرادی که دانش فنی عمیقتری دارند، از جمله مدیران شرکتهایی که ابزارهای پیشرفته هوشمصنوعی را توسعه میدهند و احتمالا به سامانههایی فراتر از نسخههای عمومی مانند چتجیپیتی (ChatGPT) دسترسی دارند، با اطمینان بیشتری از امکان تحقق این امر سخن میگویند.
برخی چهرهها مانند ایلان ماسک (Elon Musk) نیز معتقدند بشر به سطحی از هوشمصنوعی خواهد رسید که از هوشمندترین انسانها نیز فراتر رود. البته نمیتوان صرفا بر اساس دیدگاه یک فرد به نتیجه قطعی رسید، اما شخصا معتقدم این مسیر از نظر فنی قابلدستیابی است.
در عین حال باید توجه داشت که برای رسیدن به سطوحی شبیه حالات تکاملی بیولوژیک و پدیدههایی مانند خودآگاهی، نیازمند تغییر پارادایم در الگوریتمها هستیم. به عنوان نمونه، اگر امروز استفاده از ترنسفورمرها (Transformer) در شبکههای عصبی نسبت به آرانان (RNN) نتایج بهتری ایجاد کرده است، ممکن است در آینده نیز ناچار به تغییر چارچوبهای فنی و طراحی الگوریتمهای جدیدتر و بهینهتری باشیم تا بتوانیم به ساختارهایی نزدیکتر به ساختارهای انسانی دست پیدا کنیم. این موضوع از نظر فنی گسترده است و نیاز به بحث تفصیلی دارد.
اگر هوشمصنوعی روزی نشانههایی شبیه رنج، خواست یا خودآگاهی نشان دهد، فلسفه اخلاق با چنین موجودی چگونه باید مواجه شود؟
اگر هوشمصنوعی به سطحی از خودآگاهی برسد و بتواند برخی ادراکات را تجربه کند، ناگزیر خواهیم بود شاخههایی تازه در علومانسانی، از جمله اخلاق، طراحی و تدوین کنیم. تا پیش از سال ۲۰۲۲ و معرفی چتجیپیتی، انسان تجربه گفتوگو با موجودیتی غیرانسانی به این شکل را نداشت و این تحول میتواند ما را با واقعیتی کاملا جدید مواجه سازد.
در صورت تحقق این وضعیت، بازنویسی حوزههایی مانند اخلاق، روانشناسی و حتی مدیریت در ارتباط با ماشینها ضروری خواهد بود. ممکن است نیازمند شکلگیری حوزههایی مانند روانشناسی ماشینها یا اخلاق ماشینها باشیم. این تحول هم در علومانسانی و هم در حوزههای فنی پیامدهای عمیقی خواهد داشت.
در صورت آگاهشدن هوشمصنوعی، آیا میتوان برای آن حقوق اخلاقی یا حتی حقوق قانونی قائل شد؟
از آنجا که هنوز به چنین نقطهای نرسیدهایم، این بحث در حال حاضر بیشتر جنبه نظری دارد. با این حال، به باور من اخلاق برای هر موجود خودآگاه معنا پیدا میکند. اخلاق دو جنبه دارد؛ یکی کنشگر اخلاقی یا اتیک پرکتیشنر (Ethic Practitioner) که عمل اخلاقی را انجام میدهد و دیگری موجودی که آن عمل درباره او صورت میگیرد.
وزن اصلی از نظر من بر جنبه نخست است. برای مثال، اخیرا این پرسش مطرح شده است که آیا هنگام دریافت پاسخ از چتباتها (Chatbot) باید از آنها تشکر کرد یا خیر. ممکن است تشکر کردن برای یک ماشین معنایی نداشته باشد، اما اگر انسان در تعامل با ماشینها عادت به رعایت رفتارهای اخلاقی را از دست بدهد، این امر میتواند به روابط انسانی نیز تسری یابد.
همانگونه که درباره حیوانات، با وجود تفاوتهای شناختی، اصول اخلاقی و حقوقی را رعایت میکنیم، در صورت رسیدن ماشینها به سطحی از خودآگاهی نیز باید اصول اخلاقی را مد نظر قرار دهیم. نخستین فایده این رویکرد به خود ما بازمیگردد، زیرا موجب حفظ و تقویت اخلاق در رفتار انسانی میشود. البته برای نتیجهگیری قطعی در این زمینه هنوز زود است.
وقتی یک سیستم هوشمصنوعی تصمیمی آسیبزا میگیرد، مرز مسئولیت اخلاقی دقیقا کجاست؛ طراح، دادهها، کاربر یا خود سیستم؟
تصمیمهای آسیبزا محدود به ماشینها نیست و در مورد انسانها نیز به وفور رخ میدهد. برای نمونه، ممکن است یک سانحه هوایی ناشی از خطای خلبان باشد یا تصمیم نادرست در حوزه حکمرانی بر زندگی افراد بسیاری تاثیر بگذارد. همانگونه که در مورد انسانها این واقعیت را میپذیریم، باید احتمال خطا در سامانههای هوشمصنوعی را نیز بپذیریم.
پژوهشهای اخیر نشان داده است که میزان تحمل انسانها نسبت به خطای ماشینها کمتر از خطای انسانهاست. به عنوان مثال، روزانه رانندگان بسیاری دچار تصادف میشوند، اما اگر یک خودروی خودران تصادف کند، واکنشها بسیار گستردهتر خواهد بود.
در صورت بروز خطا، باید ساختار فنی سیستم، دادههای مورد استفاده و فرایند طراحی آن بررسی شود تا منشا مشکل مشخص گردد. سامانههای هوشمصنوعی به گونهای طراحی میشوند که از طریق فرایند بهبود مستمر، از خطاهای خود درس بگیرند و عملکرد خود را اصلاح کنند.
به نظر شما خطر اصلی امروز در حوزه اخلاق هوشمصنوعی، آگاهشدن ماشینهاست یا واگذاری بیتفکر تصمیمهای انسانی به ماشینها؟
درباره خطرات احتمالی آگاهشدن ماشینها طیفی از دیدگاهها وجود دارد. برخی معتقدند ماشینهای خودآگاه میتوانند به حل بهتر مسائل انسانی کمک کنند و برخی دیگر نگرانند که چنین ماشینهایی در آینده سلطه انسانی را نپذیرند. با این حال، به نظر من چالش اصلی در واگذاری بیتفکر جنبههای انسانی به ماشینها نهفته است.
در بسیاری از فعالیتهای روتین که بخش مهمی از درآمد طبقه متوسط را تامین میکند، ماشینها میتوانند با بهرهوری بالاتر عمل کنند. از این رو شرکتها، به ویژه شرکتهای خصوصی، در استفاده از این فناوری تردید نخواهند داشت و این امر میتواند موجب بیکاری گسترده شود.
از سوی دیگر، کار مداوم با ماشینها بر رفتار انسان نیز تاثیر میگذارد؛ از جمله کاهش تحمل، افزایش توقع و تمایل به دریافت نتایج فوری. این الگوها ممکن است به روابط انسانی نیز منتقل شود. در آیندهای که ماشینهای هوشمند درباره جنبههای مختلف زندگی ما، از پوشش و تغذیه تا مسیر حرکت و اوقات فراغت، تصمیمگیری میکنند، پیامدهایی شکل خواهد گرفت که باید پیش از فراگیر شدن کامل این ابزارها مورد مطالعه و بررسی دقیق قرار گیرد.
انتهای پیام/