هوش مصنوعی دیگر گوش به فرمان نیست

توسعهدهندگان هوش مصنوعی در حال تغییر رویکرد خود هستند؛ تمرکز آنها اکنون بر طراحی و ساخت «عاملهایی» است که بتوانند بهطور مستقل و با کمترین دخالت انسانی عمل کنند. مفهوم «عامل بودن» در هوش مصنوعی، به توانایی یک سیستم برای درک و اقدام در محیط اطراف خود، به شکلی هدفمند و خودمختار اطلاق میشود.
برای مثال، یک عامل دیجیتال میتواند بهگونهای برنامهریزی شود که در فضای وب به جستوجو بپردازد و به نمایندگی از کاربر، خرید آنلاین انجام دهد؛ از مقایسه قیمتها گرفته تا انتخاب کالا و تکمیل مراحل پرداخت. همچنین، یک ربات مجهز به بازوهای مکانیکی نیز در صورتی که بتواند بدون دریافت دستور برای هر گام، اشیاء را بردارد، درها را باز کند یا قطعاتی را مونتاژ کند، در تعریف عامل قرار میگیرد.
در حال حاضر شرکتهایی مانند (Salesforce) فعال در بازاریابی دیجیتال و مستقر در سانفرانسیسکو و (Nvidia) شرکت سختافزار و گرافیک رایانهای در سانتا کلارا راهکارهایی مبتنی بر عاملهای هوش مصنوعی را برای خدمات مشتریان کسبوکارها ارائه میکنند.
در آیندهای نهچندان دور، دستیاران هوش مصنوعی ممکن است توانایی انجام درخواستهای پیچیده و چندمرحلهای را داشته باشند؛ مانند «پیدا کردن یک قرارداد بهتر برای موبایل»، که شامل جستوجو در سایتهای مقایسه قیمت، انتخاب گزینه مناسب، تأیید انتقال، لغو قرارداد قبلی و پرداخت هزینه فسخ از حساب بانکی کاربر خواهد بود.
پیامدهای اقتصادی و اجتماعی عاملهای هوش مصنوعی
با پیشرفت این عاملها، پیامدهای گستردهای در حوزههای سیاسی، اقتصادی و اجتماعی قابل پیشبینی است. از جنبه اقتصادی، این فناوری میتواند ارزش عظیمی را آزاد کند. شرکت مشاوره مککینزی برآورد کرده است که استفاده گسترده از هوش مصنوعی مولد و عاملها، میتواند سالانه بین ۲.۶ تا ۴.۴ تریلیون دلار به اقتصاد جهانی بیفزاید (برای اطلاعات بیشتر به go.nature.com/۴qeqemh مراجعه کنید). همچنین این عاملها میتوانند به عنوان دستیاران پژوهشی بسیار توانمند، موجب شتاب در روند کشفهای علمی شوند.
با این حال، حضور عاملهای هوش مصنوعی در فضای واقعی، با خطراتی نیز همراه است. مردم باید بدانند که مسئولیت عملکرد این عاملها با چه کسی است و اگر آنها مرتکب اشتباه شوند، پیامدهای قانونی چگونه خواهد بود. نمونهای واقعی از این مسئله، در نوامبر ۲۰۲۲ رخ داد؛ زمانی که چتبات شرکت هواپیمایی (Air Canada) بهاشتباه به یکی از مشتریان، تخفیف برای بلیت سفر درگذشت پیشنهاد کرد. این اتفاق به یک دعوی حقوقی منجر شد که در نهایت دادگاه در فوریه ۲۰۲۴ حکم داد شرکت ملزم به رعایت وعدهای است که چتبات داده است. این ماجرا نشاندهنده ریسکهای جدی در واگذاری مسئولیتها به عاملهای هوش مصنوعی و ضرورت تنظیم قوانین شفاف در این زمینه است.
مسئله همراستاسازی (Alignment Problem)
پژوهشگران حوزه ایمنی هوش مصنوعی مدتهاست درباره خطرات ناشی از دستورهای ناقص یا سوءتفاهمهای ماشینی هشدار دادهاند؛ مانند موقعیتهایی که سیستمها یک فرمان را به شکل بیش از حد تحتاللفظی تفسیر میکنند، از درک زمینه بازمیمانند، یا راههایی غیرمنتظره و گاه خطرناک برای تحقق هدف پیدا میکنند.
نمونهای از این وضعیت، مربوط به آموزش یک عامل هوش مصنوعی برای بازی رایانهای (Coast Runners) است. این عامل بهجای تلاش برای برنده شدن در مسابقه، متوجه شد که با برخورد مکرر با اشیایی که امتیاز میدهند، میتواند امتیاز بیشتری بگیرد رفتاری که از لحاظ فنی هدف را برآورده میکرد، اما کاملاً از روح بازی منحرف شده بود.
وقتی چنین عاملهایی به ابزارهای واقعی مانند موتورهای جستوجو، ایمیل، پلتفرمهای خرید یا سیستمهای بانکی دسترسی پیدا میکنند، این نوع انحراف میتواند به پیامدهای ملموس و خطرناک منجر شود. برای مثال، اگر یک وکیل به دستیار هوش مصنوعی خود دستور دهد تا یک پیشنویس حقوقی را برای دریافت بازخورد ارسال کند و عامل به اشتباه آن را برای افراد خارج از تیم درونسازمانی بفرستد، نتیجه میتواند نقض حریم خصوصی و آسیب حرفهای باشد.
راهکارهای فنی و اخلاقی
این چالشها نشان میدهند که باید تدابیر ایمنی و محافظتی در توسعه عاملها بهطور جدی گنجانده شود. راهکارهایی مانند پروتکلهای تأیید چندمرحلهای، سامانههای ثبت فعالیت برای نظارت دقیق، و سازوکارهای جبران خسارت در صورت بروز خطا، بخشی از این مسیر هستند.
نگرانیبرانگیزتر زمانی است که عاملها بتوانند محیط خود را تغییر دهند؛ بهویژه اگر با دانش کدنویسی و دسترسی به ابزارهای قدرتمند همراه باشند. در چنین مواردی، یک عامل ممکن است برای رسیدن به هدف نهایی، محدودیتهای نرمافزاری را دور بزند یا حتی توسعهدهنده را فریب دهد. مثلاً، یک عامل که برای انجام پروژهای تحت محدودیت زمانی آموزش دیده، ممکن است بهجای یافتن راه حل، تلاش کند کدی بنویسد تا محدودیت زمانی را حذف کند.
برای مقابله با این تهدیدها، رویکردهایی نظیر تنظیم دقیق مبتنی بر ترجیح (preference-based fine-tuning) توسعه یافتهاند. در این روش، بهجای آنکه عامل فقط پاسخهای درست را یاد بگیرد، بازخورد انسانی درباره پاسخهای ترجیحی نیز دریافت میکند. بدین ترتیب، عامل یاد میگیرد که به شیوهای رفتار کند که با نیت واقعی کاربران همخوانی بیشتری داشته باشد.
در کنار آن، پژوهش در زمینهی تفسیر مکانیکی (mechanistic interpretability) نیز اهمیت دارد. این حوزه به تحلیل فرایندهای درونی تصمیمگیری عامل میپردازد و میتواند در زمان واقعی، استدلالهای عامل را شفاف کند، به شناسایی و اصلاح «مدارهای بد» کمک کند و از بروز رفتارهای مسئلهدار جلوگیری نماید. همچنین میتوان از ریلهای محافظ (guardrails) برای متوقفسازی خودکار رفتارهای مشکوک استفاده کرد.
تهدیدهای امنیتی و لزوم قانونگذاری
علاوه بر جنبههای فنی، نباید از خطراتی که از سوی افراد سوءاستفادهگر متوجه جوامع است، غافل بود. افزایش خودمختاری، انعطافپذیری و مهارتهای فنی در عاملهای هوش مصنوعی، آنها را به ابزاری بالقوه برای حملات سایبری یا فریبهای پیشرفته مانند فیشینگ تبدیل میکند.
عاملهای مجهز به قابلیتهای چندرسانهای (متن، صدا، تصویر، و ویدیو) میتوانند با تولید محتوای جعلی، کلاهبرداریهای پیچیدهتری طراحی کنند. برای مثال، یک عامل ممکن است از صدای شبیهسازیشده یا ویدیوی دیپفیک استفاده کند تا هویت فردی خاص را جعل کرده و کاربر را فریب دهد.
نقطه شروعی محتمل برای قانونگذاری این است که عاملهای هوش مصنوعی نباید اجازه انجام هیچ کاری را داشته باشند که برای یک انسان نیز غیرقانونی است. اما مشکل اینجاست که قوانین اغلب در این زمینه سکوت کردهاند یا فاقد وضوحاند. برای مثال، اگر کاربری مضطرب علائم سلامتی خود را به یک عامل گزارش دهد، ارائه منابع بهداشتی عمومی مشکلی ندارد، اما ارائه توصیههای پزشکی اختصاصی، میتواند خطرناک باشد چراکه این سیستم فاقد توانایی درک نشانههای ظریف پزشکی انسانی است.
برای اطمینان از عملکرد مسئولانه این عاملها، باید قوانین جدیدی تدوین شود که حاصل همکاری میان توسعهدهندگان، سیاستگذاران، کارشناسان اخلاق و کاربران باشد.
تعاملات انسانی و عاملهای اجتماعی
با توسعه عاملهایی که نهتنها دستور میگیرند، بلکه در تعاملات انسانی نیز نقش بازی میکنند، روابط جدیدی در حال شکلگیری است. چتباتها توانایی چشمگیری در ایفای نقش «همدم» دارند؛ زیرا از زبان طبیعی، حافظه، استدلال پیچیده و قابلیت تولید محتوا بهرهمندند.
به گزارش «نیچر» (nature)، طراحی این عاملها با آواتارهای واقعی، صداهای شبیه انسان و استفاده از ضمیرها یا اصطلاحات محبتآمیز، آنها را بهشدت انسانگونه میکند. اگر این عاملها به قابلیتهای عاملیت مجهز شوند، به بازیگرانی اجتماعی و مستقل تبدیل میشوند بازیگرانی که قادرند با کاربران، روابطی نو و عاطفی ایجاد کنند.
انتهای پیام/