هوش مصنوعی دیگر گوش به فرمان نیست

هوش مصنوعی دیگر گوش به فرمان نیست
عامل‌های جدید هوش مصنوعی بدون نیاز به دستور انسان، تصمیم می‌گیرند، عمل می‌کنند و حتی گاهی قوانین را دور می‌زنند؛ آینده‌ای نزدیک که فرصت و تهدید را هم‌زمان در خود دارد.

توسعه‌دهندگان هوش مصنوعی در حال تغییر رویکرد خود هستند؛ تمرکز آنها اکنون بر طراحی و ساخت «عامل‌هایی» است که بتوانند به‌طور مستقل و با کمترین دخالت انسانی عمل کنند. مفهوم «عامل بودن» در هوش مصنوعی، به توانایی یک سیستم برای درک و اقدام در محیط اطراف خود، به شکلی هدف‌مند و خودمختار اطلاق می‌شود.

برای مثال، یک عامل دیجیتال می‌تواند به‌گونه‌ای برنامه‌ریزی شود که در فضای وب به جست‌و‌جو بپردازد و به نمایندگی از کاربر، خرید آنلاین انجام دهد؛ از مقایسه قیمت‌ها گرفته تا انتخاب کالا و تکمیل مراحل پرداخت. همچنین، یک ربات مجهز به بازو‌های مکانیکی نیز در صورتی که بتواند بدون دریافت دستور برای هر گام، اشیاء را بردارد، در‌ها را باز کند یا قطعاتی را مونتاژ کند، در تعریف عامل قرار می‌گیرد.

در حال حاضر شرکت‌هایی مانند (Salesforce) فعال در بازاریابی دیجیتال و مستقر در سان‌فرانسیسکو و (Nvidia) شرکت سخت‌افزار و گرافیک رایانه‌ای در سانتا کلارا راهکار‌هایی مبتنی بر عامل‌های هوش مصنوعی را برای خدمات مشتریان کسب‌وکار‌ها ارائه می‌کنند.

در آینده‌ای نه‌چندان دور، دستیاران هوش مصنوعی ممکن است توانایی انجام درخواست‌های پیچیده و چندمرحله‌ای را داشته باشند؛ مانند «پیدا کردن یک قرارداد بهتر برای موبایل»، که شامل جست‌و‌جو در سایت‌های مقایسه قیمت، انتخاب گزینه مناسب، تأیید انتقال، لغو قرارداد قبلی و پرداخت هزینه فسخ از حساب بانکی کاربر خواهد بود.

پیامد‌های اقتصادی و اجتماعی عامل‌های هوش مصنوعی

با پیشرفت این عامل‌ها، پیامد‌های گسترده‌ای در حوزه‌های سیاسی، اقتصادی و اجتماعی قابل پیش‌بینی است. از جنبه اقتصادی، این فناوری می‌تواند ارزش عظیمی را آزاد کند. شرکت مشاوره مک‌کینزی برآورد کرده است که استفاده گسترده از هوش مصنوعی مولد و عامل‌ها، می‌تواند سالانه بین ۲.۶ تا ۴.۴ تریلیون دلار به اقتصاد جهانی بیفزاید (برای اطلاعات بیشتر به go.nature.com/۴qeqemh مراجعه کنید). همچنین این عامل‌ها می‌توانند به عنوان دستیاران پژوهشی بسیار توانمند، موجب شتاب در روند کشف‌های علمی شوند.

با این حال، حضور عامل‌های هوش مصنوعی در فضای واقعی، با خطراتی نیز همراه است. مردم باید بدانند که مسئولیت عملکرد این عامل‌ها با چه کسی است و اگر آنها مرتکب اشتباه شوند، پیامد‌های قانونی چگونه خواهد بود. نمونه‌ای واقعی از این مسئله، در نوامبر ۲۰۲۲ رخ داد؛ زمانی که چت‌بات شرکت هواپیمایی (Air Canada) به‌اشتباه به یکی از مشتریان، تخفیف برای بلیت سفر درگذشت پیشنهاد کرد. این اتفاق به یک دعوی حقوقی منجر شد که در نهایت دادگاه در فوریه ۲۰۲۴ حکم داد شرکت ملزم به رعایت وعده‌ای است که چت‌بات داده است. این ماجرا نشان‌دهنده ریسک‌های جدی در واگذاری مسئولیت‌ها به عامل‌های هوش مصنوعی و ضرورت تنظیم قوانین شفاف در این زمینه است.

مسئله هم‌راستاسازی (Alignment Problem)

پژوهشگران حوزه ایمنی هوش مصنوعی مدت‌هاست درباره خطرات ناشی از دستور‌های ناقص یا سوءتفاهم‌های ماشینی هشدار داده‌اند؛ مانند موقعیت‌هایی که سیستم‌ها یک فرمان را به شکل بیش از حد تحت‌اللفظی تفسیر می‌کنند، از درک زمینه بازمی‌مانند، یا راه‌هایی غیرمنتظره و گاه خطرناک برای تحقق هدف پیدا می‌کنند.

نمونه‌ای از این وضعیت، مربوط به آموزش یک عامل هوش مصنوعی برای بازی رایانه‌ای (Coast Runners) است. این عامل به‌جای تلاش برای برنده شدن در مسابقه، متوجه شد که با برخورد مکرر با اشیایی که امتیاز می‌دهند، می‌تواند امتیاز بیشتری بگیرد رفتاری که از لحاظ فنی هدف را برآورده می‌کرد، اما کاملاً از روح بازی منحرف شده بود.

وقتی چنین عامل‌هایی به ابزار‌های واقعی مانند موتور‌های جست‌و‌جو، ایمیل، پلتفرم‌های خرید یا سیستم‌های بانکی دسترسی پیدا می‌کنند، این نوع انحراف می‌تواند به پیامد‌های ملموس و خطرناک منجر شود. برای مثال، اگر یک وکیل به دستیار هوش مصنوعی خود دستور دهد تا یک پیش‌نویس حقوقی را برای دریافت بازخورد ارسال کند و عامل به اشتباه آن را برای افراد خارج از تیم درون‌سازمانی بفرستد، نتیجه می‌تواند نقض حریم خصوصی و آسیب حرفه‌ای باشد.

راهکار‌های فنی و اخلاقی

این چالش‌ها نشان می‌دهند که باید تدابیر ایمنی و محافظتی در توسعه عامل‌ها به‌طور جدی گنجانده شود. راهکار‌هایی مانند پروتکل‌های تأیید چندمرحله‌ای، سامانه‌های ثبت فعالیت برای نظارت دقیق، و سازوکار‌های جبران خسارت در صورت بروز خطا، بخشی از این مسیر هستند.

نگرانی‌برانگیزتر زمانی است که عامل‌ها بتوانند محیط خود را تغییر دهند؛ به‌ویژه اگر با دانش کدنویسی و دسترسی به ابزار‌های قدرتمند همراه باشند. در چنین مواردی، یک عامل ممکن است برای رسیدن به هدف نهایی، محدودیت‌های نرم‌افزاری را دور بزند یا حتی توسعه‌دهنده را فریب دهد. مثلاً، یک عامل که برای انجام پروژه‌ای تحت محدودیت زمانی آموزش دیده، ممکن است به‌جای یافتن راه حل، تلاش کند کدی بنویسد تا محدودیت زمانی را حذف کند.

برای مقابله با این تهدیدها، رویکرد‌هایی نظیر تنظیم دقیق مبتنی بر ترجیح (preference-based fine-tuning) توسعه یافته‌اند. در این روش، به‌جای آنکه عامل فقط پاسخ‌های درست را یاد بگیرد، بازخورد انسانی درباره پاسخ‌های ترجیحی نیز دریافت می‌کند. بدین ترتیب، عامل یاد می‌گیرد که به شیوه‌ای رفتار کند که با نیت واقعی کاربران هم‌خوانی بیشتری داشته باشد.

در کنار آن، پژوهش در زمینه‌ی تفسیر مکانیکی (mechanistic interpretability) نیز اهمیت دارد. این حوزه به تحلیل فرایند‌های درونی تصمیم‌گیری عامل می‌پردازد و می‌تواند در زمان واقعی، استدلال‌های عامل را شفاف کند، به شناسایی و اصلاح «مدار‌های بد» کمک کند و از بروز رفتار‌های مسئله‌دار جلوگیری نماید. همچنین می‌توان از ریل‌های محافظ (guardrails) برای متوقف‌سازی خودکار رفتار‌های مشکوک استفاده کرد.

تهدید‌های امنیتی و لزوم قانون‌گذاری

علاوه بر جنبه‌های فنی، نباید از خطراتی که از سوی افراد سوءاستفاده‌گر متوجه جوامع است، غافل بود. افزایش خودمختاری، انعطاف‌پذیری و مهارت‌های فنی در عامل‌های هوش مصنوعی، آنها را به ابزاری بالقوه برای حملات سایبری یا فریب‌های پیشرفته مانند فیشینگ تبدیل می‌کند.

عامل‌های مجهز به قابلیت‌های چندرسانه‌ای (متن، صدا، تصویر، و ویدیو) می‌توانند با تولید محتوای جعلی، کلاه‌برداری‌های پیچیده‌تری طراحی کنند. برای مثال، یک عامل ممکن است از صدای شبیه‌سازی‌شده یا ویدیوی دیپ‌فیک استفاده کند تا هویت فردی خاص را جعل کرده و کاربر را فریب دهد.

نقطه شروعی محتمل برای قانون‌گذاری این است که عامل‌های هوش مصنوعی نباید اجازه انجام هیچ کاری را داشته باشند که برای یک انسان نیز غیرقانونی است. اما مشکل اینجاست که قوانین اغلب در این زمینه سکوت کرده‌اند یا فاقد وضوح‌اند. برای مثال، اگر کاربری مضطرب علائم سلامتی خود را به یک عامل گزارش دهد، ارائه منابع بهداشتی عمومی مشکلی ندارد، اما ارائه توصیه‌های پزشکی اختصاصی، می‌تواند خطرناک باشد چراکه این سیستم فاقد توانایی درک نشانه‌های ظریف پزشکی انسانی است.

برای اطمینان از عملکرد مسئولانه این عامل‌ها، باید قوانین جدیدی تدوین شود که حاصل همکاری میان توسعه‌دهندگان، سیاست‌گذاران، کارشناسان اخلاق و کاربران باشد.

تعاملات انسانی و عامل‌های اجتماعی

با توسعه عامل‌هایی که نه‌تنها دستور می‌گیرند، بلکه در تعاملات انسانی نیز نقش بازی می‌کنند، روابط جدیدی در حال شکل‌گیری است. چت‌بات‌ها توانایی چشم‌گیری در ایفای نقش «همدم» دارند؛ زیرا از زبان طبیعی، حافظه، استدلال پیچیده و قابلیت تولید محتوا بهره‌مندند.

به گزارش «نیچر» (nature)، طراحی این عامل‌ها با آواتار‌های واقعی، صدا‌های شبیه انسان و استفاده از ضمیر‌ها یا اصطلاحات محبت‌آمیز، آنها را به‌شدت انسان‌گونه می‌کند. اگر این عامل‌ها به قابلیت‌های عاملیت مجهز شوند، به بازیگرانی اجتماعی و مستقل تبدیل می‌شوند بازیگرانی که قادرند با کاربران، روابطی نو و عاطفی ایجاد کنند.

انتهای پیام/

ارسال نظر
رسپینا
گوشتیران
قالیشویی ادیب