الگوریتمهای هوش مصنوعی رهبری عملیاتهای نظامی آمریکا را در دست گرفتند
تقارن آغاز جنگ علیه ایران با بهکارگیری شبکههای هوشمند از سوی پنتاگون، مفاهیم نظری نبرد را به واقعیتهای میدانی پیوند زده است. گستردگی پیامدهای این تغییر پارادایم، مقامات ارشد جهانی را به واکنش واداشته است. در همین راستا، آنتونیو گوترش، دبیرکل سازمان ملل متحد، اخیراً نسبت به تبعات فقدان نظارت دموکراتیک بر این روند هشدار داد. او کندی روند قانونگذاری در برابر شتاب فزاینده توسعه هوش مصنوعی را تهدیدی جدی برای امنیت جهانی توصیف کرد. اظهارات گوترش مهر تاییدی است بر این واقعیت که فناوریهای نوظهور از فاز آزمایشگاهی خارج شده و اکنون به ابزار اصلی تصمیمگیری در اتاقهای فرماندهی ارتش آمریکا بدل شدهاند.
واگذاری زیرساختهای فناوری به دپارتمانهای دفاعی
در نخستین گام، شرکت آنتروپیک درخواست وزارت دفاع ایالات متحده مبنی بر حذف موانع امنیتی پلتفرم هوش مصنوعی خود را رد کرد. پنتاگون نیز در واکنش به این مقاومت، نام شرکت مذکور را در فهرست سیاه زنجیره تامین خود قرار داد. این تصمیم، پرده از تغییر رویکرد نهادهای دفاعی برای تصاحب سیستمهای خودمختار بدون در نظر گرفتن محدودیتهای بازدارنده برمیدارد. در این میان، نمایندگان اوپنایآی بلافاصله از فرصت استفاده کرده و با امضای توافق تامین زیرساختهای نظامی، جایگاه پیمانکار اصلی را از آن خود کردند.
سم آلتمن طی پیامی درونسازمانی به کارمندانش، مدیریت این قرارداد دفاعی را رفتاری فرصتطلبانه خواند. اعتراف او گواه آن است که توسعهدهندگان سیلیکونولی، توانایی اجرای مکانیزمهای نظارتی بر کدهای منبع خود را از دست دادهاند. اکنون، اولویتهای تجاری جایگزین اصول پیشینِ مبنی بر خودداری از توسعه فناوری برای مقاصد جنگی شده است؛ رویکردی که پیشتر با حذف این بند از اساسنامه اوپنایآی، نشانههای آن آشکار شده بود.
اتوماسیون تلفات و دگرگونی معماری جنگ
گزارشهای مستند تایید میکنند که نسخههای تعدیلنشده مدلهای هوش مصنوعی، نقشی محوری در تسهیل تهاجمات نظامی ایالات متحده ایفا میکنند؛ روندی که تا کنون جان باختن بیش از هزار غیرنظامی را در جریان بمبارانهای سیستماتیک رقم زده است. در این الگوی جدید، الگوریتمهای هوش مصنوعی وظایف پیچیدهای نظیر شناسایی اهداف، پیشنهاد نوع تسلیحات و حتی ارزیابی مبانی حقوقی حملات را بر عهده گرفتهاند. واگذاری چنین وظایفی، فرآیند حیاتی تصمیمگیری درباره حیات انسانها را به یک عملیات ساده ریاضی تقلیل داده است.
در پی این تحولات، کارشناسان نظامی دوره کنونی را عصر «بمباران، سریعتر از سرعت تفکر» نامیدهاند. در این عصر، هوش مصنوعی قادر است در کسری از ثانیه حجم انبوهی از دادههای ارتباطی و تصاویر ماهوارهای را تحلیل کند. مختصات استخراجشده مستقیماً به سیستمهای پرتابگر ارسال میشود و نقش عامل انسانی در چرخه شلیک، صرفاً به ناظری منفعل و تاییدکننده تقلیل مییابد.
پیت هگست، وزیر دفاع ایالات متحده، در مصاحبههای اخیر خود رسماً رویکرد جدید پنتاگون مبنی بر تسهیل قوانین درگیری در عملیاتهای نظامی را تایید کرد. اجرای این سیاست و تقلیل استانداردهای تایید هدف، تبعات مرگباری در میدان نبرد به همراه داشته است؛ فاجعه کشته شدن ۱۶۵ دانشآموز در حمله ارتش آمریکا به مدرسهای در شهر میناب و امتناع مقامات نظامی از پاسخگویی در قبال آن، گواهی بر این مدعاست. شبکههای عصبی هرچند به خودی خود عامل قطعی بروز چنین خطاهایی نیستند، اما ابزار اصلی اجرای این سیاستهای بدون محدودیت به شمار میروند. سپردن تحلیلهای میدانی به کدهای کامپیوتری، چرخه پاسخگویی را مختل کرده و به فرماندهان اجازه میدهد بار مسئولیت تصمیمات مرگبار را بر دوش سیستمهای محاسباتی بیندازند.
سیستمهای تولید هدف و توهم دقت الگوریتمی
اپراتورهای سامانههای هدفیاب، اکنون نقش خود را چیزی جز یک تاییدیه تشریفاتی برای خروجیهای هوش مصنوعی نمیدانند. این رویه که پیشتر در جریان جنگ غزه و از طریق سیستمهایی مانند لاوندر آزمایش شده بود، امروز ماهیت نبردهای معاصر را شکل میدهد. بررسیهای میدانی و گزارش گاردین نشان میدهد که نیروهای نظامی برای تولید انبوه اهداف، به شدت به نرمافزارهای پردازش داده متکی شدهاند؛ سیستمهایی که عملکردشان بر تحلیل رفتار شهروندان و تبدیل آنها به دادههای باینری استوار است.
الگوهای مشترک میان بمباران غزه و حملات اخیر به تهران، ابعاد فاجعهبار اتکا به سیستمهای خودمختارِ فاقد نظارت انسانی را عیان میسازد. نمونه بارز این توهم دقت الگوریتمی، هدف قرار گرفتن فضای سبزی به نام «بوستان پلیس» در پایتخت است. هوش مصنوعی صرفاً به دلیل وجود کلیدواژه «پلیس» در نام این مکان، مختصات آن را به اشتباه در فهرست اهداف مرتبط با زیرساختهای امنیتی و دولتی طبقهبندی کرد. فقدان نظارت انسانی باعث شد هیچکس برای بررسی ماهیت واقعی و کاربری عمومی این موقعیت جغرافیایی زمان صرف نکند و دستور بمباران، مستقیماً بر اساس خروجی خام سیستم صادر شود.

افسران اطلاعاتیِ این سامانهها اذعان دارند که بانک اهدافِ پردازششده، هرگز به پایان نمیرسد. هزاران هدفِ شناساییشده همواره در صف انتظار واحدهای توپخانه قرار دارند. طبق اظهارات اپراتورها، ارزیابی هر هدف پیشنهادی توسط هوش مصنوعی تنها ۲۰ ثانیه زمان میبرد. این زمان اندک ثابت میکند که عامل انسانی فاقد هرگونه ارزش افزوده در چرخه تایید اهداف است و خطاهای فاحشی نظیر هدف قرار دادن یک پارک شهری، مستقیماً از همین شتابزدگی سیستماتیک نشأت میگیرد. اتکا به هوش مصنوعی زمان انجام عملیات را به حداقل میرساند، اما فاصلهگذاریِ ایجادشده میان کاربر و هدف، درگیری اخلاقی عاملان شلیک را به صفر میرساند.
ساختار عملکردی سیستمهای تولید هدف، بر پایه تجمیع دادههای چندلایه ارتباطی بنا شده است. هوش مصنوعی اطلاعات موقعیت مکانی تلفنهای همراه، تصاویر پهپادی، تاریخچه پیامرسانها و الگوهای رفتاری افراد را به صورت لحظهای پایش کرده و پس از تقاطعگیری، یک امتیاز خطر به هر فرد یا مکان اختصاص میدهد. با رسیدن این عدد به حد نصاب، سوژه بلافاصله به یک هدف مشروع نظامی تبدیل میشود.
سوگیری اتوماسیون خطرناکترین پیامد استفاده از این سامانهها در مناطق پرجمعیت است. مطالعات روانشناختی ثابت کردهاند که کاربران تمایل دارند به خروجی الگوریتمها بسیار بیشتر از قضاوتهای انسانی خود اعتماد کنند. این در حالی است که الگوریتمهای یادگیری عمیق، تفاوت میان یک شهروند عادی و یک هدف نظامی را صرفاً بر اساس احتمالات آماری میسنجند و خطای محاسباتی در این احتمالات، مستقیماً به معنای ثبت مختصات یک مجتمع مسکونی در فهرست نهایی بمباران است.
بحران حقوق بینالملل و تقلیل مفاهیم بشردوستانه
مبانی حقوق بینالملل بشردوستانه همواره بر دو اصل تفکیک و تناسب استوار بودهاند. فرماندهان نظامی موظفاند میان غیرنظامیان و اهداف نظامی تمایز قائل شوند و میزان آسیب جانبی حملات نیز نباید از مزیت استراتژیک مورد انتظار فراتر رود. با این وجود، هوش مصنوعی فاقد درک شهودی لازم برای ارزیابی ارزش جان انسانها در برابر اهداف است و خروجی الگوریتمها، بدون برخورداری از شعور زمینهای برای درک پیچیدگیهای محیطی ارائه میشود.
متخصصان حقوقی هشدار میدهند که سپردن حق حیات انسانها به سنسورهای هوش مصنوعی، ناقض صریح کرامت انسانی و کنوانسیونهای ژنو است. مدلهای زبانی و سیستمهای بینایی رایانهای بر اساس دادههای آموزشی محیطهای آزمایشگاهی عمل میکنند؛ فقدان تجربه میدانی واقعی باعث میشود این سیستمها از درک تغییرات ناگهانی صحنه نبرد عاجز باشند. هوش مصنوعی نمیتواند تشخیص دهد فردی که سراسیمه وارد یک ساختمان میشود، یک غیرنظامیِ پناهجو است یا یک نیروی هدف. همین خلأ ادراکی به بروز فجایع انسانی در مقیاس وسیع میانجامد.
در واکنش به این رویه، نهادهای مستقل خواستار شفافیت کدهای منبع برنامههای نظامیِ ارتشها شدهاند. با این حال، پنهانکاری دپارتمانهای دفاعی در پشت نقاب قانون امنیت ملی، امکان حسابرسی مستقل از عملکرد الگوریتمها را سلب کرده است. نبود چارچوبهای پاسخگویی حقوقی سبب شده تا در صورت بروز خطاهای مرگبار، هیچکس مسئولیت عملکرد یک نرمافزار خودمختار را بر عهده نگیرد.
بنبست دیپلماتیک ژنو و آغاز مسابقه تسلیحاتی هوش مصنوعی
نظارتهای قانونمند و ایجاد محدودیتهای چندجانبه، تنها مسیرهای پیشرو برای جلوگیری از واگذاری تصمیمات حیاتی به الگوریتمها محسوب میشوند. همزمان با ادامه درگیریها، نمایندگان کشورهای عضو سازمان ملل متحد در ژنو گردهم آمدهاند تا وضعیت حقوقی سیستمهای تسلیحاتی خودمختارِ مرگبار را بررسی کنند. کارگروههای تخصصی در این نشستها، مسئولیت تدوین چارچوبهای بازدارنده برای سلاحهای هوشمند را بر عهده دارند.
تمرکز دیپلماتهای حاضر در ژنو بر تدوین پروتکل الحاقی ششم کنوانسیون است. پیشنویسهای ارائهشده بر لزوم حفظ کنترل معنادار انسانی بر سیستمهای تسلیحاتی تاکید دارند و میتوانند پایهای برای شکلگیری یک معاهده بینالمللیِ الزامآور باشند. بیشتر دولتهای شرکتکننده خواهان دریافت دستورالعملهای حقوقی شفاف در خصوص استفاده نظامی از فناوریهای نوظهور هستند و تلاش میکنند پیش از فراگیر شدن این سامانهها، موانع قانونی لازم را ایجاد کنند.
با این وجود، قدرتهای نظامیِ دارای حق وتو بیشترین مقاومت را در برابر تصویب معاهدات کنترل تسلیحات نشان میدهند. تصمیمگیران این کشورها معتقدند هرگونه اعمال محدودیت نرمافزاری، برتری استراتژیک سختافزارهای نظامی آنها را تضعیف خواهد کرد.
فشارهای جامعه مدنی برای حفظ کنترل انسانی
سرعت بالای تحولات در میدانهای نبرد باعث شده تا دولتها، احتیاط در قانونگذاری را معادل واگذاری میدان رقابت به حریفان تلقی کنند. مستندات اجلاس ژنو حاکی از عدم تمایل ساختاری کشورهای پیشرو به ایجاد یک نهاد بازرسی بینالمللی است. مقاومت سیستماتیک در برابر دسترسی بازرسان به سرورهای نظامی، روند دیپلماتیک را با کندی جدی مواجه کرده است.
سازمانهای مدنیِ فعال در حوزه حفظ کنترل انسانی تاکید دارند که چالش محوری، صرفاً زمانِ استفاده از سلاحها نیست. مدیران کارزارهای جهانی، از جمله پویش «توقف رباتهای قاتل»، هشدار میدهند که سیستمهای مبتنی بر هوش مصنوعی در حال دگرگون کردن بنیان ارتشها هستند. در سایه سرعت پردازش الگوریتمها، فاکتور تصمیمگیری انسانی در معرض تبدیل شدن به موضوعی کاملاً حاشیهای قرار دارد.
آینده امنیت بینالملل، مستقیماً به تصمیماتی گره خورده است که امروز در تقاطع فناوری و سیاستگذاری دفاعی اتخاذ میشوند. واگذاری حق تصمیمگیری درباره حیات انسانها به ماشینها، مرزهای حقوق بشر را برای همیشه تغییر خواهد داد. از این رو، قانونگذاران موظفاند پیش از تثبیت هوش مصنوعی خودمختار به عنوان استاندارد قطعی ارتشها، سازوکارهای بازدارنده و قاطعی را وضع نمایند.
انتهای پیام/