آخرین اخبار:
11:27 19 / 12 /1404

الگوریتم‌های هوش مصنوعی رهبری عملیات‌های نظامی آمریکا را در دست گرفتند

در حالی که جهان مبهوت قابلیت‌های شگفت‌انگیز هوش مصنوعی است، همین الگوریتم‌های بی‌احساس اکنون در کسری از ثانیه برای مرگ و زندگی انسان‌ها در میدان نبرد تصمیم می‌گیرند. واگذاری کامل چرخه شلیک به ماشین‌های خودمختار، اخلاق نظامی را به یک معادله سرد ریاضی تقلیل داده و با حذف عاملیت انسانی، فجایع بی‌سابقه‌ای را رقم زده است.

تقارن آغاز جنگ علیه ایران با به‌کارگیری شبکه‌های هوشمند از سوی پنتاگون، مفاهیم نظری نبرد را به واقعیت‌های میدانی پیوند زده است. گستردگی پیامد‌های این تغییر پارادایم، مقامات ارشد جهانی را به واکنش واداشته است. در همین راستا، آنتونیو گوترش، دبیرکل سازمان ملل متحد، اخیراً نسبت به تبعات فقدان نظارت دموکراتیک بر این روند هشدار داد. او کندی روند قانون‌گذاری در برابر شتاب فزاینده توسعه هوش مصنوعی را تهدیدی جدی برای امنیت جهانی توصیف کرد. اظهارات گوترش مهر تاییدی است بر این واقعیت که فناوری‌های نوظهور از فاز آزمایشگاهی خارج شده و اکنون به ابزار اصلی تصمیم‌گیری در اتاق‌های فرماندهی ارتش آمریکا بدل شده‌اند.

واگذاری زیرساخت‌های فناوری به دپارتمان‌های دفاعی

در نخستین گام، شرکت آنتروپیک درخواست وزارت دفاع ایالات متحده مبنی بر حذف موانع امنیتی پلتفرم هوش مصنوعی خود را رد کرد. پنتاگون نیز در واکنش به این مقاومت، نام شرکت مذکور را در فهرست سیاه زنجیره تامین خود قرار داد. این تصمیم، پرده از تغییر رویکرد نهاد‌های دفاعی برای تصاحب سیستم‌های خودمختار بدون در نظر گرفتن محدودیت‌های بازدارنده برمی‌دارد. در این میان، نمایندگان اوپن‌ای‌آی بلافاصله از فرصت استفاده کرده و با امضای توافق تامین زیرساخت‌های نظامی، جایگاه پیمانکار اصلی را از آن خود کردند.

سم آلتمن طی پیامی درون‌سازمانی به کارمندانش، مدیریت این قرارداد دفاعی را رفتاری فرصت‌طلبانه خواند. اعتراف او گواه آن است که توسعه‌دهندگان سیلیکون‌ولی، توانایی اجرای مکانیزم‌های نظارتی بر کد‌های منبع خود را از دست داده‌اند. اکنون، اولویت‌های تجاری جایگزین اصول پیشینِ مبنی بر خودداری از توسعه فناوری برای مقاصد جنگی شده است؛ رویکردی که پیش‌تر با حذف این بند از اساسنامه اوپن‌ای‌آی، نشانه‌های آن آشکار شده بود.

اتوماسیون تلفات و دگرگونی معماری جنگ

گزارش‌های مستند تایید می‌کنند که نسخه‌های تعدیل‌نشده مدل‌های هوش مصنوعی، نقشی محوری در تسهیل تهاجمات نظامی ایالات متحده ایفا می‌کنند؛ روندی که تا کنون جان باختن بیش از هزار غیرنظامی را در جریان بمباران‌های سیستماتیک رقم زده است. در این الگوی جدید، الگوریتم‌های هوش مصنوعی وظایف پیچیده‌ای نظیر شناسایی اهداف، پیشنهاد نوع تسلیحات و حتی ارزیابی مبانی حقوقی حملات را بر عهده گرفته‌اند. واگذاری چنین وظایفی، فرآیند حیاتی تصمیم‌گیری درباره حیات انسان‌ها را به یک عملیات ساده ریاضی تقلیل داده است.

در پی این تحولات، کارشناسان نظامی دوره کنونی را عصر «بمباران، سریع‌تر از سرعت تفکر» نامیده‌اند. در این عصر، هوش مصنوعی قادر است در کسری از ثانیه حجم انبوهی از داده‌های ارتباطی و تصاویر ماهواره‌ای را تحلیل کند. مختصات استخراج‌شده مستقیماً به سیستم‌های پرتابگر ارسال می‌شود و نقش عامل انسانی در چرخه شلیک، صرفاً به ناظری منفعل و تاییدکننده تقلیل می‌یابد.

پیت هگست، وزیر دفاع ایالات متحده، در مصاحبه‌های اخیر خود رسماً رویکرد جدید پنتاگون مبنی بر تسهیل قوانین درگیری در عملیات‌های نظامی را تایید کرد. اجرای این سیاست و تقلیل استاندارد‌های تایید هدف، تبعات مرگباری در میدان نبرد به همراه داشته است؛ فاجعه کشته شدن ۱۶۵ دانش‌آموز در حمله ارتش آمریکا به مدرسه‌ای در شهر میناب و امتناع مقامات نظامی از پاسخگویی در قبال آن، گواهی بر این مدعاست. شبکه‌های عصبی هرچند به خودی خود عامل قطعی بروز چنین خطا‌هایی نیستند، اما ابزار اصلی اجرای این سیاست‌های بدون محدودیت به شمار می‌روند. سپردن تحلیل‌های میدانی به کد‌های کامپیوتری، چرخه پاسخگویی را مختل کرده و به فرماندهان اجازه می‌دهد بار مسئولیت تصمیمات مرگبار را بر دوش سیستم‌های محاسباتی بیندازند.

سیستم‌های تولید هدف و توهم دقت الگوریتمی

اپراتور‌های سامانه‌های هدف‌یاب، اکنون نقش خود را چیزی جز یک تاییدیه تشریفاتی برای خروجی‌های هوش مصنوعی نمی‌دانند. این رویه که پیش‌تر در جریان جنگ غزه و از طریق سیستم‌هایی مانند لاوندر آزمایش شده بود، امروز ماهیت نبرد‌های معاصر را شکل می‌دهد. بررسی‌های میدانی و گزارش‌ گاردین نشان می‌دهد که نیرو‌های نظامی برای تولید انبوه اهداف، به شدت به نرم‌افزار‌های پردازش داده متکی شده‌اند؛ سیستم‌هایی که عملکردشان بر تحلیل رفتار شهروندان و تبدیل آن‌ها به داده‌های باینری استوار است.

الگو‌های مشترک میان بمباران غزه و حملات اخیر به تهران، ابعاد فاجعه‌بار اتکا به سیستم‌های خودمختارِ فاقد نظارت انسانی را عیان می‌سازد. نمونه بارز این توهم دقت الگوریتمی، هدف قرار گرفتن فضای سبزی به نام «بوستان پلیس» در پایتخت است. هوش مصنوعی صرفاً به دلیل وجود کلیدواژه «پلیس» در نام این مکان، مختصات آن را به اشتباه در فهرست اهداف مرتبط با زیرساخت‌های امنیتی و دولتی طبقه‌بندی کرد. فقدان نظارت انسانی باعث شد هیچ‌کس برای بررسی ماهیت واقعی و کاربری عمومی این موقعیت جغرافیایی زمان صرف نکند و دستور بمباران، مستقیماً بر اساس خروجی خام سیستم صادر شود.

الگوریتم‌های هوش مصنوعی رهبری عملیات‌های نظامی آمریکا را در دست گرفتند

افسران اطلاعاتیِ این سامانه‌ها اذعان دارند که بانک اهدافِ پردازش‌شده، هرگز به پایان نمی‌رسد. هزاران هدفِ شناسایی‌شده همواره در صف انتظار واحد‌های توپخانه قرار دارند. طبق اظهارات اپراتورها، ارزیابی هر هدف پیشنهادی توسط هوش مصنوعی تنها ۲۰ ثانیه زمان می‌برد. این زمان اندک ثابت می‌کند که عامل انسانی فاقد هرگونه ارزش افزوده در چرخه تایید اهداف است و خطا‌های فاحشی نظیر هدف قرار دادن یک پارک شهری، مستقیماً از همین شتاب‌زدگی سیستماتیک نشأت می‌گیرد. اتکا به هوش مصنوعی زمان انجام عملیات را به حداقل می‌رساند، اما فاصله‌گذاریِ ایجادشده میان کاربر و هدف، درگیری اخلاقی عاملان شلیک را به صفر می‌رساند.

ساختار عملکردی سیستم‌های تولید هدف، بر پایه تجمیع داده‌های چندلایه ارتباطی بنا شده است. هوش مصنوعی اطلاعات موقعیت مکانی تلفن‌های همراه، تصاویر پهپادی، تاریخچه پیام‌رسان‌ها و الگو‌های رفتاری افراد را به صورت لحظه‌ای پایش کرده و پس از تقاطع‌گیری، یک امتیاز خطر به هر فرد یا مکان اختصاص می‌دهد. با رسیدن این عدد به حد نصاب، سوژه بلافاصله به یک هدف مشروع نظامی تبدیل می‌شود.

سوگیری اتوماسیون خطرناک‌ترین پیامد استفاده از این سامانه‌ها در مناطق پرجمعیت است. مطالعات روان‌شناختی ثابت کرده‌اند که کاربران تمایل دارند به خروجی الگوریتم‌ها بسیار بیشتر از قضاوت‌های انسانی خود اعتماد کنند. این در حالی است که الگوریتم‌های یادگیری عمیق، تفاوت میان یک شهروند عادی و یک هدف نظامی را صرفاً بر اساس احتمالات آماری می‌سنجند و خطای محاسباتی در این احتمالات، مستقیماً به معنای ثبت مختصات یک مجتمع مسکونی در فهرست نهایی بمباران است.

بحران حقوق بین‌الملل و تقلیل مفاهیم بشردوستانه

مبانی حقوق بین‌الملل بشردوستانه همواره بر دو اصل تفکیک و تناسب استوار بوده‌اند. فرماندهان نظامی موظف‌اند میان غیرنظامیان و اهداف نظامی تمایز قائل شوند و میزان آسیب جانبی حملات نیز نباید از مزیت استراتژیک مورد انتظار فراتر رود. با این وجود، هوش مصنوعی فاقد درک شهودی لازم برای ارزیابی ارزش جان انسان‌ها در برابر اهداف است و خروجی الگوریتم‌ها، بدون برخورداری از شعور زمینه‌ای برای درک پیچیدگی‌های محیطی ارائه می‌شود.

متخصصان حقوقی هشدار می‌دهند که سپردن حق حیات انسان‌ها به سنسور‌های هوش مصنوعی، ناقض صریح کرامت انسانی و کنوانسیون‌های ژنو است. مدل‌های زبانی و سیستم‌های بینایی رایانه‌ای بر اساس داده‌های آموزشی محیط‌های آزمایشگاهی عمل می‌کنند؛ فقدان تجربه میدانی واقعی باعث می‌شود این سیستم‌ها از درک تغییرات ناگهانی صحنه نبرد عاجز باشند. هوش مصنوعی نمی‌تواند تشخیص دهد فردی که سراسیمه وارد یک ساختمان می‌شود، یک غیرنظامیِ پناه‌جو است یا یک نیروی هدف. همین خلأ ادراکی به بروز فجایع انسانی در مقیاس وسیع می‌انجامد.

در واکنش به این رویه، نهاد‌های مستقل خواستار شفافیت کد‌های منبع برنامه‌های نظامیِ ارتش‌ها شده‌اند. با این حال، پنهان‌کاری دپارتمان‌های دفاعی در پشت نقاب قانون امنیت ملی، امکان حسابرسی مستقل از عملکرد الگوریتم‌ها را سلب کرده است. نبود چارچوب‌های پاسخگویی حقوقی سبب شده تا در صورت بروز خطا‌های مرگبار، هیچ‌کس مسئولیت عملکرد یک نرم‌افزار خودمختار را بر عهده نگیرد.

بن‌بست دیپلماتیک ژنو و آغاز مسابقه تسلیحاتی هوش مصنوعی

نظارت‌های قانون‌مند و ایجاد محدودیت‌های چندجانبه، تنها مسیر‌های پیش‌رو برای جلوگیری از واگذاری تصمیمات حیاتی به الگوریتم‌ها محسوب می‌شوند. همزمان با ادامه درگیری‌ها، نمایندگان کشور‌های عضو سازمان ملل متحد در ژنو گردهم آمده‌اند تا وضعیت حقوقی سیستم‌های تسلیحاتی خودمختارِ مرگبار را بررسی کنند. کارگروه‌های تخصصی در این نشست‌ها، مسئولیت تدوین چارچوب‌های بازدارنده برای سلاح‌های هوشمند را بر عهده دارند.

تمرکز دیپلمات‌های حاضر در ژنو بر تدوین پروتکل الحاقی ششم کنوانسیون است. پیش‌نویس‌های ارائه‌شده بر لزوم حفظ کنترل معنادار انسانی بر سیستم‌های تسلیحاتی تاکید دارند و می‌توانند پایه‌ای برای شکل‌گیری یک معاهده بین‌المللیِ الزام‌آور باشند. بیشتر دولت‌های شرکت‌کننده خواهان دریافت دستورالعمل‌های حقوقی شفاف در خصوص استفاده نظامی از فناوری‌های نوظهور هستند و تلاش می‌کنند پیش از فراگیر شدن این سامانه‌ها، موانع قانونی لازم را ایجاد کنند.

با این وجود، قدرت‌های نظامیِ دارای حق وتو بیشترین مقاومت را در برابر تصویب معاهدات کنترل تسلیحات نشان می‌دهند. تصمیم‌گیران این کشور‌ها معتقدند هرگونه اعمال محدودیت نرم‌افزاری، برتری استراتژیک سخت‌افزار‌های نظامی آن‌ها را تضعیف خواهد کرد.

فشار‌های جامعه مدنی برای حفظ کنترل انسانی

سرعت بالای تحولات در میدان‌های نبرد باعث شده تا دولت‌ها، احتیاط در قانون‌گذاری را معادل واگذاری میدان رقابت به حریفان تلقی کنند. مستندات اجلاس ژنو حاکی از عدم تمایل ساختاری کشور‌های پیشرو به ایجاد یک نهاد بازرسی بین‌المللی است. مقاومت سیستماتیک در برابر دسترسی بازرسان به سرور‌های نظامی، روند دیپلماتیک را با کندی جدی مواجه کرده است.

سازمان‌های مدنیِ فعال در حوزه حفظ کنترل انسانی تاکید دارند که چالش محوری، صرفاً زمانِ استفاده از سلاح‌ها نیست. مدیران کارزار‌های جهانی، از جمله پویش «توقف ربات‌های قاتل»، هشدار می‌دهند که سیستم‌های مبتنی بر هوش مصنوعی در حال دگرگون کردن بنیان ارتش‌ها هستند. در سایه سرعت پردازش الگوریتم‌ها، فاکتور تصمیم‌گیری انسانی در معرض تبدیل شدن به موضوعی کاملاً حاشیه‌ای قرار دارد.

آینده امنیت بین‌الملل، مستقیماً به تصمیماتی گره خورده است که امروز در تقاطع فناوری و سیاست‌گذاری دفاعی اتخاذ می‌شوند. واگذاری حق تصمیم‌گیری درباره حیات انسان‌ها به ماشین‌ها، مرز‌های حقوق بشر را برای همیشه تغییر خواهد داد. از این رو، قانون‌گذاران موظف‌اند پیش از تثبیت هوش مصنوعی خودمختار به عنوان استاندارد قطعی ارتش‌ها، سازوکار‌های بازدارنده و قاطعی را وضع نمایند.

انتهای پیام/

ارسال نظر