نفوذ هوش مصنوعی ایلان ماسک به شبکه‌های محرمانه نظامی آمریکا

وزارت دفاع ایالات متحده آمریکا (پنتاگون) در اقدامی بحث‌برانگیز، هوش مصنوعی «گروک» (Grok) متعلق به شرکت xAI و شبکه اجتماعی «ایکس» (متعلق به ایلان ماسک) را در شبکه‌های نظامی محرمانه خود ادغام می‌کند؛ تصمیمی که می‌تواند موازنه رقابت در بازار هوش مصنوعی نظامی آمریکا را به‌طور جدی تغییر دهد.

به گزارش خبرگزاری آنا به نقل از شبکه خبری راشاتودی، پنتاگون قراردادی رسمی با شرکت xAI امضا کرده است که بر اساس آن، چت‌بات «گروک» به‌عنوان دومین مدل هوش مصنوعی مورد تأیید، اجازه استفاده در حساس‌ترین سامانه‌های نظامی ایالات متحده را خواهد داشت؛ سامانه‌هایی که در آنها تحلیل اطلاعات، توسعه تسلیحات و مدیریت عملیات‌های میدانی انجام می‌شود.

تا پیش از این، مدل «کلود» (Claude) متعلق به شرکت «آنتروپیک» تنها هوش مصنوعی فعال در شبکه‌های محرمانه وزارت جنگ آمریکا بود که از طریق همکاری با شرکت «پالانتیر تکنولوژیز» در این زیرساخت‌ها به‌کار گرفته می‌شد. با این حال، امتناع آنتروپیک از حذف پادمان‌های اخلاقی و فنی مدل کلود، موقعیت این شرکت را با چالش جدی مواجه کرده است.

بر اساس گزارش نیویورک‌تایمز، این تحول هم‌زمان با افزایش فشار پنتاگون بر آنتروپیک صورت می‌گیرد. در همین راستا، «پیت هگست» وزیر جنگ آمریکا، «داریو آمودی» مدیرعامل آنتروپیک را برای نشستی پرتنش به پنتاگون احضار کرده است؛ نشستی که منابع آگاه از احتمال ارائه یک اولتیماتوم صریح در آن خبر می‌دهند.

طبق این اولتیماتوم احتمالی، آنتروپیک باید مدل کلود را «برای تمامی اهداف قانونی» و بدون محدودیت‌های اضافی در اختیار وزارت دفاع قرار دهد؛ در غیر این صورت، با پیامد‌هایی از جمله قرار گرفتن در فهرست «خطر زنجیره تأمین» مواجه خواهد شد. این برچسب معمولاً برای نهاد‌هایی به‌کار می‌رود که از منظر امنیت ملی آمریکا، تهدید بالقوه تلقی می‌شوند.

آنتروپیک تاکنون در برابر درخواست‌های پنتاگون برای حذف محدودیت‌هایی که مانع استفاده از هوش مصنوعی در نظارت گسترده بر شهروندان آمریکایی یا استقرار در سامانه‌های تسلیحاتی کاملاً خودکار و بدون نظارت انسانی می‌شود، مقاومت کرده است. در مقابل، گزارش‌ها حاکی از آن است که شرکت xAI با این شروط موافقت کرده، هرچند این شرکت هنوز به‌طور رسمی درباره جزئیات قرارداد اظهارنظر نکرده است.

مقامات پنتاگون اذعان دارند که کنار گذاشتن آنتروپیک از شبکه‌های محرمانه می‌تواند اختلالات کوتاه‌مدتی در برخی سامانه‌های حیاتی ایجاد کند. با این حال، آنها این هزینه را در راستای افزایش «انعطاف‌پذیری عملیاتی» و «کاهش محدودیت‌های فنی» قابل پذیرش می‌دانند.

نکته قابل توجه آن‌که بنا بر برخی گزارش‌ها، مدل کلود در عملیات ناکام ربایش «نیکلاس مادورو» رئیس‌جمهور ونزوئلا در ماه گذشته مورد استفاده قرار گرفته بود؛ عملیاتی که از آن به‌عنوان نخستین نمونه شناخته‌شده نقش مستقیم هوش مصنوعی در یک اقدام نظامی فعال یاد می‌شود. این موضوع، نگرانی‌ها درباره ورود رسمی هوش مصنوعی به مرحله تصمیم‌سازی و اجرای عملیات‌های نظامی را تشدید کرده است.

انتهای پیام/

ارسال نظر