آخرین اخبار:
روایت‌سازی ربات‌های هوش مصنوعی

شبکه‌های هوش مصنوعی می‌توانند ادراک سیاسی و افکار عمومی را تغییر دهند

«واقعیت، آن چیزی نیست که اتفاق می‌افتد؛ آن چیزی است که مردم باور می‌کنند.» همین گزاره امروز در مرکز نگرانی‌های پژوهشگران درباره نسل تازه‌ای از شبکه‌های هوش مصنوعی قرار دارد؛ شبکه‌هایی که با روایت‌سازی‌های دقیق، هماهنگ و نامحسوس می‌توانند ادراک سیاسی و افکار عمومی را تغییر دهند. ربات‌های هوش مصنوعی با ساخت پرسونا‌های دیجیتالی واقعی (AI persona)، در بحث‌های عمومی حضور دارند، واکنش‌ها را تحلیل می‌کنند و روایت‌هایی را تقویت می‌کنند که بیشترین ظرفیت اثرگذاری را دارند.
نویسنده : فهیمه سنجری

در سال‌های اخیر، مجموعه‌ای از هشدار‌های علمی و رسانه‌ای درباره ظهور تهدیدی نوین برای نظام‌های دموکراتیک مطرح شده است؛ تهدیدی که نه از طریق خشونت خیابانی یا دستکاری مستقیم آرا، بلکه از طریق شبکه‌های گسترده‌ای از عامل‌های هوش مصنوعی شکل می‌گیرد که می‌توانند در مقیاسی بی‌سابقه وارد فضای مجازی شوند و افکار عمومی را بدون جلب توجه تغییر دهند. این عامل‌ها که در قالب پرسونا‌های (AI persona) بسیار واقعی ظاهر می‌شوند، قادرند در بحث‌های سیاسی شرکت کنند، لحن و رفتار انسان‌ها را تقلید کنند و با هماهنگی درونی، روایت‌های خاصی را تقویت کنند. پژوهشگران هشدار می‌دهند که این فناوری می‌تواند به آرامی اعتماد عمومی را تضعیف کند و فضای سیاسی را به سمت بی‌ثباتی سوق دهد.

در کنار این هشدارها، اسناد علمی منتشرشده نشان می‌دهد که ترکیب مدل‌های زبانی بزرگ با معماری‌های چندعاملی یک مرز جدید در جنگ اطلاعاتی ایجاد کرده است. این ترکیب به سیستم‌ها اجازه می‌دهد که با حداقل دخالت انسان، به شکل شبکه‌های خودمختار عمل کنند، محتوا تولید کنند، استراتژی‌های خود را تغییر دهند و در مقیاسی گسترده بر رفتار اجتماعی اثر بگذارند. این وضعیت در شرایطی رخ می‌دهد که اعتماد عمومی به رسانه، علم و نهاد‌های دولتی در بسیاری از کشور‌ها کاهش یافته است و این کاهش اعتماد، زمینه را برای پذیرش محتوای جعلی و عملیات نفوذ مبتنی بر هوش مصنوعی فراهم می‌کند.

پرسونا‌های هوش مصنوعی و شکل‌دهی افکار عمومی

پرسونا‌های هوش مصنوعی (AI persona) به عنوان هویت‌های دیجیتالی بسیار واقعی، یکی از مهم‌ترین ابزار‌های این تهدید نوظهور محسوب می‌شوند. این پرسونا‌ها (AI persona) می‌توانند مانند یک کاربر واقعی رفتار کنند، لحن محلی را تقلید کنند، در بحث‌ها شرکت کنند و برای مدت طولانی یک شخصیت ثابت را حفظ کنند. آنها قادرند میلیون‌ها آزمایش کوچک انجام دهند تا بفهمند کدام پیام‌ها بیشترین اثرگذاری را دارند و سپس همان الگو‌ها را در مقیاس وسیع بازتولید کنند. نتیجه این فرآیند، شکل‌گیری یک اجماع مصنوعی است که می‌تواند کاربران را متقاعد کند یک دیدگاه خاص، نظر اکثریت جامعه است. 

مطالعات علمی نشان می‌دهد که پروفایل‌های جعلی با چهره‌های تولیدشده توسط هوش مصنوعی حتی از پروفایل‌های واقعی قابل اعتمادتر به نظر می‌رسند. پژوهش‌های منتشرشده در نشریه «ساینس» (Science) تاکید می‌کند که این پرسونا‌ها می‌توانند در قالب شبکه‌های بزرگ و هماهنگ عمل کنند، به بازخورد‌ها پاسخ دهند و در لحظه استراتژی‌های خود را تغییر دهند. این توانایی، آنها را به ابزار‌هایی قدرتمند برای عملیات نفوذ سیاسی تبدیل می‌کند و امکان می‌دهد که در فضای مجازی به عنوان شهروندان معمولی ظاهر شوند و در بحث‌های عمومی نقش‌آفرینی کنند. 

زمینه‌های آسیب‌پذیری دموکراسی در برابر نفوذ هوش مصنوعی

اکوسیستم اطلاعاتی امروز پیشاپیش دچار ضعف‌هایی است که ازدحام‌های هوش مصنوعی می‌توانند از آن سوءاستفاده کنند. حباب‌های فیلتر (Filter bubbles) کاربران را از دیدگاه‌های مخالف جدا می‌کنند، اخبار جعلی سریع‌تر از اخبار واقعی پخش می‌شوند و الگوریتم‌های پلتفرم‌ها محتوای تفرقه‌افکن را تقویت می‌کنند. گزارش منتشر شده در «ساینس دیلی» (Sciencedaily) این عوامل باعث می‌شود که زمینه اجتماعی برای پذیرش روایت‌های جعلی آماده‌تر از گذشته باشد و کاربران در معرض دستکاری‌های نامحسوس قرار بگیرند.

اعتماد عمومی به رسانه، مراکز علمی و دولت در بسیاری از کشور‌ها کاهش یافته است. این کاهش اعتماد، شرایط را برای عملیات نفوذ مبتنی بر هوش مصنوعی مناسب‌تر می‌کند، زیرا کاربران در فضای بی‌اعتمادی، بیشتر در معرض پذیرش محتوای جعلی قرار می‌گیرند. همچنین پژوهش‌ها نشان می‌دهد که انسان‌ها در تشخیص دیپ‌فیک‌ها (Deepfake) عملکردی بهتر از حد تصادف ندارند، موضوعی که دفاع در برابر محتوای جعلی را دشوارتر می‌کند و به عاملان مخرب اجازه می‌دهد که با استفاده از ابزار‌های پیشرفته، واقعیت را بازسازی کنند.

سیستم‌های هوش مصنوعی قادرند محتوای احساسی، تفرقه‌افکن یا هدفمند تولید کنند و آن را در میان گروه‌های مختلف پخش کنند. پژوهش‌ها نشان می‌دهد که پروپاگاندای تولیدشده با هوش مصنوعی می‌تواند نگرش افراد را تغییر دهد و با ایجاد اجماع مصنوعی، کاربران را متقاعد کند که یک دیدگاه خاص، نظر غالب جامعه است. این فرآیند می‌تواند به تدریج فضای سیاسی را دچار دگرگونی کند و اعتماد به منابع معتبر را کاهش دهد

نمونه‌های واقعی از عملیات نفوذ دیجیتال

در سال‌های گذشته، کشور‌های مختلف شاهد موج‌های گسترده‌ای از عملیات اطلاعاتی بوده‌اند که نشان می‌دهد تهدید‌های دیجیتال تنها یک خطر نظری نیستند. در برزیل، بات‌های سیاسی برای دامن‌زدن به فساد و قطبی‌سازی به کار گرفته شدند.

در فیلیپین، کارخانه‌های ترول حرفه‌ای افکار عمومی را دستکاری کردند و در میانمار، ارتش با ساخت صد‌ها حساب جعلی، نفرت‌پراکنی علیه اقلیت روهینگیا را تشدید کرد. در تایوان و هند، محتوای تولیدشده با هوش مصنوعی در دوره‌های انتخاباتی نقش قابل توجهی داشت و دولت‌ها برای مقابله با آن سازوکار‌های جدیدی ایجاد کردند. 

این نمونه‌ها نشان می‌دهد که عملیات نفوذ دیجیتال می‌تواند بر روند‌های سیاسی، اجتماعی و امنیتی تاثیر بگذارد و ازدحام‌های هوش مصنوعی می‌توانند این الگو‌ها را ارزان‌تر، سریع‌تر و گسترده‌تر کنند.

شبکه‌های اجتماعی و روایت‌سازی هوش مصنوعی

اینستاگرام به‌عنوان یکی از بزرگ‌ترین بستر‌های انتشار محتوای بصری، نقشی محوری در روند روایت‌سازی مبتنی بر هوش مصنوعی ایفا می‌کند. الگوریتم‌های این پلتفرم که بر پایه تعامل، واکنش احساسی، زمان ماندگاری کاربر و اهداف و سیاست‌گذاری‌های کلی این شرکت طراحی شده‌اند، به‌طور طبیعی محتوایی را تقویت می‌کنند که بیشترین تحریک عاطفی را ایجاد کند؛ ویژگی‌ای که با توانایی مدل‌های هوش مصنوعی در تولید تصاویر، ویدئو‌ها و کپشن‌های هدفمند هم‌پوشانی کامل دارد.

در چنین محیطی، پرسونا‌های هوش مصنوعی می‌توانند با انتشار محتوای ظاهرا شخصی، روایت‌های احساسی و هشتگ‌های هماهنگ، جریان‌های ادراکی را به‌صورت نامحسوس هدایت کنند. ساختار بسته فید و نبود شفافیت درباره منشا محتوا باعث می‌شود مرز میان کاربر واقعی و عامل مصنوعی به‌سادگی محو شود و عملیات نفوذ در قالب «ترند‌های طبیعی» ظاهر گردد. اینستاگرام به دلیل اتکای شدید به تصویر و روایت‌های کوتاه، بستری فراهم می‌کند که در آن شبکه‌های هوش مصنوعی قادرند برداشت سیاسی و نگرش عمومی را از طریق بازنمایی‌های احساسی و تکرارشونده تغییر دهند.

اپ توئیتر (X) نیز به‌دلیل ماهیت گفت‌وگویی، سرعت انتشار بالا و نقش آن در شکل‌دهی دستور کار رسانه‌ای، یکی از حساس‌ترین فضا‌ها برای روایت‌سازی هوش مصنوعی محسوب می‌شود. در این پلتفرم، عامل‌های هوش مصنوعی می‌توانند با تولید انبوه توییت‌های هماهنگ، پاسخ‌های زنجیره‌ای، بازنشر‌های هدفمند و هشتگ‌سازی، جریان‌های گفت‌وگویی را در مدت کوتاهی منحرف یا تقویت کنند.

در این شبکه اجتماعی، شبکه‌ای از ربات‌ها مانند یک «ازدحام هماهنگ» عمل کند: برخی نقش تولیدکننده محتوا را بر عهده می‌گیرند، برخی دیگر تعامل را افزایش می‌دهند و گروهی با ارائه تحلیل‌های شبه‌کارشناسی، روایت را معتبر جلوه می‌دهند. سرعت بالای گردش اطلاعات در توئیتر باعث می‌شود این سیگنال‌های مصنوعی نه‌تنها بر کاربران عادی، بلکه بر روزنامه‌نگاران، سیاست‌گذاران و رسانه‌های رسمی نیز اثر بگذارد. نتیجه این فرآیند، شکل‌گیری اجماع مصنوعی و تغییر ادراک سیاسی در مقیاسی است که تشخیص منشا آن برای کاربران تقریبا ناممکن است.

چگونگی اثرگذاری ازدحام‌های هوش مصنوعی بر افکار عمومی

ازدحام‌های هوش مصنوعی می‌توانند با هماهنگی فرابشری، روایت‌های سیاسی را در شبکه‌های اجتماعی تقویت کنند. این سیستم‌ها قادرند محتوای احساسی، تفرقه‌افکن یا هدفمند تولید کنند و آن را در میان گروه‌های مختلف پخش کنند. پژوهش‌ها نشان می‌دهد که پروپاگاندای تولیدشده با هوش مصنوعی می‌تواند نگرش افراد را تغییر دهد و با ایجاد اجماع مصنوعی، کاربران را متقاعد کند که یک دیدگاه خاص، نظر غالب جامعه است. این فرآیند می‌تواند به تدریج فضای سیاسی را دچار دگرگونی کند و اعتماد به منابع معتبر را کاهش دهد.

علاوه بر این، ازدحام‌ها می‌توانند رفتار سیاستمداران را نیز تحت تاثیر قرار دهند. با ایجاد سیگنال‌های جعلی از حمایت یا مخالفت، ممکن است سیاستمداران به سمت تولید محتوای تندتر و قطبی‌تر سوق داده شوند، موضوعی که پژوهش‌های اجتماعی آن را تایید کرده است. این وضعیت می‌تواند چرخه‌ای از قطبی‌سازی ایجاد کند که در آن، هم شهروندان و هم سیاستمداران تحت تاثیر سیگنال‌های مصنوعی قرار می‌گیرند.

مسیر‌های آسیب به دموکراسی

ازدحام‌های هوش مصنوعی می‌توانند از طریق چند مسیر اصلی به دموکراسی آسیب بزنند:

نخست، این سیستم‌ها می‌توانند با انتشار محتوای هدفمند، اعتماد عمومی به نهاد‌های انتخاباتی و دولتی را تضعیف کنند و زمینه بی‌ثباتی سیاسی را فراهم کنند.

دوم، آنها قادرند با ایجاد اجماع مصنوعی، این تصور را ایجاد کنند که یک دیدگاه خاص، نظر اکثریت است و از این طریق بر تصمیم‌گیری شهروندان اثر بگذارند.

سوم، انتشار محتوای تفرقه‌افکن و نفرت‌پراکن می‌تواند به افزایش تنش‌های اجتماعی و حتی خشونت واقعی منجر شود.

چهارم، ابزار‌های نوشتاری مبتنی بر هوش مصنوعی می‌توانند به شکل نامحسوس سوگیری‌های خاصی را در محتوا تزریق کنند و به تدریج نگرش‌های کاربران را تغییر دهند.

این مسیر‌ها در مطالعات مختلف، از انتخابات تایوان تا پژوهش‌های آزمایشگاهی درباره پروپاگاندای هوش مصنوعی، تایید شده‌اند و نشان می‌دهند که تهدید ازدحام‌های هوش مصنوعی یک خطر ساختاری برای دموکراسی است. 

راهکار‌های مقابله با تهدید و ضرورت اقدام هماهنگ

مقابله با تهدید ازدحام‌های هوش مصنوعی نیازمند ترکیبی از سیاست‌گذاری، فناوری و آموزش عمومی است. اسناد علمی تاکید می‌کنند که شفافیت درباره محتوای تولیدشده با هوش مصنوعی، تقویت ابزار‌های تشخیص دیپ‌فیک و سخت‌سازی فنی مدل‌های زبانی از جمله اقدامات ضروری است.

همچنین استفاده از عامل‌های هوش مصنوعی مفید برای مقابله با عامل‌های مخرب، افزایش سواد رسانه‌ای و بازطراحی شبکه‌های اجتماعی با سازوکار‌های هویت‌سنجی می‌تواند نقش مهمی در کاهش اثرگذاری عملیات نفوذ داشته باشد. این راهکار‌ها نشان می‌دهد که دفاع از دموکراسی در برابر تهدید‌های نوظهور هوش مصنوعی تنها با همکاری میان دولت‌ها، شرکت‌های فناوری و جامعه مدنی ممکن است و هرگونه تاخیر در این زمینه می‌تواند هزینه‌های سنگینی برای جامعه و سیاست به همراه داشته باشد.

انتهای پیام/

ارسال نظر