نگاه تبعیضآمیز هوشمصنوعی ممکن است فرهنگ ایرانی را به حاشیه براند

رضا منیعی، عضو هیات علمی موسسه پژوهش و برنامهریزی آموزش عالی، در گفتوگو با آناتک، به موضوع تعصبات الگوریتمی و نحوه بازنمایی فرهنگ، دانش و دادههای بومی در الگوریتمها پرداخت و درباره اهمیت دادهها در این حوزه سخن گفت.
در حال حاضر، دادههای فارسی و فرهنگ ما به اندازه کافی در دسترس نیستند. این امر ممکن است باعث شود فرهنگ ایرانی به تدریج از حافظه جمعی هوش مصنوعی حذف شود. اگر دادههای ما در مجموعه آموزشی این سیستمها وجود نداشته باشد، فراموش خواهیم شد.» او ادامه داد: «این یک تعادل ظریف است؛ باید دادههای خود را با حفظ امنیت و حریم خصوصی در گردش دادههای جهانی قرار دهیم تا فرصت بازنمایی واقعی فرهنگ و تاریخ مان را داشته باشیم
تعصبات الگوریتمی؛ از نظریه تا واقعیت
سوگیری الگوریتمی به خطاهای سیستمی و قابل تکرار در سیستمهای هوش مصنوعی اشاره دارد که منجر به تصمیمات ناعادلانه یا تبعیضآمیز میشوند. این سوگیریها میتوانند در مراحل طراحی و آموزش مدلهای هوش مصنوعی رخ دهند و نتایجی غیرمنصفانه در قبال گروههای خاصی از کاربران ایجاد کنند. درک این نوع سوگیریها برای طراحی سیستمهای هوش مصنوعی عادلانه و منصفانه ضروری است. انواع مختلف سوگیری الگوریتمی شامل موارد زیر است: سوگیری پیشپردازش: ناشی از دادههای ناهمگن یا جانبدارانه. سوگیری تأیید (Confirmation Bias): وقتی سیستم، باورهای قبلی یا کلیشههای موجود را تقویت میکند. سوگیری حذف (Exclusion Bias): زمانی که گروههای خاصی از دادهها بهطور سیستماتیک نادیده گرفته میشوند. سوگیری الگوریتمی یا مدل: وقتی مدل به صورت ناخواسته به یک گروه یا نتیجه خاص گرایش پیدا میکند.
هوش مصنوعی زایشی: طوطیای با حافظه آماری
منیعی درباره نحوه عملکرد موتورهای هوش مصنوعی زایشی گفت: «این سیستمها فاقد آگاهی ذاتی هستند و تنها بر اساس الگوهای آماری دادههای آموزشی عمل میکنند. آنها شبیه طوطی سخنگو هستند، که عبارات را بدون درک معنای عمیق تکرار میکنند.» او تأکید کرد: «خروجی این سیستمها به دادههایی برمیگردد که در زمان آموزش در دسترس آنها قرار گرفته است. بنابراین، اگر دادههای بومی، فرهنگی و تاریخی اصیل ما در این گردش نباشد، احتمال بازنمایی نادرست، نابرابر و تحریف شده افزایش مییابد.»
چالش دادههای فارسی: فراموشی یا استحاله فرهنگی؟
عضو هیات علمی موسسه پژوهش و برنامهریزی آموزش عالی درباره وضعیت دادههای فارسی و فرهنگ ایرانی در سیستمهای هوش مصنوعی گفت: «در حال حاضر، دادههای فارسی و فرهنگ ما به اندازه کافی در دسترس نیستند. این امر ممکن است باعث شود فرهنگ ایرانی به تدریج از حافظه جمعی هوش مصنوعی حذف شود. اگر دادههای ما در مجموعه آموزشی این سیستمها وجود نداشته باشد، فراموش خواهیم شد.» او ادامه داد: «این یک تعادل ظریف است؛ باید دادههای خود را با حفظ امنیت و حریم خصوصی در گردش دادههای جهانی قرار دهیم تا فرصت بازنمایی واقعی فرهنگ و تاریخ مان را داشته باشیم.»
راهکارهای مقابله: از پالایش داده تا مشارکت جمعی
عضو موسسه پژوهش و برنامهریزی آموزش عالی درباره راهکارهای کاهش تعصبات الگوریتمی گفت: «در سطح جهانی، رویکردهایی نظیر عدالت، پاسخگویی و شفافیت در حال توسعه هستند و مورد توجه قرار گرفتهاند. همچنین، مباحث مرتبط با اخلاق داده نیز به عنوان یکی از محورهای مهم در طراحی و توسعه سیستمهای هوش مصنوعی مطرح شده است. هدف اصلی این رویکردها آن است که تنها از دادههای تمیز، دقیق و فاقد تعصب در فرآیند آموزش مدلهای هوش مصنوعی استفاده شود تا بتوان سیستمهایی عادلانه، قابل اعتماد و بدون تبعیض را توسعه داد.» او افزود: «اگر دادههای آموزشی آلوده باشند، مدلها نیز سوگیرانه خواهند بود. بنابراین، باید دادههای ورودی را پالایش کنیم و دقت کنیم که فقط دادههای اخلاقی و مناسب را به این سیستمها بدهیم.»
او همچنین اهمیت مشارکت فعال جوامع محلی در تولید دادههای سالم را برجسته کرد: «هر چقدر دادههای فرهنگی، تاریخی و علمی بیشتری از جوامع ما در اختیار سیستمهای هوش مصنوعی قرار گیرد، بازنمایی واقعیتر و عادلانهتری از فرهنگ ما خواهیم داشت.» هوش مصنوعی زایشی، به عنوان یکی از مهمترین تحولات فناوری قرن بیست و یکم، امکانات بزرگی را فراهم کرده است، اما در عین حال چالشهایی مانند تعصبات الگوریتمی و عدم بازنمایی عادلانه فرهنگهای محلی را نیز به همراه دارد.
منیعی در پایان یادآور شد: «هوش مصنوعی زایشی یک فرصت تاریخی برای معرفی فرهنگ و تمدن ایرانی است، اما تنها با دادههای پاکیزه، فراوان که کل جامعه را نمایندگی کنند محقق میشود. اگر امروز زیرساختهای لازم را ایجاد نکنیم، فردا مجبوریم روایتی تحریفشده از هویت خود را در آینه هوش مصنوعی ببینیم.»
انتهای پیام/