آخرین اخبار:
پیشنهاد سردبیر
سکوت در برابر ترور، فریاد برای استعفا؛ چرا رگ سلبریتی‌ها گزینشی می‌جنبد؟

واکاوی استاندارد‌های دوگانه در مواجهه با تهدیدات امنیت ملی 

کدام شیوه کالابرگ به نفع شماست؟

جزئیات جدید از توزیع سبد کالای رایگان درب منزل 

آقای موسوی! دقیقاً کجای تاریخ ایستاده‌اید؟

از نخست‌وزیری امام (ره) تا پژواک پهلوی| بیانیه‌ای برای «هیچ»

13:46 21 / 05 /1403

فروپاشی مدل؛ خطر جدیدی که هوش مصنوعی را تهدید می‌کند

یک مطالعه علمی جدید نشان می‌دهد که سیستم‌های هوش مصنوعی در صورتی که به طور منظم چک نشوند، ممکن است فضای اینترنت را از چرندیات نامفهوم پر کنند.

به گزارش خبرگزاری علم و فناوری آنا به نقل از لایوساینس، پژوهشگران دانشگاه آکسفورد هشدار داده‌اند که مدل‌های هوش مصنوعی مانند جی پی تی -۴ با آموزش بر روی خروجی خود، می‌توانند چرخه‌های تکرارشوندۀ مخرب ایجاد کنند.

سیستم‌های هوش مصنوعی با استفاده از مقادیر زیادی داده‌های تولید شده توسط انسان تکامل می‌یابند و به همین نسبت ممکن است به طور فزاینده‌ای به داده‌های مصنوعی تولید شده توسط مدل‌های قبلی متکی باشند. مطالعه محققان آکسفورد تأکید دارد که این مدل‌ها پتانسیل آن را دارند که پاسخ‌ها را در طی چند نسل از همان مدل تا سطح بی‌معنا شدن تنزل دهند.

این تیم در طول تحقیقات خود، یک مدل بزرگ زبانی را روی محتوای ویکی‌پدیا آموزش داد و سپس خروجی خود را دوباره به درون مدل بازگرداند. این روند در نسل نهم این فرآیند، مدل یک متن نامنسجم و پر از توهم تولید کرد.

سرپرست این تیم تحقیقاتی توضیح داد که «مارپیچ خطاهای» چنین سیستم‌هایی شبیه اسکن و چاپ مکرر یک تصویر است که در آن اعوجاج‌ها در طول زمان انباشته می‌شوند. او می‌گوید: «داده‌های مصنوعی می‌توانند مفید باشند، اما باید به دقت طراحی شوند تا از فروپاشی مدل جلوگیری شود.» او بر ضرورت تکامل شیوه‌های آموزشی برای اطمینان از بهبود و عملکرد مدل هوش مصنوعی تاکید می‌کند.

داده‌های تولیدشده توسط انسان در مرحله فعلی برای پشتیبانی از مدل‌های موجود کفایت می‌کنند، اما محققان بر اهمیت حفظ کیفیت داده‌های آموزشی برای جلوگیری از پیامد‌های منفی آینده تأکید دارند.

انتهای پیام/

ارسال نظر