12:12 29 / 04 /1404

مدل های ترکیبی، آینده یادگیری را عوض می‌کند

مدل های ترکیبی، آینده یادگیری را عوض می‌کند
پژوهشگران در دانشگاه کالیفرنیا، با ترکیب الگوریتم‌های یادگیری عمیق با مفاهیم نورومورفیک موفق شده‌اند شبکه‌های عصبی اسپایک‌زن را در مقیاسی بزرگ آموزش دهند؛ مدلی که به مصرف انرژی پایین و عملکردی شبیه به مغز انسان معروف است.

جیسون اشراقیان، استادیار دانشگاه کالیفرنیا در سانتا کروز، در گفت‌و‌گو با نشریه EE Times اظهار کرد: ترکیب میان یادگیری عمیق مرسوم و محاسبات نورومورفیک می‌تواند راه را برای یافتن کاربرد‌های مفید در مدل‌ها و سخت‌افزار‌های الهام‌گرفته از مغز انسان هموار کند.

به گفته اشراقیان، شبکه‌های عصبی اسپایک‌زن (SNNs) مدت‌هاست که از ارکان اصلی طرح‌های نورومورفیک هستند، اما استفاده‌های تجاری از آنها هنوز محدود به شبکه‌هایی بسیار کوچک و کم‌مصرف باقی مانده‌اند. در مقابل، مدل‌های زبانی بزرگ (LLMs) به رشد خود ادامه می‌دهند و پیچیده‌تر می‌شوند. گرچه SNN‌ها از روش‌های متداول یادگیری عمیق که این روز‌ها عمدتاً حول مدل‌های ترنسفورمر غول‌پیکر می‌چرخند، متمایز به نظر می‌رسند، اما حوزه‌هایی وجود دارد که این دو جریان می‌توانند از همدیگر وام بگیرند.

الگوریتم backpropagation به عنوان عامل کلیدی موفقیت یادگیری عمیق در مقیاس‌های وسیع شناخته می‌شود

به گزارش EETimes، یکی از چالش‌های اساسی آموزش SNN ها، تا مدت اخیر، غیرقابل مشتق بودن اسپایک‌ها بود. اما امروزه این مانع تا حد زیادی با بهره‌گیری از تکنیک‌هایی مانند الگوریتم «پس‌انتشار خطا» و «آموزش آگاه از کوانتیزاسیون» که برگرفته از یادگیری عمیق هستند، مرتفع شده است.

اشراقیان در پایان گفت: «ما هم از پس‌انتشار خطا به همان روشی استفاده کردیم که متخصصان یادگیری عمیق استفاده کرده‌اند. به سراغ backprop رفتیم، چون جواب می‌دهد؛ منطقی‌ترین مسیر برای رسیدن به شبکه‌های عصبی اسپایک‌زن بزرگ‌مقیاس همین بود.»

انتهای پیام/

ارسال نظر
رسپینا
گوشتیران
قالیشویی ادیب