وقتی هوش مصنوعی با سرعت نور رقابت می‌کند

وقتی هوش مصنوعی با سرعت نور رقابت می‌کند
پژوهشگران MIT با توسعه یک شتاب‌دهنده سخت‌افزاری نوری، توانسته‌اند پردازش هوش مصنوعی را با سرعت نور انجام دهند و دنیای تحلیل سیگنال‌های بی‌سیم و دستگاه‌های لبه‌ای را متحول کنند.

پژوهشگران مؤسسه فناوری ماساچوست (MIT) موفق به توسعه یک تراشه نوری جدید شده‌اند که با امکان‌پذیر کردن اجرای یادگیری عمیق با سرعت نور، به دستگاه‌های لبه‌ای اجازه می‌دهد تحلیل داده‌ها را به صورت کاملاً لحظه‌ای و با توانمندی‌های به‌مراتب بیشتر انجام دهند.

همزمان با افزایش چشمگیر تعداد دستگاه‌های متصل به شبکه و نیاز بیشتر به پهنای باند برای فعالیت‌هایی مانند دورکاری و رایانش ابری، مدیریت طیف محدود بی‌سیم که میان تمامی کاربران مشترک است، به طور فزاینده‌ای دشوار شده است. برای حل این چالش، مهندسان به سمت هوش مصنوعی روی آورده‌اند تا طیف بی‌سیم را به صورت پویا مدیریت کنند و بدین ترتیب تأخیر را کاهش داده و عملکرد شبکه را بهبود بخشند. اما بیشتر روش‌های هوش مصنوعی فعلی برای پردازش و طبقه‌بندی سیگنال‌های بی‌سیم مصرف انرژی بالایی دارند و توانایی اجرای پردازش‌های زمان واقعی را ندارند.

اکنون، پژوهشگران MIT با طراحی و ساخت یک شتاب‌دهنده سخت‌افزاری مبتنی بر هوش مصنوعی که به طور خاص برای پردازش سیگنال‌های بی‌سیم طراحی شده، توانسته‌اند سرعت پردازش را به اندازه‌ای افزایش دهند که این تراشه نوری وظایف یادگیری ماشین را با سرعت نور انجام داده و سیگنال‌های بی‌سیم را در عرض نانوثانیه طبقه‌بندی کند.

این تراشه نوری تقریباً ۱۰۰ برابر سریع‌تر از بهترین نمونه‌های دیجیتال موجود عمل می‌کند و دقتی حدود ۹۵ درصد در طبقه‌بندی سیگنال‌ها دارد. علاوه بر این، این تراشه کوچک‌تر، سبک‌تر، مقرون‌به‌صرفه‌تر و انرژی‌کارآمدتر از سخت‌افزار‌های هوش مصنوعی دیجیتال سنتی است و قابلیت توسعه و سازگاری با انواع مختلف وظایف محاسباتی با عملکرد بالا را داراست.

فناوری جدید می‌تواند به ویژه برای سیستم‌های بی‌سیم نسل ششم (۶G) آینده بسیار ارزشمند باشد، مانند رادیو‌های شناختی (Cognitive Radios) که با تنظیم خودکار فرمت‌های مدولاسیون بی‌سیم براساس شرایط لحظه‌ای، نرخ انتقال داده را بهبود می‌بخشند.

به گزارش scitechdaily، با این شتاب‌دهنده سخت‌افزاری که امکان اجرای محاسبات یادگیری عمیق را به صورت زمان واقعی روی دستگاه‌های لبه‌ای فراهم می‌کند، سرعت اجرای طیف وسیعی از کاربرد‌ها به طرز چشمگیری افزایش می‌یابد؛ از جمله واکنش فوری خودرو‌های خودران به تغییرات محیطی یا پایش مداوم سلامت قلب توسط ضربان‌ساز‌های هوشمند.

دریک انگلوند، استاد دانشکده مهندسی برق و علوم کامپیوتر MIT و نویسنده ارشد این مقاله، می‌گوید: «کاربرد‌های متعددی وجود دارد که دستگاه‌های لبه‌ای با توانایی تحلیل سیگنال‌های بی‌سیم می‌توانند آنها را ممکن سازند. آنچه ما در مقاله خود ارائه کرده‌ایم، می‌تواند در‌های زیادی را به روی استنتاج‌های هوش مصنوعی در زمان واقعی و با اطمینان باز کند. این کار آغاز مسیری است که پتانسیل ایجاد تاثیرات بسیار بزرگ را دارد.»

پژوهشگران شبکه عصبی نوری خود را به گونه‌ای طراحی کرده‌اند که تمامی عملیات خطی و غیرخطی مورد نیاز در یادگیری عمیق را به صورت همزمان و درون‌خطی انجام دهد. این طراحی نوآورانه موجب شده تا برای هر لایه از شبکه عصبی نوری تنها به یک دستگاه MAFT-ONN نیاز باشد، در حالی که در روش‌های دیگر برای هر نورون جداگانه نیاز به دستگاه جداگانه وجود دارد.

دیویدز، از اعضای تیم پژوهشی، می‌گوید: «ما می‌توانیم ۱۰،۰۰۰ نورون را روی یک دستگاه جای دهیم و تمامی ضرب‌های مورد نیاز را در یک مرحله محاسبه کنیم.» این موفقیت با استفاده از روشی به نام ضرب فوتوالکتریک حاصل شده است که به شکل قابل توجهی بهره‌وری را افزایش می‌دهد و امکان توسعه شبکه عصبی نوری را با افزودن لایه‌های بیشتر بدون ایجاد بار اضافی فراهم می‌کند.

این سیستم MAFT-ONN سیگنال بی‌سیم را به عنوان ورودی دریافت کرده، داده‌های آن را پردازش کرده و سپس اطلاعات پردازش‌شده را برای عملیات بعدی که توسط دستگاه لبه‌ای انجام می‌شود، ارسال می‌کند. به طور مثال، با طبقه‌بندی نوع مدولاسیون سیگنال، دستگاه قادر خواهد بود به طور خودکار نوع سیگنال را تشخیص داده و داده‌های آن را استخراج کند.

یکی از بزرگ‌ترین چالش‌ها هنگام طراحی MAFT-ONN، تطبیق محاسبات یادگیری ماشین با سخت‌افزار نوری بوده است. دیویدز توضیح می‌دهد: «ما نمی‌توانستیم از چارچوب‌های معمول یادگیری ماشین به صورت آماده استفاده کنیم. باید آنها را متناسب با سخت‌افزار سفارشی می‌کردیم و راهی پیدا می‌کردیم که از قوانین فیزیک به نحو مطلوب بهره ببریم تا محاسبات مورد نظر به درستی انجام شود.»

وقتی این معماری در شبیه‌سازی‌های طبقه‌بندی سیگنال آزمایش شد، شبکه عصبی نوری در یک مرحله به دقت ۸۵ درصد دست یافت و با استفاده از چندین اندازه‌گیری به سرعت می‌تواند به دقت بیش از ۹۹ درصد برسد. کل فرایند طبقه‌بندی توسط MAFT-ONN تنها در حدود ۱۲۰ نانوثانیه انجام می‌شود.

دیویدز اضافه می‌کند: «هر چه مدت زمان اندازه‌گیری طولانی‌تر شود، دقت بالاتر خواهد رفت، اما از آنجا که MAFT-ONN استنتاج‌ها را در نانوثانیه انجام می‌دهد، افزایش دقت با کاهش سرعت قابل توجهی همراه نیست.»

در حالی که دستگاه‌های دیجیتال پیشرفته فرکانس رادیویی می‌توانند استنتاج‌های یادگیری ماشین را در مقیاس میکروثانیه انجام دهند، فناوری نوری این عملیات را در مقیاس نانوثانیه یا حتی پیکوثانیه انجام می‌دهد.

پژوهشگران قصد دارند در آینده از روش‌های موسوم به «تکثیر» (multiplexing) برای انجام محاسبات بیشتر و توسعه توانمندی‌های MAFT-ONN استفاده کنند. همچنین برنامه دارند این فناوری را به معماری‌های پیچیده‌تر یادگیری عمیق، مانند مدل‌های ترنسفورمر و مدل‌های زبانی بزرگ (LLMs) تعمیم دهند.

انتهای پیام/

ارسال نظر
رسپینا
گوشتیران
قالیشویی ادیب