آخرین اخبار:

توانایی تفکر در ماشین‌ها همچنان مورد مناقشه است

مرز میان محاسبه و تفکر بیش از هر زمان دیگری مبهم شده است. ماشین‌ها نه‌تنها به پرسش‌ها پاسخ می‌دهند، بلکه استدلال می‌کنند، جمع‌بندی دارند و حتی موضع می‌گیرند. با این حال، پرسش اصلی همچنان پابرجاست؛ آیا این عملکرد‌ها نشانه‌ای از فهم و آگاهی است یا صرفا نتیجه پردازش پیچیده داده‌ها در شبکه‌ای از الگوریتم‌ها؟ اختلاف نظر میان دانشمندان علوم شناختی، فیلسوفان ذهن و پژوهشگران هوش مصنوعی نشان می‌دهد مسئله تنها فنی نیست، بلکه باید بار دیگر بپرسیم تفکر چیست و انسان بودن به چه معناست؟
نویسنده : فهیمه سنجری

دانشجویی در سکوت کتابخانه دانشگاه، روبه‌روی صفحه‌ای روشن نشسته و از یک سامانه هوش مصنوعی می‌خواهد درباره آگاهی انسانی تحلیلی فلسفی ارائه کند. چند ثانیه بعد، متنی منظم، استدلالی و حتی دارای ارجاع علمی ظاهر می‌شود. پاسخ دقیق است، ساختار دارد و حتی به اعتراض‌های احتمالی پاسخ می‌دهد. دانشجو لحظه‌ای مکث می‌کند. آیا این فقط پردازش آماری است یا چیزی شبیه اندیشیدن؟ آیا هوش مصنوعی می‌فهمد آنچه می‌نویسد چیست؟

این پرسش تازه نیست. آلن تورینگ در سال ۱۹۵۰ در مقاله مشهور خود با عنوان «Computing Machinery and Intelligence» همین مسئله را طرح کرد و پیشنهاد داد که به‌جای تعریف انتزاعی تفکر، باید به رفتار قابل مشاهده توجه کرد. او پرسید اگر یک ماشین بتواند در گفت‌و‌گو چنان پاسخ دهد که انسان نتواند آن را از انسان دیگر تشخیص دهد، آیا باید گفت که فکر می‌کند؟ این چارچوب هنوز یکی از پایه‌های بحث در فلسفه هوش مصنوعی است.

هوش مصنوعی ضعیف (Weak AI) در برابر هوش عمومی مصنوعی (AGI)

شش سال پس از مقاله تورینگ، کنفرانس دارتموث در سال ۱۹۵۶ به‌عنوان نقطه آغاز رسمی حوزه هوش مصنوعی شناخته شد. جان مک‌کارتی (John McCarthy) در پیشنهاد اولیه این کنفرانس نوشت که هر جنبه‌ای از یادگیری یا هوش انسانی را می‌توان به‌گونه‌ای دقیق توصیف کرد که ماشین بتواند آن را شبیه‌سازی کند. این خوش‌بینی اولیه، افق پژوهش‌های بعدی را تعیین کرد.

ماشین‌ها هنوز مانند انسان فکر نمی‌کنند، اگر منظور از تفکر تجربه آگاهانه، درک معنایی، استدلال علی پایدار و توانایی تعمیم گسترده باشد. با این حال، پیشرفت سریع فناوری باعث شده این پرسش نه‌تنها فلسفی بلکه اجتماعی و سیاسی نیز باشد

در دهه‌های بعد، تمایزی اساسی در ادبیات علمی شکل گرفت، هوش مصنوعی ضعیف (Weak AI) در برابر هوش عمومی مصنوعی (AGI). دانشنامه فلسفه استنفورد توضیح می‌دهد که هوش ضعیف به سامانه‌هایی گفته می‌شود که برای انجام وظایف خاص طراحی شده‌اند و فاقد درک عمومی، خودآگاهی یا توانایی تعمیم گسترده هستند. در مقابل، هوش عمومی مصنوعی به سامانه‌ای فرضی اشاره دارد که بتواند در طیفی گسترده از فعالیت‌ها همانند انسان عمل کند و دانش را میان حوزه‌های مختلف انتقال دهد.

تاکنون هیچ نمونه عملی از هوش عمومی مصنوعی ساخته نشده و تمام سامانه‌های موجود در چارچوب هوش ضعیف قرار می‌گیرند؛ بنابراین بخش بزرگی از بحث عمومی امروز درباره توانایی ماشین‌ها، در واقع درباره سامانه‌هایی است که ذاتا محدود به دامنه‌های خاص هستند.

توانایی‌های فنی در برابر ساختار شناختی انسان

پیشرفت‌های چشمگیر در یادگیری عمیق (Deep Learning) و شبکه‌های عصبی مصنوعی (Artificial Neural Networks) باعث شده سامانه‌های هوش مصنوعی در حوزه‌هایی مانند پردازش زبان طبیعی و بینایی ماشین عملکردی چشمگیر داشته باشند. کتاب مرجع «Deep Learning» توضیح می‌دهد که این سامانه‌ها با بهینه‌سازی توابع ریاضی بر روی داده‌های عظیم آموزش می‌بینند و الگو‌های آماری را استخراج می‌کنند. آنچه رخ می‌دهد، تنظیم وزن‌های عددی در شبکه‌ای پیچیده است، نه شکل‌گیری تجربه ذهنی.

در پژوهشی، برندن لیک (Brenden Lake) می‌نویسد که انسان‌ها قادر به یادگیری مفهومی سریع، انتقال دانش به شرایط جدید و استدلال علی هستند، در حالی که سامانه‌های کنونی اغلب به داده‌های وسیع و شرایط آموزشی خاص وابسته‌اند و شباهت رفتاری به معنای هم‌سطح بودن شناختی نیست و ماشین‌ها هنوز فاقد انعطاف و درک عمیق مفهومی هستند.

این یافته‌ها نشان می‌دهد که اگرچه ماشین‌ها می‌توانند خروجی‌هایی شبیه به تفکر انسانی تولید کنند، اما ساختار یادگیری آنها با سازوکار‌های شناختی انسان تفاوت بنیادی دارد. در نتیجه، مسئله صرفا عملکرد نیست، بلکه نوع و کیفیت فرآیند شناختی اهمیت دارد.

آگاهی، معنا و شکاف تبیینی

مناقشه اصلی زمانی شکل می‌گیرد که بحث آگاهی (Consciousness) مطرح می‌شود. جان سرل در مقاله «Minds, Brains and Programs» با طرح آزمایش ذهنی اتاق چینی (Chinese Room) استدلال کرد که اجرای قواعد نحوی به معنای فهم معنایی نیست. در این سناریو، فردی که زبان چینی نمی‌داند با پیروی از دستورالعمل‌های نمادین پاسخ‌هایی تولید می‌کند که برای ناظر بیرونی معنادار به نظر می‌رسد، اما خود فرد هیچ درکی از معنا ندارد. سرل نتیجه می‌گیرد که رایانه‌ها نیز حتی اگر پاسخ درست بدهند، الزاما نمی‌فهمند.

این استدلال به پرسش عمیق‌تری می‌انجامد، آیا تفکر انسانی بدون تجربه ذهنی قابل تصور است؟ دیوید چالمرز در مقاله «Facing Up to the Problem of Consciousness» از مساله دشوار آگاهی سخن می‌گوید و توضیح می‌دهد که حتی اگر تمام فرآیند‌های فیزیکی مغز را توضیح دهیم، هنوز پرسش از تجربه درونی یا کیفیات ذهنی باقی می‌ماند. این شکاف تبیینی نشان می‌دهد که مدل‌های محاسباتی لزوما تجربه آگاهانه را توضیح نمی‌دهند.

در مقابل، نظریه‌پردازان عملکردگرا (Functionalism) معتقدند که آنچه اهمیت دارد نقش علی و کارکردی حالات ذهنی است، نه بستر زیستی آن. اگر سامانه‌ای بتواند همان روابط ورودی و خروجی و همان ساختار علی را بازتولید کند، می‌توان آن را دارای ذهن دانست. این دیدگاه همچنان در فلسفه ذهن مورد بحث است و اجماع نهایی درباره آن وجود ندارد؛ بنابراین مناقشه میان طرفداران امکان تفکر ماشینی و منتقدان آن، صرفا فنی نیست بلکه ریشه در اختلاف درباره ماهیت ذهن و آگاهی دارد.

بر پایه ادبیات علمی موجود، ماشین‌های کنونی در چارچوب هوش ضعیف فعالیت می‌کنند. آنها می‌توانند وظایف خاص را با دقت بالا انجام دهند و حتی در برخی آزمون‌ها عملکردی مشابه انسان نشان دهند، اما شواهدی مبنی بر داشتن آگاهی، خودآگاهی یا تجربه ذهنی مستقل وجود ندارد.

انتهای پیام/

ارسال نظر