آیا چت‌جی‌پی‌تی واقعا ما را کندذهن و تنبل می‌کند؟

آیا چت‌جی‌پی‌تی واقعا ما را کندذهن و تنبل می‌کند؟
با افزایش استفاده از هوش مصنوعی، پژوهشگران نگران‌ هستند که اتکای بیش از حد به آن ممکن است تفکر انتقادی ما را ضعیف کند.

از زمان معرفی چت جی پی تی در سال ۲۰۲۲، هوش مصنوعی مولد به‌سرعت وارد زندگی کاری، تحصیلی و شخصی ما شد و در سرعت‌بخشیدن به پژوهش، تولید محتوا و بسیاری زمینه‌های دیگر، با سرعتی بی‌سابقه نقش ایفا کرد. اشتیاق به ابزارهای هوش مصنوعی مولد، به‌طور قابل‌توجهی افزایش یافته و حتی نرخ پذیرشی سریع‌تر از اینترنت یا رایانه‌های شخصی را تجربه کرده است. با این حال، کارشناسان هشدار می‌دهند که باید با احتیاط پیش برویم.

همانند هر فناوری نوظهور دیگر، هوش مصنوعی مولد می‌تواند جامعه را در مسیرهای گوناگونی به جلو براند، اما اگر بدون نظارت رها شود، ممکن است پیامدهایی به همراه داشته باشد.

یکی از این صداهای هشداردهنده، «ناتاشا گووندر روپرت»، رئیس بخش هوش مصنوعی برای جرایم مالی در بانک رابوبانک است. او در تازه‌ترین قسمت برنامه «رانش بزرگ بعدی کیا» (Kia’s Next Big Drive) به همراه بوریس فلدهایزن فان زانتن، بنیان‌گذار (TNW)، حضور یافت تا درباره اخلاق در هوش مصنوعی، سوگیری‌ها و این پرسش که آیا ما در حال برون‌سپاری مغزمان به ماشین‌ها هستیم یا نه، گفت‌وگو کند.

یکی از پرسش‌هایی که باید ذهن ما را مشغول کند این است که هرچه بیشتر برای یافتن پاسخ‌ها به هوش مصنوعی مولد رو می‌آوریم، این اتکا چه تأثیری می‌تواند بر هوش خود ما داشته باشد؟

اخیراً مطالعه‌ای در (MIT) درباره استفاده از چت جی پی تی برای نوشتن مقاله، به مجموعه‌ای از تیتر‌های جنجالی در رسانه‌ها منجر شد؛ از جمله: «محققان می‌گویند استفاده از چت جی پی تی می‌تواند مغز شما را پوسیده کند» یا « چت جی پی تی ممکن است شما را تنبل و کودن کند.»، اما آیا واقعاً چنین است؟

مغز شما در برابر هوش مصنوعی مولد

ماجرا از این قرار بود: پژوهشگران به ۵۴ دانشجو در منطقه بوستون یک تکلیف مقاله‌نویسی دادند. یک گروه از چت جی پی تی استفاده کرد، گروهی دیگر از گوگل (بدون کمک هوش مصنوعی) و گروه سوم تنها با تکیه بر مغز خودشان نوشتند. در طول نگارش، فعالیت مغزی آنها با الکترود اندازه‌گیری شد.

پس از سه جلسه، گروه «فقط مغز» بالاترین سطح از اتصال‌های ذهنی را نشان داد. کاربران چت جی پی تی؟ پایین‌ترین. به نظر می‌رسید کسانی که از هوش مصنوعی کمک می‌گرفتند، بیشتر روی حالت «خلبان خودکار» بودند، در حالی که بقیه مجبور بودند برای نوشتن بیشتر فکر کنند.

در دور چهارم، نقش‌ها عوض شد. این بار گروه «فقط مغز» اجازه یافت از ChatGPT استفاده کند، در حالی که گروه کاربر هوش مصنوعی باید بدون کمک آن مقاله بنویسد. نتیجه چه بود؟ گروه اول توانست کیفیت مقالاتش را بهبود دهد، اما گروه دوم حتی در به یادآوردن آنچه قبلاً نوشته بودند دچار مشکل شد.

در مجموع، این مطالعه نشان داد که طی چهار ماهی که انجام شد، شرکت‌کنندگانی که فقط با اتکا به ذهن خود نوشتند، در سطح عصبی، زبانی و رفتاری عملکرد بهتری نسبت به سایر گروه‌ها داشتند. در مقابل، کسانی که از چت جی پی تی استفاده کردند، زمان کمتری را صرف نوشتن مقالات خود کردند و صرفاً دکمه «کپی/پیست» را زدند. معلمان زبان انگلیسی که نوشته‌ها را بررسی کردند، گفتند این مقالات فاقد «تفکر اصیل» و «روح» بودند.

این یافته‌ها نگران‌کننده به نظر می‌رسند، درست است؟ اما واقعیت پیچیده‌تر از آن چیزی است که تیتر‌های جنجالی القا می‌کنند.

به گزارش (thenextweb)، نتایج بیشتر به «میان‌بُرهای ذهنی» مربوط می‌شد تا «فساد مغزی». آنها نشان دادند که اتکای بیش از حد به مدل‌های زبانی بزرگ (LLM ها) می‌تواند میزان درگیری ذهنی را کاهش دهد. اما اگر با رویکردی فعال و همراه با تفکر از آنها استفاده شود، می‌توان از این خطر‌ها اجتناب کرد. پژوهشگران همچنین تأکید کردند که هرچند این تحقیق پرسش‌های جالبی برای مطالعات بعدی ایجاد می‌کند، اما نمونه بسیار کوچک و طراحی ساده‌ای داشت و نمی‌توان از آن نتایج قطعی گرفت.

انتهای پیام/

ارسال نظر
گوشتیران
قالیشویی ادیب
رسپینا