نگرش منفی به هوش مصنوعی، منطقی است یا فقط یک تعصب پنهان است؟
طبق گزارش سایت «psypost» یک مطالعه جدید نشان میدهد مردم زمانی که بدانند یک پیام توسط هوش مصنوعی نوشته شده، فرستنده را منفیتر ارزیابی میکنند. بااینحال، در شرایط معمول زندگی روزمره، افراد تقریباً هیچ شکی به استفاده از هوش مصنوعی ندارند و پیامها را انسانی فرض میکنند.
هوش مصنوعی مولد ابزاری است که میتواند متنهایی شبیه نوشتههای انسانی تولید کند و مردم به طور فزایندهای از آن برای ایمیل، پیامک و پستهای شبکههای اجتماعی استفاده میکنند. پژوهشگران «ژو» و «مولنار» بررسی کردند این موضوع چگونه بر برداشت ما از یکدیگر تأثیر میگذارد.
تحقیقات گذشته نشان داده بودند که افشای استفاده از هوش مصنوعی باعث کاهش ارزش اجتماعی نویسنده میشود، اما در دنیای واقعی افراد معمولاً استفاده خود از هوشمصنوعی را اعلام نمیکنند. پژوهشگران میخواستند بدانند در شرایط واقعی و بدون افشاگری، مردم پیامها را چگونه برداشت میکنند.
در آزمایش اول با ۶۴۷ شرکتکننده، افراد پیامهای مختلفی را خواندند و درباره فرستنده قضاوت کردند. وقتی به آنها گفته میشد متن با هوش مصنوعی نوشته شده، برداشتشان بسیار منفیتر بود. اما بدون ارائه اطلاعات درباره منبع پیام، مردم پیام را شبیه پیام انسانی ارزیابی میکردند و هیچ شک طبیعیای نشان نمیدادند.
در تعاملات روزمره، مردم واقعاً از دریافت پیامهای تولیدشده توسط هوش مصنوعی خوششان نمیآید. برای مثال، ما نمیخواهیم عذرخواهیای را دریافت کنیم که توسط هوش مصنوعی نوشته شده، حتی اگر متنی بسیار عالی باشد، زیرا چنین پیامهایی مصنوعی و پوچ به نظر میرسند؛ و سپردن ارتباطات عمیقاً شخصی به هوش مصنوعی حتی ممکن است نوعی بیحرمتی تلقی شود
پژوهشگران دریافتند که مردم از دریافت پیامهای عمیقاً شخصی که با هوش مصنوعی نوشته شده باشند خوششان نمیآید و آن را غیرحقیقی و توخالی میبینند. بااینحال، این احساس تنها زمانی اعمال میشود که افراد بدانند یا حدس قوی بزنند که از AI استفاده شده است؛ در غیر این صورت هیچ سوءظنی شکل نمیگیرد.
یکی از پزوهشگران این مقاله میگوید:«در تعاملات روزمره، مردم واقعاً از دریافت پیامهای تولیدشده توسط هوش مصنوعی خوششان نمیآید. برای مثال، ما نمیخواهیم عذرخواهیای را دریافت کنیم که توسط هوش مصنوعی نوشته شده، حتی اگر متنی بسیار عالی باشد، زیرا چنین پیامهایی مصنوعی و پوچ به نظر میرسند؛ و سپردن ارتباطات عمیقاً شخصی به هوش مصنوعی حتی ممکن است نوعی بیحرمتی تلقی شود.»
آزمایش دوم هفت ماه بعد انجام شد تا بررسی کنند آیا با افزایش آگاهی عمومی، شک مردم بیشتر شده است یا خیر. وقتی گفته میشد متن توسط هوش مصنوعی تولید شده، افراد تلاش ذهنی و دقت احساسی نویسنده را کمتر تخمین میزدند؛ اما بدون اطلاع از منبع، پیام همچنان انسانی فرض میشد.
نکته غافلگیرکننده این بود که حتی کاربران پرمصرف و حرفهای هوش مصنوعی نیز نسبت به پیامهای دیگران شک بیشتری نداشتند. این یافته نشان میدهد استفادهکنندگان زیاد هوشمصنوعی میتوانند بدون احتمال بالای شناسایی، پیامهای تمیزتر و غیرقابلشناساییتری ارسال کنند و این موضوع ممکن است باعث نابرابری شود.
پژوهشگران تأکید کردند که شرکتکنندگان درواقع نویسنده را قضاوت میکردند نه کیفیت متن را. آنان همچنین اشاره کردند مطالعه محدودیتهایی دارد، چون بر سناریوهای فرضی، پیامهای یکطرفه و شرکتکنندگان آمریکایی تمرکز داشته است. تحقیقات آینده آزمون شرایط واقعیتر، موقعیتهای پرریسک و تفاوتهای فرهنگی را بررسی خواهد کرد.
انتهای پیام/
- تور استانبول
- غذای سازمانی
- خرید کارت پستال
- لوازم یدکی تویوتا قطعات تویوتا
- مشاوره حقوقی
- تبلیغات در گوگل
- بهترین کارگزاری بورس
- ثبت نام آمارکتس
- سایت رسمی خرید فالوور اینستاگرام همراه با تحویل سریع
- یخچال فریزر اسنوا
- گاوصندوق خانگی
- تاریخچه پلاک بیمه دات کام
- ملودی 98
- خرید سرور اختصاصی ایران
- بلیط قطار مشهد
- رزرو بلیط هواپیما
- ال بانک
- آهنگ جدید
- بهترین جراح بینی ترمیمی در تهران
- اهنگ جدید
- خرید قهوه
- اخبار بورس