آخرین اخبار:

نگرش منفی به هوش مصنوعی، منطقی است یا فقط یک تعصب پنهان است؟

نتایج یک مطالعه نشان می‌دهد افراد نسبت به پیام‌هایی که می‌دانند با هوش مصنوعی نوشته شده است دید منفی دارند، اما اگر منبع پیام مشخص نباشد، آن را کاملاً انسانی فرض می‌کنند.
نویسنده : زهرا چشم براه

طبق گزارش سایت «psypost» یک مطالعه جدید نشان می‌دهد مردم زمانی که بدانند یک پیام توسط هوش مصنوعی نوشته شده، فرستنده را منفی‌تر ارزیابی می‌کنند. بااین‌حال، در شرایط معمول زندگی روزمره، افراد تقریباً هیچ شکی به استفاده از هوش مصنوعی ندارند و پیام‌ها را انسانی فرض می‌کنند.

هوش مصنوعی مولد ابزاری است که می‌تواند متن‌هایی شبیه نوشته‌های انسانی تولید کند و مردم به طور فزاینده‌ای از آن برای ایمیل، پیامک و پست‌های شبکه‌های اجتماعی استفاده می‌کنند. پژوهشگران «ژو» و «مولنار» بررسی کردند این موضوع چگونه بر برداشت ما از یکدیگر تأثیر می‌گذارد.

تحقیقات گذشته نشان داده بودند که افشای استفاده از هوش مصنوعی باعث کاهش ارزش اجتماعی نویسنده می‌شود، اما در دنیای واقعی افراد معمولاً استفاده خود از هوش‌مصنوعی را اعلام نمی‌کنند. پژوهشگران می‌خواستند بدانند در شرایط واقعی و بدون افشاگری، مردم پیام‌ها را چگونه برداشت می‌کنند.

در آزمایش اول با ۶۴۷ شرکت‌کننده، افراد پیام‌های مختلفی را خواندند و درباره فرستنده قضاوت کردند. وقتی به آنها گفته می‌شد متن با هوش مصنوعی نوشته شده، برداشتشان بسیار منفی‌تر بود. اما بدون ارائه اطلاعات درباره منبع پیام، مردم پیام را شبیه پیام انسانی ارزیابی می‌کردند و هیچ شک طبیعی‌ای نشان نمی‌دادند.

در تعاملات روزمره، مردم واقعاً از دریافت پیام‌های تولیدشده توسط هوش مصنوعی خوششان نمی‌آید. برای مثال، ما نمی‌خواهیم عذرخواهی‌ای را دریافت کنیم که توسط هوش مصنوعی نوشته شده، حتی اگر متنی بسیار عالی باشد، زیرا چنین پیام‌هایی مصنوعی و پوچ به نظر می‌رسند؛ و سپردن ارتباطات عمیقاً شخصی به هوش مصنوعی حتی ممکن است نوعی بی‌حرمتی تلقی شود

پژوهشگران دریافتند که مردم از دریافت پیام‌های عمیقاً شخصی که با هوش مصنوعی نوشته شده باشند خوششان نمی‌آید و آن را غیرحقیقی و توخالی می‌بینند. بااین‌حال، این احساس تنها زمانی اعمال می‌شود که افراد بدانند یا حدس قوی بزنند که از AI استفاده شده است؛ در غیر این صورت هیچ سوءظنی شکل نمی‌گیرد.

یکی از پزوهشگران این مقاله می‌گوید:«در تعاملات روزمره، مردم واقعاً از دریافت پیام‌های تولیدشده توسط هوش مصنوعی خوششان نمی‌آید. برای مثال، ما نمی‌خواهیم عذرخواهی‌ای را دریافت کنیم که توسط هوش مصنوعی نوشته شده، حتی اگر متنی بسیار عالی باشد، زیرا چنین پیام‌هایی مصنوعی و پوچ به نظر می‌رسند؛ و سپردن ارتباطات عمیقاً شخصی به هوش مصنوعی حتی ممکن است نوعی بی‌حرمتی تلقی شود.»

آزمایش دوم هفت ماه بعد انجام شد تا بررسی کنند آیا با افزایش آگاهی عمومی، شک مردم بیشتر شده است یا خیر. وقتی گفته می‌شد متن توسط هوش مصنوعی تولید شده، افراد تلاش ذهنی و دقت احساسی نویسنده را کمتر تخمین می‌زدند؛ اما بدون اطلاع از منبع، پیام همچنان انسانی فرض می‌شد.

نکته غافلگیرکننده این بود که حتی کاربران پرمصرف و حرفه‌ای هوش مصنوعی نیز نسبت به پیام‌های دیگران شک بیشتری نداشتند. این یافته نشان می‌دهد استفاده‌کنندگان زیاد هوش‌مصنوعی می‌توانند بدون احتمال بالای شناسایی، پیام‌های تمیزتر و غیرقابل‌شناسایی‌تری ارسال کنند و این موضوع ممکن است باعث نابرابری شود.

پژوهشگران تأکید کردند که شرکت‌کنندگان درواقع نویسنده را قضاوت می‌کردند نه کیفیت متن را. آنان همچنین اشاره کردند مطالعه محدودیت‌هایی دارد، چون بر سناریو‌های فرضی، پیام‌های یک‌طرفه و شرکت‌کنندگان آمریکایی تمرکز داشته است. تحقیقات آینده آزمون شرایط واقعی‌تر، موقعیت‌های پرریسک و تفاوت‌های فرهنگی را بررسی خواهد کرد.

انتهای پیام/

ارسال نظر