کاربران نمیدانند دادههایشان چگونه استفاده میشود، این ناآگاهی هزینه دارد
گسترش سریع فناوریهای هوش مصنوعی و سهولت تولید محتوا باعث شده مرز میان واقعیت و بازنمایی مصنوعی بیش از هر زمان دیگری کمرنگ شود. این تحول، اگرچه فرصتهای گستردهای برای خلاقیت، آموزش و دسترسی به اطلاعات ایجاد کرده، اما همزمان خطر سوءاستفاده از دادهها، انتشار اطلاعات نادرست و دستکاری افکار عمومی را افزایش داده است.
مدلهای هوش مصنوعی مولد نهتنها قادرند تصاویر، ویدئوها و صداهایی تولید کنند که شباهت آنها با واقعیت گاه تشخیصناپذیر است، بلکه میتوانند روایتهایی بسازند که از نظر ساختار و انسجام، کاملا مشابه متون انسانی به نظر برسند. این توانایی، اگر بدون نظارت و آگاهی عمومی رها شود، میتواند زمینهساز جعل هویت، انتشار اخبار ساختگی، دستکاری احساسات جمعی و حتی آسیبهای اقتصادی و سیاسی شود.
در چنین شرایطی، ناآگاهی کاربران از نحوه استفاده پلتفرمها از دادههایشان، خطر را دوچندان میکند؛ زیرا دادههایی که بدون اطلاع دقیق در اختیار سرویسها قرار میگیرد، میتواند در آموزش مدلها، هدفگیری تبلیغاتی یا حتی تحلیلهای رفتاری مورد استفاده قرار گیرد. بنابراین، کاربران باید بدانند چگونه نشانههای ظریف خطا را تشخیص دهند، چگونه به منبع محتوا توجه کنند و چگونه از ابزارهای موجود برای ارزیابی اصالت اطلاعات بهره بگیرند.
اهمیت این موضوع تنها به سطح فردی محدود نمیشود، بلکه پیامدهای گستردهای برای جامعه دارد. افزایش توانایی کاربران در تشخیص محتوای جعلی و درک ریسکهای مرتبط با دادههای شخصی، به تقویت سواد رسانهای، کاهش انتشار اطلاعات نادرست و افزایش تابآوری جامعه در برابر عملیات فریب و دستکاری کمک میکند.
فاطمه عربدوست، کارشناس ارشد هوش مصنوعی و پژوهشگر فعال در حوزههای پردازش متن، پردازش تصویر و تحلیل سیگنالهای زیستی، در گفتوگو با خبرنگار آناتک، به بررسی چالشها و ضرورتهای تشخیص محتوای جعلی تولیدشده با مدلهای مولد پرداخته است. وی با تکیه بر تجربه تخصصی خود در کار با دادههای پیچیده و مدلهای یادگیری ماشین، اهمیت آگاهی کاربران از نشانههای بصری، متنی و صوتی را توضیح میدهد و بر نقش حیاتی سواد رسانهای و شناخت ریسکهای حریم خصوصی در مواجهه با فناوریهای نوین تاکید میکند.
کاربران هنگام استفاده از اپلیکیشنهای هوش مصنوعی باید چه سیاستهای حریم خصوصی را بررسی کنند؟
کاربران هنگام استفاده از اپلیکیشنهای هوش مصنوعی باید مجموعهای از سیاستهای مرتبط با حریم خصوصی را با دقت بررسی کنند. نخست لازم است مشخص شود که آیا دادههای ارائهشده برای آموزش مدل، مورد استفاده قرار میگیرد یا خیر. همچنین باید روشن شود که آیا این دادهها در اختیار شرکتهای دیگر قرار میگیرد یا نه؛ زیرا در برخی موارد، دادهها برای اهدافی مانند بازاریابی، بهبود تبلیغات یا هدفمند کردن آنها به شرکتهای ثالث منتقل یا فروخته میشود. اگر استفاده از دادهها صرفا برای امور زیرساختی و فنی باشد، معمولا خطری ایجاد نمیکند، اما بهرهبرداری تبلیغاتی از اطلاعات کاربران میتواند مسئلهساز باشد.
موضوع مهم دیگر مدتزمان ذخیرهسازی دادهها است. نگهداری نامحدود دادهها خطرآفرین است، زیرا در صورت وقوع حمله سایبری، احتمال نشت اطلاعات افزایش مییابد. بررسی محل ذخیرهسازی دادهها نیز اهمیت دارد؛ برای مثال، ذخیرهسازی روی سرورهایی که از استانداردهای سختگیرانهتری مانند مقررات (GDPR) پیروی میکنند، گزینه مناسبتری محسوب میشود، هرچند بررسی این موضوع معمولا خارج از توان کاربر عادی است.
مهمترین نشانههای بصری، متنی یا صوتی که میتواند به کاربران کمک کند محتوای تولیدشده با هوش مصنوعی را تشخیص دهند، چیست؟
تشخیص محتوای تولیدشده با هوش مصنوعی همیشه با بررسی چند نشانه ساده امکانپذیر نیست و با پیشرفت مدلها، تشخیص بدون ابزارهای تخصصی دشوارتر خواهد شد. با این حال، توجه به برخی نشانهها میتواند کمککننده باشد.
در حوزه بصری، ناهماهنگی در جزئیات ظریف مانند انگشتان، بازتاب چشمها، لبخندهای غیرطبیعی یا عدم هماهنگی انعکاس اجسام با سوژه اصلی از جمله مواردی است که میتواند نشانهای از تولید مصنوعی باشد.
در متون، هرچند نوشتههای انسانی نیز ممکن است شامل خطاهای سهوی باشند، اما یک متن کاملا بینقص لزوما انسانی نیست و میتواند نشانهای از تولید ماشینی باشد. پاسخهای کلی و سطحی، نبود روایت شخصی یا ساختار ثابت مقدمه، بدنه، نتیجهگیری (در صورتی که بازنویسی نشده باشد) نیز از نشانههای دیگر متنهای تولیدشده با مدلهای زبانی است. افزون بر این، در استدلالهای پیچیده ممکن است تناقضات جزئی مشاهده شود.
در حوزه صوت، صدای رباتیک، خطاهای جزئی در تلفظ یا نبود تغییرات طبیعی در لحن و سرعت گفتار میتواند نشانهای از تولید مصنوعی باشد؛ زیرا انسان هنگام صحبت تحت تاثیر احساسات، موقعیت یا محتوای گفتار، تغییراتی طبیعی در لحن و سرعت ایجاد میکند، در حالی که مدلها کمتر قادر به بازتولید چنین ویژگیهایی هستند.
در کنار این نشانهها، ابزارهای مبتنی بر هوش مصنوعی نیز برای تشخیص محتوای تولیدشده با هوش مصنوعی توسعه یافتهاند، هرچند افزایش کیفیت مدلهای جدید و ویرایشهای انسانی تشخیص را دشوارتر میکند. با این حال، بررسی منبع انتشار محتوا همچنان یکی از مطمئنترین روشها است.
نگهداری نامحدود دادهها خطرآفرین است، زیرا در صورت وقوع حمله سایبری، احتمال نشت اطلاعات افزایش مییابد. بررسی محل ذخیرهسازی دادهها نیز اهمیت دارد؛ برای مثال، ذخیرهسازی روی سرورهایی که از استانداردهای سختگیرانهتری مانند مقررات (GDPR) پیروی میکنند، گزینه مناسبتری محسوب میشود، هرچند بررسی این موضوع معمولا خارج از توان کاربر عادی است.
چرا برخی محتوای جعلی تولیدشده با هوش مصنوعی هنوز دارای خطاهای ظریف هستند و کاربران باید به چه جزدیاتی توجه کنند؟
مدلهای هوش مصنوعی بر اساس احتمالات و تخمین عمل میکنند، نه بر پایه درک واقعی از معنا یا جهان. این مدلها یاد میگیرند خروجیهایی مشابه دادههای آموزشی خود تولید کنند. برای نمونه، در تولید تصویر، مدل میآموزد پیکسلها را با الگوهای خاصی کنار هم قرار دهد تا شکلی شبیه دست ایجاد شود، اما، چون شناخت واقعی از آناتومی بدن ندارد و صرفا بر اساس احتمالات پیکسلها را میچیند، ممکن است بهجای پنج انگشت، شش انگشت تولید کند یا برای انگشتی ناخن ایجاد نکند.
بهطور کلی، مدلها محدودیتهایی دارند؛ از جمله محدودیت در عمق پردازش، محدودیت در تمرکز همزمان بر چند بخش و وابستگی کامل به دادههای آموزشی. این محدودیتها باعث میشود برخی جزئیات از دست برود. جزئیاتی که باید به آنها توجه کرد همان مواردی است که در پاسخ به پرسش پیشین توضیح داده شد.
در حوزه صدا و ویدئو، چه ویژگیهایی معمولا نشان میدهد که یک پیام یا تصویر «دیپفیک» است؟
توجه دقیق به جزئیات ظریف میتواند کمککننده باشد، هرچند این نشانهها در همه نمونهها ثابت نیست. بررسی لحن و ویژگیهای انسانی که بر صوت تاثیر میگذارد، شیوه تنفس، اشکالات احتمالی در پلک زدن، جزئیات چهره و بدن، نحوه ایجاد سایهها و نورپردازی یا نویزهای غیرطبیعی در پسزمینه اجسام متحرک از جمله مواردی است که میتواند به تشخیص کمک کند.
آیا ابزارها یا روشهای سادهای وجود دارد که کاربران عادی بتوانند برای بررسی اصالت محتوا از آنها استفاده کنند؟
روشهای ساده شامل دقت در محتوای ارائهشده و منبع انتشار آن است. ابزارهایی نیز برای تشخیص توسعه یافتهاند که برخی از آنها حرفهای و نیازمند تخصص هستند، اما برخی دیگر برای کاربران عادی قابل استفادهاند. این ابزارها با استفاده از هوش مصنوعی الگوهای غیرطبیعی را شناسایی میکنند. از جمله این ابزارها میتوان به (Deepware.ai)، (AI or Not)، (ChatGPT)، (ZeroGPT) و موارد مشابه اشاره کرد.
با توجه به پیشرفت سریع مدلهای مولد، کاربران چگونه میتوانند مهارتهای خود را برای تشخیص محتوای جعلی بهروز نگه دارند و از فریب خوردن جلوگیری کنند؟
از آنجا که هوش مصنوعی هر روز در تقلید دقیقتر میشود، اتکا به چند نشانه یا ابزار کافی نیست. داشتن ذهنیت انتقادی و نگاه شکاک اهمیت زیادی دارد. بررسی منبع انتشار محتوا، ارزیابی هدف پیام و توجه به احساسی که محتوا ایجاد میکند از جمله اقداماتی است که میتواند به تشخیص کمک کند. اگر محتوایی احساسات را بهطور غیرعادی تحریک کند، باید نسبت به آن مشکوک بود. همچنین اگر پیام متنی، صوتی یا تصویری از فردی دریافت شد که درخواست حساسی داشت، بهتر است با تماس مستقیم از صحت آن اطمینان حاصل شود. دقت در جزئیات، جستوجوی محتوا در منابع دیگر و استفاده از ابزارهای بررسی همچنان روشهایی موثر برای جلوگیری از فریب خوردن هستند.
انتهای پیام/