آخرین اخبار:
یک پژوهشگر هوش مصنوعی در گفت‌و‌گو با آناتک:

کاربران نمی‌دانند داده‌هایشان چگونه استفاده می‌شود، این ناآگاهی هزینه دارد

کاربران اغلب نمی‌دانند داده‌های شخصی‌شان چگونه جمع‌آوری، پردازش و استفاده می‌شود؛ ناآگاهی‌ که می‌تواند هزینه‌های جدی برای حریم خصوصی، امنیت فردی و حتی سلامت فضای اطلاعاتی به همراه داشته باشد. مدل‌های مولد امروز قادرند تصاویر، صدا‌ها و روایت‌هایی تولید کنند که به‌سختی از واقعیت قابل تفکیک‌اند و همین موضوع اهمیت شناخت ریسک‌ها و سازوکار‌های پشت‌صحنه این فناوری‌ها را دوچندان می‌کند. وقتی کاربران نمی‌دانند داده‌هایشان در کجا ذخیره می‌شود، چه مدت نگه داشته می‌شود و برای چه اهدافی مورد استفاده قرار می‌گیرد، عملا در برابر سوءاستفاده‌های احتمالی، نشت اطلاعات و دست‌کاری‌های مبتنی بر داده بی‌دفاع می‌مانند.
نویسنده : فهیمه سنجری

گسترش سریع فناوری‌های هوش مصنوعی و سهولت تولید محتوا باعث شده مرز میان واقعیت و بازنمایی مصنوعی بیش از هر زمان دیگری کمرنگ شود. این تحول، اگرچه فرصت‌های گسترده‌ای برای خلاقیت، آموزش و دسترسی به اطلاعات ایجاد کرده، اما هم‌زمان خطر سوءاستفاده از داده‌ها، انتشار اطلاعات نادرست و دست‌کاری افکار عمومی را افزایش داده است. 

مدل‌های هوش مصنوعی مولد نه‌تنها قادرند تصاویر، ویدئو‌ها و صدا‌هایی تولید کنند که شباهت آنها با واقعیت گاه تشخیص‌ناپذیر است، بلکه می‌توانند روایت‌هایی بسازند که از نظر ساختار و انسجام، کاملا مشابه متون انسانی به نظر برسند. این توانایی، اگر بدون نظارت و آگاهی عمومی رها شود، می‌تواند زمینه‌ساز جعل هویت، انتشار اخبار ساختگی، دست‌کاری احساسات جمعی و حتی آسیب‌های اقتصادی و سیاسی شود.

در چنین شرایطی، ناآگاهی کاربران از نحوه استفاده پلتفرم‌ها از داده‌هایشان، خطر را دوچندان می‌کند؛ زیرا داده‌هایی که بدون اطلاع دقیق در اختیار سرویس‌ها قرار می‌گیرد، می‌تواند در آموزش مدل‌ها، هدف‌گیری تبلیغاتی یا حتی تحلیل‌های رفتاری مورد استفاده قرار گیرد. بنابراین، کاربران باید بدانند چگونه نشانه‌های ظریف خطا را تشخیص دهند، چگونه به منبع محتوا توجه کنند و چگونه از ابزار‌های موجود برای ارزیابی اصالت اطلاعات بهره بگیرند.

اهمیت این موضوع تنها به سطح فردی محدود نمی‌شود، بلکه پیامد‌های گسترده‌ای برای جامعه دارد. افزایش توانایی کاربران در تشخیص محتوای جعلی و درک ریسک‌های مرتبط با داده‌های شخصی، به تقویت سواد رسانه‌ای، کاهش انتشار اطلاعات نادرست و افزایش تاب‌آوری جامعه در برابر عملیات فریب و دست‌کاری کمک می‌کند. 

فاطمه عرب‌دوست، کارشناس ارشد هوش مصنوعی و پژوهشگر فعال در حوزه‌های پردازش متن، پردازش تصویر و تحلیل سیگنال‌های زیستی، در گفت‌و‌گو با خبرنگار آناتک، به بررسی چالش‌ها و ضرورت‌های تشخیص محتوای جعلی تولیدشده با مدل‌های مولد پرداخته است. وی با تکیه بر تجربه تخصصی خود در کار با داده‌های پیچیده و مدل‌های یادگیری ماشین، اهمیت آگاهی کاربران از نشانه‌های بصری، متنی و صوتی را توضیح می‌دهد و بر نقش حیاتی سواد رسانه‌ای و شناخت ریسک‌های حریم خصوصی در مواجهه با فناوری‌های نوین تاکید می‌کند.

کاربران هنگام استفاده از اپلیکیشن‌های هوش مصنوعی باید چه سیاست‌های حریم خصوصی را بررسی کنند؟ 
 
کاربران هنگام استفاده از اپلیکیشن‌های هوش مصنوعی باید مجموعه‌ای از سیاست‌های مرتبط با حریم خصوصی را با دقت بررسی کنند. نخست لازم است مشخص شود که آیا داده‌های ارائه‌شده برای آموزش مدل، مورد استفاده قرار می‌گیرد یا خیر. همچنین باید روشن شود که آیا این داده‌ها در اختیار شرکت‌های دیگر قرار می‌گیرد یا نه؛ زیرا در برخی موارد، داده‌ها برای اهدافی مانند بازاریابی، بهبود تبلیغات یا هدفمند کردن آنها به شرکت‌های ثالث منتقل یا فروخته می‌شود. اگر استفاده از داده‌ها صرفا برای امور زیرساختی و فنی باشد، معمولا خطری ایجاد نمی‌کند، اما بهره‌برداری تبلیغاتی از اطلاعات کاربران می‌تواند مسئله‌ساز باشد.

موضوع مهم دیگر مدت‌زمان ذخیره‌سازی داده‌ها است. نگهداری نامحدود داده‌ها خطرآفرین است، زیرا در صورت وقوع حمله سایبری، احتمال نشت اطلاعات افزایش می‌یابد. بررسی محل ذخیره‌سازی داده‌ها نیز اهمیت دارد؛ برای مثال، ذخیره‌سازی روی سرور‌هایی که از استاندارد‌های سخت‌گیرانه‌تری مانند مقررات (GDPR) پیروی می‌کنند، گزینه مناسب‌تری محسوب می‌شود، هرچند بررسی این موضوع معمولا خارج از توان کاربر عادی است.

مهم‌ترین نشانه‌های بصری، متنی یا صوتی که می‌تواند به کاربران کمک کند محتوای تولیدشده با هوش مصنوعی را تشخیص دهند، چیست؟ 

تشخیص محتوای تولیدشده با هوش مصنوعی همیشه با بررسی چند نشانه ساده امکان‌پذیر نیست و با پیشرفت مدل‌ها، تشخیص بدون ابزار‌های تخصصی دشوارتر خواهد شد. با این حال، توجه به برخی نشانه‌ها می‌تواند کمک‌کننده باشد.

در حوزه بصری، ناهماهنگی در جزئیات ظریف مانند انگشتان، بازتاب چشم‌ها، لبخند‌های غیرطبیعی یا عدم هماهنگی انعکاس اجسام با سوژه اصلی از جمله مواردی است که می‌تواند نشانه‌ای از تولید مصنوعی باشد.

در متون، هرچند نوشته‌های انسانی نیز ممکن است شامل خطا‌های سهوی باشند، اما یک متن کاملا بی‌نقص لزوما انسانی نیست و می‌تواند نشانه‌ای از تولید ماشینی باشد. پاسخ‌های کلی و سطحی، نبود روایت شخصی یا ساختار ثابت مقدمه، بدنه، نتیجه‌گیری (در صورتی که بازنویسی نشده باشد) نیز از نشانه‌های دیگر متن‌های تولیدشده با مدل‌های زبانی است. افزون بر این، در استدلال‌های پیچیده ممکن است تناقضات جزئی مشاهده شود.

در حوزه صوت، صدای رباتیک، خطا‌های جزئی در تلفظ یا نبود تغییرات طبیعی در لحن و سرعت گفتار می‌تواند نشانه‌ای از تولید مصنوعی باشد؛ زیرا انسان هنگام صحبت تحت تاثیر احساسات، موقعیت یا محتوای گفتار، تغییراتی طبیعی در لحن و سرعت ایجاد می‌کند، در حالی که مدل‌ها کمتر قادر به بازتولید چنین ویژگی‌هایی هستند.

در کنار این نشانه‌ها، ابزار‌های مبتنی بر هوش مصنوعی نیز برای تشخیص محتوای تولیدشده با هوش مصنوعی توسعه یافته‌اند، هرچند افزایش کیفیت مدل‌های جدید و ویرایش‌های انسانی تشخیص را دشوارتر می‌کند. با این حال، بررسی منبع انتشار محتوا همچنان یکی از مطمئن‌ترین روش‌ها است.

نگهداری نامحدود داده‌ها خطرآفرین است، زیرا در صورت وقوع حمله سایبری، احتمال نشت اطلاعات افزایش می‌یابد. بررسی محل ذخیره‌سازی داده‌ها نیز اهمیت دارد؛ برای مثال، ذخیره‌سازی روی سرور‌هایی که از استاندارد‌های سخت‌گیرانه‌تری مانند مقررات (GDPR) پیروی می‌کنند، گزینه مناسب‌تری محسوب می‌شود، هرچند بررسی این موضوع معمولا خارج از توان کاربر عادی است.

چرا برخی محتوای جعلی تولیدشده با هوش مصنوعی هنوز دارای خطا‌های ظریف هستند و کاربران باید به چه جزدیاتی توجه کنند؟ 

مدل‌های هوش مصنوعی بر اساس احتمالات و تخمین عمل می‌کنند، نه بر پایه درک واقعی از معنا یا جهان. این مدل‌ها یاد می‌گیرند خروجی‌هایی مشابه داده‌های آموزشی خود تولید کنند. برای نمونه، در تولید تصویر، مدل می‌آموزد پیکسل‌ها را با الگو‌های خاصی کنار هم قرار دهد تا شکلی شبیه دست ایجاد شود، اما، چون شناخت واقعی از آناتومی بدن ندارد و صرفا بر اساس احتمالات پیکسل‌ها را می‌چیند، ممکن است به‌جای پنج انگشت، شش انگشت تولید کند یا برای انگشتی ناخن ایجاد نکند.

به‌طور کلی، مدل‌ها محدودیت‌هایی دارند؛ از جمله محدودیت در عمق پردازش، محدودیت در تمرکز هم‌زمان بر چند بخش و وابستگی کامل به داده‌های آموزشی. این محدودیت‌ها باعث می‌شود برخی جزئیات از دست برود. جزئیاتی که باید به آنها توجه کرد همان مواردی است که در پاسخ به پرسش پیشین توضیح داده شد.

در حوزه صدا و ویدئو، چه ویژگی‌هایی معمولا نشان می‌دهد که یک پیام یا تصویر «دیپ‌فیک» است؟ 

توجه دقیق به جزئیات ظریف می‌تواند کمک‌کننده باشد، هرچند این نشانه‌ها در همه نمونه‌ها ثابت نیست. بررسی لحن و ویژگی‌های انسانی که بر صوت تاثیر می‌گذارد، شیوه تنفس، اشکالات احتمالی در پلک زدن، جزئیات چهره و بدن، نحوه ایجاد سایه‌ها و نورپردازی یا نویز‌های غیرطبیعی در پس‌زمینه اجسام متحرک از جمله مواردی است که می‌تواند به تشخیص کمک کند.

آیا ابزار‌ها یا روش‌های ساده‌ای وجود دارد که کاربران عادی بتوانند برای بررسی اصالت محتوا از آنها استفاده کنند؟ 

روش‌های ساده شامل دقت در محتوای ارائه‌شده و منبع انتشار آن است. ابزار‌هایی نیز برای تشخیص توسعه یافته‌اند که برخی از آنها حرفه‌ای و نیازمند تخصص هستند، اما برخی دیگر برای کاربران عادی قابل استفاده‌اند. این ابزار‌ها با استفاده از هوش مصنوعی الگو‌های غیرطبیعی را شناسایی می‌کنند. از جمله این ابزار‌ها می‌توان به (Deepware.ai)، (AI or Not)، (ChatGPT)، (ZeroGPT) و موارد مشابه اشاره کرد.

با توجه به پیشرفت سریع مدل‌های مولد، کاربران چگونه می‌توانند مهارت‌های خود را برای تشخیص محتوای جعلی به‌روز نگه دارند و از فریب خوردن جلوگیری کنند؟ 

از آنجا که هوش مصنوعی هر روز در تقلید دقیق‌تر می‌شود، اتکا به چند نشانه یا ابزار کافی نیست. داشتن ذهنیت انتقادی و نگاه شکاک اهمیت زیادی دارد. بررسی منبع انتشار محتوا، ارزیابی هدف پیام و توجه به احساسی که محتوا ایجاد می‌کند از جمله اقداماتی است که می‌تواند به تشخیص کمک کند. اگر محتوایی احساسات را به‌طور غیرعادی تحریک کند، باید نسبت به آن مشکوک بود. همچنین اگر پیام متنی، صوتی یا تصویری از فردی دریافت شد که درخواست حساسی داشت، بهتر است با تماس مستقیم از صحت آن اطمینان حاصل شود. دقت در جزئیات، جست‌وجوی محتوا در منابع دیگر و استفاده از ابزار‌های بررسی همچنان روش‌هایی موثر برای جلوگیری از فریب خوردن هستند.

انتهای پیام/

ارسال نظر