آخرین اخبار:
یک پژوهشگر هوش مصنوعی در گفت‌و‌گو با آناتک:

هوش مصنوعی دوست شما نیست، یک ابزار است

هوش مصنوعی امروز به دروازه‌ای تبدیل شده که کاربران از طریق آن بخش بزرگی از زندگی شخصی، حرفه‌ای و حتی احساسی خود را عبور می‌دهند. همین وابستگی گسترده باعث شده مرز میان داده‌هایی که آگاهانه ارائه می‌کنیم و اطلاعاتی که ناخواسته از ما استخراج می‌شود، هر روز باریک‌تر شود. هشدار کلیدی «در قبال اطلاعاتی که به مدل می‌دهید حساس باشید؛ مدل هوش مصنوعی دوست شما نیست، یک ابزار است»، یادآور واقعیتی است که بسیاری از کاربران از آن غافل‌اند؛ هر تعامل با چت‌بات‌ها می‌تواند ردپایی از هویت، رفتار و عادات دیجیتال ما برجای بگذارد. در شرایطی که تولید محتوای جعلی، جعل هویت و سوءاستفاده از داده‌ها با کمک هوش مصنوعی آسان‌تر شده، آگاهی از این مخاطرات و تغییر عادت‌های ساده می‌تواند نخستین سپر دفاعی کاربران در برابر تهدید‌هایی باشد که هر روز پیچیده‌تر و پنهان‌تر می‌شوند.
نویسنده : فهیمه سنجری

هرچه این ابزار‌ها بیشتر در زندگی ما ادغام می‌شوند، مرز میان «اطلاعاتی که آگاهانه به اشتراک می‌گذاریم» و «داده‌هایی که ناخواسته منتقل می‌کنیم» کمرنگ‌تر می‌شود. همین مرز مبهم است که مسئله حفاظت از داده‌ها را به یک ضرورت جدی تبدیل می‌کند.

در کنار این وابستگی روزافزون، باید توجه داشت که هر تعامل دیجیتال لایه‌های پنهانی از اطلاعات را نیز منتقل می‌کند؛ از متادیتای فایل‌ها و الگو‌های رفتاری گرفته تا نشانه‌های هویتی که از سبک نوشتار یا زمان و مکان اتصال قابل استنتاج است. کاربران معمولاً تصور می‌کنند تنها محتوای متنی یا تصویری که ارسال می‌کنند اهمیت دارد، در حالی که بخش بزرگی از ریسک‌ها دقیقاً در همین داده‌های جانبی و ناخواسته نهفته است. این شکاف دانشی میان آنچه کاربر فکر می‌کند افشا می‌شود و آنچه واقعا منتقل می‌شود، زمینه‌ساز سوءاستفاده‌های گسترده است.

در نهایت، اهمیت این بحث به پیامد‌های اجتماعی و امنیتی آن بازمی‌گردد. وقتی مدل‌های هوش مصنوعی می‌توانند داده‌ها را تحلیل، بازتولید یا در برخی شرایط افشا کنند، حفاظت از حریم خصوصی دیگر یک انتخاب فردی نیست؛ بلکه بخشی از امنیت جمعی و اعتماد عمومی به فناوری است. آگاهی از این مخاطرات و درک سازوکار‌های پشت آن، به کاربران کمک می‌کند با احتیاط و مسئولیت بیشتری از این ابزار‌ها استفاده کنند و در برابر تهدید‌هایی که روزبه‌روز پیچیده‌تر می‌شوند، آسیب‌پذیر نباشند.

فاطمه عرب‌دوست، پژوهشگر هوش مصنوعی و فعال در حوزه‌های پردازش متن، تصویر و سیگنال‌های زیستی، در گفت‌و‌گو با خبرنگار آناتک، به بررسی ابعاد کمتر دیده‌شده تعامل کاربران با چت‌بات‌ها و مدل‌های هوش مصنوعی پرداخته است؛ از داده‌هایی که افراد ناخواسته هنگام استفاده از این ابزار‌ها افشا می‌کنند تا خطرات بازتولید اطلاعات شخصی، نقش هوش مصنوعی در جعل محتوا و عادت‌های ساده‌ای که می‌تواند امنیت کاربران را افزایش دهد.

کاربران عادی هنگام استفاده از چت‌بات‌ها یا اپلیکیشن‌های هوش مصنوعی چه داده‌هایی را ناخواسته افشا می‌کنند؟

کاربران باید در قبال اطلاعاتی که به مدل می‌دهند حساس باشند. مدارک و اسناد مهم که حاوی اطلاعات هویتی، مالی یا اطلاعات سازمانی، کد‌های حاوی پسورد و دیگر دیتا‌های مهم هستند را مستقیما و به‌صورت خام آپلود نکنند. اگر نیاز است محتوایی شامل چنین اطلاعاتی به مدل داده شود، قسمت‌های حساس مثل نام، آدرس، امضا و... تغییر داده یا حذف شود. چت‌های قدیمی را در صورت عدم نیاز پاک کنند. همچنین فعال کردن گزینه‌هایی مانند (Training Off) یا (Chat History Off) یا گزینه‌های مشابه می‌تواند کمک‌کننده باشد

با توجه به این که از مدل‌ها و چت‌بات‌های هوش مصنوعی برای کار‌های مختلف از شخصی تا فنی و تخصصی و حتی هم‌صحبتی و دردودل استفاده می‌شود، می‌تواند اطلاعاتی مانند آدرس (IP)، موقعیت مکانی و زمانی و در صورت آپلود اسناد و مدارک حاوی اطلاعات هویتی و شخصی، مالی و داده‌های سازمانی را به مدل بدهد. متادیتای اسناد آپلودشده مثل عکس‌ها و همچنین اطلاعات رفتاری مثل الگوی صحبت و دغدغه فرد نیز قابل استخراج است.

آیا مدل‌های هوش مصنوعی می‌توانند اطلاعات شخصی کاربران را بازتولید یا افشا کنند؟

این مسئله غیرممکن نیست و در شرایط خاص می‌تواند اتفاق بیفتد؛ البته بستگی به فاکتور‌های زیادی دارد. باید به این موضوع توجه داشت که مدل‌های هوش مصنوعی حافظه صریح ندارند و پاسخ‌ها مبتنی بر داده‌هایی که مدل با آنها آموزش دیده تولید می‌شود. حال اگر اطلاعات شخصی فرد در داده‌های آموزشی مدل باشد (مثلا به‌طور گسترده در اینترنت باشد و مدل از داده‌های اینترنت برای آموزش استفاده کرده باشد) می‌تواند در پاسخ آنها را تولید کند. همچنین اگر مدل روی داده‌های شخصی آن فرد (fine tune) شود نیز این امکان وجود دارد.

بدیهی است که اگر اطلاعات شخصی توسط خود فرد به‌عنوان ورودی داده شود و به نحوی درخواست بازتولید مثل خلاصه کردن و... داده شود، مدل می‌تواند این کار را انجام دهد. باید توجه داشت با این‌که خود مدل‌ها به خودی خود دسترسی به حافظه ندارند، ولی پلتفرم آن مدل می‌تواند این اطلاعات را ذخیره و در اختیار مدل قرار دهد که در این صورت نیز امکان بازتولید به مدل داده می‌شود. جدا از این موارد، در برخی مدل‌ها می‌توان با یک‌سری از حملات بخشی از اطلاعات حساس آموزشی را بازتولید کرد.

نقش هوش مصنوعی در تولید محتوای جعلی و جعل هویت چیست و چرا کاربران عادی بیشتر در معرض آن هستند؟

هوش مصنوعی ساخت محتوای جعلی را ساده‌تر می‌کند، هزینه آن را کاهش می‌دهد، زمان مورد نیاز برای تولید را کم می‌کند و محتوای تولیدی می‌تواند واقعی‌تر و باورپذیرتر شود. افراد عادی معمولا دانش امنیتی کمتر، عادات دیجیتال ناامن و ابزار محافظتی کمتری دارند. به‌عنوان مثال تشخیص محتوای ساخته‌شده با هوش مصنوعی برای این افراد ساده نیست، اغلب معتبر بودن منبع را چک نمی‌کنند و تفاوت منبع معتبر و نامعتبر را هم نمی‌دانند، تحت تاثیر احساسات حساسیتشان به محتوا کم می‌شود.

به‌خاطر همین دلایل افراد عادی هدف آسانی برای محتوا‌های جعلی هستند و مسلما بیشتر مورد هدف قرار می‌گیرند. از طرفی فضای مجازی و شبکه‌های اجتماعی مستعد انتشار محتوا‌های جعلی هستند و حضور بیشتر افراد عادی در این فضا آنها را بیشتر در معرض این محتوا‌ها قرار می‌دهد.

چه عادت‌های ساده‌ای می‌تواند کاربران را در برابر سوءاستفاده از هوش مصنوعی محافظت کند؟

کاربران باید در قبال اطلاعاتی که به مدل می‌دهند حساس باشند. مدارک و اسناد مهم که حاوی اطلاعات هویتی، مالی یا اطلاعات سازمانی، کد‌های حاوی پسورد و دیگر دیتا‌های مهم هستند را مستقیما و به‌صورت خام آپلود نکنند. اگر نیاز است محتوایی شامل چنین اطلاعاتی به مدل داده شود، قسمت‌های حساس مثل نام، آدرس، امضا و... تغییر داده یا حذف شود.

چت‌های قدیمی را در صورت عدم نیاز پاک کنند. همچنین فعال کردن گزینه‌هایی مانند (Training Off) یا (Chat History Off) یا گزینه‌های مشابه می‌تواند کمک‌کننده باشد. در ذهن داشته باشند مدل‌های هوش مصنوعی یک ابزار هستند، دوست نیستند! اگر با عمومی شدن اطلاعاتی مشکل دارند، آن را در اختیار مدل نیز قرار ندهند.

آیا استفاده از ابزار‌های امنیتی سنتی مثل رمز قوی و احراز هویت چندمرحله‌ای همچنان موثر است؟

بله، به‌صورت کلی برای بالا بردن امنیت، یک روش یا کار واحد موثر نیست و حملات را بی‌اثر نمی‌کند؛ بلکه ترکیب کار‌های مختلف و ایجاد لایه‌های متعدد منجر به بالا رفتن هزینه حمله و در نتیجه پایین آمدن احتمال موفقیت آن می‌شود. رمز قوی و احراز هویت چندمرحله‌ای نیز یکی از این لایه‌ها است.

انتهای پیام/

ارسال نظر