مدیرعامل چت GPT احتمال دسترسی دستگاههای نظارتی به دادههای این مدل زبانی را تأیید کرد

به گزارش خبرگزاری آنا؛ با افزایش استفاده کاربران از ابزارهای هوش مصنوعی برای بیان مسائل شخصی و تصمیمگیریهای مهم، نبود قوانین مشخص درباره محرمانگی این مکالمات، نگرانیهای جدیدی را در حوزه حقوقی و اخلاقی ایجاد کرده است. مدیرعامل اوپنایآی هشدار داده که گفتوگوهای کاربران با چتجیپیتی میتوانند به عنوان مدرک در دادگاهها مورد استفاده قرار گیرند.
در حالی که بسیاری از کاربران، بهویژه جوانان، ابزارهایی مانند چتجیپیتی را جایگزینی برای مشاوران، رواندرمانگران یا حتی همراهی برای تصمیمگیریهای شخصی خود میدانند، سم آلتمن، مدیرعامل اوپنایآی هشدار داده که این مکالمات تحت هیچ چارچوب محرمانگی حقوقی قرار ندارند و ممکن است در پروندههای حقوقی یا کیفری مورد استناد قرار گیرند.
به گزارش اینسایدر، او در گفتوگویی در پادکست «This Past Weekend» به میزبانی تئو وان گفت: «کاربران درباره شخصیترین مسائل زندگیشان با چتجیپیتی صحبت میکنند. این ابزار نقش نوعی مشاور زندگی یا رواندرمانگر را برای برخی ایفا میکند، اما برخلاف گفتوگو با پزشک یا وکیل، هیچ محرمانگی قانونی برای این مکالمات تعریف نشده است.»
فقدان جایگاه قانونی برای گفتوگو با هوش مصنوعی
به گزارش NBI، مکالمات کاربران با متخصصانی مانند پزشک یا وکیل، تحت پوشش قوانینی همچون «اصل رازداری حرفهای» یا «حق محرمانگی اطلاعات» قرار دارند؛ اما در مورد چتباتها، هنوز چارچوب قانونی شفافی در سطح ایالات متحده یا سایر کشورها تدوین نشده است. این بدان معناست که دادههای ثبتشده در این مکالمات میتوانند در پی درخواست قانونی یا در جریان دعاوی حقوقی، به مراجع ذیصلاح تحویل داده شوند.
برخی تحلیلگران حقوقی، این وضعیت را «خلأ قانونی» میدانند که در صورت عدم توجه، میتواند اعتماد عمومی به فناوریهای مبتنی بر هوش مصنوعی را کاهش دهد. بهویژه با توجه به اینکه شرکتهایی مانند اوپنایآی، دادههای کاربران را برای بهبود کیفیت مدلهای زبانی خود مورد استفاده قرار میدهند، اهمیت تعیین دقیق حریم خصوصی و مسئولیت حقوقی بیش از پیش احساس میشود.
نگرانیهای مشابه در سایر کشورها
در سطح جهانی نیز بحث بر سر دادههای شخصی در مکالمات با چتباتها ادامه دارد. اتحادیه اروپا در مقررات تازه تدوینشده تحت عنوان AI Act (قانون هوش مصنوعی)، تلاش کرده چارچوبی برای استفاده مسئولانه از ابزارهای مبتنی بر هوش مصنوعی تدوین کند. در این قانون، بر لزوم شفافسازی درباره جمعآوری دادهها، پردازش و ذخیرهسازی آنها، تأکید شده، اما هنوز محرمانگی کامل برای محتوای مکالمات تضمین نشده است.
در همین حال، بنا برگزارش رویترز، سازمانهایی مانند بنیاد مرزهای الکترونیکی (EFF) و حریم خصوصی بینالمللی نیز با انتشار بیانیههایی خواستار تصویب قوانینی مشابه «حریم مکاتبات شخصی» برای چتباتها شدهاند.
خطرات حقوقی و اجتماعی در نبود مقررات مشخص
کارشناسان حریم خصوصی معتقدند اگر سیاستگذاران بهسرعت چارچوبی روشن برای حفاظت از دادههای کاربران در ابزارهای گفتوگوی مبتنی بر هوش مصنوعی تعیین نکنند، ممکن است این ابزارها به عاملی برای افشای ناخواسته اطلاعات حساس تبدیل شوند. برای مثال، شخصی که درباره مشکلات خانوادگی، سلامت روانی یا مسائل حقوقی خود با یک چتبات صحبت میکند، ممکن است ناخواسته مدارکی تولید کند که در آینده علیه او استفاده شوند.
از سوی دیگر، این مسئله میتواند زمینهساز سواستفاده احتمالی شرکتهای ثالث یا نهادهای امنیتی از اطلاعات تولیدشده توسط کاربران باشد؛ موضوعی که در پروندههای افشای اطلاعات شرکتهایی نظیر فیسبوک و گوگل در گذشته نیز سابقه داشته است.
پیشنهاد آلتمن برای اصلاحات حقوقی
سم آلتمن در پایان گفتوگوی خود با تأکید بر فوریت موضوع، اظهار کرد: «ما باید مفهومی مشابه محرمانگی درمانی یا حقوقی را برای گفتوگو با هوش مصنوعی نیز در نظر بگیریم. تا یک سال پیش، کسی حتی تصور نمیکرد چنین موضوعی به دغدغه عمومی تبدیل شود، اما امروز این موضوع به یکی از اولویتهای قانونی و اخلاقی بدل شده است.»
این اظهارات در شرایطی بیان میشود که بسیاری از شرکتهای فناوری هنوز سیاست شفاف و یکپارچهای برای حفظ حریم خصوصی کاربران ارائه نکردهاند. به نظر میرسد رسیدگی به این خلأ قانونی، بهزودی در دستور کار قانونگذاران حوزه فناوری در سطح بینالمللی قرار خواهد گرفت.
انتهای پیام/