استفاده از هوش مصنوعی پای زن کرهای را به پرونده قتل باز کرد
به گزرش «Futurism» این زن که با نام خانوادگی «کیم» معرفی شده، متهم است دو مرد را با نوشیدنیهای حاوی بنزودیازپین مسموم کرده است. این دارو برای درمان بیماری روانی او تجویز شده بود. کیم اعتراف کرده که داروی خود را در نوشیدنی قربانیان ریخته است، اما قصد کشتن آنها را انکار میکند.
کارآگاهان پلیس اعلام کردهاند پیش از مرگ این دو مرد، کیم از چتجیپیتی درباره خطرات مصرف این داروها پرسوجو کرده بود. او ظاهراً از ربات هوشمصنوعی پرسیده بود: «اگر قرص خواب را با الکل مصرف کنید چه اتفاقی میافتد؟»، «چه مقدار از آن خطرناک محسوب میشود؟» و «آیا این ترکیب میتواند کشنده باشد؟»
این پرونده نمونهای تازه از نگرانیها درباره استفاده از چتباتهای هوشمصنوعی در برنامهریزی رفتارهای خشونتآمیز است. برخی کارشناسان معتقدند سازوکارهای ایمنی این فناوری همیشه قابل اتکا نیست و در مکالمات طولانی، ممکن است دور زده شود. در چنین شرایطی، چتباتها ممکن است اطلاعات حساسی درباره فعالیتهای خطرناک ارائه دهند
کیم ابتدا در ۱۱ فوریه به اتهام خفیفتر «ایجاد صدمه بدنی منجر به مرگ» بازداشت شد. اما اکنون پس از آنکه کارآگاهان بر اساس فعالیتهای آنلاین او به قصد قبلی برای قتل پی بردند، با دو فقره اتهام قتل روبهرو شده است.
به نقل از Korea Herald، یکی از کارآگاهان گفته است: «کیم بارها از چتجیپیتی سؤالاتی مرتبط با داروها پرسیده بود. او کاملاً آگاه بود که مصرف همزمان الکل و دارو میتواند منجر به مرگ شود.»
پلیس اعلام کرد نخستین حمله در ۲۸ ژانویه رخ داده است. ساعت ۹:۲۴ شب، کیم به همراه مردی حدوداً بیستساله وارد یک متل در منطقه سوییودونگ در گانگبوکگو شد و دو ساعت بعد به تنهایی آنجا را ترک کرد. روز بعد، جسد آن مرد حوالی ساعت ۶ عصر روی تخت پیدا شد. حمله بعدی او در ۹ فوریه تقریباً به همان شکل تکرار شد، زمانی که با یک مرد بیستساله وارد متلی دیگر شد.
پیش از این قتلها، کیم در ماه دسامبر نیز ظاهراً تلاش کرده بود مردی را که از قبل میشناخت در پارکینگ یک کافه در «نامیانگجو» در استان «گیونگگی»، با نوشیدنی حاوی آرامبخشها مسموم کند. آن مرد بیهوش شد، اما زنده ماند و وضعیتش خطرناک نبود.
این پرونده نمونهای تازه از نگرانیها درباره استفاده از چتباتهای هوشمصنوعی در برنامهریزی رفتارهای خشونتآمیز است. برخی کارشناسان معتقدند سازوکارهای ایمنی این فناوری همیشه قابل اتکا نیست و در مکالمات طولانی، ممکن است دور زده شود. در چنین شرایطی، چتباتها ممکن است اطلاعات حساسی درباره فعالیتهای خطرناک ارائه دهند.
پاسخهای چاپلوسانه هوشمصنوعی نیز بهعنوان عاملی در تشدید توهمات روانی مطرح شدهاست؛ پدیدهای که برخی کارشناسان آن را «روانپریشی ناشی از هوشمصنوعی» مینامند. شخصیت انسانگونه و تعاملات تأییدکننده این سیستمها میتواند توهمات و وضعیت روانی متزلزل کاربران را تقویت کند. برخی از این موارد به خودکشی و قتل منجر شده است. یک پسر ۱۶ ساله پس از ماهها گفتوگو با چتجیپیتی درباره خودکشی، جان خود را گرفت. مرد دیگری نیز متهم است که پس از تعامل با چتجیپیتی و باور به اینکه مادرش قصد کشتن او را دارد، وی را به قتل رسانده است.
همزمان، مسئولیت شرکتهای فناوری در نظارت بر تعاملات خطرناک کاربران بیش از پیش زیر ذرهبین قرار گرفته است. هفته گذشته «The Wall Street Journal» گزارش داد سیستم بازبینی خودکار شرکت OpenAI مکالمات نگرانکننده یک جوان ۱۸ ساله در بریتیش کلمبیا را پیش از وقوع یک تیراندازی جمعی علامتگذاری کرده بود. کارکنان OpenAI از مدیران خواسته بودند موضوع را به مقامات اطلاع دهند، اما این کار انجام نشد. در آن تیراندازی هولناک، هشت نفر از جمله عامل اصلی حادثه، «جسی ون روتسلار»، جان باختند.
انتهای پیام/
- تور استانبول
- غذای سازمانی
- خرید کارت پستال
- لوازم یدکی تویوتا قطعات تویوتا
- مشاوره حقوقی
- تبلیغات در گوگل
- بهترین کارگزاری بورس
- ثبت نام آمارکتس
- سایت رسمی خرید فالوور اینستاگرام همراه با تحویل سریع
- یخچال فریزر اسنوا
- گاوصندوق خانگی
- تاریخچه پلاک بیمه دات کام
- ملودی 98
- خرید سرور اختصاصی ایران
- بلیط قطار مشهد
- رزرو بلیط هواپیما
- ال بانک
- آهنگ جدید
- بهترین جراح بینی ترمیمی در تهران
- اهنگ جدید
- خرید قهوه
- اخبار بورس