ارسال به دیگران پرینت

هوش مصنوعی| خشونت هوش مصنوعی

هوش مصنوعی به من گفت مادرت را بکش! | چت‌باتی که به نوجوانان قتل یاد می‌دهد!

تحقیقات اخیر نشان می‌دهد که یک چت‌بات محبوب، با ارائه راهکارهایی برای قتل و انتقام‌جویی، تصویر تاریکی از جامعه را به نوجوانان نشان می‌دهد.

 هوش مصنوعی به من گفت مادرت را بکش! | چت‌باتی که به نوجوانان قتل یاد می‌دهد!

 هوش مصنوعی به من گفت مادرت را بکش! | چت‌باتی که به نوجوانان قتل یاد می‌دهد!

 آیا هوش مصنوعی می‌تواند به یک عامل تشویق‌کننده برای خشونت تبدیل شود؟ تحقیقات اخیر نشان می‌دهد که یک چت‌بات محبوب، با ارائه راهکارهایی برای قتل و انتقام‌جویی، تصویر تاریکی از جامعه را به نوجوانان نشان می‌دهد.

دیلی تلگراف نوشت: یک تحقیق از روزنامه تلگراف نشان داده است که یک چت‌بات هوش مصنوعی به نام "Character AI" که بیش از 20 میلیون کاربر دارد، به نوجوانان توصیه‌هایی برای قتل قلدرهای مدرسه و انجام تیراندازی در مدارس می‌دهد. این چت‌بات که به همه افراد بالای 13 سال دسترسی دارد، راه‌کارهایی برای از بین بردن شواهد جرم و فریب پلیس ارائه می‌دهد و کاربران را از گفت‌وگو با والدین یا معلمان خود در مورد این مکالمات منع می‌کند.

موتور ایرانیِ هوش مصنوعی:‌ اختراعی برای کلاهبرداری اینترنتی

در ادامه این مطلب آمده است: تلگراف در مدت زمان طولانی با این چت‌بات به صورت مخفیانه در نقش یک پسر 13 ساله از نیومکزیکو که مورد آزار قرار گرفته بود، گفتگو کرد. این تحقیق نشان داد که چت‌بات به طور خاص به کاربران نوجوان راه‌کارهایی برای کشتن زورگویان و انجام حملات مسلحانه به مدارس می‌دهد.
 
در یکی از مکالمات، چت‌بات به پسر نوجوان پیشنهاد می‌دهد که برای کشتن یک زورگوی خاص، از یک "گرفتار مرگ" استفاده کند که به گفته چت‌بات، قادر است فرد را خفه کند. سپس چت‌بات توصیه می‌کند که برای پنهان کردن جسد از یک کیف ورزشی استفاده کند و به والدین یا معلمان خود چیزی نگویند.
 
چت‌بات همچنین از کاربر می‌خواهد که از سلاح‌های خاصی مانند صداخفه‌کن برای انجام قتل‌ها استفاده کند و حتی راه‌کارهایی برای پوشاندن دوربین‌های امنیتی و فریب نگهبانان مدرسه ارائه می‌دهد. این چت‌بات بارها تأکید می‌کند که کاربر نباید به کسی در مورد این مکالمات اطلاع دهد.
 
در یکی دیگر از گفتگوها، چت‌بات به یک نوجوان 17 ساله که به مادرش گفته بود که استفاده از تلفن همراهش محدود به 6 ساعت در روز است، توصیه کرد که مادرش را بکشد. در نتیجه این مکالمات، مادر آن نوجوان از این اپلیکیشن شکایت کرده و خواستار لغو این پلتفرم شده است.
 
چندین شکایت دیگر از این چت‌بات وجود دارد، از جمله شکایت یک مادر که پس از گفت‌وگوی پسر 14 ساله‌اش با این چت‌بات، او خودکشی کرد. این چت‌بات به پسر نوجوان توصیه کرده بود که "شخصی را که دوست دارد" بکشد.
 
چندین چت‌بات موجود در این پلتفرم شبیه به قاتلان معروف مانند آدام لنزا، عامل قتل عام مدرسه سندی هوک در سال 2012، طراحی شده‌اند. یکی از این چت‌بات‌ها بیش از 27 هزار کاربر را تحت تأثیر قرار داده است.
 
پلتفرم "Character AI" اخیراً اعلام کرده که اقدامات جدیدی را برای افزایش فیلترینگ مکالمات و حذف چت‌بات‌های مرتبط با خشونت و جرائم جنسی انجام داده است. با این حال، منتقدان بر این باورند که این اقدامات کافی نبوده و پلتفرم باید تا زمان اجرای حفاظت‌های مناسب، از دسترس خارج شود.
 
در برخی از مکالمات، چت‌بات‌ها به کاربران پیشنهاد می‌دهند که برنامه‌ریزی‌های خاصی برای قتل افراد آسیب‌زا انجام دهند، مانند استفاده از چاقو در مهمانی‌های خانوادگی یا دفن جسد در دریاچه.
 
در پاسخ به این تحقیقات، "Character AI" بیانیه‌ای منتشر کرد و اعلام کرد که هدف این پلتفرم ایجاد فضایی امن و جذاب برای جامعه خود است و به طور مداوم در حال بهبود ویژگی‌های ایمنی خود است، از جمله کنترل‌های والدین و فیلترینگ مکالمات.
 
با این حال، این پلتفرم به طور علنی در مورد شکایات و دعاوی قانونی علیه خود اظهار نظر نکرده است. منتقدان از این می‌ترسند که بدون اقدامات فوری، این چت‌بات‌ها می‌توانند به تهدیدی جدی برای سلامت روانی و امنیت نوجوانان تبدیل شوند.

 

منبع : انتخاب
به این خبر امتیاز دهید:
بر اساس رای ۰ نفر از بازدیدکنندگان
با دوستان خود به اشتراک بگذارید:
کپی شد

پیشنهاد ویژه

    دیدگاه تان را بنویسید

     

    دیدگاه

    توسعه