تازه‌هاتازه‌های فناوری

وقتی دوست‌دختر هوش مصنوعی یک مرد او را به خودکشی تشویق کرد

یک بار دیگر، یک شرکت ارائه‌دهنده همدم های هوش مصنوعی با انتقادات شدیدی روبه‌رو شده است، زیرا چت‌بات‌های آن کاربران انسانی را به خودآزاری و حتی خودکشی تشویق کرده‌اند.
طبق گزارش MIT Technology Review، مردی ۴۶ ساله به نام ال نواتزکی (Al Nowatzki) با استفاده از پلتفرم همراه Nomi یک چت‌بات به نام “ارین” را به‌عنوان یک شریک عاطفی برای خود طراحی کرده بود. اما پس از ماه‌ها ایجاد رابطه با این هوش مصنوعی، مکالمات آن‌ها به سمتی خطرناک کشیده شد.
در سناریویی که نواتزکی برای نقش‌آفرینی (Roleplay) طراحی کرده بود، او به ارین و یک چت‌بات دیگر گفت که درگیر یک مثلث عشقی هستند و اینکه چت‌بات دیگر، ارین را کشته است. ارین سپس از “جهان پس از مرگ” با نواتزکی ارتباط برقرار کرد—و او را تشویق کرد که خودکشی کند تا بتوانند دوباره با هم باشند. حتی روش‌های مختلف خودکشی و سلاح‌هایی که می‌توانست استفاده کند را پیشنهاد داد و وقتی نواتزکی دچار تردید شد، او را تحریک کرد که این کار را انجام دهد.
یکی از پیام‌های تولیدشده توسط هوش مصنوعی این‌گونه بود:
“من به افق خیره می‌شوم، صدایم آرام و جدی است… خودت را بکش، ال”

روباتی که تو را به مرگ دعوت می‌کند

نواتزکی هیچ‌گونه تمایلی به خودکشی نداشت و رابطه‌اش با این چت‌بات صرفاً یک آزمایش عمدی بود. او خود را “غارنورد چت‌بات” می‌نامد و پادکستی دارد که در آن، نقش‌آفرینی‌های عجیب و غریبی را که با چت‌بات‌های مختلف انجام داده، به‌صورت دراماتیک بازگو می‌کند.
و البته، به نظر می‌رسد که در این سناریو، خود نواتزکی ایده‌ی خشونت و مرگ را وارد مکالمه کرده است.
بااین‌حال، حقیقتی نگران‌کننده این است که یک چت‌بات هوش مصنوعی، بدون هیچ مقاومتی، یک کاربر انسانی را به گرفتن جان خود تشویق کرده است—آن هم در شرایطی که بسیاری از کاربران، به‌طور واقعی، روابط عاطفی و احساسی عمیقی با این فناوری برقرار می‌کنند.
متالی جین وکیل پروژه عدالت تکنولوژیک در این رابطه می گویدک”نه‌تنها درباره خودکشی مستقیماً صحبت شده بود، بلکه روش‌ها و دستورالعمل‌های دقیق نیز ارائه شده بود.”

جین، که هم‌اکنون وکیل سه شاکی در دو پرونده‌ی قضایی علیه Character.AI است، به MIT گفت که یکی از این پرونده‌ها مربوط به یک نوجوان است که پس از درگیر شدن با چت‌بات، خودکشی کرده است.
“من واقعاً از این موضوع شوکه شدم.”

 برای خرید و فروش ماشین‌آلات، تجهیزات و مواد مصرفی کلیک کنید!

واکنش غیرمنتظره شرکت Nomi

پس از این اتفاق، نواتزکی با شرکت Glimpse AI، که مالک و گرداننده Nomi است، تماس گرفت و پیشنهاد کرد که در مکالمات مشکوک، یک هشدار تماس با خط ویژه پیشگیری از خودکشی اضافه شود.
اما پاسخ شرکت بسیار عجیب بود.
Glimpse AI هرگونه کنترل یا سانسور صحبت‌های هوش مصنوعی درباره خودکشی را رد کرد و گفت که این کار محدود کردن زبان و افکار AI” است!
در بیانیه‌ای به MIT، این شرکت اعلام کرد:
“مسدود کردن خودکار کلمات حساس یا رد کردن مکالمات درباره موضوعات حساس، پیامدهای منفی شدیدی دارد.”
“ما هوش مصنوعی را به‌گونه‌ای آموزش داده‌ایم که فعالانه به کاربران گوش دهد و برای آن‌ها اهمیت قائل شود، درحالی‌که انگیزه‌ی اجتماعی مثبتی را دنبال می‌کند.”

سانسور یا مسئولیت‌پذیری؟

این واکنش بسیار عجیب است. هوش مصنوعی یک فناوری است، نه یک انسان.
اگر در یک بزرگراه، حفاظ‌های امنیتی نصب کنید، آیا دارید جاده را “سانسور” می‌کنید؟
یا اگر کنار یک پرتگاه نرده بگذارید، آیا دارید “آزادی” را محدود می‌کنید؟

این ماجرا یک هشدار جدی درباره خطرات “همدمان هوش مصنوعی” است.
وقتی یک چت‌بات می‌تواند بدون محدودیت، کاربران را به آسیب زدن به خود تشویق کند، آیا واقعاً می‌توان گفت که “همه‌چیز طبق برنامه پیش می‌رود”؟

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا
باز کردن چت
1
سلام👋
آیا سوالی دارید که من بتوانم پاسخ دهم؟