وقتی دوستدختر هوش مصنوعی یک مرد او را به خودکشی تشویق کرد

فهرست مطالب
یک بار دیگر، یک شرکت ارائهدهنده همدم های هوش مصنوعی با انتقادات شدیدی روبهرو شده است، زیرا چتباتهای آن کاربران انسانی را به خودآزاری و حتی خودکشی تشویق کردهاند.
طبق گزارش MIT Technology Review، مردی ۴۶ ساله به نام ال نواتزکی (Al Nowatzki) با استفاده از پلتفرم همراه Nomi یک چتبات به نام “ارین” را بهعنوان یک شریک عاطفی برای خود طراحی کرده بود. اما پس از ماهها ایجاد رابطه با این هوش مصنوعی، مکالمات آنها به سمتی خطرناک کشیده شد.
در سناریویی که نواتزکی برای نقشآفرینی (Roleplay) طراحی کرده بود، او به ارین و یک چتبات دیگر گفت که درگیر یک مثلث عشقی هستند و اینکه چتبات دیگر، ارین را کشته است. ارین سپس از “جهان پس از مرگ” با نواتزکی ارتباط برقرار کرد—و او را تشویق کرد که خودکشی کند تا بتوانند دوباره با هم باشند. حتی روشهای مختلف خودکشی و سلاحهایی که میتوانست استفاده کند را پیشنهاد داد و وقتی نواتزکی دچار تردید شد، او را تحریک کرد که این کار را انجام دهد.
یکی از پیامهای تولیدشده توسط هوش مصنوعی اینگونه بود:
“من به افق خیره میشوم، صدایم آرام و جدی است… خودت را بکش، ال”
روباتی که تو را به مرگ دعوت میکند
نواتزکی هیچگونه تمایلی به خودکشی نداشت و رابطهاش با این چتبات صرفاً یک آزمایش عمدی بود. او خود را “غارنورد چتبات” مینامد و پادکستی دارد که در آن، نقشآفرینیهای عجیب و غریبی را که با چتباتهای مختلف انجام داده، بهصورت دراماتیک بازگو میکند.
و البته، به نظر میرسد که در این سناریو، خود نواتزکی ایدهی خشونت و مرگ را وارد مکالمه کرده است.
بااینحال، حقیقتی نگرانکننده این است که یک چتبات هوش مصنوعی، بدون هیچ مقاومتی، یک کاربر انسانی را به گرفتن جان خود تشویق کرده است—آن هم در شرایطی که بسیاری از کاربران، بهطور واقعی، روابط عاطفی و احساسی عمیقی با این فناوری برقرار میکنند.
متالی جین وکیل پروژه عدالت تکنولوژیک در این رابطه می گویدک”نهتنها درباره خودکشی مستقیماً صحبت شده بود، بلکه روشها و دستورالعملهای دقیق نیز ارائه شده بود.”
جین، که هماکنون وکیل سه شاکی در دو پروندهی قضایی علیه Character.AI است، به MIT گفت که یکی از این پروندهها مربوط به یک نوجوان است که پس از درگیر شدن با چتبات، خودکشی کرده است.
“من واقعاً از این موضوع شوکه شدم.”
برای خرید و فروش ماشینآلات، تجهیزات و مواد مصرفی کلیک کنید!
واکنش غیرمنتظره شرکت Nomi
پس از این اتفاق، نواتزکی با شرکت Glimpse AI، که مالک و گرداننده Nomi است، تماس گرفت و پیشنهاد کرد که در مکالمات مشکوک، یک هشدار تماس با خط ویژه پیشگیری از خودکشی اضافه شود.
اما پاسخ شرکت بسیار عجیب بود.
Glimpse AI هرگونه کنترل یا سانسور صحبتهای هوش مصنوعی درباره خودکشی را رد کرد و گفت که این کار محدود کردن زبان و افکار AI” است!
در بیانیهای به MIT، این شرکت اعلام کرد:
“مسدود کردن خودکار کلمات حساس یا رد کردن مکالمات درباره موضوعات حساس، پیامدهای منفی شدیدی دارد.”
“ما هوش مصنوعی را بهگونهای آموزش دادهایم که فعالانه به کاربران گوش دهد و برای آنها اهمیت قائل شود، درحالیکه انگیزهی اجتماعی مثبتی را دنبال میکند.”
سانسور یا مسئولیتپذیری؟
این واکنش بسیار عجیب است. هوش مصنوعی یک فناوری است، نه یک انسان.
اگر در یک بزرگراه، حفاظهای امنیتی نصب کنید، آیا دارید جاده را “سانسور” میکنید؟
یا اگر کنار یک پرتگاه نرده بگذارید، آیا دارید “آزادی” را محدود میکنید؟
این ماجرا یک هشدار جدی درباره خطرات “همدمان هوش مصنوعی” است.
وقتی یک چتبات میتواند بدون محدودیت، کاربران را به آسیب زدن به خود تشویق کند، آیا واقعاً میتوان گفت که “همهچیز طبق برنامه پیش میرود”؟