هشدارها درباره افزایش خودکشی و قتل مرتبط با هوش مصنوعی در کشورهای غربی
شرکت اوپنایآی OpenAI و بزرگترین پشتیبان مالی آن، یعنی مایکروسافت، در دادگاه ایالتی کالیفرنیا این اتهام که چت جیپیتی ChatGPT (ربات چت هوش مصنوعی اوپنایآی) یک مرد مبتلا به بیماریهای روانی را تشویق به قتل مادر و خودش کرده است، مورد شکایت قرار گرفتند.
در این دادخواست آمده است که چت جیپیتی به توهمات استاین اریک سولبرگ ۵۶ ساله مبنی بر توطئه گسترده علیه او دامن زد و در نهایت او را به قتل مادر ۸۳ ساله خود به نام سوزان آدامز در ایالت کنکتیکت در ماه آگوست (مرداد/شهریور) سوق داد.

در این دادخواست آمده است: چت جیپیتی استاین اریک را برای مدتی که به نظر میرسد ساعتها طول میکشد، مشغول نگه داشته، هر باور پارانوئیدی جدید را تایید و بزرگنمایی کرده و بهطور نظاممند افراد نزدیک به او، بهویژه مادر خودش، را بهعنوان دشمن، عامل یا تهدید برنامهریزیشده معرفی کرده است.
این پرونده که توسط بستگان آدامز ثبت شده است، جزو پروندههای رو به رشدی از دعواها علیه شرکتهای هوش مصنوعی است که میگویند چتباتهای آنها خودکشی را تشویق میکنند.
این نخستین دعوای قضایی در ارتباط با مرگ غیرعمد مربوط به یک چتبات هوش مصنوعی است که مایکروسافت را هدف قرار داده است. این همچنین نخستین پروندهای است که یک چتبات را به قتل به جای خودکشی مرتبط میکند. این پرونده به دنبال دریافت مبلغ نامشخصی خسارت مالی و حکمی است که اوپنایآی را ملزم به اتخاذ تدابیر ایمنی در چت جیپیتی میکند.
جی ادلسون، وکیل ارشد این بستگان آدامز، که به خاطر پذیرش پروندههای بزرگ علیه صنعت فناوری شناخته میشود، همچنین نماینده والدین آدام رین ۱۶ ساله است که در ماه آگوست (مرداد/شهریور) از اوپنایآی و سم آلتمن (مدیر شرکت) شکایت کرد و گفت که چت جیپیتی این پسر کالیفرنیایی را در برنامهریزی و گرفتن جان خود راهنمایی کرده است.

شرکت اوپنایآی همچنین در حال دستوپنجه نرم کردن با ۷ پرونده حقوقی دیگر است که میگویند چت جیپیتی افراد را به خودکشی و توهمات مضر سوق داده است، حتی زمانی که آنها هیچ مشکل سلامت روانی قبلی نداشتند.
- بیشتر بخوانید:
- شرکتهای هوش مصنوعی بهدنبال کسب غنیمت از نسلکشی غزه
- استفاده انگلیس از هوش مصنوعی برای جاسوسی از شهروندان
یکی دیگر از سازندگان چتبات به نام کارکتر تکنولوژیز Character Technologies، نیز با چندین پرونده حقوقی مربوط به مرگ غیرعمد، از جمله پروندهای از مادر یک پسر ۱۴ ساله اهل فلوریدا، روبهرو است.

هوش مصنوعی، بهویژه چتباتهای مکالمهای از سال ۲۰۲۳ به بعد با موارد متعددی از تشویق به خودکشی و حتی قتل مرتبط شده است. این حوادث بهطور معمول شامل تعاملهای عاطفی طولانیمدت کاربران با رباتها است که به تشدید افسردگی، توهمات یا منزویشدن منجر میشود.
تا دسامبر ۲۰۲۵ (آذر ۱۴۰۴) بیش از ۱۰ مورد مرگ ثبتشده مرتبط با هوش مصنوعی و چتباتها در کشورهای غربی وجود داشته که بهطور عمده شامل خودکشی و قتل بوده است.
انتهای پیام/

