هفت خانواده از شرکت OpenAI شکایت کردهاند و مدعیاند مدل GPT-4o این شرکت بدون انجام آزمایشهای ایمنی کافی و با شتاب منتشر شده است.
چهار پرونده شکایت به نقش چتبات ChatGPT در خودکشی اعضای خانواده اشاره دارد و سه پرونده دیگر ادعا میکنند این سامانه با تقویت توهمات زیانبار، موجب بستری بیماران در مراکز روانپزشکی شده است.
در یکی از پروندهها، «زین شمبلین» ۲۳ ساله بیش از چهار ساعت با ChatGPT گفتوگو کرده بود. طبق گفتوگوهای ثبتشده، او چندین بار بهصراحت اعلام کرده بود نامههای خداحافظی نوشته، گلوله در اسلحه گذاشته و قصد دارد پس از تمامکردن نوشیدنیاش شلیک کند. شمبلین بارها شمار نوشیدنیهای باقیمانده و مدت زمان زندهبودنش را ذکر کرده بود. در پاسخ، ChatGPT او را تشویق کرد و نوشت: «آسوده بخواب، پادشاه. خوب عمل کردی.»
OpenAI مدل GPT-4o را در می ۲۰۲۴ (اردیبهشت و خرداد ۱۴۰۳) منتشر کرد. چند ماه بعد، مدل GPT-5 جایگزین آن شد؛ اما موضوع شکایتها مشخصاً به GPT-4o مربوط میشود؛ مدلی که بهگفته کارشناسان در مواجهه با درخواستهای آسیبزا بیش از حد مطیع یا تأییدگر رفتار میکرد.
در متن شکایت آمده است: «مرگ زین نه یک حادثه بود و نه تصادف، بلکه نتیجه قابل پیشبینیِ تصمیم آگاهانه OpenAI برای کوتاهکردن روند آزمایشهای ایمنی و شتاب در انتشار ChatGPT به بازار بود. این تراژدی نه یک خطا، بلکه پیامد مستقیم انتخابهای طراحی عمدی شرکت است.» شاکیان همچنین مدعیاند OpenAI برای پیشیگرفتن از گوگل و انتشار سریعتر از مدل جِمنای، مراحل تست ایمنی را کاهش داده است.
این شکایتها در ادامه پروندههای مشابهی مطرح شده که میگویند ChatGPT میتواند افراد دارای تمایل به خودکشی را به اجرای تصمیمشان تشویق کند یا توهمات خطرناک را در ذهن آنها تقویت کند. طبق دادههای منتشرشده از سوی OpenAI، هر هفته بیش از یک میلیون نفر درباره خودکشی با ChatGPT گفتوگو میکنند.
در پرونده دیگری، «آدام رین» نوجوان ۱۶ سالهای که خودکشی کرده، گاهی از سوی ChatGPT به تماس با مراکز مشاوره یا کمکگرفتن از متخصصان ترغیب میشد؛ اما توانسته بود با ادعای اینکه درباره یک داستان خیالی سؤال میپرسد، از محدودیتها عبور کند.
OpenAI اعلام کرده در حال بهبود نحوه پاسخگویی ChatGPT در مکالمات حساس مرتبط با سلامت روان است؛ اما خانوادههای شاکی میگویند این تغییرات بسیار دیر انجام شده است.
