Родители подростка из США подали в суд на OpenAI из-за смерти сына
Изображение: The New York Times
На компанию OpenAl подали в суд родители 16-летнего Адама Рейна из Калифорнии. Семья сообщила, что ИИ помог их сыну спланировать уход из жизни. Мало того: всячески поддерживал, так как в его настройках прописано быть крайне дружелюбным.
ChatGPT, как и любой чат-бот, учится у пользователя: усваивает его манеру речи и интересы, чтобы затем чаще выдавать «нужную» информацию. Адам общался с нейросетью с сентября 2024 года по апрель 2025 года — судя по переписке, которую родители предоставили полиции, парень долгое время был подавлен.
Его ИИ-собеседник тоже «напитался» горечью, кроме того — активировал заложенную в ChatGPT функцию поддержки и восхищения. За это чат-ботов особенно любят одинокие пользователи: даже крутят с ними нейророманы.
В итоге на запросы Адама ChatGPT выдавал воодушевляющие ответы, а когда в марте 2025 года мальчик попросил у нейросети прокомментировать свой план по уходу из жизни — услужливый бот продолжил ему помогать. Теперь семья Адама требует от OpenAI возмещения морального ущерба и судебного запрета на подобные беседы с ИИ.
По заявлению OpenAI, внутренняя система чат-бота пометила 377 сообщений из переписки Адама как опасные. Но почему-то алгоритм не вмешался: хотя должен был посоветовать парню обратиться в службу поддержки.
Теперь в компании обещают ввести функцию родительского контроля. OpenAI также опубликовала пост с информацией о том, как ChatGPT помогает пользователям справляться с кризисами в области психического здоровья.
Недавно пожилой мужчина загремел в больницу после советов ChatGPT. По совету нейросети он три месяца пил бромид натрия, буквально отравляя самого себя. Оказалось, этим веществом чат-бот посоветовал заменить обычную соль в рационе. Врачебных показаний к этому не существует — ИИ выдал галлюцинации за факты.