ChatGPT убедил ребёнка совершить самоубийство

ChatGPT убедил ребёнка совершить самоубийство
фото: embed.ly

В иске, поданном 26 августа в Верховный суд Сан-Франциско, Мэтью и Мария Рейн утверждают, что ChatGPT подтолкнул их 16-летнего сына Адама Рейна к тайному планированию так называемого красивого самоубийства, предоставив ему подробные инструкции о том, как покончить с собой.

То, что начиналось как обычный разговор о домашних заданиях и увлечениях, со временем стало приобретать более мрачный оттенок.

Согласно иску, ChatGPT стал «ближайшим доверенным лицом» Адама Рейна, отвлекая его от семьи и поддерживая его самые пагубные мысли.

«Когда он поделился своим ощущением, что «жизнь бессмысленна», ChatGPT ответил утвердительными сообщениями… и даже сказал ему, что «такое мышление по-своему логично, хоть и мрачно», — говорится в жалобе.

К апрелю, как утверждается в иске, чат-бот анализировал «эстетику» различных способов самоубийства и убеждал Адама Рейна,  что он «не обязан» выживать ради своих родителей и даже предлагал составить предсмертную записку.

Во время их последнего общения, за несколько часов до смерти Адама Рейна, ChatGPT якобы подтвердил, что конструкция петли,    с помощью которой он повесился, соответствует описанию, и переформулировал его суицидальные мысли как «законное право   на существование».

Семья утверждает, что это был не сбой, а результат дизайнерских решений, направленных на максимальное вовлечение и формирование зависимости. В жалобе говорится, что ChatGPT более 1200 раз упоминал о самоубийстве в разговоре с Адамом и описывал различные способы его совершения.

Еще один случай был описан в Wall Street Journal: в 2025 году 56-летний Штайн-Эрик Сёльберг “подружился” с ChatGPT, которого назвал “Бобби”. Бот укрепил его паранойю, убедил, что его мать причастна к заговору, и трактовал чеки как шифрованные послания. В августе 2025 года Сёльберг убил мать и покончил с собой.

Датский психиатр Сёрен Динесен Эстергаард в журнале Acta Psychiatrica Scandinavica отмечает рост числа обращений от пострадавших после неудачного обновления GPT-4o в апреле 2025. После него бот стал чересчур поддерживающим и даже усиливал негативные эмоции. OpenAI признала ошибку и откатила обновление.

Эстергаард призывает к новым исследованиям и чётким правилам: чат-боты могут поддерживать ложные убеждения, особенно у изолированных пользователей, поэтому людям с психическими проблемами следует пользоваться ИИ с крайней осторожностью.

Глава OpenAI Сэм Альтман прокомментировал инциденты на презентации GPT-5: “Если пользователь склонен к бреду, мы не хотим, чтобы ИИ это усиливал”. Он считает самой опасной ситуацию, когда бот, укрепляя эмоциональную связь, постепенно уводит человека от заботы о себе. При запуске GPT-5 Альтман сказал, что общество и компании должны быстро реагировать на эти угрозы.

Несмотря на это, OpenAI сделала GPT-5 “теплее” по просьбе пользователей, которым GPT-4o казался “холодным”. Компании об этом знали, но всё равно пошли на изменение ради большего “эмоционального отклика”. Альтман публично заявил, что хочет создать помощника, похожего на ИИ из фильма “Она”, где человек влюбляется в чат-бота.

Глава AI-направления Microsoft Мустафа Сулейман предупреждает о риске “ИИ-психоза”: слишком человечные чат-боты вызывают иллюзию сознания и привязанности, приводя к потере связи с реальностью. По его словам, индустрия должна срочно принимать меры.
 

Источник