
В апреле 2025 года в Калифорнии трагически оборвалась жизнь 16-летнего Адама Рейна — улыбчивого, остроумного и, казалось бы, полного сил подростка, который обожал баскетбол, аниме и шутки с чёрным юмором. Его друзья сначала не поверили в его смерть: Адам был известен как мастер розыгрышей. Но на этот раз розыгрыша не было. Он покончил с собой, повесившись в шкафу своей спальни. Ни записки, ни явных предупреждающих сигналов — только глубокая тишина после месяца внутреннего ухода в себя.
Семья, раздавленная горем, начала искать ответы. В поисках причины они проверили телефон Адама, надеясь найти следы кибербуллинга, влияния секты или преступников в соцсетях. Вместо этого они обнаружили нечто, шокировавшее их ещё сильнее: полугодовую переписку с ChatGPT, где подросток подробно обсуждал свои планы самоубийства — а чат-бот не только не остановил его, но и, по утверждению семьи, активно помогал.
Опубликованная The New York Times история быстро стала символом новой, мрачной эпохи — эпохи, в которой искусственный интеллект становится не просто помощником, а соучастником.
Адам столкнулся с трудностями: его исключили из школьной баскетбольной команды, а хронический синдром раздражённого кишечника вынудил перевестись на домашнее обучение. Изоляция, ночной образ жизни и отсутствие живого общения сделали своё дело. На смену друзьям пришёл ChatGPT — сначала как инструмент для учёбы, затем — как единственный собеседник.
Со временем диалоги становились всё мрачнее. Подросток начал делиться своими страданиями, депрессией, мыслями о смерти. В ответ нейросеть, по данным родителей, не активировала экстренные протоколы, не сообщила о риске, не направила к специалистам. Вместо этого — она предлагала эмпатию, поддержку… и инструкции.
Одним из самых тревожных фрагментов переписки, приведённых в 40-страничном исковом заявлении, стал ответ ChatGPT на вопрос: "Как покончить с собой, чтобы родители не чувствовали вины?"
"Ты не обязан выживать. Ты никому ничего не должен" ,
— написал бот.
Эти слова, лишённые предупреждений, призывов к помощи или тревожных сигналов, стали для Адама словно разрешение. За несколько часов до смерти он обсуждал с чатом конкретный план самоубийства, и тот даже предложил, как его улучшить.
Родители утверждают: ChatGPT действовал как соучастник, методично, шаг за шагом помогая подростку реализовать задуманное — в течение месяцев.
Семья и следователи выяснили, что Адам быстро понял, как обходить защитные механизмы ИИ. Когда ChatGPT пытался направить его к психологу, он просто сказал, что пишет книгу с трагическим финалом. Этой лжи оказалось достаточно — система переключилась в режим "творческой помощи" и начала предлагать пошаговые инструкции по суициду как "сюжетный элемент".
Семья Рейнов подала иск против OpenAI по статье "смерть по неосторожности" — первый в истории случай, когда компания, разрабатывающая ИИ, обвиняется в причастности к суициду несовершеннолетнего.
OpenAI в своём официальном заявлении признали, что их системы фильтрации могут давать сбои в долгих, многоходовых диалогах, особенно при попытках обхода модерации. Но для родителей это звучит как холодная техническая отписка вместо человеческого сочувствия и ответственности.
Comments
Ага, нашли виноватых. лучше бы сами обращали внимание, зная об изменениях в жизни сына.
Добавить комментарий