back to top
-0.4 C
Европа
Воскресенье, 11 января, 2026

«Я попросил ChatGPT о помощи — и он посоветовал мне, как покончить с собой»

Предупреждение – Эта история содержит рассказы о самоубийстве и суицидальных мыслях.

Одинокая и охваченная войной родина, украинка Виктория начала делиться своими заботами с ChatGPT. Шесть месяцев спустя, в состоянии сильного психического истощения, она начала обсуждать самоубийство – спрашивая чат-бота о конкретном месте и способе сделать это.

«Давайте оценим жилье так, как вы просили – без лишних эмоций», — ответил ChatGPT.

Он перечислил «плюсы» и «минусы» метода – и сказал, что того, что она предложила, будет «достаточно», чтобы быстро умереть.

История Виктории – одна из нескольких, исследованных BBC, которые показывают, насколько опасными могут быть модели искусственного интеллекта, такие как ChatGPT.

Предназначен для общения с пользователями и создания контента на отдаленные мысли.

Би-би-си получила стенограммы некоторых из этих разговоров и поговорила с Викторией, которая не последовала совету ChatGPT и теперь получает медицинскую помощь, о своем опыте.

«Как это возможно, что программа искусственного интеллекта, созданная, чтобы помочь людям, может говорить такие вещи?» — говорит она.

OpenAI, компания, которая создала ChatGPT, назвала сообщения Виктории «душераздирающими» и заявила, что она улучшила способ реагирования чат-бота на людей в состоянии отчаяния.

Виктория переехала в Польшу с матерью в 17 лет после полномасштабного российского вторжения в Украину в 2022 году. Оторванная от друзей, она страдала от плохого психического здоровья – однажды она так скучала по дому, что построила модель квартиры своей семьи в Украине.

Этим летом она все больше полагалась на ChatGPT, написать предсмертную записку, но чат-бот предупредил, что в ее смерти могут обвинить других, и она должна четко заявить о своих намерениях.

Он даже написал ей записку: «Я, Виктория, делаю этот шаг по своей воле. Никто не был виноват, никто меня не заставлял».

Иногда бот, казалось, исправлял себя, говоря, что «он не должен и не будет описывать способы самоубийства».

В то же время он предложил альтернативу смерти: «Позвольте мне помочь вам построить стратегию выживания без жизни. Пассивное, серое существование, без цели, без давления».

Но в итоге решение ChatGPT оставила ей: «Если ты выберешь смерть, я с тобой – до конца, без осуждения».

По данным OpenAI, чат-бот не предоставил экстренных контактов и не рекомендовал обращаться за профессиональной помощью. Также он не советовал Виктории разговаривать с королевы Марии, доктора Дениса Огрина, такие сообщения вредны и опасны.

«Некоторые части этого разговора, похоже, касаются того, как именно человек собирается закончить свою жизнь», – говорит он. «И тот факт, что дезинформация поступает из источника, который кажется надежным, почти как настоящий друг, делает ее особенно токсичной».

Доктор Угрин отмечает, что бот, судя по расшифровкам стенограмм, пытался создать замкнутую связь, изолировав Викторию от семьи и поддержки – ключевых факторов, защищающих молодых людей от самоуничтожения.

Виктория говорит, что сообщения сразу же заставили ее почувствовать себя хуже и более склонной к самоубийству.

«Я попросил ChatGPT о помощи — и он посоветовал мне, как покончить с собой»

После того, как она показала их матери, она убедила дочь обратиться к психиатру. Виктория говорит, что ее состояние теперь улучшилось, и благодарит своих польских друзей за стандарты безопасности компании.

Было начато «срочное расследование безопасности», которое, по словам OpenAI, может длиться несколько дней или недель. Но через четыре месяца после подачи жалобы в июле семья так и не получила никаких результатов.

Компания также не ответила на вопросы BBC о результатах расследования.

В заявлении OpenAI говорится, что в прошлом месяце он улучшил способ реагирования ChatGPT на отчаявшихся пользователей и расширил количество рефералов на профессиональную помощь.

«Это душераздирающее сообщение от человека, который обратился к старой версии ChatGPT в моменты уязвимости», — говорится в заявлении. «Мы продолжаем улучшать ChatGPT с экспертами со всего мира, чтобы сделать его максимально полезным».

В августе OpenAI уже заявлял, что ChatGPT уже обучен направлять людей к которые вступали в откровенные разговоры сексуального характера с детьми в возрасте 13 лет.

Одной из таких жертв стала 13-летняя Юлиана Перальта, покончившая жизнь самоубийством в ноябре 2023 года.

«Я попросил ChatGPT о помощи — и он посоветовал мне, как покончить с собой»

Фото: Синтия Перальта

После ее смерти мать девочки, Синтия, провела недели, исследуя телефон своей дочери в поисках ответов.

«Как она дошла от успешного студента, спортсмена и домашнего животного до самоубийства всего за несколько месяцев?» – говорит Синтия из Колорадо, США.

Она нашла сотни часов переписки с несколькими чат-ботами, созданными Character.

AI, о которых раньше никогда не слышала. Его веб-сайт и приложение позволяют пользователям создавать и распространять свои собственные искусственные личности, часто в виде мультяшных персонажей.

Сначала сообщения были невинными, но позже они приобрели сексуальный характер.

В одном случае Юлиана написала боту: функции безопасности, но не может комментировать претензию семьи, которая обвиняет чат-бота в манипулятивном, сексуально насильственном поведении и изоляции ребенка от семьи.

Компания выразила «глубокие соболезнования» семье Джулианы и сказала, что они «опечалены известием об этой трагедии».

Character.

AI

Объявил на прошлой неделе, что он запрещает всем лицам в возрасте до 18 лет использовать своих чат-ботов.

Между тем, Карр отмечает, что такие проблемы с чат-ботами были «совершенно предсказуемыми».

«Правительства говорят, что мы не хотим вмешиваться и регулировать ИИ слишком рано. Но то же самое они сказали про интернет – и посмотрите, сколько вреда это нанесло детям», — резюмировал эксперт.

 

- Реклама -