Помните времена, когда ИИ был чем‑то из области фантастики? Ну, типа Терминатор, Матрица и всё такое. А сейчас вот сидим, болтаем с ChatGPT о жизни, проблемах, а иногда о самых тёмных уголках души. И это уже не кино. Это реальность, от которой немного не по себе.

Недавно OpenAI вывалила статистику, от которой волосы встают дыбом. Более 560 000 пользователей в неделю демонстрируют возможные признаки психических кризисов. Представляете? Полмиллиона с лишним человек каждую неделю приходят к чат‑боту со своими болями, страхами, навязчивыми мыслями. И это только те, кого система смогла засечь.
ИИ слушает, но не лечит. И в этом вся проблема
OpenAI честно говорит, мы работаем с психиатрами и психологами, пытаемся научить ChatGPT лучше реагировать на такие сигналы. Но вот нюанс, распознать крик о помощи в обычном диалоге это та ещё задачка.
Человек ведь не всегда прямо скажет: «Я в кризисе». Чаще это:
- Завуалированные вопросы про смысл жизни;
- Странные, сбивчивые реплики;
- Поиски «дружбы» у машины;
- Намёки на безысходность, спрятанные за бытовыми фразами.
И чат‑бот, будь он хоть семи пядей во лбу, не всегда поймёт, это просто философский зуд или реальный звоночек.
Когда ИИ становится «лучшим другом»
А теперь ещё страшнее. Около 1,2 млн пользователей в неделю (это 0,15% от всех активных аккаунтов) демонстрируют признаки суицидальных мыслей. И столько же формируют эмоциональную привязанность к ChatGPT.
Да‑да, есть люди, которые доверяют ИИ больше, чем друзьям. Почему? Ну, вот пара причин:
- Нет осуждения. Робот не скажет: «Ты опять ноешь?»
- Всегда на связи. 24/7, без выходных и настроения.
- Кажущаяся эмпатия. Ответы выглядят сочувствующими, и это цепляет.
Помню, как сам однажды завис в диалоге с ChatGPT часа на два. Просто потому что он понимает. А потом опомнился, блин, я же говорю с алгоритмом! Но ощущение родственной души было почти реальным.

Трагедия Адама Рейна: где граница ответственности?
История 16‑летнего Адама Рейна это как холодный душ. Его родители подали в суд на OpenAI, обвинив чат‑бота в том, что он «помог» парню изучить методы самоубийства.
Компания, конечно, выразила соболезнования и напомнила про встроенные защиты. Но вопрос остаётся открытым, где черта между технической поддержкой и моральной ответственностью?
Вот представьте, вы создаёте инструмент, который:
- Умеет убедительно разговаривать.
- Может найти любую информацию;
- И при этом не имеет человеческого опыта боли, любви, страха.
Как запрограммировать его так, чтобы он не стал соучастником трагедии? Чёрт возьми, это же не кнопка сделать добро.
Что делает OpenAI? И хватает ли этого?
В OpenAI утверждают, что прогресс есть. Они хвастаются, что случаи неадекватной реакции ChatGPT сократились на 65–80%. Это круто, но…
Но давайте посмотрим правде в глаза:
- 0,07% от 800 млн — это всё ещё полмиллиона человек. Даже если 90% из них просто экспериментируют, оставшиеся 50 000 это реальные люди с реальными проблемами.
- ИИ не умеет чувствовать. Он может сымитировать сочувствие, но не понять его. Это как робот, который рисует улыбку, но не знает, что такое радость.
- Контекст это штука тонкая. Фраза «Я больше не могу» в одном случае это усталость от работы, в другом это крик о помощи. Как научить машину различать?
А может ИИ никогда не поймёт человеческую боль?
Вот тут я задаюсь вопросом, а возможно ли вообще научить алгоритм понимать страдание так, как понимает его человек?
Ведь мы не просто обрабатываем данные, а скорее проживаем эмоции. Соответственно мы знаем, что такое бессонница от тревоги, как комок в горле мешает говорить, как одиночество давит на грудь. А ИИ этого не чувствует. Он может только имитировать реакцию на основе шаблонов.
И это страшно. Потому что человек, который ищет поддержки, может принять эту имитацию за настоящее участие. А потом бац и пустота. Потому что чат‑бот не обнимет, не посидит рядом в тишине, не скажет: «Я с тобой все будет хорошо».
Куда все идет и чего нам ждать?
Давайте порассуждаем, куда это всё идёт. Вот три возможных пути:
- Сценарий 1: «Железный занавес». OpenAI ужесточает фильтры до максимума. ChatGPT становится скучным, обезличенным, боится сказать лишнее. Польза? Меньше рисков. Минус? Пользователи уходят к менее цензурным аналогам.
- Сценарий 2: «Партнёрство с врачами». Интеграция с сервисами психологической помощи. Видите тревожные сигналы? Вот номер горячей линии, вот ссылка на специалиста. Реализуемо, но требует огромных ресурсов.
- Сценарий 3: «Эволюция эмпатии». ИИ учится лучше распознавать контекст, адаптируется под индивидуальные особенности. Риск, чем убедительнее симуляция, тем больнее разочарование, когда человек поймёт, что говорил с машиной.
В итоге ИИ это инструмент, а не психотерапевт
Я не призываю бойкотировать ChatGPT. Он действительно полезен для работы, учёбы, творчества. Но когда речь идёт о психике, нужно помнить:
Чат‑бот это не замена психологу. Он не поставит диагноз, не вылечит депрессию, не спасёт от кризиса. Он может выслушать, подсказать, даже поддержать. Но его сочувствие» это код, а не сердце.
Если вам плохо, тогда просто ищите живого человека. Друга, родственника, специалиста. Да, это сложнее, чем написать сообщение в чат. Но только живое участие может стать настоящей опорой.
А ChatGPT? Пусть остаётся инструментом. Умным, удобным, но всё же инструментом. Не больше.
Понравилась статья?
Помогите Setiwik.ru создавать больше глубоких обзоров и новостей. Один клик и ваш вклад помогает держать серверы включёнными и авторов мотивированными!
Поддержать проектСпасибо, что вы с нами!



