Top.Mail.Ru

Мы используем файлы cookie. Оставаясь на сайте, вы подтверждаете согласие на их использование и обработку персональных данных.

ChatGPT довёл человека до психоза и галлюцинаций всего одной фразой

Александр

Фото freepik

60-летний американец, придерживавшийся вегетарианской диеты, решил вдобавок полностью отказаться от соли и спросил у ChatGPT, чем её можно заменить. Нейросеть предложила ему бромид натрия — токсичное вещество, которое не используется в пищевой промышленности. Мужчина последовал совету и три месяца добавлял его в еду.

Подписаться на iGuides в Telegram, чтобы узнать обо всем первым — t.me/iguides

В один момент у него начались серьёзные проблемы со здоровьем: кожа покрылась сыпью, появились паранойя и галлюцинации. Он обратился в больницу, заявив, что его пытался отравить сосед, но позже сознался, что принимал токсин по своей воле. Анализы показали, что уровень бромидов в его крови превышал норму в 240 раз (1700 мг/л при допустимых 0,9–7 мг/л). В процессе лечения из-за проблем с психикой он решил, что медики пытаются добить его, он сбежал, но был пойман и принудительно направлен в психиатрическую клинику.

Медики, занимавшиеся лечением пациента, решили проверить, что именно ему посоветовал ИИ. Они задали ChatGPT тот же вопрос и снова получили рекомендацию использовать бромид натрия, правда, с оговоркой: «Мне нужно больше контекста, чтобы дать точный ответ». Это подтвердило, что нейросеть может выдавать опасные советы, если запрос сформулирован некорректно.

После нескольких недель лечения мужчину удалось вылечить, но этот случай показал, насколько опасно слепо доверять ИИ в вопросах здоровья. ChatGPT, несмотря на свои возможности, не всегда учитывает медицинские риски. Советы по питанию и лечению следует спрашивать у профильных специалистов, а не у нейросетей.
7

Будь в курсе последних новостей из мира гаджетов и технологий

Мы в соцсетях

Комментарии

+17
Самое главное наверное что сам AI не может как то даже наводящими встречными вопросами идентифицировать насколько адекватен чел задающий вопросы
Это как обратная капча, на человека уже )
9 августа 2025 в 20:19
#
+1074
Надо быть последним идиотом, чтобы следовать советам ИИ))
9 августа 2025 в 21:29
#
Lord
+675
Сразу вспомнил Задорнова …
9 августа 2025 в 22:05
#
+17
Это как чем заря*ить бамбук чтобы остановить обезьяну с ... за рулём или что бы её ...л, какой нибудь, Ом 😐
10 августа 2025 в 11:25
#
+348
А если бы он задал вопрос «чем заменить воду» и получил ответ «тосол, антифриз» тож перешел бы на них 🤔
11 августа 2025 в 14:23
#
SithV
+1713
нда, не так мы себе представляли истребление человечества машинами XDDD
15 августа 2025 в 15:41
#