
Фото freepik
60-летний американец, придерживавшийся вегетарианской диеты, решил вдобавок полностью отказаться от соли и спросил у ChatGPT, чем её можно заменить. Нейросеть предложила ему бромид натрия — токсичное вещество, которое не используется в пищевой промышленности. Мужчина последовал совету и три месяца добавлял его в еду.
Медики, занимавшиеся лечением пациента, решили проверить, что именно ему посоветовал ИИ. Они задали ChatGPT тот же вопрос и снова получили рекомендацию использовать бромид натрия, правда, с оговоркой: «Мне нужно больше контекста, чтобы дать точный ответ». Это подтвердило, что нейросеть может выдавать опасные советы, если запрос сформулирован некорректно.
После нескольких недель лечения мужчину удалось вылечить, но этот случай показал, насколько опасно слепо доверять ИИ в вопросах здоровья. ChatGPT, несмотря на свои возможности, не всегда учитывает медицинские риски. Советы по питанию и лечению следует спрашивать у профильных специалистов, а не у нейросетей.



