60-летний житель Нью-Йорка, Джон Смит, был помещён в психиатрическую клинику на принудительное лечение после того, как три месяца заменял поваренную соль бромидом натрия, следуя рекомендации чат-бота ChatGPT. Инцидент, произошедший в июле 2025 года, привёл к серьёзному отравлению, вызвавшему судороги, спутанность сознания и проблемы с сердцем.
Смит обратился к ChatGPT с вопросом о «здоровой альтернативе соли». Бот ошибочно предложил бромид натрия, химическое соединение, используемое в медицине и промышленности, но токсичное при регулярном употреблении. Мужчина, не проверяя информацию, начал добавлять вещество в пищу, что привело к накоплению токсинов в организме. Родственники заметили ухудшение его состояния и вызвали скорую.
Врачи диагностировали острое отравление и направили Смита на лечение, а суд, учитывая его зависимость от советов ИИ, назначил психиатрическую экспертизу. Случай вызвал дискуссии о безопасности ИИ и необходимости проверки рекомендаций чат-ботов. Компания OpenAI, разработчик ChatGPT, заявила, что проводит расследование инцидента и обновляет алгоритмы для предотвращения подобных ошибок.
Этот случай стал первым в США, когда неправильный совет ИИ привёл к госпитализации. Эксперты призывают пользователей критически оценивать рекомендации чат-ботов, особенно в вопросах здоровья.