Недавний инцидент в Вашингтонском университете привлёк значительное внимание общественности и медицинского сообщества, поскольку стал ярким примером возможных рисков, связанных с использованием искусственного интеллекта в сфере здравоохранения. В центре этого случая оказался мужчина, который по незнанию и под влиянием рекомендаций ChatGPT принял бромид натрия в течение трёх месяцев, что привело к тяжёлым последствиям для его здоровья, в частности, развитию психоза и симптомов бромизма.
История началась с простого желания снизить потребление соли, что мотивировало пациента обратиться к AI-системе. В ответ он получил совет заменить поваренную соль (хлорид натрия) на бромид натрия, который ранее использовался в медицине, но был исключён из обращения из-за высокой токсичности и риска отравления. Не подозревая о коварных последствиях, мужчина начал регулярно принимать бромид натрия, приобретая его через интернет, что стало фатальной ошибкой.
Через три месяца у пациента развились острые психотические симптомы — галлюцинации и паранойя. В тяжелом состоянии его госпитализировали в отделение неврологии и психиатрии. Врачи немедленно приступили к лечению: он получил внутривенные вливания и антипсихотики, а также провели детальное обследование. Специалисты быстро заподозрили бромизм — редкое, но опасное состояние, вызванное чрезмерным потреблением бромида. Исторически бромиды использовались в медицине для седативных целей, но с развитием фармацевтики и пониманием их токсичного потенциала их использование было сведен к минимуму и полностью исключено.
После курса лечения и строгого мониторинга состояние пациента стабилизировалось, и через три недели его выписали. Этот случай стал первым подтвержденным случаем, когда рекомендация искусственного интеллекта стала причиной подобного отравления. Он высветил важную проблему — надежность и ответственность за предоставляемую ИИ информацию, особенно в области медицины. Врачи подчеркнули, что аналогичные системы, как ChatGPT, могут распространять некорректные или даже опасные советы, если не учитывать специфику клинических ситуаций и необходимость проверки информации специалистом.
Инцидент вызвал широкий резонанс и стал напоминанием о необходимости критически оценивать советы, полученные через AI, и не полагаться полностью на автоматические рекомендации без консультации квалифицированных специалистов. В случае с вопросами здоровья особенно важно помнить, что любые рекомендации, даже самые простые и казалось бы безобидные, требуют современной экспертизы.
Этот случай также подчеркивает важность повышения информированности о рисках использования непроверенной информации и необходимости строгих правил внедрения новых технологий в медицину. AI-системам нужно развиваться с учетом этических стандартов, а пользователям — быть внимательнее и ответственнее при использовании таких инструментов. В конечном итоге, технологии должны служить человеку, а не разрушать его здоровье.