ИИ в медицине: число инцидентов с умными устройствами растёт

170515
2 минуты
10 февраля. /MEDIA TALK/. Стремительное внедрение искусственного интеллекта в медтехнику сопровождается тревожной статистикой: с 2021 года зафиксировано множество случаев травм пациентов из-за сбоев в работе ИИ-систем.

По данным агентства Reuters, на сегодняшний день FDA (Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США) одобрило 1 357 медицинских устройств с ИИ — это вдвое больше, чем до 2022 года. Технологии применяются в навигационных системах для операций, кардиомониторах, УЗИ-аппаратах и инструментах диагностики.

Наиболее резонансные инциденты связаны с системой TruDi (разработка Acclarent, принадлежит компании Integra LifeSciences): после интеграции ИИ в 2021 году поступило свыше 100 сообщений о сбоях и зафиксировано минимум 10 травм пациентов (повреждения сонной артерии, утечка спинномозговой жидкости и др.). Два пациента подали иски, обвинив ИИ в ошибках хирургов.

ИИ в медицине: число инцидентов с умными устройствами растёт
Фото: ru.freepik.com

Есть и другие примеры: система Sonio Detect (Samsung Medison) ошибочно идентифицировала части тела плода на УЗИ, а кардиомониторы Medtronic LINQ пропустили аномальные ритмы сердца, причём компания связала это с «ошибками пользователей».

При этом FDA сталкивается с серьёзными вызовами: отчёты о сбоях часто неполны или отредактированы для защиты коммерческой тайны. Большинство ИИ-устройств, по данным Управления, выходит на рынок без клинических испытаний на пациентах — достаточно ссылки на ранее одобренные аналоги.

Эксперты предупреждают о рисках, связанных с «галлюцинациями» алгоритмов (генерацией ложной информации), падением точности со временем и ошибками в интерпретации данных. Производители отрицают прямую связь травм с ИИ, ссылаясь на ошибки операторов и отсутствие доказательств, хотя некоторые признают ограничения технологий — например, Medtronic указывает на возможную некорректную классификацию сердечных ритмов.

Специалисты, такие как доктор Александр Эверхарт (Вашингтонский университет), настаивают, что традиционные методы регулирования FDA не успевают за развитием ИИ, а нехватка ресурсов у регуляторов повышает риск недооценки угроз. Эксперты подчёркивают, что несмотря на огромный потенциал ИИ в диагностике и лечении, его интеграция в медицину требует ужесточения контроля и пересмотра подходов к сертификации.

Ранее мы сообщали, что компания Anthropic представила свою новейшую ИИ-модель — Claude Opus 4.6, которая по оценке экспертов претендует на лидирующие позиции среди ИИ-агентов, предназначенных для финансовых аналитиков.
Наш канал в Дзен, подписывайся! Читай и подписывайся на наш канал в Дзен

Читайте также

Разработано в АЛЬФА Системс