Google Project Nightingale: секретный ИИ, который совершает смертельные ошибки
Ваши подробные медицинские записи — каждый результат лабораторных исследований, диагноз и рецепт — уже могут обучать ИИ Google без вашего согласия. ** Проект Найтингейл**, сотрудничество Google с системой здравоохранения Ascension, незаметно собрал миллионы файлов пациентов, содержащих имена, даты рождения, результаты тестов и истории лечения.
Пациенты, использующие сеть больниц и клиник Ascension в 21 штате, понятия не имели, что их интимные медицинские данные отправляются на серверы Google. Никаких уведомлений об отказе. Никаких форм согласия. Просто соглашение о бизнес-ассоциации HIPAA, которое юридически охватывает передачу данных, сохраняя вас полностью в неведении.
«Инструментальная» классификация уклоняется от требований безопасности FDA
- ИИ Google избегает строгого одобрения медицинского устройства с помощью умного маневрирования в области регулирования.
Google классифицирует этот ИИ как «инструмент», а не медицинское устройство, что звучит безобидно, пока вы не поймете, что это означает: нулевой надзор FDA за программным обеспечением, которое влияет на вашу медицинскую помощь.
Медицинские приборы должны доказать безопасность и эффективность в ходе обширных клинических испытаний. Инструменты просто должны работать достаточно хорошо, чтобы не сломаться.
Эта нормативная ловкость рук означает, что ИИ, делающий предложения о вашем лечении рака или взаимодействии с наркотиками, сталкивается с меньшим вниманием, чем манжета для кровяного давления в офисе вашего врача. Это похоже на размещение программного обеспечения для беспилотных автомобилей на дорогах общего пользования без краш-тестирования — за исключением аварий, происходящих внутри вашего тела.
Системы медицинского ИИ демонстрируют закономерности ошибок
Хотя конкретные показатели ошибок проекта Nightingale остаются нераскрытыми, медицинский ИИ обычно борется с точностью.
Системы искусственного интеллекта в отрасли здравоохранения выявляют серьезные проблемы с точностью, которые вызывают вопросы о нерегулируемом развертывании. Академические исследования документируют частые проблемы неправильной идентификации в диагностическом ИИ, в том числе:
Ошибки обнаружения опухолей
Проблемные предупреждения о взаимодействии с наркотиками
Это не незначительные сбои в ваших рекомендациях Spotify. Медицинские ошибки ИИ могут вызвать ненужную химиотерапию, отсрочить критические методы лечения или заставить врачей игнорировать подлинные угрозы. Ваше здоровье становится испытательным полигоном для алгоритмов, которые изучали медицину из моделей данных, а не из медицинской школы.
Обещание искусственного интеллекта, основанного на чипах, звучит убедительно, пока вы не поймете, что вы невольный субъект тестирования для экспериментальной технологии, работающей без надлежащих гарантий.
От самых крутых автомобилей до гаджетов, которые должны быть у вас, ежедневная рассылка GadgetReview держит вас в курсе.Подпишитесь — это весело, быстро и бесплатно.
