Автор Херш Сагрейя, доктор медицины

Искусственному интеллекту (ИИ) в последние несколько лет уделяется много внимания в медицине, особенно в радиологии. Уже широко используемые в таких технологиях, как распознавание лиц и автомобили без водителя, начинают реализовываться его потенциальные применения в области медицины. Например, ИИ можно использовать для быстрой диагностики таких опасных для жизни состояний, как инсульт, для которого важна каждая минута. Это также может служить защитой от врачебных ошибок. Согласно статье, опубликованной в BMJ группой исследователей из Johns Hopkins, более 250 000 смертей в год в Соединенных Штатах происходят из-за медицинских ошибок, что делает их третьей по значимости причиной смерти. позади сердечных заболеваний и рака. ИИ может находить в данных закономерности, которые невозможно обнаружить людям, что потенциально может привести к новым или инновационным методам лечения, которые могут быть нацелены на конкретного пациента. Приложения искусственного интеллекта также могут вскоре найти свой путь в клинику, поскольку FDA недавно разрешило маркетинг устройства, которое автоматически обнаруживает диабетическую ретинопатию.

Однако, несмотря на обещание искусственного интеллекта, существует ряд проблем, которые могут помешать этой технологии раскрыть свой истинный потенциал.

Вот лишь некоторые из них:

1. Машина неумолимой шумихи

Цикл ажиотажа Gartner часто используется для описания ожиданий в отношении новых технологий. После первоначального нововведения наступает ранний пик завышенных ожиданий, за которым следует впадина разочарования, когда первоначальные обещания не выполняются быстро, и многие остаются разочарованными. За этим следует более медленный Склон Просвещения, во время которого достигается реальный прогресс, с последним Плато производительности, представляющим широкое распространение технологии. Пузырь доткомов конца 1990-х годов - классический тому пример. В конечном счете, однако, медицина ограничена рамками человеческой физиологии, которая совершенно не приемлет ажиотаж. Если будут установлены нереалистичные ожидания, то в конечном итоге последует неизбежное разочарование, даже если фундаментальная технология надежна.

2. Страх, что искусственный интеллект заменит врачей

Большинство приложений искусственного интеллекта в настоящее время подпадают под категорию узкого ИИ или ИИ, подходящего для конкретной задачи. Однако клиническая практика медицины включает синтез разрозненных источников данных, от результатов лабораторных исследований до сведений о пациентах и ​​их семье, а эту задачу нелегко решить полностью автоматизировать. Кроме того, эти алгоритмы не могут обнаружить ничего, что они не были должным образом обучены видеть. Более того, когда эти алгоритмы терпят неудачу, это иногда происходит причудливым образом из-за особенностей способа обработки данных, что приводит к ошибкам, очевидным для любого человека-наблюдателя.

Нет причин, по которым люди и приложения ИИ не могут работать вместе, чтобы использовать свои сильные стороны. Конечно, у этого вопроса есть юридический аспект и, в частности, вопрос о том, кто несет ответственность за конечный результат для пациента: компания, разработавшая ИИ, или врач. Наконец, отношения врачей со своими пациентами нельзя просто заменить машиной - большинство людей предпочли бы не узнавать о своем диагнозе рака от Alexa.

3. Алгоритмы искусственного интеллекта, разработанные с минимальными клиническими данными или без них

При разработке алгоритмов искусственного интеллекта для использования в медицине критически важно задавать правильные клинические вопросы. В противном случае они могут точно предсказать что-то, что не имеет клинического значения. Например, «кальцинированная гранулема» может показаться непрофессионалом чем-то пугающим, но это открытие не имеет клинического значения. Кроме того, для правильного обучения алгоритма решающее значение имеет глубокое знание природы набора данных. В противном случае клинически релевантные данные могут не быть включены в эти модели в качестве входных данных, и они не будут соответствовать своему потенциалу. Например, если алгоритм пытается обнаружить гепатоцеллюлярную карциному и не включает несколько фаз контрастирования на КТ или МРТ, он, естественно, будет работать хуже. Тем не менее, я все еще сталкиваюсь со многими командами по анализу данных, которые почти не имеют клинической информации.

4. Сомнительные данные «золотого стандарта» для обучения этих алгоритмов.

Большинство приложений машинного обучения в настоящее время основаны на процессе, известном как «контролируемое обучение». Это требует наличия некоторой «достоверной информации» или «золотого стандарта», которые алгоритм может использовать для обучения. Полезность алгоритма во многом зависит от качества данных золотого стандарта. Тем не менее, они часто бывают самого разного качества. Я видел, как компании устанавливали свой золотой стандарт на основе консенсуса экспертной группы врачей, и я также видел, что это была интерпретация единственного резидента-первокурсника. Существует большая разница в качестве данных из обоих источников, и первый значительно дороже, чем второй. В конечном итоге стоимость получения высококачественных данных золотого стандарта является серьезным препятствием для разработки этих алгоритмов, поскольку аннотации врача очень дороги.

В конечном итоге ИИ может оказать глубокое влияние на медицинскую практику, но необходимо принять достаточные меры предосторожности, чтобы эти алгоритмы разрабатывались с учетом правильных клинических вопросов и с реалистичными ожиданиями их успеха.

Херш Сагрейя, доктор медицины, научный сотрудник Национального института рака Медицинской школы Стэнфордского университета. Его исследования посвящены применению машинного обучения к медицинским изображениям. Он является научным сотрудником Doximity в 2017–2018 годах.