Эта история является частью серии репортажей о Стэнфордской ICME, посвященной зиме 2020 года, посвященной искусству искусственного интеллекта для добра.

Марзие Гассеми на этой неделе поделилась с аудиторией серии семинаров ИИ во благо своей критической и вдумчивой оценкой текущего состояния и будущего потенциала ИИ в здравоохранении. Гассеми — доцент кафедры компьютерных наук и медицины Университета Торонто и преподаватель Института вектора. Ее междисциплинарный опыт способствовал бурному обсуждению состояния ИИ в медицине и различных способов, которыми она и ее сотрудники активно решают проблемы, существующие в этой области.

Как отметил Гассеми, система здравоохранения страдает недостатками как в практике, так и в знаниях. Наша информация о медицинской практике предвзята и непоследовательна. Несмотря на требование этического обучения врачей, предубеждения в системе здравоохранения отражают предубеждения нашего общества. Меньшинства, женщины, лица с низким доходом и представители ЛГБТКИА+ с большей вероятностью получат худшее медицинское обслуживание и с меньшей вероятностью будут представлены в исследованиях, которые информируют и определяют медицинскую практику. Кроме того, пути лечения 24% пациентов с гипертонией полностью отличаются от других пациентов, что указывает на непредсказуемость рекомендаций по лечению с учетом состояния пациента.

Помимо пробелов в медицинской практике, текущий набор медицинских знаний также проблематичен. «Золотой стандарт» медицины, рандомизированные контролируемые испытания (РКИ), хотя и ценятся как беспристрастное отражение медицинской Истины, фактически информируют только о 10–20% методов лечения, и около 10% их результатов впоследствии опровергаются. РКИ также плохо предсказывают наилучший план лечения пациента. Например, только 6% нынешних астматиков могли бы участвовать в РКИ для разработки своего собственного плана лечения. Кроме того, популяция, которая исторически была предназначена для участия в таких испытаниях, грубо искажает популяцию пациентов в целом. "Мы не хотим обобщать то, чему научились у студентов Йельского университета и Массачусетского технологического института",  – отметил Гассеми.

Представляя данные о существующем неравенстве и несправедливости в сфере здравоохранения, Гассеми напомнил аудитории: это все, прежде чеммы применим алгоритм.Машина обучение и использование алгоритмов в целом часто подвергается критике за их склонность к предвзятости — нацеленность или недостаточное обслуживание уязвимых и недостаточно представленных групп населения — поэтому было удивительно слышать, что целая профессия имела эти недостатки до и независимо от использования ими алгоритмов. "Мы хотим убедиться, что мы улучшаем уход, улучшаем практику, а не просто используем существующие в данных расхождения и усугубляем их; автоматизировать их». Гассеми смогла предложить оптимистичную точку зрения на это, поделившись тем, что она искренне верит, что правильно спроектированный ИИ может помочь искоренить эти недостатки.

Однако, учитывая, что и медицинская практика, и знания полны несоответствий, выясняется, что вопрос о том, как мы должны использовать ИИ в здравоохранении, скорее является корректирующим, а скорее с какой информациейможно ли нам построить такой алгоритм? «Я считаю, что нам нужно использовать сложные модели для сложных данных. Мы не должны ограничиваться только одним видом модальности данных», — призвал аудиториюГассеми.

Гассеми провела множество исследований, посвященных ответственному внедрению ИИ в здравоохранение, и представила свои исследования из различных статей в области медицины, исследований машинного обучения и этики. С волнением Гассеми поделился подробностями реализации моделей, используемых для написания специальных заметок о рентгене для рентгенологов или прогнозирования вмешательств и лечения пациентов в отделении интенсивной терапии.

Интересно, что Гассеми высказал необычное мнение в области интерпретируемости/объяснимости в ИИ. Хотя Гассеми поддерживает исследовательскую область и намерения в целом, ее поддержка сопровождалась словами предостережения. Прося сделать модели ИИ более интерпретируемыми, мы просим, ​​чтобы эти модели стали более надежными. Но есть проблема с доверием. Проблема в том, что доверие оказывает реальное влияние, Гассеми отметил, что, когда решения или модели легко объяснимы, люди склонны чрезмерно доверять им. Учитывая, что доверие уже играет огромную роль в системе здравоохранения, крайне важно, чтобы модели, используемые для предложения лечения, прогнозирования вмешательств или оценки состояния пациента, не вызывали чрезмерного доверия. "Мы не хотим выключать тревожные сигналы людей".

Существует явный потенциал того, как ИИ может улучшить текущее состояние здравоохранения. Однако, как напомнил нам Гассеми,мы хотим убедиться, что мы улучшаем здравоохранение длявсехПри продуманном и ответственном применении алгоритмы могут помочь облегчить некоторые величайших бед человечества: предвзятость, небрежность и несправедливость. Учитывая, что FDA уже одобрило использование более 40 алгоритмов для медицинской практики, использование ИИ в здравоохранении и медицине — это не будущее, а реальность. Мы несем ответственность за то, чтобы эти алгоритмы не извлекали уроки из нашего высокомерия и не навязывали его, а вытаскивали нас из него.