Интерпретируемая модель гораздо полезнее в качестве второй пары глаз.

Алгоритмы диагностического машинного обучения уже превосходят врачей по целому ряду специальностей, среди которых офтальмология, радиология и дерматология. Мы видели, что эти алгоритмы превосходят людей по способности классифицировать изображения глазного дна сетчатки, рентгеновские снимки грудной клетки и меланомы. Так почему же мы редко видим врачей, использующих эти модели в повседневной медицинской практике?

Часто недостает интерпретируемости или способности модели объяснить, почему она дала результат. Модели черного ящика, или модели, которые просто обеспечивают предсказание без объяснения причин, вероятно, столкнутся с проблемами в построении доверия пользователей, даже если будет продемонстрировано, что их эффективность превосходит человеческие. Людям трудно доверять тому, чего они не понимают, и это справедливо в отношении машинного обучения, учитывая, что модели часто не учатся тому, что задумывали их разработчики. Это особенно важно в медицине, где ставки намного выше и жизни буквально на кону. Мы можем и дальше наблюдать прорывы в точности медицинского машинного обучения, но если клинические решения и диагнозы на основе этих моделей нельзя будет интерпретировать, скорее всего, они будут продолжать собирать пыль.

Почему интерпретируемые модели лучше?

С точки зрения клиницистов и пациентов, результаты модели не очень значимы и не подлежат подотчетности, если их нельзя объяснить. Алгоритм, который классифицирует пневмонию, но не может сказать, почему у пациента поставлен этот диагноз, вряд ли заслужит доверие и будет оценен с меньшей вероятностью, чем модель, которая может поделиться некоторыми взглядами на его «рассуждения».

Интерпретируемая модель гораздо полезнее в качестве второй пары глаз. Представьте, что вы радиолог и видите, что модель машинного обучения предсказала, что у пациента пневмония. Глядя на рентгеновский снимок, вы можете заметить отек в нижней части правого легкого, что позволяет заподозрить пневмонию. У вас было бы гораздо больше шансов доверять модели, если бы вы могли видеть, что она фокусируется на одних и тех же областях изображения, что указывает на то, что ее «мыслительный процесс», вероятно, совпадает с вашим собственным. Если вы не согласны с выводом модели, вы все равно можете извлечь значение из ее интерпретации, даже если в конечном итоге вы проигнорируете вывод.

Больше и больше, интерпретируемость становится очевидным как недостающий строительный блок для достижений в области ИИ в области здравоохранения. Для решений с высокими ставками, таких как прогнозирование наличия у пациента заболевания или продолжительности его жизни, интерпретируемость критически важна для оценки точности модели и создания доверия пользователей. Помимо этого, медицина - это консервативная область: врачи вряд ли будут приветствовать вторжение в их практику технологий, которых они не понимают.

Какое решение?

Если интерпретируемость так важна для применения моделей машинного обучения в реальном мире, почему интерпретируемые модели не являются нормой? Интерпретируемость - это растущая область исследований, но не все архитектуры машинного обучения хорошо поддаются интерпретации, а интерпретируемость может достигаться за счет производительности.

Раньше трудно было реализовать интерпретируемость, но новые инструменты и библиотеки делают это намного проще. Gradio - это библиотека Python, которая автоматически генерирует независимую от модели интерпретацию для любого ввода, а также интерфейс, который можно быстро передать экспертам в предметной области для оценки точности модели. Используя Gradio, модель пневмонии можно было бы заранее отправить радиологам, чтобы оценить, насколько хорошо модель улавливает те же патологические паттерны, которые ценят люди-врачи.

Инструмент также снижает технический барьер для интерпретации моделей машинного обучения, позволяя пользователям написать свою собственную функцию интерпретируемости или просто использовать встроенную модель интерпретации для быстрого анализа.

Исследователям машинного обучения требуется интерпретируемость, чтобы раскрыть потенциал своих алгоритмов в медицине. Чтобы узнать, как реализовать интерпретируемость для ваших моделей машинного обучения, ознакомьтесь с дополнительными примерами здесь.

использованная литература

[1] Гульшан В., Пэн Л. и др. Разработка и проверка алгоритма глубокого обучения для обнаружения диабетической ретинопатии на фотографиях глазного дна сетчатки. (2016) Журнал Американской медицинской ассоциации

[2] Раджпуркар, П., О'Коннелл, К., Шехтер, А. и др. CheXaid: помощь в глубоком обучении для диагностики туберкулеза врачом с помощью рентгена грудной клетки у пациентов с ВИЧ. (2020) Природа Цифровая медицина

[3] Лю Ю., Джайн А., Энг К. и др. Система глубокого обучения для дифференциальной диагностики кожных заболеваний. (2020) Природная медицина