В последнее десятилетие применение глубоких нейронных сетей для решения давних проблем привело к прорыву в производительности и предсказательной способности. Однако высокая точность, обусловленная повышенной сложностью модели, часто достигается за счет потери интерпретируемости, то есть многие из этих моделей ведут себя как черные ящики и не могут предоставить объяснения своих прогнозов. Хотя в определенных областях применения эта проблема может играть второстепенную роль, в областях повышенного риска, например, в сфере здравоохранения, крайне важно укрепить доверие к модели и уметь понимать ее поведение.

[Статья по теме: Взломать ящик: интерпретация моделей машинного обучения черного ящика]

Что такое интерпретируемость?

Определение глагола интерпретировать - объяснить или сообщить значение: присутствует в понятных терминах (Merriam-Webster 2019). Несмотря на кажущуюся простоту этого утверждения, исследовательское сообщество машинного обучения изо всех сил пытается прийти к согласию в отношении формального определения концепции интерпретируемости / объяснимости. В последние годы, несмотря на отсутствие формализма, было предложено множество методологий, основанных на различных интерпретациях (каламбур) приведенного выше определения. Несмотря на то, что распространение этого множества разрозненных алгоритмов поставило проблемы при их строгом сравнении, тем не менее, интересно и полезно применять эти методы для анализа поведения моделей глубокого обучения.

О чем этот урок?

В этом руководстве основное внимание уделяется демонстрации некоторых недавних достижений в области интерпретируемого глубокого обучения. Мы покажем общие методы, которые можно использовать для объяснения прогнозов на предварительно обученных моделях и которые могут быть использованы, чтобы пролить свет на их внутренние механизмы. Учебное пособие призвано найти правильный баланс между теоретическими материалами и практическими упражнениями. Сессия была разработана, чтобы предоставить участникам не только теорию интерпретируемости глубокого обучения, но и предложить набор фреймворков и инструментов, которые они могут легко повторно использовать в своих собственных проектах.

Изображение: основа для объяснимости

Группа когнитивного здравоохранения и наук о жизни в IBM Research Zürich создала в открытом доступе набор инструментов Python, описание, с целью предоставить основу для упрощения применения методов объяснимости к пользовательским моделям, особенно для менее опытных пользователей. Модуль предоставляет оболочки для множества алгоритмов и постоянно обновляется, включая новейшие алгоритмы от AIX360. Основная концепция изображения заключается в том, чтобы позволить пользователям беспрепятственно запускать современные методы интерпретируемости с минимальными требованиями к навыкам программирования. Ниже приведен пример того, как изображение можно использовать для анализа предварительно обученной модели.

Простой пример

Предположим, у вас есть модная модель классификации табличных данных, предварительно обученная в Keras и доступная по общедоступному URL-адресу. Объяснить его прогнозы с помощью изображения легко, достаточно реализовать легкую оболочку depiction.model.core.Model, где его метод прогнозирования перегружен.

После того, как FancyModel реализован, использовать любой из доступных в библиотеке depiction.interpreters так же просто, как набрать:

Сгенерированные объяснения зависят от конкретного используемого интерпретатора. Например, в случае объяснений, созданных с помощью LIME (Ribeiro et al.), При использовании записной книжки Jupyter можно просто запустить:

и напрямую получить объяснение для конкретной модели:

Хотите узнать больше?

[Статья по теме: Не всегда черный ящик: подходы к машинному обучению для объяснения модели]

Если вы нашли это сообщение в блоге интересным и хотите узнать больше об интерпретируемости и изображении, приходите и присоединяйтесь к нам на уроке « Открытие черного ящика - интерпретируемость в глубоком обучении » на ODSC Europe 2019 20 ноября в Лондоне.

Оригинальный пост здесь.

Прочтите больше статей по науке о данных на OpenDataScience.com, включая учебные пособия и руководства от новичка до продвинутого уровня! Подпишитесь на нашу еженедельную рассылку здесь и получайте последние новости каждый четверг.