Глубокое обучение: больше никаких «черных ящиков»

Глубокое обучение очерняется из-за его «черного ящика», а это означает, что нельзя получить простое объяснение модели и ее функций, которое можно получить в машинном обучении или статистических моделях.

PyTorchи Microsoftпоказывают нам путь к распаковке объяснения из Deep Learning и Captumи Interpret-Text — два важных результата в этой работе.

Почему глубокое обучение Blackbox?

В отличие от других методов, глубокое обучение создает свои собственные функции из набора данных. Эти функции можно рассматривать как разные слои нейронов, которые активируются/деактивируются на основе определенных критериев, поэтому трудно расшифровать то, чему научилась модель.

Каптум:

Captum (что на латыни означает «понимание») — это библиотека интерпретации и понимания модели для PyTorch.

Разработчики моделей могут использовать его для улучшения моделей и устранения неполадок, а исследователи машинного обучения могут легко реализовать алгоритмы интерпретируемости, которые могут взаимодействовать с моделями PyTorch. Captum также позволяет исследователям быстро сравнивать свою работу с другими существующими алгоритмами, доступными в библиотеке.

Captum является мультимодальным и поддерживает различные типы данных, включая текст(NLP), изображения(Компьютерное зрение) и многое другое. Он поддерживает BERT (NLP), CIFAR и RESNET (Computer Vision) и другие модели.

Проверьте здесь Учебники и Часто задаваемые вопросы», а также GITHUB

Примечание. В настоящее время он находится в стадии бета-тестирования и активной разработки!

Интерпретировать-текст:

Interpret-Text (от Microsoft) включает разработанные сообществом методы интерпретации для моделей НЛП и панель визуализации для просмотра результатов.

Это помогает специалистам по обработке и анализу данных интерпретировать свою модель и использовать визуализацию панели инструментов для интерпретаций, а не создавать их самостоятельно. Руководители бизнеса (или заинтересованные стороны/пользователи) также могут использовать его для проверки прогнозов модели на предмет возможной несправедливости.

Interpret-Text не является мультимодальным и в основном поддерживает модели, основанные на NLP (например, BERT/RNN), но имеет более интуитивный интерфейс визуализации.

Проверьте здесь GITHUB

Дополнительно:

Соучредитель Pytorch также намекнул, что достижения в интерпретации модели глубокого обучения могут стать следующим прорывом после BERT (2017) и CONVNET (2012), и обещает захватывающие времена для глубокого обучения.

Подробнее см. этот url.