Публикации по теме 'xai'


Объяснимый ИИ: разнообразные контрфактические объяснения (DiCE)
Серия блогов, в каждом из которых представлены практические инструменты для объяснения моделей машинного обучения. Прежде чем мы погрузимся в DiCE , давайте создадим интуитивное понимание того, что такое контрфактуалы. Counterfactuals — один из наиболее широко используемых инструментов в мире объяснимого ИИ или XAI. Контрфактическое объяснение описывает причинно-следственную ситуацию в форме: Если бы X не произошло, Y не произошло бы . Например: Если бы я не сделал глоток этого..

Расширенный обзор «Объяснимого подхода к оптимизации надежности на основе искусственного интеллекта…
Введение В быстро развивающемся ландшафте медицинских технологий интеграция искусственного интеллекта (ИИ) в диагностические процедуры стала центром внимания. В документе под названием «Объяснимый подход к оптимизации надежности на основе искусственного интеллекта для обнаружения возрастной дегенерации желтого пятна на основе медицинских систем IOT» подробно рассматривается эта интеграция, в частности, нацеленная на обнаружение возрастной дегенерации желтого пятна (AMD). Авторы в своих..

Понимание прогнозов сверточных нейронных сетей: карты значимости
Как специалисты по данным, мы часто работаем с моделями глубокого обучения для решения широкого круга проблем. Одной из проблем работы с моделями глубокого обучения является понимание того, как они делают прогнозы. В случае сверточных нейронных сетей (CNN), используемых для задач классификации изображений, часто неясно, как сеть приходит к своим прогнозам. Введение в CNN Давайте кратко рассмотрим, что такое сверточные нейронные сети (CNN) и как они работают. CNN — это модель глубокого..

Методы объяснимого искусственного интеллекта (XAI). Часть 4. Важность функции перестановки
Учебник по важности функции перестановки Обзор предыдущих сообщений Объяснимое машинное обучение (XAI) относится к усилиям, направленным на то, чтобы программы искусственного интеллекта были прозрачными в своих целях и в том, как они работают. [1] Это четвертый пост из серии XAI, который я планирую…

Объяснимый искусственный интеллект
Искусственный интеллект (ИИ) значительно продвинулся за последние годы, поддерживая множество приложений, влияющих на нашу повседневную жизнь, от персональных рекомендаций до автономных транспортных средств. Хотя ИИ доказал свое мастерство в различных областях, растет беспокойство по поводу его природы черного ящика. По мере того как системы ИИ становятся все более сложными, их становится все труднее понять, что приводит к присущей им непрозрачности процессов принятия решений. Эта..

Практическое руководство по применению Grad-CAM для объяснения классификаторов изображений с использованием Keras и…
Узнайте, как применять Grad-CAM с помощью Keras и TensorFlow для объяснения классификаторов изображений на основе глубокого обучения. Алгоритмы классического машинного обучения (ML) неэффективны по сравнению с алгоритмами глубокого обучения (DL) при применении к неструктурированным данным, таким как изображения и текст. Из-за преимущества автоматического извлечения признаков в DL по сравнению с ручным проектированием признаков в классическом ML алгоритмы DL более эффективны с точки..

BASIC XAI с DALEX - Часть 7: Профили Ceteris Paribus
БАЗОВЫЙ XAI BASIC XAI с DALEX - Часть 7: Профили Ceteris Paribus Введение в исследование модели с примерами кода для R и Python. Добро пожаловать в серию «BASIC XAI с DALEX». В этом посте мы представляем профили Ceteris Paribus , независимый от модели метод, который мы можем использовать для любого типа модели. Доступны предыдущие части этой серии: БАЗОВЫЙ XAI с DALEX - Часть 1: Введение . БАЗОВЫЙ XAI с DALEX - Часть 2: Важность переменных на основе перестановок ...