Публикации по теме 'xai'


Объяснимый ИИ: как по-настоящему понять машинное обучение
Объяснимый ИИ — как по-настоящему понять решения машинного обучения. Вопрос в том, повторяется ли история? На протяжении всей своей карьеры я получал представление о сложных операциях бизнеса, изучая, как принимаются решения, и понимая системы рабочих процессов, которые ими управляют. Часто эти рабочие процессы очень сложны и создаются несколькими технически подкованными коллегами, не работающими на переднем крае бизнеса. Со временем знания о том, как работают эти рабочие процессы,..

Представляем API XaiPient для объяснений моделей
В XaiPient мы разрабатываем различные инструменты для извлечения удобных для человека идей из обученных моделей машинного обучения. Сегодня мы рады представить некоторые из наших инструментов объяснения моделей через REST API, которые мы делаем доступными в частной бета-версии . Чтобы упростить работу с этим API, мы выпускаем Клиент API XaiPient ( xac ), который представляет собой (устанавливаемый с помощью pip) интерфейс командной строки (CLI) на основе Python и библиотеку Python для..

Ответственное машинное обучение для анализа выживания
Краткое введение в анализ выживания и использование моделей машинного обучения в этой области Вы можете пропустить первые два раздела, если знаете, что такое анализ выживаемости. В противном случае прочтите эту статью, чтобы получить представление об этом виде анализа. Что такое анализ выживаемости? Начнем с определения типа задачи. Анализ выживания используется для прогнозирования времени до наступления определенного события для выбранного индивидуума в рассматриваемой..

Использование SHAP для пояснения — Сначала разберитесь с этими ограничениями!!
Объяснимость сделана правильно Я полностью наслаждался пребыванием в должности со степенью MBA; Я любил каждый предмет до глубины души и смог соединить точки вокруг того, как знание каждого предмета поможет мне стать лучшим менеджером с сильным целостным видением. Однако был один предмет, по которому я так и не удосужился войти в класс — это деловая этика. Я был твердо убежден, что этике нельзя научить. У каждого человека она разная, что зависит от его системы ценностей. Для меня,..

Методы объяснимого искусственного интеллекта (XAI). Часть 5. Глобальные суррогатные модели
Если алгоритм, который вы используете, представляет собой модель черного ящика, почему бы не использовать интерпретируемую модель, которая имитирует поведение оригинала? Обзор предыдущих сообщений Объяснимое машинное обучение (XAI) относится к усилиям, направленным на то, чтобы программы искусственного интеллекта были прозрачными в своих целях и в том, как они работают. [1] Это 5-й пост среди серии XAI, который я планирую написать. До сих пор я представил вам четыре методологии XAI..

Как сделать ИИ объяснимым в дизайне
Как сделать ИИ объяснимым в дизайне Объяснимый искусственный интеллект, который до недавнего времени был предметом исследований, стал мейнстримом . Недавние исследования позволили получить представление о поведении моделей искусственного интеллекта, которые по своей сути являются черными ящиками, которые могут устранить существенные бизнес-риски, связанные с предвзятостью, соблюдением требований и непрозрачными результатами. Однако многие платформы и решения предоставляют эти..

Распаковка черного ящика с помощью LIME
Понимание внутреннего устройства LIME с использованием данных COVID-19 Объясняемый ИИ (XAI) По мере увеличения сложности модели ее точность увеличивается, но ее интерпретируемость снижается. Большинство сложных математических моделей машинного обучения нелегко интерпретировать и работают как черные ящики, где трудно объяснить причину определенных прогнозов. Объяснимый ИИ (XAI) относится к методам и методам, которые помогают понять и интерпретировать прогнозы, сделанные с помощью..