Публикации по теме 'interpretable-ml'


Методы объяснимого искусственного интеллекта (XAI). Часть 4. Важность функции перестановки
Учебник по важности функции перестановки Обзор предыдущих сообщений Объяснимое машинное обучение (XAI) относится к усилиям, направленным на то, чтобы программы искусственного интеллекта были прозрачными в своих целях и в том, как они работают. [1] Это четвертый пост из серии XAI, который я планирую…

Демистификация черного ящика: интерпретируемое машинное обучение
«Интерпретируемое машинное обучение: понимание процесса принятия решений ИИ». Введение От здравоохранения до финансов машинное обучение (МО) добилось значительных успехов, которые полностью изменили то, как мы прогнозируем будущее и принимаем решения. Но понимание того, как модели МО приходят к своим выводам, является одним из самых сложных аспектов их использования. Может быть трудно понять, как продвинутые модели принимают решения, потому что многие из них рассматриваются как «черные..

Анализ записей о поездках желтого такси Нью-Йорка с помощью InterpretML
Регрессионный анализ и контрфактические объяснения InterpretML — это интерпретируемая библиотека машинного обучения , разработанная Microsoft с целью сделать модели машинного обучения более понятными и открытыми для интерпретации человеком. Это имеет особое значение при передаче результатов заинтересованным сторонам бизнеса, которые во многих случаях не являются техническими специалистами и стремятся понять последствия для бизнеса результатов, полученных с помощью модели машинного..

Смерть от круглых чисел и острых порогов
Бен Ленгерих Какие госпитализированные пациенты чаще всего умирают? В нашей новой статье мы показываем, что пациенты с самым высоким риском смерти часто являются не самыми нездоровыми пациентами в целом , а скорее самыми нездоровыми из пациентов, которые не проявляют агрессии. лечение . Например, креатинин сыворотки является индикатором дисфункции почек. Таким образом, мы ожидаем, что риск смертности будет увеличиваться с повышением уровня креатинина в сыворотке (внизу слева)...

Определение интерпретируемых функций
Определение интерпретируемых функций Краткое изложение результатов и разработанной таксономии, разработанной исследователями Массачусетского технологического института. В феврале 2022 года исследователи из группы Data to AI (DAI) Массачусетского технологического института опубликовали статью под названием Необходимость интерпретируемых признаков: мотивация и таксономия [1]. В этом посте я стремлюсь обобщить некоторые из основных моментов и вклада этих авторов, а также обсудить..

Интерпретируемое машинное обучение — Краткий обзор
Всем привет, это моя первая история на Medium. Так что простите меня, если я делаю некоторые незначительные ошибки. Сегодня я расскажу о новой исследовательской работе « Интерпретируемое машинное обучение — краткая история, современное состояние и проблемы ». На недавних конференциях доминировали доклады по IML (интерпретируемое машинное обучение), но эта область имеет 200-летнюю историю. Самой большой проблемой является отсутствие строгого определения интерпретируемости, принятого..