Публикации по теме 'xai'


Насколько предвзятой может быть ваша модель машинного обучения?
" Модель машинного обучения так же хороша, как и данные, используемые для обучения модели " На принятие решений человеком все больше влияют модели машинного обучения (ML). Например, следующий сериал, который мы хотим посмотреть на Netflix, или следующее видео, которое мы хотим воспроизвести на YouTube, или путь, который нам нужно пройти, на картах Google. На все эти решения влияет множество моделей машинного обучения, которые вместе составляют систему искусственного интеллекта..

Этический ИИ
Сейчас многие люди знают об искусственном интеллекте, машинном обучении и глубоком обучении. ИИ может быть основан на зрении, тексте или звуке. ИИ может решать различные проблемы: от прогнозирования до автоматизации, диагностического обслуживания и систем технического зрения для автономного вождения и определения качества с использованием ИИ или звука. Также теперь мы знаем, что ИИ нужно много данных. У многих компаний есть данные, но они не уверены, сможем ли мы их использовать...

Объяснимость ИИ: проблемы и возможные обходные пути
В этот зарождающийся период ИИ со скоростью света становится важной частью наших социальных норм. И подход ИИ, основанный на данных, меняет все аспекты принятия решений. Тем не менее, сбой все еще ограничивается неспособностью машины объяснять свои решения и результаты пользователям. Искусственный интеллект, благодаря своим трансформационным возможностям, делает объяснимость все более важной. В этом контексте решающее значение имеет укрепление доверия, ясности и понимания ИИ. Итак,..

Должен ли ИИ объясниться? или мы должны разработать Объясняемый ИИ, чтобы он не
В этой статье я рассмотрю: Что такое Объясняемый ИИ (XAI) и зачем он нам нужен Некоторые точки зрения на то, почему XAI не работает или не нужен. Головоломка производительности и объяснимости. Можем ли мы получить лучшее из обоих миров? TL;DR Эта статья стала длиннее той, что я изначально планировал, поэтому для занятых людей вот ее синопсис. Объяснения поведения ИИ, которые генерируются спонтанно или апостериорно, больше похожи на обоснования и могут не отражать..

7 прогнозов на данные в 2021 году
Включая DataOps, Data Strategy и xAI. Общеизвестно, что люди плохо предсказывают будущее (особенно в долгосрочной перспективе). Однако это все же может быть полезным упражнением. Давайте посмотрим, что, по моему мнению, принесет 2021 год в науку о данных, инженерию и стратегию. Этот список не имеет особого порядка и в основном сосредоточен на моих наблюдениях в Германии: Стабилизация ролей . В последние годы появились новые роли в области данных, такие как инженер по машинному..

Использование контрфактических экземпляров для XAI
Контрфактическое объяснение — это мощный, но простой метод улучшения объяснимости моделей машинного обучения. вступление Самым большим недостатком многих моделей машинного обучения и нейронных сетей является их «черный ящик». Какая функция оказала наибольшее влияние на этот прогнозируемый результат, который мы получили для экземпляра? XAI, что означает «объяснимый искусственный интеллект», — это область исследования, которая пытается решить эту проблему моделей черного ящика. Есть в..

Развитие моделей машинного обучения с помощью объяснимого ИИ (XAI)
Анализ объявлений на Airbnb В типичной модели машинного обучения традиционная корреляция анализа важности функций часто имеет ограниченную ценность. Есть ли в наборе инструментов специалиста по данным надежные, систематические, независимые от моделей методы, которые измеряют влияние характеристик с точностью до прогноза? Ответ положительный. Здесь мы используем модель, построенную на данных Airbnb, чтобы проиллюстрировать: Объяснимые технологии ИИ (XAI) Что может сделать XAI для..