В этот зарождающийся период ИИ со скоростью света становится важной частью наших социальных норм. И подход ИИ, основанный на данных, меняет все аспекты принятия решений. Тем не менее, сбой все еще ограничивается неспособностью машины объяснять свои решения и результаты пользователям.

Искусственный интеллект, благодаря своим трансформационным возможностям, делает объяснимость все более важной. В этом контексте решающее значение имеет укрепление доверия, ясности и понимания ИИ. Итак, объяснение логики принятия решений системой требует, а не черного ящика машинного обучения.

В этой статье я рассмотрю:

1. Зачем нужен Объясняемый ИИ (XAI)

2. Что такое объяснимый ИИ (XAI?)

3. Какие проблемы?

4. Каковы возможные обходные пути?

Почему объяснимый ИИ (XAI)

От персональной помощи до автономного вождения - технология пытается имитировать человеческое мышление для решения сложных задач. В настоящее время к тому, что раньше делало человеческое мышление и рассуждение, все чаще прибегают к ИИ или с его помощью.

Но главный недостаток растущей сложности ИИ - это объяснимость. Потому что, когда решение принимает непосредственно человек, ясно, кто несет ответственность за объяснение, почему он принял это решение. В случае с системой ИИ ответственность за решение может быть менее ясной. Поскольку решение ИИ может быть основано на прогнозе, рекомендации или классификации.

Даже если мы понимаем математически определенные цели ИИ, часто невозможно понять внутреннюю работу моделей. Кроме того, система искусственного интеллекта не может пролить свет на обоснование прогнозов из-за невозможности интерпретации - природы черного ящика.

Таким образом, стало жизненно важным понять механизм принятия решений с функцией исчерпывающего объяснения. Особенно при рассмотрении решения о машине в контексте финансовых, безопасных или личных разветвлений человека.

Например, пешеход был сбит и убит беспилотным автомобилем, которым управляет Uber, в Темпе, штат Аризона, в 2018 году. Рассмотрение этого случая требует глубокого понимания логики принятия решений в системе, необходимой для обеспечения подотчетности и надежности. Потому что трудно слепо согласиться с решением системы в такой серьезной этической ситуации.

Итак, чтобы преодолеть это, требовалось этическое, ориентированное на человека объяснение.

Это означает, что ИИ должен предоставлять не только решение, но и подробное «объяснение» решений ИИ в понятной человеку форме. Такие объяснения должны дать представление о том, как машина принимает решения, чтобы сделать вывод. Для этого нам нужны явные инструменты моделирования и рассуждений, которые понимают процесс принятия решений ИИ. Вот где появляется объяснимый ИИ (XAI).

Что такое объяснимый ИИ (XAI?)

Объяснимый ИИ (XAI) способствует полной прозрачности и интерпретируемости революции в области ИИ. Объясняемый ИИ (XAI) относится к методам и методам применения технологии искусственного интеллекта (ИИ), которые позволяют понять результаты решения специалистам-людям. (Википедия)

Короче говоря, объяснимый ИИ - это система ИИ, которая запрограммирована так, чтобы давать правильное объяснение того, как и почему был достигнут результат.

Проще говоря, Explainable AI (XAI) - это система AI, которая на простом, человеческом языке объясняет, как работает логическое обоснование принятия решений. Когда данные говорят на человеческом языке, пользователи могут легко добавить любую недостающую информацию (не фиксируемую данными) или изменить модель в соответствии с любыми условными изменениями в работе.

Для конечных пользователей XAI объяснит, как были приняты решения, и тем самым поможет провести аудит систем на предмет любых несоответствий или предвзятости для их устранения. XAI - это основанный на правилах подход раннего ИИ в отличие от концепции «черного ящика» в машинном обучении. Это контекстная объяснительная модель с подходом «стеклянного ящика» для решения реальных проблем. И он пытается ответить на вопросы прозрачности в обосновании принятия решений в системе.

Платформы XAI с открытым исходным кодом:

· Справедливость IBM 360

· Пакеты интерпретируемости Microsoft

· Инструмент Google« Что, если »

· H2O-платформа H2O.ai

· Дистилль

· Конькобежец оракула

Какие проблемы?

Объяснимость - тема логически увлекательная и социально значимая. А XAI - это невероятно мощный инструмент для описания, который может обеспечить понимание, выходящее далеко за рамки того, что было возможно с помощью традиционных линейных моделей.

Проблемы XAI включают:

1. Конфиденциальность:

Иногда алгоритм является конфиденциальным, или коммерческой тайной, или его раскрытие было бы угрозой безопасности. Как сделать так, чтобы система искусственного интеллекта не усвоила предвзятую точку зрения на мир (или, может быть, непредвзятую точку зрения на предвзятый мир), основанную на недостатках обучающей информации, модели или целевой функции? Представьте себе сценарий, в котором его создатели-люди сознательно или неосознанно предвзято относятся?

2. Сложность:

Иногда алгоритмы хорошо понятны, но очень сложны. Таким образом, четкое понимание непрофессионала абсурдно, и именно в этой области подходы XAI могут быть полезны. Потому что у XAI есть возможность создавать альтернативные алгоритмы, которые проще объяснить.

3. необоснованность:

Алгоритмы, использующие обычные законные данные для принятия решений, которые не являются разумными, необъективными или несоответствующими. Как подтвердить справедливость принятых решений, если они основаны на системе искусственного интеллекта? Разумность логична и имеет альтернативную точку зрения, зависящую от конкретной информации, вводимой в алгоритмы ИИ.

4. Несправедливость:

Мы можем понять, как работает алгоритм; но нам нужно разъяснение того, как система согласуется с юридическим или моральным кодексом.

Каковы возможные обходные пути?

XAI предлагает два подхода к содержательному объяснению.

  • Подходы, не зависящие от модели

Обычно применяется ко всем классам алгоритмов или методов обучения. При таком подходе внутреннее устройство модели рассматривается как неизвестный черный ящик.

  • Подходы к конкретной модели

Используется только для определенных техник или узких классов техник. При таком подходе внутренняя работа модели рассматривается как белый ящик.

При рассмотрении модели локальные интерпретации сосредотачиваются на конкретных точках данных, в то время как глобальные интерпретации сосредоточены на более общих закономерностях по всем точкам данных.

Итог

Итак, теперь мы рассмотрели основы XAI и почему именно XAI. Большинство новых работ и исследований по этим методам поступают из академического сектора. Тем временем специалисты по обработке данных во всем мире исследуют проблемы, связанные с XAI, и используют возможные обходные пути. Что будет дальше с XAI, еще неизвестно.

Источники статей

Липтон, З. К. (2016). Мифы интерпретируемости моделей. Препринт arXiv arXiv: 1606.03490.

Https://www.darpa.mil/program/explainable-artificial-intelligence

Https://blogs.gartner.com/carlie-idoine/2018/05/13/citizen-data-scientists-and-why-they-matter/

📝 Прочтите этот рассказ позже в Журнале.

👩‍💻 Просыпайтесь каждое воскресное утро и слышите самые интересные истории недели в области технологий, ожидающие в вашем почтовом ящике. Прочтите информационный бюллетень« Примечательно в технологиях .