1. Алгоритмический толчок для лучшего выбора: оценка эффективности фреймворков XAI для выявления предубеждений в алгоритмическом принятии решений пользователями (arXiv)

Автор:Прерна Джунджа, Танушри Митра

Аннотация. В этом документе с изложением позиции мы предлагаем использовать существующие фреймворки XAI для разработки вмешательств в сценариях, когда алгоритмы предоставляют пользователям проблемный контент (например, видеоролики против вакцин). Наш план вмешательства включает факты (чтобы показать алгоритмическое обоснование того, что произошло), сопровождаемые либо предварительными предупреждениями, либо контрфактуальными объяснениями. В то время как предварительные предупреждения указывают на потенциальные риски действия для пользователей, контрфактические объяснения будут указывать, какие действия пользователь должен выполнить, чтобы изменить алгоритмический результат. Мы предполагаем использование таких вмешательств в качестве «помощи для принятия решений» для пользователей, которые помогут им сделать осознанный выбор.

2.Причинно-следственные связи и XAI (arXiv)

Автор: Сандер Беккерс

Аннотация. Хотя стандартные модели машинного обучения оптимизированы для прогнозирования результатов наблюдений, они все чаще используются для прогнозирования результатов действий. Важная цель объяснимого искусственного интеллекта (XAI) состоит в том, чтобы компенсировать это несоответствие, предлагая объяснения прогнозов модели ML, которые гарантируют, что они надежно направляют действия. Поскольку объяснения, направляющие действия, являются каузальными объяснениями, литература по этой теме начинает охватывать идеи из литературы по каузальным моделям. Здесь я делаю еще один шаг по этому пути, формально определяя каузальные понятия достаточных объяснений и контрфактических объяснений. Я показываю, как эти понятия соотносятся (и улучшают) с существующей работой, и мотивирую их адекватность, иллюстрируя, как разные объяснения направляют действия в разных обстоятельствах. Более того, эта работа впервые предлагает формальное определение фактической причинности, полностью основанное на объяснениях, направляющих действие. Хотя определения мотивированы акцентом на XAI, анализ причинно-следственной связи и фактической причинно-следственной связи применим в целом. Я также коснусь значения этой работы для справедливости в ИИ, показав, как фактическая причинность может быть использована для улучшения идеи контрфактической справедливости, специфичной для конкретного пути.

3. Использование метода XAI для улучшения модели на основе автоэнкодера для обнаружения аномалий компьютерной сети с аддитивным объяснением Шепли (SHAP) (arXiv)

Автор:Хушнасиб Рошан, Аасим Зафар

Аннотация . Методы машинного обучения (ML) и глубокого обучения (DL) быстро внедряются, особенно в области безопасности компьютерных сетей, таких как обнаружение мошенничества, обнаружение сетевых аномалий, обнаружение вторжений и многое другое. Однако отсутствие прозрачности моделей на основе ML и DL является серьезным препятствием для их реализации и подвергается критике из-за своего черного ящика, даже с такими потрясающими результатами. Объяснимый искусственный интеллект (XAI) — многообещающая область, которая может повысить надежность этих моделей, давая объяснения и интерпретируя их результаты. Если внутренняя работа моделей на основе ML и DL понятна, это может еще больше помочь улучшить ее производительность. Цель этой статьи — показать, как XAI можно использовать для интерпретации результатов модели DL, в данном случае — автоэнкодера. И, основываясь на интерпретации, мы улучшили его производительность для обнаружения аномалий компьютерной сети. Метод ядра SHAP, основанный на значениях Шепли, используется в качестве нового метода выбора признаков. Этот метод используется для выявления только тех функций, которые фактически вызывают аномальное поведение набора экземпляров атаки/аномалии. Позже эти наборы функций используются для обучения и проверки автоэнкодера, но только на безвредных данных. Наконец, построенная SHAP_Model превзошла две другие модели, предложенные на основе метода выбора признаков. Весь этот эксперимент проводится на подмножестве последнего набора сетевых данных CICIDS2017. Общая точность и AUC SHAP_Model составляют 94% и 0,969 соответственно.