Общий регламент по защите данных (GDPR) в Европе предусматривает, что любой алгоритм искусственного интеллекта или машинного обучения, который используется для «осмысленного» принятия решений, должен быть прозрачным и объяснимым.

«Значимый» - это слово, которое регулирующие органы используют, когда ожидают неточных и постоянно меняющихся интерпретаций. Правило предназначено для того, чтобы такие вещи, как заявки на получение ссуды или решения о вынесении уголовного приговора, не превращались в черный ящик. Слепое обучение модели машинного обучения на прошлой истории или прошлых транзакциях может закрепить нежелательные шаблоны предвзятости или предубеждения, которые могут существовать в данных.

Интересная стратегия, которую используют некоторые компании для соблюдения нормативных требований, - это запуск более простой и объяснимой модели бок о бок с любыми глубокими нейронными сетями, которые могут стать черными ящиками.

Например, традиционная линейная регрессия и глубокая нейронная сеть, обученная на одних и тех же данных, могут совпадать в 90% случаев, и в этом случае вы можете использовать линейную регрессию для защиты от любых запросов GDPR; а в остальных 10% случаев вы можете использовать нейронную сеть в сочетании с каким-либо аудитом или качественной проверкой.