На последней остановке этого путешествия я закончу (относительно) недавней разработкой в ​​юридическом секторе, касающейся аудита алгоритмов. Первое, что нужно понять, это то, что право не так научно, как думают: законодательство можно интерпретировать по-разному — такие слова, как «достаточный», имеют значение, которое трудно определить. Во-первых, что описано в Общем регламенте защиты данных (GDPR)?

Общий регламент по защите данных (GDPR) — это регламент Европейского Союза, запрещающий дискриминационное алгоритмическое принятие решений и гарантирующий «право на объяснение» для субъектов данных (Goodman & Flaxman, 2016). Кредитные баллы являются хорошим примером того, как это делается правильно: люди могут видеть, какие факторы влияют на их кредитный рейтинг, и эффективно получать объяснение.

Однако при таком подходе возникает ряд проблем. В программировании есть определенный класс алгоритмов, которые называются алгоритмами машинного обучения. Эти алгоритмы используют статистические методы для получения заключения вместо того, чтобы полагаться на жестко закодированную логику. Таким образом, их результаты зависят от данных, которые ранее были введены в алгоритм машинного обучения. Говорят, что эти алгоритмы «обучаются» на входных данных. На самом деле обучение хранится в виде набора чисел, которые указывают, как алгоритм должен обрабатывать любой следующий ввод. Сохраненные числа не показывают, как компьютер научился или чему научился компьютер — все, что известно, — это то, что программа машинного обучения будет предсказывать на входе.

Как вы можете себе представить, это затрудняет достижение «права на объяснение», если сами программисты не знают, как алгоритм дает результаты. Кроме того, также возможно, что алгоритм машинного обучения использует дискриминационные меры в своих вычислениях — раса, пол и другие чувствительные атрибуты не обязательно должны быть входными данными. Переменные, которые коррелируют с такими переменными, в равной степени проблематичны. Еще хуже то, что несколько атрибутов могут не коррелировать по отдельности, но при совместном использовании в программе машинного обучения могут быть дискриминационными. Это практически невозможно узнать, поскольку алгоритмы машинного обучения — это, по сути, черные ящики.

Хотя регулирование Европейского Союза может неэффективно работать с алгоритмами машинного обучения, оно является необходимым шагом вперед, если мы когда-либо захотим разумно проверять алгоритмы. Позволить субъектам данных самим регулировать возможные типы алгоритмов — ценная идея — известно, что правительство неэффективно внедряет системы регулирования. Свободный рыночный подход, возможно, является правильным путем вперед. Кроме того, хотя этот объем информации может показаться чрезмерным для современного гражданина, человечество постоянно получает все больше и больше знаний от одного изобретения к другому (Weinberger, 2011). Что еще немного?

Брайс Гудман и Сет Флаксман, исследователи из известного британского Оксфордского университета, опубликовали эту статью на рецензируемом семинаре IMCL в 2016 году. Эта краткая и насыщенная ссылками статья обязательна к прочтению теми, кто интересуется аудитом алгоритмов в новостях.

Ссылки

Гудман Б. и Флаксман С. (июнь 2016 г.). Правила ЕС об алгоритмическом принятии решений и «праве на объяснение». На семинаре ICML по интерпретации человеком в машинном обучении (WHI 2016).

Вайнбергер, Д. (2011). Слишком много, чтобы знать: переосмысление знаний теперь, когда факты не являются фактами, эксперты повсюду, а самый умный человек в комнате — это комната. Нью-Йорк: Основные книги.