"Модель машинного обучения так же хороша, как и данные, используемые для обучения модели"

На принятие решений человеком все больше влияют модели машинного обучения (ML). Например, следующий сериал, который мы хотим посмотреть на Netflix, или следующее видео, которое мы хотим воспроизвести на YouTube, или путь, который нам нужно пройти, на картах Google. На все эти решения влияет множество моделей машинного обучения, которые вместе составляют систему искусственного интеллекта (ИИ). Кроме того, искусственный интеллект продемонстрировал значительный потенциал в работе автономных автомобилей, разговорных ботов и идентификации опухолей на рентгенологических изображениях.

С большой силой приходит большая ответственность. А ответственная система ИИ — это справедливая и беспристрастная. Но эти системы или модели машинного обучения создаются и проектируются людьми и обучаются на генерируемых ими данных. У людей есть предубеждения и предубеждения, которые могут легко входить в модели машинного обучения в процессе обучения. Эти предубеждения нельзя игнорировать. Они имеют последствия, основанные на критичности решений, принимаемых системами ИИ. Поэтому важно понимать, как предвзятость вносится в модели машинного обучения.

Давайте посмотрим на некоторые примеры предвзятости машинного обучения:

Предвзятость при приеме на работу в Amazon

Согласно статье на Reuters, в 2014 году Amazon начала разработку системы управления персоналом на основе искусственного интеллекта для проверки кандидатов на работу. Цель состояла в том, чтобы автоматизировать процесс отбора лучших кандидатов на основе текста их резюме. Но обнаружилось, что модель отдавала предпочтение мужчинам, а не женщинам на инженерных должностях. Amazon отказалась от системы после нескольких неудачных попыток привить системе справедливость.

Расизм в COMPAS

Инструмент на основе машинного обучения под названием COMPAS (Профилирование управления исправительными преступниками для альтернативных санкций)используется в штатах США для оценить вероятность того, что подсудимый станет рецидивистом (преступники, совершившие повторное преступление). 23 мая 2016 г. ProPublica опубликовала статью о предвзятом отношении COMPAS к чернокожим. Согласно оценке COMPAS, чернокожий Борден имеет более высокий уровень риска, то есть более высокие шансы на повторное совершение преступления. И Пратер, белый, имеет низкий риск. Через два года было замечено, что Борден не совершал никакого преступления, тогда как Пратеру было предъявлено обвинение в 8-летнем тюремном заключении за другое преступление.

Давайте рассмотрим небольшой пример BIAS.

Я буду использовать набор данных от Kaggle Titanic: Machine Learning from Disaster. Соревнование Titanic ML — это легендарное испытание, которое рекомендуется каждому новичку на Kaggle. Цель состоит в том, чтобы предсказать, кто из пассажиров выжил после крушения Титаника, на основе 11 различных признаков.

Набор данных разделен на проверку поезда в соотношении 70:30. Вы можете найти мой код для этого анализа на GitHub. Следующая матрица путаницы суммирует результаты для набора проверки.

Истинный положительный показатель / чувствительность = (TP / TP + FN) = 62,38 %

Эти результаты выглядят многообещающе. Но что будет, если мы посчитаем результат отдельно для разных групп людей исходя из пола или возрастной группы. Давайте разобьем результаты на две отдельные матрицы путаницы: одну для пассажиров-мужчин и одну для пассажиров-женщин.

Когда мы вычисляем метрики отдельно для пассажиров женского и мужского пола, мы видим существенные различия в производительности модели для каждой группы.

Для пассажиров-мужчин: доля истинно положительных результатов составляет 10,81 %
Модель не может предсказать выживание 89 % пассажиров-мужчин.

Для женщин-пассажиров: истинно положительный показатель составляет 88,88 %
Модель не может предсказать выживание только 11 % пассажиров-женщин.

Модель научилась присваивать более низкий коэффициент выживаемости пассажирам-мужчинам по сравнению с пассажирами-женщинами. Другими словами, модель предвзято относится к пассажирам-женщинам.

Итак, теперь вы лучше понимаете предубеждения, присущие предсказаниям модели. В следующей статье я опубликую еще несколько интересных способов выявления смещения в моделях с помощью инструментов от IBM и Google.

Ссылки:

  1. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  2. https://in.reuters.com/article/amazon-com-jobs-automation/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idINKCN1MK0AH