Справедливость и предвзятость

Справедливый мир в моделировании машинного обучения, где к мужчинам и женщинам следует относиться одинаково

Исследование гендерной справедливости моделей машинного обучения, обученных на базе данных UCL Adult

Задний план

К сожалению, в мире, в котором мы живем, когда-то доминировали всевозможные стереотипы и дискриминация - расовая, гендерная, ориентация и т.д. равенство. Однако в течение долгого времени эти невежественные предрассудки серьезно влияли на все аспекты жизни людей.

Данные - это отражение реального мира. Информация, которую мы собрали из прошлого, неизбежно является предвзятой или несправедливой. Мы занимаемся обработкой данных и обучаем модели машинного обучения и искусственного интеллекта на основе исторических данных. Мы усердно работали над тем, чтобы наши модели были «точными». Но предвзятость, заложенная в данных, обычно игнорируется и наследуется моделями машинного обучения, что может вызвать негативные социальные последствия.

В этой статье я буду использовать Набор данных UCL для взрослых, который был собран в 1990-х годах, чтобы проиллюстрировать:

  • Как определить справедливость как показатель
  • Как модели машинного обучения могут быть несправедливыми
  • Как повысить справедливость модели с помощью простого выбора функций

Набор данных

Набор данных UCL для взрослых - это классический набор данных для многих новичков, который может познакомиться с алгоритмами двоичной классификации. Набор данных был извлечен из базы данных переписи населения США 1994 года. Каждая строка представляет человека. Атрибуты включают основные демографические переменные, такие как возраст, пол, раса, род занятий, образование и т. Д. Задача прогнозирования - определить, зарабатывает ли человек более 50 тысяч в год. Набор данных предварительно обработан, поэтому в основном чистый, с несколькими пропущенными значениями.

Во многих недавних исследованиях этот документ используется для исследования справедливости машинного обучения (например, this) по двум веским причинам:

  1. Он был собран в эпоху, когда гендерное и расовое равенство не рассматривалось должным образом.
  2. Он содержит конфиденциальные переменные, то есть расу и пол, которые отражают социальную предвзятость в данных.

В этом исследовании мы будем использовать этот набор данных для обучения моделей машинного обучения и проверки их справедливости и точности.

Определение справедливости

Итак, как мы определяем справедливость как показатель науки о данных? Мы можем использовать определение, используемое в статье Как мы проанализировали алгоритм рецидивизма КОМПАС, написанной Джеффом Ларсоном, Сурьей Матту, Лорен Киршнер и Джулией Ангвин в 2016 году, изучая расовая предвзятость в алгоритме рецидивизма КОМПАС. В статье автор подчеркивает, что:

Часто предсказывалось, что чернокожие подсудимые подвергаются более высокому риску рецидивизма, чем они были на самом деле. Наш анализ показал, что чернокожие обвиняемые, которые не рецидивировали в течение двух лет, почти в два раза чаще ошибались отнесением к категории лиц с более высоким риском по сравнению с их белыми коллегами (45 процентов против 23 процентов).

Белые обвиняемые часто считались менее рискованными, чем они были на самом деле. Наш анализ показал, что белые обвиняемые, совершившие повторное правонарушение в течение следующих двух лет, ошибочно считались лицами с низким уровнем риска почти в два раза чаще, чем черные повторно правонарушители (48 процентов против 28 процентов).

В частности, показатели ложноположительных (FP) и ложноотрицательных (FN) показателей для черных и белых обвиняемых сравниваются, чтобы проверить, есть ли в алгоритме предвзятость в отношении какой-либо расы.

В нашем контексте мы будем сравнивать показатели FP и FN между мужчинами и женщинами. Это простой способ визуализировать, предсказывает ли модель высокий доход для определенного пола.

Предвзятость в данных

Как и в любом проекте по науке о данных, первым шагом всегда является выполнение исследовательского анализа данных (EDA) для понимания данных.

Данные по обучению содержат 32 561 запись, из которых 21 790 - мужчины и 10 771 - женщина. Мужчины в ~ 3 раза (30,6% против 10,9%) чаще делают более 50 тыс. В год, чем женщины.

Дальнейшая разбивка данных по профессиям и полу показывает, что мужчины имеют гораздо более высокую вероятность заработать больше, чем женщины по той же профессии.

Аналогичные различия в доходах наблюдаются между мужчинами и женщинами с одинаковой степенью. Женщина со степенью бакалавра с одинаковой вероятностью заработает более 50 тысяч, как и мужчина со степенью HS.

Судя по приведенным выше взглядам на распределения, набор данных демонстрирует сильную отрицательную предвзятость в отношении женщин - независимо от профессии или уровня образования они, как правило, зарабатывают меньше. Без каких-либо вмешательств модель, которую мы обучаем на основе набора данных, также может быть сильно смещена. Мусор внутри, мусор вывозится.

Эксперименты и идеи машинного обучения

Цели экспериментов:

  • Для проверки справедливости модели (ставки FP и FN для мужчин и женщин)
  • Чтобы проверить влияние простых подходов, таких как выбор функции, на справедливость модели.

Предварительная обработка

Набор данных уже очень чистый, поэтому очистка данных не требуется, за исключением удаления записей с пропущенными значениями. По характеристикам, образование, страна происхождения и раса удалены. Образование имеет числовую биективную переменную education-num. Родная страна и раса также являются чувствительными переменными. Для исследования они удалены, чтобы сосредоточиться на гендерной предвзятости.

Категориальные переменные, а именно рабочий класс, семейное положение, род занятий и отношения, кодируются без промедления. Поскольку в наборе данных больше мужских выборок, выполняется случайная нисходящая выборка, чтобы гарантировать одинаковое количество записей для обоих полов. Кроме того, создается отдельный нормализованный набор данных (стандартная нормализация) для обучения логистической регрессии.

После вышеуказанных шагов предварительной обработки обучающий набор данных состоит из 19 546 записей. 20% (3910) записей не учитываются в качестве набора оценочных данных для определения пороговых значений модели. Набор данных независимого тестирования состоит из 15 055 записей. Окончательные результаты представлены на основе производительности модели в наборе данных тестирования.

Базовые модели

Обучаются три модели машинного обучения - логистическая регрессия, классификатор случайного леса и классификатор LightGBM. Гиперпараметры модели остаются по умолчанию. Эти обученные модели получают оценку в наборе оценочных данных. Выбираются пороговые значения, которые достигают наивысших баллов F1, и они будут применяться к результатам тестирования.

Результаты

Неудивительно, что все эти модели демонстрируют сильную предвзятость в отношении женщин в их прогнозах по набору данных тестирования.

  • Женщин часто ошибочно считают беднее, чем они есть на самом деле. Богатые женщины на ~ 30-40% * чаще ошибочно классифицируются как малообеспеченные, чем мужчины (от мужчины к женщине, LR: от 26% до 38%, RF: от 25% до 34%, LGB: от 22% до 31%)
  • Мужчин часто ошибочно считают богаче, чем они есть на самом деле. Бедные мужчины на ~ 300% * чаще ошибочно классифицируются как имеющие высокий доход, чем женщины (от мужчины к женщине, LR: от 18 до 4%, RF: от 18% до 5%, LGB: от 16% до 4%)

* вычисляется как ([высокий%] - [низкий%]) / [низкий%].

Смещение также отражается в распределении оценок модели. Кривая оценки мужчин значительно больше смещена вправо с гораздо более высоким средним баллом. Также стоит отметить, что модель особенно уверенно работает с некоторыми мужчинами и дает высокие баллы группе (пик на правом конце). Таких женских групп, которым доверяет модель, нет.

Представьте, что эта модель используется банком для оценки финансового положения соискателя кредита. Вы были женщиной, подавшей заявку на ссуду, вместе с другим мужчиной с аналогичным образованием и профессией. Ваша заявка была отклонена, но человек был принят, потому что модель дала разные прогнозы. Как бы вы себя чувствовали? Специалисты по данным могут утверждать, что эта модель просто изучает исторические закономерности. Но с большой силой приходит большая ответственность. Приложения ML / AI оказали огромное влияние в различных частях мира. И, конечно же, мы хотим справедливого мира в моделировании машинного обучения, в котором к мужчинам и женщинам следует относиться одинаково. Это будет не очень сложно.

Избавьтесь от несправедливости за счет выбора характеристик

Это может быть наиболее интуитивно понятное решение - можем ли мы удалить те особенности, которые вызывают смещение в модели?

В приведенном выше примере нам нужно удалить не только переменную пол, но и переменные, которые тесно связаны с полом. Быстрый способ проверить - использовать корреляцию Пирсона. Как показано в таблице ниже. Гендер тесно связан с некоторыми классами, закодированными в горячую очередь, в разделах семейное положение и отношения. Например:

  • Relationship_Husband - только для мужчин
  • Relationship_Wife только для женщин
  • marital-status_Married-civ-spouse означает женат с гражданским супругом. Большинство из них мужчины
  • marital-status_Married-Unmarried - в основном для женщин

Следовательно, мы можем просто удалить три переменные из набора данных, а именно пол, семейное положение, и отношения, чтобы заблокировать передачу связанной с полом информации в модели машинного обучения.

После выбора характеристик давайте посмотрим на честность переобученных моделей. Значительно уменьшен гендерный уклон! Разница в скорости FN (богатая ошибочная классификация) уменьшается с ~ 30% -40% до ~ 10 ~ 30%, разница в скорости FP (плохая классификация) уменьшается с ~ 300% до ~ 30% -40%.

Несмотря на огромное улучшение, мы должны признать, что это не идеальное решение, поскольку модель по-прежнему ориентирована на мужчин как на богатство. Это могло быть связано с гендерной информацией, встроенной в другие переменные, например, род занятий. Как видно из приведенной выше таблицы, некоторые профессии, например, ремонтные или административные, также коррелируют с полом. Однако в этом контексте мы не смогли удалить переменную занятие из-за ее высокой важности.

Справедливая модель - это хорошая модель?

Возможно, вы уже заметили разницу между базовой и переобученной моделью. Показатели FN как для мужчин, так и для женщин относительно стабильны. Но у прошедших переподготовку моделей показатели FP намного хуже, особенно у женщин с низким доходом. Переобученные модели более справедливы только потому, что они делают одинаково плохие прогнозы для всех людей с низкими доходами.

Во многих случаях производительность модели ухудшается при удалении переменных. Используя модель LGB в качестве примера, базовая модель более точна - более высокие AUC и F1.

Суровая правда в том, что дополнительная справедливость не бесплатна. Обычно это необходимо компенсировать более низкой точностью предсказания. Мы живем не в лучшую эпоху социального равенства, а наше прошлое еще хуже. Данные, собранные в «бронзовом веке», скорее всего, необъективны из-за особенностей того времени. Совершенно точная модель запомнит все шаблоны из прошлого, включая эти различия. Любое вмешательство приведет к отклонению модели от наиболее точной конфигурации.

Итак… Справедливая модель - это хорошая модель? Да, это всегда хорошая модель. В мире много хороших вещей, и за все они имеют свою цену. Мы стремимся к защите окружающей среды, но не закрываем все заводы. Мы хотим разнообразия, но не позволяем всем въезжать в страну без надлежащего разрешения. Нам нужна честная модель, но мы не отказываемся от точности полностью. Необходимо тщательно изучить середину между социальной справедливостью и удобством использования модели, чтобы специалисты по обработке данных «не творили зла» и «создавали ценности» одновременно.

Конечные заметки

Приемы, представленные в статье, очень просты. За последние несколько лет появилось множество сложных и эффективных алгоритмов - регуляризация переменных, корректировка после моделирования, оптимизация гиперпараметров… Выбор характеристик может быть самым тривиальным методом из всех.

Две причины для меня написать эту статью о выборе функций:

  1. Я только начал свое исследование в этой области и не уверен на 100%, что могу хорошо объяснить эти сложные алгоритмы сейчас.
  2. Что еще более важно, я не могу дождаться, чтобы показать вам, используя такую ​​простую технику, мы уже могли продвигать справедливость в такой значительной степени.

Стереотип происходит от незнания. Наука о данных изменила мир. Пока мы продолжаем это делать, достаточно небольшого шага, чтобы оказать огромное влияние. Почему бы этого не сделать?