В нашей повседневной жизни все чаще используются искусственный интеллект (ИИ) и машинное обучение (МО), и этот тип технологий интегрируется во множество новых продуктов, которые мы используем каждый день.

Наряду с этим растет озабоченность этическими проблемами, вызванными этими новыми технологиями, как мы видим ниже:

Все эти проблемы вполне реальны и должны быть решены, но сегодня я хочу сделать шаг назад и обсудить некоторые концепции, чтобы объяснить, почему они возникают. Одно из самых больших заблуждений в таких ситуациях — думать, что эти алгоритмы преднамеренно предвзяты; другими словами, некоторые люди думают, что разработчики целенаправленно разрабатывали предвзятую модель, чтобы угнетать и отражать свои собственные планы. Это может случиться, но в большинстве ситуаций это не так, поскольку эти предубеждения могут возникать, не будучи запрограммированными, как непреднамеренные последствия.

НЕПРЕДНАМЕРЕННЫЕ ПОСЛЕДСТВИЯ

Чтобы объяснить, как это происходит, я буду использовать в качестве метафоры фильм «Детские игры» 2019 года (осторожно: впереди спойлеры).

В этом фильме есть новая революционная игрушка по имени Бадди, высокотехнологичная кукла с искусственным интеллектом, которая учится на своем окружении и действует соответственно. Таким образом, каждая игрушка ведет себя по-своему и адаптируется к желаниям ребенка. Кроме того, каждая кукла имеет некоторые встроенные функции безопасности, чтобы избежать некоторых действий, таких как проклятия или насилие.

Фильм начинается, если главный герой (Энди) получает одну из этих кукол, которые называют себя Чаки, но Чаки не обычная кукла: из-за какого-то саботажа в его производстве он не на 100% функционален, и ему не хватает встроенной функции безопасности. В одной из самых ранних сцен кошка Энди царапает его, из-за чего он злится на кошку. Той же ночью Чаки смотрит фильм ужасов с Энди и его друзьями и видит, что дети смеются и, кажется, довольны всем насилием, показанным на экране. Итак, соединив две вещи (кот плохой, потому что причинил боль Энди, а насилие — это весело), ​​в одну и ту же ночь Чаки убивает кота Энди. Затем фильм продолжается в том же духе, но я не буду здесь спойлерить остальную часть фильма.

Для нас здесь интересно то, что плохой поступок, предпринятый Чаки (убийство кота), был вызван хорошей целью (сделать ребенка счастливым) и некоторым неверным истолкованием со стороны модели (убийство — это весело). В первоначальном программировании Чаки не было ничего, что прямо говорило бы ему убить кошку, были только некоторые правила сделай своих детей счастливыми и узнай, что нравится твоим детям, и именно здесь проявляются непредвиденные последствия. Загляните сюда, чтобы узнать о другом известном мысленном эксперименте о том, как простой ИИ, генерирующий рукописные заметки, может привести к катастрофической ситуации.

Пример Чаки явно неправдоподобен для нашей текущей реальности, но та же идея применима и к нашим текущим моделям машинного обучения. Модели машинного обучения получают исторические данные для изучения, и они выполняют это обучение, оптимизируя некоторые показатели, например, уменьшая количество совершаемых ошибок прогнозов. Проблема в том, что если мы наивно собираем данные, они будут отражать наш предвзятый мир, а затем модель будет отражать это в своих прогнозах.

Чтобы проиллюстрировать этот принцип, давайте предположим, что мы создаем инструмент ИИ, который анализирует производительность наших сотрудников и решает, кого следует повысить до уровня C. Эта модель будет обучена с использованием всех прошлых данных сотрудников из нескольких компаний, их навыков и тех, кто в итоге был повышен до C-уровня. Однако загвоздка в том, что мы знаем, что по историческим причинам у нас меньше женщин на должностях уровня C, чем мужчин; поэтому, если мы просто обучим нашу модель, используя эти данные, модель, вероятно, будет использовать пол в качестве важной переменной для принятия решения, и появится наша предвзятость, без каких-либо усилий для ее реализации. И что история на самом деле не просто мысленный эксперимент, поищите здесь и здесь несколько похожих ситуаций.

ЧТО МЫ МОЖЕМ С ЭТИМ ПОДЕЛАТЬ

Однако заявление о том, что модели бессознательно порождают эти предубеждения, не означает, что решений нет или что мы не должны ничего с этим делать. Наоборот, признание истинной сложности проблемы — это первый шаг к ее решению. С технической стороны первое решение, которое приходит на ум, — это просто несколько переменных из набора данных; например, в вашем предыдущем примере модели HR мы можем просто удалить переменную пола из данных, и тогда модель не может быть предвзятой по полу, верно? К сожалению, это не так, потому что модели машинного обучения особенно хороши в использовании других переменных для извлечения скрытой информации (другими словами, модель сможет сделать вывод о поле каждого человека, взглянув на остальные переменные), поэтому предвзятость все равно будет. Другая альтернатива, которая приходит на ум, состоит в том, чтобы просто изменить метрики, чтобы показать модели, как учиться справедливым образом, но когда вы действительно углубляетесь в математику того, как это сделать, проблема становится намного сложнее, чем кажется на первый взгляд. первый взгляд, как объяснено здесь.

Другой подход, который обещает уменьшить несправедливость и предвзятость модели, заключается в том, чтобы нанять более разнообразную команду для построения и оценки производительности модели, потому что с большим количеством перспектив в развитии команды легче обнаружить эти проблемы и найти способы их решения. Найди решение. Вы можете прочитать здесь, если хотите узнать больше об этом.

Как видите, этика в ИИ — это сложная тема, и я только коснулся ее поверхности, чтобы вы могли начать больше думать об этих вещах. В Интернете есть много материалов, чтобы узнать больше, но если вам интересно, я действительно рекомендую Практический курс Fast Ai по этике данных в качестве первой остановки, которую вы должны сделать в этом процессе обучения.