Может ли машина быть расистской?

Искусственный интеллект стал нарицательным. Он также стал манипулятором для всех домочадцев. Неконтролируемый взрыв ИИ во всех компаниях и бизнес-моделях стал феноменальным драйвером роста, но он вызывает вопросы, на которые необходимо ответить.

Специалисты по обработке данных и исследователи искусственного интеллекта будут все больше влиять на поведение людей, влиять на то, как компании принимают решения, и даже направлять правительство. Кроме того, эти модели будут все больше переходить от традиционных понятных для человека конструкций к сложным моделям глубокого обучения, которые связаны с невероятной сложностью. На практике это практически не связано с обсуждением этики таких систем.

Улучшение человека

Когда мы используем машинное обучение для дополнения или выполнения задач, которые обычно выполняются людьми, у нас есть шанс устранить предубеждения, которые затуманивают суждения и приводят к принятию неверных решений. Мы, люди, устаем или ленивы, можем быть расистами или сексистами, высокомерными или самоуверенными, этот список можно продолжить. Все эти черты делают людей плохими людьми, принимающими решения, независимо от того, являются ли эти решения преднамеренными.

ИИ обладает способностью устранять человеческий фактор в процессе принятия решений. Возможно, самое главное, он может принимать чисто объективные решения на основе необработанных объективных данных. Когда мы применяем этику при разработке этих систем, всем в конечном итоге становится лучше. Обеспечение этики может обеспечить объективную основу для определения того, что правильно, а что нет. В этой статье я надеюсь убедить вас как в опасности, так и в пользе ИИ, и дать краткую основу для бизнеса и специалистов по данным.

Прежде чем продолжить, имейте в виду, что это не паникерская статья. Преимущества ИИ на данный момент намного перевешивают последствия. Я сосредотачиваюсь на конкретной проблеме ИИ, и я надеюсь, что, распознав проблему на ранней стадии, мы сможем развить это обсуждение, чтобы извлечь максимальную пользу из этого мощного инструмента.

Почему важна этика

Прежде чем стать специалистом по анализу данных, я был инженером-механиком. Из-за моей степени я прошел несколько курсов по этике, и моя карьера требовала, чтобы я постоянно посещал этические курсы.

Я изучил множество инженерных аварий, которые привели к ненужной гибели и ущербу для сотен людей и невыразимому ущербу окружающей среде. Величина и важность безопасного дизайна, важность особого внимания к деталям и редкие события, которые приводят к сбоям. Во время учебы мне постоянно прививали профессиональную этику. Напротив, ИИ часто находится в черной этической дыре. Реальность ИИ такова, что некоторые модели принимают решения, которые не подходят как для бизнеса, так и для общества.

На данный момент этические дилеммы машинного обучения несравнимы с дилеммами инженерного мира. Трудно представить, чтобы система машинного обучения убила сотни людей из-за неправильной конструкции, но, тем не менее, они причиняют вред. Мы часто ставим физический вред выше финансовой, политической или манипулятивной боли, но тот факт, что системы искусственного интеллекта повлияют на миллиарды людей в меньшем масштабе, в конечном итоге делает их более значительными.

Основано на реальных событиях

Представим, что вы работаете в банке и хотите создать модель, которая прогнозирует вероятность дефолта для ваших клиентов. Затем вы хотите использовать этот прогноз для ставок по кредитам. В этом примере давайте представим, что я подхожу к задаче с целью максимизировать свой алгоритм, не задумываясь об этике. Я робот в своем подходе и буду потреблять любые данные, которые увеличивают предсказательную силу моей модели.

Какие примеры функций вы бы использовали для обучения своей модели?

  • Улица, на которой живет покупатель
  • Пол
  • Гонка
  • Язык
  • Семейное положение
  • Друзья в Facebook, количество друзей
  • Связи в LinkedIn
  • Возраст
  • Образование
  • Количество посещений больницы

Этот список можно продолжить. В модели можно встроить практически все. Некоторым компаниям требуются данные Facebook как часть процесса запроса ссуды. Они могут анализировать ваших друзей, ваши сообщения, сообщения ваших друзей ... вы поняли.

Так когда это нормально? В пользу такой модели есть вполне веские положительные социальные аргументы. Это могло бы позволить людям, которые иначе не имели бы доступа к кредитам, получить к нему доступ. Было показано, что он сокращает хищническое кредитование людей, которые не допускаются к обычным финансовым системам. Я также готов поспорить, что многие (или все) экономисты согласятся, что более широкий доступ к кредитам лучше для экономики.

Однако вы легко можете увидеть, как мы могли бы начать еще больше разделять наши сообщества. Эти алгоритмы будут выдавать все более точные ставки дефолта, но взимаемые повышенные процентные ставки станут петлей подкрепления. Поскольку клиенты на улице ABC будут продолжать получать более высокие кредитные ставки, вероятность их дефолта возрастет. Следующее обновление алгоритма учтет это. Это не всегда так, но может случиться на практике. Это плохо спроектированный алгоритм, который становится жертвой его предсказания.

Думаю, этому парню следует продвинуться по службе

Давайте представим, что тот же процесс применяется к другим вопросам - прогнозированию высокопроизводительных сотрудников в организации. Вы вводите все свои данные о своих сотрудниках (возраст, пол, результаты работы, тесты на профессиональную пригодность) и получаете результат. Если вы используете алгоритм на основе регрессии, вы можете определить, какие данные алгоритм использует для принятия решений. Поскольку алгоритм смотрит на поведение человека (прошлые обзоры производительности и предыдущие рекламные акции невероятно субъективны), он просто будет отражением существующих практик. Более того, если вы будете использовать его без каких-либо этических стандартов, он подчеркнет любые человеческие предубеждения, которые уже присутствуют. Он быстро становится более предвзятым, чем уже есть организация!

Что произойдет, если пол является сильным предиктором? Что произойдет, если раса является сильным предиктором? Если в какой-либо области большинство управляется одним полом, как, например, преподавание осуществляется женщинами, а инженерное дело - мужчинами, то есть вероятность, что алгоритм уловит это и соответственно сегментирует людей.

Могут быть вполне веские причины, по которым эти предубеждения существуют в данных, но это не мешает алгоритму находить их и использовать. Возможно, в вашей организации мало иностранцев - ваш алгоритм мог бы использовать этот факт для повышения своей точности. В качестве альтернативы мы могли бы представить сценарий, в котором у компании А есть расистский менеджер по найму, поведение которого будет влиять на прогнозы модели. Ведь модель не чувствует и не испытывает эмоций; он просто пытается предсказать, что вы ему скажете. Если вы намереваетесь предсказать человеческое поведение, и это человеческое поведение предвзято, это ЕСТЬ будет встроено в алгоритм.

Если я затем воспользуюсь этим алгоритмом и буду использовать его для информирования вас о точности принятия решений, он начнет поощрять предубеждения, которые он обнаружил в первую очередь. Вполне возможно, и действительно вероятно, что вы с большей вероятностью будете продвигать по службе людей из страны, в которой ведется работа, а не иностранных рабочих. Опять же, могут быть вполне веские причины - местные сотрудники с большей вероятностью проработали в компании дольше или с большей вероятностью лучше владеют языком на работе. С другой стороны, это могло быть просто несправедливой практикой.

Дело в том, что вы просто этого не знаете.

Этот факт приводит к созданию алгоритма, который действует так, что вы никогда не позволите себе действовать. Это становится сродни балльной системе, когда людям выставляются оценки по цвету кожи или полу. Это также то, что вы никогда не записали бы в качестве политики компании, но тем не менее вы позволяете своему алгоритму делать это. Стало нормально, потому что это делает компьютер? Нет.

Есть множество примеров, когда это происходит, и очень мало тренингов или обсуждений на местах в целом. Лишь недавно разговоры об этике в ИИ стали более распространенными.

Пусть думает ИИ

Недавно я искал информацию о вакцинах для друга, и мне пришлось перейти на вторую страницу моей поисковой системы, чтобы найти информацию от CDC, NHS и правительства Канады. Разве самые надежные источники не должны быть первыми?

Почему это происходит?

Предоставление результатов поиска на основе прошлой истории поиска может быть опасным. Когда вы заходите в свою поисковую систему и вводите «безопасны ли вакцины», вы задаете загруженный вопрос. Обычно люди, которые думают, что вакцины безопасны, не утруждают себя заданием этого вопроса, алгоритмы поисковых систем говорят, что вы похожи на этих людей, которые задают похожие вопросы, и это дает вам скептически настроенные блоги. Это может даже исказить ваше представление о существовании дебатов.

По правде говоря, подавляющее большинство врачей и ученых имеют заключение и данные, подтверждающие единодушное мнение о том, что вакцины безопасны. Я не могу даже начать описывать пользу, которую вакцины сделали для человечества.

Если вы представляете людям результаты поиска на основе их предпочтений в отношении альтернативных фактов, приносите ли вы им пользу? Или вы просто раздуваете свою предвзятость, что авторитетным позициям нельзя доверять? Многие из этих типов вопросов остались незамеченными при создании ИИ.

Может ли аналитика убить объективность?

В сфере, в которой работают исключительно аналитически мыслящие люди, этика отошла на второй план. Фактически, отсутствие этической озабоченности и стремление к предсказательной способности привело к тому, что аналитически мыслящие люди использовали субъективные данные. Субъективные данные следует использовать с особой осторожностью в любой модели, а личные данные, используемые для прогнозирования поведения человека, следует избегать. Парадоксально, что область, которая должна быть объективной, часто строится субъективно.

Более того, субъективный алгоритм обычно бесполезен их создателям. Машины могут делать великие дела, обходя когнитивные предубеждения, которые уводят наши действия от объективности. Люди, как известно, неправильно воспринимают множество ответов и результатов. Они делают ошибки, устают - машина может проверить эти врожденные недостатки.

Где этика?

Возможно, это связано с тем, что нет реальной необходимости в этической дискуссии во многих количественных областях, таких как математика, а это люди, которые все чаще входят в сферу ИИ. В стремлении оптимизировать свои алгоритмы, получить больше данных и повысить точность многие практики разрабатывают алгоритмы, влияющие на поведение и решения. В области науки о данных следует обратить внимание на системы, которые инженеры и врачи установили, чтобы их область работала на благо человечества. Этический дизайн должен стать требованием в любой учебной программе, и дизайнеры-самоучки, такие как я, должны ознакомиться с этими идеями.

Последствия для бизнеса

Пройти этот процесс немного сложнее. В конечном итоге ответственность за это ложится на ведущих специалистов по данным и компании, которые нанимают специалистов по данным.

Обсуждения этического дизайна должны стать статус-кво. В противном случае текущий подход начнет наносить ущерб репутации компаний или приведет к публичной негативной реакции на ИИ. Вы никогда не должны вводить данные в алгоритм, которые вы не использовали бы в политике компании для принятия решений (или даже принятия решений самостоятельно). Точно так же, как вы никогда не будете явно использовать пол, расу и язык для продвижения людей (не говоря уже о неявных предубеждениях), вам никогда не следует вводить их в алгоритм, если вы не понимаете последствий.

Вывод: будьте внимательны и внимательны, но не звоните в тревогу

Безусловно, есть места, где это этично и даже требуется использовать этот тип субъективных данных (например, здравоохранение), но дело в том, что это обсуждение еще не существует для большей части области науки о данных.

Каждый раз, когда вы используете человеческое поведение в алгоритме, вы должны быть осторожны. Люди несовершенны; у людей может быть любое количество предубеждений по любому количеству причин. Алгоритмы на их основе неизбежно будут продолжением этого поведения. Неправильно спроектированный алгоритм, который прогнозирует лучших исполнителей, с меньшей вероятностью будет математическим специалистом и с большей вероятностью просто имитирует поведение вашего текущего процесса (хотя и более рентабельным).

Это вредит компании двумя способами:

  • Во-первых, он не выполняет объективную задачу, для которой он предназначен.
  • Во-вторых, это может стать кошмаром, если ошибки алгоритмов станут известны или преданы огласке.

Итак, вернемся к названию; Может ли машина быть расистской? Я говорю нет. Машина делает только то, для чего она предназначена. Если вы плохо спроектируете машину, она может принимать расистские решения, но это вина дизайнера, а не машины. Так же, как инженеры винят проектировщика в отказе моста, мы должны винить в отказе системы искусственного интеллекта ее программиста.

Используя правильные функции и придерживаясь аналитических данных, а не субъективных данных, алгоритм может значительно улучшить ваше принятие решений. Недостаточно просто иметь объективные данные, но вам нужно оптимизировать объективный результат. Для многих это самая сложная и самая проблемная часть науки о данных; задавая правильный вопрос.