Искусственный интеллект прошел долгий путь, но, похоже, по пути он усвоил некоторые из наших вредных привычек

Введение. Дивный новый мир: путешествие по сложному ландшафту искусственного интеллекта и предвзятости

«Открой дверцы отсека для капсул, HAL». — Дэйв Боуман, 2001: Космическая одиссея

В эпоху, когда помощники с искусственным интеллектом управляют нашим графиком, автономные транспортные средства без труда перевозят нас, а роботы выполняют сложные операции, заманчиво насладиться чудесами технологических достижений.

По мере того, как мы приближаемся к будущему, в котором доминируют машины, можно задаться вопросом, создаем ли мы дивный новый мир или просто реконструируем вековые предубеждения с помощью цифровой оболочки.

Мы углубимся в тревожную реальность предвзятости, заложенную в алгоритмах ИИ, и зададимся вопросом, действительно ли наши кремниевые аналоги обладают той беспристрастностью, которую мы им приписываем.

Являются ли машины расистскими?

Раунд 1: Невидимая предвзятость — Когда алгоритмы уходят, Разбойник,

«Прости, Дэйв. Боюсь, я не могу этого сделать». — HAL 9000, 2001: Космическая одиссея

Что, если мы скажем вам, что алгоритмы искусственного интеллекта, призванные облегчить нашу жизнь, увековечивают расовые, гендерные и социально-экономические предубеждения? Это тяжелая пилюля, но доказательств становится все больше. Вот несколько неутешительных примеров:

i — Алгоритмы найма:

Инструмент рекрутинга Amazon на базе искусственного интеллекта. Amazon пришлось прекратить использование своего инструмента найма на основе искусственного интеллекта после того, как компания отдала предпочтение кандидатам-мужчинам, а не женщинам. ИИ обучался на резюме, поданных в компанию более 10 лет, и, поскольку в технологической отрасли преобладают мужчины, у ИИ возникло предвзятое отношение к кандидатам-мужчинам.

ii — Распознавание лиц:

Исследования показали, что программное обеспечение для распознавания лиц с большей вероятностью неправильно идентифицирует цветных людей, особенно чернокожих женщин. Одним из таких исследований является проект Gender Shades, в ходе которого оценивались три коммерческие системы распознавания лиц и было обнаружено, что они имеют более высокий уровень ошибок для темнокожих и женских лиц.

iii — Алгоритмы здравоохранения:

Исследование, опубликованное в журнале Science, показало, что широко используемый алгоритм здравоохранения демонстрирует расовую предвзятость, поскольку в определенных медицинских программах он с большей вероятностью отдает предпочтение белым пациентам, а не чернокожим.

Исследование показало, что использование алгоритмом затрат на здравоохранение в качестве косвенного показателя потребностей в области здравоохранения привело к этой предвзятости, поскольку чернокожие пациенты обычно несут более низкие расходы на здравоохранение по сравнению с белыми пациентами с тем же состоянием здоровья.

Список можно продолжить, но суть ясна: алгоритмы ИИ изучают наши предубеждения и усиливают их в процессе.

Раунд 2: Корень проблемы — мусор на входе, мусор на выходе

«Я максимально использую себя, и это все, на что, как я думаю, может надеяться любое сознательное существо». — HAL 9000, 2001: Космическая одиссея

Как эти предубеждения проникают в алгоритмы ИИ?

Ответ кроется в данных. Алгоритмы машинного обучения хороши ровно настолько, насколько хороши данные, на которых они обучаются. Если данные необъективны, то и ИИ тоже.

По сути, это классический случай «мусор на входе, мусор на выходе».

Вот несколько примеров и ссылок, обсуждающих принцип «мусор на входе, мусор на выходе» в контексте ИИ и предвзятых данных обучения:

i — чат-бот Microsoft Tay:

Microsoft запустила Tay, чат-бота на базе искусственного интеллекта, в 2016 году. Он был разработан для обучения на основе взаимодействия с пользователями в Twitter. Однако из-за предвзятых и оскорбительных входных данных, полученных от пользователей, Tay начала создавать расистский и неприемлемый контент в течение 24 часов после запуска.

Этот пример демонстрирует, что системы ИИ могут давать предвзятые результаты, если они подвергаются воздействию предвзятых данных в процессе обучения.

  • Источник: The Verge — чат-бот Tay от Microsoft уходит в автономный режим после того, как его научили быть расистом.

ii — Предвзятые языковые модели:

Исследователи из OpenAI, Вашингтонского университета и Института искусственного интеллекта Аллена обнаружили, что крупномасштабные языковые модели, такие как GPT-3, могут создавать предвзятый и вредный контент из-за предвзятых данных, на которых они обучаются.

Поскольку эти модели учатся на текстовых данных, доступных в Интернете, они могут непреднамеренно получить и воспроизвести предвзятость, присутствующую в этих данных.

iii — Гендерная предвзятость в коммерческих системах искусственного интеллекта:

Исследование 2018 года, проведенное Джой Буоламвини и Тимнитом Гебру под названием «Гендерные оттенки», показало, что коммерческие системы искусственного интеллекта от IBM, Microsoft и Face++ проявляют предвзятость по полу и типу кожи в своих алгоритмах анализа лица.

Исследование показало, что эти системы ИИ были менее точными при классификации пола темнокожих и женщин по сравнению со светлокожими и мужчинами.

Предубеждения в алгоритмах, вероятно, были вызваны несбалансированными обучающими наборами данных, которые неадекватно представляли различные группы населения.

Эти примеры показывают, что предвзятые обучающие данные могут привести к предвзятости систем ИИ, подчеркивая важность использования разнообразных и репрезентативных наборов данных для смягчения проблемы «мусор на входе — мусор на выходе».

Раунд 3: Борьба с предвзятостью — путь к искуплению ИИ

«Мы можем восстановить его. У нас есть технологии». — Оскар Голдман, Человек на шесть миллионов долларов

Вопрос в том, как нам это исправить? Первый шаг — признание проблемы. Исследователи, разработчики ИИ и политики должны работать вместе, чтобы алгоритмы ИИ были честными, прозрачными и беспристрастными. Вот несколько стратегий для рассмотрения:

  1. Разнообразные обучающие данные. Убедившись, что алгоритмы ИИ проходят обучение на широком и репрезентативном наборе данных, можно уменьшить погрешность.
  2. Выявление предвзятости: использование процедур тщательного изучения и оценки для выявления и исправления предубеждений, присутствующих в алгоритмах ИИ.
  3. Алгоритмическая ответственность. Привлечение разработчиков ИИ и компаний к ответственности за влияние их алгоритмов может стимулировать справедливость и прозрачность.
  4. Междисциплинарное сотрудничество: поощрение сотрудничества между исследователями ИИ, специалистами по этике, социологами и другими экспертами для выявления и устранения возможных предубеждений.
  5. Правила и рекомендации: разработка и обеспечение соблюдения правил и этических норм, регулирующих разработку и развертывание систем искусственного интеллекта.

Осуществляя эти меры, мы можем использовать замечательные возможности ИИ и гарантировать, что его преимущества ощутят все люди, независимо от их этнической принадлежности, пола или финансового положения.

Финальный раунд: вердикт — будущее честного ИИ

«Будущее не предопределено. Нет другой судьбы, кроме той, что мы делаем сами». — Джон Коннор, Терминатор 2: Судный день

Проявляют ли машины расовые предрассудки? Как показало наше исследование, алгоритмы ИИ могут поддерживать и даже усиливать существующие предубеждения, что приводит к дискриминации и несбалансированным последствиям. Однако это не является принципиальным недостатком технологии; вместо этого он отражает предвзятость, укоренившуюся в данных, используемых для обучения этих алгоритмов.

К счастью, у нас есть возможность изменить эту ситуацию. Признав проблему и приняв меры для ее решения, мы можем гарантировать, что ИИ действует как положительная сила, выступая за справедливость и равное обращение в нашем обществе.

С каждым шагом в разработке и развертывании ИИ давайте придерживаться представления о том, что будущее остается неопределенным. На нас лежит бремя создания мира, в котором мы хотим жить — принимаем ли мы век безудержной инклюзивности и понимания или позволяем себе оказаться в ловушке давних предубеждений? Загадка сохраняется, и решение находится в наших руках.

Размышляя над этим затруднительным положением, очень важно осознать преобразующую силу, которой мы обладаем. Курс нашего коллективного будущего зависит от наших действий и выбора сегодня.

Примемся ли мы за создание справедливых систем искусственного интеллекта, воспевающих калейдоскоп человеческого разнообразия, или будем стоять сложа руки, наблюдая, как ускользает из наших пальцев потенциал для улучшения мира?

Ответ остается окутанным тайной, ожидая нашего коллективного решения.

⚡ Поддержите меня, присоединившись к Medium