Модель использования равноправного представления в разработке продуктов ИИ

Ни для кого не секрет, что в сфере технологий искусственного интеллекта существует проблема разнообразия. Продолжающееся преобладание мужских групп на большинстве крупных конференций, ошеломляющее гендерное неравенство на уровне высшего руководства в стартапах в сфере технологий искусственного интеллекта и непропорционально большое количество людей, у которых берут интервью о технологиях искусственного интеллекта в средствах массовой информации, - все это указывает на проблему, которую многие из нас знают, но не знают, как решить.

Многие благонамеренные люди пытались решить эту проблему сверху вниз, как будто еще один тренинг по включению разнообразия, спонсируемый корпорациями, разрешит глубоко укоренившееся расовое и гендерное неравенство, заложенное в основу наших систем. К сожалению, старый способ включения разнообразия по частям и сверху вниз не помогает разобраться в сути проблемы. Для нас как отрасли давно пора радикально подходить к этой проблеме.

Что я имею в виду под "стать радикальным"?

  1. Мы должны быть готовы признать, что у нас все еще есть серьезная проблема представительства в нашей отрасли, и признать настоящие этические последствия этой проблемы.
  2. Мы должны стремиться изменить представление о том, что эта проблема представляет собой своего рода второстепенную трудность, которую важно решать только тогда, когда нам удобно ее решать. Мы должны сосредоточить эту проблему как определяющую проблему того, кем мы хотим быть как отрасль и что мы хотим представлять.
  3. Мы должны проявлять смелость, смелость и стратегию в изменении наших систем и повседневных действий для создания мира.

В этом эссе сначала излагается проблема представительства разнообразия в технологических пространствах ИИ, а затем предлагается одна возможная модель для практического применения равного представительства в разработке продуктов ИИ.

В начале этого эссе важно назвать мою собственную позицию белого человека, изучающего этику ИИ, который пишет о том, как мы, как отрасль, должны решать репрезентативные проблемы в сфере технологий ИИ, в том числе в области этики ИИ. Давайте будем честными, мой голос не тот, который вам следует слушать. Вы должны слушать таких невероятных ученых, как доктор Тимнит Гебру, Абеба Бирхане, доктор Руха Бенджамин и многих других, которые являются экспертами в этих вопросах и потенциальных путях продвижения вперед. Иди читай их работы.

Тем не менее, я считаю, что наша область слишком долго просила голоса уже маргинализованных людей, чтобы они взяли на себя тяжелую работу по перетаскиванию людей с моей идентичностью как белого мужчины, чтобы они выполняли нашу собственную чертову работу. Я считаю, что это часть моей ответственности как белого мужчины в области технологий искусственного интеллекта - использовать мою платформу, чтобы говорить о проблемах представительства в этих областях и работать над поиском тонких решений этих проблем. Подобные эссе являются частью моей собственной попытки смоделировать интроспективную работу, которую мы все должны проделать, чтобы создать индустрию, в которой каждый голос слышен.

I. Хьюстон. У нас проблема - можем ли мы признать это уже ?!

Подобно мудрости, высказанной Анонимными Алкоголиками, первым шагом для индустрии технологий искусственного интеллекта является признание того, что у нее есть проблема во всем ее сердце, а не только на словах о том, что у нас может быть проблема.

1 октября 2019 года популярный технический журнал Wired опубликовал основополагающую статью, написанную технологическим журналистом Сарой Харрисон под названием Пять лет отчетов о техническом разнообразии - и небольшой прогресс. [1] Статья начинается Прошло пять лет с тех пор, как Apple, Facebook, Google и Microsoft впервые опубликовали отчеты о разнообразии, показывающие, что в компании работают преимущественно белые или азиатские мужчины. Пять лет с тех пор, как Facebook «впервые признал, что у него больше работы - намного больше, а генеральный директор Тим Кук написал сотрудникам Apple письмо, пообещав, что компания будет столь же инновационной в продвижении разнообразия, как и мы в разработке продуктов. « [2] В статье делается вывод о том, что отчеты за пять лет ясно показывают, что несмотря на успехи в бизнесе, ни одна из этих крупных технологических компаний не добилась значительного прогресса в диверсификации своей рабочей силы. [3]

Результаты были особенно очевидны среди технических работников - программистов, инженеров и специалистов по обработке данных… В Google и Microsoft доля технических сотрудников США, которые являются чернокожими или латиноамериканцами, с 2014 года выросла менее чем на процентный пункт. Доля черных технических специалистов количество рабочих в Apple не изменилось и составляет 6 процентов, что составляет менее половины 13-процентной доли чернокожих в населении США . [4] В целом расовое разнообразие в крупных технологических компаниях практически не изменилось с момента 2014 года, когда компании имели начали публиковать цифры, чтобы повысить прозрачность в отношении разнообразия и якобы пообещать ресурсы и намерение разрешить кризис разнообразия. Я включил графики с выводами статьи в Приложение А к этому эссе.

Хотя необходимы более конкретные исследования, детализирующие представление, ясно, что этот кризис разнообразия также присутствует в области искусственного интеллекта (ИИ) технологического сектора. Институт AI Now при Нью-Йоркском университете, один из наиболее уважаемых в мире аналитических центров по этике ИИ, включил следующий анализ в свой годовой отчет за декабрь 2019 года: Недавние исследования показали, как предвзятость, заложенная в технологической индустрии, работает в цикле обратной связи. от ужасного отсутствия разнообразия среди сотрудников до разрушительной дискриминации, заложенной в алгоритмы. Одно исследование показало, что только 18 процентов докладчиков на ведущих конференциях по ИИ были женщинами, в то время как другое показало, что 80 процентов профессоров ИИ - мужчины. Показатели показывают, что все выглядит намного хуже, если рассматривать представленность по расе, этнической принадлежности или способностям . [5]

В апрельском отчете AI Now 2019 года Дискриминационные системы: пол, власть и раса в ИИ проблема разнообразного представительства в ИИ ставится еще более прямо и тревожно. На основании обширного качественного исследования авторы приходят к выводу: Несоответствие в индустрии искусственного интеллекта крайне велико: женщины составляют только 15% исследовательского персонала в области искусственного интеллекта в Facebook и 10% в Google. Публичных данных о транс-работниках или других гендерных меньшинствах нет. Для чернокожих рабочих картина еще хуже. Например, только 2,5% сотрудников Google составляют чернокожие, в то время как Facebook и Microsoft составляют по 4%. Учитывая десятилетия беспокойства и инвестиций для исправления этого дисбаланса, текущее состояние в этой области вызывает тревогу . [6]

Избыточное представительство какой-либо группы идентичности в пространстве технологий искусственного интеллекта было бы проблематичным. Как недавно заявил основатель Black in AI доктор Тимнит Гебру в интервью MIT Technology Review о влиянии чрезмерной представленности на разработку ИИ:

[Избыточное представительство вызывает] предвзятость в отношении того, какие проблемы мы считаем важными, какие виды исследований мы считаем важными и куда, по нашему мнению, должен идти ИИ. Если у нас не будет разнообразия в нашем наборе исследователей, мы не будем заниматься проблемами, с которыми сталкивается большинство людей в мире. Когда проблемы не затрагивают нас, мы не думаем, что они настолько важны, и мы можем даже не знать, что это за проблемы, потому что мы не взаимодействуем с людьми, которые их испытывают. [7]

Согласно анализу Гебру, чрезмерная представленность определенной группы идентичности в разработке технологий искусственного интеллекта обязательно ограничивает широту жизненного опыта и разнообразие знаний в комнате, разрабатывающей технологию. Благоприятным последствием этого является возможное несоответствие между определением проблемы и дизайном продукта, определяемым теми, кто находится в помещении, и потребностями потребителя, находящегося ниже по потоку. Тем не менее, более пагубный потенциальный вред этого разобщения имеет далеко идущие последствия, особенно если учесть, насколько повсеместно используются технологии искусственного интеллекта в повседневной жизни людей, принадлежащих к разным культурам и национальностям. Когда чрезмерная представленность на этапе проектирования технологии искусственного интеллекта не контролируется, существует четкая корреляция с более сильными алгоритмическими предрассудками в дальнейшем.

Преимущества технологических пространств ИИ непропорционально выгодны для белых образованных мужчин за счет невыгодного положения гендерных меньшинств, цветных людей и других недостаточно представленных групп. Это верно на всех уровнях пространства технологий ИИ, от стадии проектирования до того, кому эти технологии в основном помогают, когда они применяются на стороне потребителя, чьи голоса наиболее заметно фигурируют в репрезентациях СМИ о новостях технологий ИИ. Такое непропорциональное преимущество белых людей в пространстве технологий ИИ является частью исторического глобального контекста, в котором белые люди получили несоразмерно большую выгоду от социальных, экономических и политических систем власти, особенно в контексте научного развития.

TL; DR: это проблема. Большая проблема. И мы, как индустрия, должны это признать. У нас нет времени медлить с решением этих проблем. Если мы серьезно относимся к тому, чтобы быть отраслью, основанной на морали, справедливости, подотчетности и прозрачности, мы должны радикально сосредоточить этот вопрос в нашей повседневной работе таким образом, чтобы показать, что мы действительно принимаем приглашение тех, кто был самым непосредственным образом пострадали. Мы должны стремиться изменить представление о том, что эта проблема является своего рода второстепенной трудностью, которую важно решать только тогда, когда нам удобно ее решать, потому что, предупреждаем о спойлере, это никогда не будет «удобной» проблемой для решения. сильный>

II. Это тот раздел, который доставит вам дискомфорт

Мы должны проявлять смелость, смелость и стратегию в изменении наших систем и повседневных действий для создания мира равного представительства. Но как это выглядит? Что мы можем с этим поделать? Как добиться равного представительства в промышленности?

Это решать всем нам. Если мы собираемся произвести сдвиг, этот сдвиг должен быть культурным, системным и будет происходить медленно. Однако ниже я предлагаю одну возможную модель для нас, чтобы начать операционализировать вопросы репрезентации на многоуровневом уровне, который может облегчить наш переход к центрированию вопросов репрезентации в нашей работе.

Моя модель адаптирована на основе модели операционализации этики ИИ, предложенной доктором Кэтрин Хьюм, которую она придумала как сотрудник Integrate.AI. Ее модель была опубликована в официальном документе, озаглавленном Ответственный искусственный интеллект на предприятии-потребителе: структура, которая поможет организациям реализовать этику, конфиденциальность и безопасность при применении машинного обучения и искусственного интеллекта. Целью этого официального документа было Предоставить высокоуровневую структуру, предназначенную для облегчения структурированного обсуждения этических соображений и более широких экономических и социальных последствий инициатив в области данных ИИ. [8]

Hume и Integrate.AI предполагают, что процесс разработки технологии искусственного интеллекта состоит из шести этапов. Эти шесть шагов: 1) определение и объем проблемы, 2) проектирование, 3) сбор и хранение данных, 4) обработка данных, 5) прототипирование модели и тестирование QA, и 6) развертывание, мониторинг и обслуживание. [9 ]

Для каждого шага в модели Integrate.AI они поднимают определенный набор ориентированных на этику «работ, которые необходимо выполнить» и набор руководящих вопросов «риски и этика», которые будут использоваться в цикле разработки. Мое предложение состоит в том, чтобы использовать модель Integrate.AI для реализации этики ИИ, чтобы обеспечить основу для реализации реформ репрезентации на основе идентичности, о которых говорится в этом эссе; ответственность белых мужчин и этика отношений.

В частности, к каждому из шести этапов цикла разработки я бы добавил рекомендуемый набор работ, которые необходимо выполнить следующим образом:

  1. Критический анализ расовой теории того, кто был представлен на этом этапе, включая гендерный и расовый состав присутствующих заинтересованных сторон.
  2. Определенный список потенциальных воздействий того, как эта репрезентативная структура может повлиять на продукт и потребителей в дальнейшем.
  3. Обсуждение внутри команды разработчиков динамики команды и того, были ли предприняты конкретные шаги для обеспечения ответственности белых мужчин и сосредоточения голосов людей, представляющих другие идентичности.
  4. Определенный список того, как реляционная этика повлияла на выбор разработки на этом этапе.

Точно так же я бы добавил рекомендуемый набор наводящих вопросов на каждом этапе цикла разработки следующим образом:

  1. Как я могу сосредоточить внимание на потребностях маргинализированных сообществ на этом этапе?
  2. Как я предпочитаю понимание и сочувствие опыту других точности прогнозов и чисто технологическим решениям?
  3. Какие основные ценности я вкладываю в этот шаг? Какие предположения я могу сделать исходя из своей социально-политической позиции?
  4. Как я борюсь с предвзятостью, честностью и справедливостью в себе и своей работе?
  5. Как меня чувствуют эти шаги в направлении установления отношений и ответственности белых мужчин? Есть ли у меня пространство, чтобы обработать личное влияние этих шагов?

Эти рекомендуемые рабочие места и вопросы для личного размышления не являются исчерпывающими. Они являются отправной точкой для начала разговора о том, как потенциально ввести в действие подотчетность, справедливость представительства и реляционную этику в пространствах разработки продуктов на основе технологий искусственного интеллекта. Из-за смелого и личного характера некоторых из этих рекомендаций я ожидаю ответа.

III. Руб.

Промышленность может сопротивляться по ряду причин, каждая из которых требует более тщательных исследований и анализа. Из-за того, что эта работа основана на идентификации, существуют определенные юридические и логистические проблемы, которые необходимо решать в индивидуальном порядке. Представители отрасли могут возразить, что даже если они согласны с задачей решения проблемы чрезмерной представленности, такой процесс дополнительных рабочих мест будет излишне обременительным или отрицательно скажется на их чистой прибыли. Кроме того, в отрасли может быть много групп, которые не согласны с предпосылкой этого эссе; что люди в группах идентичности большинства должны децентрализовать свою власть, чтобы увеличить представительство других исторически маргинализированных групп.

Я хочу быть ясным; Позиция этой статьи не состоит в том, чтобы выступать за увольнение белых людей или осуждение белых людей, занимающих влиятельные или опытные должности. Однако он призван заставить тех из нас, кто находится у власти, кто придерживается идентичности, исторически связанной с социальной и экономической властью, серьезно заняться тем фактом, что у нас есть эта власть, и задаться вопросом, как мы можем ответственно использовать ее. Предпосылка этого эссе состоит в том, что потребуется огромный уровень партнерства между людьми всех идентичностей, чтобы создать этическую культуру, которая преодолеет препятствия, продиктованные этим специфическим штаммом чрезмерного представительства.

Каждая из рекомендуемых вакансий и вопросов для личного размышления, перечисленных выше, направлена ​​на то, чтобы продвинуть развитие технологий искусственного интеллекта в сторону осознания, подотчетности и взаимодействия. Это предлагаемый метод интеграции осознания в систему и, в свою очередь, начала процесса преобразования этого осознания в действие. Конкретные действия, выходящие за рамки активного осознания, будут зависеть от контекста. Не исключено, что системе потребуется перераспределить власть через смену рабочих мест. Также возможно, что системе потребуется просто участвовать в более целенаправленном командном общении с особым осознанием этих факторов репрезентативной идентичности и встроенных в них структур власти.

Мы, как отрасль, больше не можем убегать от проблемы представительства разнообразия. Если мы собираемся стать этической индустрией, которой, как мы утверждаем, хотим быть, мы должны вместе решать эти сложные вопросы и двигаться вперед в духе честности и готовности рисковать. Если мы собираемся решить эти глубоко укоренившиеся социальные проблемы, наши решения статус-кво должны быть заменены радикальными решениями. Давайте признаем, что у нас есть проблема, и начнем трудную работу по практическому применению смелых, междисциплинарных и всеобъемлющих ответов для всех нас.

[1] Сара Харрисон, Пять лет отчетов о техническом разнообразии - и небольшой прогресс, Wired Magazine, 1 октября 2019 г., https://www.wired.com/story/five -лет-отчеты-разнообразие-технологий-небольшой-прогресс /

[2] Там же.

[3] Там же.

[4] Там же.

[5] Кейт Кроуфорд и др. all, Отчет AI Now 2019, Нью-Йорк: AI Now Institute, 2019, https://ainowinstitute.org/AI_Now_2019_Report.html., 46.

[6] Сара Майерс Уэст, Мередит Уиттакер и Кейт Кроуфорд, Дискриминационные системы: пол, раса и власть в ИИ, Институт AI Now, апрель 2019 г., https://ainowinstitute.org/discriminatingsystems.pdf.

[7] Джеки Сноу, Мы находимся в кризисе разнообразия: соучредитель Black in AI о том, что отравляет алгоритмы в нашей жизни », M IT Technology Review, 14 февраля 2018 г., https: // www. .technologyreview.com / s / 610192 / были-в-разнообразии-кризис-чернокожие-в-основателе-на-что-отравлении-алгоритмах-в-наших /.

[8] Integrate.AI, Ответственный ИИ на потребительском предприятии, 2019 г., https://www.integrate.ai/ethics-of-artificial-intelligence#download.

[9] Там же.