«Разве мы, как лучники, у которых есть цель, не будем более склонны попадать в то, что правильно?» - Аристотель, Никомахова этика .

ИИ часто изображают как высшую технологию спасения. Это избавило бы человечество от всех заблуждений с помощью алгоритмов. И пока он заливает мир новым светом, ИИ отбрасывает его тени. Под видом математической объективности и нейтральности алгоритмические прогнозы могут быть предвзятыми и усилить существующие предубеждения. Несмотря на неоспоримые успехи, особенно в таких секторах, как здравоохранение, ИИ наследует наши худшие черты. Расовая дискриминация, женоненавистничество, исключительность, социально-экономическая элитарность, культурная гегемония и многие другие человеческие предубеждения проникают в алгоритмы.

Никакой искусственный аналог не исцелит мир вместо нас. Этический подход к разработке алгоритмов, ориентированный на разнообразие и интеграцию человеческих ценностей, может, с другой стороны, сделать ИИ союзником просвещенного настоящего и справедливого будущего. Этика должна быть нервной системой ИИ.

ИИ питает повседневную жизнь

Преобразующее влияние технологий искусственного интеллекта ощущается во всех секторах. AI предсказывает рак и сердечные приступы. Это увеличивает поставки продовольствия во всем мире и улучшает транспорт и инфраструктуру. Он выслеживает преступников и консультирует судей. Он говорит почти на всех языках и переводит те, которые были потеряны. Он прочитал практически все книги, обнаружил «фейковые новости» и пишет новостные статьи. Проще говоря, технологии искусственного интеллекта влияют на то, какие фильмы мы смотрим, какие самолеты мы берем и по каким шоссе едем. ИИ стал партнером как в повседневной, так и в необычной жизни.

Что такое« искусственный интеллект ?» Изначально ИИ - это задача имитации человеческого интеллекта в машинах. В 2020 году он обозначает набор технологий и методов, направленных на выигрыш ставки. Машинное обучение, глубокое обучение, искусственные нейронные сети, компьютерное зрение и обработка естественного языка - все это подмножества ИИ. Они позволяют машинам учиться на больших объемах данных и делать реальные прогнозы для решения конкретных проблем. Природа, происхождение, количество, качество и разнообразие данных, используемых для обучения алгоритмов, играют решающую роль в производительности и развитии ИИ.

В узкоспециализированных областях, таких как здравоохранение, ИИ уже работает лучше, чем люди. В январе 2020 года Google Health продемонстрировал превосходную эффективность своей алгоритмической модели в диагностике рака груди, превзойдя опыт ведущих радиологов. В том же духе в июне 2019 года исследователи из Массачусетского технологического института и Массачусетской больницы общего профиля разработали модель, способную прогнозировать риск развития рака груди на пятилетний период. Как подчеркнули исследователи, алгоритм продемонстрировал одинаковую точность для белых и черных пациентов. По словам Эллисон Куриан, доцента медицины и исследований Медицинской школы Стэнфордского университета, этого не было с предыдущими инструментами. Модель MIT-MGH, обученная на 90000 маммограмм от самых разных пациентов, выделялась своей справедливостью в диагностической точности. Этот шаг тем более необходим, поскольку для афроамериканских женщин риск смерти от рака груди повышается на 42% из-за унаследованных структурных и финансовых препятствий в доступе к профилактике и лечению.

ДНК ИИ требует тщательного изучения

Репрезентативность популяций и их контекстов в данных играет решающую роль в эффективности алгоритмов и их справедливости. Без этого алгоритмы могут автоматизировать и увеличивать неравенство. Поскольку они склонны образовывать однородные группы, подверженные когнитивным предубеждениям, исследователи и инженеры ИИ пытаются решить эту сложную проблему. В основном это белые люди, мужчины и выпускники элитных университетов, поэтому их взгляды могут быть лишены когнитивного разнообразия. Хотя бывают исключения, большинству из них не хватает достаточной подготовки по прикладной этике и методологиям инклюзивного проектирования, которые представляют собой практические подходы к устранению предвзятости.
Несмотря на программы, ориентированные на разнообразие и инклюзивность, женщины составляют лишь 18% влиятельной фракции исследователей ИИ во всем мире, а 80% штатных профессоров университетов в этой области - мужчины.
Такие цифры неудивительны, учитывая отсутствие разнообразия в технологической отрасли. Согласно отчетам о D&I, опубликованным в 2019 году, только 3,3% сотрудников Google являются чернокожими (включая 1,4% женщин), в то время как Facebook и Microsoft едва ли лучше - 3,8% и 4,4% соответственно. В тех же компаниях две трети менеджеров и директоров - белые люди.
Культурная гегемония также является проблемой. Хотя таланты мирового уровня можно найти во всем мире и в Европе имеется необычайный пул исследователей ИИ, страны с наибольшим количеством влиятельных исследователей (т. Е. , в пределах 18%) (преимущественно) США, Китай, Великобритания, Австралия и Канада ( Источник: JF Gagne ).

Поскольку ИИ имитирует видимость нейтральности и объективности, его ДНК необходимо тщательно исследовать. Это вызов, который Джой Буоламвини, докторант Массачусетского технологического института и основатель Лиги алгоритмической справедливости, решила выявить предвзятость в классификации лиц. алгоритмы.
В 2018 году она протестировала коммерческие системы гендерной классификации и выявила существенные расовые и гендерные различия. Буоламвини сообщил, что темнокожие самки являются самой ошибочной группой (с частотой ошибок до 34,7%), в то время как максимальная частота ошибок для светлокожих самцов составляет 0,8%. По словам Буоламвини, разница в производительности возникает из-за неравномерного состава наборов демографических и фенотипических данных, используемых для обучения алгоритмов. Эти результаты проливают свет на два важных факта: во-первых, демографические группы не классифицируются с одинаковой точностью, во-вторых, точность оказывается на удивление зависимой от разработчика.

В декабре 2019 года федеральное исследование, проведенное Национальным институтом стандартов и технологий (NIST), обнаружило эмпирические доказательства существования широкого диапазона точности при демографических различиях в большинстве существующих алгоритмов распознавания лиц. которые были оценены ( NIST ). В общей сложности 18,27 миллиона изображений 8,49 миллиона человек из четырех наборов данных в США были обработаны с помощью 189 коммерческих алгоритмов от 99 разработчиков. Наборы данных включали внутренние фотографии, фотографии иммиграционных служб и заявителей на визу, а также фотографии пересечения границы. Исследование пришло к выводу, что большинство алгоритмов на рынке неверно идентифицируют членов одних групп до 100 раз чаще, чем другие. Афро-американских женщин чаще всего неточно идентифицировали при индивидуальном поиске, в то время как азиаты, афроамериканцы, коренные американцы и жители островов Тихого океана ошибочно определяли их при индивидуальном поиске. Дети и пожилые люди также чаще ложно идентифицировались. В некоторых случаях люди азиатского происхождения и афроамериканцы ошибочно идентифицировались в 100 раз чаще, чем белые. Самые высокие показатели точности обычно наблюдались среди белых мужчин среднего возраста ( The Verge ). NIST сообщает о множестве причин этих различий, от отсутствия демографического разнообразия до различий в качестве фотографий в наборах данных.

Последствия ложноотрицательных и ложных срабатываний при распознавании лиц серьезны. В результате ложного срабатывания невиновного человека можно было сопоставить с профилем преступника, или самозванцам был предоставлен доступ к защищенным системам и физическим зонам. С другой стороны, ложноотрицательный результат может лишить доступа законного посетителя.

Дьявол кроется в деталях

Препятствия на пути к честности алгоритмов могут принимать разные формы. Происхождение данных и достоверность их аннотации также влияют на изучение алгоритма.
Созданная в 2009 году исследователями из университетов Принстона и Стэнфорда, ImagetNet представляет собой глобальную базу данных для обучения алгоритмов визуального распознавания. 14 миллионов изображений базы были аннотированы вручную через краудсорсинговую платформу Mechanical Turk низкооплачиваемой рабочей силой со скоростью 50 изображений в минуту на одного сотрудника. ImageNet был отмечен в сентябре 2019 года экспертом по искусственному интеллекту Кейт Кроуфорд и художником Тревором Пагленом. Используя базу данных, Кроуфорд и Паглен обучили модель ImageNet Roulette, чтобы дать пользователям Интернета возможность отправлять свои селфи для классификации. Некоторые селфи стали ассоциироваться с причудливыми ярлыками, такими как библиотекарь, фокусник, разведенный, бывший курильщик, а иногда и дискриминационными и оскорбительными, такими как неудачник, обидчик, сексуальный, Шлюха, негр или косоглазый.
Проект ImageNet Roulette пролил свет на темную сторону ИИ: использование баз данных со стереотипными, расистскими и женоненавистнические категории, загрязняющие алгоритмы в дальнейшем. ImageNet с тех пор удалил 600 000 изображений из своей базы данных и признал 438 ярлыков опасными и 1155 конфиденциальными и оскорбительными.

Благодаря лучшему управлению и дизайну, учитывающему ценность, алгоритмы в конечном итоге станут менее политически проницаемыми. Однако некоторые предубеждения более пагубны, чем другие.
В секторе правосудия, где алгоритмы оценивают криминальный риск и рецидивизм, отчет Pro Publica о прогнозирующем правосудии выявил несоответствия, как пагубные для умеренных преступников, так и выгодно высокопоставленным уголовникам. Недостатки инструментов алгоритмической оценки риска в системе уголовного правосудия были задокументированы, однако в некоторых юрисдикциях все еще требуется их использование. В отчете, опубликованном Партнерством по ИИ подчеркивается необходимость обеспечения того, чтобы инструменты были разработаны и построены для уменьшения предвзятости как на уровне модели, так и на уровне данных, а также наличие надлежащих протоколов для обеспечения прозрачности и подотчетности. ” Обеспокоенность PAI связана с восприятием таких инструментов как "объективных или нейтральных". Несмотря на согласованность и воспроизводимость, модели все же могут демонстрировать предвзятость, вызванную принятием решений человеком. «Решения относительно того, какие данные использовать, как обрабатывать недостающие данные, какие цели следует оптимизировать и какие пороговые значения установить, - все это имеет большое значение для точности, достоверности и предвзятости этих инструментов (источник : PAI ). В такой области, как правосудие, где моральное суждение имеет первостепенное значение, предвзятость, вызванная данными, противоречит здравому смыслу и заслуживает внимания. Хотя ИИ может точно оценивать риски и повышать безопасность, данные не являются нейтральным материалом.
Принятие решений людьми по-прежнему является краеугольным камнем работы ИИ. Давление с целью быстрого представления минимально жизнеспособного продукта инвесторам может поставить под угрозу этическое обоснование и подотчетность. Этическими оценками нельзя приносить в жертву быстрые изменения.

HR также внедряет технологии на базе ИИ. От автоматической сортировки резюме до психометрической оценки кандидатов и сотрудников каждая вторая компания в США развернула по крайней мере одну систему управления персоналом на основе ИИ. Мы можем ожидать увидеть эту тенденцию в двух компаниях из трех в 2020 году. Для видео-интервью будут использоваться распознавание лиц и анализ лиц. Машинное обучение будет все больше играть ведущую роль в поиске и проверке кандидатов. Обработка естественного языка изменит программы защиты сотрудников и стратегии удержания. Хотя ИИ проникает во все функции управления персоналом, следует проявлять осторожность. Алгоритмы найма, обученные на неполных данных, привели к непреднамеренной дискриминации. Измерение вовлеченности сотрудников с помощью автоматического анализа эмоций также может быть предвзятым и неточным.
Хотя 69% отделов кадров сообщают, что они получают прибыль от развертывания систем искусственного интеллекта, компании должны гарантировать, что они используют честные и надежные системы. Им следует применять превентивные стратегии для обеспечения соблюдения правовых норм и этичного управления рисками, связанными с технологиями искусственного интеллекта.
Практикующие специалисты по персоналу должны быть обучены правовому и этическому развертыванию технологий искусственного интеллекта. Команды, разрабатывающие или интегрирующие стороннюю систему, должны иметь возможность проверять источник, качество и разнообразие обучающих наборов данных и регулярно проверять справедливость модели с помощью независимых исследователей.
вовлечение профессионалов из многопрофильных областей, обученных прикладной этике, представляющих различные интересы из разных групп населения, является лучшим ответом на алгоритмическую предвзятость.

На пути к созданной на основе искусственного интеллекта «ткани счастья»

В 2020 году этические принципы прозрачности, справедливости, инклюзивности, надежности и справедливости все еще не соблюдаются, в то время как они должны быть - во имя интеллекта - острием эволюции ИИ.
Регулирующие и законодательные органы должны работать над соблюдением требований прозрачности, справедливости и независимой оценки ИИ. Организации должны предпринимать активные действия в поддержку справедливого, инклюзивного и ценностного дизайна ИИ. Эксперты, отвечающие за исследования, образование, стратегию, разработку, внедрение и оценку систем на базе ИИ, должны учитывать человеческое разнообразие и, в конечном итоге, воплощение в основе этих систем наиболее желаемых мировых ценностей, для всех.

Учение Аристотеля о среднем, Расчет полезности Джереми Бентама, Утилитаризм Джона Стюарта Милля и Альтруизм Огюста Конта могут быть разными подходами к этике, все они нацелены на общую цель: всеобщее счастье. Руководствуясь «руками разума и закона», ИИ смог вырастить «ткань счастья», о которой размышлял Джереми Бентам два столетия назад.
Сегодня, Этика должно быть нервной системой искусственного интеллекта.

––––––––

Автором этой статьи является Dr. Валери Моринья, генеральный директор Intelligent Story. сертифицированный специалист по стратегии искусственного интеллекта и эксперт по машинному обучению Массачусетского технологического института. Доцент.

Intelligent Story со штаб-квартирой в Сан-Франциско - это бизнес-консалтинговая компания, ускоряющая переход мира на ИИ.

Более короткая версия этой статьи на французском языке была опубликована 7 января 2020 года в журнале OutreMers360 под заголовком IA: la diversité au secours des алгоритмы.