В последнее десятилетие мы стали свидетелями экспоненциального роста использования и применения моделей искусственного интеллекта во всем мире.

Способные изменить человеческое взаимодействие, то, как мы подходим к миру работы, и создавать огромные объемы все более личных данных, технологии ИИ катапультировали человечество в будущее.

Однако с большой силой ИИ приходит и большая ответственность.

Несмотря на положительное влияние технологии ИИ на производительность, понимание и принятие решений, выходящее за рамки человеческого масштаба, поддержание этичности моделей искусственного интеллекта становится геркулесовой задачей.

Поскольку компании изо всех сил пытаются установить идеальный баланс между увеличением прибыли и соблюдением принципов, многие вынуждены полагаться на изначально предвзятые системы.

Прежде чем мы зайдем слишком далеко и углубимся в детали этой сложной темы, позвольте мне представить вам концепцию этического ИИ и основные проблемы, стоящие перед отраслью в целом.

Итак, что такое этический ИИ и почему мы должны о нем заботиться?

Проще говоря, «этический ИИ» или «этика ИИ» — это «система моральных принципов и методов, предназначенных для разработки и ответственного использования технологии искусственного интеллекта».[1]

По мере того, как ИИ принимает более сложные и важные решения, такие как найм сотрудников, постановка медицинских диагнозов и оценка вашего страхового риска, мы должны быть более чем когда-либо уверены в том, что искусственный интеллект остается беспристрастным, объяснимым и заслуживающим доверия.

Хотя создание демократических и справедливых моделей всегда должно быть нашей конечной целью, сохранение этичности автономных машин на практике труднее, чем в теории. Чтобы дать нам больше информации о том, почему это так, давайте рассмотрим самые насущные этические проблемы, стоящие сегодня перед отраслью.

Самые большие этические проблемы в мире ИИ

Предвзятость и дискриминация

Понятно, что модели машинного обучения обладают огромной вычислительной мощностью, но в зависимости от данных, которые модели передаются во время обучения, они могут быть не в состоянии работать беспристрастно и морально.

Например, несмотря на использование некоторых из самых передовых технологий в мире, было доказано, что алгоритмы, созданные Microsoft, IBM и Megvii для распознавания лиц, имеют гендерный и расовый уклон в пользу белых мужчин. Когда эти алгоритмы были тщательно проанализированы, частота ошибок для белых мужчин составила 0,8 процента, в то время как для чернокожих женщин частота ошибок составила ошеломляющие 34,7 процента[2]. Этот результат был связан с «данными обучения распознаванию лиц, содержащими в основном лица европеоидной расы».[3] Конечно, в нашем современном мире такой уровень предвзятости в тренировках непростителен.

Однако предвзятость и дискриминация встречаются не только в программном обеспечении для распознавания лиц. Несмотря на тестирование в 2021 году, алгоритм перевода Google по-прежнему отказывается признавать, что женщины-историки и мужчины-медсестры присутствуют в мире труда. Вместо этого алгоритм технологического гиганта систематически меняет пол для этих профессий в переводах на все европейские языки. Учитывая, что более 182 из 440 переводов были зарегистрированы как неправильные из-за этой уязвимости, можно утверждать, что эти алгоритмы не только неэтичны, но и не соответствуют своему назначению.[4]

Стоит отметить, что модели ИИ не предназначены для учета расы и пола. Однако должны ли мы обучать модели с более разнообразными наборами данных, чтобы попытаться избежать этих когнитивных искажений?[5] Можем ли мы быть уверены, что в моделях ИИ не разовьются предубеждения, подобные человеческим, которые сделают машины расистскими или сексистскими по своей сути?[6]

В прошлом были предприняты согласованные усилия по устранению предвзятости систем ИИ, но вопрос о том, как сделать ИИ моральным и полностью беспристрастным, является сложной проблемой, с которой создатели будут бороться долгие годы.

Отказ в автономии

Появление беспилотных автомобилей привело к увеличению вопросов по поводу отказа ИИ в автономии. Основная проблема здесь проста — когда речь идет о машинах, как мы распределяем вину, когда что-то идет не так?

В США конгресс борется с проблемой полностью автономных транспортных средств, особенно когда модели машинного зрения могут спутать знаки остановки с ограничением скорости 45 миль в час, просто добавив 4 кусочка цветной ленты.

Этот интересный моральный вопрос был выдвинут на передний план, когда автономная Тесла столкнулась с пешеходом во время испытания, чтобы защитить своего пассажира любой ценой. После долгих раздумий было решено, что в случившемся виновата Тесла, а не человек-водитель за рулем.

Система автономного вождения компании полагается на камеры, радар и гидролокатор ближнего действия, чтобы определять риски и обеспечивать безопасность пассажиров, и, хотя Tesla рекомендует использовать их функцию автопилота только на автомагистралях, где она может работать наиболее эффективно, ее трудно поддерживать. ИИ этичен в тех случаях, когда ставки так высоки.[7]

Когда водители гибнут из-за того, что автономные транспортные средства с трудом справляются со стационарными объектами, кто должен нести ответственность: компания или разработчики алгоритмов?

Этот вопрос не опровергает тот факт, что сложные и непредсказуемые модели ИИ могут быть позитивными и меняющими жизнь. Однако машины, отказывающие людям в автономии, всегда должны быть в центре внимания разработчиков, когда любые потенциальные ошибки могут привести к серьезным травмам или смерти.

Безработица с ростом автоматизации

Замена чернорабочих моделями машинного обучения может быть экономичным решением для бизнеса, но этична ли безработица, вызванная ИИ? Доказано, что ИИ делает рабочие места более эффективными и освобождает людей для выполнения сложных задач или задач, связанных с клиентами, но исследования также показали, что только в США в период с 1990 по 2007 год из-за автоматизации было потеряно 400 000 рабочих мест.[8]

Поддержка рабочей силы, возможно, является «правильным» с моральной точки зрения, но следует ли заставлять предприятия нанимать работников, когда машинное обучение снижает эксплуатационные расходы и является более эффективной альтернативой?

По оценкам экономистов, поскольку компании вынуждены более решительно защищать свои финансовые результаты во время пандемии COVID-19, до 42% потерянных рабочих мест за этот период никогда не вернутся, и вместо этого задачи будут разделены между существующим персоналом и машинами.

Всегда существует вероятность того, что радикальные изменения на рынке труда создадут более высокооплачиваемые рабочие места благодаря достижениям в области машинного обучения, но этот подход, основанный на получении прибыли по сравнению с людьми, еще больше затрудняет достижение этического ИИ, особенно в малообеспеченных сообществах и на рынках труда с низкой квалификацией.

Концентрация экономической мощи

Массовая безработица — серьезная этическая проблема, возникающая из-за машинного обучения, но не менее важна и концентрация экономической власти среди крупных технологических компаний.

В то время как многие компании были вынуждены сократить расходы во время пандемии за счет сокращения числа сотрудников, стоимость акций Apple, Microsoft, Amazon, Alphabet и Facebook выросла на 3 триллиона долларов в период с 23 марта по 19 августа 2020 года.[9] Есть некоторые предположения относительно этого увеличения и того, как оно было достигнуто, но, вероятно, это связано со способностью использовать лучшие доступные модели ИИ.

Хотя получение хорошей прибыли и превосходные результаты на фондовом рынке не являются преступными действиями, мы должны спросить себя, насколько моральна эта олигополия. На самом деле, как небольшие фирмы могут конкурировать с такими крупными транснациональными корпорациями, когда дело доходит до развертывания ИИ?

Предоставляя потребителям меньший выбор, а малым предприятиям меньше возможностей оставить свой след, такая концентрация экономической власти, безусловно, является одной из самых сложных этических проблем ИИ, которую следует учитывать создателям.

Аргумент сингулярности

Возникновение армии роботов может показаться чем-то из научно-фантастического романа, но машины, достигшие сингулярности и сверхразума, — одна из самых очевидных этических проблем ИИ, с которыми сегодня сталкивается технический мир.

придет время, когда модели ИИ смогут самосовершенствоваться, уступив место самосознательным машинам, обладающим убедительностью на уровне человека. Это может показаться чрезмерным, но самая насущная проблема для будущих разработчиков заключается в том, будут ли роботы рассматривать людей как нечто, с чем нужно равняться или как на уничтожение.

Американский изобретатель, футурист и главный инженер Google Рэй Курцвейл предсказал, что сингулярность будет достигнута к 2045 году, но он считает, что сингулярность в первую очередь скорее улучшит человеческий интеллект, чем приведет к разрушению роботами.[10]

Чтобы успокоить вас, скажем, что победа человеческого вида над сверхразумными роботами крайне маловероятна. Однако, учитывая, что технологии развиваются с такой впечатляющей скоростью, мы должны убедиться, что все разработки в области ИИ этичны, устойчивы и вряд ли будут угрожать будущим поколениям.

Конфиденциальность

Государственная слежка и сбор данных не являются чем-то новым для большинства из нас, но насколько это слишком?

Во всем мире действуют законы о конфиденциальности, которые пытаются противостоять неприемлемому использованию данных, но вероятность нарушения конфиденциальности ИИ огромна, поскольку модели требуют неисчислимого количества качественных данных для обучения и совершенствования.

В деловом мире ИИ часто используется для сбора данных о потребителях для улучшения продукта и производительности. Однако без нашего согласия это действие становится проблематичным. В конце концов, как мы можем контролировать, кто и какие данные собирает? Приведет ли распознавание лиц по фотографиям и смартфонам к отрицательному профилированию населения?

Большая часть данных о нас в Интернете не была собрана с нашего явного согласия, и настораживает мысль, что простой умный помощник Alexa может прослушивать ваши разговоры и сохранять фрагменты данных для будущего использования.

Тем не менее, Amazon является лишь одним из примеров использования ИИ для монетизации цифровых профилей с помощью целевой рекламы и улучшения качества обслуживания клиентов, и эта тенденция будет становиться все более распространенной по мере того, как системы становятся сверхинтеллектуальными.[11]

Есть положительные моменты, которые можно извлечь из будущего, основанного на данных, но одна из основных этических проблем ИИ заключается в том, как мы можем сохранить наши свободы перед лицом усиления слежки.

Дипфейки и рост дезинформации

Заманчиво посмеяться над возмущением Дональда Трампа по поводу «фейковых новостей», но убедительные видео и фотографии, созданные с помощью ИИ, значительно снизили доверие к СМИ, затруднив понимание того, каким новостям мы можем доверять, а какие намеренно вводят в заблуждение.

Дипфейки могут не только опорочить общественных деятелей и вызвать общественное недовольство, но и любое возникающее недоверие может повлиять на демократические процессы, вызвать трансграничные конфликты и даже подстрекать к насилию.[12]

Существование дипфейков проблематично по очевидным причинам, но тот факт, что эксперты и детекторы ИИ с трудом распознают поддельные видео или изображения более 40% времени, означает, что у нас мало шансов противостоять распространению дезинформации.[13]

Из-за потенциальных социально-политических последствий, связанных с созданием дипфейков, управление ими является одной из самых важных этических проблем ИИ, которую необходимо отслеживать.

Как мы можем решить этику в машинном обучении?

Лучший способ решить этические вопросы в ИИ — это прозрачность и подотчетность. Привить алгоритмам моральные ценности по своей сути сложно, но специалисты по этике надеются, что корпоративные компании будут стремиться поставить этику на один уровень с прибыльностью.

По словам участников конференции Future of Life в 2017 году, конечной этической целью ИИ будет «приведение [машин] в соответствие с человеческими ценностями на протяжении всей их работы»[14]. Поначалу этого может быть сложно достичь, но крупные компании предпринимают шаги, чтобы стать более этичными в своей деятельности.

Позитивный шаг к этому был замечен, когда Google призвал к «ответственному развитию ИИ», заявив, что технология не должна навязывать предвзятость или нарушать конфиденциальность.[15] Технический гигант также присоединился к Партнерству в области искусственного интеллекта на благо людей и общества вместе с Microsoft, Amazon, Facebook, Apple и IBM в 2016 году.[16] Стремясь способствовать прозрачности и инклюзивности, это отличные шаги вперед для крупных технологических компаний.

Какое будущее ждет этику в ИИ?

Как гласит древняя китайская пословица, «путь в тысячу миль начинается с одного шага».

Естественно, мы хотим бороться с такими проблемами, как дискриминация и безработица, железным кулаком. Однако наш подход к этичному ИИ должен быть разумным и взвешенным.

Для начала разработчики могут предпринять соответствующие шаги, чтобы смягчить предвзятость в моделях ИИ, удалив предвзятую оценку и ранжирование. [17] Для достижения наилучших возможных результатов борьба с предвзятостью должна начинаться сверху вниз и занимать центральное место в духе организации.

Масштабное внедрение этических норм в ИИ требует участия ведущих технологических игроков, а за неэтичное поведение и плохое правоприменение должны быть строгие последствия.[18] Сложно, да, но не невозможно.

Только с прозрачностью, подотчетностью и справедливостью результатов мы можем начать использовать этический ИИ и строить более яркое и инклюзивное будущее.

Остается только один вопрос: готовы ли крупнейшие технологические игроки сделать этот крайне важный первый шаг?

[1] Джордж Лоутон, Этика ИИ (этический кодекс ИИ), TechTarget, последнее изменение в июне 2021 г., «https://whatis.techtarget.com/definition/AI-code-of- этика"

[2] Ларри Хардести, Исследование выявило предвзятость по признаку пола и типа кожи в коммерческих системах искусственного интеллекта, MIT News Office, последнее изменение 11 февраля 2018 г., https: //news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212

[3] Джой Буоламвини, Bloomberg Businessweek, 3 июля 2017 г., стр. 80, Даррелл М. Уэст, Роль корпораций в решении этических дилемм ИИ, последнее изменение 13 сентября 2018 г., https://www.brookings.edu/research/how-to-address-ai-ethical-dilemmas/

[4] Николя Кайзер-Брил, Женщины-историки и мужчины-медсестры не существуют, Google Translate сообщает своим европейским пользователям, Algorithm Watch, последнее изменение 17 сентября 2020 г., https://algorithmwatch.org /ru/google-translate-gender-bias/

[5] Юлия Гаврилова, 10 вопросов этики ИИ, на которые нам нужно ответить, Serokell, последнее изменение 1 марта 2021 г., https://serokell.io/blog/ai-ethics-questions

[6] Винсент С. Мюллер, Этика искусственного интеллекта и робототехники, Стэнфордская философская энциклопедия (лето 2021 г.), Эдвард Н. Залта (редактор), https://plato .stanford.edu/entries/ethics-ai/

[7] Департамент экономики и технологий (ALJAZEERA), Tesla в смертельной аварии в Калифорнии была на автопилоте: власти, ALJAZEERA, последнее изменение 14 мая 2021 г., https://www.aljazeera.com/ экономика/2021/5/14/tesla-in-deadly-california-crash-was-on-autopilot-authorities

[8] Алана Семуэлс, Миллионы американцев потеряли работу из-за пандемии — и роботы и искусственный интеллект заменяют их быстрее, чем когда-либо, TIME, последнее изменение 6 августа 2020 г., https://time .com/5876604/machines-jobs-coronavirus/

[9] Никас Дж., Apple достигает 2 триллионов долларов, подчеркивая влияние крупных технологий, New York Times, последнее изменение 20 августа 2020 г., https://www.nytimes.com/2020/08/ 19/технологии/apple-2-trillion.html

[10] Рэй Курцвейл, Эпоха духовных машин: когда компьютеры превосходят человеческий интеллект, 1999, Лондон: Пингвин.

[11] Бен Диксон, Что такое этический ИИ?, TechTalks, последнее изменение 15 апреля 2019 г., «https://bdtechtalks.com/2019/04/15/trustworthy-ethical-artificial- интеллект/"

[12] Бэзил Хан, Deepfakes & Misinformation: The Ethics Behind AI, последнее изменение 1 июня 2021 г., AI Singapore, https://aisingapore.org/2021/06/deepfakes-misinformation-the- этика за ИИ/

[13] Кейд Мец, Интернет-компании готовятся к борьбе с будущим глубоких фейков, последнее изменение 24 ноября 2019 г., https://www.nytimes.com/2019/11/24/technology/tech-companies-deepfakes.html

[14] Институт будущего жизни Asilomar, «Принципы искусственного интеллекта», 2017 г.

[15] Google, «Ответственное развитие ИИ», 2018 г.

[16] Алекс Херн, «Партнерство в области искусственного интеллекта, созданное Google, Facebook, Amazon, IBM и Microsoft», The Guardian, опубликовано 28 сентября 2016 г.

[17] Д-р Дэвид Лесли, Понимание этики и безопасности искусственного интеллекта: руководство по ответственному проектированию и внедрению систем ИИ в государственном секторе, Институт Алана Тьюринга, https:// doi.org/10.5281/zenodo.3240529

[18] Дэйв Триер, Как сохранить этичность ИИ, Global Banking and Finance Review, последнее изменение 28 октября 2021 г., https://www.globalbankingandfinance.com/how-to-keep -ваш-ай-этично/