Искусственный интеллект (ИИ) на протяжении последних четырех десятилетий скрывался в мире технологий, постоянно находя новые способы автоматизации процессов в общественной и частной сферах. Постоянный рост количества вариантов использования сделал его одной из самых интересных тем для обсуждения, но в результате исследователи в этой области постоянно оказываются в противоречивых позициях. Его нынешнее состояние и его потенциал вырасти за пределы человеческого контроля заставили многих усомниться в его этических последствиях для нашего мира. Эта идея варьируется от беспрецедентных проблем, связанных с конфиденциальностью, будь то онлайн или в физических общественных местах, до робототехники, которая становится все более распространенной в различных отраслях, до автономных транспортных средств и, наконец, до антиутопической концепции сингулярности ИИ.

Такое современное появление означало, что существует не так много соответствующих ранее существовавших законов, связанных с его исследованиями и использованием, и большинство людей даже не в состоянии понять ИИ, чтобы даже доверять ему (Литару). Тем не менее, каждый должен опасаться потенциальных опасностей и силы, которую ИИ может предоставить, чтобы гарантировать его использование на благо человечества, а не его окончательную ловушку. Обязанность правительств - сотрудничать с ведущими исследователями ИИ и компаниями для просвещения общественности и поощрения инициатив, направленных на то, чтобы большее количество людей понимало и училось работать с ИИ. У самих ученых и исследователей есть свои этические обязанности - прилежно выполнять свою работу; они должны осознавать потенциальные эффекты и побочные эффекты своей работы.

На этом этапе мы должны сначала определить этические и юридические проблемы, которые в настоящее время окружают ИИ и его приложения. Поскольку он продолжает разрушать наше общество возрастающими усилиями и финансовыми вложениями, законодатели уже начали размышлять о том, в чем заключаются его правовые и этические вопросы. В 2016 году Палата общин Великобритании опубликовала свой отчет о робототехнике и искусственном интеллекте, в котором говорится о важности взаимодействия отдельных лиц и организаций с ИИ как с этической целью, так и с осознанием того факта, что даже с благими намерениями использование ИИ может причинить непреднамеренный вред (Комитет по науке и технологиям). Например, алгоритм, используемый для отфильтровывания определенных кандидатов на вступительную должность в компании, может не быть изначально предназначен для предвзятого отношения к женщинам, но из-за недостаточной тщательности вводимых обучающих данных это может, к сожалению, стать таковым. В течение трех лет после отчета британской палаты общин секретариат Совета казначейства Канады также выпустил Директиву об автоматизированном принятии решений, чтобы гарантировать, что процесс принятия решений ИИ «совместим с основными принципами административного права, такими как прозрачность, подотчетность, законность и процедурные нормы». справедливость »(Секретариат 1). Правительства, естественно, хотят, чтобы эта технология не причиняла вреда их гражданам, но вопрос в том, как регулирование должно осуществляться в ответ на ИИ. Важно понимать, что некоторые могут предпочесть вводить новые законы, а другие могут предпочесть применять уже существующие законы к новым сценариям в результате нововведений (Burke 2). С другой стороны, многие ставят под сомнение этику ИИ в отношении приложений, которые возникают с его помощью. Это включает в себя споры о конфиденциальности, предвзятости и занятости, которые влияют на экономику (Müller 1).

Текущее состояние технологий

В настоящее время ИИ уже является доминирующей областью технологий и с каждым годом растет в геометрической прогрессии, поскольку исследователи продолжают собирать данные и создавать для него новые приложения. IBM определяет ИИ как по своей сути любой человеческий интеллект, проявляемый компьютером, роботом или другой машиной (IBM 1). Организации, которые на раннем этапе инвестировали в технологию, в основном предпочитают ее для автоматизации повторяющихся задач, таких как ввод данных, но другие приложения заключаются в ее использовании в обработке естественного языка для генерации смысла из человеческой речи (Insights 1). Он также используется в автономных транспортных средствах в качестве инструментов проверки кандидатов и даже в сфере здравоохранения в качестве картографических инструментов. Компьютеру требуется большой объем данных для «изучения» поведения, чтобы иметь возможность имитировать его и принимать автономные решения даже в невидимых ситуациях.

По сути, насколько «хорош» ИИ, полностью зависит от того, насколько тщательными являются наборы данных для обучения. Это одно из ключевых ограничений в данной области; ИИ не может быть совершенным, потому что мы, люди, продолжаем предоставлять несовершенные наборы данных для его изучения. Часть этого документа будет посвящена тому, как эти ограничения приводят к проблемам конфиденциальности и наблюдения, а также к манипулированию поведением и предвзятости. Также существует этическая дискуссия о том, как текущее состояние ИИ влияет на занятость, отрасли и насколько мы далеки от сингулярности ИИ. Неспособность затронуть эти темы может потенциально увести человечество на могилу и антиутопический путь, по которому ИИ живет и думает вне нашего контроля. Однако мы еще далеки от этого.

Области этической и социальной озабоченности

Первая область, вызывающая как этическую, так и социальную озабоченность, - это степень, в которой ИИ в настоящее время используется как в физических общественных местах, так и в Интернете. С помощью камер и мультимедиа постоянно собираются данные о взаимодействиях, лицах, поведении и тенденциях людей. Однако это часто может приводить к смещению ИИ, поскольку входные данные обучения могут быть пристрастными. Например, рассмотрим, как изучающий ИИ может получать данные о том, что чернокожие люди находятся в заключении в большей степени, чем белые. Это произошло во Флориде, где алгоритм уголовного правосудия ошибочно пометил чернокожих обвиняемых, что они имеют вдвое более высокий риск, чем белые обвиняемые (Manyika 1). Это прямое следствие существующего в наших обществах системного расизма, проникающего в эти алгоритмы, требующие крайней чувствительности. Из-за недостаточной осторожности при подаче данных, связанных с социальным равенством, полом, расой, сексуальной ориентацией и даже чрезмерно или недостаточно представленными группами, мы остаемся с ИИ, который дискриминирует так же, как и мы, и, возможно, даже хуже, поскольку ИИ часто используется когда имеешь дело с крупными вещами (Маника 1).

Это также можно увидеть в медицинских школах и при приеме на работу, где некомпетентный ИИ отнял возможности у различных групп, которые могли быть каким-то образом дискриминированы в данных обучения ИИ. Это ограничение было проиллюстрировано в 1988 году, когда Комиссия Великобритании по расовому равенству обнаружила, что британский медик использует алгоритм, который был предвзятым против женщин и женщин с неевропейскими именами (Lowry 657). Какой бы абстрактной и сложной задачей она ни была, именно организации, использующие модели искусственного интеллекта при принятии решений, обязаны найти способы измерения и понимания справедливости.

Параллельно с этим, по мере того, как все больше компаний изучают наше онлайн-поведение, собирается все больше обучающих данных для ИИ, уделяя основное внимание рекламе и предложениям. Большинство людей во всем мире пользуются Интернетом, посещают веб-сайты и взаимодействуют с различными серверами. Однако с помощью файлов cookie и другого аналитического программного обеспечения, встроенного в веб-сайты, действия пользователя могут быть записаны, чтобы владелец веб-сайта мог поступать с ними по своему усмотрению. Этот подход обычно используется людьми, которые, например, определяют, какая из их функций используется чаще всего. Это распространяется на то, что они могут узнать, сколько раз пользователь даже прокручивал страницу вниз или нажимал кнопку. Это может выйти из-под контроля, и такие компании, как Facebook и Google, ранее обвинялись в незаконном сборе личной информации пользователей и продаже ее различным аналитическим и рекламным компаниям. К сожалению, это часто приводит к тому, что эти влиятельные корпорации используют небольшую часть существующего законодательства для защиты пользовательских данных, поскольку они неэтично используются и продаются. С помощью ИИ они контролируют то, что вам преподносят. Сначала это может показаться несерьезным, но это может означать, что они могут дискриминировать пользователей, зная их личную информацию. Например, два исследователя из Северо-Восточного университета обнаружили, что алгоритм показа рекламы Facebook является дискриминационным по отношению к определенным демографическим группам [Али 12]. Они поняли, что, представляя рабочие места людям, они предоставляли должности учителей дошкольных учреждений и секретарей гораздо большему количеству женщин, чем мужчин, а также работу водителей такси и уборщиков для большей доли меньшинств. Это не означает, что такая компания, как Facebook, пытается быть разборчивой, это просто подчеркивает важность подачи сбалансированных и тщательно продуманных наборов данных для обучения.

А как насчет автоматизации и занятости?

Искусственный интеллект уже привел к нарушению ряда рабочих мест и отраслей, таких как повара, туристические агенты, биржевые маклеры и читатели заявлений о приеме на работу, и это лишь некоторые из них. Однако оксфордские экономисты Карл Бенедикт Фрей и Майкл Осборн подсчитали, что 47% рабочих мест в США будут подвержены значительному риску автоматизации в течение следующих двух десятилетий (Frey 41). Эта тенденция также будет заметна с автономными транспортными средствами, использующими ИИ, чтобы избавить водителей от необходимости, что по сути убивает индустрию такси. Что еще хуже, некоторые рабочие места подвержены гораздо более высокому риску быть затронутыми, например, канцелярская работа, обычно выполняемая секретарями, сфера, в которой преобладают женщины. Это подвергает риску увольнения от 40 до 160 миллионов женщин (Мадгавкар 8) - цифра, ближайшими конкурентами которой являются работники обрабатывающей промышленности и американцы, живущие в неблагополучных сельских районах Америки (Оксфорд 1). Со временем это может ухудшиться даже для тех, кто считает свою работу неприкасаемой, например, инженеров, врачей и юристов. Однако для предприятий более высокая социальная безработица не обязательно является плохой новостью. Интеграция ИИ в их «рабочую силу» позволяет им снизить свои затраты, поскольку теперь им требуется меньше сотрудников для того же результата (Стэнфорд 10), повышая их эффективность и приводя к более высокой прибыли. Мы уже можем заметить преимущества, которые ИИ дал таким компаниям, как Tesla Motors, которые были на переднем крае интеграции ИИ и робототехники в электромобили. Это особенно важно для общества, поскольку эти «умные» автомобили помогают снизить потребность в газе, что является значительным шагом на пути к замедлению изменения климата на нашей Земле.

Сингулярность

Такие инновации вызывают вопрос о том, где может простираться будущее искусственного интеллекта и робототехники. Возможно, самым пугающим последствием этого экспоненциального улучшения ИИ является сингулярность человека и компьютера. Сингулярность ИИ означает, что ИИ соответствует человеческому интеллекту и даже превосходит нас, будучи способным к самосовершенствованию, намекая на мрачное будущее, в котором роботы больше не находятся под контролем человека. Голливудские фильмы показали, как все может пойти не так, если это произойдет. В настоящее время мы еще не близки к достижению этого горизонта из-за аппаратных и программных ограничений [Яномами]. Также существует другая возможность, что ИИ не станет независимой формой жизни, а люди и технологии будут объединены вместе, чтобы создать сверхлюдей. Как бы интересно это ни звучало, существует опасность того, что правительства, владеющие технологиями создания суперсолдат, могут вызвать гораздо большие разрушения, чем обычные люди.

Был проведен опрос, чтобы оценить, когда исследователи ИИ и идейные лидеры сочли уникальность ИИ реальностью. Результат означал, что большинство полагало, что это возможно в течение следующих четырех-пяти десятилетий (Бостром), будучи достаточно далеким, но одновременно важным для нынешних исследователей и правительств, чтобы понять последствия сингулярности, прежде чем мы на самом деле там. В настоящее время в разных странах существуют разные представления о том, как подходить к регулированию ИИ. Канада является одним из примеров страны, которая в настоящее время не столько сосредоточена на регулировании и управлении ИИ, а скорее сосредоточена на финансировании дополнительных исследований в этой области - подход, который многие считают «отстающим» от его регулирования. Он выделил лишь небольшое количество политиков, которые будут выполнять функции руководящей и государственной когорты, отвечающей за управление ИИ (Ааронсон). Другие страны, такие как США, были в основном озабочены только подмножеством всех видов использования ИИ: автономными или беспилотными транспортными средствами (Douglas Shinkle, 2020). По общему признанию, это наиболее актуально для общества прямо сейчас, поскольку такие компании, как Tesla Motors и TuSimple, расширяют границы автономных транспортных средств, управляемых ИИ. Это распространяется и на уровень штатов, где такие штаты, как Невада и Калифорния, быстро подписали закон, фактически запрещающий автономные транспортные средства, не требующие контроля со стороны человека. Аризона быстро последовала за этим, когда в 2018 году автономный автомобиль попал в аварию со смертельным исходом.

Как подчеркнули правительства Великобритании и Канады (Комитет по науке и технологиям, Секретариат), каждый, кто прямо или косвенно взаимодействует с ИИ, должен понимать последствия своей работы. Для инженеров и исследователей это означает осознание того факта, что даже если их предполагаемые инновации не предназначены для причинения вреда, наделение машины собственным независимым мозгом все равно может быть скользкой дорогой. Некоторым может быть легко потеряться в своей страсти к инновациям в области искусственного интеллекта, если не уделять должного внимания поднятым этическим проблемам. Для частных компаний больше места для этических проблем, поскольку ИИ может расширить свои капиталистические амбиции, поскольку он предоставляет новые способы получения прибыли. Технологические гиганты, такие как Facebook, уже продемонстрировали отсутствие этики в своих планах увеличения прибыли, и было бы наивно полагать, что такую ​​организованную человеческую жадность можно контролировать с помощью позора вины. Следовательно, в руках правительства принимать меры и контролировать использование ИИ в этих компаниях, даже если корпорации пытаются лоббировать свои собственные пути. Правительства также должны вмешаться, чтобы облегчить бремя безработицы, с которым неизбежно столкнется их экономика, поскольку ИИ заменяет все больше рабочих мест. Вместо того, чтобы бороться с внедрением улучшенных методов, которые могут привести к безработице, правительства должны инвестировать в инициативы, чтобы помочь тем, чьи рабочие места затронуты ИИ, обучить их навыкам, которые позволят им вернуться на рынок труда. Это также может начаться раньше: почему бы не начать обучать детей в школе тому, что такое ИИ и как его можно использовать? Он не только может посеять зерно в сознании детей, побуждая тех, кто проявляет наибольший интерес к этой теме, заниматься информатикой и заниматься искусственным интеллектом, но также может создать более сознательных взрослых, более осведомленных о мире технологий. вокруг них. Мы не должны подавлять инновации в области искусственного интеллекта, поскольку он может повысить продуктивность и креативность нашей экономики; аналогичные тенденции можно найти на протяжении всей истории, когда инновации увольняли определенные группы, но они также привели к улучшению наших обществ.

Рост ИИ вызвал панику среди различных групп, которые скептически относятся к тому, что в конечном итоге он может быть использован людьми со злонамеренными намерениями. Кроме того, это косвенно вредный инструмент, когда данные обучения ИИ недостаточно полны. Это уже оказалось одной из его самых больших проблем. Исследователи, вводящие данные в алгоритм обучения ИИ, должны использовать наборы данных, которые осведомлены о социальной справедливости, поле, расе, сексуальной ориентации, а также должны убедиться, что они не слишком или недостаточно представляют определенные группы, поскольку это также может привести к смещению ИИ. . Конфиденциальность - еще один аспект этой многомерной проблемы, связанной с искусственным интеллектом, когда частные компании и правительства должны придерживаться этических норм при использовании технологий при сборе данных от людей. Благодаря автоматизации некоторые рабочие места могут быть потеряны, но история неоднократно показывала, что по мере того, как умирают старые профессии, рождаются новые, требующие новых навыков. Задача правительства - сотрудничать с образовательными учреждениями, чтобы вооружить общественность новыми навыками, которые позволят им найти новую работу после увольнения с работы. Каким бы жутким ни казалась уникальность ИИ, использование ИИ, которое становится все более распространенным в различных сферах нашей жизни, не должно быть фактором страха. Вместо этого мы должны принять его неизбежность, осознавая при этом его потенциальные опасности, независимо от того, связано ли это с практическими социальными проблемами, такими как автоматизация и занятость, или даже с концепциями, которые угрожают всему человечеству, например, сингулярности. Тем не менее, эта амбивалентность является здоровой и ожидаемой, и благодаря общедоступному обучению и большему взаимодействию с ИИ и его подмножествами мы сможем справиться с препятствиями, которые будут и дальше возникать в результате роста ИИ и, в конечном итоге, превратиться в реальность, где компьютеры под контролем человека , улучшить качество и безопасность жизни.

Цитаты

  1. Ааронсон, С., Хирш, Дж., Маззолин, Р., Оуэн, Дж., Оуэн, Т., Мор, А.,. . . Вихул, Л. (11 января 2018 г.). Политический дефицит канадского искусственного интеллекта. Получено 29 января 2021 г. с сайта https://www.cigionline.org/articles/policy-deficit-behind-canadian-artificial-intelligence.
  2. Али, Мухаммад и др. «Дискриминация через оптимизацию: как размещение рекламы в Facebook может привести к искаженным результатам». ArXiv.org, 12 сентября 2019 г., arxiv.org/abs/1904.02095.
  3. Бостром, Ник, и Мюллер, Винсент К. «Будущий прогресс в области искусственного интеллекта: обзор мнений экспертов». Оксфордский университет, 2014 г.
  4. Берк, Тодд Дж. И Скарлетт Тразо. Новые правовые вопросы в мире, управляемом искусственным интеллектом. Lexology, 17 июля 2019 г., www.lexology.com/library/detail.aspx?g=4284727f-3bec-43e5-b230-fad2742dd4fb.
  5. Кон, Эдвард и Джеймс Ламберт. Как роботы меняют мир - что на самом деле автоматизация означает для рабочих мест, производительности и регионов. Oxford Economics, www.oxfordeconomics.com/recent-releases/how-robots-change-the-world.
  6. Https://www.ncsl.org/research/transportation/autonomous-vehicles-self-driving-vehicles-enaked-legislation.aspx
  7. Фрей, Карл Бенедикт и Майкл Осборн. Будущее занятости: насколько рабочие места подвержены компьютеризации? Oxford Martin School, 1 сентября 2013 г., www.oxfordmartin.ox.ac.uk/publications/the-future-of-employment/.
  8. IBM Cloud Education. Что такое искусственный интеллект (ИИ)? IBM, IBM, 3 июня 2020 г., www.ibm.com/cloud/learn/what-is-artificial-intelligence.
  9. Insights, MIT Technology Review. Состояние искусственного интеллекта. MIT Technology Review, MIT Technology Review, 4 мая 2020 г., www.technologyreview.com/2019/01/08/137912/the-state-of-artificial-intelligence/.
  10. Литару, Калев. В машинах, которым мы доверяем: алгоритмы становятся слишком сложными для понимания. Forbes, журнал Forbes, 4 января 2016 г., www.forbes.com/sites/kalevleetaru/2016/01/04/in-machines-we-trust-algorithms-are-getting-too-complex-to-understand/? sh = 56a24fba33a5.
  11. Лоури, С. и Дж. Макферсон. Пятно о профессии. Британский медицинский журнал (под ред. Клинических исследований), Национальная медицинская библиотека США, 5 марта 1988 г., www.ncbi.nlm.nih.gov/pmc/articles/PMC2545288/?page=1.
  12. Мадгавкар, Ану и др. Будущее женщин в сфере труда: переходный период в эпоху автоматизации. Компания McKinsey, Компания McKinsey, 28 февраля 2020 г., www.mckinsey.com/featured-insights/gender-equality/the-future-of-women-at-work-transitions-in-the-age-of-automation.
  13. Манника, Джеймс и др. «Что нам делать с предубеждениями в ИИ?» Harvard Business Review, Гарвардский университет, 25 октября 2019 г., hbr.org/2019/10/what-do-we-do-about-the-biases-in-ai.
  14. Мюллер, Винсент К. «Этика искусственного интеллекта и робототехники». Стэнфордская энциклопедия философии, Стэнфордский университет, 30 апреля 2020 г., plato.stanford.edu/entries/ethics-ai/#OpacAISyst.
  15. Комитет по науке и технологиям, Палата общин Великобритании. «Робототехника и искусственный интеллект». Пятый специальный отчет сессии 2016–17, Палата общин Великобритании, 13 сентября 2016 г., Publications.par Parliament.uk/pa/cm201617/cmselect/cmsctech/145/145.pdf.
  16. Секретариат Казначейства Канады. Директива об автоматизированном принятии решений. Canada.ca, 24 августа 2017 г., www.tbs-sct.gc.ca/pol/doc-eng.aspx?id=32592.
  17. Яномами, Дави Копенава. «Технологическая сингулярность». Центр полевой робототехники, Университет Карнеги-Меллона, 30 марта 1998 г., frc.ri.cmu.edu/~hpm/book98/com.ch1/vinge.singularity.html.