Искусственный интеллект (ИИ) переходит от научной фантастики к каждому аспекту реальности. Хотя это не то, о чем стоит беспокоиться (пока), так как мы все еще далеки от общего искусственного интеллекта, который может захватить мир.

Прямо сейчас ИИ — это инструмент, который помогает нам во многих тривиальных задачах, таких как запись на прием, прерывание, если вы видите, что кто-то переходит дорогу, предложение фильмов и т. д. Некоторые из этих задач могут показаться сложными, однако они являются решениями, принимаемыми статистическими данными. анализ или машинное обучение.

Далее следует то, о чем мы должны беспокоиться. Видите ли, ИИ возьмет на себя (по крайней мере, попытается) серьезные задачи. Например, договариваться о цене бронирования, принимать мгновенные решения на дороге, покупать рекомендованный фильм или экономить деньги владельца? Решения такого типа требуют участия этического веса и, следовательно, уязвимы для этических дилемм.

В этой статье рассказывается о последних исследованиях, проводимых для решения этических проблем, связанных с принятием решений ИИ.

Человеческая этика

Этику можно кратко назвать систематическим изучением правильного и неправильного [1]. Это часть нашего человеческого общества, и она может быть написана или не написана. Используя этические кодексы, заложенные в нашей природе, мы решаем этические проблемы, основываясь на инстинктах и ​​прошлом опыте. Но как на самом деле эти коды внедряются в наш мозг? Мы, конечно, не рождаемся с ними, иначе у всех людей были бы одинаковые этические ценности.

Ответ можно найти в истоках самой этики. Давным-давно пещерные люди прививали этику обществу, рассказывая истории. Передача опыта в виде жестов, письма или голоса. Вымысел или реальность, все эти истории преподнесли им какой-то урок. Которые приводят к общему принятию решений в группе людей.

Рассказывание историй было важным аспектом развития человека. Это объясняет, почему правители или фараоны хотели, чтобы все о них было задокументировано и распространено среди масс. Мы учимся этике на примерах других персонажей, реальных или вымышленных.

Машинная этика

Какой бы простой ни казалась этика, ее трудно перевести в компьютерный код. Причина в сложности и многообразии этических законов. Сложность можно понять на следующем примере.

Как научить машину тому, что безработица — это не то же самое, что отдых?

Если попытаться понять это логически, то в обоих случаях человек не работает. Одно отличие состоит в том, зарабатывают они деньги или нет. Но может случиться так, что человек берет неоплачиваемый отпуск или зарабатывает каким-то другим способом, но фактически не работает.

Разнообразие этических кодексов связано с тем, что ни одно действие нельзя назвать этически правильным, поскольку все оценочные суждения относятся либо к обществу, либо к индивидуумам [2]. Специалисты по этике могут не согласиться с каждым этическим человеческим решением, но мы можем согласиться с этим:

Мы с большей вероятностью согласимся с тем, как машины должны относиться к нам, чем с тем, как люди должны относиться друг к другу. [2]

Решение цифровой этики

В компьютерных терминах мы можем сказать, что этика — это правильность и неправильность действий машины. В то время как действия могут подвергаться сомнению только тогда, когда они исходят из качественного или количественного принятия решений. Мы называем это логическим программированием [3]. Каждое действие исходит из обработки логического утверждения, но логические решения не всегда этичны. Поэтому нам нужно что-то, чтобы анализировать эти действия и соответственно взвешивать логику.

Андерсон М. и его лаборатория работали над созданием анализатора общей этической дилеммы (GenEth) [2], который может помочь решить эту проблему. GenEth служит для создания принципа, который является наиболее общей спецификацией.

GenEth работает, определяя действия, случаи и принципы с точки зрения функций и обязанностей, которые обрабатываются количественно на основе этических предпочтений.

Этические предпочтения исходят от самих людей. GenEth использует машинное обучение [4] для понимания человеческих предпочтений в определенных этических случаях. Специалисту по этике предоставляется ситуация, и из предложенных действий специалист по этике выбирает предпочтительное. Как только алгоритм достаточно обучен, мы можем применить его на практике.

Пример GenEth в действии можно посмотреть ниже.

Преподавание этики

Одним из интересных методов обучения машин является рассказывание историй. Точно так же, как люди изучают этику так же, как и машины. Я написал об этом отдельную статью здесь [5].

В мире ИИ это может быть достигнуто с помощью обучения с обратным подкреплением (RRL) и деревьев решений (DT) [6]. GenEth может использовать эти инструменты. Как обсуждалось ранее, GenEth использует алгоритм обучения, чтобы понять предпочтительность действий на основе данных, предоставленных специалистами по этике. Что, если вместо специалистов по этике машины узнают об этих предпочтениях по историям?

Мы придумываем историю с моральным выводом из случая, который может возникнуть с машиной. Вывод должен быть в соответствии с этическими принципами, которые мы хотели бы привить машине. Не научная фантастика, а реальные инструменты.

Вывод

Приближается искусственный интеллект, в этой области проводятся серьезные исследования, и стороны вкладывают средства, чтобы сделать искусственный интеллект реальностью. Тем не менее, хорошая сторона заключается в том, что есть исследовательские группы, сосредоточенные на предотвращении неконтролируемого искусственного интеллекта, и они следят за тем, чтобы мы не создавали свое собственное разрушение.

Справочная полка

[1] Зингер, П. (2019, 29 марта). Этика. Получено 5 мая 2019 г. с https://www.britannica.com/topic/ethics-philosophy.

[2] Андерсон, М., и Андерсон, С.Л. (2014, июнь). GenEth: анализатор общих этических дилемм. На двадцать восьмой конференции AAAI по искусственному интеллекту.

[3] Ллойд, Дж. В. (2012). Основы логического программирования. Springer Science & Business Media.

[4] Магглтон, С., и Де Рэдт, Л. (1994). Индуктивное логическое программирование: Теория и методы. Журнал логического программирования, 19, 629–679.

[5] Р. А. (2019, 10 марта). Обучающие машины человеческой этике. Получено 5 мая 2019 г. с https://becominghuman.ai/teaching-machines-about-human-ethics-19467c2d77b4.

[6] Ридл, Марк О. и Брент Харрисон. Использование историй для обучения искусственных агентов человеческим ценностям. Семинар AAAI: ИИ, этика и общество. 2016.

Первоначально опубликовано на https://blog.rizasif.com.