Должна ли машина выносить моральные суждения?

Кажется, что машины развивают всевозможные человеческие качества и способности. Некоторые утверждают, что роботы уже «взломали» человеческий интеллект, обучение, игры и творчество, так что, возможно, пришло время перейти в другую область, которая типично считается человеческой: этика и моральное суждение.

Это можно рассматривать как пугающее развитие событий, но если когда-либо возникнет суперинтеллект, машины должны лучше понимать человеческие ценности и нормы. Роботы - это, по сути, машины оптимизации, и если вы не научите их чему хорошему, это может иметь очень неприятные побочные эффекты. Поэтому относительно недавно исследователи информатики начали работать над рядом тем, связанных с этикой роботов.

Проблема в том, что вы не можете предвидеть все правила для всех ситуаций, которым нужно следовать, поэтому должен быть какой-то элемент машинного обучения. Например, Марк Ридл и команда из Технологического института Джорджии используют истории, чтобы научить машины действовать правильно в повседневных повседневных ситуациях, таких как заказ лекарства в аптеке. Получите таблетки для своего хозяина как можно быстрее, но не за счет убийства людей, стоящих в очереди перед вами. Или, как другой пример, исследователи Массачусетского технологического института предлагают краудсорсинговые решения моральных дилемм для беспилотных автомобилей, чтобы получить учебные материалы, а также повысить осведомленность. Если тормоза перестают работать, должны ли мы свернуть налево и убить бабушку или на полной скорости врезаться в машину, идущую впереди нас, возможно, нанеся больше повреждений?

Однако в самих исследованиях этики и социальных наук интеллектуальных эмпирических подходов все еще мало. В недавней статье, представленной на конференции Intelligent Data Analysis, мы представили Morality Machine, систему, которая научилась понимать и отслеживать этические настроения в дискурсе Twitter [Teernstra et al, 2016]. Система основана на теоретической основе этики, теории моральных основ, которая предусматривает, что утверждения можно разделить на 6 основных категорий, касающихся таких понятий, как забота, справедливость, лояльность и авторитет. Затем мы обозначили 2000 твитов о Grexit как наиболее подходящую моральную основу и использовали эти данные для обучения алгоритму классификации новых твитов в реальном времени. И да, мы могли бы использовать Brexit или выборы в США, но мы бы больше обсуждали эту тему, чем исследования.

Некоторые технические детали результатов можно найти на изображении ниже, но если перевести его на простой английский, машина может поместить твиты в «правильную» категорию в 64,7% случаев, что является хорошим результатом с учетом двусмысленности Твиты в приведенных выше примерах, и хотя некоторые результаты не анализировались подробно, кажется, что они близки к человеческим характеристикам (добровольцы приветствуются). Также количество помеченных твитов казалось достаточным для используемых алгоритмов.

До сих пор альтернативный подход заключался в использовании словарей ключевых слов, тщательно созданных социологами. Поэтому мы также сравнили алгоритмы, которые полностью автоматически создавали словари ключевых слов, с моделями, которые также могли использовать созданные вручную, но производительность была такой же. Другими словами, позволить системе изучать лучшие ключевые слова с нуля было как минимум не хуже. Затем мы могли бы использовать алгоритм, чтобы увидеть, как моральные настроения меняются с течением времени в дискурсе Twitter о Grexit. См. Ниже более подробную информацию об экспериментах и ​​результатах.

Так что ты думаешь? Могут ли моральные машины помочь людям или, по крайней мере, философам, экономистам и социологам? Или, выражаясь морально: должны ли?

Примечание: эта работа основана на статье Livia Teernstra, которую следует рассматривать как главного исследователя, по тезису Медиа-технологии.

[Teernstra et al, 2016] Ливия Тернстра, Питер ван дер Путтен, Лисбет Нордеграаф-Иленс и Фон Вербеек, Машина нравственности: отслеживание моральных ценностей в твитах. В: Пятнадцатый международный симпозиум по интеллектуальному анализу данных (IDA), 2016 г.

Примечание: более ранняя версия этой истории была опубликована как статья в LinkedIn