Почему нам нужно относиться к ИИ с религиозной точки зрения… пока еще не поздно

В запоминающейся сцене Ex Machina, триллера 2015 года о реалистичных роботах, генеральный директор монополии в стиле Google описывает, как его машины научились быть людьми. По его словам, на несколько секунд он тайно включил камеры смартфонов по всей планете, а затем собрал данные: Бум. Безграничный ресурс голосового и лицевого взаимодействия .

Оказывается, это вряд ли фантастика. По мере того, как ИИ становится все более сложным, разработчики осознают, что информация, изображения и видео, которыми мы добровольно делимся в социальных сетях и Интернете, представляют собой один из самых богатых доступных источников необработанных данных - настоящий снимок человечества в любой данный момент.

Подобные данные, включая миллиарды сообщений, отправляемых через мою платформу, могут однажды стать источником жизненной силы машинного обучения - приложения искусственного интеллекта, с помощью которого машины, получив доступ к достаточному количеству данных, учатся сами. Для «обучения» этим инструментам обычно требуется доступ к обширному набору обучающих программ. Часто только после анализа того, как невероятно большая группа людей справлялась с повторяющимся поведением (например, играла в го, отвечая на запросы в службу поддержки или помечая фотографию собаки словом «собака»), люди могут быть исключены из общего круга. процесс.

Конечно, многое из этого уже давно устарело. Apple использует искусственный интеллект, который был обучен бесчисленным количеством пользователей, чтобы расшифровать ваш голос и усилить Siri. Facebook использует искусственный интеллект, извлеченный из прошлых взаимодействий, для обеспечения правильного таргетинга рекламы на миллиарды людей. Google в той или иной форме включил ИИ в свои поисковые системы с самого начала.

Опасность (и обещание) социальных данных

Но новые приложения искусственного интеллекта, такие как печально известный бот Microsoft Tay, намекают на сложность принятия этих социальных данных за чистую монету. Чат-бот, развернутый в Твиттере в начале 2016 года, должен был учиться на взаимодействиях пользователей. (Чем больше ты говоришь, тем умнее становится Тей, - хвасталась ее репутация.) Но она была окружена расистскими, антисемитскими и женоненавистническими комментариями почти с самого начала. Узнав из своего окружения, Тэй начала выплевывать ряд воспалительных реакций, в том числе, как известно, Буш устроил 9/11, и Гитлер справился бы лучше, чем обезьяна, которую мы имеем сейчас. Разработчики Microsoft отключили его всего через 16 часов после релиза Тэя.

Это простой пример. Но в этом и заключается проблема. Да, миллиарды людей ежедневно делятся своими мыслями, чувствами и опытом в социальных сетях. Но обучение платформы ИИ на данных социальных сетей с целью воспроизвести «человеческий» опыт чревато риском. Вы можете сравнить это с воспитанием ребенка на постоянной диете Fox News или CNN без участия родителей или социальных институтов. В любом случае вы можете разводить монстра.

Реальность такова, что, хотя социальные данные могут отражать цифровой след, который мы все оставляем, они не соответствуют действительности и не обязательно всегда красивы. Некоторые посты в соцсетях отражают амбициозное «я», доведенное до совершенства за пределами досягаемости человека; другие, скрытые анонимностью, демонстрируют уродство, которое редко можно увидеть «в реальной жизни».

В конечном счете, социальные данные сами по себе не представляют ни того, кем мы являемся на самом деле, ни того, кем мы должны быть. Еще глубже: сколь бы полезной ни была социальная диаграмма в качестве обучающего набора для ИИ, нам не хватает этического чувства или моральной основы для оценки всех этих данных. Из всего спектра человеческого опыта, которым делились в Twitter, Facebook и других сетях, какие модели поведения следует моделировать, а каких следует избегать? Какие действия правильные, а какие нет? Что хорошо… а что плохо?

Кодирование религии с помощью ИИ

Борьба с тем, как внедрить этику в ИИ, - не обязательно новая проблема. Еще в 1940-х годах Айзек Азимов усердно работал над формулированием своих Законов робототехники. (Первый закон: робот не может причинить вред человеку или из-за бездействия позволить человеку причинить вред.) Но эти опасения больше не являются научной фантастикой. Настоятельно необходимо найти моральный компас, чтобы управлять интеллектуальными машинами, с которыми мы все чаще делим свою жизнь. (Это становится еще более критичным по мере того, как ИИ начинает создавать свой собственный ИИ, вообще без человеческого руководства, как это уже имеет место с AutoML от Google.) Сегодня Тэй является относительно безобидным раздражителем в Твиттере. Завтра она вполне может разрабатывать стратегию для наших корпораций ... или наших глав государств. Каких правил ей следует соблюдать? Что ей следует игнорировать?

Вот где наука терпит неудачу. Ответы невозможно получить из любого набора социальных данных. Лучшие аналитические инструменты их не обнаружат, независимо от размера выборки.

Но их просто можно найти в Библии.

А также Коран, Тора, Бхагавад Гита и буддийские сутры. Они есть в работах Аристотеля, Платона, Конфуция, Декарта и других философов, как древних, так и современных. Мы потратили буквально тысячи лет на разработку правил человеческого поведения - основных заповедей, которые позволяют нам (в идеале) ладить и процветать вместе. Самые мощные из этих принципов пережили тысячелетия с небольшими изменениями, что свидетельствует об их полезности и действенности. Что еще более важно, по своей сути, эти школы мысли разделяют некоторые удивительно похожие требования о моральном и этическом поведении - от Золотого правила и святости жизни до ценности честности и добродетелей щедрости.

По мере того, как ИИ становится все более изощренным и применяемым, нам как никогда необходимо соответствующее процветание религии, философии и гуманитарных наук. Во многих смыслах обещание - или опасность - этих самых передовых технологий зависит от того, насколько эффективно мы применяем некоторые из самых неподвластных времени мудрости. Подход не должен и не должен быть догматическим или согласованным с каким-либо одним вероучением или философией. Но для того, чтобы ИИ был эффективным, ему нужна этическая основа. Одних данных недостаточно. ИИ нужна религия - код, который не меняется в зависимости от контекста или обучающего набора.

Вместо родителей и священников ответственность за этическое воспитание будет все больше ложиться на передовых разработчиков и ученых. Этика традиционно не учитывалась при обучении компьютерных инженеров - это, возможно, придется изменить. Одного понимания точной науки недостаточно, когда алгоритмы имеют моральное значение. Как подчеркивает ведущий исследователь искусственного интеллекта Уилл Брайдвелл, очень важно, чтобы будущие разработчики знали об этическом статусе своей работы и понимали социальные последствия того, что они разрабатывают. Он заходит так далеко, что выступает за изучение этики Аристотеля и буддийской этики, чтобы они могли лучше отслеживать интуицию относительно морального и этического поведения.

На более глубоком уровне ответственность лежит на организациях, в которых работают эти разработчики, на отраслях, в которых они работают, на правительствах, регулирующих эти отрасли, и, в конце концов, на нас. В настоящее время государственная политика и регулирование ИИ все еще зарождаются, а то и вовсе отсутствуют. Но обеспокоенные группы повышают свой голос. Открытый ИИ, созданный Илоном Маском и Сэмом Альтманом, требует надзора. Технические лидеры объединились в Партнерство по искусственному интеллекту, чтобы изучить этические вопросы. Появляются сторожевые псы вроде AI Now, чтобы выявить предвзятость и искоренить ее. То, что все они ищут, в той или иной форме, - это этические рамки, чтобы информировать о том, как ИИ преобразует данные в решения - справедливым, устойчивым образом и отражающим лучшие стороны человечества, а не худшие.

Это не несбыточная мечта. На самом деле, это в высшей степени в пределах досягаемости. Недавно появились сенсационные сообщения о том, что искусственный интеллект DeepMind от Google становится очень агрессивным, когда предоставляется его собственным устройствам. Исследователям Google пришлось столкнуться с агентами ИИ в 40 миллионах раундов компьютерной игры по сбору фруктов. Когда яблок стало не хватать, агенты начали нападать друг на друга, убивая конкурентов - наихудшие порывы человечества отозвались эхом… по крайней мере, так говорили критики.

Но затем исследователи изменили контекст. Алгоритмы были намеренно изменены, чтобы сделать совместное поведение полезным. В конце концов победили те агенты, которые научились работать вместе. Урок: ИИ может отражать лучших ангелов нашей природы, если мы покажем ему, как это сделать.