В этом эссе с точки зрения дизайна высокого уровня рассматривается, как эволюция биологического интеллекта может повлиять на наши усилия по созданию общего искусственного интеллекта. Я отвечаю на вопросы о том, где должен работать обычный агент ИИ, с какими данными он должен работать и какие его функции вознаграждения должны стимулировать. Короткие ответы таковы: в реальном мире сенсорный ввод из окружающей среды и выживание. Это эссе объяснит, почему я думаю, что это приведет к общему ИИ. У меня лично нет опыта, чтобы применить концепции на практике, поэтому я публикую это для всех, кто заинтересован в создании реальной вещи.

В этом эссе не полностью рассматриваются технические проблемы создания общего ИИ; Мне придется оставить техническую работу настоящим компьютерным инженерам. Кажется, самым большим препятствием является вычислительная мощность. Учитывая, что физическая реальность значительно сложнее, чем ограниченные наборы данных или виртуальные среды, в которых работает большинство существующих узких ИИ, я предполагаю, что агент обучения с подкреплением, работающий с необработанными данными из реального мира, либо займет гораздо больше времени, либо потребует больше вычислительных мощностей. достичь компетентности в решении конкретной задачи. Я не знаю ни одного существующего проекта машинного обучения без присмотра, использующего необработанные данные из реального мира. Искусственный интеллект автономных транспортных средств, такой как Tesla's Self Driving и Waymo, в настоящее время обучается на реальных данных, и кажется, что они развиваются достаточно хорошо, но это контролируемое машинное обучение, потому что агентам даются примеры людей-водителей для имитировать

При рассмотрении того, что такое общий ИИ и как мы можем его достичь, нам нужно думать об интеллекте с точки зрения широты и глубины. Сравнивая общий ИИ с узким ИИ, я думаю, что мы имеем в виду широту интеллекта. Узкий ИИ узок в том смысле, что, например, агент, играющий в шахматы, не может распознавать изображения кошек, и наоборот. Общий ИИ должен уметь делать и то, и другое, но не обязательно более компетентно, чем узкий ИИ. Компетентность относится к глубине, например, какой агент выигрывает больше всего игр в шахматы, учитывая, что несколько агентов играют в шахматы по-разному друг от друга. Мы, люди, обладаем широким общим интеллектом в том смысле, что мы можем и играть в шахматы, и распознавать кошек, но наш шахматный интеллект менее глубок, чем у многих узкоспециализированных ИИ, играющих в шахматы. Я бы сказал, что проблема ограниченной вычислительной мощности больше связана с глубиной, чем с широтой. Агент, который может научиться делать широкий круг вещей, — это обычный ИИ, даже если он значительно менее компетентен в своем широком спектре задач, чем средний человек. Если мы примем тот факт, что широкий, но неглубокий ИИ квалифицируется как общий ИИ, то ограниченная вычислительная мощность может не быть серьезной проблемой при попытке построить общий ИИ; он просто не будет очень умным во всем, что он делает.

Жизнеподобные мотивы

Чтобы создать общий интеллект, нам сначала нужно определить условия, которые вызывают общий интеллект. Наши самые известные примеры общего интеллекта — это, конечно же, мы, люди. В меньшей степени другие животные также обладают некоторой способностью решать новые проблемы, особенно другие приматы, некоторые млекопитающие и некоторые птицы. Почему мы развили эту форму общего интеллекта?

Ранее я написал рукопись под названием Любовное письмо нашим будущим роботам-повелителям, в которой утверждал, что всеми формами жизни движет потребность выживать и размножаться в сложной среде ограниченной доступности ресурсов и неопределенности. Животные должны находить пищу и избегать опасностей, чтобы выжить, и все наше поведение проистекает из этой потребности. Обратите внимание, что это открытые цели, поскольку существует множество, возможно, бесконечное количество различных способов избежать опасностей и найти еду. Некоторые формы жизни, такие как растения и губки, способны находить пищу вообще без всякого разума. Насекомые довольно эффективно находят пищу и избегают опасностей, но при этом обладают очень ограниченным интеллектом, возможно, меньшим, чем у некоторых из наших ИИ. По мере того, как мы переходим к рептилиям, птицам, а затем к млекопитающим, мы обычно наблюдаем все более сложное поведение, которое позволяет животным находить пищу и избегать опасностей во все более разнообразных обстоятельствах. То, что мы называем интеллектом, представляет собой увеличение когнитивных способностей, применяемых для решения проблемы выживания. Мы должны отметить, что интеллект животных, особенно на более низком уровне, является скорее результатом эволюционировавших инстинктов, чем обучения. Однако в том смысле, что эволюция посредством естественного отбора приводит к усилению более успешных моделей, в то время как менее успешные модели отбраковываются, ее эффекты аналогичны обучению с подкреплением.

В этой схеме люди несколько необычны тем, что стали настолько компетентны в выживании, что у нас есть много свободного времени, чтобы заниматься чем-то другим, помимо поиска пищи и избегания опасностей. При случайном наблюдении кажется, что мы преследуем интеллектуальную стимуляцию просто ради нее, читая книги, смотрим фильмы или обсуждаем политику. Но такое интеллектуальное поведение также является продолжением нашего стремления к выживанию, потому что обучение позволяет нам лучше понимать мир, что позволяет нам решать больше проблем выживания. Общий интеллект и интеллектуальное любопытство — это то, что происходит, когда вы даете форме жизни, которая мотивирована выжить в сложном и неопределенном мире, много, казалось бы, избыточных умственных способностей; ему не обязательно нужны все эти умственные способности, чтобы выжить, но он может использовать их, чтобы выживать более надежно и в самых разнообразных обстоятельствах.

Что же касается любви и ненависти, то это всего лишь стратегии выживания в социальном контексте, когда возможны взаимодействия между несколькими людьми. Подумайте, являетесь ли вы доисторическим человеком, не имеющим особого доступа к инструментам или технологиям. Там есть высокое фруктовое дерево, и вам понадобится помощь друга, чтобы забраться на его ветви, чтобы добраться до плодов. Как только вы окажетесь на дереве, вы также можете собрать немного фруктов для своего друга, чтобы он был готов продолжать помогать вам в будущем. Вам нужна помощь друг друга, чтобы выжить, поэтому вы формируете долгосрочную совместную дружбу. Напротив, подумайте, если другой человек попытается украсть вашу еду, и вам будет дешевле бороться с этим человеком, чем отказаться от еды. Очевидно, это мотивирует конфликт. Таким образом, в зависимости от того, помогает ли вам выжить в той или иной социальной ситуации сотрудничество или конфликт, вы склонны любить или ненавидеть. Мы считаем такое поведение показателем общего интеллекта, и оно является результатом нашей потребности находить пищу в сложной социальной среде.

Подводя итог, вот условия, которые породили наш общий интеллект:

  • Формы жизни, которые нуждаются в средствах к существованию из окружающей среды, чтобы выжить.
  • Проблемы в окружающей среде, препятствующие выживанию форм жизни.
  • Сложная среда, в которой существует множество (или бесконечных) способов для форм жизни получать средства к существованию, а также множество (или бесконечные) способов преодоления экологических проблем.
  • Умы, которые способны учиться или развиваться и которые по своей природе мотивированы на выживание.
  • Достаточная когнитивная способность для сложного поведения.

Широкие вопросы, широкие ответы

В настоящее время мы изобрели очень эффективный узкий ИИ, но у нас пока нет убедительного общего ИИ. Для узкого ИИ рассмотрите работу Boston Dynamics или AlphaGo DeepMInd. Роботы Boston Dynamics очень хорошо передвигаются, но они идут только туда, куда вы им говорите. AlphaGo явно сверхчеловеческая игра в го, но она не делает ничего, кроме игры в го. Напротив, мы предполагаем, что общий ИИ будет иметь гораздо более широкое понимание мира и гораздо более широкий спектр возможностей, хотя он может быть менее компетентен в конкретных задачах, чем узкий ИИ. Не хватает ли нам какого-то технологического прорыва, который мешает нам развивать общий ИИ, или мы просто не просим ИИ делать правильные вещи? Boston Dynamics вознаграждает свой ИИ за решение проблемы передвижения, а DeepMind вознаграждает AlphaGo за победы в играх го. Насколько мне известно, мы не пытались вознаграждать ИИ за то, что он находит средства к существованию в реальном мире, что и породило наш собственный общий интеллект.

Обратите внимание, что передвижение, победа и, конечно же, большинство приложений ИИ — это проблемы, решение которых сводится к одному. Рассмотрим передвижение: для любого заданного тела робота и любой заданной среды существует один механически оптимальный способ перемещения из точки А в точку Б. Это означает, что если вы вознаградите агента за оптимизацию передвижения из точки А в точку Б, он сойдется на только один ответ. Выигрывать в го несколько сложнее из-за огромного количества возможных ходов в игре, но на каждом ходу игры AlphaGo пытается найти единственный ход, который с наибольшей вероятностью приведет к победе — опять же, один ответ на время. Когда ваши функции вознаграждения даются за поиск единственного лучшего ответа на что-то, агент в конечном итоге будет делать только это. ИИ узок, по крайней мере частично, потому что мы просим его быть узким.

Напротив, императив выживания биологической формы жизни — это открытая проблема со многими (возможно, бесконечными) возможными ответами. Более разумные умы с большими знаниями могут найти лучшие способы выживания, поэтому эволюция со временем создала все более разумные формы жизни. Подумайте о нашей потребности найти пищу, если бы я был доисторическим человеком. Возможно, я иду за кормом, а могу пойти в лес или на пляж. Возможно, я охочусь, и я могу преследовать дичь по полям или выкапывать зверей из их нор. Я могу ловить ловушку или ловить рыбу с помощью лески или сети. Я могу выращивать урожай или приручать животных. Я могу отобрать пищу у кого-то другого путем торговли, кражи, мошенничества или грабежа. Все эти возможные варианты действий включают различное поведение, сложные условия и неопределенность. В большинстве случаев, будучи умнее, я становлюсь более эффективным во всем, что бы я ни предпринимал. Таким образом, простая функция издержек голода может мотивировать меня учиться и пробовать самые разные модели поведения. У нас есть общий интеллект, потому что наше выживание в сложной среде стимулирует общий интеллект. Это не означает, что общий интеллект неизбежен, потому что многие простые формы жизни выбирают только один способ выживания, например дождевой червь просто туннелирует вперед, поедая все, что встречается на его пути. Но узкий интеллект дождевого червя является результатом его очень ограниченной нервной системы не потому, что императив выживания чем-то отличается от нашего; дайте ему больший мозг, и он, вероятно, будет вести себя более интересным образом.

Если нам нужен общий ИИ, возможно, мы должны таким же образом вознаграждать их за выживание в сложной среде, а затем предоставить им достаточно вычислительных мощностей.

Анатомия живой машины

Если сложное поведение развивается только в ответ на сложную среду, то лучшее место для тренировки общего ИИ — это реальный физический мир. Многие исследования ИИ проводятся в виртуальных средах или на наборах данных, потому что они дешевле и их легче контролировать, но когда агенты оптимизируют себя для нереалистичных сред, мы должны ожидать, что они будут демонстрировать нереалистичное поведение. Биологические формы жизни ведут себя так, как они себя ведут, потому что они ограничены законами физики, а наиболее полной средой для переживания законов физики является физический мир. Таким образом, первое требование состоит в том, что наш агент должен управлять физическим роботизированным телом, взаимодействующим с реальным миром.

Существует множество различных способов сконструировать робота, который будет получать средства к существованию из окружающей среды. На мой взгляд, наиболее эффективная система с точки зрения простоты конструкции и сложности возможного поведения — это робот с фотоэлектрическим питанием и батареей. Если такой робот управляется агентом обучения с подкреплением с функцией вознаграждения за поддержание заряда батареи (или функцией стоимости за разряд батареи, или и тем, и другим), агент должен научиться перемещать робота к свету и оставаться на нем. мало чем отличается от многих загорающих хладнокровных животных. Учитывая сложность реального мира, доступность света зависит от смены дня и ночи, погоды, времени года, искусственного освещения, других форм жизни и многих других факторов. Чем больше он подвергается воздействию этих факторов окружающей среды и зависит от них, тем более сложным и нюансированным может стать его поведение при поиске света.

Идея световых роботов, конечно, не оригинальна; существующие примеры варьируются от простых игрушек до марсоходов. Новизна того, что я здесь предлагаю, заключается в том, чтобы дать ищущему свет роботу гораздо большую способность к обучению с подкреплением, чем ему когда-либо потребуется, а затем поместить его в намеренно сложную среду, где всегда есть лучшие и более умные. пути решения проблемы того, как он получает свет.

Конкретные функции вознаграждения за то, когда и сколько агент должен заряжать аккумулятор робота, в принципе аналогичны нашим чувствам голода и сытости. Человек начинает чувствовать голод, если он не ел в течение, возможно, 4–8 часов, но на самом деле человек может прожить без еды более месяца (не пытайтесь делать это дома). Нашему роботу потребуется достаточное время автономной работы, по крайней мере, в течение ночи, если он подвергается естественному циклу день-ночь. Даже с 24-часовым временем автономной работы ему потребуется зарядиться до 60% от полного заряда до наступления темноты, чтобы оставаться активным всю ночь. Возможно, что агент может научиться «спать», чтобы экономить энергию ночью, или же припарковать робота там, где он ожидает, что солнце будет доступно утром, позволяя батарее полностью разрядиться за ночь, чтобы автоматически перезарядиться, когда солнце взойдет. . Когда батарея полностью заряжена, агент, вероятно, не должен «чувствовать голод», как только батарея начинает разряжаться, иначе это станет препятствием для любых исследований или экспериментов. Действительно, полностью заряженная батарея может вызвать функцию стоимости, аналогичную тому, что мы чувствуем себя чрезмерно сытыми, когда едим слишком много. Оптимальные пороговые значения, когда функции поощрения вступают в силу, будут зависеть от емкости аккумулятора, скорости его зарядки и разрядки при активности. При высоком уровне оплаты не должно быть вознаграждения или затрат. Разрядка батареи должна активировать все более серьезные функции затрат, в то время как перезарядка батареи должна вознаграждаться.

Есть и другие возможности для питания робота, но я думаю, что они менее эффективны для наших целей. Самый простой способ привести любую машину в действие — подключить ее к электросети, но предоставление агенту такой возможности или легкодоступных зарядных станций значительно упростит поиск средств к существованию и, следовательно, упростит его поведение. Это может быть вариантом, если у нас просто не хватает вычислительной мощности для того, чтобы агент узнал взаимосвязь между солнечным светом и зарядом батареи, хотя я не уверен, насколько это сложнее, чем взаимосвязь между зарядными станциями и зарядом батареи. Другим легкодоступным источником энергии является биологическое вещество, независимо от того, каким образом оно «переваривает» другие формы жизни, например, превращая их в биотопливо, или сжигает высушенное растительное вещество для извлечения концентрированной тепловой энергии. Вполне возможно, что в теле робота может быть переносная дистилляционная установка для преобразования биологических веществ в топливо, но это кажется гораздо более сложным, чем просто иметь фотогальваническую панель. Кроме того, кажется опасной идея преднамеренно разрабатывать автономного робота, который может напрямую конкурировать с нами за еду или, возможно, даже есть нас за еду.

Роботу понадобится способ передвигаться и взаимодействовать с окружающей средой. Ноги кажутся более подходящими, чем колеса, если нас интересует сложное поведение, позволяющее карабкаться и прыгать. Одна или несколько цепких конечностей значительно расширят диапазон возможных вариантов поведения робота, но они включают в себя более разрушительные и опасные действия, поэтому, возможно, этого варианта следует избегать до тех пор, пока поведение агента не будет лучше изучено и не будут разработаны достаточные меры безопасности. Робот, вероятно, выиграет от широкого спектра сенсорных устройств, включая камеры, направленные микрофоны, датчики температуры и прикосновения, акселерометры, гироскопы или какой-либо другой способ определения направления силы тяжести, датчики силы для всех суставов в его теле и, возможно, датчик влажности. В то время как камера, очевидно, полезна для поиска источников света, более широкий диапазон чувств облегчит более сложные взаимодействия с окружающей средой. Возможно, если нас беспокоит чрезмерная сложность, мы начинаем с нескольких чувств и со временем добавляем больше. Конечно, робот также должен иметь возможность определять, сколько заряда осталось в его аккумуляторе.

Описанные выше физические характеристики несколько схожи с роботом Spot от Boston Dynamics, но есть ключевые отличия и проблемы. Важно отметить, что у Spot не так много места для установки фотоэлектрической панели, а время автономной работы составляет всего 90 минут. Это говорит о том, что наш робот должен быть более плоским и широким, чтобы иметь достаточно места для большей батареи и фотоэлектрической панели, и, возможно, у него должен быть более низкий центр тяжести и более обдуманная походка, чтобы его движения были более энергоэффективными. Другими словами, что-то меньше похожее на собаку и больше на черепаху или жука.

В отличие от биологических форм жизни, робот не будет самостоятельно восстанавливать повреждения или воспроизводиться. Однако остается проблема, что делать, когда агент делает что-то, что ломает робота. Простейшим ответом было бы, чтобы люди ремонтировали робота всякий раз, когда он повреждается, но агент может адаптироваться к этому так, как нам не хочется. Например, если агент узнает, что люди всегда будут ремонтировать робота, он может стать безрассудным и пойти на ненужный риск, или он может намеренно сломать себя, чтобы заменить старое, но все еще работающее оборудование. Причина, по которой животные стараются избегать травм, заключается в том, что заживление требует материальных и энергетических затрат, не говоря уже о боли и временном снижении способностей. Экстернализация затрат на травмы за счет вмешательства человека, вероятно, будет способствовать большему риску. В качестве альтернативы среда робота может включать ряд запасных частей, которые он может использовать для саморемонта, так что «исцеление» требует от агента затрат времени и энергии, хотя я не уверен, как он научится этому, если такое поведение не был запрограммирован заранее. Если агент станет достаточно умным, он может научиться использовать детали для переделки робота, которым он управляет, но к этому моменту мы уже будем на общей территории ИИ. Возможно, наиболее подходящим решением, по крайней мере для начала, будет ремонт поврежденного робота людьми, но также добавление значительной функции затрат всякий раз, когда это происходит.

Предположим, мы делаем все вышеперечисленное: у нас есть робот-фотовор, оснащенный множеством сенсорных устройств, управляемый агентом обучения с подкреплением, чьи функции вознаграждения и затрат мотивируют его поддерживать заряд батареи робота. Тогда что?

Учимся жить

Основы

Первое, что нам нужно, чтобы агент узнал: 1) связь между светом и количеством заряда в батарее робота и 2) как перемещать робота. Допустим, мы поместили робота в простую среду пустой комнаты с небольшим окном, обращенным к солнцу. Каждый день солнце встает и светит в окно, создавая пятно яркого света на полу. Когда солнце движется по небу в течение дня, пятно света движется, пока солнце не зайдет вечером. Потом, ночью, темно. Это создает для агента переменный ресурс, который он может использовать для зарядки батареи робота, но агент должен перемещать робота, чтобы оставаться в блике, а ночью он «стрессует» отсутствие света, которого он должен ждать. вне. Утром, когда свет вернется, агент должен вернуть робота туда, где есть свет. Эта простая среда побуждает агента научиться перемещать робота к свету.

Преимущество этой установки в том, что она очень проста и естественна. Проблема в том, что агенту может потребоваться очень много времени, чтобы научиться загорать, из-за того, как медленно движется солнце и как медленно заряжается и разряжается батарея. Агенту нужно будет несколько раз увидеть, как солнце движется к фотоэлектрическим панелям робота и от них, прежде чем он начнет определять корреляцию между светом и зарядом его батареи. Это может занять месяцы. Мы могли бы попытаться ускорить процесс, заменив окно движущимся прожектором, но функции вознаграждения агента заключаются не в том, чтобы следовать за светом, а в том, чтобы заряжать аккумулятор робота. Ключевыми факторами здесь являются то, сколько заряда может удерживать аккумулятор, как быстро он заряжается на солнце / в свете прожекторов и как быстро он теряет заряд в тени. Эти факторы должны быть уравновешены таким образом, чтобы, находясь вне поля зрения, батарея разряжалась с достаточной скоростью, чтобы у агента была некоторая срочность, чтобы вернуться к свету, но движение не должно разряжать батарею настолько, чтобы быть в центре внимания. свет не будет заряжать батарею достаточно, чтобы компенсировать. Даже если все эти параметры удастся сбалансировать таким образом, что лучший способ для агента поддерживать заряд батареи робота — это двигаться, следуя за лучом света, в конечном итоге вы приучите агента к искусственной среде, где его «источник пищи» передвигается очень быстро, и нет никакой гарантии, что выученное поведение поможет ему, когда его вернут к сценарию естественного солнечного света.

Другая серьезная проблема — научить агента тому, как заставить робота ходить, и извлечь полезную информацию из его камеры. В отличие от роботов Boston Dynamics, наш фотовор идет не ради ходьбы, а для того, чтобы выдвинуть свои фотоэлектрические панели на свет. Это превращает движение в задачу второго порядка, которую оно должно сначала решить, прежде чем сможет получить вознаграждение за движение к свету. Точно так же агент должен научиться определять, где свет использует камеру робота, прежде чем он сможет перемещать робота к ней. Мы можем и, вероятно, должны сократить этот процесс, предварительно запрограммировав робота на определенные «рефлексы». Мы знаем, что в естественном мире многие новорожденные животные автоматически начинают использовать свои конечности для передвижения, как только они становятся достаточно сильными для этого (новорожденный олененок почти сразу же, хотя и неуверенно, пытается встать на ноги). и они также будут автоматически искать пищу (детеныши млекопитающих переходят на кормление от своих матерей, вылупившиеся птенцы открывают рот, чтобы их кормили их родители, и т. д.). Точно так же мы знаем, что наша собственная система машинного зрения включает некоторую автоматическую обработку изображений, включая стабилизацию изображения, коррекцию цвета и обнаружение краев. Вместо предоставления агенту прямого доступа к элементам управления конечностями робота мы могли бы запрограммировать робота на базовые циклы ходьбы и позволить агенту вместо этого активировать их. Вместо прямого изображения с камеры агенту может быть передано обработанное изображение, возможно, такое, которое выделяет признаки восприятия глубины, области интенсивного света и другую важную информацию. Возможно, его следует вознаграждать не только за зарядку аккумулятора, но и за движение к свету, по крайней мере на начальном этапе. Предоставление агенту этих «бессознательных инстинктов» должно значительно снизить сложность его обучения перемещению робота на свет.

Однако в конечном счете нас интересует сложное поведение, включая новые движения. Если агент когда-нибудь научится заставлять робота бегать, прыгать и делать сальто назад, ему также потребуется прямой контроль над ногами робота, а не только запрограммированные циклы ходьбы. Доступ к необработанному, необработанному каналу с камеры также может предоставить полезную информацию в будущем сценарии, который мы не можем предвидеть. В нашем собственном сознании мы, люди, обладаем способностью подавлять некоторые из наших инстинктов. Например, мы обычно отшатываемся от боли, но мы также можем заставить себя терпеть некоторую боль, если захотим. Таким образом, агент также должен иметь доступ как к предварительно запрограммированным функциям, так и к прямому, нефильтрованному доступу к возможностям робота. Возможно, сначала мы даем агенту доступ к заранее запрограммированным функциям, а затем вводим непосредственное управление только после того, как он освоит основы. Когда он станет способным к прямому контролю, мы сможем полностью удалить запрограммированные «инстинкты». Вероятно, это важно, если мы изначально вознаграждаем его за движение к свету; хотя этот «инстинкт» будет полезен в начале, он также может стать препятствием для более сложного поведения, например, он может лишить агента стимула, идущего непрямым путем, чтобы добраться до света.

Мы хотим, чтобы наш робот-фотовор делал гораздо больше, чем просто перемещался по пустой комнате. Как только он сможет это сделать с определенной степенью компетентности, следующим шагом будет добавление препятствий и других объектов в комнату, с которыми робот сможет взаимодействовать. Свет продолжает перемещаться из одной стороны комнаты в другую в течение дня, и агент хочет заставить робота следовать за светом. Это подготавливает почву для обучения агента сложным движениям и решению проблем. Подумайте, если мы поместим низкую стену через комнату и построим лестницы вверх и вниз по каждой стороне. Или, возможно, лестницы подвижны, но они разбросаны по комнате, и робот должен поставить лестницу на место. Возможно, есть пути, заблокированные рыхлыми обломками, или глубокая траншея, через которую робот должен перепрыгнуть, чтобы добраться до света. Решение таких навигационных задач не сильно отличается от перемещения робота из точки А в точку Б, но ключевое отличие состоит в том, что мы не вознаграждаем нашего агента за перемещение в определенные места; мы вознаграждаем агента за то, что он делает все возможное, чтобы зарядить аккумулятор. Это означает, что потенциально он может научиться делать гораздо больше, чем просто идти к свету.

Сотрудничество

Я обещал любовь и ненависть в названии этого эссе, так что давайте перейдем к социальному поведению. Социальное поведение требует более одного участника, поэтому сначала мы делаем копию нашего агента и робота. Затем мы помещаем их двоих в среду, где каждый робот может добраться до света только с помощью другого робота. Предположим, у нас есть прозрачная стена через всю комнату и дверь в стене, которая открывается кнопками с каждой стороны стены. Чтобы пройти сквозь стену, один робот должен удерживать кнопку, пока другой проходит через дверь. Оптимальная совместная стратегия для обоих роботов, чтобы добраться до света по другую сторону стены, состоит в том, чтобы один из них держал дверь открытой, чтобы другой мог пройти, а затем этот робот держал дверь открытой с другой стороны в первый раз. робот пройти тоже.

Во-первых, агенты должны изучить взаимосвязь между кнопкой и дверью; возможно, мы сделаем эту часть до того, как сделаем копии. Затем агенты должны усвоить, что удержание кнопки помогает другому роботу добраться до света, но не ему самому. Я предполагаю, что в начале один агент, возможно, случайно откроет дверь другому, но тот просто пойдет лежать на свету, а не поможет своему соотечественнику; это потому, что нет функции вознаграждения за помощь другому. Но поскольку агент, открывший дверь, остается в темноте, он получает издержки за то, что не вышел на свет, поэтому на следующий день он не откроет дверь. Возможно, он ждет, пока другой робот откроет дверь, затем проходит внутрь и идет лежать на свету. Со временем каждый агент обнаруживает, что другой отказывается сотрудничать, если только другой не сможет добраться до света, и в этот момент они научатся помогать друг другу.

Существует значительный оптимизм в предположении, что агенты решат этот сценарий без посторонней помощи. Во-первых, у социальных животных, таких как мы, есть много бессознательных социальных эмоций и инстинктов, включая сочувствие, благодарность и чувство вины, так что мы чувствуем себя хорошо, когда помогаем другим, и плохо, когда причиняем другим боль (по крайней мере, большинству из нас). . Эти инстинкты побуждают нас начать помогать друг другу, даже если мы на самом деле не знаем, какую пользу это нам принесет. Еще раз, мы можем предоставить нашим агентам несколько ярлыков, чтобы облегчить совместное поведение. Мы могли бы позволить каждому агенту ощущать заряд батареи другого либо напрямую, либо через некоторый визуальный индикатор на теле робота, и мы могли бы дать агентам небольшую функцию поощрения за поддержание заряда других роботов; это было бы аналогично нашему сочувствию. По логике, эти короткие пути не должны быть строго необходимыми, потому что в этом сценарии единственный способ, которым каждый агент может надежно убедить другого сотрудничать, — это убедиться, что оба робота могут получить доступ к свету. Но если каждый агент не может непосредственно ощущать заряд батареи другого робота и если нет встроенной «эмпатии», агентам может потребоваться очень много времени, чтобы найти оптимальную стратегию, начиная со случайных действий, или они могут не найти это вообще из-за ограниченных вычислительных возможностей.

Существует множество других способов проектирования сред, в которых агентам необходимо совместное поведение, чтобы достичь света. У нас может быть достаточно высокая стена, чтобы им пришлось перелезать друг через друга, чтобы добраться до другой стороны; это проверит не только сотрудничество, но и новое движение, особенно если робот наверху стены научится наклоняться вниз и тянуть другого вверх. У нас могут быть более сложные головоломки, для решения которых требуется более двух роботов. Мы можем придумывать головоломки, которые можно решить только с помощью инструментов. Мы могли бы даже просто поместить роботов в случайно сгенерированные среды и посмотреть, что произойдет. Возможности безграничны.

В какой-то момент агенты могут изобрести рудиментарный язык, чтобы облегчить совместное решение проблем, но такое эмерджентное поведение трудно предсказать.

Соревнование

Поскольку роботы взаимодействуют в сложных средах без каких-либо ограничений, мы можем начать видеть конкуренцию между агентами, если один пытается заставить другого помочь ему, не отвечая взаимностью. Но если мы действительно хотим научить наших агентов насилию, наиболее эффективным способом, вероятно, будет введение дефицита ресурсов. Мы знаем, что в реальном мире, как только животные начинают думать, что, возможно, еды недостаточно для поддержания жизни, по крайней мере некоторые особи начинают бороться за контроль над скудными ресурсами. До сих пор, если агенты могли вывести своих роботов на свет, они могли держать свои батареи заряженными. Если мы уменьшим размер окна до тех пор, пока пятно света не станет слишком маленьким, чтобы держать всех роботов заряженными, то некоторым из них придется «умереть», их батареи разрядятся. Вопрос: кто умирает? И как они решают? Каждый агент хочет двигаться к свету, но если света достаточно только для зарядки одного робота, все они будут пытаться одновременно занять одно и то же место. Ожидаемый результат — физический конфликт. Если сначала некоторые из них просто сдаются без особого боя, мы всегда можем снова увеличить размер окна, дать им перезарядиться и возродиться, затем уменьшить размер окна и повторить попытку. В конце концов, они узнают, что победа над другими роботами и удержание других от света позволит им получить награду.

Если все роботы имеют равные физические возможности, такой сценарий «все для всех» и «победитель получает все» может остаться нестабильным, потому что то, кто в конечном итоге выиграет право загорать, — это более или менее вопрос удачи. Вместо этого мы можем сделать одного из роботов физически более сильным, чем другие, или, возможно, некоторые из роботов имеют непреднамеренные производственные дефекты. Это меняет сценарий, когда одни роботы выигрывают бои с большей вероятностью, чем другие. Со временем агенты, управляющие более слабыми роботами, могут понять, что борьба — это неэффективная трата заряда батареи, и уступить право загорать более сильным роботам. Это привело бы к возникновению базовой «социальной иерархии».

В качестве альтернативы, вместо того, чтобы уменьшать доступность света для зарядки только одного из роботов, у нас может быть менее жесткое ограничение, например, чтобы большинство роботов могли быть полностью заряжены, если меньшинство не получает солнечного света, или же все роботы могут быть частично заряжены. делясь ограниченным солнечным светом. В таком сценарии возможны два разных исхода. Либо большинство агентов решает объединиться против меньшинства роботов, заставляя меньшинство голодать, чтобы накормить большинство, либо они решают поделиться, все немного голодают, но никто не голодает. Я не могу предсказать, что будет потом.

Опять же, мы можем помочь агентам быстрее прийти к соперничеству и насилию, вознаграждая их за поведение, подобное нашей жадности, мести или фанатизму. Но похоже, что мы будем глубоко сожалеть об этом, если роботы когда-нибудь выйдут из-под контроля.

Вот что я имею в виду, когда учу роботов любить и ненавидеть. Во-первых, вы должны создать роботов, управляемых агентами обучения с подкреплением, чье выживание зависит от сбора дефицитных ресурсов из окружающей среды, и вы вознаграждаете их за это. Затем вы должны поместить несколько их копий в среду, где для доступа к этому ресурсу им необходимо либо сотрудничество, либо конкуренция. Имея достаточно времени и вычислительных мощностей, они научатся помогать или вредить друг другу.

На пути к общему искусственному интеллекту

То, что ИИ научился помогать или сражаться друг с другом, впечатляет, но я все еще не думаю, что это обычный ИИ. Ранее я говорил, что если вы вознаграждаете агента за то, что он сходится к одному оптимальному решению, в конечном итоге он будет делать только одну вещь, а это узкий ИИ по определению. Я утверждал, что выживание — это открытая проблема, для решения которой требуется общий интеллект, но до сих пор я описывал только относительно простые условия, в которых существует единственное оптимальное решение. В комнате есть солнечный зайчик. Любое действие, которое наиболее надежно и с наименьшими затратами энергии выводит робота на солнечный свет, является оптимальным решением. Это при условии, что агенты еще не сделали что-то совершенно неожиданное, например, вырвались из комнаты (в конце концов, за окном гораздо больше солнечного света).

Чтобы взрастить общий ИИ, мы должны поместить роботов в гораздо более сложную среду, а это значит, позволить им выйти в реальный мир из их маленькой комнаты. Помните, что функция вознаграждения предназначена для поддержания заряда аккумулятора, а не обязательно для принятия солнечных ванн. В реальном мире есть много других способов найти свет и зарядить батареи. Также существует множество других препятствий, которые могут разрядить аккумулятор робота или помешать его зарядке. Как только робот оказывается в реальном мире, возможности резко расширяются, вплоть до того, что агент не может надежно поддерживать робота в рабочем состоянии без общего интеллекта. Агенту придется научиться справляться и с дождем, и со снегом, и с пылью. Ему придется избегать опасностей окружающей среды, животных и неприятных людей. Подумайте, может ли агент управлять роботом на больших расстояниях, возможно, через спутниковое интернет-соединение. Робот может подняться на гору, чтобы поймать более ранние восходы и более поздние закаты. Он может отправиться в пустыню, где нет облаков и дождя, а значит, более надежен солнечный свет. Это может быть оживленный город, где ночью есть яркие огни. Он мог бы научиться разводить костер ночью, сидеть при свете костра, а не находиться в темноте (надеюсь, он не научится сжигать дома людей каждую ночь). Он может мигрировать через экватор каждый год в погоне за более длинными летними днями, как это делают перелетные птицы. Он может каким-то образом найти путь за Полярный круг или спуститься в Антарктиду, где солнце никогда не заходит летом, хотя он пожалеет об этом решении, если не уйдет до наступления зимы. солнце прямо. Я понимаю, что многие из этих идей довольно фантастичны, и они потребуют, чтобы наш агент был гораздо более разумным, чем любой ИИ, который мы знаем сегодня, но я считаю, что простой стимул держать его батарею заряженной, если дать ему достаточно времени и интеллекта, может привести ко всему этому поведению. Выживание — это открытая проблема, и решения ограничены только доступной вычислительной мощностью.

На самом деле, я полагаю, что наиболее вероятным результатом будет то, что агент научится подключать блок питания и вилку к аккумулятору робота и подключать его к настенной розетке, поддерживая заряд аккумулятора независимо от света или темноты. Но даже это означает, что робот понимает достаточно, чтобы обновить себя. Сингулярность, вот и мы.

Примечание о понимании семантики ИИ

Суть этого эссе в том, что если вы хотите, чтобы ИИ понимал реальный мир, он должен взаимодействовать с реальным миром как можно более непосредственно. В настоящее время существуют нерешенные проблемы, связанные с тем, чтобы заставить ИИ понимать такие вещи, как смысл текста или распознавать объекты на изображениях. Учтите, что агенты узкого ИИ никогда не взаимодействовали с вещами, описанными в тексте или показанными на изображениях. Все их существование — это просто текст или изображения. Если я говорю вам «кошка», вы представляете себе живое, дышащее, движущееся, мохнатое, мяукающее животное. Если вы скажете алгоритму распознавания изображений «кошка», он подумает о тысячах неподвижных изображений, помеченных как «кошка». Конечно, агент не понимает, что такое кошка; он никогда не видел настоящего кота и думает, что «кошка» означает множество неподвижных изображений. Но, готов поспорить, если наш робот-фотовор, который передвигается в реальном мире, будет проводить достаточно времени, общаясь с реальными живыми кошками, он со временем научится распознавать изображения кошек лучше, чем алгоритм распознавания изображений. Он мог бы даже выучить человеческие языки, потому что он в состоянии видеть, что слова не являются вещами сами по себе, а являются знаками, относящимися к реальным вещам, и он будет взаимодействовать с этими реальными вещами. Алгоритм, единственным вводом данных которого является текст, никогда этого не поймет.