Когда Илон Маск и Джек Ма, как известно, сели поболтать об ИИ, их мысли были вдохновляющими для одних и мучительными для других. Они обсуждали ИИ в слишком распространенном виде фантастических прогнозов и философских размышлений. Статус-кво разговоров об искусственном интеллекте уносит нас в будущее, где нам позволено далеко забегать вперед просто потому, что такие обсуждения, по общему признанию, более увлекательны. Но мы далеки от уже обсуждаемых результатов. Нам нужно вернуться в настоящее, чтобы действительно решить проблемы, стоящие на пути нашего прогнозируемого будущего.

Для этого я рекомендую новую книгу Перезагрузка ИИ: создание искусственного интеллекта, которому мы можем доверять, который вызвал ажиотаж среди энтузиастов ИИ и скептиков. . Книга написана Гэри Маркусом и Эрнестом Дэвисом, двумя ведущими мировыми исследователями и мыслителями искусственного интеллекта, и написана в то время, когда, кажется, все говорят об искусственном интеллекте. Сможет ли ИИ нас обречь? Спасет ли это нас?

Перезагрузка ИИ не говорит ни о судьбе, ни о спасении. Вместо этого он представляет собой сбалансированный анализ того, где сегодня находятся многочисленные области искусственного интеллекта и куда они будут реально двигаться в будущем. Среди всей неопределенности или изобилия чрезмерной уверенности приятно иметь эту книгу в наших руках, чтобы вернуть нас к здравомыслию и вывести из множества возможных тупиков.

Книга призывает к перезагрузке, в которой ИИ «отчаянно нуждается», и излагает трехчастную формулу того, как нам следует подходить к настоящему искусственному интеллекту. Системы искусственного интеллекта должны быть «глубокими, надежными и заслуживающими доверия». Маркус и Дэвис предупреждают о девяти рисках (см. Приложение 1), поражающих сферу ИИ, и дают обзор различных ветвей ИИ (см. Приложение 2). Здесь я коснусь лишь некоторых из них, а именно: негибкость машинного обучения, гибкость человеческого мозга как модели для искусственного интеллекта, как мы можем рассмотреть возможность структурирования ИИ в будущем, какие меры безопасности мы должны принять, и общие выводы о том, что нам нужно для достижения прогресса.

Давайте сначала подробно рассмотрим одну из ветвей: глубокое обучение.

Глубокое обучение увлекательно, потому что это простое уравнение, которое, кажется, решает так много. На самом деле это проблематично, потому что это обманчиво привлекательно. Это создает так называемый иллюзорный пробел в прогрессе. Это может создать впечатление, что положительные результаты порождены истинным интеллектом. Вы когда-нибудь слышали о аргументе о китайской комнате? Вы можете ознакомиться с мысленным экспериментом здесь и здесь. Вкратце, он представляет собой машину, которая может после анализа данных на китайском языке обмануть человека, говорящего на китайском, и заставить его поверить в то, что он говорит и понимает этот язык, хотя на самом деле он вообще не понимает содержание. Google Translate, например, похож на Китайскую комнату. Его ответы основаны на обширных языковых данных, которые он запоминает. На самом деле он не понимает содержания. Внешний вид Google Translate (или чат-ботов, как другой пример) не дает нам возможности приблизиться к интеллекту, который мы видим в Ex Machina и Her.

Еще один недостаток машинного обучения в целом (поскольку глубокое обучение - это подмножество машинного обучения) заключается в том, что оно не предназначено для быстрого обучения. Как люди, мы делаем множество выводов, чтобы понять окружающий нас мир: [М] из того, что мы делаем как люди, мы узнаем всего за несколько мгновений; в первый раз, когда тебе вручают пару трехмерных очков, ты, вероятно, сможешь надеть их и примерно догадаться, что происходит, без необходимости примерять их сто тысяч раз . Повторения за повторениями, ненужные человеку, были бы абсолютно необходимы для машинного обучения для достижения тех же результатов. Люди - своего рода пьяные мастера, если вспомнить классический фильм Джеки Чана. Мы только начинаем понимать, как наш мозг решает задачи и как мы учимся так быстро. Итак, хотя мы и мастера в обучении, о котором машины могут только мечтать (если бы они были способны мечтать), мы изрядно опьянены этим, поскольку мы лишь частично осознаем, что происходит за кулисами наше восприятие.

Однако мы не должны стремиться к тому, чтобы машины копировали человеческий мозг. Хотя человеческий мозг почти волшебен в своей способности обрабатывать окружающий мир и давать нам заключения о его скоплениях, он имеет множество недостатков. А именно, мы не должны копировать ограничения мозга. Но при разработке машин мы, безусловно, должны черпать вдохновение в как человеческий разум. В книге представлена ​​такая предпосылка для дальнейших исследований искусственного интеллекта: «Мозг - это высокоструктурированное устройство, и большая часть наших умственных способностей достигается за счет использования правильных нейронных инструментов в нужное время. Мы можем ожидать, что настоящий искусственный интеллект, вероятно, также будет сильно структурированным, и большая часть их силы будет исходить от способности использовать эту структуру правильными способами в нужное время для решения заданной когнитивной задачи ».

Обобщения - это и недостаток человеческого мозга, и фактор победы. Маркус и Дэвис приветствуют способность человеческого разума справляться с неполной и неточной информацией: [На данный момент] мы не знаем, как смоделировать человеческий мозг, [с тех пор как] улавливая даже секунду в жизни [человека] На нервную систему могут уйти десятилетия компьютерного времени. Нам нужны системы, которые абстрагируются от точной физики, чтобы охватить психологию . Именно этой абстракции так сложно добиться в ИИ. Как однажды написал Бертран Рассел: Все человеческие знания неопределенны, неточны и частичны. Необычайная способность нашего мозга заполнять пробелы позволяет ему находить порядок в хаосе, не теряясь в нем.

Итак, мы, безусловно, стали свидетелями замечательных достижений в области искусственного интеллекта. И хотя очень важно отмечать даже самые маленькие достижения, также важно держать под контролем реальность ИИ, как сейчас. Без сомнения, существует яркая иллюзия прогресса, в которую впадают средства массовой информации и даже сами исследователи. Возможно, мы строим ИИ совершенно неверным способом. Или, в чуть более обнадеживающем сценарии, у нас могут быть некоторые кусочки головоломки, в то время как подавляющее большинство других останется несортированными, неуместными или совершенно необнаруженными. Маркус и Дэвис сформулировали это так: Люди были чрезвычайно взволнованы определенным набором алгоритмов, которые ужасающе полезны, но которые очень далеки от подлинного интеллекта - как если бы открытие отвертки внезапно сделало межзвездный возможно путешествие . Или, говоря короче, 31-й закон Акинских законов проектирования космических аппаратов гласит: Вы не можете попасть на Луну, взбираясь на все более высокие деревья. В самом деле, мы не можем ставить все свои деньги только на отвертки или лазание по деревьям. Нам нужно искать больше способов развития гибридных систем, чтобы добиться более широких приложений ИИ.

Уже существует пример того, как успешная гибридная система позволила ИИ освоить игру в го. Были объединены два разных подхода: глубокое обучение и поиск по дереву по методу Монте-Карло, причем последний сам по себе является гибридом (поиск по дереву игр и поиск по методу Монте-Карло). Если бы системы оставались отдельными, они бы не преуспели. Урок здесь, как предполагают Маркус и Дэвис, заключается в том, что ИИ, как и разум, должен быть структурирован с использованием различных инструментов для различных аспектов сложных проблем. Авторы также излагают свои аргументы в пользу того, почему обучение с чистого листа, как это делает машинное обучение, вряд ли сработает в будущем. Они сомневаются, что, например, система в конечном итоге узнает все, что ей нужно знать, просто посмотрев видео на YouTube без каких-либо предварительных знаний.

Здесь на помощь приходит классический ИИ. Это подход, который позволяет нам вручную кодировать знания или правила (вспомните Три закона робототехники Айзека Азимова », хотя там есть много проблем с законами) в систему, прежде чем она начнет учиться самостоятельно. Маркус и Дэвис считают, что обучение с чистого листа, как часто, кажется, хотят делать исследователи машинного обучения, делает игру намного сложнее, чем она должна быть. Это воспитание без природы, когда наиболее эффективное решение - объединить и то, и другое . К сожалению, многие считают предварительную разводку мошенничеством. Результаты, полученные от машин, в которых почти ничего не встроено, выглядят более впечатляющими. Можно возразить, что есть много аспектов закодированной информации, которые мы не понимаем, как, например, наша собственная ДНК. Развивая машинное обучение, мы идем по пути эволюции, начиная с нуля и полагаясь на программу, такую ​​как ДНК, в ее написании. Могут быть преимущества и неожиданно блестящие решения - подумайте о неортодоксальных стратегиях, которые ИИ использовал в Go, - но мы также можем оказаться в таинственном черном ящике, который мы не можем изменить или изменить каким-либо образом. (Люди в области редактирования генома могут, конечно, не согласиться). Классический ИИ, однако, дал бы нам лучшую возможность взаимодействовать с ним и редактировать его, если необходимо, поскольку мы бы вручную кодировали некоторые его части. Отсутствие возможности вносить правки может вызвать опасные последствия. Это, в свою очередь, подводит нас к теме безопасности.

Жизненно важно думать о безопасности раньше, чем позже. Гораздо труднее, если не невозможно, выжить в лавине после того, как тебя унесло. И Маркус, и Дэвис выступают за безопасный ИИ или «заслуживающий доверия ИИ». Для существования надежного ИИ необходимы законы и отраслевые стандарты. Это влечет за собой долгосрочное мышление, в то время как статус-кво выбирает краткосрочные решения, когда код предназначен для немедленного запуска системы с учетом нескольких побочных эффектов. Авторы одобрительно относятся к тому, как другие инженеры ведут бизнес, где в критических для безопасности ситуациях «хорошие инженеры всегда проектируют конструкции и устройства так, чтобы они были сильнее минимума, предлагаемого их расчетами. Если инженеры ожидают, что лифт никогда не сможет перевозить более полутонны, они позаботятся о том, чтобы он действительно мог перевозить пять тонн ». ИИ обычно прославляется, как только он начинает работать, выполняя любую функцию. И этого достаточно хорошо. Нам нужно изменить наше отношение на менее случайное, потому что в конечном итоге ставки будут высоки. Мы должны рассчитывать на неудачу. Хотя невозможно предвидеть множество способов, по которым что-то может пойти не так, мы должны делать максимум, а не минимум, что в наших силах, чтобы избежать ошибок. У космического корабля, например, было пять идентичных компьютеров на борту, «чтобы проводить диагностику друг друга и выполнять резервное копирование в случае сбоя». Пока любой из пяти еще работал, шаттлом можно было управлять ». ИИ, без сомнения, является областью нашей жизни, где мы должны тщательно продумывать каждую деталь и планировать на долгосрочную перспективу, а не на краткосрочную.

Это подводит нас к долгосрочному риску игнорирования мер предосторожности. Например, в кибермире широко распространена инфраструктура, уязвимая для неожиданных сбоев и кибератак. Помните пресловутый пример NotPetya? Вот поистине увлекательное чтение: Отчет журнала Wired Magazine о всемирной кибератаке шифровальной вредоносной программы. А теперь вспомним минусы черного ящика. Этим трудно, если не невозможно, уделить внимание. Маркус и Дэвис сформулировали это так: Автомобильные двигатели должны быть исправными; операционная система должна иметь способ установки обновлений . Точно так же мы должны иметь возможность исправлять любые проблемы, которые могут возникнуть в системе ИИ. Специалисты по обслуживанию искусственного интеллекта могут быть узкоспециализированными и высокооплачиваемыми профессионалами будущего. Однако в настоящее время ИИ управляется большими данными и глубоким обучением с моделями, которые трудно интерпретировать, которые сложно отлаживать и сложно поддерживать.

Кроме того, для лучшего проектирования требуются более точные метрики. Самая известная метрика общего искусственного интеллекта - это Тест Тьюринга. Но он только проверяет, может ли машина обмануть человека, заставив его думать, что она тоже человек. Нам нужны метрики для внутренней работы, а не для успешного фасада. Маркус и Дэвис утверждают, что цель ИИ - понять мир и действовать в этом мире полезными, мощными и надежными способами. Тест Тьюринга нас не подводит. Институт искусственного интеллекта Аллена работает над альтернативами тесту Тьюринга, включая широкий спектр задач, начиная от понимания речи, определения физического и психического состояния и понимания видео на YouTube, до элементарных наук. , и робототехнические способности.

Авторы утверждают, что для достижения прогресса нам нужны две вещи: перечень знаний, которыми должен обладать общий интеллект, и понимание того, как эти знания будут представлены внутри машины. Это и возможное создание AGI - миссия нашей эпохи. Интересно и, возможно, парадоксально, что Маркус и Дэвис призывают наделить ИИ здравым смыслом. Они пишут: «В наших нынешних системах нет ничего отдаленно напоминающего здравый смысл, но мы все больше полагаемся на них. Настоящий риск заключается не в суперинтеллекте, а в идиотах-ученых, обладающих силой, такой как автономное оружие, которое может нацеливаться на людей, не имеющих ценностей, которые их ограничивали бы, или управляемые ИИ ленты новостей, которые, не обладая суперинтеллектом, отдают приоритет краткосрочным продажам, не оценивая их влияние на долгосрочные ценности ».

Хотя у нас есть множество узких ИИ, авторы отмечают, что нам не хватает подлинного интеллекта. У нас есть глубокое обучение, но нет глубокого понимания. Итак, вместо того, чтобы недальновидно сосредотачиваться на узких задачах или думать слишком далеко вперед, пора расширить наши нынешние горизонты и подумать о реальных пошаговых решениях. Подумать о новых подходах или дать старым подходам, таким как классический ИИ, еще один шанс. Это позволит нам сосредоточиться на проблемах, с которыми мы сталкиваемся сейчас, вместо того, чтобы фантазировать об ИИ будущего в моде Маск-Ма.

— — — — — — — — — — — — — — — — — — — — — — — — — — — — — —

Приложение 1

Девять рисков, поражающих сферу искусственного интеллекта

  1. Ошибки чрезмерного распределения - риск поспешных выводов, основанных на предвзятости
  2. Недостаточная надежность - ИИ, который работает в одной ситуации, может не работать в другой.
  3. Негибкое машинное обучение - опираясь на одну сторону или на ограниченный набор данных
  4. Слепое извлечение данных - может привести к неприятным побочным эффектам, таким как социальные предубеждения.
  5. Эффект эхо-камеры - системы, обученные на данных, которые они сами генерируют
  6. Опора на данные, которыми общественность может манипулировать
  7. Социальные предубеждения, усиленные эффектом эха
  8. ИИ с неправильными целями
  9. Множество способов, которыми ИИ может причинить серьезный общественный вред

-

Приложение 2

Филиалы ИИ

  • Есть вероятностные модели. Как следует из названия, они моделируют вероятности, оценивая ландшафт возможных ответов, чтобы затем вывести наиболее вероятный ответ. Это было причиной успеха IBM Watson.
  • Генетические алгоритмы, таким образом, моделируются на основе процесса эволюции. По сути, они видоизменяют алгоритмы, чтобы найти наиболее оптимальные для данной задачи.
  • Градиентный спуск и обратное распространение - еще одна ветвь, которую называют «рабочей лошадкой глубокого обучения».
  • Еще один способ учиться на крупномасштабных данных - глубокое обучение с подкреплением, при котором система учится методом проб и ошибок.
  • Нейронные сети - еще одно направление исследований в области искусственного интеллекта. Они дают обманчивый проблеск надежды на создание машин, более похожих на людей. Тем не менее, нейронные сети не подразумевают ни мозга в человеческом понимании, ни более многообещающего подхода к созданию ИИ. Для их работы требуется слишком много вычислительной мощности (когда существует много слоев нейронов), и они часто являются «черными ящиками», потому что внутреннюю работу трудно понять даже исследователю, который их строит.
  • Что касается глубокого обучения в целом, Маркус и Дэвис выразились так: «Глубокое обучение жадно. Чтобы правильно установить все соединения в нейронной сети, глубокое обучение часто требует огромного количества данных. AlphaGo потребовалось 30 миллионов игр, чтобы достичь сверхчеловеческой производительности, гораздо больше игр, чем любой человек когда-либо играл бы за свою жизнь ».

— — — — — — — — — — — — — — — — — — — — — — — — — — — — — —

Посетите optionxbook.com, чтобы присоединиться к списку рассылки предстоящего выпуска моей рукописи.