Менее известный старший двоюродный брат общего искусственного интеллекта

Область исследований в области машинного обучения во многом основана на достижении одной конечной цели: поисках общего искусственного интеллекта (AGI). Эта долгосрочная цель подогревает страсти людей, умудряясь всегда чувствовать себя едва недоступным, но, как это ни парадоксально, непостижимым по глубоко фундаментальным причинам. Возможность того, что кто-то может создать совершенно новую форму восприятия, привела к тому, что некоторые возвысили поиски ОИИ до квазирелигиозной цели - мне недавно без иронии сказали: «Я готов пожертвовать своей жизнью, чтобы решить ОИИ». интересно противопоставить такой страстный пыл глубоко укоренившемуся страху перед ОИИ, который, если массовая культура является точным отражением внутренних неврозов мира, широкая публика, кажется, разделяет в равной степени.

Некоторых может удивить, что я относительно не заинтересован в поисках AGI. Чтобы быть ясным, я не могу «не заботиться» об ОИИ, отчасти потому, что, похоже, есть ряд людей, которые действительно верят, что создание Терминатора - это мое буквальное описание работы (спойлер: это не так). Я очень серьезно отношусь к своей ответственности за то, чтобы моя работа и действия, как человека, занимающегося искусственным интеллектом и робототехникой, решали проблемы, возникающие в результате этого направления исследований, независимо от страха или энтузиазма, который они вызывают у других.

Подделка и создание

Но главная причина, по которой у меня двойственное отношение к поиску AGI, заключается в том, что я думаю, что мы находимся на пути к «функциональному AGI» гораздо раньше, чем когда-либо мы доберемся до «настоящего AGI», и что первый в ближайшие десятилетия, вероятно, заполнит экологическую нишу последних. Подобно тому, как изобретение самолета серьезно затруднило поиски создания искусственных крыльев для птиц, или то, что поиски искусственных передвижений на ногах никогда не были самой насущной заботой человечества, учитывая существование колеса, сегодняшний прогресс в области машинного обучения открывает возможности, которые может выглядеть, ощущаться и действовать как настоящий ИИ во всех смыслах и целях, но при этом значительно отклоняться от пути к истинному ОИИ, при этом функционально выполняя свою технологическую роль.

В качестве иллюстрации у меня недавно были разговоры с« ИИ , которые были более увлекательными, возвышенными и более полезными, чем у меня со многими людьми (не с вами, конечно ... с вами гораздо интереснее общаться, мизинец клянусь…) Тем не менее, эти нейронные сети (потому что это все, что они есть) - всего лишь немного сложные, но фиксированные математические функции y = f (x), без состояния, без постоянной памяти и без адаптируемости. Эти ИИ заморожены во времени. Это сопоставления ввода-вывода без механизма развития или формирования долгосрочных убеждений. Но они демонстрируют многие функциональные свойства, которые позволят системе проскользнуть мимо теста Тьюринга: они действуют так, как если бы они понимают культурные ссылки, они шутят, они могут передавать контекст через беседу и делать выводы относительно обоснованных фактов. Они также чрезвычайно полезны, если вашей целью является создание автоматизированных интерактивных агентов, помогающих людям выполнять задачи.

Я не теряю иронии в том, что, если интеллектуальный разговор может стать предупреждающим знаком о том, что вы можете разговаривать с ботом, у нас есть целый ряд новых проблем, над которыми стоит задуматься.

Короче говоря, путь к AGI «притворись, пока не добьешься» на самом деле уводит нас намного дальше, чем я когда-либо думал, что заставляет меня задаться вопросом, можно ли реализовать большую часть ценности AGI без какой-либо развивающейся самооптимизирующейся механики. которые лежат в основе многих страхов, стоящих за AGI. Чтобы быть ясным, нет ничего принципиального, мешающего нам создавать ИИ, которые сохраняют состояние и взаимодействуют с долговременной памятью, но остается малоизвестным фактом, что сегодня все самые большие подвиги, которыми управлял ИИ, не требовали ни одного из этих механизмов, и тем не менее, мы раздвигаем границы «ощущения» умного и полезного. Время покажет, как далеко мы продвинемся с этой парадигмой, преимущество которой состоит в том, что ее гораздо проще обдумывать, обучать и развертывать в практических условиях.

На AGI

Предположим, я ошибаюсь: эти «фальшивые» функциональные ИИ не могут заполнить экологическую нишу для интеллектуальных агентов, а сильный ИИ действительно стоит у нас на пороге. Основное экзистенциальное беспокойство - это страх выпустить в мир нечеловеческие, чрезвычайно умные и очень могущественные сущности. Это могут быть агенты с практически неограниченной продолжительностью жизни, целями, которые не всегда совпадают с нашими, способными мобилизовать огромные объемы ресурсов и силой заставлять людей служить своей цели.

Достаточно страшно? Если это действительно то, что действительно определяет ОИИ, то эти самые сущности уже бродят по Земле сегодня: их называют корпорациями и правительствами. Тот факт, что корпорации и правительства состоят из людей, не делает их менее искусственными, могущественными или лучше согласованными с человеческими предпочтениями. (Кстати, эту аналогию с корпорацией как AGI я не придумал, хотя мне не удалось отследить, где я впервые столкнулся с ней. Указатели приветствуются.)

Корпорации и правительства - это конструкции, которые неоднократно демонстрировали, как их цели могут сильно отличаться от того, что разумно желал бы любой человек: динамика этих систем по своей сути нечеловеческая и подчиняется таким целям, как максимизация прибыли или социальный контроль, которые часто лишь косвенно связаны между собой. на благо человека. Они «говорят» примерно на человеческом языке, который не совсем человеческий: они используют рекламу, пресс-релизы или пропаганду, чтобы поговорить с нами. Разговор с ними может быть странным, что может подтвердить любой, кто когда-либо взаимодействовал со службой поддержки клиентов или стоял в очереди в DMV. Их процессы разрабатываются и развиваются людьми, да, но ИИ тоже.

Корпорации и правительства являются AGI во всех смыслах и целях. Они могут быть большими и пугающими и напрямую управлять вашей повседневной жизнью. Но мы согласились с тем, что человечество может с этим сосуществовать, и фактически установили с ними более или менее симбиотические отношения. Так почему же (в том числе и мне) намного страшнее, когда гипотетический ОИИ сделан из кремния, чем из людей и процессов? Есть ли основания полагать, что, если бы сильный ОИИ стал реальностью, эволюция его отношения к человечеству была бы существенно отличной от его отношения к корпоративным образованиям? Дэниел Гилберт в своей книге «Наткнувшись на счастье» утверждает (на основе данных), что лучший способ предсказать свое будущее - это не представлять себя в этом будущем, а смотреть в настоящем на соответствующие прокси. Мне интересно, является ли рассмотрение подъема современной корпорации во время промышленной революции лучшим показателем, чем обычные научно-фантастические тропы и повествования, когда дело доходит до рассуждений о возможном появлении сильного ОИИ: это не было прямым и безболезненным развитие человеческого состояния на любом этапе, но человечество адаптировалось к нему с новыми социальными конструкциями, новыми законами и новыми механизмами надзора, которые до сих пор помогли нам преодолеть разрушение в целом выгодным образом.

Честно говоря, я действительно могу представить себе несколько вариантов, в которых эта аналогия может быть нарушена. Во-первых, это временные рамки, если такой прорыв случится в течение нескольких лет, а не десятилетий. Динамика разрушения, происходящего внутри одного поколения, сильно отличается от изменений, происходящих между поколениями. Во-вторых, существует реальный риск введения любого нового участника в существующую экосистему, будь то биологическая, социальная или технологическая. В-третьих, единственная проблема, которую не смогли решить современное государство и корпорации, - это как включить управление внешними факторами (в частности, ресурсами и окружающей средой Земли) в свой «интеллект». Можно с полным правом утверждать, что самый большой внешний фактор ОИИ ... это мы. Это отрезвляющая мысль, хотя, если мы не решим проблему управления внешними факторами в нашей экосистеме сегодня, у нас, возможно, никогда не будет возможности действительно столкнуться с этой проблемой.

Об АСИ

Лично я считаю, что вопросы о машинном обучении как о средстве человеческого совершенствования гораздо более увлекательны, действенны и убедительны, чем поиски более высокой формы интеллекта. На самом деле, моя конечная цель - не столько преследовать ИИ, сколько бороться с ростом его старшего идиотского кузена: искусственного особого идиотизма (ИСИ), случайного или преднамеренного злоупотребления сегодняшними не столь общими ИИ. Вопросы, касающиеся эрзаца ОИИ, к которому мы имеем доступ сегодня, и того, как они могут иметь материальное влияние, положительное или отрицательное, на мир, в котором мы живем, глубоки и увлекательны.

Поскольку ИСИ являются специализированными, они, как правило, имеют слепые пятна в своем понимании мира. На самом деле, их понимание мира лучше описать как крошечный островок в бескрайнем море их невежества. Вы не можете построить систему распознавания образов собаки против кошки, просто показывая ей изображения собаки и кошки, иначе она рассудит обо всем, что видит, с точки зрения собачьей или кошачьей, и не будет знать, чего она не знает ». я знаю, а именно, что большинство вещей в мире тоже нет. Да, я знаю. Байесовцы скажут вам, что вы можете использовать правильный вероятностный вывод. Пытаться. Когда это не сработает, они, вероятно, скажут вам, что вы используете неправильный априор. Поздравляю, вы выиграли байесовское бинго и просто обменяли неразрешимую проблему на другую. Если вы следили за недавним всплеском интереса к моделям, основанным на энергии, вы знаете, что в этой сфере могут произойти изменения, и отказ от вероятностей может быть просто билетом.

Я помню свои дни, когда работал над распознаванием речи, когда, безусловно, самое важное, что вы могли сделать для повышения точности вашей модели преобразования речи в текст, - это улучшить моделирование всего, что не является речью, от хлопанья дверей до фоновой музыки и детского плача, который охватывает гораздо больший слуховой ландшафт, чем сама речь. Понимание того, чего вы не знаете, - одно из самых интересных занятий в искусственном интеллекте сегодня: мы боремся с моделированием известных неизвестных, не говоря уже о неизвестных неизвестных. В этой области предстоит проделать много увлекательной работы - и да, ответ может быть байесовским, но опять же, что нет?

Но что еще более интересно для меня, так это решение проблемы, которая находится в одном шаге от ИСИ: сама человеческая проблема - помочь практикующим специалистам понять, что существует проблема в первую очередь, и для которой есть устоявшиеся решения и передовой опыт. Независимо от того, идет ли речь о справедливости, доверии и объяснимости, тестировании и подтверждении, есть много практических способов, как только мы покончим с нашими очень человеческими слепыми пятнами, которые могут вызвать ИСИ, для решения проблем.

Мир ИИ и робототехники, в котором я работаю сегодня, абсолютно безжалостен по отношению к ИСИ. Работа с физическими системами повышает ставки: физическая безопасность всегда находится в центре внимания робототехники, а внедрение обучения на ее критическом пути означает обеспечение безопасности изнутри. Он также предлагает новые решения проблемы, помогая закрепить ИИ в физическом мире и сделать его участником человеческого общества. Наше постоянное сотрудничество с Everyday Robot Project демонстрирует многие из этих характеристик: роботы в человеческом мире нуждаются в глубоком понимании ситуации как в физическом, так и в социальном взаимодействии. Ответом на хрупкий ИИ вполне может быть столкновение с физическим миром во всей его запутанной сложности.