В наши дни ведется много разговоров о будущем искусственного интеллекта (ИИ) и его роли в будущем нашего общества. Многие из них представляют собой продуктивные разговоры о преимуществах, которые может дать внедрение ИИ в различные области, такие как индустрия здравоохранения. Но одновременно было опубликовано много статей об опасностях ИИ и о том, как он приведет к концу человечества. Несколько минут изучения ИИ в Google приведут вас к следующим статьям:

«Крестовый поход Илона Маска на миллиард долларов, чтобы остановить апокалипсис ИИ»

Если жители Кремниевой долины боятся ИИ, должны ли бояться ИИ мы?

«Роботы уничтожат наши рабочие места — а мы к этому не готовы»

Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству

Эти вызывающие страх и в целом вводящие в заблуждение заголовки мешают нам вести продуктивные разговоры об использовании ИИ и о том, как он может положительно и конструктивно улучшить человечество.

Один из последних эпизодов разжигания страха перед ИИ начался, когда несколько основных новостных агентств начали сообщать, что Facebook вынужден закрыть свой ИИ, потому что он разработал собственные методы коммуникации. Оказывается, это был не совсем крайний случай, о котором впервые сообщалось, с такими названиями статей:

«Инженеры Facebook в панике, отключают ИИ после того, как боты разрабатывают свой собственный язык»

or

«Исследователи отключили ИИ, изобретший собственный язык»

На самом деле ситуация была не первым шагом в роботизированном захвате Земли. Исследование искусственного интеллекта Facebook (FAIR) — это исследовательская группа в Facebook, которая создала ботов с искусственным интеллектом для общения в Facebook Messenger. Проект был сосредоточен на внедрении диалоговых агентов с возможностью вести переговоры. Команда FAIR собрала набор данных переговоров между людьми, где людей просили разделить предметы между собой. Затем они начали обучать Рекуррентную нейронную сеть (RNN), чтобы бот научился вести переговоры, имитируя действия человека. Этот сквозной метод обучения с учителем, обучаемый исключительно человеческому языку и решениям, позволяет адаптировать нейронную сеть к другим задачам.

Команда FAIR экспериментировала со своими ботами, заставляя их вести переговоры с людьми. Они говорят, что люди в этих экспериментах не осознавали, что общаются с ботами, а это означало, что боты научились свободно разговаривать на английском языке в этой области. Впечатляет то, что боты, использующие Обучение с подкреплением (RL) и развертывание диалогов, имели уровни производительности, которые соответствовали переговорщикам-людям.

Причина, по которой команда FAIR отключила ботов ИИ, заключалась в том, что они начали использовать собственную стенографию, чтобы более эффективно вести совместные переговоры. Выяснилось, что для ботов общение на английском языке было не самым эффективным способом ведения переговоров и не было четко определенной награды за общение на английском языке.

Хотя легко попасться на заголовки экстремальных новостей, мы еще не совсем на пороге роботизированного поглощения. Машинное обучение и ИИ далеко не превосходят возможности человека. До этого существует множество уникальных и эффективных приложений ИИ, которые можно использовать для улучшения различных аспектов человеческой жизни.

P.S. Вслед за этим приходит объявление о том, что Facebook купил Ozlo, чтобы увеличить свои усилия в области разговорного ИИ. Вот открытый исходный код, который они используют для переговоров с ботами. Подробнее об обучении переговорам с искусственным интеллектом в Facebook читайте здесь.

Twitter: @yina_ml
LinkedIn: yinamoelange
Первоначально опубликовано на www.2021.ai