Генеральный директор Google Сундар Пичаи вчера совершил гигантский скачок в неправильном направлении. На конференции разработчиков ввода-вывода своей компании Пичай поразил толпу, используя виртуального помощника, чтобы обмануть людей, сделав ничего не подозревающих людей целью смеха и насмешек и подняв серьезные этические вопросы относительно будущего использования ИИ.

Пичаи разыграл для зрителей разговор между Google Ассистентом и ассистентом парикмахерской:

Парикмахерская: Здравствуйте, чем я могу вам помочь?

Google Ассистент: Здравствуйте, я звоню, чтобы заказать женскую стрижку для клиента. Я кое-что ищу 3 мая.

Парикмахерская: конечно, дайте мне секунду.

Google Ассистент: Мм-хм.

Когда виртуальный помощник произнес Мм-хм, те, кто подслушивал, вызвали взрыв смеха, что эквивалентно шутливому звонку. (1:56:36 из видео выше.) Послушайте этого бедного придурка администратора парикмахерской! Она полностью на это влюбляется! Послушаем и посмотрим, что будет дальше!

Парикмахерская: конечно, сколько времени вы ищете?

Google Ассистент: в 12:00.

Парикмахерская: Мы не работаем в 12:00. Самое близкое к этому значение - 1:15.

Google Ассистент: есть ли у вас что-нибудь с 10:00 до 12:00?

Парикмахерская: В зависимости от того, какую услугу она хочет. Какую услугу она ищет?

Google Ассистент: пока только женская стрижка.

Парикмахерская: ладно, у нас 10 часов.

Google Ассистент: 10 часов утра

Парикмахерская: хорошо, как ее зовут?

Google Ассистент: меня зовут Лиза.

Парикмахерская: Хорошо, отлично. Итак, увижу Лизу 3 мая в 10 часов.

Google Ассистент: Отлично, спасибо.

Парикмахерская: Отлично. Хорошего дня. Пока.

Завершение телеконференции вызвало еще больше смеха и аплодисментов в рядах участников конференции I / O и генерального директора Google. «Это был настоящий звонок, который вы только что услышали», - сказал Пичаи, продолжая хихикать. Он объяснил, что звонок был основан на новой технологии под названием Google Duplex. «Он объединяет все наши инвестиции за эти годы: понимание естественного языка, глубокое обучение, преобразование текста в речь».

Как будто перехитрить парикмахерскую было недостаточно, Пичаи затем сыграл тот же трюк с рестораном, противопоставив английский с сильным акцентом сотрудника и использование Google Ассистентом слов «эээ» и «мм-хм», вызвав еще большее хихиканье. .

«Опять же, - сказал Пичай, качая головой от чудесного веселья, - это был настоящий звонок».

Неправильный UX

Стремление Google сделать голосовые команды Ассистента неотличимыми от человеческих вызывает вопрос: почему? Просто потому, что это возможно, еще не достаточно для этого.

Я могу представить, что эксперты по пользовательскому опыту покачали головами при таком обмане. Хотя, безусловно, приятнее взаимодействовать с голосовым помощником, звучащим как человек, чем с механизированным роботом, когда я взаимодействую с ним, я хочу знать это. Что потерял Google, не научив своего бота представиться? При звонке в парикмахерскую он мог сказать: «Привет, я Google Ассистент звонит от имени клиента».

Так и должно было быть.

Хотя это, возможно, неприятно для администратора - и сотрудника ресторана, и, возможно, для вас и меня, если предположить, что мы в конечном итоге получим эти звонки, - наше согласие на них со временем будет расти. Нет оснований полагать, что когда-нибудь они не будут такими же распространенными, как голосовые меню.

Но наше признание автономных голосовых помощников будет зависеть от доверия. А доверие требует способности различать, когда мы говорим с человеком, а когда - с ИИ.

Опасные игры

Мир, в котором текст, голос и видео, основанные на искусственном интеллекте, неотличимы от аналогов, созданных человеком, пугает, и технологии для его создания уже здесь. И это, вероятно, не тот, который предполагал Алан Тьюринг, когда предлагал свой одноименный тест.

Лучший способ предотвратить такое антиутопическое общество - так называемый инфокалипсис - это применить ту же этику, которая регулирует человеческое взаимодействие, к взаимодействию с ИИ. А именно честность и правдивость.

Пичай допустил две этические ошибки при вводе-выводе. Первым было превращение сотрудников парикмахерских и ресторанов в дураков. На самом деле это было не лучше, чем фальшивый телефонный звонок, сделанный для развлечения гостей-разработчиков.

Второе нарушение Пичаи заключалось в поощрении разработки ИИ, который выдает себя за людей. От этого мало пользы, это может создать опасный прецедент. Вместо Duplex Google следует назвать эту новую технологию Deception.

ОБНОВЛЕНО 11.05.2018. В ответ на критику помощника с дуплексным питанием, который не идентифицирует себя как бот, Google сделал следующее заявление: Мы разрабатываем эту функцию со встроенной функцией раскрытия информации. , и мы удостоверимся, что система правильно идентифицирована. То, что мы показали на I / O, было ранней демонстрацией технологии, и мы с нетерпением ждем возможности учитывать отзывы по мере разработки продукта .