Искусственный интеллект снова на подъеме. Или, лучше сказать, наконец-то на подъеме. Хотя ИИ долгое время был излюбленной темой в популярной культуре (Она, Люди и Экс-Машина), лишь недавно он стал использоваться в реальных приложениях. ИИ, наконец, сполз с экранов наших телевизоров и вышел за пределы научных кругов, в продукты и услуги, которыми мы пользуемся каждый день. Недавно Google запустил специальную программу по замене всех алгоритмов своих инструментов на алгоритмы машинного обучения; мы также можем найти алгоритмы ИИ в том, как Facebook упорядочивает публикации в ленте на нашей стене и в рекомендациях фильмов Netflix. Это операции на фондовом рынке, пилотные услуги для помощи врачам в диагностической визуализации и исследовательские центры, разрабатывающие беспилотные автомобили.

Переключив наше внимание на подключенные объекты, одним из больших преимуществ подключения является возможность воспользоваться преимуществами онлайн-сервисов. Это означает, что подключенные объекты имеют в своем распоряжении такое количество вычислительной мощности и памяти, которое они никогда не смогут себе позволить на своих маленьких чипах. Они даже могут использовать вычислительные и ресурсоемкие инструменты, например, использующие алгоритмы искусственного интеллекта. А с множеством онлайн-сервисов, предлагающих бесплатное тестирование функций ИИ, создание прототипов и тестирование продуктов, которые объединяют такие технологии, как распознавание изображений, распознавание речи или даже специально разработанные алгоритмы машинного обучения, не предназначены исключительно для научно-исследовательских лабораторий.

Использование ИИ в объектах приведет к новым видам отношений между продуктами и людьми. С этими новыми отношениями возникают новые проблемы (и обязанности) для дизайнеров и технологов. У умных нет лояльной оппозиции, — утверждает Брюс Стерлинг, говоря об умных городах и критикуя использование термина для описания города, наполненного датчиками и приложениями. Умный в худшем случае — это универсальный атрибут, который уводит от фактического рассмотрения преимуществ обновления. Этот аргумент прекрасно применим и к объектам. Ту же проблему легко увидеть, когда мы смотрим на нынешнюю золотую лихорадку по интеллектуализации вещей, когда вставить чип представляет собой ценность как таковую, независимо от фактической полезности нового продукта. Важно избегать этого чрезмерного упрощения и начать более тонко использовать наш словарный запас, чтобы лучше понять проектирование умных вещей.

Евгений Морозов указывает на некоторые соображения при различении хорошего смарта и плохого смарта применительно к связанным объектам. Хорошо здесь означает умные объекты, которые помогают и поддерживают, но в конечном итоге оставляют окончательное решение за пользователем. Он упоминает чайник со световым индикатором, сигнализирующим о текущем состоянии электрической сети, чтобы побудить пользователей принимать сознательное решение с учетом энергии каждый раз, когда они идут кипятить чайник, что потенциально помогает избежать перегрузки сети во время высокого потребления. Важно отметить, что окончательное решение остается за пользователем, который может проигнорировать совет и все же сделать чашку чая.

Теперь о плохом. Это объекты, которые принимают решения за пользователя, предотвращая определенные варианты или применяя определенные. Этот подход, по мнению Морозова, проблематичен, поскольку он предполагает, что дизайнер всегда знает, как нам следует себя вести, и, по его словам, не может относиться к нам как к автономным человеческим существам, способным самостоятельно взвешивать варианты. Мэтт Уэбб и Мэтт Джонс также высказались по этому поводу. Оба бывшие руководители студии инновационного дизайна BERG, они много лет размышляли о роботах и ​​продуктах, и в свете недавнего возрождения ИИ кратко изложили свой взгляд на проектирование с использованием искусственного интеллекта. Мэтт Уэбб пишет об интеллектуальных продуктах и ​​услугах, предназначенных для того, чтобы что-то делать для нас, а не позволяющих нам делать еще больше. Мэтт Джонс подхватывает это и объясняет свою идею дизайнеров-кентавров, которые рассматривают человеческий и нечеловеческий интеллект как помощников в творчестве, и противопоставляет это искусственному интеллекту Батлера, который просто делает что-то за нас.

Эти аргументы раскрывают интересные моменты, но они также раскрывают случаи, когда предпочтительный подход не всегда является идеальным, потому что, к лучшему или к худшему, иногда мы можем просто хотеть, чтобы продукт делал что-то за нас и облегчал нашу задачу, даже допуская, что он может не всегда ведут себя так, как хотелось бы. Система, которая навязывает или предотвращает определенные действия пользователя, безусловно, может вызывать разочарование, но сам Морозов признает, что вмешательство может быть приемлемой платой в определенных критических ситуациях — например, в системе, которая проверяет, трезвы ли мы, прежде чем позволить нам завести машину.

Технология ИИ, наконец, демонстрирует свои возможности в реальных условиях, и такие технологические компании, как Google, Microsoft, Amazon и IBM, делают свои технологии ИИ доступными для использования. Эти недавние ресурсы искусственного интеллекта с открытым исходным кодом, наряду с обсуждениями, которые мы только что подробно описали, вдохновили нас потратить неделю, пытаясь найти систематический подход к использованию этого нового инструмента и протестировать этот подход с помощью нескольких быстрых прототипов.

Чтобы помочь нам лучше понять различные способы функционирования ИИ, мы разработали разные «персоны» ИИ: Дворецкий, Полиция и Приятель. Эти персонажи демонстрируют три разных способа использования интеллекта, чтобы помочь нам лучше разрабатывать продукты на основе ИИ. Ни в коем случае не являясь жестким набором правил, эти три персонажа — скорее словарь, помогающий начать думать и проектировать с помощью искусственного интеллекта.

Дворецкий

Заимствуя термин из вышеупомянутого сообщения в блоге Мэтта Джонса, ИИ Батлера просто делает все за нас. Дворецкий в ИИ — это то, что мы бы назвали «бесшовным» в UX: система, которая знает, что вам может понадобиться, и делает это, практически не требуя явного взаимодействия.

Есть случаи, когда это очень желательная возможность, например, поведение робота-пылесоса. Новый Roomba 980 использует компьютерное зрение для отображения мест в вашем доме, чтобы знать, где он был и куда ему еще нужно добраться. Нас вполне устраивает, что он делает это автономно, и не жалуемся на то, что робот не спрашивает разрешения войти в ту или иную комнату. Но если доверить технологиям выполнение такой не слишком приятной задачи, как мытье пола, вряд ли есть какой-либо риск, то в некоторых случаях такой подход может быть проблематичным.

Во-первых, такая модель требует от проектировщика либо рассмотрения всех различных типов пользователей и проектирования для каждого из них, либо, что является более распространенным сценарием, разработки стандартного поведения по умолчанию, предположительно подходящего для подавляющего большинства пользователей, т. е. подхода, который может привести к проблемы проектирования для разнообразия. Вторая проблема касается удобочитаемости. Беспрепятственное взаимодействие и невидимые интерфейсы могут привести к тому, что мы еще больше оторвемся от технологий, которые используем и на которые полагаемся. По мере того как они становятся более сложными, а последствия их действий более важными, риск отчуждения от такой важной инфраструктуры становится чреватым угрожающими последствиями.

Полиция

Второй подход, который мы определили, — это полиция. Это описывает интеллектуальную систему, которая предотвращает одни варианты выбора и навязывает другие, следуя некоему «высшему благу», которое может даже противоречить намерениям пользователя.

Это включает довольно много случаев; банальный пример — умный будильник. Мы можем улучшить его, сообщив ему о циклах сна, синхронизировав с нашим календарем и изучив наши рутины, но в конечном итоге ему все равно потребуется выполнить определенное действие, чтобы выполнить свою основную функцию. Но будильник по своей сути, даже до какого-либо технологического обновления, является полицейским устройством, в то время как есть другие продукты, в которых интеллектуальность привносит новую функциональность. Мы уже говорили об алкотестере, который проверяет, трезвы ли мы, прежде чем позволить нам завести машину, как хороший пример интеллектуальной системы, похожей на полицейскую. Еще один тонкий пример — функция обучения в термостате Nest. Первая версия алгоритма устанавливала температуру на значение, которое пользователи никогда не устанавливали, чтобы помочь им экономить энергию. Это может быть хорошо для некоторых пользователей, которые принимают неудобства ради более высокого блага (экологического или более дешевого счета), но в конечном итоге реакции пользователей на чувство отсутствия контроля привели к тому, что компания изменила свой алгоритм, чтобы устранить это. поведение.

Легко увидеть преимущества этого подхода в обеспечении соблюдения определенных широко выгодных вариантов (окружающая среда, экономия, безопасность…), но проблема здесь заключается в том, чтобы решить, кто отвечает за эти решения и в какой степени они должны выполняться. Бывают исключения, и могут быть случаи, когда лучше получить штраф за вождение после пары выпивки, чем не ехать в больницу в случае травмы. Последствия этих решений могут оказаться очень важными и варьироваться от дизайна во благо до создания антиутопии.

Друг

Последний персонаж — The Buddy, ИИ, который поддерживает пользователя, не заменяя его. Машина вот это друг. Вы просите его о помощи, и он никоим образом не будет осуждать вас или служить вам предсказуемо. Важнейший аспект этой метафоры, отличающий ее от двух предыдущих, заключается в том, что окончательный выбор всегда остается за пользователем. Варианты не навязываются и не подразумеваются, а скорее предлагаются.

Хорошим примером такого типа отношений ИИ является исторический. Шахматист Гарри Каспаров, как известно, был побежден Deep Blue, суперкомпьютером IBM, в 1997 году. Что менее известно в этой истории (хотя довольно часто упоминается, когда речь идет о машинах против людей), так это то, что произошло после. Каспаров не бросил свою профессию в отчаянии, приветствуя нового робота-повелителя игры, он теоретизировал и учредил то, что известно под названием шахматы кентавров. Это следует тем же правилам традиционных шахмат, с той лишь разницей, что игрокам разрешено использовать специальные компьютерные программы для предсказания всех возможных ходов на каждом этапе игры. И, самое главное, эта команда человек-машина доказала свое превосходство над людьми и машинами по отдельности. Легко увидеть привлекательность такой ссылки. Здесь у нас есть пример человеко-компьютерной сущности, в которой человек наделяется полномочиями, а не заменяется (довольно позитивный посыл, поскольку мы находимся в середине новой луддистской волны против технологий). В Centaur Chess машина делает то, что умеет лучше всего: точно обрабатывает данные. Человеку остается применять те навыки, в которых он преуспевает: творчество и интуицию.

Переходя к более конкретному примеру, рассмотрим IBM Chef Watson. Эта кулинарная версия программного обеспечения IBM AI создает ряд сочетаний ингредиентов и рецептов, начиная с ингредиента и стиля приготовления. Результат получается путем манипулирования и обработки информации как из существующих рецептов, так и из научных данных о вкусовых соединениях. Что интересно, шеф-повар Уотсон не имеет культурных предубеждений и не боится смешивать продукты разного происхождения и сочетать неожиданные ингредиенты (небольшая игра с обслуживанием привела к котлете с тофу и моцареллой — что-то, что, несомненно, сделает позвоночники моих итальянских родителей и японских друзей дрожат, и эти неожиданные сочетания могут стать новой отправной точкой для создания новых рецептов.

Что делает Chef Watson Buddy AI? Он не пытается автоматизировать задачу, а скорее дополняет и расширяет человеческую работу. Хотя ИИ может получать доступ, обрабатывать и сопоставлять огромное количество данных о мировых кухнях и науке о вкусовых соединениях, способность, которую даже самый опытный и культурно открытый шеф-повар никогда не сможет полностью развить за всю жизнь, эти ингредиенты и рекомендации по рецепту являются лишь отправной точкой для повара. Им остается принять окончательное решение о том, как их комбинировать и приготовить, исходя из их собственного опыта и вкуса.

Используемые здесь метафоры персон вводят сдвиг в восприятии того, как мы относимся к объектам, сдвиг в сторону более точных и здоровых отношений. Во-первых, они помогают нам избежать использования термина магия, который часто используется для описания повествования со связанными объектами. Многообещающие опыты, когда вещи реагируют на наши желания как заколдованные, рискованны, а когда техника дает сбой в критических ситуациях, сказка может даже превратиться в ужастик. А поскольку ИИ делает интеллектуальное поведение более сложным и детализированным, бесшовные и беспроблемные взаимодействия, скорее всего, будут редкостью.

Использование персонализации в смарт-объектах не является новым подходом. BERG использует метафору из реального мира, когда они обсуждают B.A.S.A.S.P.. (будь умным как щенок) в умных продуктах. Создание умных вещей, которые не пытаются быть слишком умными и терпят неудачу, и действительно, по замыслу, делают привлекательные неудачи в своих попытках учиться и совершенствоваться. Как щенки. Совсем недавно Дэн Хилл использовал другую метафору из реального мира, описывая отношения человека и машины в мнениях для Dezeen. Здесь он ссылается на пастуха-овчарку как на удобный способ описать, как робот и люди будут сотрудничать в городе. И одним особенно интересным аспектом этого является качество отношений, которые никогда не являются господином и слугой, а являются отдельными сущностями, возможно, с одной и той же повесткой дня, но разными способами ведения дел. По его словам: животные редко хотят быть просто слугами […] Так что отношения «пастух-овчарка могут быть полезно сложными отношениями, но, тем не менее, это отношения с ясным мотивом».

Наконец, поскольку людей нельзя свести только к одному персонажу, при проектировании поведения объектов с искусственным интеллектом мы, скорее всего, будем использовать каждую из предыдущих категорий в разных пропорциях в зависимости от каждого взаимодействия и маршрута взаимодействия с продуктом. Тем не менее, выделение их в конкретных аспектах дает ясность в отношении цели/отношения, которых следует достичь при разработке поведения продукта.

Первоначальный прототип, появившийся в результате нашего исследования искусственного интеллекта, — это Timbre, эмоциональное радио.

Первоначально опубликовано на uniform.net.