Аффективные вычисления, также известные как искусственный эмоциональный интеллект или эмоциональный ИИ, направлены на разработку систем и устройств, которые могут распознавать, интерпретировать, обрабатывать и моделировать человеческие эмоции. Другими словами, ИИ видит ваши слезы, понимает, что вам грустно, и реагирует соответствующим образом.

Исследователи из Dyad X Machina сочетают аффективную нейронауку, психологическое изучение нейронных механизмов эмоций, с глубоким обучением, которое представляет собой высокоструктурированную версию машинного обучения и вдохновлено биологическими нервными системами. Их цель — создать эмоциональный слой, который ведет нас по миру и помогает нам принимать решения. Когда мы принимаем решение, мы не только смотрим на логические плюсы и минусы результатов, но и прощупываем возможные варианты будущего, чтобы прийти к решению. Хаохан Ван, соучредитель Dyad X Machina, говорит, что их миссия — привнести эмоции в машинное обучение.

Каково значение аффективных вычислений для будущих приложений?

Это триповая часть: будущие приложения будут адаптироваться к эмоциональному состоянию пользователя. С точки зрения приложения мы, как пользователи, становимся более сложной персоной, которая выходит за рамки наших демографических метаданных и истории браузера в приложения, работающие на нас. Это достигается за счет использования физических и магнитных данных в режиме реального времени для определения нашего эмоционального состояния на основе таких входных данных, как фитбит, который измеряет HRV (вариабельность сердечного ритма), который с помощью аффективных вычислений может определить ваше эмоциональное состояние. В некотором смысле это возвращает нас во времена биологической обратной связи, но в данном случае приложение считывает данные, вносит соответствующие коррективы и создает невероятно персонализированный мгновенный опыт, основанный на ваших эмоциях. Если вы расстроены, вы увидите одну версию, если расслаблены — другую.

На сегодняшний день это один из самых сложных проектов, в котором искусственный интеллект применяется к эмоциям, но есть много компаний, которые стали экспертами в чтении и расшифровке эмоций извне, читая выражение лица и слушая голосовые паттерны, и многие из них вы можете экспериментировать со своими собственными изображениями:



Google Cloud Vision имеет консоль, в которую вы загружаете фотографию, и она дает вам мгновенный анализ:

AffectivaЭтот стартап из Массачусетса, основанный в 2009 году, привлек почти 20 миллионов долларов от инвесторов, среди которых Kleiner Perkins Caufield & Byers и Horizon Ventures. Affectiva проанализировала почти 4 миллиона лиц в 75 разных странах, чтобы создать программу, которая в режиме реального времени может анализировать любое из 10 000 возможных выражений лица, которые вы можете отображать в любой момент времени. Хотите увидеть, как это работает? У них есть онлайн-демонстрация, которую вы можете попробовать, которая анализирует ваше выражение лица через вашу веб-камеру, пока вы смотрите юмористические добавления Doritos. Или вы можете загрузить их приложение Affdex на свой телефон и читать свое лицо в режиме реального времени:



Массачусетский технологический институт создал пакет инструментов программирования для построения моделей на основе поведенческих данных. К ним относятся данные с устройств, а также речевые паттерны.

Области, в которых используются аффективные вычисления, включают исследования рынка, здравоохранение, автомобилестроение и, конечно же, средства массовой информации и рекламу, где MPC использует эту технологию для создания контента с наибольшим эмоциональным воздействием.

Мотивация для этого исследования — способность имитировать эмпатию у машин, взаимодействующих с людьми. Машина должна интерпретировать эмоциональное состояние людей и адаптировать к ним свое поведение, давая соответствующую реакцию на эти эмоции.

И все это стремится воспроизвести взаимодействие людей друг с другом. Но настоящие преимущества приходят с терапией и образованием, где цель машины — улучшить человеческий опыт и сделать так, чтобы барьер эмпатии был преодолен, и то, что мы видим здесь, — это первые шаги.