Как укрепить доверие к решениям для искусственного интеллекта

Взгляд психолога на укрепление доверия к ИИ и на то, какие механизмы необходимо понимать компаниям для удовлетворения потребностей своих клиентов и пользователей.

Я взял интервью у Марисы Чопп, организационного психолога, проводящего исследование искусственного интеллекта с гуманитарной точки зрения с акцентом на психологические и этические вопросы. Она также является корпоративным исследователем в scip AG, компании, занимающейся технологиями и кибербезопасностью, со штаб-квартирой в Цюрихе. А еще она посол Швейцарии Женщины в искусственном интеллекте.

Опишите, кто вы есть, в 2–3 предложениях.

В настоящее время я сосредотачиваюсь на доверии к ИИ, автономным системам оружия и нашему проекту AIQ, который представляет собой психометрический метод измерения навыков цифровых помощников (разговорный ИИ), таких как Siri или Alexa.

Итак, очевидно, что я исследователь, но я также мать двоих малышей, жена, дочь, сестра, волейболистка, надеюсь, веселый друг, активистка, идеалистка, соавтор и полупрофессиональный шерпа (я люблю ходить в походы по швейцарским Альпам, и поэтому мне приходится таскать своих детей на спине!).

Давайте начнем с лучшего понимания доверия. Что такое доверие и почему оно важно, особенно в контексте ИИ?

В контексте искусственного интеллекта существует критически важное предположение: «Нет доверия, нет пользы». Поскольку ИИ несет в себе большие обещания (а также опасности), технологические компании и энтузиасты ИИ особенно озабочены тем, как укрепить доверие к ИИ, чтобы способствовать его принятию или использованию.

Доверие кажется непреходящим, загадочным конкурентным преимуществом.

Без доверия не было бы ни семьи, ни домов, ни рынков, ни религии, ни политики, ни ракетостроения.

По словам исследователя доверия Рэйчел Боцман,

Доверие - это социальный клей, который позволяет человечеству прогрессировать посредством взаимодействия друг с другом и с окружающей средой, включая технологии.

Доверие можно рассматривать как психологический механизм, позволяющий справиться с неопределенностью, и он находится где-то между известным и неизвестным.

Доверие глубоко укоренилось в нашей личности. Мы в основном рождены со склонностью доверять или не доверять людям (или животным, или чему-то еще).

Возьмем, к примеру, эту случайную фотографию женщины: Вы ей доверяете? Пожалуйста, оцените ниже.

Мы, люди, обладаем уникальной способностью сказать по снимку, доверяем мы этому человеку или нет. Мы смотрим на выражение лица, позу тела или контекст (фон, окружение и т. Д.). Мы сравниваем это с воспоминаниями или прошлым опытом за доли секунды, например, «она напоминает мне мою бабушку».

Вообще говоря, мы знаем, что склонны больше доверять людям, которые больше похожи на нас. Одна из причин заключается в том, что нам легче предсказать будущее поведение или реакцию людей, которые похожи друг на друга, что снижает эмоциональный риск получить травму.

Мы не знаем, насколько точна наша интуиция. Вы доверяли этой женщине наверху? Может быть, да, потому что она расслабленно улыбается. Может быть, нет, потому что вы уже ожидаете здесь какой-то хитрости, так как я психолог.

Эта женщина не заслуживает доверия. Она умерла несколько лет назад в тюрьме, как одна из самых известных серийных убийц.

В контексте ИИ, если вы задаетесь вопросом, можем ли мы доверять ИИ как технологии, тогда, по сравнению с другими технологиями, решающим является понимание того, что часто ИИ (например, машинное обучение, скажем, изображение классификации), ведет себя не так, как задумано, допускает ошибки или действует неэтично. Например, когда чернокожие люди классифицируются как гориллы или птицы как ракеты.

Процессы и результаты трудно объяснить, иногда они вообще не известны, а значит, плохо предсказуемы. Доверие к этой технологии сопряжено с гораздо большим риском.

На данный момент исследования согласовали три основных принципа, на которые необходимо ответить для построения доверия:

1.) Производительность: хорошо ли работает? Это безопасно? Правильно ли он построен?

2.) Процесс. Выполняется ли он так, как мы планировали? Можем ли мы предсказать результат?

3.) Цель: Хорошо ли я отношусь к намерениям программы и поставщика? Соответствует ли он этическим стандартам? Это заслуживает доверия?

Часто говорят, что ИИ позитивно трансформирует почти каждый сектор от медицины до городского планирования, но, что очень важно, он также приносит с собой сомнительные или даже опасные последствия. От сверхточного взлома платформ данных до состояния наблюдения и потери конфиденциальности без возможности получения общественного согласия. Таким образом, наряду с техническими проблемами, такими как отсутствие предсказуемости и объяснимости, понятие отрицательных результатов, шумиха, сложность и разногласия в определениях и приложениях приводит к скептицизму и недоверию.

Как неспециалистам, владельцам бизнеса и т. д. подойти к этой теме?

ИИ уже стал частью нашей повседневной жизни, он уже все чаще используется при принятии решений, когда дело касается образования, полиции, правосудия, найма или здравоохранения.

У меня также нет технического образования, я психолог, поэтому я смотрю на вещи с другой точки зрения, и, возможно, мне будет легче сочувствовать большинству людей, которые не знают, как кодировать или что такое алгоритм есть.

Что меня больше всего увлекает и побуждает к моим исследованиям, так это вопрос о том, как в первую очередь устанавливается доверие. Вы действительно не знаете человека или продукт, его ценности или компетенции. Это первый проблеск, когда я говорю: «Да, я сделаю это».

Как вообще возникает это доверие, до сих пор немного загадочно.

Как нам лучше всего с этим справиться? Я думаю, что все дело в образовании, общении и критическом мышлении. Но что-то ограничивает эти навыки или нашу волю участвовать в дискуссиях об ИИ.

С психологической точки зрения это одна из больших проблем: нам не хватает когнитивной свободы выбора. Что меня беспокоит, так это то, что мы движемся к отношениям с ИИ по принципу «сделай или умри». Уйти от ИИ будет практически невозможно, равно как и от изменения климата.

Тот факт, что нас принуждают или угрожают, как угрожающие образы терминатора или постоянный человек, проигрывающий машинным новостям, ведет к сопротивлению, отрицанию, цинизму и преуменьшению. Это называется реактивным сопротивлением, психологическим феноменом. Когда возникает реактивное сопротивление - мы выбираем такое поведение - даже если оно совершенно иррационально - чтобы просто восстановить нашу когнитивную свободу выбора и вернуть нам чувство контроля.

Это может стать серьезной проблемой, особенно с точки зрения психологии потребителя, когда вы стремитесь убедить клиентов покупать ваши товары, будь то автомобиль или робот-пылесос.

Потребители, как и все люди, хотят свободы выбора, и нам нужно найти способы, чтобы люди захотели исследовать ИИ самостоятельно, а не потому, что они вынуждены это делать.

Вот почему менеджмент часто применяет в своей компании восходящий подход, а не нисходящие решения.

Благодаря этому совместному способу принятия решений вы стремитесь привлечь всех людей на борт и поделиться своим видением и целями.

Прямо сейчас одна из ключевых задач - изменить то, как мы говорим об ИИ. Я считаю, что нам нужно серьезно изменить тон разговора об ИИ. Мы должны уйти от шумихи, угроз и страха к ясным фактам, видению и тому, почему, чтобы создать наши собственные отношения с ИИ и, таким образом, выйти на новый уровень доверия.

Это также мое видение как посла сети Женщины в ИИ, некоммерческой организации, работающей над ИИ с учетом гендерных аспектов, который принесет пользу глобальному обществу.

Представьте, что компания создает продукт на основе машинного обучения и только что приступила к созданию прототипа. Какие шаги вы бы посоветовали с точки зрения укрепления доверия?

От философа я научился всегда спрашивать почему, от начала до самого конца и постоянно на всех этапах проекта.

Каковы предполагаемые последствия и предполагайте все возможные непредвиденные последствия?

С точки зрения дизайна, все сводится к приведению вашего дизайна в соответствие хотя бы с минимальными этическими стандартами, чтобы убедиться, что вы создаете надежный продукт. Однако следует иметь в виду, что технические характеристики (качество), безопасность и надежность являются обязательными предпосылками.

Возвращаясь к началу, нужно постоянно помнить о трех столпах: процесс, результативность, цель. Этика в искусственном интеллекте - это честность и достоверность.

В конце концов, задача состоит в том, чтобы создать отличный, безопасный и этически правильный продукт. Естественно, главное внимание уделяется созданию хорошего продукта, затем безопасность и этические аспекты.

Естественно сначала сосредоточиться на технических требованиях, хотя, как это ни парадоксально, последние следует рассматривать в первую очередь. Два года назад, когда мы начали наше исследование доверия, наша идея заключалась в том, чтобы иметь как бы доказательство качества, чтобы сигнализировать пользователям или покупателям, что это заслуживающий доверия продукт. Вот почему мы изобрели AIQ, метод психометрического измерения для определения, сравнения и отслеживания навыков цифровых помощников. Однако мы были слишком быстры, поскольку рынок все еще находится в стадии разработки, а не на самом деле улучшения существующего разговорного ИИ. Мы тоже сначала сосредоточились на технических навыках, а не на фактических решающих мягких факторах построения и развития доверия.

Вот эпизод подкаста, который более подробно рассказывает об этой теме.

Теперь мы делаем шаг назад и сосредотачиваемся на менее очевидных факторах, влияющих на укрепление доверия в контексте ИИ. Это прекрасные факторы влияния на микроуровне восприятия, от личностных черт до предубеждений, прошлого опыта, социализации и воспитания. Мы просто собираем данные, чтобы изучить эти антецеденты доверия к ИИ с помощью ассоциаций, качественных и количественных методов.

Можно ли изменить образ ИИ или повлиять на поведение потребителей после запуска продукта?

Если вы хотите изучить свой имидж доверия, вам необходимо взглянуть на вопросы и определения с разных точек зрения: вы можете захотеть взглянуть на отдельного человека (например, на характеристики вашей целевой группы или сотрудников), вы можете взглянуть на процесс со стороны построения, поддержание и развитие доверия с точки зрения потребителя, а также разрушение и восстановление доверия. Вы должны избегать актеров и ролей (кому можно доверять?) И ситуации: это ситуация с высоким риском, например, беспилотные автомобили, или мы говорим о чат-боте, управляемом искусственным интеллектом, в службе поддержки клиентов. ?

В конце концов, да, однако в обоих направлениях, к лучшему или к худшему. Когда мы говорим об ИИ, мы должны быть очень чуткими, нейтральными или, как говорит Ханс Рослин, «фактическими». Исследования довольно ясно показывают, что делать для поддержания отношений или как действовать. Если вы разорвали доверительные отношения, я не уверен, отличается ли ИИ от других технологий. Нарушение - это нарушение, будь то утечка данных Facebook или сбитая с толку ракета.

Если произошло нарушение доверия, вы должны немедленно, прямо, четко сообщить, что произошло, объясниться, не защищаясь, быть искренним, правдивым и спросить, что необходимо, чтобы получить еще один шанс.

Какие книги и другие ресурсы вы бы порекомендовали владельцу бизнеса или менеджеру по продукту, чтобы узнать об укреплении доверия к ИИ?

Я бы посоветовал обратиться к Европейской группе экспертов высокого уровня по ИИ. Они только что выпустили основу для создания надежного ИИ. Фреймворк состоит из трех основных частей: законного ИИ, этичного ИИ и надежного ИИ. Ключевые моменты двух последних обсуждаются в отчете.

Еще один отличный набор всеобъемлющих краудсорсинговых стандартов исходит от Глобальной инициативы IEEE по этике автономных и интеллектуальных систем, которая называется этично согласованным проектированием.

Рэйчел Боцман: Кому вы можете доверять? Она пишет о том, как создается, теряется и восстанавливается доверие в цифровую эпоху, а также имеет несколько очень рекомендуемых выступлений на TED Talks.

Это интервью было проведено с Майклом Буркхардтом из Omdena - инновационной платформы, где инженеры ИИ и эксперты в предметной области совместно работают над поиском решений реальных проблем.