Общая ответственность

Шахин Гаухер, доктор философии

Искусственный интеллект и технологии окружают нас. ИИ также преподносится как эликсир для всех предприятий с огромными инициативами, начинающимися на предприятиях, и миллионы долларов вкладываются в создание «решений ИИ». ИИ встроен в нашу жизнь и влияет на нее, колеблясь от поощрения и возбуждения к тревоге и беспокойству.

В этой серии публикаций я выделю некоторые слепые пятна ИИ, как их обнаружить и как их избежать. В Часть 1 - Общая ответственность мы более подробно рассмотрим дискуссии по вопросам этики и ответственности в ИИ. В Часть II - Чувство силы мы обсудим подводные камни, которые приводят к огромному количеству неудач инициатив в области ИИ, о которых сообщает Gartner, и поделимся некоторыми советами, как их избежать. В Часть III - Динамика команды мы поговорим о Томе Брэди и командной работе.

Привлечение ИИ к ответственности - горячая тема в последнее время, и ей уделяется много внимания [1] [2]. Я искренне приветствую эти обсуждения. Нельзя отрицать преобразующую силу ИИ и то влияние, которое он оказывает на нашу жизнь и средства к существованию прямо, косвенно и даже незаметно. По мере того как растет осведомленность о неблагоприятных последствиях автоматического принятия решений с использованием ИИ [3] [4 [5] [6], растет озабоченность по поводу его непропорционального воздействия на уязвимые группы населения [7] [8]. Невозможно переоценить важность этих разговоров. В области алгоритмической справедливости и объяснимости проводится значительный объем исследований. Однако сосредоточение внимания только на ИИ даст нам только половину истории. В этом посте я предлагаю перефразировать тему обсуждения с «Ответственного ИИ» на «Ответственное использование ИИ». Существует острая необходимость сделать разговор более инклюзивным и разнообразным, пригласив все стороны, участвующие в бизнесе ИИ - создание идей, создание, доставку, распространение и получение. Наличие правильной темы для обсуждения и участия всех вовлеченных сторон поможет нам коллективно достичь цели ответственного и этичного использования ИИ и иметь возможность использовать его на благо человечества.

Несмотря на окружающую его магическую ауру, в ее основе ИИ - инструмент для принятия решений. К нему следует относиться с той же строгостью и ожиданиями контроля качества, что и к любому другому инструменту. Это инструмент, который делает прогнозы, которые затем используются для принятия решений и выполнения определенных действий. Мне нравится думать об ИИ как об основанном на данных процессе принятия решений на стероидах.

Сделаем небольшой перерыв для мысленного эксперимента. Посмотрите на три картинки ниже.

В случае травмы, нанесенной мечом, кто несет ответственность за нанесение травмы и кто должен взять на себя счет за физическое, психическое и эмоциональное исцеление от ранения мечом? Меч, создатель мечей или владелец меча? В реальном мире ответственность за нанесение раны лежит непосредственно на том, кто владел мечом.

Точно так же, если бизнес решает использовать ИИ для принятия решений, и результаты этих решений являются предвзятыми, дискриминационными и вредными, ответственность за безответственное использование лежит на лице, принимающем решения. Независимо от того, передается ли процесс принятия решений консалтинговой фирме или искусственному интеллекту, конечная ответственность за безопасность клиентов и справедливое отношение полностью лежит на бизнесе. Доллар останавливается на вас. Ты начальник.

ИИ оптимизирует то, что ему сказано оптимизировать. Очень важно, чтобы вы задали правильный вопрос. Вы можете возразить: «Я знаю, как вести бизнес, это моя работа. Я не знаю, как работает ИИ. У меня нет ученой степени или доктора философии ». Это веский аргумент, и, к счастью, в этом нет необходимости. Умение использовать и умение создавать - два разных требования. Автомобиль - хорошая аналогия: мы умеем водить машину, разбираемся в дорожных знаках и правилах, знаем, как заправлять бензин, некоторые из нас даже могут поменять спущенное колесо! Для заказа автомобиля не требуется, чтобы мы знали, как его построить, однако от нас требуется знать, как правильно его использовать. То же самое и с заказом модели AI. Контрольный список здравого смысла, который будет применяться, если, скажем, вы заказываете тяжелую технику для своего бизнеса, можно изменить при заказе ИИ. Нет необходимости понимать нюансы механики и электротехники, которые использовались при создании машины, однако вам необходимо задать следующие вопросы:

Что делает машина? Приведет ли это к увеличению производительности? Оправдывает ли повышение производительности затраты на закупку, обслуживание, хранение и обучение персонала? Соответствует ли это нормам безопасности? Какие у него функции безопасности? Это надежно? Насколько он сложен в эксплуатации и сколько потребуется обучения, чтобы использовать его оптимальным образом? Есть ли какой-либо пробел в инфраструктуре, который может помешать фактическому использованию? В значительной степени стандартное упражнение по оценке инвестиций и рисков, применимое к принятию любого нового инструмента или продукта.

ИИ может трансформировать бизнес и стимулировать инновации. Если вы задаете правильные вопросы и заботитесь о своем бизнесе и своих клиентах, вы можете использовать возможности искусственного интеллекта, чтобы быть более прибыльным и продуктивным, обеспечивая при этом справедливый и улучшенный опыт для своих клиентов. Во второй части этой серии я поделюсь несколькими вопросами на миллион долларов. В буквальном смысле. Если задать эти вопросы заранее, это потенциально может спасти вас от неудачных инициатив и связанных с этим финансовых потерь, потенциальной PR-катастрофы или даже судебного процесса в некоторых крайних случаях. Быть в курсе.

@Shaheen_Gauher

Мнения являются моими собственными и не отражают место моей работы в прошлом или настоящем.

Если вы найдете статью актуальной, поделитесь ею и поделитесь ею!

Подтверждение:

Большое спасибо Мэри Уол, Кристи Флетчер и Мигелю Фиерро за обзор и ценные отзывы.

Использованная литература:

[1] https://www.nist.gov/news-events/news/2019/07/nist-releases-draft-plan-federal-engagement-ai-standards-development

[2] https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

[3] https://www.nytimes.com/2019/08/20/upshot/housing-discrimination-algorithms-hud.html

[4] https://www.nytimes.com/2021/03/15/technology/artificial-intelligence-google-bias.html

[5] https://www.brookings.edu/research/credit-denial-in-the-age-of-ai/

[6] https://www.wired.com/story/google-microsoft-warn-ai-may-do-dumb-things/

[7] https://ncrc.org/the-washington-post-racial-bias-in-a-medical-algorithm-favors-white-patients-over-sicker-black-patients/

[8] https://www.technologyreview.com/2020/12/04/1013068/algorithms-create-a-poverty-trap-lawyers-fight-back/