В этом коротком эссе я расскажу о проблемах и опасениях, связанных с использованием ИИ в различных отраслях. Я начну с выделения некоторых проблемных областей, а затем перейду к своим собственным размышлениям и опыту. В заключение я выскажу то, что, по моему мнению, должно стать будущим курсом с точки зрения возможности адаптации и использования ИИ.

Может ли ИИ выносить оценочные суждения?

Мы живем в уникальное время в истории, когда инженеры ИИ внезапно оказываются на переднем крае решения сложных духовных вопросов. Рассмотрим эту классическую философскую дилемму, весьма актуальную при проектировании беспилотного автомобиля:

Автомобильный автомобиль с владельцем, спящим на заднем сиденье. Внезапно двое играющих детей выпрыгивают на дорогу перед машиной. Единственный способ спасти двоих детей — свернуть в сторону, упасть со скалы и убить владельца машины. Что должна делать машина?

Ответ, скорее всего, будет синтаксически закодирован в его системе, что означает, что все, что мы запрограммируем как правильный подход, гарантированно будет реализовано. Во-первых, это означает, что инженер (возможно, при поддержке группы философов) обязан получить детерминированный ответ на такой сложный вопрос. Во-вторых, учитывая детерминистский (и в любом случае спорный) характер решения, оно открывает возможность эксплуатации и злоупотреблений. Это сильно отличается от того, как человек отреагировал бы на такие сценарии. Философы могут обсудить лучший способ справиться с такими ситуациями и найти решение. Но самое интересное в нас, людях (включая этих философов), заключается в том, что, сталкиваясь с реальными жизненными сценариями, требующими быстрого принятия решений, мы часто реагируем беспорядочно и мало заботимся о философии, которую проповедуем.

Можно возразить, что именно такая случайность (или, может быть, интуитивность) удерживает этот сложный мир в равновесии.

Это может быть субъективным примером, но он эффективно освещает проблемы и проблемы, с которыми мы сталкиваемся, внедряя системы, более зависимые от ИИ, в нашу повседневную жизнь. Сегодня искусственный интеллект быстро заменяет участие человека в таких областях, как правосудие, медицина и безопасность. По сути, мы заменяем вероятностные системы высокоточными детерминированными системами. Таким образом, крайне важно, чтобы системы создавались опытными специалистами, а данные, которые вводятся в систему для самообучения, должны быть самого высокого качества.

Проблема с данными

Любой, кто живет в Соединенном Королевстве, будет иметь отношение к тому факту, что Национальная служба здравоохранения Великобритании не связывает свои медицинские записи вместе в рамках стандартной практики. Это означает, что если я пойду в больницу NHS по определенной проблеме, они не будут иметь явного представления ни о одном из моих предыдущих визитов к моему терапевту.

Искусственный интеллект обладает большим потенциалом в диагностике заболеваний и выявлении закономерностей. Однако, если NHS воспользуется передовым решением искусственного интеллекта для обнаружения и прогнозирования заболеваний, оно в основном будет неэффективным, учитывая характер данных о пациентах, которые не централизованы, не сопоставлены и не собраны должным образом.

Дело в том, что до сих пор мы не смогли создать надежную экосистему данных для большинства наших платформ ИИ в разных отраслях. И, следовательно, мы часто слышим новости о предвзятых или ошибочных прогнозах ИИ. Эти инциденты еще больше подрывают веру общественности в принятие этих технологий. С другой стороны, можно утверждать, что такой централизованный сбор данных неэтичен и нарушает права пациентов на неприкосновенность частной жизни.

Проблемы конфиденциальности

До сих пор у организаций, как крупных, так и малых, не было особых стимулов для создания систем искусственного интеллекта с защитой конфиденциальности. В последние годы кражи данных становятся все более распространенным явлением, что практически не сказывается на ответственных за это компаниях¹.

До сих пор не принято нанимать специального сотрудника по управлению данными в организациях, которые активно используют приложения ИИ, связанные с хранением личных данных. Психографическое профилирование пользователей Facebook и его влияние на президентские выборы в США в 2016 году (скандал с Cambridge Analytica) — один из самых популярных примеров, высветивших опасения по поводу последствий использования ИИ для конфиденциальности.

«Тайные» алгоритмы

Недавние разработки в области глубокого обучения и нейронных сетей сделали прогнозы, основанные на искусственном интеллекте, гораздо более точными. Однако это также превратило систему в черный ящик, потому что, хотя традиционные алгоритмы машинного обучения и искусственного интеллекта можно интерпретировать, алгоритмы глубокого обучения более сложны и довольно часто не могут быть интерпретированы относительно того, почему или какие функции привели к определенным прогнозам. Проблема интерпретируемости влияет на доверие людей к системам глубокого обучения. Это также связано со многими этическими проблемами, например, с алгоритмической дискриминацией².

Личные размышления

В последние несколько лет были предприняты целенаправленные инициативы, направленные на решение некоторых проблем с ИИ. В то время как общественность более чувствительна к своим правам на конфиденциальность и обмен данными, организации быстро реагируют на общественные настроения, предоставляя своим клиентам больше возможностей. ИИ достигает совершеннолетия в эту эпоху, и перспективы очень многообещающие.

Я работаю аналитиком данных в ритейле. Будучи знакомым с некоторыми известными случаями использования ИИ в розничной торговле, я могу с уверенностью сказать, что, по крайней мере, в этой отрасли ИИ до сих пор демонстрировал больше перспектив, чем проблем. Искусственный интеллект позволил маркетологам одновременно обрабатывать миллионы точек данных и получать информацию, которую затем можно применять на демографическом или групповом уровне. Управление продажами и обслуживанием клиентов также значительно выиграло от использования ИИ. С помощью ИИ можно применять тяжелые вычисления в больших масштабах, соединяя несколько точек данных вместе. Это то, что находится за пределами человеческого масштаба и в основном не исследовалось до появления ИИ и машинного обучения.

Случаи использования ИИ в розничной торговле, такие как гипер-персонализация, размещение и пополнение, ценообразование, уценка и т. д., в последнее время очень популярны, а также широко адаптируются отраслью на всех уровнях.

Вопросы, которые могут возникнуть, больше связаны с тем, «как», а не «что» с применением ИИ в розничной торговле. Растет озабоченность по поводу конфиденциальности пользователей и того, должны ли розничные продавцы обрабатывать демографические и поведенческие данные своих клиентов. Обращение с личной идентифицируемой информацией (PII) регулируется различными региональными законами (например, GDPR для Европы). Эти законы гарантируют право граждан на неприкосновенность частной жизни, но не распространены во всем мире. Кроме того, существует риск того, что, учитывая потребность в большой экосистеме данных для обучения платформ ИИ, некоторые крупные корпорации начинают с очевидным преимуществом в этой области и могут создать пространство монополии в этой области. Amazon — хороший пример, за которым стоит следить в последующие годы.

Заглядывая вперед

Ханна Фрай упоминает в своей замечательной книге «Hello World» прием, который может помочь нам распознать мусорные алгоритмы.

Каждый раз, когда вы видите историю об алгоритме, попробуйте заменить модные слова, такие как «машинное обучение» и «искусственный интеллект», на слово «магия». Все ли по-прежнему имеет грамматический смысл? Что-то из смысла потеряно? Если нет, я бы беспокоился, что что-то не так. Потому что — в далеком будущем — мы не собираемся «решать голод в мире с помощью магии» или «использовать магию для написания идеального сценария» больше, чем с помощью ИИ.³

Признание того, что алгоритмы несовершенны, как и люди, может привести к уменьшению любых предположений об их авторитете. С такими ограничениями системы ИИ также должны быть частью обычного процесса аудита, который применяется, например, к финансовым процессам. Обученные аудиторы должны тестировать эти системы на предмет потенциальных рисков предвзятости и регулярно публиковать результаты. Кроме того, по-прежнему существует огромный потенциал для развития новых навыков посредством симбиоза человека и машины и устранения недостающего среднего разрыва.⁴

Я уже испытываю такой пробел в навыках даже в организациях, в которых я работал до сих пор — есть создатели ИИ (специалисты по данным, инженеры по машинному обучению и т. д.), которые создают или кодируют технические решения ИИ. Но они создают большинство своих решений для другой группы пользователей ИИ. Эта группа в основном состоит из бизнес-менеджеров, которые мало или совсем не знают, как работают решения, и в основном заинтересованы в результатах. Чаще всего создатели и пользователи не разговаривают друг с другом и даже не понимают язык друг друга. Нам нужна связь между ними, которая может служить мостом между этими группами и обеспечивать, чтобы обе эти группы работали над достижением целей, которые в большей степени соответствуют общей цели успеха. Другими словами, нам нужны ИИ-переводчики. Это будет самым востребованным навыком в ближайшем будущем.

Использованная литература:

1 — https://www.isaca.org/resources/news-and-trends/isaca-now-blog/2021/beware-theprivacy-violations-in-artificial-intelligence-applications

2 — Обзор интерпретируемости нейронной сети — Ю Чжан, Питер Тино, Алеш Леонардис, Ке Тан | https://arxiv.org/abs/2012.14261

3 - Ханна Фрай, Hello World ISBN 978–1–784–16306–8

4 — https://thedatalab.com/news/human-machine-combatting-myths/ дальнейшие ссылки Человек + Машина Джеймса Уилсона и Пола Догерти