Упоминание искусственного интеллекта (ИИ) часто вызывает множество смешанных чувств. Многие опасаются будущего автоматизации и того, какую роль она может сыграть в их жизни. В современной рабочей силе довольно широко распространен страх быть замененным ИИ. Мы уже живем и работаем с ИИ и машинным обучением (МО) во многих отношениях. Наша зависимость только усиливается по мере того, как мы повышаем эффективность цепочки поставок. Остается ли ИИ? Стоит уделить немного времени изучению того, насколько важными стали эти достижения для роста и расширения многих отраслей, и как этические нормы играют роль в обеспечении интеграции справедливости. Джон Маккарти впервые употребил термин ИИ в 1956 году, когда провел свой первый академический симпозиум (Дартмутская конференция) по этому вопросу. Как один из «отцов-основателей» искусственного интеллекта, он сыграл важную роль в разработке систем разделения времени, которые сегодня превратились в облачные вычисления. С тех пор в области искусственного интеллекта были достигнуты значительные успехи, но по-прежнему существует аморфное понимание того, как он в конечном итоге влияет на отрасли и как он бросает вызов будущему нашей рабочей силы. Это требует более пристального внимания к тому, где сейчас находятся стандарты и как эта тема может вызвать диалог о том, как наилучшим образом внедрить этику. Поскольку мы ищем методы оптимизации цепочки поставок, важно углубиться в решение проблем сегодняшнего дня, чтобы подготовить возможности для завтрашнего дня. Обозначены области обсуждения, которые подчеркивают, как лучше всего доверять ИИ в будущем, чтобы приносить пользу отрасли и защищать рабочую силу, которую он обслуживает.

Этика ИИ и доверие

Когда мы думаем об этике, на ум сразу же приходят такие принципы, как прозрачность, конфиденциальность и ответственность. Эти строительные блоки вызывают доверие как к компаниям, которые предоставляют наши продукты и услуги, так и к инструментам, которые они используют. Когда Apple выпустила обновление конфиденциальности iOS 14, мы своими глазами увидели, как, казалось бы, безобидные приложения, на которые мы подписаны, активно отслеживают наши привычки и собирают наши данные без нашего разрешения. Это вызвало сопротивление со стороны многих платформ и разработчиков. Напрашивается вопрос, приемлема ли любая слежка без согласия? Компании из различных секторов собирают большие данные для оптимизации, обработки и интерпретации имеющейся информации, чтобы лучше принимать обоснованные решения, продавать свою продукцию и улучшать свои финансовые результаты. AI и ML позволяют игрокам, как крупным, так и малым, повысить корпоративную эффективность в областях прогнозирования спроса и планирования. Использование точного прогнозирования спроса и планирования мощностей повышает доходность, позволяя пользователям знать, чего ожидать, и двигаться с большей гибкостью. Чтобы потребители доверяли этим компаниям, необходимо обеспечить прозрачность и защиту нашей конфиденциальности и личных данных.

Работа с точки зрения этики создает возможность для подотчетности и ясности в отношении того, как используются данные.

Смещение декодирования

Включение алгоритмов глубокого обучения ИИ в цепочку поставок позволяет машинам идентифицировать и обрабатывать данные за считанные секунды, уменьшить количество ошибок и повысить скорость и точность; все это только повышает производительность. Что происходит, когда ИИ не соответствует нашим стандартам справедливости и эгалитаризма? Вырванные из недавних заголовков, мы увидели, как ИИ может пойти наперекосяк, обнажая предубеждения, существующие в алгоритмах. В прогнозах системы уголовного правосудия о том, какие правонарушители могут повторить преступления, существует дискриминация и предубеждения за счет чернокожих, коренных и цветных людей (BIPOC). С программным обеспечением для распознавания лиц лица, которые не являются мужскими и белыми, могут обрабатываться не так точно. Крупные корпорации сократили использование ИИ в процессе отбора кандидатов, поскольку было доказано, что женщины систематически не учитываются на языке, указанном в их резюме. Хотя при оценке предвзятости важно признавать наличие злого умысла, системы ИИ хороши ровно настолько, насколько хороши их обучающие данные. Процессы искусственного интеллекта и машинного обучения могут быстро перейти от инноваций к исследованию, когда то, что должно быть объективным анализом, превращается в дискриминационный анализ. Плохие обучающие данные подвержены человеческому фактору; мы редко осознаем наши собственные личные и культурные последствия, которые потенциально могут привести к катастрофическим последствиям. Когда мы создаем систему сдержек и противовесов и приглашаем различные точки зрения и культурный опыт для участия на ранних стадиях развития, это почти устраняет эти дорогостоящие ошибки. Компании, которые инвестируют в необходимую инфраструктуру для защиты от ловушек предвзятости, обеспечат самую высокую рентабельность инвестиций по сравнению с теми, кто не распознает предвзятость и в конечном итоге отстанет.

Инвестиции в таланты

Поскольку мы предвидим возможности трудоустройства в будущем, жизненно важно смотреть на проблемы, с которыми придется столкнуться напрямую. Было много отраслей, жизнеспособность которых проверена временем. В энергетическом секторе возобновляемые источники энергии привели к ожесточенным спорам о том, как лучше построить инфраструктуру, гарантирующую использование ископаемого топлива как ограниченного ресурса. Независимо от того, на какой стороне вы находитесь в этом споре, важно понимать, что перемены не за горами. По мере того, как все больше дискуссий о четвертой промышленной революции способствуют распространению технологий, нам необходимо дать возможность нашей рабочей силе принять и адаптироваться к такому неизбежному прогрессу. Инвестиции в программы STEM для недостаточно финансируемых и недостаточно обслуживаемых сообществ, как городских, так и сельских, дадут молодежи нашей страны инструменты, которые помогут им в их последующей карьере.

Поскольку мы смотрим на экономику завтрашнего дня, мы должны планировать создание этой важной основы уже сейчас. AI и ML стали неотъемлемой частью наших систем во многих отраслях и их цепочках поставок. Всегда есть поучительная история о том, как мы предоставляем данные для ИИ без акцента на этике. В конце концов, машины учатся на предоставленных данных. Если мы оставим в стороне наши «человеческие» предубеждения, такие как пол или оттенок кожи, результатом будут симбиотические отношения, которые продолжают расти и развиваться.

Пока мы программируем с акцентом на этику, ИИ будет продолжать помогать нам улучшать наш опыт в бизнесе, повышая производительность и прибыль. Да, AI и ML никуда не денутся, но когда мы сосредоточимся на человеческой стороне технологий, мы сможем одновременно участвовать и пожинать плоды будущего, в котором нетерпеливое ожидание затмевает страх перед неизбежным.