Этические проблемы, с которыми сталкиваются компании при внедрении ИИ | Запутанный ИИ

#искусственный интеллект покорил мир. Прошло десять лет с тех пор, как компании, большие и малые, инвестировали свое время и деньги в #ai, чтобы сохранить свои позиции на рынке. В гонке за быстрое внедрение новых технологий компании не осознают потенциальные этические последствия, которым ИИ может подвергнуть вас. Эти последствия могут привести к негативным последствиям, которые могут нанести ущерб вашему будущему росту.

Вопросы, на которые организация должна ответить перед внедрением ИИ

Данные были и всегда будут основным компонентом любой реализации искусственного интеллекта. Представьте себе ситуацию, если эти данные ошибочны? Или алгоритм, который используется для улучшения его обучения, не был должным образом протестирован, чтобы понять входные данные, которые он получает? Это может привести к неожиданным результатам, которые не приветствуются. Вдобавок к этому, когда нормативно-правовая база изо всех сил пытается справиться с быстро появляющимися технологиями, широкая общественность стремится к прозрачности использования #aitools и технологий. Все это привело к возникновению нескольких вопросов об этических проблемах внедрения ИИ в бизнесе. Поэтому, прежде чем внедрять ИИ в своей организации, вам необходимо получить ответы на следующие вопросы:

  1. Какова степень контроля вашей организации над принятыми #aitechnologies?
  2. Как вы обеспечите работу продуктов ИИ в соответствии с основными ценностями бизнеса?
  3. Поскольку #aisystems в большей степени предвзяты, как вы обеспечиваете справедливость и точность?

Этические ценности должны отдаваться организациям в первую очередь. В связи с этим давайте рассмотрим некоторые ключевые этические проблемы, с которыми сталкиваются компании при внедрении ИИ.

Потеря работы

Одной из основных проблем людей с ИИ является незащищенность, связанная с потерей работы. Поскольку внедрение ИИ оптимизирует и автоматизирует несколько процессов в организации, сотрудники опасаются, что они больше не понадобятся организации. Согласно глобальному отчету Mckinsey, ожидается, что около 800 миллионов человек потеряют работу из-за внедрения ИИ к 2030 году. Например, большинству известно, что ИИ показал свое мастерство в области цифрового маркетинга. и сектора телемаркетинга. Общеизвестно, что искусственный интеллект заменил традиционные методы электронного маркетинга и лишает работы маркетологов и телемаркетологов.

Организации должны развеять страхи сотрудников и найти способы гармоничного сосуществования людей и ИИ. Это должна быть синергия, которая может способствовать росту организации.

Неравенство богатства

В некотором смысле имущественное неравенство связано со сценарием потери работы, созданным ИИ. Рассмотрим традиционную экосистему занятости, в которой сотрудники создают продукт, а их вознаграждение предлагается на почасовой основе. Предприятие предлагает им заработную плату, а оставшуюся прибыль инвестирует обратно в производство. Этот цикл поддерживает экономику страны.

С другой стороны, система ИИ, которая может заменить работу человека, вообще не требует заработной платы. Это разовая инвестиция. Это открывает двери для огромных прибылей генеральным директорам и акционерам, которые инвестировали в бизнес. Все это ведет к имущественному неравенству и нарушает экономический поток. Короче говоря, ИИ делает богатых еще богаче, а бедных — беднее.

Пренебрежение человеческими чувствами

ИИ был дополнен системами распознавания голоса и лиц, чтобы повысить вовлеченность клиентов для бизнеса. Чат-боты на базе искусственного интеллекта стали обычным явлением на большинстве веб-сайтов, предлагая круглосуточную помощь клиентам. Но никто серьезно не относился к таящейся под этим опасности. Такие системы ИИ уязвимы к ошибкам в данных и предвзятости, вносимым экспертами-людьми во время их обучения. Например, системы распознавания лиц, представленные Microsoft и IBM, демонстрировали предвзятость при определении пола людей. Эти системы искусственного интеллекта определяли пол белых людей более точно, чем темнокожих.

Был еще один инцидент, когда чат-бот с искусственным интеллектом вызвал расовую проблему для организации. Tay, чат-бот с искусственным интеллектом, созданный Microsoft, начал извергать расистские комментарии в адрес людей, которые общались с ним, из-за серьезного сбоя в алгоритме самообучения. Microsoft немедленно закрыла программу, чтобы не нанести еще больший ущерб репутации компании. Такое использование ИИ может ранить чувства людей.

Рост фейковой информации и СМИ

ИИ играет важную роль в цифровом мире, особенно в области продаж и маркетинга. Системы на основе ИИ исторически использовались организациями для простого создания изображений и контента. Со временем способность системы ИИ к самообучению может сместиться в другую сторону, что может привести к увеличению количества самогенерируемых поддельных изображений и контента. Мы уже сталкиваемся с миллионами фальшивых новостей и изображений в нашей повседневной жизни.

Кроме того, рынок наводнен автоматизированными инструментами для социальных сетей с искусственным интеллектом. Существует высокая вероятность того, что мошеннический инструмент, используемый вашей организацией, может отправлять поддельную информацию и контент, вводя в заблуждение ваших клиентов. Это может нанести серьезный вред вашей репутации.

Вопросы безопасности

Системами ИИ можно манипулировать так, как люди никогда не смогут. Люди используют рациональный подход ко всему, но системы ИИ не могут отличить хорошее от плохого. Они просто обучены предоставлять выходные данные для определенных входных значений и самообучаться на них. Ими могут манипулировать хакеры, которые могут изменить свои алгоритмы обучения и заставить их разучиться с правильным набором паттернов. Поскольку ИИ обрабатывает огромные объемы данных, если данные будут обработаны и попадут не в те руки, это может привести к краху компании в кратчайшие сроки.

зависимость от ИИ

Корпоративные гиганты, такие как Facebook и YouTube, признались, что использовали алгоритмы искусственного интеллекта, чтобы заставить людей использовать их приложения в течение более длительного периода времени. Эти алгоритмы искусственного интеллекта специально разработаны для развития зависимости у людей. Например, Instagram использует систему исследования AI (алгоритм дерева решений), которая предлагает вам лучшие рекомендации, оценивая публикации, которые вам понравились и которые вы сохранили. Эти алгоритмы держат вас привязанными к приложению в течение нескольких часов, постоянно отслеживая интересующую вас область. Компании игнорируют здоровье своих пользователей и вместо этого отдают приоритет своим доходам.

Подведение итогов

Сочетание ИИ с повседневными операциями — хороший способ ускорить рост вашего бизнеса. ИИ должен быть реализован, чтобы сделать ваши транзакции и процессы более надежными и быстрыми. Но как бизнес вы также обязаны поддерживать определенные этические ценности. Вы также должны четко определить порог мощности, которую вы можете предложить системе ИИ. Подавляющее большинство контроля всегда должно находиться в руках людей. Если с этим не справиться правильно, это может обрушить не только ваш бизнес, но и всю экономику страны.