Довольно часто, как специалисту по данным, мне задавали вопрос, вдохновленный научно-фантастическими фильмами: «Может ли ИИ? механические роботы захватывают мир и правят человеческим родом?». Как бы интересно ни звучал этот вопрос, мы прошли долгий путь до того, как системы искусственного интеллекта могли бы обладать «интеллектом» или способностями мыслить не только математическими функциями, как они это делают сейчас. Хотя этих возможностей (если вообще возможно) следует опасаться в будущем, прямо сейчас мы сталкиваемся с опасностью, которая требует немедленного всего нашего внимания.

В этом блоге мы исследуем две основные области. Во-первых, мы рассмотрим некоторые проблемы с искусственным интеллектом (ИИ) в целом. Кроме того, мы попытаемся понять причину неудачи некоторых ИИ. приложений и немного подумать о том, как можно было бы избежать этих случаев.

Как мы все, наверное, знаем, А.И. системы могут принести большую пользу бизнесу. Это может помочь дать рекомендации о том, что клиент Энтони может захотеть посмотреть, или, если Энтони купил обувь, было бы целесообразно порекомендовать пару хороших носков к его новой обуви. В финансовой индустрии он уже довольно широко используется для прогнозирования людей, которые потенциально могут не платить по кредитам. Кроме того, он может быть чрезвычайно полезен для медицинского применения, например, для выявления опухолей на ранней стадии для лечения больных раком. Однако даже с таким количеством вариантов использования A.I. системы не являются панацеей для решения всех проблем и ни в коем случае не должны рассматриваться как одна.

Примечание :

Ни в коем случае данная статья не пытается дискредитировать А.И. Приложения. Цель блога — информировать людей о некоторых проблемах, связанных с искусственным интеллектом и машинным обучением, чтобы мы могли предпринять шаги по их этичному использованию.

Шаги к ответственному искусственному интеллекту (ИИ)

Было много раз, когда ИИ система, созданная для решения проблемы, рухнула перед лицом человечества и ухудшила положение. В этом блоге мы рассмотрим некоторые из этих случаев и выясним, что привело к некоторым из этих бедствий и как их можно было избежать.

1. Правильное распределение выборки данных для обучения модели

Во-первых, давайте взглянем на систему распознавания изображений Google, которая классифицировала чернокожие пары как горилл.



Google приносит извинения за расистскую ошибку приложения «Фото
'[Google] упомянул более интенсивный поиск кандидатов с цветным цветом кожи через дверь, но только…www .bbc.com»



Чтобы понять проблему, нам нужно немного разобраться в ИИ.

А.И. системы обычно обучаются на огромных объемах данных.Чем больше данных, на которых обучается система ИИ, тем лучше результат! Хотя это утверждение широко распространяется по всему миру, оно не так просто, как кажется.

Одна из потенциальных причин такой ошибочной классификации может заключаться в том, что, несмотря на то, что Google обучил алгоритм на огромном количестве данных, модель, возможно, не была обучена на достаточном количестве выборок людей разных рас, что затруднило процесс обучения. Модель машинного обучения для классификации людей по цвету. Следовательно, А.И. системы должны быть обучены на хорошем распределении выборки, чтобы уменьшить вероятность таких «расистских» ошибок.

Точно так же другой А.И. Система была признана сексистской, когда она классифицировала мужчин и женщин по разным категориям. Чтобы узнать больше, нажмите на ссылку ниже.



Когда ИИ видит человека, он думает, что он «чиновник. Девушка? Улыбайтесь
Все 20 депутатов улыбаются на своих официальных фотографиях. Лучшие предложенные Google ярлыки отметили улыбку только для одного из…www.wired.com»



2. Четко определенная проблема

Хотя описанная выше проблема была досадной, она была не такой серьезной, как в случае, который мы сейчас обсудим, где применение ИИ не помогло. чуть не убили человека, ДВАЖДЫ!

https://www.theverge.com/c/22444020/chicago-pd-predictive-policing-heat-list

В статье одной из ключевых задач, которые стоят перед А.И. приложение, которое пыталось решить, было снижение преступности. Как бы хорошо и благородно ни звучало приложение, отсутствие четко определенной проблемы, то есть того, предсказывает ли модель возможность преступления, с которым столкнулась жертва, или совершенного преступником, имело катастрофический результат. Важно понимать, что искусственный интеллект — это не волшебная пуля для решения каких-либо или всех проблем, и, следовательно, к нему не следует относиться как к единому.

Как гласит вышеприведенная статья:

Алгоритм, созданный Департаментом полиции Чикаго, предсказал, основываясь на его близости и отношениях с известными стрелками и жертвами стрельбы, что Макдэниел будет причастен к стрельбе. Что он будет «партией насилия», но не было ясно, на какой стороне барреля он может быть. Он мог быть стрелком, его могли застрелить. Они не знали.

3. Смещение модели/данных

Смещение в модели можно определить как систематическую ошибку, возникающую в модели. Более высокое смещение будет означать низкую точность модели, поскольку ошибка высока.

Однако в задаче классификации, даже если модель имеет низкую общую погрешность, рекомендуется проверять погрешность модели в каждой категории, чтобы определить, работает ли модель объективно. Если этого не сделать, могут возникнуть проблемы, описанные в статье ниже.



В вышеуказанной статье говорится о программе, направленной на облегчение возвращения преступников в общество. Однако выпуск регулируется моделью машинного обучения. Это особенно становится проблемой, когда данные, используемые для обучения модели, изначально предвзяты. Таким образом, было обнаружено, что модель имеет расовую предвзятость.

Как указано в приведенной выше статье:

Но тысячи других могут все еще оставаться за решеткой из-за фундаментальных недостатков в методе Министерства юстиции для принятия решения о том, кто может пойти по пути досрочного освобождения. Самый большой недостаток: постоянные расовые различия, которые ставят черных и коричневых в невыгодное положение.



4. Объяснимость модели

Одна из вещей, с которой мы должны быть очень осторожны при использовании приложения, заключается в том, что все ИИ однако системы дают результаты, только потому, что результат получен, ни в коем случае не означает, что проблема решена.

Тщательная оценка очень важна для любого успешного ИИ. приложение. Это означает, что нам нужно проанализировать приложение и понять причину полученных результатов.

Это становится более очевидным из статьи, прикрепленной ниже, в которой цитируется:

После аудита алгоритма компания по проверке резюме обнаружила, что алгоритм обнаружил два фактора, которые наиболее показательны для эффективности работы: их имя было Джаред и играли ли они в лакросс в старшей школе.

Благодаря оценке модели заявка была отклонена.



В то время как некоторые организации работают над более этичным использованием ИИ, другие все еще не прилагают достаточных усилий в этом направлении. Проблема становится еще более серьезной, когда А.И. Приложение используется для охраны. Это видно из перечисленных ниже статей, в которых мужчина был арестован исключительно потому, что модель предполагала, что преступление было совершено этим человеком без дополнительных доказательств.

Собственные алгоритмы ShotSpotter являются основным преимуществом компании, и она часто рекламирует эту технологию в маркетинговых материалах как практически надежную. Но компания охраняет то, как работает ее закрытая система, как коммерческую тайну, черный ящик, в значительной степени непостижимый для общественности, присяжных и полицейских надзорных советов.



В то время как А.И. в правоохранительных органах следует использовать как способ обеспечения или поддержки текущего расследования, характер приложения как «черного ящика» делал приложение и его результаты загадочными.

5. Обучение пользователей приложений

Одна из вещей, на которую часто не обращают внимания после ИИ. приложение успешно построено и оценено важность обучения пользователей.

Что еще более важно, для пользователей очень полезно понимать, что ИИ приложения обычно основаны на концепции корреляции, а не причинно-следственной связи.

Корреляция не то же самое, что причинность.

Это становится более важным в области полицейской деятельности. Это утверждение может быть подтверждено алгоритмом распознавания лиц, используемым для полиции ниже, где мужчина был заключен в тюрьму без тщательного расследования только потому, что ИИ система совпала с поддельным удостоверением личности. к настоящему мужчине.

Как цитирует статья ниже

Согласно полицейскому отчету, полученному CNN, доказательства, представленные полицейскими, которые привели к аресту Паркса, были «громким сравнением» со сканированием лица фотографии с тем, что было определено как поддельное удостоверение личности, оставленное при преступлении. сцена, которую свидетели связывают с подозреваемым. Совпадения по распознаванию лиц было достаточно, чтобы прокуроры и судья подписали его арест.



Очевидно, что для организаций, использующих ИИ, очень важно. системы для обучения пользователей приложений, чтобы избежать неэтичного или непреднамеренного использования. Вышеупомянутого случая можно было бы просто избежать путем расследования сотрудниками полиции. Однако слепое доверие к таким системам со стороны офицеров и присяжных серьезно сказалось на жизни невиновного человека.

Заключение

Хотя системы искусственного интеллекта рекламируются как решение любых или всех бизнес-проблем, их следует использовать с осторожностью. Более того, при использовании А.И. в критически важных областях, таких как здравоохранение, охрана правопорядка и т. д., он должен иметь основу для разработки, оценки и использования.

Однако, поскольку многие считают, что технология сама по себе очень полезна, разработчику приложений и организациям приходится обеспечивать их этичное использование.