Массовое внедрение ИИ в нашу повседневную жизнь представляет множество угроз для каждого человека, несмотря на способность ИИ решать проблемы в течение короткого периода времени из больших объемов данных, что было бы невозможно при ограниченных возможностях человека.

Постоянно растущее использование и спрос на ИИ в здравоохранении, образовании, бизнесе, транспорте, безопасности, сельском хозяйстве и т. д. требует регулирования этих систем ИИ.

Ответственное машинное обучение – это попытка контролировать системы ИИ таким образом, чтобы эти системы соответствовали человеческим социальным нормам(этическим суждениям людей). Это гарантирует, что мы повысим доверие к моделям ИИ, основанным на человеческой этике.

Области, на которые следует обратить внимание при обеспечении ответственного машинного обучения:объяснимость,подотчетность, прозрачность, конфиденциальность и надежность, безопасность и надежность, а также справедливость.

  • Подотчетность: это гарантирует, что каждый человек, участвующий в процессе создания конвейера ИИ, должен в любое время нести ответственность за решение, принятое ИИ, и его влияние на общество/мир. Должна быть какая-то прослеживаемость для отслеживания проблем до источника на протяжении жизненного цикла ИИ.
  • Прозрачность. Это укрепляет доверие за счет раскрытия информации. Примерами являются законы, требующие, чтобы пользователи имели право доступа к своим данным, а также знали, на основании чего система ИИ сделала для них определенный прогноз. Пользователи также должны знать, общаются ли они на самом деле с ботом или с человеком.

IBM OpenScale обеспечивает мониторинг моделей, чтобы разработчики могли узнать и понять, почему модель сделала определенный прогноз.

  • Конфиденциальность и надежность. Здесь рассматривается защита прав потребителей на конфиденциальность и данные. Гомоморфное шифрование – отличная технология, которая поможет защитить данные пользователей от утечки. Этот тип технологии позволяет считывать данные без необходимости их расшифровки, поэтому третьи лица имеют доступ только к соответствующим данным и ничего более. Это подходит для использования в секторах здравоохранения и финансов.
  • Объяснимо:система ИИ должна позволять проверять выводы или решения, которые она принимает. Например, почему он предпочитает нанимать людей с именем Уинифред или давать ссуды определенному классу мужчин, а не женщинам, несмотря на то, что обе стороны имеют одинаковую квалификацию.
  • Безопасность и надежность. Насколько безопасны пользователи вашей системы искусственного интеллекта. Примером являются беспилотные автомобили и тому подобное. Можем ли мы положиться на них, чтобы безопасно доставить нас на автопилоте к месту назначения?
  • Справедливость. Это гарантирует, что модели справедливы для всего населения, следовательно, поощряя инклюзивное общество, устраняя неравенство в сфере занятости, кредитов, инвалидности и т. п. Система модерации или проверки на предвзятость была бы большим спасением.

Предвзятость

Предвзятость в моделях возникает, когда модели делают выводы, дискриминирующие определенные группы/недопредставленные группы. Это можно увидеть по возрасту, национальности, полу, полу и расе.

  • Преднамеренная предвзятость. Эта форма предвзятости связана с влиянием создателей/инженеров на создание ИИ во всех его конвейерах. Если создатели расисты или стереотипны, то модель может вести себя как таковая на основе сделанных выводов.
  • Непреднамеренная погрешность. Эта форма погрешности обычно связана с типом и доступностью данных. Мусор в мусоре.

Рекомендуемые действия:

Команды должны убедиться, что они знают и понимают руководящие принципы своего учреждения и соответствуют национальным и международным нормам.

Система ИИ должна быть ориентирована на человека (соответствовать нормам и ценностям всех групп пользователей).

Документирование и ведение очень подробных записей о проектировании учреждений и процессах принятия решений.

Правильно сформулируйте или поясните роли каждого члена команды в жизненном цикле ИИ.

Инструменты/решения для смягчения последствий

  • Набор инструментов Microsoft AI Fairlearn
  • Набор инструментов IBM AI Fairness 360