Массовое внедрение ИИ в нашу повседневную жизнь представляет множество угроз для каждого человека, несмотря на способность ИИ решать проблемы в течение короткого периода времени из больших объемов данных, что было бы невозможно при ограниченных возможностях человека.
Постоянно растущее использование и спрос на ИИ в здравоохранении, образовании, бизнесе, транспорте, безопасности, сельском хозяйстве и т. д. требует регулирования этих систем ИИ.
Ответственное машинное обучение – это попытка контролировать системы ИИ таким образом, чтобы эти системы соответствовали человеческим социальным нормам(этическим суждениям людей). Это гарантирует, что мы повысим доверие к моделям ИИ, основанным на человеческой этике.
Области, на которые следует обратить внимание при обеспечении ответственного машинного обучения:объяснимость,подотчетность, прозрачность, конфиденциальность и надежность, безопасность и надежность, а также справедливость.
- Подотчетность: это гарантирует, что каждый человек, участвующий в процессе создания конвейера ИИ, должен в любое время нести ответственность за решение, принятое ИИ, и его влияние на общество/мир. Должна быть какая-то прослеживаемость для отслеживания проблем до источника на протяжении жизненного цикла ИИ.
- Прозрачность. Это укрепляет доверие за счет раскрытия информации. Примерами являются законы, требующие, чтобы пользователи имели право доступа к своим данным, а также знали, на основании чего система ИИ сделала для них определенный прогноз. Пользователи также должны знать, общаются ли они на самом деле с ботом или с человеком.
IBM OpenScale обеспечивает мониторинг моделей, чтобы разработчики могли узнать и понять, почему модель сделала определенный прогноз.
- Конфиденциальность и надежность. Здесь рассматривается защита прав потребителей на конфиденциальность и данные. Гомоморфное шифрование – отличная технология, которая поможет защитить данные пользователей от утечки. Этот тип технологии позволяет считывать данные без необходимости их расшифровки, поэтому третьи лица имеют доступ только к соответствующим данным и ничего более. Это подходит для использования в секторах здравоохранения и финансов.
- Объяснимо:система ИИ должна позволять проверять выводы или решения, которые она принимает. Например, почему он предпочитает нанимать людей с именем Уинифред или давать ссуды определенному классу мужчин, а не женщинам, несмотря на то, что обе стороны имеют одинаковую квалификацию.
- Безопасность и надежность. Насколько безопасны пользователи вашей системы искусственного интеллекта. Примером являются беспилотные автомобили и тому подобное. Можем ли мы положиться на них, чтобы безопасно доставить нас на автопилоте к месту назначения?
- Справедливость. Это гарантирует, что модели справедливы для всего населения, следовательно, поощряя инклюзивное общество, устраняя неравенство в сфере занятости, кредитов, инвалидности и т. п. Система модерации или проверки на предвзятость была бы большим спасением.
Предвзятость
Предвзятость в моделях возникает, когда модели делают выводы, дискриминирующие определенные группы/недопредставленные группы. Это можно увидеть по возрасту, национальности, полу, полу и расе.
- Преднамеренная предвзятость. Эта форма предвзятости связана с влиянием создателей/инженеров на создание ИИ во всех его конвейерах. Если создатели расисты или стереотипны, то модель может вести себя как таковая на основе сделанных выводов.
- Непреднамеренная погрешность. Эта форма погрешности обычно связана с типом и доступностью данных. Мусор в мусоре.
Рекомендуемые действия:
Команды должны убедиться, что они знают и понимают руководящие принципы своего учреждения и соответствуют национальным и международным нормам.
Система ИИ должна быть ориентирована на человека (соответствовать нормам и ценностям всех групп пользователей).
Документирование и ведение очень подробных записей о проектировании учреждений и процессах принятия решений.
Правильно сформулируйте или поясните роли каждого члена команды в жизненном цикле ИИ.
Инструменты/решения для смягчения последствий
- Набор инструментов Microsoft AI Fairlearn
- Набор инструментов IBM AI Fairness 360