В последние годы наблюдается беспрецедентный рост потребления ИИ, особенно во время пандемии COVID-19, когда правительства используют возможности ИИ в ответ на пандемию, а клиенты ищут бесконтактное взаимодействие с организациями. ИИ используется в самых разных областях, и с использованием ИИ в таких областях, как уголовное правосудие, здравоохранение, результаты могут иметь большое влияние на жизнь людей.

Существует большая потребность в том, чтобы специалисты по ОД создавали справедливые модели, защищающие основные права людей.

«Технологии в целом и искусственный интеллект в частности не являются нейтральными с точки зрения ценности. Дизайнерские решения, принимаемые при разработке ИИ, придают ИИ определенные ценности, хотим мы этого или нет. Ключ в том, чтобы преодолеть разрыв между принципами высокого уровня и дизайном систем ИИ. Если системы ИИ спроектированы таким образом, чтобы стимулировать только определенные экономические ценности, такие как максимизация прибыли, и не учитывать человеческие ценности, такие как эмпатия, неудивительно, что в результатах таких систем ИИ не будет связи с человеком».

Стивен Амбрелло, управляющий директор Института этики и новых технологий

В качестве примера можно привести ситуацию, когда расовая предвзятость была обнаружена в основном алгоритме оценки рисков в области здравоохранения, который используется более чем для 200 миллионов человек в США. Сообщается, что система классифицировала чернокожих пациентов как имеющих в среднем более низкий риск, чем белые, несмотря на то, что у них больше хронических заболеваний. Это уменьшило вероятность того, что ИИ пометит подходящих чернокожих пациентов для лечения высокого риска.

Экспертная группа высокого уровня Европейской комиссии по ИИ разработала руководство по надежному ИИ.

Существует 7 принципов, которые системы ИИ должны соблюдать на протяжении всего своего жизненного цикла.

· Человеческое агентство и надзор

· Техническая надежность и безопасность

· Конфиденциальность и управление данными

· Прозрачность

· Разнообразие, недискриминация и справедливость

· Социальное, экологическое благополучие

· Подотчетность

Становится доступным несколько методов и инструментов для реализации этих руководящих принципов на различных этапах.

Улучшение объяснимости и справедливости:

Чтобы создавать решения, на которые можно положиться, нам необходимо устранить непреднамеренную предвзятость, построить объяснимые модели, а не черные ящики, улучшить прозрачность, чтобы позволить экспертам в предметной области или пользователям понять основу решения, принятого моделью, и ее ограничения. .

Отзывы пользователей дадут специалистам по машинному обучению возможность улучшить модель.

Данные, созданные людьми, склонны к предвзятости. Однако изучение этих предубеждений может быть очень опасным для нашей модели и прогнозов, которые она делает. Следует проявлять осторожность, чтобы исключить демографические переменные для обучения модели или чтобы выходные переменные не коррелировали с демографическими переменными.

В области НЛП статья Мужчина для программиста, как женщина для домохозяйки? Debiasing Word Embeddings, рассказывает об этом явлении.

Чтобы объяснить на простом примере, вложения Word могут изучать аналогии, такие как Мужчина: Женщина как Король: Королева. Но если он выучит «Мужчина: Компьютерный программист» как «Женщина: Домохозяйка», тогда это будет большой проблемой.

Один из способов уменьшить предвзятость

1. Определение направления смещения и

2. Проецирование векторов в направлении без смещения, чтобы устранить смещение. (нейтрализующий)

3. Уравнивающие пары.

Вектор без смещения = исходный вектор — компонент смещения (компонент смещения — это проекция вектора в направлении смещения).

Выравнивание означает обеспечение того, чтобы сила компонента смещения (например, смещения по признаку пола) была одинаковой для всех вложений слов в наборе равенства (примеры набора равенства: {мальчик, девочка}, {бабушка, дедушка}). . Это делает любые нейтральные слова равноудаленными от всех слов в наборе равенства. Например, няня теперь будет равноудалена и от мальчика, и от девочки.

Объяснимость можно понимать как способность сказать, какие функции во входных примерах способствовали сделанному прогнозу.

Инструмент языковой интерпретации от Google может быть удобным.

Это позволяет нам настраивать каждую отдельную точку или использовать функции преобразования для группы точек.

Насколько каждое слово способствует предсказанию, можно измерить.

Здесь объяснимость модели помогает нам уменьшить смещение, тем самым повысить справедливость.

Модельные карточки Google. Точно так же, как для продуктов питания указывается пищевая ценность, калорийность, инструкции по хранению и т. д., на карточках моделей можно объяснить, какая модель используется, кто является предполагаемыми пользователями, какие исходные данные могут быть получены. точные результаты, есть ли белые пятна и ограничения. Это значительно увеличивает прозрачность.

Вы можете проверить этот блог, чтобы создать свою собственную карточку модели с помощью обучения scikit.

Каждая организация разрабатывает собственную структуру, чтобы внедрить принципы надежного искусственного интеллекта.

Существуют инструменты и методы, которые используются для обеспечения справедливости, объяснимости, подотчетности, прозрачности, уважения к конфиденциальности данных пользователей. Все эти концепции взаимозависимы, и в основе их лежит уважение и защита прав пользователей.

Несколько упоминаний об инструментах и ​​практиках:

Библиотека IBM AI Fairness 360 для оценки, выявления и исправления предвзятости.

Инструментарий FairML для проверки моделей машинного обучения на предвзятость.

Библиотека Microsoft InterpretML может обеспечить объяснимость «всей модели».

Подходы «человек в контуре», «человек в контуре» и «человек в команде» могут использоваться для улучшения управляемости и подотчетности.

Использование синтетических данных, не содержащих никакой личной, личной или конфиденциальной информации, при сохранении базовых отношений и структур аутентичных данных.

С большой властью приходит большая ответственность. Таким образом, специалисты по машинному обучению должны начать понимать эти основные принципы и внедрить их в ДНК своих моделей.