Искусственный интеллект внедрен почти повсюду, а алгоритмы машинного обучения в значительной степени управляют миром, в котором мы живем сегодня. От банков и университетов до систем уголовного правосудия алгоритмы следуют очень узкому набору правил для принятия серьезных решений, которые влияют практически на все аспекты нашей жизни.

По мере того, как мы приближаемся к четвертой промышленной революции, новой главе в человеческом развитии, движимой технологиями, ответственное использование ИИ становится все более важным, и справедливость ИИ не должна быть вопросом в будущем.

ИИ не безошибочен

ИИ может быть невероятно ценным во многих сферах - от медицины до предотвращения стихийных бедствий. Чтобы создать более разумное и автоматизированное будущее, компании и организации развертывают модели глубокого обучения. Эти действия состоят из алгоритмов, которые анализируют и выявляют закономерности в огромных объемах данных.

Сегодня алгоритмы машинного обучения отвечают за подавляющее большинство приложений ИИ. К сожалению, поскольку алгоритмы учатся на предыдущих вводимых данных, ИИ склонен к развитию предвзятости и становится несправедливым по отношению к определенным группам.

Если в обученном наборе данных отсутствуют разнообразные примеры или значительное количество статистических данных по защищенным группам, то выходные данные не будут точными. В некоторых случаях наборы исторических данных из предыдущих входов могут содержать данные о расовом неравенстве; в других случаях некоторые входные данные, созданные инженерами, могут включать неосознанную предвзятость. Алгоритм также может влиять на данные, которые он получает, и усиливать то, что происходило в прошлом, с помощью цикла положительной обратной связи. Следовательно, прозрачность алгоритмов жизненно важна для помощи компаниям в выявлении факторов, вызывающих любые предубеждения.

Защита человечества в эпоху интеллектуальных машин

Fairly AI - стартап из Торонто, цель которого - помочь предприятиям и организациям анализировать и создавать более этичный и ответственный ИИ с беспристрастными алгоритмами. Failry AI разработал простой в использовании инструмент оценки, совместимый с любыми существующими решениями AI, независимо от того, были ли они разработаны собственными силами или с системами сторонних производителей.

«Я понимаю возможности глубокого обучения, развернутого на массивных наборах данных, и четко вижу два варианта будущего, в которых оно либо (i) используется для усиления существующей структурной дискриминации, либо (ii) значительно сокращает ее». - Дэвид Ван Брувайн, соучредитель Fairly.AI

Призыв к сдержкам и противовесам

Справедливость ИИ - не новая проблема, и исследователи годами изучали влияние предвзятости ИИ. Поскольку количество приложений искусственного интеллекта увеличивается, неизбежно становится необходимой необходимость аудита важных решений в области искусственного интеллекта. Кроме того, поскольку текущий стандарт оценки ИИ недостаточен, приложения ИИ должны проверяться на предмет предвзятости третьей стороной. График ниже показывает, что компании не могут управлять собой, и, без сомнения, необходим набор правил.

«Мы считаем, что справедливость ИИ станет ведущей проблемой в технологиях, точно так же, как конфиденциальность и безопасность данных были в последнее десятилетие». - Фион Ли-Мадан, Со- основатель AT Fairly.ai

Заинтересованы в том, чтобы присоединиться к Fairly AI в их миссии?

Справедливый ИИ в настоящее время ищет компании с твердыми ценностями корпоративной социальной ответственности, чтобы помочь им снизить предвзятость в своих приложениях ИИ и найти новые возможности в нынешних условиях, когда справедливость ИИ становится ведущей проблемой во всем мире. Если вы используете решение ИИ и заинтересованы в дальнейшем ответственном использовании ИИ, свяжитесь с Фион по адресу [email protected], чтобы узнать, с чего начать.

Первоначально опубликовано на http://byvi.co 27 июля 2020 г.