Размышляя о разработке технологий ИИ, важно не только смотреть на технические аспекты, но также важно изучать другие точки зрения, имея дело с технологиями ИИ, которые подвержены предвзятости. Лично говоря, то, как ИИ в настоящее время реализуется во всех аспектах, таких как реклама, онлайн-найм, финансовые услуги, ценные бумаги и многое другое, может привести к неравенству.

Следовательно, это порождает практическую и более широкую политическую критику, утверждающую, что дело не только в том, что технология неисправна, даже если она работает повсеместно и точно, но и в том, что она опасно посягает на свободы и личную жизнь людей. Из-за этих последствий необходимо внедрить больше практик для продвижения к большей справедливости, большему разнообразию, прозрачности и включению в технологические секторы исследований ИИ.

Более того, такие принципы, как справедливость, этика и мораль в ИИ, вращаются вокруг концепции «кому принадлежит код», то есть технология, созданная одной демографической группой, в основном эффективна и справедлива только для этой одной демографической группы. Более того, такие инструменты чаще контролируются людьми, занимающими более высокие должности, и всегда проверяются на людях, находящихся на более низких уровнях управления. Это порождает дискриминацию подгрупп меньшинств и ощущение, что они в определенной степени являются частью проверки системы против своей воли.

Хотя трудно определить «справедливость» в контексте ИИ, мы можем определить, что является несправедливым. Таким образом, чтобы смягчить несправедливость и предвзятость при работе с системами ИИ; жизненно важно работать с сообществами, которые восприимчивы к расовым или историческим предубеждениям, и обеспечивать, чтобы их голоса или мнения были подняты и включены в обсуждения и разработку таких систем ИИ.

Более того, справедливость в машинном обучении и искусственном интеллекте применяется ко всей сквозной системе, например, к тому, кто разрабатывает систему, от сбора данных до развертывания моделей машинного обучения и их результатов.

Однако справедливость и прозрачность — это два разных сектора. Прозрачность демонстрирует предоставление документации и отчетов о публикации наборов данных, а также моделей, которые обобщают такие вещи, как информация об обучении, матрица оценки и дизайн модели. Помимо этого, необходимо улучшить воспроизводимость и прозрачность наборов данных, а также создать надежные и масштабируемые методы, которые можно легко интегрировать в существующие и даже новые конвейеры ИИ для достижения справедливости.

Нужно ли разработчикам ИИ повышать осведомленность о контексте?

С моей точки зрения, необходимо изменить то, как преподаются и внедряются эти дисциплины ИИ. Быть хорошим инженером ИИ — это не только показывать, насколько вы хороши в чем-то техническом, но и заботиться об обществе.

Мы можем попытаться определить и смягчить предвзятость или попытаться быть более ясными и справедливыми, предоставив документацию об областях, которые подвержены предвзятости. Но для реализации этого нам нужно быть справедливыми; однако реальный мир сложен, и поэтому есть та или иная группа, которая всегда будет подвергаться дискриминации.

Кроме того, необходимо привлекать широкую общественность, конечных пользователей, специалистов по этике, политиков и инженеров к исследованиям в области ИИ. Во-вторых, исследователи ИИ должны тесно сотрудничать с уличными бюрократами, которые на самом деле считаются авторитетными в принятии решений и реализации политики, чтобы повысить осведомленность о потенциальных последствиях алгоритмической предвзятости, надежного моделирования и справедливости в ИИ.