Если есть что-то, о чем следует помнить при разработке и развертывании машинного обучения для клиентских баз, так это название этого поста. Конечно, легко захотеть сидеть сложа руки и просматривать данные, которые предлагает машинное обучение после длительного цикла разработки. В конце концов, именно поэтому организации вкладывают большие средства в эту технологию; чтобы извлечь выгоду из того, какую информацию они могут получить о действиях и привычках клиентов. Но если всплывут случаи несправедливого предубеждения, сможете ли вы их вовремя обнаружить? Потому что ваши клиенты, безусловно, запомнят, и они также запомнят свое отношение к вашему бренду.

Клиенты — это не просто пассивные получатели алгоритмического решения, их лучше рассматривать как активных участников разработки моделей машинного обучения. В конце концов, именно их обратная связь с алгоритмами позволяет обучать машинное обучение.

Предвзятость всегда существовала в рекламе, но с появлением онлайн-рекламы компаниям стало легче собирать больше данных о потенциальных клиентах, создавать решения для машинного обучения и нацеливать рекламу с более высокой вероятностью успеха. Таким образом, проблема заключается в том, как проверить данные, прежде чем использовать их для целей таргетинга.

Предвзятая история клиента может быть записана и использована алгоритмом в качестве сигнала, но алгоритмы не запоминают случаи несправедливой предвзятости.

Предвзятость может быть вызвана множеством вещей, включая алгоритмическую дискриминацию. На таргетинг рекламы на сайтах и ​​платформах уходит много данных, и эти данные могут включать расу, возраст, пол или политическую принадлежность человека.

Эта информация может быть получена из действий пользователя на сайте или из его сообщений в социальных сетях. После того, как эта информация собрана, она нацеливает рекламу, которая с большей вероятностью понравится пользователю, который просматривает ее, исходя из своих личных предпочтений.

Этот процесс происходит без какого-либо контроля со стороны алгоритмов. Сами клиенты могут даже не знать, что было сказано или сделано для получения этих результатов, а значит, они не узнают, подверглись ли они несправедливой дискриминации в процессе онлайн-рекламы.

Именно по этой причине пользователи могут чувствовать и сталкиваться с такими болезненными переживаниями, как дискриминация. Этот тип встречи особенно болезненный, когда источником этого опыта является часто используемый и надежный бренд.

Некоторые из появившихся примеров включают онлайн-рекламу, ориентированную на людей с низким доходом. Можно только представить, как существующие или потенциальные клиенты могут чувствовать гнев, разочарование и предательство, когда онлайн-реклама известных брендов повторяет негативную предвзятость. Другие исследования показали, что чернокожие респонденты могут в 3 раза чаще обнаруживать проблемы с таргетингом рекламы по сравнению с белыми пользователями.

Хотя компании, безусловно, не руководствуются мандатом или политикой компании и не принимают надлежащих мер для выявления невидимой роли предвзятости данных, компании могут непреднамеренно вызывать чувство микроагрессии.

Компании должны понимать, что данные проверки являются важным шагом в предотвращении предвзятости ОД.

Алгоритмические решения и продукты нуждаются в последовательном и упреждающем мониторинге, тестировании и тонкой настройке, чтобы предвидеть и исправить любые непредвиденные переменные, влияющие на поведение модели машинного обучения при отправке в реальный мир. Хорошим примером этого является то, что команда Google обнаружила, что запрет рекламы кредитов до зарплаты привел к повышению доверия к бренду.

Когда дело доходит до повышения достоверности данных в маркетинге, обучении, тестировании и прозрачности, важно принять меры для обеспечения использования разнообразных обучающих данных, рассказать вашей команде о бессознательной предвзятости и встроить справедливость в ДНК вашего продукта.

Возможен более разнообразный и справедливый ИИ, и вы должны посвятить себя его созданию.

Сохраняйте прозрачность.

Публикуйте информацию о том, как ваш алгоритм принимает решения, и понимание того, как ваше решение работает в разных группах, сделает общественность еще более удобной при его использовании.

Тестируйте, уточняйте и снова тестируйте. Затем промойте, постирайте и повторите.

Проверьте все наборы данных DEV и обучения на предмет выявления предвзятости. Разверните индикаторы справедливости или аналогичные инструменты. Помните, что широко используемые наборы данных могут содержать недостатки, поэтому внимательно просматривайте их, продолжая отслеживать уже выпущенные алгоритмы.

Искать разные точки зрения.

Нанимайте сотрудников с разным опытом и областями знаний. Привлекайте общественность к обмену любыми местными знаниями — открытое сотрудничество с проверенными общественными группами и активистами. Широкий диапазон входных данных сделает ваши данные более надежными.

Важные вопросы, которые вам нужно задать и обсудить, чтобы начать разговор о справедливости ML.

· Включает ли ваш продукт данные об использовании?

o Раса, цвет кожи, религия, сексуальная ориентация, социально-экономический статус, доход, страна, местонахождение, состояние здоровья, язык или диалект.

· Были ли исключены какие-либо ключевые данные?

· Где и кем были собраны данные?

· Кто маркировал это, и какая информация у них была?

· Возможно ли, что варианты использования исключили какую-либо часть аудитории на основании нерелевантных критериев?

· Представлено ли разнообразие в вашей пользовательской базе?

Решения для машинного обучения и их потенциал находятся на рекордно высоком уровне, и компании понимают, что, если они не инвестируют в такие инициативы, они останутся позади. Уже существует множество существующих проблем, с которыми компаниям приходится сталкиваться при создании таких решений. Вот почему необходимо следить за любой предвзятостью и непреднамеренными моделями при разработке машинного обучения и алгоритмических дорожных карт.