1. Оценка социальных и межсекционных предубеждений в контекстуализированных представлениях слов (arXiv)

Автор : Йи Черн Тан, Л. Элиза Селис

Аннотация: Социальная предвзятость в машинном обучении привлекла значительное внимание, и работа варьировалась от демонстрации предвзятости во множестве приложений, подбора определений справедливости для различных контекстов и до разработки алгоритмов для смягчения предвзятости. Было показано, что при обработке естественного языка гендерная предвзятость существует в контекстно-свободных вложениях слов. В последнее время контекстуальные представления слов превзошли встраивания слов в нескольких нижестоящих задачах НЛП. Эти представления слов зависят от их контекста в предложении, а также могут использоваться для кодирования всего предложения. В этой статье мы анализируем, в какой степени современные модели контекстуального представления слов, такие как BERT и GPT-2, кодируют предубеждения в отношении пола, расы и межсекторальной идентичности. Для этого мы предлагаем оценивать предвзятость на уровне контекстуального слова. Этот новый подход фиксирует контекстуальные эффекты предвзятости, отсутствующие в контекстно-свободных вложениях слов, и в то же время позволяет избежать смешанных эффектов, которые недооценивают предвзятость на уровне кодирования предложения. Мы демонстрируем доказательства предвзятости на уровне корпуса, находим различные свидетельства предвзятости во встроенных ассоциативных тестах, показываем, в частности, что расовая предвзятость прочно закодирована в контекстуальных моделях слов, и наблюдаем, что эффекты предвзятости для интерсекциональных меньшинств усугубляются за пределами составляющих их идентичностей меньшинств. Кроме того, оценка эффектов предвзятости на уровне контекстных слов фиксирует предубеждения, которые не фиксируются на уровне предложений, подтверждая необходимость нашего нового подхода.

2. Обнаружение возникающих перекрестных предубеждений: контекстуализированные вложения слов содержат распределение человекоподобных предубеждений (arXiv)

Автор: Вэй Го, Айлин Калискан.

Аннотация: Исходя из того, что неявные человеческие предубеждения отражаются в статистических закономерностях языка, можно измерить предубеждения во встраиваниях английских статических слов. Современные нейронные языковые модели генерируют динамические вложения слов в зависимости от контекста, в котором слово появляется. Текущие методы измеряют предопределенные социальные и перекрестные предубеждения, которые появляются в определенных контекстах, определяемых шаблонами предложений. Отказавшись от шаблонов, мы представляем тест контекстуализированных ассоциаций встраивания (CEAT), который может обобщать величину общей предвзятости в моделях нейронного языка за счет включения модели случайных эффектов. Эксперименты с социальными и межсекционными предубеждениями показывают, что CEAT находит доказательства всех протестированных предубеждений и предоставляет исчерпывающую информацию о дисперсии величин эффекта одного и того же предубеждения в разных контекстах. Все модели, обученные на англоязычных корпусах, которые мы изучаем, содержат предвзятые представления. Кроме того, мы разрабатываем два метода: Обнаружение межсекционных смещений (IBD) и Обнаружение возникающих межсекционных смещений (EIBD), чтобы автоматически определять перекрестные смещения и возникающие межсекционные смещения из статических вложений слов в дополнение к их измерению в контекстуализированных вложениях слов. Мы представляем первые результаты алгоритмического обнаружения предубеждений о том, как члены интерсекционных групп тесно связаны с уникальными эмерджентными предубеждениями, которые не перекрываются с предубеждениями составляющих их идентичностей меньшинства. IBD и EIBD достигают высокой точности при обнаружении межсекционных и возникающих предубеждений у афроамериканок и мексиканок-американок. Наши результаты показывают, что предубеждения на пересечении расы и пола, связанные с членами нескольких групп меньшинств, таких как афроамериканские женщины и американки мексиканского происхождения, имеют наибольшую величину во всех моделях нейронного языка.