13 июня 2021 года WiMLDS провела встречу Code, Coffee и Quarantine, серию интерактивных виртуальных встреч, посвященных работе в сети, обмену советами по проектам и обучению темам машинного обучения. Во время этой встречи Вишакха Агравал, студент колледжа, стремящийся получить докторскую степень. и сосредоточьтесь на обработке естественного языка, представленном «Социальное влияние систем машинного обучения». В своей презентации она обсудила этические проблемы, связанные с моделями машинного обучения (МО) и их искажениями.

Этические предубеждения моделей машинного обучения

Агравал начинает свою презентацию с обсуждения того, как часто можно упускать из виду социальные последствия моделей машинного обучения. Например, Агравал объясняет, как была создана модель для предсказания сексуальности; однако это может быть вредно для людей, живущих в странах, где действуют законы против ЛГБТК+.

Также было обнаружено, что модели ML имеют гендерные предубеждения, особенно при переводе текстов. Например, Агравал приводит пример, когда предыдущее программное обеспечение для перевода Google предполагало мужские местоимения для «мужских» профессий, таких как врач, в то время как женские местоимения использовались для профессий, которые воспринимались как более «женские». Агравал объясняет, как важно обращать внимание на эти проблемы, чтобы ограничить предвзятость в моделях машинного обучения, поскольку это помогает противостоять стереотипам.

В конце концов, Агравал подкрепляет свой аргумент, объясняя расовые предубеждения, существующие в моделях машинного обучения. Обсуждая генеративные модели или сети, которые преобразуют размытые изображения в четкие путем масштабирования данных изображения, она иллюстрирует, как эти модели часто неточно создают изображения POC, потому что они не обучены на разных изображениях. Фактически, она объясняет, как генеративная модель PULSE часто предполагала, что POC имеет европейские черты.

«Вот почему важно, где мы получаем наши данные»

Предвзятость в моделях также была обнаружена при распознавании лиц, и Агравал объясняет, как был разработан фильм «Закодированная предвзятость», чтобы проиллюстрировать недостаточное представление POC в наборах данных ML. Она подробно рассказывает о том, как Тимнит Гебру, исследователь из Google, и фильм продемонстрировали, как программное обеспечение для классификации было ограничено в своих возможностях идентифицировать POC. Однако после того, как Гебру захотела опубликовать свою работу о предвзятости, навязываемой в больших языковых моделях, ее внезапно уволили.

У всех есть неявное предубеждение

В заключение Агравал рассказал об опросе, проведенном среди студентов по употреблению наркотиков, который включал «фиктивный наркотик Дербисол» наряду с существующими наркотиками, такими как «марихуана и кокаин». Результаты показали, что «18,2 процента» опрошенных заявили, что принимали этот искусственный наркотик. Агравал объясняет, насколько это важно, поскольку сосредоточение внимания на значениях, о которых сообщают сами, а не на прямом тестировании значений, о чем свидетельствует то, как студенты лгали в анкете, может привести к неточным наборам данных.

Посетите наше следующее мероприятие!

WiMLDS благодарит Вишаху Агравал за обучение других этическим вопросам моделей машинного обучения, и вы можете следить за ней в Твиттере и общаться с ней в ее LinkedIn!

Чтобы узнать больше о женщинах, которые делятся своими инновациями и навыками в области машинного обучения и науки о данных, присоединяйтесь к нашей группе на Meetup и следите за WiMLDS в Twitter и LinkedIn.

Автор: Эшли Райгоса