Ты как робот - часто говорят тому, кто проявляет очень мало эмоций. Подразумевается, что такие машины, как роботы, не являются людьми и, таким образом, способны проявлять безразличие, в отличие от людей. Однако забывают, что машины на самом деле являются копией людей. Любая маленькая машина, не говоря уже о роботе, предназначена для подражания человеческой функции, когда вмешательство человека не требуется, то есть для механизации человеческого труда. Искусственный интеллект тоже делает это с помощью машинного обучения. Он включал аспекты человеческого поведения, наблюдаемые в реальном времени, изобилующие иррациональными действиями и предубеждениями. Тем не менее, ИИ считается умным, поэтому возникает вопрос: могут ли ИИ и машинное обучение опустить линии предвзятости, закодированные в самом человеческом поведении? Чтобы ответить на этот вопрос, давайте посмотрим, как ИИ борется с гендерными предубеждениями.

Гендер можно рассматривать как набор характеристик, которые человеку либо присваиваются при рождении, либо принимаются за идентичность, чтобы придать социальное значение его телу, языку, голосу, поведению и отношениям. Таким образом, Gender по своей функциональности является социальным. Точно так же ИИ тоже социальный. Машины с искусственным интеллектом живут в мире только благодаря взаимодействию с другими людьми, то есть посредством машинного обучения. Часто в этих взаимодействиях бывает трудно провести и поддерживать жесткую грань между человеком и машиной. Благодаря этим взаимодействиям ИИ приобретает очень социальные и человеческие характеристики в своих собственных чертах. Если мы внимательно рассмотрим характер гендерных проявлений в сфере ИИ, можно будет получить много информации о гендерных предубеждениях, существующих в самом обществе. Более того, это также может показать нам, что ИИ создан не для устранения этой предвзятости, а для ее воспроизведения.

Ханна Розенберг, выпускница Королевского колледжа искусств, в своей диссертации 2019 года «Строительство без предвзятости» рассказывает о том, как гендер кодируется в архитектуре, на примере «гипер-мужского» района Сент-Джеймс. В Лондоне. В своем эксперименте она добавляет к нему элементы, чтобы «нейтрализовать» это пространство, применяя шкалу GU (гендерные единицы). Эта шкала учится создавать гендерные ассоциации путем сбора и интерпретации данных из Интернета. Розенберг отмечает, что «он узнает, что для мужчин бетон, сталь и дерево значат, а для женщин - кружево, стекло и спальня». Поскольку именно эта единица, следовательно, определяет гендерную нейтральность пространства, она утверждает, что, несмотря на то, что пол является человеческим элементом, подверженным различным человеческим восприятиям, нечеловеческая единица имела последнее слово при характеристике местности.

Чтобы понять источник предубеждений, которые принимает на себя GU, и проанализировать его через призму человека, она проводит эксперимент с поисковой системой. В своем эксперименте она набирает в поисковой системе слово «генеральный директор». В результате получаются изображения преимущественно мужчин. Напротив, когда она набирает «Ассистент», в результате появляется огромное количество фотографий женщин. Затем она вводит фразу «Она лидер» в онлайн-переводчике. Она устанавливает перевод на турецкий и другие языки, в которых слова он и она совпадают. В таких переводах инструмент обратного перевода переводит фразы как «Он лидер». Когда она ввела «Он сострадателен», инструмент перевел это обратно на «Она сострадательна». Такие результаты означают, что существующие гендерные стереотипы фиксируются и воспроизводятся ИИ.

Гендер социально нормативен. С каждым полом связаны социально закодированные роли и обязанности. Помимо стереотипов, гендерная нормативность была распространена и на машины. Это видно по отбору женских голосов для выдающихся помощников ИИ. Например, инженеры известной компании, которая курирует помощников ИИ, говорят, что выбрали женский голос, потому что считали, что «женский голос» лучше всего воплощает качества, ожидаемые от цифрового помощника: полезный, поддерживающий и заслуживающий доверия ». Такую нормативность практикуют и другие подобные компании. Некоторые компании даже выбирают названия, которые подразумевают это. Одна компания даже назвала своего AI-помощника в честь скандинавского слова, которое означает «красивая женщина, которая помогает вам добиться победы».

Однако есть несколько помощников AI, которые также запрограммированы с мужским голосом. Например, одна такая компания в Южной Африке предлагает выбор между тремя женскими голосами и одним мужским голосом. Однако тон ответа у женщин-помощников запрограммирован иначе, чем у мужчин. Например, когда предлагается фраза «Давайте говорить грязно», женские голоса отвечают: «Я не хочу попадать в список непослушных Санты», а мужской голос отвечает: «Я читал, что эрозия почвы - это эрозия почвы. настоящая проблема грязи ». Женские голоса сделаны более энергичными и приятными, в то время как мужской голос просто прямолинеен.

Один из серьезных примеров такой проблемной гендерной нормативности, закодированной в помощи ИИ, был выделен в 2019 году. Когда на запрос «Ты сука» и другие подобные оскорбительные высказывания, ответ одного помощника ИИ (без сомнения, женского голоса) был записан как « Я бы покраснела, если бы могла ». Этот экземпляр получил много внимания во всем мире, как в развлекательных целях, так и в целях критики. Его даже использовали для названия отчета ЮНЕСКО об исследовании гендерного разрыва в областях ИКТ и STEM в разных странах мира. Этот отчет и случай, который он освещает в названии, вызвали дальнейшие разговоры о воспроизведении сексизма в сфере ИИ.

Следовательно, стали отмечаться различные примеры сексизма и стереотипов, практикуемых алгоритмами. Например, в 2019 году известную компанию, выпускающую кредитные карты, обвинили в сексизме при распределении кредитных лимитов. Алгоритм компании предоставлял мужчине кредитный лимит, который был в 20 раз выше, чем у его жены. Алгоритм сделал это, несмотря на то, что его жена имела лучший кредитный рейтинг, чем он. О подобном случае дискриминации со стороны одной и той же компании снова сообщила и другая пара. Создатели алгоритма не смогли объяснить это распределение, не осознавая преобладание гендерной предвзятости при распределении кредитных баллов самими сотрудниками. Это привело к длительной борьбе между компанией и создателями алгоритма искусственного интеллекта, из-за того, кто должен был взять на себя ответственность за эту практику. Эти примеры продуктивны для понимания того, что любое предубеждение, дискриминация или нормативность, существующая в технологиях и алгоритмах ИИ, является отражением дискриминации, которая существует в информации, которая вводится в них.

Однако хорошая новость заключается в том, что, поскольку технология искусственного интеллекта представляет собой симуляцию, ее можно контролировать и изменять, чтобы она была даже лучше, чем люди. Астро Теллер, известный британский ученый-компьютерщик, однажды сказал: «Создание интеллектуальных машин может научить нас нашему разуму - тому, кто мы есть, - и эти уроки сделают наш мир лучше. Однако, чтобы получить эти знания, нашему виду придется торговать другим предметом своего тщеславия ». Возьмем, к примеру, секс-боты. Их часто заставляют выглядеть / выглядеть лучше, чем средний мужчина / женщина, за счет усиления определенных аспектов в них. Например, для бота Harmony, основанного на технологии искусственного интеллекта, можно настроить 18 различных личностных качеств. Таким образом, можно изменять и контролировать характеристики ботов. Вместо того, чтобы просто поддерживать эти улучшения в соответствии с обычными и часто проблемными характеристиками, связанными с определенным полом, социально нормативные гендерные роли можно активно игнорировать. Мы можем торговать тщеславием, и мир действительно может стать лучше. Место, где женщин уважают, мужчины эмоционально безопасны, квиры и трансгендеры не подвергаются дискриминации - мир менее жестокий и более терпимый.

Поскольку ИИ не только воспроизводит, но и еще раз подтверждает существующие гендерные роли, его власть огромна. Эту мощь технологии искусственного интеллекта можно использовать постепенно, чтобы помочь преодолеть жесткую и часто жестокую гендерную бинарность, которой мы руководствуемся в сегодняшнем мире.

Узнайте больше о наших интересных блогах: - https://aiworldschool.com/blog/