Наем является важной частью каждой организации, и наем подходящего человека с технической и культурной точки зрения имеет первостепенное значение и имеет решающее значение для роста организации. Многие компании проводят личностные тесты, чтобы проверить оценки соответствия поведения, которые соответствуют ценностям компании, помимо основных технических компетенций. Кроме того, проводя личностные тесты, поскольку они могут быть дорогостоящими, многие организации предпочитают анализировать учетную запись кандидата в социальных сетях. Социальные сети — это место, где у человека есть свобода слова, где размещается очень личная и интимная информация об этом человеке, которая может оставить у самоуверенных людей предвзятое отношение. Организации обычно проводят проверку биографических данных, состоящую из такой информации, как предыдущий работодатель, информация о кредитной истории и т. д., но проверки в социальных сетях отличаются. Работодатели анализируют социальные сети, чтобы отметить любое неприемлемое поведение, отображаемое в Интернете, например, публикацию конфиденциальной информации о предыдущем работодателе или очернение его слов, публикацию откровенного контента, фальшивой информации — с конечной целью предотвращения небрежного найма. В недавнем отчете Jobvite рекрутеры рассказали, как часто они используют социальные сети для просмотра кандидатов и даже для поиска пассивных кандидатов — 87% просматривают LinkedIn, 43% просматривают Facebook, 22% просматривают Twitter и 8% просматривают Instagram.[1]

Sterlingcheck.com — это компания, которая помимо проверки биографических данных проводит проверки в социальных сетях. [2] Они помечают любые разжигающие ненависть высказывания, наркотики, ядовитые высказывания и даже сообщения, связанные с угрозами/насилием, с использованием технологий искусственного интеллекта, языковой обработки и распознавания изображений, размещенные кандидатом. По состоянию на 2021 год «90 % работодателей изучаликандидатов в социальных сетях, из которых 79 % сказали, что нашли что-то, что заставило их усомниться в том, подходит ли кандидат на должность». [3] Интересно, что 19% работодателей сообщили, что нашли информацию, которая действительно «продала» их кандидату, например, его коммуникативные навыки или профессиональный имидж. Использование социальных сетей для найма может быть скользкой дорожкой юридических последствий в отношении предвзятости при найме. Личностные тесты при приеме на работу дают представление о важной, но нематериальной информации о потенциальных клиентах, такой как их личность, ценности и предпочтения в работе. Исследования показывают, что сотрудники, занимающие должности, не соответствующие их характеру, часто вызывают недовольство, что приводит к низкой производительности и высокой текучести кадров. Компании по всему миру обращаются к личностным тестам, таким как DiSC, Myers-Briggs и другим современным тестам, чтобы сэкономить время и заявить, что это отличный способ изучить соответствие культуре, стиль общения и траекторию карьеры. Личностные тесты часто запрашивают много подробной информации, которая потенциально может выявить проблемы с психическим здоровьем или эмоциональную нестабильность, в таких случаях работодатели могут не захотеть продолжать рассмотрение заявки кандидата. Документальный фильм HBO Max «Персона: темная правда, скрывающаяся за личностными тестами» раскрывает пугающую реальность дискриминации с помощью личностных тестов. Документальный фильм затрагивает несколько ситуаций, подобных ситуации Бема, которому было отказано в работе в продуктовом магазине из-за биполярного расстройства, и он пожаловался в Комиссию по равным возможностям США, которая работает с людьми с ограниченными возможностями, подвергаясь дискриминации в отношении возможностей трудоустройства.

Этические проблемы

Основная проблема при приеме на работу с аудитом в социальных сетях и личностными тестами — преднамеренное или непреднамеренное добавление профилирования и дискриминации при принятии решений. В зависимости от рекрутера результаты могут повлиять на решения в соответствии с их взглядами на определенные результаты, такие как социально-политические комментарии или уровень социальной активности. Британский Закон о равенстве от 2010 г., Раздел VII Закона о гражданских правах от 1964 г. и Закон США о достоверной кредитной отчетности объявили незаконной дискриминацию людей на основании определенных характеристик или ситуаций. К ним относятся возраст, пол, сексуальная ориентация, пол, раса, религиозные убеждения, инвалидность, изменение пола, беременность, материнство, брак и гражданское партнерство. Ни одна модель не может использовать эти защищенные функции в качестве важного фактора для принятия решения о найме кандидата. Если кто-то может доказать, что на его кандидатуру на работу негативно повлиял поиск потенциального работодателя в социальных сетях, то работодатель может быть привлечен к ответственности в связи с дискриминацией. В деле Хардин против Дадлани суд пришел к выводу, что, поскольку менеджер по найму отдавал предпочтение белым женщинам-сотрудникам, поиск кандидатуры на Facebook и приглашение ее на собеседование «если она хорошо выглядит» может быть разумно истолковано как относящееся к ее расе, что может свидетельствовать о дискриминационной неприязни. [5]

Дискриминация также может быть непреднамеренно введена в модель, если данные не проверены должным образом. Если модель ИИ обучается на неразнообразных данных, это может стать проблемой для недостаточно представленных групп. Например, Amazon создала инструмент искусственного интеллекта, чтобы автоматизировать обработку заявок и рекомендовать трех лучших кандидатов для найма. Основываясь на исторических данных Amazon о найме и найме, в наборе данных, на котором обучалась модель, было больше мужчин, чем женщин. Модель выбрала более ориентированные на мужчин термины, используемые в резюме; следовательно, кандидаты-женщины подвергались дискриминации по рекомендации алгоритма. [6]

Существует также предвзятость при сборе данных в отношении как социальных сетей, так и личностных тестов. Когда дело доходит до социальных сетей, у каждого есть онлайн-персонаж — образ, который относительно отличается от поведения в реальной жизни. В идеале контент в социальных сетях был бы отличными поведенческими данными, но в этом случае данные сильно предвзяты или дезинформированы. Например, LinkedIn — это профессиональная сеть, в которой кандидаты должны иметь безупречные профили, чтобы их могли найти рекрутеры. Некоторые люди используют слово «эксперт» в своем заголовке только для того, чтобы оно привлекало внимание и оптимизировало их профиль, но это может быть дезинформацией и предвзятостью по отношению к модели машинного обучения, которая выбирает этот профиль среди других, у которых действительно есть опыт, но не в заголовке. это. С точки зрения личностных тестов существует предвзятость, при которой испытуемый пытается дать «лучший», по его мнению, возможный ответ, который может быть далек от истины.

При более глубоком изучении дискриминации в данных могут быть прокси-атрибуты, которые могут вызвать бессознательную предвзятость по отношению к определенной группе людей. Например, при найме менеджера по социальным сетям количество женщин и уровень вовлеченности, рассматриваемые как функция, для женщин статистически значимы, чем для мужчин в Instagram и Facebook. Это привело бы к предвзятости модели в отношении пола, даже если этот «защищенный атрибут» не используется в качестве входных данных для модели. Твердые навыки можно тестировать, измерять и анализировать, в то время как личностные тесты подлежат эмоциональной оценке экспертом. Общеизвестно, что для того, чтобы преуспеть в роли продавца, нужно быть экстравертом, потому что эта роль требует уверенности, холодных звонков и постоянной человеческой связи. Однако такое приведение типов может быть недальновидным и частично дискриминационным, основанным на личных суждениях и предвзятости при приеме на работу, в частности предвзятости конформации. Высокий балл «экстраверсии» в тесте Майерс-Бриггс на самом деле говорит только о том, что вы считаете себя экстравертом. И это не коррелирует с тем,
будет ли человек хорошо продавать, и не означает, что эта информация является точной.

По аналогии с человеческим подсознательным и сознательным предубеждением при проверке своих социальных сетей и проведении тестов, затрагивающих незащищенные и защищенные классы, с другой стороны, модели могут быть оценены на предвзятость путем проверки прозрачности и интерпретируемости. Можно возразить, что кандидаты добровольно раскрывают эту информацию в своих общедоступных учетных записях в социальных сетях и по праву подлежат любому осуждению, которое они получают. В этом заявлении есть этическая проблема, люди охотно отказываются от информации о себе, выходя на публику. Это не означает, что его следует использовать против их права на работу. Например, рекрутер сталкивается с одним из своих кандидатов в продуктовом магазине только для того, чтобы узнать, что они ждут ребенка. Со стороны рекрутера было бы крайне неэтично отказать кандидату в собеседовании на основании этого. С другой стороны, работодатель может тяготеть к сходствам, таким как одинаковое образование или общие друзья, и склоняться в их пользу на собеседовании, что приводит к предвзятости по сходству.

Это сводится к вопросу: является ли дискриминацией использование информации из социальных сетей и личностных тестов при приеме на работу?
Если работодатель использует какую-либо демографическую информацию, чтобы помочь в принятии решения об отказе, это будет дискриминацией. кандидат на работу. В этом случае черты личности будут охраняемыми атрибутами. Даже если собранные данные будут проверены на предвзятость, а соответствующие детали будут удалены, черты личности все равно будут охраняемыми атрибутами. В любом случае, используя данные соцсетей или личностные тесты — и те, и другие данные защищены и могут прямо или косвенно привести к предвзятости в модели и быть дискриминационными, как объяснено в примерах в нарушениях. Напротив, инструмент под названием Blendoor, основанный Стефани Лэмпкин, утверждает, что анонимизирует процесс кандидата, позволяя членам группы найма просматривать квалифицированных кандидатов без предвзятости: без имени, без фотографий, без возраста — только в контексте. подходят.[7] В конечном счете, большинство организаций выберут то, что избавит их от юридических проблем в будущем. Это как раз и есть утилитарное мышление. Утилитарист ищет самое значительное количество благ для наибольшего числа людей. Второстепенный вопрос может звучать так: «Если компания обнаружит, что ее методы найма оказывают несоизмеримое влияние и не носят явно дискриминационный характер, то есть они не соответствуют установленному законом порогу дискриминации, будет ли она по-прежнему нести ответственность за дискриминацию?»

Нарушение этических норм с использованием личностных тестов и проверки в социальных сетях при приеме на работу

Предположим, что работодатель, естественно, беспристрастен при приеме на работу кандидата, но использует заранее обдуманный метод или модель ИИ для выбора подходящего кандидата. В этом случае может иметь место нарушение этики найма на дискриминационных основаниях. Это может быть связано с предвзятостью при сборе и интерпретации данных. В Harvard Business Review 39 рекрутеров просмотрели 140 профилей, и в обученных данных была замечена бессознательная предвзятость, когда женатые люди оценивались выше, чем холостые. Люди, выражающие религиозные взгляды, набрали меньше баллов. Использование религиозных и политических взглядов кандидатов является дискриминационным, такая информация является основой личности человека и может привести к предвзятости в модели, выступающей в качестве прокси-атрибута. [8]. Высокий процент потенциальных клиентов, имитирующих свои ответы в личностных тестах, чтобы получить результаты, которые, по их мнению, привлекут работодателей, вызывая предвзятость ответов. Следовательно, мы не можем быть уверены, что предоставленная информация точно отражает чьи-то качества для целей найма. Иногда оценки личности систематически дают вводящие в заблуждение результаты среди представителей разных культурных групп. Это явление известно как культурная предвзятость теста. Другими предубеждениями в процессе сбора данных могут быть — да, предвзятость высказываний, крайняя предвзятость при ответе и этническая предвзятость. Другой пример систематической ошибки в данных: исследователи из Принстонского университета использовали модель машинного обучения, чтобы проанализировать и связать 2,2 миллиона слов, и увидели, что европейские имена воспринимаются как более приятные, чем имена афроамериканцев, и что слова «женщина» и «девушка» «мужской» ассоциировался с искусством, а «мужской» — с наукой. При анализе этих словесных ассоциаций в обучающих данных алгоритм машинного обучения выявил существующие расовые и гендерные предубеждения, проявляемые людьми. [9]

Другим распространенным нарушением может быть смещение, присутствующее при маркировке данных. В личностных тестах может не хватить вопросов для измерения всех аспектов человеческой личности. То, как человек отвечает на вопросы о себе, может зависеть от нескольких факторов, таких как бессознательные стереотипы, которые общество усвоило с точки зрения подбора типов. Большинство рекрутеров утверждают, что оценка личности дает вам стандартизированную и ценную информацию о том, как кандидаты ведут себя в контексте работы, тем самым повышая общую производительность команд. Наоборот, можно утверждать, что стандартизация найма также будет означать создание команды, которая будет иметь меньшую когнитивную широту и больше потенциальных слепых зон. Наиболее распространенным примером может служить тест Майерс-Бриггс, который разделяет миллионы людей на 16 типов личности.

Существует распространенное нарушение под названием «Принцип двойного эффекта». Барокас и Селбст определяют онлайн-прокси как «факторы, используемые в процессе подсчета очков алгоритма, которые являются простыми заменителями защищенных групп, такими как почтовый индекс в качестве прокси для расы или рост и вес в качестве прокси для пола». Согласно общему моральному правилу, вмешательство работодателя в частную жизнь соискателя в социальных сетях без разрешения было бы аморальным в соответствии с кантовской этикой, в первую очередь, если это не связано с работой. Если компания наносит ущерб публикации сотрудника в социальных сетях или в публикации заявителя обнаруживается недостаток характера, можно привести аргументированный аргумент в пользу того, что решения о трудоустройстве в социальных сетях, налагающие санкции на сотрудников, не являются иррациональными или несправедливыми и, следовательно, не аморальными в соответствии с кантовской этикой. Например, кандидат, у которого длинная цепочка руководителей. Она сообщает своему непосредственному руководителю, что она беременна и не получает приглашение на собеседование или после этого не рассматривается на эту роль, в соответствии с запретом на дискриминацию Раздела VII, у сотрудницы есть претензия о дискриминации, но на кого она может подать в суд — на своего непосредственного начальника. или компания как юридическое лицо?

Рассмотрение различных решений

Согласно Разделу VII, на менеджера по найму нельзя подать в суд в его личном качестве. Если использовать приведенный выше пример, кандидат не может подать в суд на менеджера по найму, но он может подать в суд на компанию, в которой он проходил собеседование. Одним из решений является регулярное обновление законов о недискриминации и гражданских правах, которые применяются к цифровой практике, использование регулятивных песочниц для стимулирования экспериментов против предвзятости. Чтобы организация могла использовать личностные тесты при приеме на работу или проводить проверки в социальных сетях, весь процесс должен быть проверен сторонней организацией. Модель ИИ, используемая для принятия решений о найме, также должна быть проверена. Прежде чем приступить к сбору данных, необходимо иметь четкое представление о требованиях к данным, чтобы избежать предвзятости. Характеристики данных, извлеченные из набора данных, должны быть целевыми, однозначными и специфичными для проекта. Проверка источника данных, изучение набора данных, отслеживание временных рамок сбора данных и подтверждение любого потенциального предубеждения, связанного с набором данных, как ложного представления — вот некоторые подходы к уменьшению предвзятости. При сборе данных для типичного проекта машинного обучения жизненно важно иметь эксперта в предметной области (SME) с командой ML, чтобы помочь им в сборе ключевых функций вместе с их характеристиками. Отсутствующие данные также могут привести к искажению данных. Предвзятость при проектировании функций следует устранять с помощью методов масштабирования функций, чтобы одна функция не имела большего веса, чем другая функция в модели ИИ. Чтобы предотвратить предвзятость и проверить модель, также важно выбрать правильный метод машинного обучения и метод оценки. Например, если в данных есть группа меньшинства, точность прогнозирования хорошего найма может составлять 90%, а чувствительность может составлять около 50%, что вызывает асимметрию в данных для обучения. Демографический паритет предполагает, что решение (целевая переменная) не должно зависеть от защищенных атрибутов — раса, пол и т. д. не имеют отношения к решению.

Весь процесс, личностные тесты и модель социальных сетей должны быть понятными и прозрачными, а также соответствовать EEOC, FCRA и законам штата о конфиденциальности. Это не только предотвратит и уменьшит дискриминацию в процессе найма, но и поможет ограничить любую ответственность перед организацией. Оценка воздействия на защиту данных в соответствии с GDPR требует от компаний учитывать риски предвзятости и дискриминации и снижать их, гарантируя, что работодатели должны уведомлять соискателей и получать их согласие перед просмотром их социальных сетей, независимо от того, являются ли они общедоступными, а работодатели должны иметь юридическое разрешение. право делать это, а также просматривать и использовать информацию, подходящую только для данной должности. Важно установить намерение избежать того, чтобы прокси-атрибуты наносили ущерб модели и кандидату, чтобы в случае отказа на роль было ясно, по каким причинам был сделан отказ, кроме технических.

Цитаты:

[1] : «https://www.jobvite.com/wp-content/uploads/2021/09/Jobvite-RecruiterNation-Report-WEB-2.pdf» [2] : «https://www.sterlingcheck. com/services/social-media/»
[3] : «https://smallbiztrends.com/2020/05/social-media-screening.html»
[4] : «https:/ /bcvoice.org/4197/ae/review-of-persona-the-dark-truth-behind-personality-tests/»

[5]: «https://casetext.com/case/hardin-v-dadlani-3»
[6]: «https://www.reuters.com/article/us-amazon-com- job-automation-insight-idUSKCN1MK08G»
[7] : «https://techcrunch.com/2021/06/08/blendoor-data-lets-you-know-if-companies-are-living-up -к разнообразию-» обещания/
[8] : «https://hbr.org/2019/04/the-legal-and-ethical-implications-of-using-ai-in-hiring»< br /> [9] : «https://thenewstack.io/hidden-gender-racial-biases-algorithms-can-big-» Deal/#:~:text=In%20one%20recent%20study%20what,would %20между%20словами%20и%20понятиями. [10] «https://www.goco.io/blog/what-personality-tests-tell-us-about-bias-in-hiring/»
[11] «https://www.ibm .com/opensource/open/projects/ai-fairness-360/»
[12] «https://innodata.com/eliminating-bias-from-hiring-using-artificial-intelligence/»

Этические проблемы социальных сетей и личностных тестов при приеме на работу

Наем является важной частью каждой организации, и наем подходящего человека с технической и культурной точки зрения имеет первостепенное значение и…