По мере того, как продолжается поиск самых блестящих серебряных пуль в наборе персонала, области искусственного интеллекта, машинного обучения и «больших данных» становятся отличным охотничьим угодьем как для продавцов, так и для любителей сенсаций. Для опытного глаза эти области различны и разделены, однако при продаже решения, которое претендует на одну из этих областей, существует множество материалов, которые показывают нам, что наша отрасль способна одинаково неправильно понимать их все. В то время как искажение информации о технологиях теми, кто их продает, не является чем-то новым для рекрутинговой индустрии, общие термины ИИ и «больших данных» приобрели особую силу. Часть этого волшебного мышления все больше и больше приводила к все более и более высоким заявлениям о технологиях, которые, хотя все еще находятся в зачаточном состоянии, могут быть искажены для более кликабельных заголовков.

В журналистике для такого рода заголовков существует одноименный Закон. Закон заголовков Беттериджа — это поговорка, которая гласит: На любой заголовок, оканчивающийся знаком вопроса, можно ответить словом «нет. Он задуман как юмористический, но, кажется, работает в подавляющем большинстве примеров. Это истинное лицо британской молодежи? Вдумчивый читатель: Нет. Нашли ли мы лекарство от СПИДа? Нет; в противном случае вы бы не поставили вопросительный знак. Дает ли эта карта ключ к миру? Возможно нет. Я предлагаю аналогичную поговорку для контента, охватывающего технологии и их применение в рекрутменте и HR. В этой области до сих пор действует закон Беттериджа, например Означает ли ИИ конец набора выпускников?. Нет, это не так. А как насчет тех заголовков, которые не представляют собой вопросов? Для тех, кому я предлагаю закон Уорда: Чем чаще в статье о найме используются термины, связанные с ИИ, машинным обучением и «большими данными, тем больше вероятность того, что результаты любого цитируемого исследования преувеличат эффективность технологии“. Другими словами, чем чаще вербовка считается решенной, тем дальше это будет от истины.

Давайте посмотрим на пример. Недавно я увидел заголовок «Исследование больших данных предсказывает, какие резюме будут приглашены на собеседование рекрутерами», звучит фантастически! Он продолжается словами: Новое исследование открыло способ определить, какие резюме с наибольшей вероятностью будут выбраны рекрутерами из большой кучи заявлений о приеме на работу». Этот тип пресс-релиза стал шаблонным. Характеризуется заявлением о действенности алгоритма, некоторыми слегка ложными статистическими данными, которые не полностью соответствуют дальнейшим исследованиям или искажают первоначальную цель исследования, делают некоторые другие заявления, когда алгоритм не был протестирован, но может быть использован. удивительный прорыв …позволяет предсказать будущую работу кандидата, просто отсканировав его загруженное резюме.., и заканчивая предсказуемой цитатой о судном дне от кого-то в отрасли — В будущем мы все будем кормить трубками и роботы-повелители скажут нам, какую работу делать.

В этом примере нам дан размер выборки ошеломляющие 441 769 резюме и процентная точность 70–80% по сравнению с рекрутерами, просматривающими те же 441 769 резюме. Это означает, что в 88 354–132 531 случаях алгоритм не соглашался с рекрутерами-людьми и отклонял кандидата. Это довольно много ложных срабатываний/отрицательных результатов, тем более для любой компании, которая ценит опыт кандидата и то, как с кандидатами могут обращаться в их процессах. В чем этот элемент человечности еще больше нарушается, так это в том, что при наличии другого источника данных — сопроводительного письма — алгоритм работает хуже, уровень отказов падает до 69%. Сколько из тех 132 531 человек, которых алгоритм не пригласил на собеседование, были приняты на работу? Нам не говорят. Другим аспектом этого множества подобных историй, которые следует учитывать, является то, что люди не очень хорошо справляются с большими числами. Причина этого в том, что наше чувство числа основано на двух врожденных системах, которые по существу имеют дело с малыми числами точно или с большими числами. только приблизительно. Мы не часто сталкиваемся с большими числами, поэтому, когда мы сталкиваемся с ними, может быть легко понять, является ли это число статистически значимым. LinkedIn может похвастаться 433 миллионами участников, а Facebook имеет 1,65 миллиарда активных пользователей в месяц, но в таком масштабе эти цифры почти бессмысленны, если применять их к целям найма одной компании. Наша неспособность связать большие наборы данных с реальными людьми носит безудержный характер. Большие числа дегуманизируют нас, и чем они больше, тем хуже эффект. Если одних только этих необработанных цифр недостаточно для возникновения небольшого сомнения, мы можем обратиться к тем элементам, на основе которых принимаются решения.

Всякий раз, когда я читаю о потенциально революционном алгоритме, мне всегда интересно понять, как он достигает своих результатов. В частности, в этих алгоритмах скрининга, что программист выбирает для включения, что он исключает и какой вес они придают тем элементам, на которых он основывает свои решения? В этом примере измеряются опыт, рабочее место и образование. Нам также говорят, что «были приняты во внимание контекстуальные факторы, такие как «подал ли кандидат заявку вовремя» и «был ли кандидат уже нанят в компанию?». Затем, что потенциально более проблематично, как упоминается в полной версии докторской диссертации, из которой взят этот пресс-релиз, также включены демографические факторы, такие как «возраст, пол, национальность, семейное положение и удаленность от компаний по найму».

Этот пост предназначен для того, чтобы прокомментировать представление о новых технологиях и их применение для найма, и я не собираюсь размышлять о возможном будущем роботов, заменяющих людей, но существует алгоритмическое будущее, которое аккуратно заметается под ковер теми, кто пробот. Исследование Гарвардского университета показало, что реклама записей об арестах значительно чаще появлялась при поиске явно черных имен или исторически сложившегося черного братства. Исследование Вашингтонского университета показало, что поиск изображений Google по запросу C.E.O. произвело 11 процентов женщин, хотя 27 процентов руководителей Соединенных Штатов - женщины. (При недавнем поиске первое изображение женщины, появившееся на второй странице, было куклой Барби, генеральным директором.) Система Google AdWords показывала рекламу высокооплачиваемых вакансий мужчинам гораздо чаще, чем женщинам. Об этом говорится в новом исследовании ученых из Университета Карнеги-Меллона. Тем, кто выступает за идеальное будущее, придется столкнуться с этим исследованием и многим другим подобным. Хотя чрезмерно рьяные продавцы часто цитируют алгоритмы, основанные на данных, свободны от предвзятости, программное обеспечение не свободно от человеческого влияния. Алгоритмы пишутся и поддерживаются людьми, а алгоритмы машинного обучения корректируют свои действия в зависимости от поведения людей. Все это еще до благонамеренного, но начинающего программиста в отрасли предпочитает включать такие факторы, как возраст, пол, национальность и семейное положение, которые явно защищены законом о дискриминации. Должна ли организация, использующая такой алгоритм для отбора кандидатов, раскрывать, как был сделан выбор? Будут ли кандидаты по-прежнему пользоваться такой же защитой?

Проблема здесь в том, что программное применение упрощенной модели не допускает никаких нюансов, а когда мы пытаемся измерить людей, нюансы решают все. Алгоритмы сортировки и ранжирования запасов на складе имеют большое преимущество перед теми, которые стремятся каталогизировать людей, а книги на полке или банка печеных бобов в супермаркете не имеют свободы воли отказаться от процесса в любой момент. время, но люди делают. Исторически сложилось так, что люди отказались от чрезмерно автоматизированных процессов. Я помню, как британский банк заманивал клиентов «обещанием отказаться от автоматизированных колл-центров», а несколько веб-сайтов предлагали возможность «поговорить с реальным человеком». Для тех компаний, которые не хотят взаимодействовать на этих ранних этапах, может наступить время расплаты, когда кандидаты вместо этого выберут более человеческий процесс, а не станут людьми, чтобы их обрабатывали.

Итак, как мы сюда попали? Почему будущее — это либо электрическая нирвана, либо пустынная антиутопия? Как и во многих научных репортажах в СМИ, развитие технологий преподносится как страшилка, робот-пугалка, чтобы напугать HR. Уникально, что в мире HR и найма огромное количество контента о развитии технологий написано теми, кто продает продукты. У нас есть дискурс, принадлежащий поставщикам, и аудитория, которая не хочет или не потратила время на изучение технологии. Неудивительно, что где-то посреди всего этого есть непонимание, принятие и скептицизм, а также некоторые деньги, которые можно заработать на этой новой границе Дикого Запада. Для остальных из нас полно контента, наполненного дикими претензиями и ложной статистикой, вы можете не соглашаться с выводами исследований претензий или вендоров, но я уверен, что кто-то где-то готов вам сказать, что 60% время, это работает каждый раз.

Первоначально опубликовано на thekingsshilling.io.