Справедливость и предвзятость

Иди вперед, измени мой разум (ИИ)

Агентство как недостающий ингредиент в дебатах о справедливости ИИ.

Вы когда-нибудь пытались изменить чье-то мнение? Конечно, есть. В конце концов, это основная цель общения. Это также невероятно сложно.

Еще труднее, когда дело доходит до глубоко укоренившихся политических, религиозных или социальных убеждений, которые сформировали нас, потому что они, как правило, связаны с нашей собственной идентичностью. Многие убеждения даже полностью бессознательны и могут быть выявлены только косвенными средствами. Невозможно сказать, будет ли рассматриваться заявление о приеме на работу, которое я подаю, по-разному из-за моей расы или пола, поскольку человек, которому я его передаю, может даже не осознавать свои собственные предубеждения. А если и есть, то легко их скрыть. Для того, чтобы последовательно и надолго изменить чье-то мнение, нужны годы и целеустремленность, особенно когда убеждение основано на чьих-то эмоциональных переживаниях.

Не так с системами ИИ. Несмотря на все их недостатки и предубеждения, одна вещь, которая отличает системы ИИ от человеческих систем принятия решений, заключается в том, что сравнительно легко выявить их предубеждения и изменить свое мнение.

Если вы хотите выявить предвзятость в чьей-либо оценке кандидатов на вакансию, правильным подходом, вероятно, было бы дать им тысячи заявок для анализа и измерения статистической разницы в результатах на основе искомых вами атрибутов с учетом всех остальных. Хотя это обычно делается на групповом уровне, когда достаточно кандидатов, проходящих стандартизированный процесс, невозможно сделать для одного лица, принимающего решения, что очень затрудняет вмешательство, кроме как на политическом уровне. Вы просто не можете заставить одного человека просмотреть тысячи заявок и получить статистически значимые результаты. Вы не можете спрашивать лиц, принимающих решения, об их предубеждениях, потому что они могут не осознавать их или могут быть заинтересованы в их сокрытии.

Системы искусственного интеллекта, с другой стороны, могут обрабатывать тысячи или миллионы тестовых образцов. Фактически, именно эта масштабируемость делает их предметом столь пристального внимания: в них легко ткнуть, а любые недостатки обычно можно обнаружить с помощью приемлемых p-значений, увеличив размер выборки. Это тоже хорошо, потому что позволяет нам глубоко исследовать системы, которые могут оказывать огромное влияние на жизни людей различными способами.

Но эта предвзятость в отношении доступности не часто признается: поскольку подобные исследования предвзятости чрезвычайно трудно проводить на людях, они просто проводятся редко. И большая часть рассказов, которые мы слышим о предубеждениях ИИ, существует именно потому, что это то, что мы можем измерить, в то время как подавляющее большинство систем принятия решений, которые влияют на мир сегодня, являются человеческими, непрозрачными и устойчивыми к статистической проверке.

И когда мы действительно обнаруживаем предвзятость в системе ИИ, мы можем сразу же изменить их мнение. Мы контролируем данные и факты, с которыми они сталкиваются, чтобы создавать их базу знаний. Как разработчик модели, мы можем изменить, какие индуктивные смещения мы в нее кодируем, а также функцию стоимости, которую он пытается оптимизировать. И мы становимся все лучше и лучше как сообщество, улучшая наше понимание соответствующих кнопок, которыми мы располагаем. Например, исследования показали, что с помощью очень немногих обосновывающих утверждений вы можете повлиять на всю систему убеждений очень большой нейронной модели. Вы также можете точно настроить компромиссы, которые делает система машинного обучения, чтобы гарантировать справедливые результаты без каких-либо затрат на производительность. Это замечательно, особенно если сравнить это с тем, насколько практически невозможно иметь какое-либо влияние на наши в значительной степени бессознательные когнитивные предубеждения человека.

Также существует неотъемлемая справедливость в последовательности результатов. Решения, которые меняются без фундаментальной причины, по своей сути несправедливы, поэтому автоматизированные системы принятия решений не обязательно должны работать лучше, чем человеческие аналоги, чтобы обеспечивать более справедливые результаты, если они уменьшают разброс результатов. ИИ не страдает усталостью от принятия решений.

Проверяемость, контролируемость и согласованность заслуживают центрального этапа в оценке справедливости и этических последствий машинного обучения.

Некоторые могут возразить, что барьер здесь не в системах принятия решений людьми, а в системах, основанных на правилах, которые также, возможно, являются последовательными, контролируемыми и поддающимися проверке. Но в этом и другая ловушка: хуже никогда не бывает справедливее. Система, которая хуже справляется со своей задачей, даже если ее проще и легче понять, как правило, непропорционально хуже с точки зрения справедливости результатов. Раньше я работал над автоматическим распознаванием речи, и вначале эти системы не очень хорошо распознавали разговорный английский. Но больше всего пострадали не белые мужчины средних лет, рожденные в США, сидящие в совершенно тихой офисной обстановке. Это были молодые и пожилые люди, люди, не являющиеся носителями языка, люди в сложной шумной акустической среде. Приводя аргументы в пользу более грубых и простых моделей во имя прозрачности и инспектируемости, часто игнорируется тот простой факт, что лучшая система принятия решений, как правило, положительно влияет на длинный хвост в большей степени, чем на доминирующие способы распределения. Фактически, несмотря на все опасения, возникающие в связи с использованием все более крупных и сложных языковых моделей, есть веские доказательства того, что чем лучше они становятся, тем более они становятся согласованными с общечеловеческими ценностями.

Фактически можно было бы возразить, что работа, проводимая над фундаментальными характеристиками систем ИИ, оказала гораздо более глубокое влияние на результаты справедливости, чем большая часть литературы, которая напрямую нацелена на справедливость ИИ, хотя, если бы не было существенного объема работы, Сегодня по этой теме мы не сможем даже оценить это влияние. Большая часть нашей коллективной работы в этой сфере должна становиться все менее нацеленной на простое выявление их недостатков, и больше на использование нашего влияния на системы ИИ и на нашу беспрецедентную способность изменять их мнение в сторону более справедливых и равноправных результатов.

(С благодарностью Эду Х. Чи за его бесценный отзыв об этой статье.)