Технологические компании любят рассказывать себе такую ​​историю: «Мы создаем программное обеспечение и услуги, чтобы сделать мир лучше. Мы абсолютно объективны в отношении шагов, которые мы предпринимаем, чтобы достичь этого, и мы нанимаем лучших людей с помощью меритократического процесса, чтобы сделать все это возможным ».

И еще есть истории, которые эти компании рассказывают своим пользователям: «Мы показываем вам этот результат поиска, потому что он самый« лучший »». «Мы показываем вам это фото, потому что знаем, что вы заботитесь о новорожденном ребенке вашего друга». «Мы играем вам эту песню, потому что вы сказали нам, что любите танцевальную музыку». «Мы рекомендуем этот продукт, потому что вы его купили».

Но есть еще одна история, которую мы слышим реже, хотя она самая важная: решения, принимаемые такими платформами, как Facebook, Google и Spotify, основаны на алгоритмах; эти алгоритмы созданы людьми, а люди - существа предвзятые.

Вы можете думать об алгоритме как о серии шагов или как о наборе инструкций, выполнение которых приведет к определенному результату. В этом смысле ваш любимый рецепт - это алгоритм. И точно так же, как каждый шеф-повар привносит в блюдо свою чувствительность, каждый инженер, участвующий в разработке алгоритма, вносит в работу свои собственные суждения и предвзятые мнения.

Другими словами, алгоритмы, определяющие, какие результаты поиска вы видите и чьи дети чаще всего появляются в вашей ленте Facebook, не являются нейтральными с точки зрения ценности. Они пронизаны как бессознательными, так и явными предубеждениями и предпочтениями их создателей - и имеют тенденцию преувеличивать их.

И все становится еще сложнее: алгоритмы неожиданным образом взаимодействуют с другими алгоритмами. Как написала Зейнеп Туфекчи:

Программисты не могут и часто не могут предсказать, что будут делать их сложные программы. Интернет-сервисы Google состоят из миллиардов строк кода. Как только эти алгоритмы с огромным количеством движущихся частей выпущены на свободу, они затем взаимодействуют с миром, учатся и реагируют. Последствия нелегко предсказать.

Что все это значит? Во-первых, мы не должны по умолчанию думать, что наш взгляд на мир и на мир, отфильтрованный через наши результаты поиска и то, что мы видим потоковое прошлое на Facebook и Twitter, является беспристрастным в любом смысле.

Во-вторых, достижения в таких областях, как распознавание фотографий, например, имеют реальные последствия для конфиденциальности.

И, наконец, нам нужно гораздо больше осознавать, что алгоритмы имеют последствия для нашей повседневной жизни и что они могут приводить к дискриминационным результатам. Вот несколько быстрых примеров:

Если вы хотите продолжить чтение, это хороший список из Случайных таблиц. А для более технического подхода рассмотрите этот учебник от Khan Academy и Dartmouth College.