«Человек может, как утверждает Фуко, исчезнуть как ключевая фигура в нашей политической мысли, лицо по-прежнему будет иметь навязчивое значение и политические последствия»Дженни Эдкинс из Face Politics.

В июне 2020 года крупные технологические компании, такие как Microsoft, IBM и Amazon, объявили об отказе от разработки систем распознавания лиц, поскольку они усиливают расовые и гендерные предубеждения (Condie & Dayton, 2020). IBM призвала к необходимости переосмыслить подход к распознаванию лиц (Condie & Dayton, 2020). Генеральный директор Google также поддержал предложение Европейского союза о запрете использования технологии распознавания лиц в общественных местах (Condie & Dayton, 2020). Распознавание лиц основано на технологиях распознавания изображений, которые используются в рекламных целях, для охраны правопорядка, социальных сетей, наблюдения и пограничного контроля (Celis Bueno, 2020; Adikari, 2020). Технология распознавания лиц используется для двух основных целей: идентификации лиц и анализа лиц. Первый включает в себя привязку изображения к лицу человека, а второй касается анализа и представления информации с лица человека. Извлекаемая информация может быть любой: от возраста, пола, расы до более сложных вопросов, таких как оценка склонности к совершению преступления или предсказание сексуальной ориентации человека (Гейтс, 2011). Распознавание лиц также используется в области эмоционального ИИ, который включает прогнозирование эмоционального состояния человека путем анализа движения глаз, выражения лица и языка тела (Подолец, 2022).

Человеческое лицо — одна из самых сложных вещей, которую можно воспроизвести с помощью алгоритма. Многомерный характер человеческого лица затрудняет создание шаблона, с помощью которого его можно проанализировать для идентификации человека. Как правило, существует два типа алгоритмов: машинное обучение и алгоритмы. Фрай (2018) отмечает, что в то время как алгоритмы, основанные на правилах, должны иметь четкий набор правил или шагов, которым необходимо следовать для решения проблемы, алгоритмы машинного обучения учатся, как живые существа, они следуют логике положительного подкрепления. Он включает в себя данные, цель и обратную связь при движении в правильном направлении. В отличие от алгоритмов, основанных на правилах, алгоритмы машинного обучения разрабатывают свои собственные правила на основе набора обучающих данных (Celis Bueno, 2020). Поскольку сложные черты человеческого лица нельзя запрограммировать, алгоритмы машинного обучения делают его полезным для решения задач систем распознавания лиц. Анализируя большой набор данных, алгоритмы распознавания лиц достигли замечательной точности, Ranjan et al. (2016) сообщили о 97,9% распознавания пола с использованием алгоритма HyperFace. Ю и др. (2018) сообщили, что 99,5% используют нейронные сети. Однако следует подчеркнуть, что алгоритмы так же хороши, как и данные, которые в них загружаются (Buolamwini & Gebru, 2018).

В то время как в популярных средствах массовой информации много шума о том, что машины захватывают цивилизацию и каким-то образом умнее людей. Это не что иное, как отвлечение от реального проблематичного факта, что дискриминация, такая как расизм и сексизм, используется в большинстве алгоритмов машинного обучения искусственного интеллекта, которые решают, что нам рекламируется и как нас классифицировать (Crawford, 2016). Ноубл (2019) в своей книге «Алгоритмы угнетения: как поисковые системы усиливают расизм» отметила дискриминационную терминологию, присутствующую в поисковой системе Google. Кроуфорд (2016) отметил, что фотоприложение Google распознавало фотографии темнокожих людей как горилл, камера Nikon ошибочно считывала изображения азиатских людей как «моргающих», а веб-камера HP изо всех сил пыталась распознавать людей с более темным оттенком кожи. Они также отметили, как программное обеспечение, используемое для изучения того, совершит ли осужденный повторно преступление, классифицирует чернокожих людей с более высокой склонностью к повторному преступлению (Angwin et al., 2020). Система уголовного правосудия США подвергалась критике за дискриминацию по признаку расы и других социальных характеристик, а растущее использование технологий распознавания лиц правоохранительными органами вызывает опасения по поводу сохранения этого неравенства в системе (Dass et al., 2022). Полицейские управления США все чаще используют технологии распознавания лиц в деятельности по «предупреждению преступности». Наборы исторических данных о преступности крупных городов, таких как Майами, Чикаго, Лос-Анджелес и Нью-Йорк, используются для прогнозирования горячих точек преступности (Crawford, 2016). Затем полиция активизирует свою деятельность в этих районах. Однако у этого подхода есть одна проблема: он консервирует исторические предубеждения и усиливает существующую классовую и силовую динамику в обществе.

Сами по себе машины ничего не объясняют, придется анализировать весь аппарат, одним из компонентов которого являются машины (Делез, 1995). Можно сказать, что ошибки неправильной классификации, обсуждавшиеся ранее, связаны с недостаточной точностью набора данных, используемого для обучения этих моделей, и более справедливый набор данных, вероятно, даст объективные и нейтральные результаты. Однако алгоритмы машинного обучения следует рассматривать не только как нейронные технологии, но и как механизм, укрепляющий существующие властные и классовые иерархии (Noble, 2019). Buolamwini & Gebru (2018) проанализировали набор данных, используемый для обучения основных алгоритмов распознавания лиц для распознавания пола, и сообщили, что 80% данных состоят из изображений белых субъектов, что привело к более высокому уровню ошибочной классификации для субъектов с более темными оттенками кожи и более высокой классификацией. для белых предметов.

Лицо существует отдельно от тела, в то время как тело является частью области животных, а лицо принадлежит области индивидуальности (Deleuze & Guattari, 2004). Лицо существует в определенном историческом, культурном и географическом контексте (Эдкинс, 2015, стр. 3). Предубеждения и неправильное использование технологий распознавания лиц подкрепляют идею Фуко (1975) о том, что по мере того, как власть становится более анонимной и неясной, субъекты власти имеют тенденцию становиться более индивидуализированными.

Ссылки:

1. Адикари, А. и Алахакун, Д., 2020. Понимание эмоционального пульса горожан в умном городе с использованием искусственного интеллекта. IEEE Transactions on Industrial Informatics, 17(4), стр. 2743–2751.

2. Ангвин Дж., Ларсон Дж., Матту С. и Киршнер Л., 2020 г. По всей стране используется программное обеспечение для прогнозирования будущих преступников, и оно направлено против чернокожих. 2016.

3. Буоламвини Дж. и Гебру Т., 2018 г., январь. Гендерные оттенки: несоответствие точности пересечения в коммерческой гендерной классификации. В конференции по справедливости, подотчетности и прозрачности (стр. 77–91). ПМЛР.

4. Селис Буэно, К., 2020. Возвращение к лицу: использование Делёза и Гваттари для изучения политики алгоритмического распознавания лиц. Теория, культура и общество, 37 (1), стр. 73–91.

5. Конди Б. и Дейтон Л., 2020 г. Четыре технологии искусственного интеллекта, которые могут изменить наш образ жизни и работы. Источник: Интернет. https://www.nature.com/articles/d41586-020-03413-y. Дата обращения: 05.08.2022.

6. Кроуфорд К., 2016 г. Проблема белого парня искусственного интеллекта. Нью-Йорк Таймс, 25 (06).

7. Дасс, Р.К., Петерсен, Н., Омори, М., 2022. Выявление расового неравенства в уголовном правосудии: к справедливому подходу глубокого обучения для создания и интерпретации расовых категорий с использованием фотографий. ИИ и общество (2022). https://doi.org/10.1007/s00146-022-01440-z

8. Делёз, Г. и Гваттари, Ф., 2004. EPZ Thousand Plateaus. А&С черный.

9. Делёз, Г., 1995. Переговоры, 1972–1990 гг. Издательство Колумбийского университета.

10. Эдкинс, Дж. 2015. Face Politics. Нью-Йорк: Рутледж.

11. Фуко М., 1975. Дисциплина и наказание: рождение в тюрьме. Винтаж.

12. Фрай Х., 2018 г. Привет, мир: быть человеком в эпоху алгоритмов. WW Нортон и компания.

13. Гейтс К.А., 2011. Наше биометрическое будущее. В нашем биометрическом будущем. Издательство Нью-Йоркского университета.

14. Ноубл, Сафия Умоджа, 2018 г. «Алгоритмы угнетения: как поисковые системы усиливают расизм». Издательство Нью-Йоркского университета. ПОЧЕМУ ПОПУЛЯРНАЯ КУЛЬТУРА ВАЖНА, стр. 166.

15. Подолец Л., 2022. Мы должны поговорить об эмоциональном ИИ и преступности. ИИ и общество (2022). https://doi.org/10.1007/s00146-022-01435-w

16. Ранджан, Раджив, Патель, Вишал и Челлаппа, Рама (2016) HyperFace: глубокая многозадачная обучающая среда для распознавания лиц, локализации ориентиров, оценки позы и распознавания пола. Транзакции IEEE по анализу шаблонов и машинному обучению 41 (1): 121–135.

17. Sauvagnargues, A., 2016. Artmachines: Делёз, Гваттари, Симондон. Издательство Эдинбургского университета.

18. Ю. Чжэн и др. (2018) Усовершенствование алгоритма распознавания лиц на основе нейронной сети. 10-я Международная конференция по измерительной технике и автоматизации мехатроники. Чанша, Китай, стр. 229–234.