Чтобы понять алгоритмическую предвзятость, мы должны понять:

  1. Алгоритм: набор правил, которым необходимо следовать при вычислениях или других операциях по решению задач, особенно с помощью компьютера.
  2. Машинное обучение: разработка компьютерных программ, которые могут получать доступ к данным и использовать их для самостоятельного обучения.

Итак, когда специалист по данным пишет алгоритм машинного обучения, он в основном просит компьютер полагаться на прошлые данные, распознавать закономерности и предсказывать результат, используя вероятность.

Алгоритмы создаются людьми и пользовательскими данными. Теперь кодеры будут иметь определенные внутренние предубеждения. Данные могут быть немного больше. Это смещение передается алгоритму машинного обучения. Это может быть даже преувеличено системами ИИ.

Слепое пятно компьютерных алгоритмов, которое делает их дискриминационными, называется алгоритмической предвзятостью.

Существует пять распространенных типов алгоритмической предвзятости:

  1. Данные, отражающие существующие предубеждения:

Помните серию «Друзей» «Эпизод с няней-мужчиной»? Эпизод вращается вокруг того, как все задают друг другу один и тот же вопрос: «Как вы называете няню-мужчину?»

Если вы ищете медсестер, вы с большей вероятностью получите изображение женщины из поиска Google, чем любое другое. Если вы ищете полицию, вы увидите больше мужчин, чем кого-либо другого.

2. Несбалансированные классы в обучающих данных:

Насколько справедливым, по вашему мнению, будет алгоритм в отношении шансов на победу на президентских выборах в США не мужчин, основываясь на истории 45 президентов США?

3. Данные, которые не отражают правильное значение

Чтобы оценивать студенческие эссе, ИИ был обучен читать и понимать запутанные сложности прозы. Его даже попросили написать собственный рассказ. Вот немного фанфиков по Гарри Поттеру:

4. Данные, усиленные петлями обратной связи

Итак, вы посмотрели фильм на Netflix, потому что он вам понравился. Затем Netflix рекомендует вам похожие фильмы. Итак, вы нажали на что-то, потому что вас это заинтересовало, или потому что это было рекомендовано? Неспособность алгоритмов создала волновой эффект, который покажет вам очень спорный контент.

5. Вредоносные данные

«Tay» — это чат-бот, выпущенный Microsoft в 2016 году, что позволило Twitter общаться с ним в качестве эксперимента. Чат-бота кормили всевозможными расистскими высказываниями, и в течение 24 часов он тоже начал говорить то же самое. Тай связал разговор с расизмом и уловил это.

Хороший алгоритм — это тот, который использует наиболее эффективный путь к результату из имеющихся знаний. Всегда будут выбросы, и, следовательно, алгоритм всегда будет несколько предвзятым. Наша цель должна заключаться в том, чтобы сделать наш код более инклюзивным, более допускающим исключения из норм.