В свете скандала между Facebook и Cambridge Analytica, когда Facebook нарушил законы о защите данных, предоставив Cambridge Analytica личные данные 87 миллионов человек, стало очевидно, что организации пытаются влиять на политику через СМИ. Алгоритмы в настоящее время находятся в центре внимания, поскольку они все чаще используются техническими гигантами, такими как Facebook и Google, для управления поведением в Интернете и манипулирования им ...

Фон

Демократия по самому своему определению - это объединение общественности для свободного обсуждения и обмена идеями. По мере того, как Интернет становился все более популярным, политики начали влиять на общественную сферу через цифровую линзу. Платформы социальных сетей пришли на смену традиционным формам СМИ, таким как газеты и радио, и теперь являются основным способом распространения информации. Хотя есть аргумент, что новые СМИ способствуют вовлечению гражданского общества и увеличивают явку избирателей, у него также есть свои недостатки. В эпоху цифровых алгоритмов власть имущие эксплуатируют граждан, обманным путем манипулируя поведением потребителей, в то время как потребители совершенно не обращают на это внимания. Скандал с Facebook в 2016 году доказал, что СМИ могут исказить результаты выборов, и поднимает важные вопросы о потенциальном влиянии алгоритмов на общество. В этой статье мы разберем три основных проблемы алгоритмов в публичной сфере.

Алгоритмы №1 активно определяют видимость контента

Алгоритмы по своей автоматизированной природе используются для классификации, фильтрации и определения приоритетов контента на основе действий пользователей. Умышленные или непреднамеренные алгоритмы теперь работают как обозреватели и имеют возможность показывать контент и информацию, которые они считают важными и необходимыми для пользователей. Страница «Тенденции» на таких платформах, как YouTube и Facebook определяется личными предпочтениями, поэтому алгоритмы активно продвигают эти страницы. Это означает, что определенные события, будь то случайные видео с кошками в TikTok или крупное стихийное бедствие, становятся более распространенными, чем когда-либо. Контроль алгоритмов над видимостью контента изменяет то, как функционируют социальные сети, и поднимает вопрос о том, как создатели могут адаптировать свой контент к определенному алгоритму.

# 2 Алгоритмы, используемые во внутренних и внешних делах

Не секрет, что политические деятели использовали алгоритмы для воздействия на общество и граждан в национальном масштабе. Исследования влияния алгоритмов на результаты выборов являются ярким примером возможностей алгоритмов в цифровой сфере. Компании теперь используют ботов, чтобы наводнять определенную тему и выводить определенные сообщения на всеобщее обозрение. Кроме того, политики часто дополняют число подписчиков ботами, чтобы создать успешный публичный имидж. Кроме того, политика цензуры и поисковые системы теперь играют неотъемлемую роль в международных отношениях между платформами и государствами. В ответ на потенциальные угрозы алгоритмов в последние годы в США были приняты законы, предотвращающие влияние алгоритмов и пропаганды. Однако реализация такой политики не может заставить компанию изменить свои алгоритмы в политических целях. Остается вопрос: в какой степени правительственные организации могут влиять на алгоритмы и использовать их в национальном и глобальном масштабе?

# 3 Алгоритмы, разработанные без обратной связи с пользователями, приводят к предубеждениям

Поскольку машинное обучение становится все более доминирующим в сегодняшнем мире, управляемом данными, жизненно важно учитывать потенциальные искажения, вносимые алгоритмами. Алгоритмы разработаны так, чтобы быть нейтральными и легко использоваться потребителями, но предубеждения возникают независимо от их первоначального принципа. Предубеждения могут создать «петлю», которая распространяется при поиске и распространении информации. Например, исследование Латании Суини из Гарварда показало, что поисковые запросы по именам, идентифицирующим черных, отличаются от имен, идентифицирующих белых, при этом поиски черных имен с большей вероятностью вернут записи об арестах и ​​негативные новости (Суини в Caplan and Boyd, 2016). Эта неотъемлемая дискриминация, вводимая алгоритмами, является лишь верхушкой айсберга и, к сожалению, способствует целому ряду предубеждений. Этот вопрос, безусловно, необходимо решать в дальнейшем, поскольку алгоритмы становятся все более распространенными в мире.

Заключение:

Алгоритмы стали центром внимания в цифровой сфере, управляемой данными, в 21 веке. Хотя алгоритмы могут способствовать гражданской активности и распространению позитива, они также имеют ряд существенных недостатков. Оценка и решение трех основных проблем, обсуждаемых в этой статье, будут необходимы, поскольку алгоритмы продолжают влиять на политику, СМИ и общественность.

Использованная литература):

Каплан Р. и Бойд Д. (13 мая 2016 г.). Медитация, автоматизация, сила. Данные и общество.