Поскольку социальные сети стали более широко использоваться, люди осознали, какую силу они имеют, чтобы влиять на людей, чтобы оказывать глобальное влияние. Компании социальных сетей стали более ловкими, чем когда-либо, благодаря новым технологиям, таким как искусственный интеллект и большие данные, выходящие на передний план. С усилением цифровизации мир сегодня настолько хорошо связан, что это требует от нас сделать шаг назад и взглянуть на то, как мы используем наши технологии, не нанося непоправимый ущерб. В этой записи блога рассказывается о том, как искусственный интеллект может использоваться или неправильно использоваться в социальных сетях.

Этическое использование ИИ в социальных сетях

Социальная сеть относится к любым средствам, с помощью которых люди связаны через цифровую среду. Социальные сети — это один из видов социальной сети. На самом деле, любая деятельность, которую мы делаем в Интернете, имеет аспект «социальной связи». Вот почему защита данных чрезвычайно важна. В этой статье я буду использовать социальные сети и социальные сети взаимозаменяемо.

Пандемия Covid-19 также усилила нашу зависимость от социальных сетей. Это стало жизненно важным источником информации для нашей повседневной деятельности. ИИ может дать отличный контроль над манипулированием социальными сетями. Это означает, что ИИ может манипулировать нашим самым большим источником информации, что может стать самым большим ударом по нашему совместному функционированию как цивилизации. Поэтому очень важно установить законы и обеспечить этичное использование ИИ.

В социальных сетях используется широкий спектр технологий искусственного интеллекта и машинного обучения, таких как механизмы рекомендаций, распознавание изображений, чат-боты, анализ настроений, обнаружение значимости и т. д. Недавнее ускорение исследований в области компьютерного зрения, машинного обучения и обработки естественного языка сделало эти технологии более точен как никогда. Эти технологии могут дать больше информации о личной жизни пользователей, чем когда-либо прежде.

Приложения, которые ИИ нашел в социальных сетях, описаны ниже:

  1. Аналитика, сортировка и маркировка. Благодаря квинтиллионам данных, которые ежедневно генерируются в наших социальных сетях, ИИ может помочь нам найти в них что-то ценное. Это очень полезно для выявления спам-аккаунтов, троллей, мошенников, гнусных ботов и т. д.
  2. Фильтрация контента. Социальные сети — это практически общественное место. Благодаря ИИ мы можем отфильтровать большую часть нежелательного контента, чтобы он не попадал в нашу ленту.
  3. Это повышает безопасность с помощью различных методов обучения, таких как обучение с подкреплением. В прошлом ИИ победил нескольких коварных ботов. Постоянно развивающийся и обучающийся характер алгоритмов машинного обучения делает их более эффективными, чем традиционные методы.
  4. Много автоматизации стало возможным благодаря ИИ. Это экономит время и создает больше взаимодействия с вашим кругом общения во многих отношениях.
  5. Цифровой маркетинг: ИИ очень эффективно выявляет потенциальных покупателей и ускоряет цифровой маркетинг. Открытый характер социальных сетей дает каждому маркетологу большие возможности. Это показало большое улучшение в торговле и экономике.

Я упомянул только положительные способы использования этих приложений. Но, как и все остальное, люди, которые имеют больший контроль над этими медиумами, также могут использовать их по-разному.

Вот несколько способов злоупотребления искусственным интеллектом в социальных сетях.

  1. ИИ можно использовать для сбора информации о пользователях и отслеживания их жизни. Конфиденциальность — большая проблема в наше время. С появлением ИИ границы того, что представляет собой утечку данных, стираются. Компании собирают персональные данные, заявляя, что они будут использовать их только для предоставления персонализированного опыта. Но уровень детализации данных явно не указан, и в итоге люди оставляют больше данных, чем раньше (Belk, 2020).
  2. Системы рекомендаций и рекламы ИИ выборочно подают определенные виды новостей, политических идей и научных точек зрения и дают им искаженное представление об обществе. В последнее время мы также наблюдаем усиление поляризации мнений и усиление политической пропаганды. Людей, как правило, больше привлекают взгляды или идеи, которые соответствуют их предрасположенностям и подтверждают их предвзятость. Это делает их еще более уязвимыми для манипуляций со стороны ИИ. Фейковые новости становятся более правдоподобными благодаря таким технологиям, как дипфейки.
  3. Отсутствие прозрачности в алгоритмах ИИ оставляет нас в замешательстве. Пользователи никогда не могут знать, как используются их данные. Поэтому они остаются в неведении относительно того, какое решение они должны принять, чтобы избежать дезинформации. Нам всем рекомендовали видео на YouTube даже после того, как мы решили не смотреть видео такого рода. Когда вы открываете YouTube в режиме инкогнито, вы можете видеть, что некоторые рекомендации основаны на действиях в вашей исходной учетной записи.
  4. Присущая системам ИИ предвзятость вызывает несправедливость по отношению к определенным группам людей. В прошлом было много случаев, когда группам людей запрещали доступ к Facebook и Twitter из-за спама. Но оказывается, что ИИ неточно предсказывает, и они принадлежат к определенному сообществу.

По мере увеличения объема информации становится все труднее отслеживать, как ИИ влияет на нашу жизнь. Мы должны решать проблему дезинформации под руководством ИИ как отдельные лица, так и сообщество. Какими бы осторожными мы ни были как отдельные личности, дезинформация будет направлена ​​на сообщество, что повлияет на отдельных людей сложным образом, который невозможно будет отследить.

Я представил обе стороны аргумента по вопросу «Является ли использование ИИ в социальных сетях благом для общества или во вред ему?» Ответ, конечно же, заключается в том, как мы его используем, и в законах, окружающих его.

Ниже я изложил ряд методов, которые могут помочь в борьбе со злоупотреблением ИИ:

  1. Соблюдайте этические принципы ИИ, такие как прозрачность, ответственность, надежность и т. д. При использовании наборов данных убедитесь, что они репрезентативны для всего населения.
  2. Разделение исследовательского и коммерческого производства. Перед развертыванием моделей ИИ в социальных сетях необходимо проконсультироваться с экспертными комитетами, такими как совет по ИИ[2], в сотрудничестве с государственными органами.
  3. Информирование пользователей об условиях согласия в социальных сетях. Положения о согласии очень многословны и лишены ясности, особенно после увеличения использования ИИ.
  4. Пользователей, которые непреднамеренно продвигают фальшивые новости, можно остановить, разместив соответствующие средства проверки фактов, прежде чем они распространят информацию.
  5. На платформах социальных сетей, основанных на видео и тексте, рекомендуйте контент, который бросает вызов системе убеждений пользователя, а не успокаивает его.

В дополнение к этому, есть много мер, которые нужно принимать индивидуально, чтобы не стать жертвой плохих онлайн-практик. Обязательно перепроверяйте контент, который вы читаете в Интернете. Сообщайте о плохих практиках, сообщая о них и направляя жалобы.

Вокруг ИИ и этики социальных сетей ведется много дискуссий в политической и научной сферах. Я призываю вас читать больше и получать образование в отношении того же самого.

Рекомендации

  1. Белк, Р. 2020. Этические проблемы сервисной робототехники и искусственного интеллекта. Журнал сферы услуг.
  2. Совет по искусственному интеллекту, GOV. Великобритания, доступ: 23 декабря 2021 г., https://www.gov.uk/government/groups/ai-council