Недавние конфликты, от Covid-19 до фейковых новостей, выявили угрозу дезинформации. Является ли искусственный интеллект ответом?

Бен Ланге, консультант Compass Ethics

В недавнем опросе экспертов по технической политике 90% согласились с тем, что регулирование онлайн-дезинформации должно быть глобальным приоритетом. Легко понять, почему. В эпоху, когда кампании по дезинформации катализировали мятежи, усугубляли пандемии и приводили к длительному экономическому разрушению и репутационному ущербу, нам нужны умные, изощренные и действенные решения.

Неправительственные организации, правительства, военные и платформы социальных сетей уже используют искусственный интеллект и машинное обучение, чтобы пытаться обнаруживать кампании по дезинформации и противостоять им. Но технологии, поддерживаемые ИИ, создают множество проблем. Для решения этих проблем требуется широкий спектр знаний, от ученых-компьютерщиков и специалистов по данным до экспертов в области кибербезопасности и политики и даже юристов и философов.

Давайте рассмотрим некоторые этические проблемы и риски причинения вреда, связанные с ИИ, а затем рассмотрим несколько передовых методов для организаций, которым необходимо развернуть эти технологии.

Проблема намерения

ИИ надежен только в том случае, если он обеспечивает надлежащий фильтр. Нам нужен фильтр, чтобы избежать как ложных срабатываний, когда данные ошибочно классифицируются как дезинформация, так и ложных отрицаний, когда дезинформация может пройти.

Чтобы создать надежный фильтр, первой задачей является определение того, что считается дезинформацией. Ее следует отличать от дезинформации, которая представляет собой «честные ошибки» — случаи, когда кто-то может случайно распространить неправду. Напротив, «дезинформация» обычно относится к умышленному намерению ввести других в заблуждение.

Вот почему организации, занимающиеся дезинформацией, используют то, что философы часто называют учетными записями намерений. Например, USAID, ведущее международное агентство по развитию, заявляет, что дезинформация — это информация, которой делятся с намерением ввести людей в заблуждение.Европейская комиссия определяет дезинформацию как достоверно ложную или вводящая в заблуждение информация, созданная, представленная и распространенная для получения экономической выгоды или для умышленного введения в заблуждение общественности. В США Министерство внутренней безопасности определило дезинформацию как сфабрикованную информацию, которая преднамеренно создается или распространяется с намерением причинить вред.

Все эти определения интуитивно кажутся правильными, но все не так просто.

С концептуальной точки зрения учет намерений сталкивается с серьезными проблемами. А как насчет юмора или сатиры, когда людей вводят в заблуждение ради шутки? Что еще более проблематично, намерения ввести в заблуждение не всегда лежат в основе актов дезинформации. Например, во время пандемии Covid-19 люди без злого умысла распространяли вводящие в заблуждение заявления о болезни. Тем не менее, разве мы не хотели бы, чтобы инструмент ИИ отфильтровывал опасную для жизни дезинформацию?

Таким образом, основывать нашу концепцию дезинформации на намерении не так полезно, как кажется. Нам нужен более тщательный анализ того, что считается дезинформацией.

Где ИИ может помочь, а где нет

Представьте, что мы определились с определением и хотим применить его для фильтрации дезинформации с помощью ИИ. Теперь мы начинаем сталкиваться с практическими проблемами. ИИ может помочь с самой простой и наиболее повторяющейся работой, которую люди выполняют в Интернете. Например, ИИ может обнаруживать и удалять сомнительный контент, проверять учетные записи поддельных ботов и находить шаблоны слов, которые могут привести к идентификации ложных историй (на основе того, что было помечено некоторыми пользователями как неточное). Это может помочь смягчить распространение «простых случаев» дезинформации.

ИИ может даже помочь оценить намерение на каком-то уровне благодаря инструментам обработки естественного языка (NLP), которые классифицируют письменные или устные данные в соответствии со стилем письма, синтаксическими особенностями и настроением.

Хотя эти подходы многообещающи, они не вполне надежны, учитывая сложный характер дезинформации в целом. Даже проверка правдивости кажущихся вводящими в заблуждение утверждений на практике может быть затруднена. Фрагмент данных может относиться к темам, требующим особого внимания, в отношении которых существуют серьезные разногласия между экспертами, где истина и факты неопределенны, или где может содержаться информация, которая все еще динамично развивается.

Кроме того, НЛП сложно классифицировать тонкие импликатуры или утверждения, встроенные в сложные предложения, основанные на культурных нюансах и сигналах. Риски здесь серьезные. Информация может быть классифицирована как дезинформация, и дезинформация может пройти через фильтр.

Но, на мой взгляд, другая значительная и недооцененная угроза связана с тем, что мы могли бы назвать интерфейснымирисками. Они заключаются в нахождении компромиссов между человеческим суждением и технологией ИИ.

Например, представьте, что аналитик просматривает большое количество сообщений о вакцинах против Covid-19, которые ИИ помечает как дезинформацию. Насколько аналитик должен полагаться на собственное критическое независимое суждение? Насколько они должны доверять автоматизированной помощи и оценке сходства? Как провести эту линию?

Как аналитик должен работать со сложными случаями? Когда они возвращаются к ИИ, а когда переходят к другому человеку? Когда и почему идентификация случая дезинформации используется для дальнейшего обучения ИИ? Как рассматриваются спорные пограничные случаи?

Любая организация, использующая ИИ и технологии машинного обучения для борьбы с дезинформацией, должна тщательно обучать аналитиков ориентироваться в этих неспокойных водах.

Наша задача — не просто улучшить ИИ или лучше обучить людей. Наша задача – последовательно улучшать отношения и взаимодействие между ними.

Это тяжелая работа. Но это работа, которую мы можем сделать, если разобьем ее на составные части. Когда организация обращается за помощью в решении этих проблем, я бы повел их по следующему пути:

  • Определить надежную и надежную концептуализацию дезинформации для конкретного контекста организации;
  • Уточнить, где ИИ может помочь, а где человеческое суждение по-прежнему необходимо, с четкими границами полномочий и ответственности за интерфейс взаимодействия между аналитиком-человеком и ИИ;
  • Разработать надежную подготовку аналитиков по анализу дезинформации и ограничениям ИИ и машинного обучения;
  • Создать систему мониторинга для цепочки обнаружения дезинформации с упором на улучшение обучающих наборов для наборов данных машинного обучения на основе критического обзора разрешенных случаев и в свете новых данных.

ИИ и машинное обучение (пока) не являются святым Граалем для обнаружения дезинформации. Но мы можем проектировать эти системы и их успешное взаимодействие с людьми, которые управляют ими и полагаются на них.