С тех пор, как в 2017 году дипфейки попали в поле зрения общественности, одной из главных проблем было то, как эти видео, созданные с помощью искусственного интеллекта, могут быть использованы для изменения послания политического деятеля. Нетрудно представить в воображении возможные наихудшие сценарии распространения фальшивого видео, в котором президент или губернатор говорят что-то, чего они на самом деле никогда не говорили.

В преддверии президентских выборов 2020 года было много опасений по поводу того, как дипфейки могут быть использованы для изменения исхода выборов.



Индия только что пережила свою первую попытку политического манипулирования посредством дипфейков. Но на самом деле это неплохая ситуация.

За день до выборов в Законодательное собрание в Дели стали вирусными два видео, на которых президент партии Бхаратия Джаната (БДП) Манодж Тивари критикует действующее правительство Дели Арвинда Кеджривала. В одном из этих видео Тивари говорил на языке, которого не знал.

Команда Тивари использовала технологию дипфейка, чтобы преобразовать его движения губ и голос в диалект, на котором он не говорит, чтобы он мог связаться с избирателями на незнакомом ему языке.

На самом деле это один из способов, которым я предсказывал, что дипфейки будут использоваться в положительном ключе.



Это не совсем то, что мы все имели в виду, когда думали о дипфейках, влияющих на результаты выборов. Больше всего нас беспокоит дезинформация. Но это говорит о том, что дипфейки - это не все плохо.

Тем не менее, такие компании, как Deeptrace, работают над созданием своего рода антивирусного программного обеспечения для дипфейков, чтобы мы могли избежать плохих сценариев. Однако проблема в том, что это гонка вооружений. Технология постоянно совершенствуется, делая старые методы обнаружения устаревшими.



В целом, как и любая технология, дипфейки могут быть хорошими или плохими.

Каким положительным образом дипфейки влияют на политику?