Мир не готов к использованию ИИ на незащищенных гражданах

Собираемся ли мы в ближайшее время подключать зарядный кабель к микросхеме в нашем мозгу перед сном? Или мы будем уничтожены роботами-убийцами, такими как спам, страх, который уже выразил Илон Маск? Что, если ИИ - не лучшее, что может случиться с человечеством, а худшее?

В первую очередь, есть два вида страхов в отношении технологий ИИ: риск того, что ИИ станет осведомленным и попытается уничтожить нас, или того, что не те люди овладеют технологиями ИИ, чтобы причинить вред. Стивен Хокинг публично заявил, что считает ИИ лучшим или худшим делом, которое когда-либо происходило с человечеством. Илон Маск обсуждал, как роботы на базе искусственного интеллекта в конечном итоге уничтожат человечество. Маск указал, что роботы могут удалять людей как спам, и заявил, что роботы-убийцы могут появиться здесь к 2019 году. Этого, к счастью, пока не произошло (по состоянию на 2021 год). Но случится ли это?

Насколько реалистичны роботы-убийцы?

Это зависит от контекста, в котором мы определяем роботов-убийц: на поле боя автоматическое оружие использовалось десятилетиями. На войне важна скорость. Человек, вытащивший оружие, быстрее выживает. В тех случаях, когда люди не могут сравниться с темпами современной войны, вмешиваются машины.

Подобно системам автоматического торможения современных автомобилей, эти системы защиты существуют уже несколько десятилетий. Военные, как и производители автомобилей, постепенно наделяют машины большей автономией. В своей статье Неизбежны ли роботы-убийцы на базе искусственного интеллекта? Пол Шарр описал пример автоматизации на протяжении всего упражнения по цепочке уничтожения: сначала спутник заметил фиктивный вражеский корабль и направил самолет наблюдения, чтобы он подлетел ближе. для подтверждения идентификации. Затем самолет наблюдения передал эту информацию бортовому самолету управления и наведения, который выбрал военно-морской эсминец для атаки. Эта автоматизированная цепочка убийств давала офицерам в конце цепочки больше времени, чтобы решить, атаковать или нет.

С конца 1800-х годов крупные военные державы - будь то Соединенное Королевство и Германия или Соединенные Штаты и Советский Союз - сотрудничали, чтобы ввести законы в отношении чего угодно, от разорвавшихся пуль до горчичного газа и ядерных ракет. Целью всегда было смягчить вред войны. Однако существует тупиковая ситуация с автономным оружием, в основном вызванная двумя факторами: первый касается определений. Вторая - о разных концепциях автономного оружия и его технических характеристиках. Многие страны призвали ввести новые законодательные нормы, гарантирующие, что автоматизированные системы оружия находятся под контролем человека. Другие, например США, считают, что действующее международное право является адекватным. Однако двусмысленность в отношении того, что составляет существенное влияние человека, демонстрирует необходимость более подробных разъяснений в контексте нового международного права. Но что, если у нас закончится время и мы достигнем точки сингулярности с роботами-убийцами на поле боя?

Сингулярность - это теоретическая точка, где технологический рост становится неконтролируемым и необратимым, что приводит к непредвиденным изменениям человеческой цивилизации. Сингулярность поля боя, точка, в которой люди больше не могут идти в ногу с темпами войны.

Это не роботы-убийцы; это человеческая глупость

Если автономные системы оружия, уничтожающие нас (поскольку это оружие всегда находится под контролем человека), не являются реальной угрозой, то, возможно, страх Нила Якобштейна ближе к реальности: и он, и его коллега и футурист Питер Диамандис боятся человеческой глупости , а не искусственный интеллект. Что произойдет, если люди попытаются создать приложения искусственного интеллекта для злых целей?

Как ИИ может способствовать злу? Цель внедрения приложений искусственного интеллекта, чтобы сеять хаос, называется темный искусственный интеллект. Это широкое определение включает в себя любое злодеяние, которое автономная система способна выполнить при условии правильного ввода данных (предвзятые данные, нерегулируемые алгоритмы и т. Д.), По словам известного специалиста по цифровой когнитивной стратегии Марка Миневича. Предоставляет злонамеренные устройства ИИ, такие как интеллектуальная пыль и дроны, распознавание лиц и мониторинг, ложные новости и боты, а также интеллектуальное прослушивание компьютеров, сценарии, которые он перечисляет, варьируются от экономических нарушений до нарушения конфиденциальности.

Есть несколько таких примеров. Например, нам нужно исследовать, как боты распространяют фейковую новостную информацию через учетные записи социальных сетей (президентские выборы 2016 года). Этот метод вмешательства выгоден тем, кто преследует определенные цели. Люди могут использовать это беспокойство, чтобы нанести личный или деловой вред или даже вмешаться в деятельность правительства. Еще один пример того, как ИИ наносит вред обществу, - это приложения, которые создают и передают ложные изображения для компрометации глубоко поддельных изображений и видео (также известных как дипфейки). Согласно Forbes, компании и правительства рассматривают контент с поддержкой ИИ как проблему кибербезопасности и должны реагировать соответствующим образом. Но что это означает? Forbes утверждает, что мир совершенно не готов к использованию ИИ на незащищенных гражданах.

Больше контекста и разнообразия для ответственного ИИ

В мире, который все больше опирается на ИИ, приведенные выше примеры продемонстрировали необходимость большего контекста и инклюзивности. Эти приложения уже влияют на наши социальные ценности и свободы. В результате мы должны привнести больше разнообразия, контекста и понимания различных социальных структур в процесс развития. Наконец, я считаю, что мы, граждане, должны узнавать о возможностях ИИ - как отрицательных, так и положительных.

Мы являемся потребителями, бенефициарами и получателями этой технической инновации. В будущем ИИ будет проникать во все больше и больше сфер нашей повседневной жизни, поэтому крайне важно, чтобы мы посмотрели, как эти инновации влияют на нас. Следовательно, мы должны стремиться рассматривать ИИ как политическую и социальную философию, а не как приложение, основанное на нейтральных алгоритмах.