Является ли автоматизированное предотвращение преступлений этически обоснованным?

Текущие исследования в области компьютерных наук в таких областях, как машинное зрение, машинное обучение, сбор данных и исследования дронов, имеют серьезные последствия для будущего вычислений и того, как мы взаимодействуем с технологиями. Одним из способов воздействия автоматизации на общество является то, как ее можно использовать для предотвращения преступлений. Уже разрабатываются системы, позволяющие машинам использовать огромные объемы данных из хранилищ, камер. и другие датчики для классификации людей, их действий и реагирования на текущую преступную деятельность. Некоторые исследователи предполагают, что использование огромных объемов данных из социальных сетей, полицейских баз данных и общедоступных камер видеонаблюдения можно использовать даже для профилирования людей и определения вероятности того, что они могут участвовать в преступной деятельности в будущем. Поскольку эта конкретная область исследований настолько нова и неразвита, у людей еще не было времени оценить, являются ли эти системы этически обоснованными и безопасными. Потенциальные последствия таких технологий еще не изучены и не определены и могут привести к антиутопическому будущему, в котором людей судят, приговаривают и наказывают машины еще до того, как они совершат преступление. С другой стороны, это исследование может привести к началу эры значительного снижения уровня преступности и повышения чувства общественной безопасности.

Министерство юстиции США и General Electrics недавно опубликовали отчет под названием «Автоматизированное обнаружение и предотвращение беспорядков и преступной деятельности», в котором задокументированы текущие исследования и результаты тестирования новой системы, предназначенной для классификации, выявления и уведомления о преступной деятельности с использованием база собранных данных с камер видеонаблюдения. Система предназначена для использования в многолюдных местах, таких как парки, тюрьмы и школы, и способна определять и классифицировать семантически высокое и низкое групповое поведение. Его исследователи заявили, что система выходит за рамки простого распознавания движений и образов и может оценивать «значимые социальные отношения» между людьми и группами и использует эту информацию для распознавания сценариев. Система может даже обучаться и адаптироваться к новым событиям с течением времени, и чем шире она развернута, тем умнее она становится.

Еще одна система, испытываемая военными, способна развертывать «роботы-убийцы» или рой микродронов для наблюдения, картографирования и, в конечном итоге, обнаружения и уничтожения целей. Их можно купить оптом миллионами, и они достаточно малы, чтобы оставаться незамеченными глазом с расстояния более нескольких футов. В верхней части дрона находится камера, используемая ИИ пилота и система наведения для полета, а также кумулятивный заряд взрывчатого вещества, предназначенный для пробивания черепа цели.

Если эти технологии звучат пугающе и напоминают о том, что может использовать антиутопическое государство наблюдения, вы, вероятно, не слишком далеки от истины. Под предлогом борьбы с терроризмом и спасения жизней солдат правительство США и многих других стран мира уже активно разрабатывает такие технологии и вскоре будет готово развернуть их в любой точке мира. На самом деле, среди правозащитников и организаций политических активистов широко распространено мнение, что многие страны уже обладают такими возможностями и тайно испытывают их. Развертывание таких технологий устраняет человеческий фактор, обеспечивающий соблюдение закона, и, по сути, устраняет затраты и непомерно высокие человеческие жертвы при ведении войны. Это особенно опасно, потому что человеческое сочувствие является ключевым фактором, не позволяющим многим из нас уничтожить друг друга в первую очередь. Наличие роботов, «читающих» людей и определяющих, представляют ли они угрозу при минимальном контроле со стороны человека, вполне может привести к скользкому пути создания репрессивных технологий и их использования против населения в целом. Алгоритмы не безошибочны, и в автоматизированную систему легко внести предвзятость. Эти машины могут нацеливаться на меньшинства, определенные подгруппы, женщин, детей и казнить людей без должного суда.

Уже закладывается фундамент для технологий, позволяющих правоохранительным органам и частным организациям выявлять преступления до того, как они произойдут. Страшное будущее с умными инструментами для борьбы с преступностью, круглосуточным наблюдением и «роботами-убийцами» — это уже не научная фантастика, а реальность, с которой мы сталкиваемся сейчас. Законодатели представят аргумент, что эти технологии могут спасти жизни и приведут к усилению общественной безопасности. Хотя эти технологии могут быть использованы на благо общества и общего блага, вероятность того, что они будут украдены террористическими группами и странами-изгоями и адаптированы для гнусных целей, слишком высока, чтобы ее игнорировать. Мы не можем игнорировать угрозу вооруженного ИИ и автоматизированных правоохранительных систем, пока мы по-прежнему ценим такие идеалы, как свобода и право на надлежащую правовую процедуру.

Источники:

Отчет GE NIJ: https://www.ncjrs.gov/pdffiles1/nij/grants/235579.pdf

Разведчик ИИ Вооруженный ИИ Пропоганда: https://scout.ai/story/the-rise-of-the-weaponized-ai-propaganda-machine