Почему большинство антиутопических сценариев, связанных с ИИ, не выдерживают испытания временем

«Сводит ли вас с ума вера в то, что вы последний здравомыслящий человек на планете? Потому что, если это так, может быть, и я ». - Детектив Дель Спунер в фильме« Я, робот »

Говоря об искусственном интеллекте (ИИ), люди часто пугаются и думают о скором конце света. Технофобия, хорошо известное явление, объединяет человеческий страх или ненависть к передовым инновациям или сложным гаджетам, особенно к ПК. Применительно к технологии искусственного интеллекта есть в основном два типа паники: возможность того, что ИИ осознает и попытается уничтожить нас. Идея о том, что коррумпированные люди будут использовать ИИ в коварных целях. Обоснованы ли эти «типичные» страхи и следует ли нам бояться ИИ? Как формируются и накапливаются эти страхи?

Влиятельные люди в науке и технологиях, такие как Стивен Хокинг, который публично высмеивал ИИ, называя лучшее или худшее, что когда-либо могло случиться с человечеством, или Илон Маск говорили о том, как роботы на базе ИИ будут истреблять людей. . Маск, которого беспокоит то, что может произойти, предположил, что роботы могут удалять людей как спам, и даже сказал в удаленном после этого комментарии, что роботы-убийцы могут появиться к 2019 году. реальная угроза »заключается не в машинном обучении быстрее, чем мы, а в событии, известном как сингулярность: теоретическая точка, когда технологический рост становится неконтролируемым и необратимым, что приводит к непредвиденным изменениям в человеческой цивилизации.

Я робот

Еще в 1950-х годах Айзек Азимов обратился к вопросу об исключительности и всемогуществе машины над людьми и установил следующие три правила:

  • Первый закон: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  • Второй закон: робот должен подчиняться приказам людей, за исключением случаев, когда такие приказы противоречат Первому закону.
  • Третий закон: Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму закону.

Даже если эти роботы правильно следуют этим правилам, мы все еще не знаем, будут ли они продолжать это делать. Поэтому важно понимать, что технологии далеки от создания идеальных гуманоидных роботов. Помимо технических препятствий, другая важная проблема заключается в нашей неспособности точно определить, как работает интеллект. Таким образом, здесь необходимо ответить на вопрос: возможно ли, что когда-нибудь роботы будут хорошими лицами, принимающими решения, то есть они смогут действовать в соответствии с этическими принципами и исходя из них? На мой взгляд, мы не можем ответить на вопрос, что ИИ может делать с объектом: что мы позволяем ему делать. И поэтому прекращение морально-этической дискуссии, поскольку она станет излишней. Но все ли так просто? Нет, на то, что мы разрешаем или нет, влияют моральные (человеческие) соображения.

Однако, если мы внимательно рассмотрим сценарии судного дня с участием гуманоидных роботов, мы поймем, что они могут вообще не сработать. Например, этот сценарий не объясняет, почему истребление людей должно быть логическим следствием этих роботов-убийц.

Возможно, аргументация Нила Якобштейна, председателя отдела искусственного интеллекта и робототехники в Университете сингулярности, ближе к истине, чем мрачные роботы-убийцы. Как и его коллега и футурист Питер Диамандис, оба боятся не искусственного интеллекта, а человеческой глупости. Что может случиться, когда люди решат создавать приложения ИИ для зла? Каковы будут последствия, если неправильные люди будут иметь власть над неоднозначными приложениями ИИ?

Коррумпированные люди, использующие ИИ для зла

Как ИИ может способствовать злу? Цель внедрения приложений искусственного интеллекта для разрушения хаоса называется темным ИИ. По словам Марка Миневича, эта общая терминология подразумевает любое злодеяние, которое автономная система способна выполнить при правильных входных данных (предвзятые данные, непроверенные алгоритмы и т. Д.). Сценарии, которые он перечисляет, варьируются от экономических злоупотреблений до нарушения конфиденциальности и становятся реальными угрозами, учитывая злонамеренные приложения ИИ, такие как интеллектуальная пыль и дроны, распознавание лиц и наблюдение, фальшивые новости и боты, а также прослушивание интеллектуальных устройств.

Есть приложения, у которых есть этические недостатки - они включены в несоответствующий ИИ. Такие приложения работают по назначению, но результаты сомнительны. По сути, то, что люди могут создавать, разрабатывать и внедрять эти приложения, не означает, что они должны быть такими. Есть несколько примеров тому. Например, нам нужно более внимательно изучить, как боты распространяют фейковый новостной контент через учетные записи социальных сетей (президентские выборы 2016 года). Именно такое вмешательство приносит пользу людям с конкретными намерениями. Как только целевая аудитория открыта для потенциально вредных идей, люди могут воспользоваться этим страхом, нанести личный или деловой ущерб или даже вмешаться в деятельность правительства. Forbes предлагает компаниям и правительствам рассматривать этот контент с поддержкой ИИ как угрозу кибербезопасности и требовать от них соответствующих действий. Что именно это означает? Согласно Forbes, мир совершенно не готов к использованию ИИ против незащищенных граждан.

Одним из самых обсуждаемых AI-приложений в последние годы было распознавание лиц (такие возможности назывались обработкой изображений 15 лет назад, но сегодня обычно называются AI). Знаете ли вы, что исследование, проведенное Национальным институтом стандартов и технологий (NIST), показало, что эти системы чаще ошибочно идентифицируют цветных людей, чем белых? Более того, вероятность ошибочной идентификации у людей азиатского и афроамериканского происхождения была в 100 раз выше, чем у белых мужчин среднего возраста. Но, как показало исследование, алгоритмы также неверно идентифицируют пожилых людей, женщин и детей со значительно большей частотой. Вероятно, неудивительно, что белые мужчины среднего возраста обычно получали самые высокие показатели точности. По данным The Verge, NIST изучил 189 алгоритмов от 99 организаций, которые вместе взятые составляют основу большинства используемых систем распознавания лиц.

Является ли антиутопия логическим следствием?

Мы знаем разные способы разжигания необоснованных опасений. Различные способы искажения новостей или осуждения фактов как фальшивых новостей. Мы понимаем, как приложения искусственного интеллекта создают поддельные изображения и распространяют их, чтобы скомпрометировать глубоко поддельные изображения и видео (так называемые дипфейки).

Так как роботов-убийц еще нет и вероятность того, что технологические достижения людей по сравнению с другими людьми кажутся более вероятными, более высока, нам нужно знать, следует ли и как нам вообще бояться или развивать страх. Или, другими словами: где стоит присмотреться? Как мы должны научиться точно определять, что находится в опасности? С учетом достигнутых успехов угроза ИИ, похоже, влияет не столько на нашу физическую неприкосновенность, сколько на наши социальные нормы и свободы как граждан. Другими словами: мы должны внимательно изучить приложения Dark AI и их потенциально катастрофические последствия.

Таким образом, очевидно, что мы должны обеспечить, чтобы многие люди имели право голоса и вносили свой вклад при обсуждении приложений ИИ. В конечном итоге мы должны узнать о важнейших аспектах ИИ и сформировать мнение о том, как его следует использовать. Для этого мы должны попытаться понять ИИ как политическую и социальную идеологию, а не только как алгоритмы, поскольку мы являемся пользователями, бенефициарами и отчасти жертвами этого технологического прогресса. Важно знать, что в чужих руках ИИ представляет собой более серьезную опасность, чем роботы-убийцы из научной фантастики. Следовательно, необходимо сделать больше для обеспечения включения, равенства и справедливости при разработке таких приложений. Это требует нашего внимания и сотрудничества как граждан, людей и участников экосистемы, в которой мы живем. У нас нет выбора в этом вопросе: машинное обучение, глубокое обучение и все другие аспекты ИИ уже здесь, и они есть. здесь, чтобы остаться.

Так что ты будешь делать?