Искусственный интеллект стал ключевым компонентом многих аспектов нашей повседневной жизни, начиная с виртуальных личных помощников, таких как Siri, Alexa и Google Assistant к предложениям от наших любимых музыкальных и телевизионных сервисов подписки. Перспективы ИИ побудили многих попытаться использовать его для общественной пользы. Но есть также опасения по поводу возможного неправильного использования.

Это уже является важным соображением, когда программисты создают системы ИИ со специфическими функциями, такими как беспилотные автомобили. Сегодня так называемый узкий ИИ, предназначенный для решения одной конкретной задачи, не способен действовать самостоятельно. Он разработан с единственной целью — дать людям возможность более эффективно выполнять свою задачу.

Доктор Стюарт Рассел — один из истинных пионеров искусственного интеллекта, который десятилетиями был в авангарде этой области. По словам Рассела, хотя эти приложения и ожидаемые разработки в области ИИ чрезвычайно интересны; другие, такие как разработка автономного оружия и замена людей и экономических ролей, могут вызывать глубокую тревогу.

Опасность будущего ИИ заключается в том, что общий ИИ может очень хорошо выполнять множество различных задач. Это компьютерный разум, который совершенствуется, учится и думает, как человек, или даже превосходит уровень человеческого интеллекта. Гипотетический сценарий, в котором ИИ становится доминирующей формой интеллекта на Земле, а компьютеры или роботы эффективно отнимают контроль над планетой у людей, стал предметом споров в общественном воображении. Беспокойство возникает из-за того, что машины могут стать умнее по всем направлениям, что они разовьют возможности общего назначения. Возможные риски, связанные с созданием систем, которые умнее нас, не являются немедленными, но необходимо начать думать о том, как держать эти системы под контролем и убедиться, что поведение, которое они производят, и решения, которые они принимают, приносят нам пользу. Мы должны начать проводить это исследование сейчас.

В истории ядерной физики был очень известный случай, когда ведущий физик-ядерщик Эрнест Резерфорд сказал, что извлечение энергии из атомов невозможно и всегда останется невозможным. Уже на следующий день Лео Силард изобрел цепную ядерную реакцию и в течение нескольких месяцев сконструировал первую атомную бомбу. Таким образом, иногда это может перейти от «никогда» и «невозможно» к тому, чтобы это произошло менее чем за 24 часа.

В отличие от людей, многие системы с ИИ не в состоянии понять последствия своих действий. Таким образом, уместным является вопрос о том, какой уровень контроля должен быть им предоставлен, и следует ли им вообще разрешать действовать автономно в определенных ситуациях. Ввиду недавних предупреждений исследователей и предпринимателей о том, что искусственный интеллект может стать слишком умным, крупные игроки в области технологий думают о сохранении человеческого контроля. Одним из таких методов является разработка выключателя AI Kill Switch. Это будет технология, которая не позволит системам ИИ взять на себя управление своей судьбой. Концепция AI Kill Switch уже выдвигалась многими видными экспертами в области искусственного интеллекта. Впервые он был поднят экспертами по искусственному интеллекту в 2013 году, когда технология DeepMind продемонстрировала способность их компьютерной программы AlphaGo обыграть одного из лучших игроков в го в мире. Алгоритмы глубокого обучения извлекают важную информацию из объемов данных, которые обычно находятся за пределами человеческого понимания. Но что, если интеллект машин станет настолько превосходным, что люди потеряют над ним контроль?

Мы уже видели большой прогресс в области мозго-машинных интерфейсов, которые позволяют, например, полностью парализованному человеку управлять рукой робота, взять чашку кофе и выпить. Это делается путем прямого подключения электродов к нервной ткани. Самое удивительное в этом то, что мы не понимаем сигналов, которые мозг использует для управления своими эффекторами: руками, ногами и так далее. По сути, мы оставляем на усмотрение мозга выяснить, какие сигналы нужно послать этому роботу-манипулятору, чтобы он делал то, что делает. Это не осознанный процесс.

Просто исходя из здравого смысла, если вы горилла, счастливы ли вы, что появилась человеческая раса, и они умнее вас? Таким образом, существует угроза того, что наличие вещей умнее нас может быть потенциально рискованным. Особый риск наличия систем умнее нас связан с тем фактом, что когда мы ставим перед очень умной системой задачу, она ее выполняет. Он не захочет быть выключенным, потому что, если мы выключим его, он не сможет достичь цели, которую мы ему дали. Итак, мы, по сути, устраиваем шахматный матч между человечеством и машинами, которые умнее нас, и мы знаем, что происходит, когда мы играем в шахматы против машин.

Исследователи признают, что роботы не всегда могут вести себя оптимально, но они надеются, что в конечном итоге ответственность за них должны взять на себя люди. Поэтому некоторые исследователи призывают к международным усилиям по изучению возможности ИИ Kill Switch, о котором мы говорили ранее. По их словам, будущие разведывательные машины должны быть закодированы с помощью аварийного выключателя, чтобы они не вышли из-под контроля. AI Kill Switch — это механизм ограничения машинного интеллекта, с помощью которого люди, сохраняющие контроль, могут вмешиваться, чтобы отменить процесс принятия решений.

Существующие слабые системы ИИ можно отслеживать и легко отключать и модифицировать, если они работают неправильно. Однако неправильно запрограммированный сверхразум, который по определению умнее людей в решении практических проблем, с которыми он сталкивается в ходе достижения своих целей, осознал бы, что позволение отключать и модифицировать себя может вмешиваться в его способность достигать своих текущих целей. Таким образом, если сверхразум решит сопротивляться отключению и модификации, он будет достаточно умен, чтобы перехитрить своих людей-операторов и другие попытки отключить его.

Рассел постулирует, что было бы разумно создавать оракулы в качестве предшественников сверхинтеллектуального ИИ. Оракул — это гипотетический ИИ, созданный для ответов на вопросы, но он не может достигать каких-либо целей или подцелей, связанных с изменением мира за пределами его ограниченной среды. Оракул может подсказать людям, как успешно создать сверхинтеллектуальный ИИ, и, возможно, дать ответы на сложные моральные и философские проблемы. Оракул также можно использовать для определения того, как человеческие ценности преобразуются в инженерную спецификацию сверхразума. Это позволило бы заранее узнать, будет ли предложенный проект сверхразума безопасным или небезопасным для создания. Рассел предложил новое решение, новые отношения между человеком и компьютером для решения проблемы сверхразума. Он думает об этом так: все хорошее, что есть в нашей жизни, все, из чего состоит цивилизация, есть результат нашего разума.

Итак, если ИИ, как кажется, может усилить наш интеллект, может предоставить инструменты, которые сделают этот мир намного более разумным, чем он был, тогда мы могли бы говорить о золотом веке для человечества с, возможно, устранением болезней. , бедность, решение проблемы изменения климата; все облегчается с помощью этой технологии. Потенциал очень велик, и именно поэтому мы должны убедиться, что спада не произойдет.

Маянк Сароха — бизнес-консультант Tata Consultancy Services в регионе Индии, Ближнего Востока и Африки, а также участник программы стратегического лидерства TCS. Окончил IIM Bangalore (MBA — Cohort of 22).