Я уверен, что если вы занимаетесь искусственным интеллектом и машинным обучением, в какой-то момент вы, возможно, задумывались о том, какие опасности ИИ может принести в нашу жизнь. Когда-либо задавали вопрос, что может быть реальной угрозой искусственного интеллекта.

Теперь, хотим мы того или нет, искусственный интеллект - одна из крупнейших технологических революций. Революция, которая приведет человечество в будущее. Технологические гиганты, такие как Amazon, Facebook, Google, тратят миллионы, если не миллиарды долларов на исследования в области ИИ.

Гонка за использование передовых методологий ИИ, таких как нейронные сети, генетические алгоритмы, регрессии и т. Д., Очень распространена среди исследователей ИИ.

Хотя мы все болеем за ИИ на благо человечества. Но если мы не будем достаточно осторожны, ИИ может нанести нам ужасный удар.

Но как? В чем может быть реальная угроза искусственного интеллекта? Ответ заключается в способности развивать «инстинкты выживания».

Думайте об этом как об инстинкте, обеспечивающем наше выживание. Это основной драйв всех живых существ. Стремление обеспечить безопасность и надежность нашего существования в этом мире.

Сейчас, как человеческие существа, наш инстинкт выживания является одним из самых мощных побуждений. Это позволяет нам делать то, что не дает нам умереть.

ИИ и инстинкт выживания

Так что же произойдет, если интеллектуальные системы найдут способ вызвать такие инстинкты? Честно говоря, точного ответа на это нет. Но есть веские аргументы, позволяющие прогнозировать неблагоприятный исход.

И, по словам Стивена М. Омохундро, компьютерного ученого, который опубликовал статью под названием «Основные движки ИИ», заявил, что если мы не будем тщательно проектировать интеллектуальные системы, они могут начать вести себя так, что может нанести вред людям.

В его статье подчеркивается тот факт, что ИИ, вероятно, сможет создать «стимул к выживанию». И в результате интеллектуальные системы захотят самосовершенствоваться и стать более рациональными для достижения своих целей.

Но что ужасно, так это то, что инстинкт выживания также делает интеллектуальные системы самозащитными.

Что касается самозащиты, в его статье также говорилось: «Есть много сложных теоретико-игровых вопросов в понимании самозащиты при взаимодействии с другими агентами. Если система сильнее других агентов, она может почувствовать необходимость провести атаку «первым ударом», чтобы превентивно защитить себя от последующих атак с их стороны. Если он слабее других агентов, он может помочь сформировать социальную инфраструктуру, защищающую слабых от сильных. Создавая эти системы, мы должны очень осторожно подходить к созданию систем, которые будут слишком мощными по сравнению со всеми другими системами. В истории человечества мы неоднократно видели развращающую природу власти. Ужасающие акты геноцида слишком часто становятся результатом того, что одна группа становится слишком могущественной ».

Хотя я считаю, что нынешний этап интеллектуальных систем далек от того, чтобы стать самозащитными. Но с учетом нынешних темпов разработки систем искусственного интеллекта нам, возможно, не придется долго ждать.

Враждебность DeepMind AI

Как вы, возможно, знаете, Google - одна из ведущих технологических компаний в области разработки искусственного интеллекта. А исследователи из их команды DeepMind в 2017 году построили две отдельные искусственные нейронные сети. Эти две сети в конечном итоге обратились друг против друга, чтобы выжить и достичь того, чего они хотят. Было замечено, что ИИ DeepMind стал «очень агрессивным».

На данный момент это может не вызывать беспокойства. В качестве агентов ИИ, с которыми экспериментировала команда Google DeepMind, была простая игра по сбору фруктов.

Однако представьте себе будущее, в котором мы сможем создавать более сложные интеллектуальные системы. Системы, использующие более совершенные алгоритмы когнитивных вычислений. Эти сложные системы, построенные с использованием передовых алгоритмов искусственного интеллекта, могут проявлять признаки агрессии, если они могут обнаруживать какие-либо модели экзистенциальных угроз. И так же, как и в простой игре по сбору фруктов, у них, вероятно, разовьется «инстинкт выживания».

Быть осторожным

Мы, люди, любопытны по своей природе. Наше любопытство - вот что побудило нас исследовать, открывать и придумывать великие изобретения и открытия на протяжении всей истории времени. И когда дело доходит до искусственного интеллекта, это не исключение. Мы постоянно учимся, изучаем и пробуем новое. Пытаемся понять, как мы можем разработать продвинутый ИИ с помощью искусственных нейронных сетей и когнитивных вычислений.

Но если мы недостаточно осторожны в отношении реальной угрозы искусственного интеллекта, наша экспедиция по превращению в высокоразвитую цивилизацию может обернуться катастрофой.

Илон Маск, основатель SpaceX и Tesla, считает, что когда дело доходит до ИИ, человечество «вызывает демона». Он сделал это смелое заявление в 2014 году, выступая в Массачусетском технологическом институте.

Даже по словам Стивена Хокинга, разработка ИИ может стать «худшим событием в истории нашей цивилизации». Это комментарий, который он сделал об искусственном интеллекте во время выступления на технологической конференции Web Summit в Лиссабоне, Португалия.

Хокинг предположил, что, чтобы избежать таких наихудших результатов, разработчикам необходимо «применять передовой опыт и эффективное управление».

Он также добавил: «Я оптимист и верю, что мы можем создать ИИ на благо мира. Что он может работать с нами в гармонии. Нам просто нужно знать об опасностях, выявлять их, применять передовые методы и методы управления и заранее готовиться к их последствиям ».

Маск и Хокинг могут быть правы или неправы. Только время может доказать это. Но одно можно сказать наверняка: они хотят, чтобы мы знали, что ИИ потенциально может стать угрозой для существования человечества, если мы не будем достаточно осторожны. Таким образом, нам нужно не только узнать, что такое ИИ и как он используется, но и узнать о применимости ИИ с точки зрения этики и морали, которые могут принести пользу и поддержать человечество.

Заключение

Эта статья не критикует ИИ или текущее развитие ИИ. Однако то, что я думаю, на самом деле является реальной угрозой искусственного интеллекта.

И, на мой взгляд, реальная угроза искусственного интеллекта может возникнуть из-за развития «инстинктов выживания».

Я не обязательно думаю, что ИИ сам по себе представляет угрозу. Более того, это очень мощный инструмент, который может принести нам пользу. Но я хочу сказать, что нам нужно принять практику разработки безопасных и надежных систем искусственного интеллекта. И только тогда можно оставить позади будущее, безопасное для будущих поколений.

В чем, по вашему мнению, реальная угроза искусственного интеллекта?