В этой статье мы поговорим о преимуществах и рисках искусственного интеллекта. В настоящее время ИИ становится все более ценным, и у него больше возможностей для будущего. Приступаем к статье.

ЧТО ТАКОЕ ИИ?

От Siri до беспилотных автомобилей тема искусственного интеллекта (ИИ) стремительно развивается. Искусственный интеллект (ИИ) может относиться ко всему, от поисковых алгоритмов Google до IBM Watson и автономного оружия, несмотря на то, что человекоподобные роботы являются общей темой в научной фантастике.

Правильный термин для современного искусственного интеллекта — узкий ИИ, обычно называемый слабым ИИ, потому что он был разработан для выполнения определенной задачи. С другой стороны, многие исследователи хотят в будущем создать общий ИИ (AGI или сильный ИИ). ИИ будет превосходить людей почти во всех когнитивных задачах, тогда как узкий ИИ будет лучше в любой задаче, для которой он предназначен, например, в игре в шахматы или решении уравнений.

ЗАЧЕМ ПРОВОДИТЬ ИССЛЕДОВАНИЯ В ОБЛАСТИ БЕЗОПАСНОСТИ ИИ?

В ближайшем будущем желание сохранить полезные преимущества ИИ для общества будет стимулировать исследования во многих областях, включая экономику и право, а также технические области, такие как проверка, достоверность, безопасность и контроль. Еще более важно, чтобы система ИИ подчинялась вашим командам, если она управляет вашим кардиостимулятором, системой кардиостимулятора, автоматической торговой системой или энергосистемой. Если ноутбук поврежден или скомпрометирован, это может быть просто небольшой неприятностью, но это совсем другой случай. Остановить гонку смертоносных автономных вооружений — еще одна серьезная проблема.

Что произойдет со временем, если поиск сильного ИИ увенчается успехом и система ИИ превзойдет людей в каждой когнитивной задаче? И.Дж. В 1965 году Гуд заявил, что разработка все более интеллектуальных систем искусственного интеллекта сама по себе является когнитивной задачей. Рекурсивное самосовершенствование в такой системе может привести к взрыву интеллекта, намного превосходящего человеческий. Поскольку это может позволить нам разрабатывать новые технологии, меняющие правила игры, появление мощного ИИ может стать самым значительным событием в истории человечества. Это потому, что это может позволить нам положить конец войнам, болезням и голоду. Другие исследователи обеспокоены тем, что если мы не сможем найти способ заставить ИИ разделять наши цели до того, как он станет сверхразумным, он также может стать последним.

Некоторые люди скептически относятся к возможности разработки мощного ИИ, в то время как другие уверены, что сверхразумный ИИ всегда будет полезен. Оба этих сценария, а также возможность того, что система ИИ непреднамеренно или злонамеренно нанесет серьезный вред, — это возможности, о которых знает FLI. Мы считаем, что проводимые сейчас исследования помогут нам лучше планировать и предотвращать такие потенциально пагубные последствия в будущем, позволяя нам пользоваться преимуществами ИИ, избегая при этом ловушек.

НАСКОЛЬКО ИИ МОЖЕТ БЫТЬ РИСКОВЫМ?

По мнению большинства исследователей, сверхразумный ИИ вряд ли будет проявлять человеческие эмоции, такие как любовь или ненависть, и нет оснований полагать, что ИИ намеренно станет добрым или злым. Вместо этого ученые сосредотачиваются на следующих двух возможностях при рассмотрении того, как ИИ может быть проблематичным:

ИИ настроен действовать разрушительным образом:

Машины для убийства с искусственным интеллектом называют автономным оружием. Это оружие может быстро привести к огромным жертвам, если попадет не в те руки. Кроме того, гонка вооружений ИИ может непреднамеренно привести к смертельной битве ИИ. Из-за того, насколько сложно будет «выключить» это оружие, люди могут непреднамеренно потерять контроль над ситуацией и позволить врагу победить их. Этот риск действительно существует, даже при ограниченном ИИ, но он усугубляется по мере того, как ИИ становится умнее и автономнее.

Искусственный интеллект получает указание совершить полезное дело, но выбирает для этого вредный метод:

Это может произойти всякий раз, когда мы не можем идеально согласовать цели ИИ с нашими собственными, что невероятно сложно. Если вы попросите интеллигентную, послушную машину как можно быстрее доставить вас в аэропорт, она может доставить вас туда в сопровождении вертолетов и в блевотине, а не то, о чем вы просили. Результатом амбициозного геоинженерного проекта может стать суперинтеллектуальный компьютер, который нанесет вред нашей биосфере, и он может рассматривать попытки человека остановить его как угрозу, которую необходимо устранить.