Искусственный интеллект или ИИ - это способность цифрового компьютера или машины с компьютерным управлением выполнять задачи, обычно связанные с разумными существами, такие как визуальное восприятие, распознавание речи, принятие решений или перевод между языками.

Идея о том, что процесс человеческого мышления можно механизировать, на протяжении тысячелетий изучалась греческими, китайскими, индийскими и западными философами. Но исследователи считают статью Логическое исчисление идей, присущих нервной деятельности (McCulloch and Pitts, 1943) первой признанной работой в области искусственного интеллекта.

В 1946 году армия США представила ENIAC, первый программируемый электронный цифровой компьютер общего назначения. Гигантская машина изначально была разработана для расчета таблиц артиллерийской стрельбы, но ее способность выполнять различные инструкции означала, что ее можно было использовать для более широкого круга задач.

В 1950 году известный ученый-компьютерщик и математик Алан Тьюринг официально представил концепцию искусственного интеллекта в своей статье Вычислительные машины и интеллект. Он предложил тест Тьюринга, который проверял способность машины имитировать человеческий интеллект.

В 1956 году Дартмутская конференция по искусственному интеллекту, предложенная Джоном Маккарти, Марвином Мински, Натаниэлем Рочестером и Клодом Шенноном, положила начало области искусственного интеллекта и внушила ученым страх перед возможностью того, что электронный мозг действительно может думать.

В 1964 году Йозеф Вайценбаум создал ELIZA, интерактивную программу, которая ведет диалог на английском языке на любую тему. Популярной игрушкой она стала, когда была запрограммирована версия, имитирующая диалог психотерапевта.

С тех пор ИИ неоднократно фигурировал в научно-фантастических фильмах и телешоу, поражавших воображение публики. Кто не помнит HAL 9000, разумный и злонамеренный компьютер, который взаимодействует с астронавтами в 2001: A Space Odyssey?

Несмотря на первоначальный энтузиазм ученых, практическое применение искусственного интеллекта отсутствовало многие десятилетия, что заставило многих отвергнуть влияние ИИ на наше общество.

Только в конце 1980-х годов новая область исследований под названием глубокое обучение начала давать первые надежды на потенциал ИИ. К сожалению, вычислительная мощность в то время была все еще слишком медленной, чтобы ученые могли достичь каких-либо значимых прорывов.

И только в 1997 году, когда компьютер IBM Deep Blue победил чемпиона мира по шахматам Гарри Каспарова, к искусственному интеллекту стали относиться более серьезно.

В 2005 году DARPA спонсировало соревнование The Grand Challenge для продвижения исследований в области автономных транспортных средств. Задача заключалась в создании автомобиля-робота, способного проехать 175 миль по пустынной местности менее чем за десять часов без вмешательства человека. Конкурс дал старт коммерческой разработке автономных транспортных средств и продемонстрировал практические возможности искусственного интеллекта.

В 2011 году компьютер IBM Watson победил игроков-людей в турнире Jeopardy! Вызов". Шоу-викторина, известная своими сложными, хитрыми вопросами и очень умными чемпионами, была идеальным выбором для демонстрации прогресса искусственного интеллекта.

В 2016 году DeepMind Alpha Go победил Ли Седола, одного из лучших игроков в го в мире, в соревновании, которое лишило ученых и исследователей дара речи из-за сложности китайской настольной игры.

В связи с экспоненциальным развитием ИИ в последние годы ведущие ученые и предприниматели, такие как Билл Гейтс, Илон Маск, Стив Возняк и Стивен Хокинг, начали предсказывать конец света и предупреждать общество об опасности сверхразумный ИИ, который потенциально может быть очень опасным для человечества.

Что случилось? Почему некоторые из самых умных людей на Земле забили тревогу об опасностях искусственного интеллекта? Как может что-то вроде компьютера, на котором играет Go, представлять угрозу цивилизации?

Чтобы ответить на эти вопросы и проиллюстрировать, как ИИ станет самой важной технологией в следующие десятилетия, нам нужно понять различные существующие типы ИИ, где мы находимся с точки зрения развития технологий и как они работают.

Слабый искусственный интеллект (WAI)

Слабый искусственный интеллект, также известный как узкий искусственный интеллект, - единственный тип ИИ, который мы разработали до сих пор. WAI специализируется только в одной области знаний, и мы можем испытывать ее каждый день, хотя мы редко замечаем ее присутствие.

Простые вещи, такие как фильтры спама в электронной почте, загружены элементарным интеллектом, который учится и изменяет свое поведение в режиме реального времени в соответствии с вашими предпочтениями. Например, если вы несколько раз помечаете определенного отправителя как нежелательную почту, WAI автоматически распознает его как спам, и вам больше не нужно будет помечать его снова.

Google также является продвинутым WAI. Он грамотно ранжирует результаты, выясняя среди миллионов переменных, какие из них имеют отношение к вашему конкретному поиску и контексту.

Другими примерами WAI являются приложения для распознавания голоса, языковые переводчики, Siri или Cortana, автопилоты в автомобилях или самолетах, алгоритмы, управляющие торговлей акциями, рекомендации Amazon, предложения друзей из Facebook и компьютеры, которые побеждают чемпионов по шахматам или Jeopardy! игроков. Даже у автономных транспортных средств есть WAI, чтобы контролировать их поведение и позволять им видеть.

Слабые системы искусственного интеллекта развиваются медленно, но они определенно облегчают нашу жизнь и помогают людям работать более продуктивно. Они совсем не опасны. Если они будут плохо себя вести, ничего сверхсерьезного не произойдет. Может быть, ваш почтовый ящик будет забит спамом, торговля на фондовой бирже остановится, беспилотный автомобиль сломается или атомная электростанция будет отключена.

WAI - это ступеньки к чему-то гораздо большему, что определенно повлияет на мир.

Сильный искусственный интеллект (SAI)

Сильный искусственный интеллект, также называемый общим искусственным интеллектом, представляет собой тип ИИ, который позволяет машине иметь интеллектуальные способности или набор навыков не хуже людей. Еще одна идея, часто связанная с SAI, - это возможность передавать обучение из одной области в другую.

Недавно алгоритм научился играть в десятки игр Atari лучше, чем люди, без каких-либо предварительных знаний о том, как они работают. Это удивительная веха для искусственного интеллекта, но до ВОФК еще далеко.

Нам нужно освоить множество слабых систем искусственного интеллекта и заставить их действительно хорошо выполнять свою работу, прежде чем приступить к созданию ВОФК с человеческими возможностями.

Компьютеры могут быть намного более эффективными, чем люди для логических или математических операций, но им сложно понять простые задачи, такие как определение эмоций в выражениях лица, описание сцены или различение нюансов тонов или сарказма.

Но насколько мы далеки от того, чтобы позволить компьютерам выполнять задачи, которые могли бы выполнять только люди? Чтобы ответить на этот вопрос, нам нужно убедиться, что у нас есть доступное оборудование, по крайней мере, такое же мощное, как человеческий мозг. Мы почти на месте.

Ученые оценивают скорость человеческого мозга примерно в двадцать пета FLOPS. В настоящее время только одна машина, китайский суперкомпьютер Тяньхэ-2, может заявить, что она быстрее человеческого мозга. Это стоит 400000000 долларов, и, конечно же, это недоступно для исследователей в области ИИ. Просто для сравнения: в 2015 году средний ПК за 1000 долларов примерно в 2000 раз менее мощен, чем человеческий мозг.

Но подождите несколько лет, и экспоненциальные технологии сотворит чудеса. Футуристы, такие как Рэй Курцвейл, очень оптимистичны в отношении того, что мы достигнем одной способности человеческого мозга за 1000 долларов примерно к 2020-м годам и одной способности человеческой расы за 1000 долларов в конце 2040-х годов. В начале 2060-х годов у нас будет сила всего человеческого мозга на Земле всего за один цент.

Как вы можете заключить из этих расчетов Курцвейла, вычислительные мощности не будут препятствием для создания сильного искусственного интеллекта. На самом деле, даже если мы будем делать пессимистические прогнозы в соответствии с текущими тенденциями, продиктованными законом Мура, мы достигнем этих возможностей через несколько десятилетий. Это просто вопрос времени, когда оборудование станет в миллиарды раз мощнее, чем весь человеческий мозг вместе взятый.

Основные трудности в создании сильного искусственного интеллекта лежат в программной части или в том, как мы сможем воспроизвести сложные биологические механизмы и коннектом мозга, чтобы компьютер мог научиться думать и выполнять сложные задачи.

Есть много компаний, институтов, правительств, ученых и стартапов, работающих над обратным проектированием мозга, используя различные методы и рассчитывая на помощь нейробиологии. Оптимисты считают, что мы сможем провести полную симуляцию мозга примерно к 2030-м годам. Пессимисты считают, что к 2070-м годам мы этого добьемся.

Теоретически могут потребоваться десятилетия, чтобы компьютер был таким же умным, как пятилетний ребенок, но сильная система искусственного интеллекта будет самой революционной технологией из когда-либо созданных.

ВОФК будущего будет более мощным, чем люди, в большинстве задач, потому что он будет работать в миллиарды раз быстрее, чем наш мозг, с неограниченным хранилищем и без необходимости отдыхать. Первоначально ВОФК сделает мир лучше, более эффективно выполняя человеческую работу.

Причина, по которой технические провидцы и ученые озабочены изобретением сильного искусственного интеллекта, заключается в том, что у компьютерного интеллекта нет морали; он просто следует тому, что написано в его коде.

Если ИИ запрограммирован, например, на избавление от спама, он может решить, что уничтожение людей - лучший способ правильно выполнять свою работу.

Кроме того, есть опасения, что ВОФК окажется на пороге человеческого интеллекта всего лишь на короткое время. Его способность рекурсивно программировать себя сделает его экспоненциально более мощным по мере того, как он станет умнее.

Рекурсивное самосовершенствование работает так. Первоначально SAI запрограммирован сам по себе, что было бы эквивалентом, скажем, двух человек. Поскольку машина имеет доступ к огромным вычислительным мощностям, она может умножить количество «программистов» на десятки всего за несколько часов.

В течение нескольких дней эти эквивалентные человеку «программисты» совершили бы так много научных открытий, что искусственный интеллект стал бы умнее среднего человека. Это коснется и его «программистов», которые могли бы быть умнее Эйнштейна.

В какой-то момент эта рекурсивная способность позволит любому сильному искусственному интеллекту стать на порядки умнее нас, породив первый суперинтеллект.

Суперинтеллект

В тот момент, когда ВОФК становится суперинтеллектом, мы можем потерять контроль над своим творением. Он может ожить в считанные часы без нашего ведома. Что происходит после появления суперинтеллекта, остается гадать. Это могло быть хорошо, плохо или некрасиво для человечества.

Плохой сценарий мы все знаем из таких фильмов, как Терминатор или Матрица. В этом случае люди будут уничтожены или порабощены, потому что они представляют угрозу выживанию суперинтеллекта.

Уродливый сценарий более сложен. Представьте, что произойдет, если одновременно возникнет несколько суперинтеллектов в таких странах, как США или Китай. Что случилось бы? Будут ли они бороться за превосходство, быть верными странам или программистам, которые их создали, или мирно сосуществовать и делиться властью? Никто не знает.

Хороший сценарий напомнил бы нам рай. Искусственный суперинтеллект был бы подобен альтруистическому Богу, который существует только для того, чтобы служить нам. Все проблемы человечества будут решены, и наша цивилизация уйдет в бесконечность и дальше.

Блестящие предприниматели, такие как Илон Маск, основатель Paypal, Tesla, SpaceX и SolarCity, повышают осведомленность о последствиях использования наших передовых технологий, особенно в области искусственного интеллекта.

По его собственным словам:

«Я считаю, что мы должны быть очень осторожны с искусственным интеллектом. Если бы мне пришлось угадывать, в чем заключается наша самая большая угроза существованию, наверное, так. Поэтому нам нужно быть очень осторожными.

Я все больше склоняюсь к мысли, что должен быть некоторый регулирующий надзор, может быть, на национальном и международном уровне, просто чтобы убедиться, что мы не делаем чего-то очень глупого ».

Все эти сценарии сейчас звучат как научная фантастика, но однажды они могут стать реальностью. Сравнение с ядерным оружием - хорошее сравнение. Во время холодной войны нас чуть не уничтожила технология, которую большинство людей считало научной фантастикой.

Так что, даже если есть малейшая вероятность того, что суперинтеллект может возникнуть в ближайшие 20 лет, мы должны волноваться, потому что это может быть нашим последним изобретением.

Мы не должны бояться насмешек и открыто обсуждать эти вопросы. Судьба нашей цивилизации будет полностью зависеть от мер безопасности и правил, которые мы сейчас применяем для наших технологий, чтобы избежать катастрофических сценариев.