Практически всем известна поговорка: «История повторяется». Удивительно, насколько верно это утверждение, особенно когда речь идет о технологиях. Нам нравится думать, что каждое новое десятилетие в области технологий делает предыдущее десятилетие полностью устаревшим. Когда мы имеем дело с мелочами обновлений версий и исправлений, мы иногда можем увидеть прошлое через тонированные очки. Есть отличная цитата Элеоноры Рузвельт, которая развивает идею непрерывной истории:

«Великие умы обсуждают идеи; средние умы обсуждают события; маленькие умы обсуждают людей ».

События и люди приходят и уходят, но идеи охватывают десятилетия. Поэтому неудивительно, что в статье, написанной в середине 80-х годов, вы получаете следующее:

«Ожидается, что системы искусственного интеллекта откроют огромные новые возможности для автоматизации в офисе, на заводе и в доме. Многие наблюдатели считают, что при этом они кардинально изменят то, как люди работают, живут и думают о себе ».

Это похоже на то, что блоггер мог написать вчера. У Wired есть несколько статей, посвященных «четвертой промышленной революции» - термину, используемому для описания автоматизированных заводов, которые, как предсказывал Пол Киннукан, появятся в книге «Искусственный интеллект: делаем компьютеры умнее».

Многие из нас едут на поезде шумихи об ИИ, но, возможно, нам стоит ненадолго выйти и исследовать прошлое ИИ. Поскольку в ИИ нет ничего нового, и я не говорю о научно-фантастическом ИИ Азимова, я говорю об ИИ Тьюринга 40-х. Вы можете прочитать его работу под названием Вычислительные машины и интеллект, чтобы получить представление о том, что один из величайших компьютерных умов сказал о машинном обучении.

Ранние исследования ИИ предполагали отказ от ограничений процедурного программирования, чтобы машины могли быть более «человечными». Это было достигнуто за счет эвристического решения проблем. Эти ранние системы использовали формальную логику (утверждения «если / то») и семантические сети для группировки связанных идей. Это позволило компьютеру предлагать динамические решения, обращаясь к шаблону данных для решения проблем.

Тем не менее, несмотря на эти достижения, ИИ не был беглым поездом, каким он является сегодня, и это несмотря на то, что книги, написанные авторами-фантастами до 80-х годов, казалось, приносили плоды. Этого, наверное, должно было хватить, чтобы разжечь повальное увлечение, не так ли?

Что ж, проблема с искусственным интеллектом в период с 50-х до начала 80-х годов немного похожа на мистификацию «говорящей машины» 19 века. Исследователи преувеличивали возможности своих моделей, когда в их основе лежали простые алгоритмы. Тогда исследователи искусственного интеллекта яростно спорили о том, следует ли использовать машинный интеллект по образцу человеческого познания. Сама идея нейронных сетей на самом деле была более затонувшей в исследованиях искусственного интеллекта до середины-конца 80-х годов. Парнем, который отбросил всю идею нейронных сетей, был Фрэнк Розенблатт. Его «перцептрон» представлял собой модель данных, способную распознавать буквы и цифры. Это привело Розенблатта к заключению в 1956 году:

[Перцептрон] является зародышем электронного компьютера, который [ВМФ] ожидает, что он сможет ходить, говорить, видеть, писать, воспроизводить себя и осознавать свое существование.

Это смелое заявление было опровергнуто Мински, который возразил, что перцептрон не может изучать нелинейные функции, что в то время было решающим для любого серьезного прогресса в области ИИ. Мински также добавил вишенку, заявив, что перцептрон не может отличить числа и буквы от других несвязанных стимулов. Это фактически положило конец большинству академических дискуссий о жизнеспособности перцептрона.

Только в 1986 году была представлена ​​идея нескольких скрытых слоев для создания нелинейного подхода к нейронным сетям. Со скрытыми слоями, согласно теореме универсального приближения, сети могут обучаться любой функции. Это сняло самое сильное возражение Мински. Чтобы генерировать более точные прогнозы, Джефф Хинтон, Дэвид Румелхарт и Рональд Уильям написали статью, озаглавленную «Изучение представлений путем обратного распространения ошибок». Ошибки будут циклически проходить по алгоритму, основанному на производных, и исправляться в соответствии с указанными весами.

В 2006 году этот подход был назван глубоким обучением в попытке уйти от «поверхностных» методов прошлого. Теперь Deep Learning - это тост Кремниевой долины.

Между 1969 и 2006 годами искусственный интеллект поддерживали постоянные исследования Массачусетского технологического института и Карнеги-Меллона, а также финансирование Министерства обороны США.

Еще одно важное испытание для существования искусственного интеллекта в том виде, в каком мы его знаем сегодня, - это технологии. Многие современные специалисты по данным знакомы с абстракциями, которые TensorFlow допускает при моделировании данных. Но в 80-х годах проблема заключалась в том, как хранить данные. Дорогие компьютеры, которые заполняли целые комнаты, были необходимой частью сбора данных. Это низвело исследования ИИ в академическую сферу. Таким образом, продвижение могло идти только до тех пор, пока правительство было готово им позволить. Только когда на сцене появились полупроводники, технологические компании, такие как Hewlett-Packard, смогли инвестировать в ИИ.

Перенесемся в сегодняшний день, и технические светила, такие как Марк Цукерберг, не могут насытиться ИИ, несмотря на то, что достижения все еще преследуют движущиеся ворота. Эта цель - реальность, в которой ИИ может точно определять стимулы с почти 100% эффективностью. Так что, возможно, мы повторяем ошибки прошлого. Сегодняшние глубокие сети могут быть вчерашним перцептроном, человеческой конструкцией, конечной целью которой является создание интеллекта, равного нашему собственному.