Узнайте об истории, людях и технологиях, лежащих в основе искусственного интеллекта сегодня

Искусственный интеллект уже некоторое время является очень оживленной темой. Где-то в последнее десятилетие, я не уверен, когда именно наступил переломный момент, мир технологий начал действительно стирать грань между научной фантастикой и реальностью. Машины научились водить сами, роботы начали доставлять еду на вынос, часы стали напоминать игрушку Джеймса Бонда, а виртуальные домашние помощники были готовы ответить на любой вопрос, который мы только могли придумать.

Применение искусственного интеллекта было быстрым и масштабным, мягко говоря, но как он оказался там, где он находится сейчас? Каковы были первоначальные цели искусственного интеллекта и какие технологии позволили ему развиваться? Что вывело ИИ из научной фантастики в наши гостиные?

Первые дни

Область искусственного интеллекта возникла намного раньше, чем вы думаете, вплоть до 1950-х годов. В августе 1955 года Джон Маккарти (Дартмут), Марвин Ли Мински (Гарвард), Натаниэль Рочестер (IBM) и Клод Элвуд Шеннон (Bell Telephone Laboratories) завершили Предложение для Дартмутского летнего исследовательского проекта по искусственному интеллекту. официально введен в обращение этот термин и зажег первую искру того, что мы сегодня знаем как ИИ.

В предложении излагается то, что эти четверо видели как проблемы, стоящие на пути продвижения, их соответствующий опыт на данный момент и ожидания от исследовательского проекта. Четверо основателей считали, что в целом они могут добиться «значительных успехов» за два месяца, имея в зале нужные десять человек и колоссальные 13 500 долларов. Видение лета описывалось следующим образом:

«Исследование должно продолжаться на основе предположения, что каждый аспект обучения или любая другая особенность интеллекта в принципе может быть описана настолько точно, что может быть создана машина для его моделирования. Будет предпринята попытка найти, как заставить машины использовать язык, формировать абстракции и концепции, решать виды проблем, которые теперь предназначены только для людей, и улучшать себя. Мы думаем, что можно добиться значительного прогресса в решении одной или нескольких из этих проблем, если тщательно отобранная группа ученых будет вместе работать над ней в течение лета ».

Препятствия

Чтобы понять структуру исследовательского проекта, мы должны сначала понять, для решения каких проблем он был разработан, и для каких достижений он был предназначен (терпите меня - нам нужен некоторый контекст, чтобы понять что-либо дальше, но я сделаю это как можно более безболезненным. по возможности). Основные моменты, первоначально обозначенные в связи с «проблемой искусственного интеллекта», заключались в следующем:

  1. Автоматические компьютеры
  2. Как можно запрограммировать компьютер на использование языка
  3. Нейронные сети
  4. Теория размера расчета
  5. Самосовершенствование
  6. Абстракции
  7. Случайность и творчество

Я настоятельно рекомендую прочитать их краткое изложение каждого из них (которое можно найти на второй странице исходного предложения), но даже без чтения некоторые из них, вероятно, покажутся вам знакомыми. Здесь, в первых обсуждениях искусственного интеллекта, мы видим нейронные сети (теперь связанные с нейронными сетями / глубоким обучением), самосовершенствование (важная цель современного машинного обучения) и автоматические компьютеры (проблема вычислительных ограничений и наших способность инженеров полностью оптимизировать свои способности).

Мозги

Каждый член-основатель принес с собой уникальный опыт, каждый из которых может быть нацелен на конкретную проблему, указанную выше.

Клод Шеннон имел опыт проектирования машин, которые обучаются, а также обширный опыт работы с теорией машин Тьюринга (если вы не знакомы с этой теорией, я рекомендую вам кратко ознакомиться с Запись в Стэнфордской энциклопедии философии). Шеннон был идеальным кандидатом для решения проблемы самосовершенствования в этой области.

Марвин Ли Мински уже написал докторскую диссертацию в Принстоне. диссертацию на тему нейронных сетей под названием «Нейронные сети и проблема модели мозга». Уже построив обучающуюся машину с использованием нервных сетей, он мог сосредоточиться на проблеме нейронных сетей.

Натаниэлю Рочестеру и другому инженеру IBM приписывают создание одного из самых популярных и крупномасштабных автоматических компьютеров того времени, названного IBM Type 701. Эти знания, а также его опыт в создании технологий, которые дает компьютерам возможность выполнять задачи, выполняемые человеком, поможет Рочестеру решить как проблемы автоматических компьютеров, так и программирования компьютера для использования языка.

Джон Маккарти, работа которого в основном была сосредоточена на математике и ее связи с процессом мышления человека. Оба дали ему прекрасное общее представление о предстоящих препятствиях и имели большое значение для проблем искусственного интеллекта, связанных с случайностью и творчеством.

Я не говорю, что каждый из них работал только над перечисленными проблемами - вы действительно можете прочитать, начиная со страницы пятой их предложения, индивидуальные письма каждого члена команды о его целях и намерениях. Скорее, я считаю, что их опыт проясняет, почему эта команда была настроена взяться за такой сложный вопрос.

AI сегодня

Как мы видели ранее, многое из того, что обсуждалось в первоначальном предложении, напоминает текущий диалог вокруг ИИ. Фактически, развитие некоторых из этих оригинальных идей позволило таким компаниям, как Google, Amazon и Apple, создать свои технологии искусственного интеллекта.

Нейронные сети

На самом базовом уровне нейронная сеть - это набор алгоритмов, но это все равно что сказать, что человеческий мозг - это совокупность атомов. Однако алгоритмы являются строительными блоками, и эти группы алгоритмов специально смоделированы (в общих чертах) на человеческом мозге.

Нейронная сеть может включать тысячи или даже миллионы отдельных, сложно взаимосвязанных узлов обработки. Эти узлы предназначены для распознавания закономерностей, как это делает человеческий мозг. Развитие нейронных сетей сделало возможными достижения в области глубокого обучения - отрасли машинного обучения и неотъемлемой части современного искусственного интеллекта.

Машинное обучение и глубокое обучение

Если бы мне пришлось указать на одно поле и сказать: «Вот и все. Это то, что сделало возможным современный ИИ », - это машинное обучение. Машинное обучение - это идея, что компьютеры могут учиться на собственном опыте. Эти алгоритмы используют статистику и огромные объемы данных для выявления и использования шаблонов.

Вы, наверное, слышали о множестве и многих проблемах конфиденциальности, с которыми сегодня сталкиваются пользователи в Интернете. Все мы знаем, почему компании хотят собирать наши данные - деньги. Но как мои данные переводятся в доллары и центы? Некоторые компании продают данные с целью получения прибыли. Другие, однако, передают все эти данные - каждый щелчок мыши, каждое просмотренное видео, продолжительность просмотра видео, куда я перешел после того, как видео закончилось, и т. Д. И т. Д. - в эти алгоритмы. Эти очень сложные, идеально настроенные алгоритмы переваривают все эти шаблоны, чтобы создавать поразительно точные прогнозы поведения пользователей. Сбор и анализ этих данных - это то, как мы получаем предложения о том, что смотреть дальше, и в конечном итоге наблюдаем часами, часами и часами.

Если это еще не было достаточно сложно, глубокое обучение - это еще более сложная и развитая версия машинного обучения. Он включает в себя самые сложные нейронные сети и способен улавливать самые тонкие поведенческие модели.

Суперкомпьютеры

Если вы когда-нибудь слышали, как ваш MacBook Air начинает издавать странные звуки и нагреваться после одного из этих долгих разгулов с Netflix, вы, возможно, спрашиваете себя, как вообще возможен такой тип вычислений. Очень долгое время этого просто не было.

Выше представлен MacBook 1995 года выпуска. Теперь подумайте, на каком устройстве вы сейчас читаете это, и подумайте, как далеко мы продвинулись даже за время моей жизни. Этот подвиг внушает благоговение. А теперь подумайте, как далеко мы продвинулись с тех пор, как Маккарти, Мински, Рочестер и Шеннон провели лето в Дартмуте. Дикий.

Эти достижения в области вычислительной мощности сыграли решающую роль в успехе ИИ. Чтобы запускать алгоритмы машинного обучения, необходимые для искусственного интеллекта, требуются невероятные вычислительные мощности. Некоторые люди этого не осознают, но вычислительные мощности - важный источник ограничений в технологиях. Например, современные правила использования паролей и шифрование безопасны только потому, что у нас нет компьютеров, способных взломать их (пока). Конечно, на это потребуются миллиарды лет, но это основано на современных вычислительных мощностях. По мере того, как компьютеры становятся более мощными, этот график сокращается.

Большое количество данных

Все вышесказанное сводится к одному: данным. Существующий невообразимо огромный объем пользовательских данных - это топливо в ракетном корабле, представляющее собой искусственный интеллект. Да, без нейронных сетей, машинного обучения и компьютеров, способных работать и с тем, и с другим, данные были бы относительно бесполезны.

Но на самом деле машины учатся на данных. Чем больше машина получает, тем умнее она становится - тем точнее ее знания и точнее прогнозы. Все, о чем мы думаем, когда думаем об искусственном интеллекте, будь то общение с нашим Google Home или появление страха при виде рекламы того, о чем вы думали сегодня утром, рождается из анализа массивов данных, которые настолько огромны, что они могут угадайте, как успешно с вами взаимодействовать. Может быть, в следующий раз, когда Сири не узнает, что ответить, ты будешь немного лучше относиться к ней.

Будущее

Я не собираюсь делать вид, что знаю, как будет выглядеть будущее ИИ. Что я скажу, так это то, что мы только начали замечать его влияние на наш мир, и, хотя риски незначительны, если Google ошибается в моем запросе на Spotify, это совсем другая история, когда мы начинаем говорить о медицинских консультациях, финансовых делах, обучении. , и более. Кроме того, борьба за большую конфиденциальность данных идет полным ходом, и постоянный приток данных необходим для дальнейшего развития. По мере развития алгоритмов и компьютеров они смогут делать больше с меньшими затратами. Но все же им нужно топливо.