Короткий ответ: нет.
Хотя мы были поражены ранней демонстрацией ChatGPT от OpenAI 30 ноября 2022 года, стоит отметить, что первая подобная идея была предложена более 73 лет назад.
1 октября 1950 года оксфордский журнал Mind Journal опубликовал статью под названием Вычислительная техника и интеллект в томе LIX, выпуск 236. Автором был Алан Мэтисон Тьюринг (1912–1954).
Да! Тот самый математик, компьютерщик и дешифровщик в исполнении Бенедикта Камбербэтча в фильме Игра в имитацию.
Его статья начинается словами:
ПРЕДЛАГАЮ рассмотреть вопрос: «Могут ли машины мыслить?»
И заканчивается выводом:
Мы можем надеяться, что машины в конечном итоге будут конкурировать с людьми во всех чисто интеллектуальных областях. Но с чего лучше всего начать? Даже это трудное решение. Многие люди думают, что лучше всего подойдет очень абстрактная деятельность, например игра в шахматы. Можно также утверждать, что лучше всего снабдить машину лучшими органами чувств, которые можно купить за деньги, а затем научить ее понимать и говорить по-английски. Этот процесс может следовать обычному обучению ребенка. На вещи будут указываться, называться и т. д. Опять же, я не знаю, какой ответ правильный, но думаю, что следует попробовать оба подхода.
В каком-то смысле Тьюринг был прав.
Я не буду обсуждать, могут ли машины думать или нет, но предложение Тьюринга — это факт.
ИИ не только понимает и говорит по-английски; например, ChatGPT — многоязычный чат-бот. На данный момент он поддерживает более 50 языков. А если вы считаете, что ChatGPT заглушили, то поймите, что модели ChatGPT и Whisper теперь доступны в OpenAI API, предоставляя разработчикам доступ к новейшим языкам (не только к чату!) и возможностям преобразования речи в текст.
Кроме того, машины способны не только играть в шахматы:
AlphaGo – первая компьютерная программа, победившая профессионального игрока в го, первая победившая чемпиона мира по го и, возможно, самый сильный игрок в го в истории.
И если вы считаете, что Го проще, чем шахматы, знайте, что при первом ходе в шахматах существует 20 возможных ходов. В Го у первого игрока есть 361 ход.
Когда это сбылось? В 2022 году с OpenAI?
Искусственный интеллект (ИИ) развивается постепенно, хотя и не всегда с одинаковым публичным доступом. Путешествие, конечно, было долгим.
Давайте рассмотрим некоторые вехи, чтобы увидеть эволюцию:
1943
- Уолтер Питтс и Уоррен Маккалок создали компьютерную модель на основе нейронных сетей человеческого мозга. Это считается первым теоретическим шагом на пути к глубокому обучению (DL).
1949
- Дональд Хебб в своей книге Организация поведения дает определение теории нейронного возбуждения и связи между нейронами. Эта модель взаимодействия клеток мозга составляет основу для первых теоретических шагов машинного обучения (МО).
1950s
- Артур Сэмюэл из IBM разработал компьютерную программу для игры в шашки. Из-за ограниченности компьютерной памяти программы Сэмюэл инициировал так называемую обрезку альфа-бета. Его конструкция включала функцию подсчета очков, которая использовала положение фигур на доске для измерения шансов каждой стороны на победу. Программа выбирала свой следующий ход, используя минимаксную стратегию, которая в конечном итоге превратилась в минимаксный алгоритм.
- Фрэнк Розенблатт из Корнеллской авиационной лаборатории объединил модель взаимодействия клеток мозга Дональда Хебба с усилиями Артура Сэмюэля по машинному обучению для создания Персептрона (1957).
1960s
- Генри Дж. Келли, Стюарт Дрейфус, Алексей Григорьевич Ивахненко и Валентин Григорьевич Лапа создали математические модели, используемые в глубоком обучении.
- Обработка естественного языка (НЛП) зародилась как способ использования компьютеров в качестве переводчиков между русским и английским языками. Инструменты холодной войны? Возможно!
- Развились нейронные сети прямого распространения, обратное распространение ошибки, глубокие нейронные сети и искусственные нейронные сети (ИНС).
- В 1967 году был разработан Алгоритм ближайшего соседа, положивший начало базовому распознаванию образов. Первоначально использовавшийся для картирования маршрутов, это был один из первых алгоритмов, применяемых для поиска наиболее эффективного маршрута для задачи коммивояжера.
1970s ❄️
- Наступила первая «зима искусственного интеллекта», когда сокращение финансирования ограничило исследования как искусственного интеллекта, так и дистанционного обучения.
1979
- Кунихико Фукусима разработала искусственную нейронную сеть под названием Неокогнитрон, которая использовала иерархическую многослойную структуру. Это позволило компьютеру научиться распознавать визуальные закономерности.
1980s ❄️
- Наступила вторая «зима искусственного интеллекта» (1985–1993 гг.), которая также повлияла на исследования в области нейронных сетей и глубокого обучения.
Различные чрезмерно оптимистичные люди преувеличивали «немедленный» потенциал искусственного интеллекта, обманывая ожидания и разозлив инвесторов. Гнев был настолько сильным, что словосочетание «искусственный интеллект» достигло статуса лженауки. К счастью, некоторые люди продолжали работать над AI и DL, и были достигнуты некоторые существенные успехи. (Краткая история глубокого обучения — ДАННЫЕ, 2022 г.)
- Янн ЛеКун провел первую практическую демонстрацию обратного распространения ошибки в Bell Labs. Он объединил сверточные нейронные сети с обратным распространением ошибки для распознавания рукописных цифр. Эта система в конечном итоге использовалась для чтения цифр на рукописных чеках.
- Обработка естественного языка (NLP) пережила скачок в эволюции благодаря как устойчивому увеличению вычислительной мощности, так и использованию новых алгоритмов машинного обучения.
Начало 1990-х
- Исследования искусственного интеллекта сместили фокус на то, что называется «Интеллектуальные агенты». Эти агенты можно использовать для служб поиска новостей, онлайн-покупок и просмотра веб-страниц. Иногда их называют агентами или ботами. Благодаря использованию программ больших данных они постепенно превратились в цифровых виртуальных помощников и чат-ботов.
- В статье 1990 года под названием Сила слабой обучаемости Роберт Шапир представил концепцию повышения. Бостинг можно определить как набор алгоритмов, основная функция которых — превратить слабых учеников в сильных.
1995
- Дана Кортес и Владимир Вапник разработали машину опорных векторов — систему для отображения и распознавания подобных данных.
1997
- Зепп Хохрайтер и Юрген Шмидхубер разработали LSTM (длинную кратковременную память) для рекуррентных нейронных сетей. Методика LSTM поддерживает задачи обучения, в которых используются воспоминания о тысячах маленьких шагов, что важно для обучения речи.
- Deep Blue побеждает Гарри Каспарова в шахматном матче по регламенту турнира, становясь первой компьютерной программой, победившей чемпиона мира.
2006
- Национальный институт стандартов и технологий (NIST) спонсировал Большой вызов по распознаванию лиц и протестировал популярные алгоритмы распознавания лиц.
2007
- Сети Долгой краткосрочной памяти (LSTM) начали превосходить более устоявшиеся программы распознавания речи.
2009
- Фей-Фей Ли, профессор искусственного интеллекта в Стэнфорде, запустил ImageNet, собрав бесплатную базу данных, содержащую более 14 миллионов помеченных изображений. Размеченные изображения были нужны для обучения нейронных сетей.
2011
- Siri из Apple заработала репутацию одного из самых популярных и успешных цифровых виртуальных помощников, поддерживающих обработку естественного языка.
2012
- Алгоритм машинного обучения, разработанный Google X Lab, может сортировать и находить видео с кошками.
Эксперимент с котом использовал нейронную сеть, охватывающую более 1000 компьютеров. Десять миллионов немаркированных изображений были случайным образом взяты с YouTube и показаны системе, а затем было разрешено запустить обучающее программное обеспечение. В конце обучения было обнаружено, что один нейрон самого верхнего слоя сильно реагирует на изображения кошек. (Краткая история глубокого обучения — ДАННЫЕ, 2022 г.)
2014
- Алгоритм DeepFace был разработан Facebook. Он распознавал людей на фотографиях с той же точностью, что и люди.
- Была представлена Генеративно-состязательная нейронная сеть (GAN). В GAN две нейронные сети играют друг против друга. Цель состоит в том, чтобы одна сеть имитировала фотографию и обманом заставила своего оппонента поверить в ее реальность. Оппонент ищет недостатки. Игра ведется до тех пор, пока почти идеальная фотография не обманет противника.
2015
- Программа распознавания речи Google сообщила об увеличении производительности на 49 процентов за счет использования LSTM, обученного CTC (временная классификация коннекционистов).
2015 … 2023
- Генеративные модели начали преобладать над дискриминативными, и их использование стало обычным явлением.
- Произошло множество других значимых событий, выведя на передний план ключевых игроков отрасли.
Есть несколько организаций, которые занимаются исследованиями в области ИИ, например:
- IBM AI (до 2010 г.)
- Google DeepMind (основана в 2010 году и приобретена Google в 2014 году)
- ОпенАИ (основана в 2015 году)
- Мета ИИ (основана в 2015 году)
- Google AI (основана в 2017 году)
- DeepLearning.AI (основана в 2017 году)
- Azure AI (запуск запланирован на 2023 год)
Как мы видим, ИИ — изобретение не недавнего времени. Его разработка заняла многие годы исследований и экспериментов, и многие блестящие умы внесли свой вклад в его прогресс. Сегодня высокие технологии сделали ИИ доступным для нас. Это больше не военная тайна и не передовая наука; теперь это общеизвестный факт и ежедневный помощник.
Однако вопрос, заданный более 70 лет назад, до сих пор остается без ответа: Могут ли машины думать?
Рекомендации
А. М. ТЬЮРИНГ, I. — ВЫЧИСЛИТЕЛЬНАЯ МАШИНА И ИНТЕЛЛЕКТ, Разум, том LIX, выпуск 236, октябрь 1950 г., страницы 433–460, https://doi.org/10.1093/ разум/LIX.236.433
Представляем API ChatGPT и Whisper. (2023, 1 марта). ОпенАИ. https://openai.com/blog/introducing-chatgpt-and-whisper-apis
АльфаГо. (без даты). Гугл ДипМайнд. https://www.deepmind.com/research/highlighted-research/alphago
Краткая история машинного обучения — ДАННЫЕ. (2021, 3 декабря). ДАННЫЕ. https://www.dataversity.net/a-brief-history-of-machine-learning/
Краткая история глубокого обучения — ДАННЫЕ. (2022, 4 февраля). ДАННЫЕ. https://www.dataversity.net/brief-history-deep-learning/