Это эссе по сути является рецензией на книгу (см. ниже); тем не менее, я хочу выделить несколько моментов, которые я почерпнул из этой превосходной книги о неудачах искусственного интеллекта в том виде, в каком мы его знаем сегодня.

Говорят, что Алан Тьюринг изобрел ИИ. На самом деле «машина» Тьюринга была прототипом современного компьютера, разработанного для доказательства того, что одной математики недостаточно для рассуждений, то есть интеллекта. Его тест Тьюринга используется для демонстрации отсутствия машинного интеллекта. Он никогда не был успешно «пройден».

Тернинг также интересовался дилеммой, введенной Гёделем в 1931 году с помощью этого простого, но сбивающего с толку выражения: «это утверждение ложно». Это недоказуемое утверждение ставит ИИ в тупик и по сей день.

В последние годы был достигнут прогресс в разработке программного обеспечения, которое проявляет интеллект при игре в такие игры, как шахматы. Есть несколько причин успеха игрового ИИ. Правила игры (шахматы) известны и могут быть запрограммированы. Игровые ИИ — это закрытые системы: они изучают фиксированный набор правил на основе предоставленных указаний и данных. «Лучший следующий ход» становится математической задачей. Эти системы «машинного обучения» рассчитывают лучшие ходы, запуская миллионы симуляций. «Лучший следующий ход» — это тот, который статистически с наибольшей вероятностью выиграет. ИИ, которые могут побеждать в шахматы, не могут побеждать в «ГО». Правила для каждой игры разные. Универсальных правил нет. Эти математически выбранные ходы могут показаться разумными; однако это всего лишь математика. Сегодня человек время от времени побеждает лучших из этих ИИ, обычно делая нестандартные решения, которые удивляют ИИ. Игровые ИИ не могут справиться с неожиданностями или, если уж на то пошло, с иррациональными людьми.

Многие путают эти игровые ИИ с большими языковыми моделями (LLM). ИИ с большой языковой моделью имеют совершенно другую подготовку и используют «большие данные», чтобы угадывать правильные отношения из данных. Этим ИИ можно дать правила грамматики или изучить правила из расположения слов и фраз в данных. Данные обычно представляют собой содержимое, найденное в Интернете. Содержание никогда не было «понятным». Полученный результат не более интеллектуален, чем ввод данных. На самом деле, эти ИИ LLM — просто умный, автоматизированный плагиат.

Еще одна проблема, связанная с LLM, — это неотъемлемая предвзятость предоставляемых данных. Дизайнеры-люди предоставляют LLM цели, задачи и правила. «Большие данные», используемые для обучения LLM, обычно из Интернета, могут содержать ошибки или откровенную ложь. Наконец, ответы ИИ «оцениваются» читателями-людьми. Все это приводит к искажению результатов. Как говорится: мусор на входе, мусор на выходе.

У LLM (например, ChatGPT) будет много проблем с вопросами, которые требуют рассуждений и врожденных человеческих знаний (также известных как здравый смысл). Следующий пример демонстрирует одну из многих проблем, которые могут запутать LLM.

Рассмотрим это предложение (перефразированное из книги): «Я хотел положить свой трофей в свой чемодан. Но он слишком мал». Любой ребенок поймет, но ИИ терпит неудачу. ИИ не имеют реальных знаний ни о размерах этих объектов, ни о том, какое существительное «это» представляет. Вы можете легко представить другие сценарии, в которых «здравый смысл» человека в отношении местоимений может привести к сбою ИИ. В лучшем случае в этом примере LLM могут «статистически» угадать, что имелось в виду. Они могут быть правильными в пятидесяти процентах случаев.

Похожий пример: «Газели сильно отличаются от аллигаторов тем, как высоко они прыгают». Опять же, почти любой ребенок понимает смысл. ИИ, обученный работе с результатами поиска в Интернете, терпит неудачу, потому что два существительных редко появляются вместе в результатах поиска.

Еще один пример: слова с несколькими значениями. Подумайте: «Я люблю реку. Я пошел в банк». Ходил ли я на «банк» или на берег реки? У ИИ нет понятия.

Я настоятельно рекомендую эту книгу:

Миф об искусственном интеллекте — Эрик Дж. Ларсон

Книга отлично описывает происхождение и историю искусственного интеллекта. От Алана Тьюринга в Блетчли-парке до недавней разработки моделей больших языков, которые управляют «чат-ботами».

Автор исследует различия между «закрытыми» ИИ, которые «учатся» играть в игры, и «открытыми» ИИ, которые используют «большие данные», чтобы попытаться «понимать» человеческую речь и рассуждения.

В главах исследуются типы человеческого мышления: дедукция, индукция и вывод, используемые людьми для понимания мира. Эти типы рассуждений сравнивают с ИИ, которые пытаются отражать человеческое мышление и обучение. Эти более академические главы могут быть сложными, но они содержат много новой информации, которая повлияла на мое понимание.

Как упоминалось выше, автор подробно объясняет LLM и показывает сложность создания оригинального контента с использованием врожденных человеческих знаний, которые невозможно определить путем поиска текста в Интернете.

Автор также исследует исследования по созданию моделей человеческого мозга и пытается понять, как наш мозг обрабатывает информацию. Большая часть этих исследований не увенчалась успехом и не является частью разрекламированных сегодня ИИ.

Беспокойство, выраженное автором и поддержанное многими, заключается в том, что ИИ только уменьшат и обесценят человеческий интеллект. Эта цитата из книги говорит об этом хорошо:

«Если ИИ будет продолжать следовать той же схеме чрезмерной производительности в фальшивом мире игр или размещения рекламы, мы можем закончить… с фантастически навязчивыми и опасными идиотами-учеными».

Мои выводы о состоянии ИИ:

Недавняя шумиха создала пузырь, который вскоре лопнет, забрав миллионы долларов у наивных инвесторов. Тем временем миллионы читателей будут введены в заблуждение или обмануты с ужасными последствиями. Мы будем гораздо менее способны распознать истину.

Остерегайтесь ажиотажа. Остерегайтесь самого вопиющего модного словечка пропагандистов общего искусственного интеллекта: «сингулярность». Эти шарлатаны продают змеиное масло. Еще одна подсказка заключается в том, что теперь они не принимают во внимание тест Тьюринга, считая его неактуальным. На самом деле, их ИИ слишком сложно пройти.

Ни один LLM не участвовал в написании этого эссе. Grammarly исправил мою орфографию и раскритиковал мою грамматику. Я, думающий, творческий человек, внес все изменения.