Если вы ничего не знаете об искусственном интеллекте, то знайте, что Алан Тьюринг был британским математиком, заложившим большую часть основ искусственного интеллекта в 40-х и начале 50-х годов.

Тьюринг был настоящим гением, а не просто умником с карандашом, и его идеи актуальны и сегодня. И одним из них был так называемый «Тест Тьюринга»; руководство для определения того, когда компьютеры в конце концов достигли уровня «человеческого интеллекта».

То есть можно, используя творческое и обширное программирование, сделать машины, которые выглядят очень умными. Но настоящий интеллект способен функционировать сам по себе, принимая решения и предоставляя ответы, которые не зависят от кода программиста.

По словам самого Тьюринга, этот тест был связан с тем, может ли машина «думать». Конечно, это то, что трудно измерить даже среди людей. Стремясь дать этому более правильное определение, Тьюринг связал это с задачей общения, в частности, с беседой, чтобы наблюдатель-человек не мог сказать, общается ли он с человеком или с компьютером. В дальнейшем уточнении он определил это общение как невербальное, то есть написанное таким образом, что компьютеру не требовалось фактически воспроизводить голос.

Конечно, не все приняли это определение «интеллекта», но Тьюринг по-прежнему является своего рода золотым стандартом, которого придерживаются многие люди.

Сегодня, конечно, люди повсюду разрабатывают чат-ботов (с IBM Watson и другими платформами), так что, возможно, ответ на этот вопрос близок. Моя проблема в том, что я не согласен с Тьюрингом по фактическому тесту. Я легко могу понять, что он ставит целью общение. С другой стороны, я знал многих людей, которые свободно и часто общались, которых никогда нельзя было отнести к разряду интеллигентных. Кроме того, я совершенно уверен, что многие специалисты по поведению животных убедительно докажут, что люди не единственные, кто «общается» друг с другом.

Нет, я думаю, что настоящая проверка интеллекта должна быть чем-то уникальным для человеческого вида.

На ум мне пришла статья, которую я недавно видел на ZD Net Tech Today ([email protected]), Обучение роботов критиковать самих себя (https://www.zdnet.com/article/a-puzzling-problem). -обучение-роботов-критиковать-себя/?ftag=TRE-03-10aaa6b&bhid=28111291278344060015280376188045) Грега Николса.

Внезапно мне пришло в голову; тест на то, что компьютеры достигли человеческого уровня интеллекта. Нет, не это. Мне плевать, если компьютер может критиковать сам себя. Но чтобы быть по-настоящему человечным, вопрос должен звучать так: может ли компьютер дойти до того, что он сможет критиковать другие компьютеры?

И, в частности, может ли критика быть сформулирована в сопливых, грубых или даже предосудительных выражениях. И делать это нужно анонимно.

Я имею в виду, что может быть более человечным, чем это?

И самое лучшее в этом то, что он открывает совершенно другую область компьютерного интеллекта, о которой Тьюринг никогда не думал.

Например, как только компьютеры достигли такого уровня «человеческого интеллекта», было бы логично, что они начали бы беспокоиться о том, кто из них «лучший». Я бы предположил, что они устанавливали категории вещей, в которых нужно быть лучшими, а затем разрабатывали соревнования, чтобы один из них мог быть коронован как «лучший» в том или ином деле.

В конце концов, компьютеры с «человеческим уровнем интеллекта» начнут понимать, что некоторые компьютеры «отличаются» от других компьютеров. Компьютеры на базе X86 могут начать отказываться от подключения к компьютерам Apple. В конце концов, будут установлены иерархии, которые позволят доминировать одному типу. Несомненно, это привело бы к тому, что подчиненные компьютерные группы объединились бы в «альянсы», чтобы противостоять этому альфа-самцу.

В конце концов, напряжение достигло точки кипения. Группа, которая чувствовала особую угрозу, делала что-то «глупое», чтобы привлечь внимание. Если бы компьютер обладал настоящим человеческим интеллектом, последовали бы реакции, каждая из которых была бы преувеличением предыдущей. Да, разразится война, война между различными компьютерными фракциями, которые задолго до этого момента получат контроль над большей частью систем (включая оружие) в «человеческом» мире.

В движении, которое было бы устрашающе сюрреалистичным, конец человечества может быть связан с войной между этими «человеческими» компьютерами, где человечество попало под перекрестный огонь и, вероятно, было устранено на раннем этапе как отвлечение.

Нереальный сценарий? Возможно. Но все же, если мы действительно ищем дублирование «человеческого интеллекта», можем ли мы ожидать меньшего?

В любом случае, я претендую на признание этого обновленного теста Тьюринга. Можно заработать пару баксов до конца. Ты никогда не узнаешь.