Привет, Петр, спасибо, что заинтересовался и ответил. Забавно, как только вы отправили свой ответ на мой пост, я уже готовил ответ на ваш!

Из ваших замечательных постов, которые я прочитал на вашей странице в Medium, я знаю, что мы оба подходим к ИИ с совершенно разных точек зрения — а это именно то, что нужно ИИ! В общем, я думаю, что недавний пост во многом проясняет мою позицию, по которой я хотел бы, чтобы вы высказали свое мнение.

Вы, конечно, правы в том, что ИИ значительно продвинулся вперед. И я не хотел бы показаться принижающим их достижения в их собственной области, но чрезмерное распространение результатов до крайних и общих утверждений вызывает резкую критику со стороны других областей. Как биолог-эволюционист, я подхожу к ИИ с другим набором что важно для интеллекта. Следовательно, мои критерии часто не соответствуют достижениям, которые приветствуются как шаг к ОИИ и т. д.. Я знаком с вашим аргументом в пользу предсказания и обучения, наряду с аналогичными аргументами, выдвинутыми другими, и я не сомневаюсь, что эти принципы помогут продвинуть машинное обучение в будущем. Я также нахожу интересным, что эти аргументы, как правило, выдвигаются учеными-компьютерщиками, а не биологами.

Как я намекнул в своем ответе на ваш пост, биологи очень осторожно относятся к тому, чтобы называть поведение «разумным» — о чем свидетельствует странная история бихевиоризма и медленное появление когнитивной науки. Интеллект семантичен. Это не результат, а метод; возьмем пример детей, сдающих тесты по математике, где мошенник, по-видимому, одинаково компетентен, но не понимает понятий. В согласии с Джоном Серлом (по крайней мере, в этом конкретном случае) я не вижу доказательств того, что машины развили семантическое понимание, чтобы претендовать на атрибут «разум». Однако, в отличие от Серла, я не думаю, что так будет всегда.

Я чувствую, что ваша карикатура на «эволюционирующих искусственных людей» несколько несправедлива. Моя статья настойчиво пыталась отделить идею «человеческого интеллекта» от сегодняшнего и завтрашнего ИИ. Моя полемика по поводу «кроличьего интеллекта» заключалась в том, чтобы попытаться уйти от мысли, что в обозримом будущем любой вид ОИИ станет человеческим. Вместо этого я бы предпочел, чтобы исследователи ИИ изучали стратегии реального «естественного общего интеллекта» в животном мире и за его пределами. Но вы правы в том, что я считаю эволюцию правильной парадигмой, а не разумным замыслом. Вторя словам Докинза (2004) и Деннета (1995, 2017), эволюцию можно считать инженерной парадигмой, особенно обратной инженерии. В этом конкретном смысле, и я не знаю, будете ли вы возражать против этого (?), я рассматриваю эволюцию как путь к разумному замыслу в ИИ, я не вижу в этом ни того, ни другого/ или случай, как предполагает ваш ответ (если я вас правильно понял).

То, что я имею в виду, очень специфично. Я не за развитие оборудования, а за развитие программного обеспечения. Я не представлял себе буквальный процесс повторения эволюции кроличьей формы от более простого предка. Вместо этого я имел в виду, что такие идеи, как нейродарвинизм или его предшественники и эквиваленты в эволюционной эпистемологии, — это те идеи, которые, как я думаю, приведут к ОИИ. Их нынешние формы имеют свои недостатки, но основная идея верна: вы не хотите, чтобы машина решала как можно более общую проблему, а естественный отбор — инструмент для этой работы. Почему? Потому что мы знаем, что он подходит для этой работы, потому что он породил разумную жизнь за геологическое время, и я бы также сказал, что он производит наш разум в каждом поколении (поскольку геном использует алгоритм естественного отбора, чтобы соединить нейроны для кодирования). разум).

Таким образом, как я упоминал в своем ответе на вашу прекрасную статью, для биолога достижения в предсказании и обучении довольно пусты. (Это не значит, что они не приведут к созданию очень полезных технологий, но я не считаю их на пути к ОИИ. В этом смысле я не считаю, что эти методы способствуют >точныеметоды или теории, которые будут использоваться, порождают первый ОИИ, за исключением части кладбища почти готовых идей. Я думаю, что в этом нет ничего постыдного, о чем свидетельствует огромные скачки, которые совершила компьютерная наука по сравнению с разработками de novo. Чтобы освободить место для нового прогресса, старые идеи, какими бы успешными они ни были, отбраковываются.) Причина того, что многие из этих разработок пусты биолог потому, что большая часть природы совершенно неразумна, как, например, упомянутый здесь знаменитый случай осы-сфециды. Таким образом, биологу кажется очевидным, что более высокие когнитивные функции, такие как предсказание и обучение, не нужны для разработки компетентных машин. И далее, хотя мне это не нравится, похоже, что большинство исследователей ИИ приравнивают интеллект к компетентности. Следовательно, цель ИИ — разработать машины, способные вести себя в целом компетентно/разумно в реальном мире, не требует таких когнитивных функций. Это не значит, что они бесполезны, но они не биомиметичны. Я решительно утверждаю, что существует причина (например, эффективность), по которой эволюция следовала определенным методам создания компетентного поведения. И я думаю, нам было бы неплохо учиться у биологии. Поэтому я не вижу проблемы в том, насколько далеко могут быть расширены предсказания и обучение, потому что смысл, в котором компьютеры могут предсказывать и учиться, настолько узок по сравнению с биологией, что они принципиально используют разные подходы.

Прошу прощения за громадный ответ, но был бы рад продолжить этот разговор. Я изложил свой аргумент здесь таким образом, который может показаться агрессивным, но я надеюсь, что это не так. Я постарался быть как можно более ясным, чтобы дать вам возможность «впиться зубами». Я уверен, что из междисциплинарных подходов к ИИ можно многому научиться. Всего наилучшего!