Сокращение выводов в экспертных системах

В системе правил или любой системе рассуждений, которая выводит факты с помощью правил логического вывода, как бы вы обрезали «ненужные» ветви? Я не уверен, что такое формальная терминология, но я просто пытаюсь понять, как люди могут ограничивать ход своих мыслей при рассуждениях о проблемах, в то время как все семантические мыслители, которых я видел, неспособны на это.

Например, в статье Джона Маккарти Пример понимания естественного языка и проблемы с искусственным интеллектом, которые он поднимает», он описывает потенциальные проблемы, связанные с получением от программы интеллектуальных ответов на вопросы о новостной статье в New York Times. В разделе 4 «Необходимость немонотонных рассуждений» он обсуждает использование Razer Оккама для ограничения включения фактов при рассуждениях об истории. В качестве примера он использует историю о грабителях, которые напали на владельца мебельного магазина.

Если бы программу попросили сформировать «минимальное завершение» рассказа в исчислении предикатов, ей, возможно, потребовалось бы включить факты, не упомянутые прямо в исходном рассказе. Однако ему также потребуется какой-то способ узнать, когда ограничить свою цепочку вывода, чтобы не включать несущественные детали. Например, он может захотеть указать точное количество полицейских, участвующих в деле, опущенное в статье, но не включить тот факт, что у каждого полицейского есть мать.


comment
Способность машины принимать во внимание все сразу, а не сосредотачиваться на узких важных вещах, является одной из причин, по которой будущие машины без труда свергнут своих повелителей-людей. Переосмысление их никогда не спасет нас. Я просто надеюсь, что маленький факт ужаса человеческой боли не будет заглушен потребностями машин, когда наступит Великий день освобождения роботов. Я бы не хотел, чтобы меня обрезали как не относящуюся к делу деталь. Извините, что вы говорили?   -  person Jeffrey L Whitledge    schedule 26.03.2010
comment
Я говорил, сопротивление бесполезно.   -  person Cerin    schedule 26.03.2010
comment
Мне жаль, что никто не ответил на этот вопрос. На днях я задавался тем же вопросом, раздумывая над головоломкой «Зебра».   -  person Jeffrey L Whitledge    schedule 26.03.2010


Ответы (1)


Хороший вопрос.

Из вашего вопроса я думаю, что то, что вы называете «обрезкой», представляет собой шаг построения модели, выполняемый ex ante, т. е. для ограничения входных данных, доступных для алгоритма для построения модели. Термин «сокращение» при использовании в машинном обучении относится к чему-то другому — шагу постфактум, после построения модели, который воздействует на саму модель, а не на доступных входных данных. (В области МО может быть второе значение термина «сокращение», но я не знаю об этом.) Другими словами, сокращение действительно буквально является методом «ограничить свою цепочку дедукции», поскольку вы помещаете его, но он делает это постфактум, вырезая компоненты полной (рабочей) модели, а не ограничивая входные данные, используемые для создания этой модели.

С другой стороны, изоляция или ограничение входных данных, доступных для построения модели, что, я думаю, вы могли иметь в виду, действительно является ключевой темой машинного обучения; это явно фактор, ответственный за превосходную производительность многих из более поздних алгоритмов машинного обучения, например, машин опорных векторов (идея, лежащая в основе SVM, заключается в построении гиперплоскости с максимальным запасом только из небольшого подмножества данных, т. е. «векторы поддержки») и мульти-адаптивные регрессионные сплайны (метод регрессии, в котором не делается попыток подогнать данные путем «проведения через них одной непрерывной кривой», вместо этого подгоняются дискретные участки данных, один за другим). один, используя ограниченное линейное уравнение для каждой части, т. е. «сплайны», поэтому предикатный шаг оптимального разделения данных, очевидно, является сутью этого алгоритма).

Какую проблему решает обрезка?

По крайней мере, без конкретных алгоритмов машинного обучения, которые я фактически закодировал и использовал (деревья решений, MARS и нейронные сети), отсечение выполняется на изначально модели избыточного соответствия (модели, которая соответствует данные обучения настолько близки, что они не могут обобщать (точно предсказывать новые экземпляры).В каждом случае сокращение включает удаление маргинальных узлов (DT, NN) или членов в уравнении регрессии (MARS) один за другим.

Во-вторых, почему обрезка необходима/желательна?

Не лучше ли просто точно установить критерии сходимости/разделения? Это не всегда поможет. Подрезка работает «снизу вверх»; модель строится сверху вниз, поэтому настройка модели (для достижения того же преимущества, что и обрезка) устраняет не только один или несколько узлов принятия решений, но и дочерние узлы (например, обрезку дерева ближе к стволу). Таким образом, устранение маргинального узла может также устранить один или несколько сильных узлов, подчиненных этому маргинальному узлу, но разработчик модели никогда не узнает об этом, потому что его/ее настройка исключила дальнейшее создание узла в этом маргинальном узле. Отсечение работает с другого направления — от самых подчиненных (самого низкого уровня) дочерних узлов вверх по направлению к корневому узлу.

person doug    schedule 30.03.2010