Я изучаю марковские случайные поля, и, по-видимому, вывод в MRF сложен/вычислительно дорог. В частности, в книге Кевина Мерфи «Машинное обучение: вероятностная перспектива» говорится следующее:
«В первом члене мы фиксируем y на его наблюдаемых значениях; это иногда называют фиксированным членом. Во втором члене y свободен; его иногда называют нефиксированным членом или контрастным членом. Обратите внимание, что вычисление нефиксированного члена термин требует логического вывода в модели, и это должно быть сделано один раз за шаг градиента. Это делает обучение ненаправленных графических моделей более сложным, чем обучение ориентированных графических моделей».
Почему мы делаем вывод здесь? Я понимаю, что мы суммируем по всем y, что кажется дорогим, но я не вижу, где мы на самом деле оцениваем какие-либо параметры. В Википедии также говорится о выводе, но только о вычислении условного распределения и необходимости суммирования по всем неуказанным узлам... но... это не то, чем мы здесь занимаемся, не так ли?
В качестве альтернативы, у кого-нибудь есть хорошая интуиция о том, почему вывод в MRF затруднен?
Источники: Глава 19 ML:PP: https://www.cs.ubc.ca/~murphyk/MLbook/pml-print3-ch19.pdf
Конкретный раздел показан ниже