Генеративная модель → понимает распределение → более или менее вероятностная точка зрения → когда мы говорим о распределениях.
Детерминированный → если x, то y → изменение детерминированное и уже установлено. (если одно дело другое).
Другой подход - изучить распределение в разных точках → это мы собираемся изучить распределение → вероятностный подход.
Мы можем узнать гиперпараметры, которые в основном генерируют эти данные → Это MLE.
Второй вариант лучше → поскольку он охватывает больше точек данных → здесь → у нас может быть два и более средних.
И как это можно связать с логарифмической вероятностью.
Краткий обзор дивергенции KL →
И поскольку порядок имеет значение, → хорошо знать разницу. (и мы видим, что это не так уж и крупно → но как насчет областей, которые → равны нулю? → также, как мы можем применить это в медицинских учреждениях, а также → в деловых условиях).
Это один из случаев → когда порядок действительно имеет значение.
Должны быть непрерывными → всюду → для численной устойчивости.
В принципе → экспоненциально маловероятно, как распределение будет отличаться.
Когда нет возможности → разница бесконечна.
Но нам нужно поставить термин данных впереди → так как иначе невозможно.
И мы можем превратить VAE → в априорную и апостериорную. (а также скрытая переменная).
Но аналитическое решение невозможно.
Вот как мы можем избавиться от интеграла → но так сложно вычислить.
Мы можем заменить некоторые термины там.
Довольно тяжелая математика.
Но главная цель - сделать все вычислимым.
Это очень сексуально.
Разница между GAN и VAE.
Но мы не можем использовать вариационный вывод.
Мы не можем вычислить вероятность → следовательно, нам придется делать разные вещи.
Комбинация подъема и спуска → это ключ.
Но есть еще открытые вопросы, на которые нужно ответить.
Мы можем получить обновленную версию этого → режимы можно эффективно не сбрасывать?
В основном → IMLE - лучший.