Генеративная модель → понимает распределение → более или менее вероятностная точка зрения → когда мы говорим о распределениях.

Детерминированный → если x, то y → изменение детерминированное и уже установлено. (если одно дело другое).

Другой подход - изучить распределение в разных точках → это мы собираемся изучить распределение → вероятностный подход.

Мы можем узнать гиперпараметры, которые в основном генерируют эти данные → Это MLE.

Второй вариант лучше → поскольку он охватывает больше точек данных → здесь → у нас может быть два и более средних.

И как это можно связать с логарифмической вероятностью.

Краткий обзор дивергенции KL →

И поскольку порядок имеет значение, → хорошо знать разницу. (и мы видим, что это не так уж и крупно → но как насчет областей, которые → равны нулю? → также, как мы можем применить это в медицинских учреждениях, а также → в деловых условиях).

Это один из случаев → когда порядок действительно имеет значение.

Должны быть непрерывными → всюду → для численной устойчивости.

В принципе → экспоненциально маловероятно, как распределение будет отличаться.

Когда нет возможности → разница бесконечна.

Но нам нужно поставить термин данных впереди → так как иначе невозможно.

И мы можем превратить VAE → в априорную и апостериорную. (а также скрытая переменная).

Но аналитическое решение невозможно.

Вот как мы можем избавиться от интеграла → но так сложно вычислить.

Мы можем заменить некоторые термины там.

Довольно тяжелая математика.

Но главная цель - сделать все вычислимым.

Это очень сексуально.

Разница между GAN и VAE.

Но мы не можем использовать вариационный вывод.

Мы не можем вычислить вероятность → следовательно, нам придется делать разные вещи.

Комбинация подъема и спуска → это ключ.

Но есть еще открытые вопросы, на которые нужно ответить.

Мы можем получить обновленную версию этого → режимы можно эффективно не сбрасывать?

В основном → IMLE - лучший.