Публикации по теме 'variational-autoencoder'


Трюк с репараметризацией на примере кода
Первый раз об этом слышу (ну вообще-то первый раз читал...) понятия не имел, что это такое, но эй! звучит очень круто! Скорее всего, если вы читаете это, у вас уже есть некоторое представление об этой теме: это способ использования обратного распространения при использовании случайной выборки . В том-то и дело, что вы не можете использовать обратное распространение, когда выбираете случайные числа. Случайность на компьютере обычно означает считывание напряжения какого-либо компонента,..

Вариационный байесовский кодекс: интуиция, лежащая в основе вариационных автокодировщиков (VAE).
Высокие вычислительные затраты на вывод из сложного и часто трудноразрешимого «истинного апостериорного распределения» всегда были камнем преткновения в байесовской структуре. Однако (и, к счастью), существуют определенные методы вывода, которые способны достичь разумного приближения этой трудноизлечимой апертуры к чему-то… послушному. Видите, что я там делал? Одним из таких приближенных методов вывода, который приобрел популярность в последнее время, является вариационный..

Автоэнкодеры, вариационные автоэнкодеры (VAE) и β-VAE
Автоэнкодеры (AE), вариационные автоэнкодеры (VAE) и β-VAE — все это генеративные модели, используемые в неконтролируемом обучении. Независимо от архитектуры все эти модели имеют так называемые структуры кодера и декодера. AE — это детерминированная модель, а VAE и β-VAE — вероятностные модели, основанные на обобщенном алгоритме EM (Максимизация ожидания). В качестве аналогии представьте, что некой художественной галереей руководят г-н Э (Кодер) и г-н Д, которые хотят выставить большое..

Генеративные алгоритмы в DL
Как работают GAN? Одна нейронная сеть, называемая генератором , создает новые экземпляры данных, а другая, дискриминатор , оценивает их подлинность; то есть дискриминатор решает, принадлежит ли каждый экземпляр данных, которые он просматривает, фактическому набору обучающих данных или нет. Допустим, мы пытаемся сделать что-то более банальное, чем пародировать Мону Лизу. Мы собираемся сгенерировать написанные от руки цифры, подобные тем, которые можно найти в наборе данных MNIST,..

Введение в обучение без учителя с Fastai
Введение Как мы все знаем, глубокое обучение действительно стремительно выросло за последние годы и сегодня стало лицом «искусственного интеллекта». Но как с теоретической, так и с практической точки зрения, можем ли мы действительно назвать «интеллектуальным» алгоритм, которому нужны не только миллионы изображений, но и маркировка изображений, чтобы понять, что такое кошка? Мы знаем, что то, что делает людей такими эффективными в обучении, - это способность учиться на небольших..

Вариационный вывод и вывод функции потерь вариационного автоэнкодера (VAE): правдивая история
Когда я учился в аспирантуре по информатике в Duke ~ 2007/2008, тогдашний DGS статистики (Мерлиз Клайд, кажется, теперь председатель) попытался завербовать меня, чтобы я оставил факультет информатики и поступил на работу в статистический отдел. У меня зарождалась любовь к статистике, но она еще не сформировалась полностью. Ее предложение удивило меня и показалось интересным, но я отклонил его. Если бы я предвидел слияние машинного обучения и статистики сегодня *, возможно, я бы..

Генерация изображения с использованием вариационного автоэнкодера — С кодом — Часть 2
Эта часть блога состоит из объяснения вариационного автоэнкодера, математики, кода и результата. Этот блог состоит из следующих тем по порядку: Резюме — Автоэнкодер Вариационный автоэнкодер Код — Генерация изображения Вывод использованная литература Резюме — Автоэнкодер В прошлом блоге мы разобрались, как работает автоэнкодер. Вариационный автоэнкодер работает аналогично автоэнкодеру, но с небольшими изменениями. Этот вариант помогает нам генерировать изображения,..