1. Модели скрытой диффузии для генеративного прогнозирования текущей погоды с точной количественной оценкой неопределенности (arXiv)

Автор: Юсси Лейнонен, Ульрих Хаманн, Даниэле Нерини, Урс Германн, Габриэле Франч.

Аннотация. Диффузионные модели получили широкое распространение при генерации изображений, создавая более качественные и разнообразные выборки, чем генеративно-состязательные сети (GAN). Мы вводим модель скрытой диффузии (LDM) для текущего прогноза осадков — краткосрочного прогноза, основанного на последних данных наблюдений. LDM более стабилен и требует меньше вычислений для обучения, чем GAN, хотя и с более дорогостоящим генерированием. Мы сравниваем его с Глубинными генеративными моделями осадков (DGMR) на основе GAN и статистической моделью PySTEPS. LDM дает более точные прогнозы осадков, в то время как сравнения более неоднозначны при прогнозировании того, превышают ли осадки заранее определенные пороговые значения. Самым очевидным преимуществом LDM является то, что он генерирует более разнообразные прогнозы, чем DGMR или PySTEPS. Тесты рангового распределения показывают, что распределение выборок из LDM точно отражает неопределенность прогнозов. Таким образом, LDM перспективны для любых приложений, где важна количественная оценка неопределенности, таких как погода и климат.

2.CoDi: совместно развивающиеся модели контрастной диффузии для табличного синтеза смешанного типа (arXiv)

Автор: Чэджон Ли, Джаён Ким, Носон Пак.

Аннотация: в наши дни с растущим вниманием к табличным данным попытки применить синтетическую таблицу к различным задачам расширились до различных сценариев. Благодаря недавним достижениям в генеративном моделировании поддельные данные, генерируемые табличными моделями синтеза данных, становятся сложными и реалистичными. Однако по-прежнему существует трудность моделирования дискретных переменных (столбцов) табличных данных. В этой работе мы предлагаем обрабатывать непрерывные и дискретные переменные отдельно (но будучи обусловленными друг другом) двумя диффузионными моделями. Две диффузионные модели развиваются во время обучения путем считывания условий друг с друга. Кроме того, чтобы еще больше связать диффузионные модели, мы вводим контрастный метод обучения с методом отрицательной выборки. В наших экспериментах с 11 реальными наборами табличных данных и 8 базовыми методами мы доказываем эффективность предложенного метода, называемого CoDi.