1. Байесовский эфирный FedAvg через стохастический градиент, управляемый каналом, Langevin Dynamics (arXiv)

Автор: Бонин Чжан, Дунчжу Лю, Освальдо Симеоне, Гуансю Чжу.

Аннотация: недавняя разработка масштабируемых байесовских методов вывода возродила интерес к принятию байесовского обучения в качестве альтернативы обычному частотному обучению, которое предлагает улучшенную калибровку модели посредством количественной оценки неопределенности. Недавно в качестве варианта объединенного усреднения была представлена ​​динамика Ланжевена с интегрированным усреднением (FALD), которая может эффективно реализовать распределенное байесовское обучение при наличии бесшумной связи. В этой статье мы предлагаем беспроводной FALD (WFALD), новый протокол, который реализует FALD в беспроводных системах путем интеграции беспроводных вычислений и выборки по каналам для обновлений Монте-Карло. В отличие от предыдущей работы по беспроводному байесовскому обучению, WFALD обеспечивает (\emph{i}) несколько локальных обновлений между раундами связи; и (\emph{ii}) стохастические градиенты, вычисленные мини-пакетом. Анализ сходимости представлен с точки зрения расстояния 2-Вассерштейна между образцами, полученными WFALD, и целевым глобальным апостериорным распределением. Анализ и эксперименты показывают, что при достаточно большом отношении сигнал/шум канальный шум может быть полностью переназначен для дискретизации по методу Монте-Карло без потери производительности.

2. Границы конечной выборки для адаптивного обучения с обратным подкреплением с использованием пассивной динамики Ланжевена (arXiv)

Автор: Люк Сноу, Викрам Кришнамурти.

Аннотация: Стохастическая градиентная динамика Ланжевена (SGLD) является полезной методологией для выборки из вероятностных распределений. В этой статье представлен анализ конечной выборки пассивного стохастического градиентного алгоритма динамики Ланжевена (PSGLD), предназначенного для достижения обучения с обратным подкреплением. Под «пассивным» мы подразумеваем, что зашумленные градиенты, доступные для алгоритма PSGLD (обратный процесс обучения), оцениваются в случайно выбранных точках с помощью внешнего алгоритма стохастического градиента (прямое обучение). Таким образом, алгоритм PSGLD действует как рандомизированный сэмплер, который восстанавливает функцию стоимости, оптимизируемую этим внешним процессом. В предыдущей работе была проанализирована асимптотическая производительность этого пассивного алгоритма с использованием методов стохастической аппроксимации; в этой работе мы анализируем неасимптотическую производительность. В частности, мы обеспечиваем конечные временные границы 2-расстояния Вассерштейна между пассивным алгоритмом и его стационарной мерой, из которых получается реконструированная функция стоимости.