1. Краткий обзор гиперсетей в глубоком обучении (arXiv)

Автор: Винод Кумар Чаухан, Цзяндун Чжоу, Пин Лу, Сохейла Молаи, Дэвид А. Клифтон.

Аннотация: Гиперсети, или сокращенно гиперсети, представляют собой нейронные сети, которые генерируют веса для другой нейронной сети, известной как целевая сеть. Они появились как мощный метод глубокого обучения, который обеспечивает большую гибкость, адаптируемость, более быстрое обучение, обмен информацией, сжатие моделей и т. д. Гиперсети показали многообещающие результаты в различных задачах глубокого обучения, включая непрерывное обучение, причинно-следственный вывод, трансферное обучение, сокращение веса, количественную оценку неопределенности, обучение с нулевым выстрелом, обработку естественного языка, обучение с подкреплением и т. д. Несмотря на их успех в различных условиях задач, в настоящее время нет доступных обзоров, чтобы информировать исследователей о разработках и помочь в использовании гиперсетей. Чтобы восполнить этот пробел, мы рассмотрим прогресс в области гиперсетей. Мы представляем наглядный пример обучения глубоких нейронных сетей с использованием гиперсетей и предлагаем классифицировать гиперсети по пяти критериям, которые влияют на проектирование гиперсетей как входы, выходы, изменчивость входов и выходов и архитектуру гиперсетей. Мы также рассматриваем применение гиперсетей в различных условиях задач глубокого обучения. Наконец, мы обсудим проблемы и будущие направления, которые остаются недостаточно изученными в области гиперсетей. Мы считаем, что гиперсети могут произвести революцию в области глубокого обучения. Они предлагают новый способ проектирования и обучения нейронных сетей и могут повысить производительность моделей глубокого обучения в различных задачах. С помощью этого обзора мы стремимся вдохновить на дальнейшие достижения в области глубокого обучения с помощью гиперсетей.

2.HyP-NeRF: изучение улучшенных приор NeRF с использованием гиперсети (arXiv)

Автор: Бипаша Сен, Гаурав Сингх, Адитья Агарвал, Рохит Агарам, К Мадхава Кришна, Шринат Шридхар.

Аннотация: Neural Radiance Fields (NeRF) становится все более популярным представлением для захвата высококачественного внешнего вида и формы сцен и объектов. Однако изучение обобщаемых априорных значений NeRF по категориям сцен или объектов было затруднено из-за высокой размерности весового пространства сети. Чтобы устранить ограничения существующей работы по обобщению, согласованности с несколькими представлениями и улучшить качество, мы предлагаем HyP-NeRF, метод латентного кондиционирования для изучения обобщаемых априорных значений NeRF на уровне категорий с использованием гиперсетей. Вместо того, чтобы использовать гиперсети для оценки только весов NeRF, мы оцениваем как веса, так и хэш-кодирование с несколькими разрешениями, что приводит к значительному повышению качества. Чтобы еще больше улучшить качество, мы включили стратегию шумоподавления и точной настройки, которая устраняет шумы изображений, визуализированных из NeRF, оцененных гиперсетью, и точно настраивает их, сохраняя при этом согласованность с несколькими представлениями. Эти улучшения позволяют нам использовать HyP-NeRF в качестве обобщаемого априора для нескольких последующих задач, включая реконструкцию NeRF из одиночных или загроможденных сцен и преобразование текста в NeRF. Мы предоставляем качественные сравнения и оцениваем HyP-NeRF по трем задачам: обобщение, сжатие и извлечение, демонстрируя наши самые современные результаты.