Обратите внимание, что этот пост для моего вероятного исследования в будущем, чтобы оглянуться назад и просмотреть материалы по этой теме, не читая бумагу полностью.

Глубокая детерминированная неопределенность (DDU) позволяет вычислять и разделять алеаторическую и алеаторическую неопределенность в модели. При этом основное внимание уделяется знакомству с представлениями признаков пикселей в разных местах для одного и того же класса. Делается вывод о возможности независимого использования местоположений DDU. Этот DDU приведет к значительному сокращению потребления памяти по сравнению с пикселями, зависящими от пикселей. Исследователи использовали архитектуру DeepLab-v3+ и применили ее к Pascal VOC 2012, чтобы продемонстрировать свои улучшения в MC Dropout и Deep Ensembles.

введение

В дополнение к прогнозированию при развертывании моделей глубокого обучения надежность неопределенности имеет решающее значение для приложений, критически важных для безопасности (например, автономное вождение, медицинская диагностика и т. д.). По этому вопросу было предложено множество методов, требующих нескольких проходов вперед по модели.

Существует несколько методов получения неопределенности при прямом проходе, например DUQ и ANP; однако, хотя эти два метода подходят, они требуют всесторонних изменений в структуре и настройке обучения с дополнительными гиперпараметрами, которые необходимо точно настроить.

DDU:

  • может использовать пространственную плотность объектов с соответствующими индуктивными смещениями
  • предотвращает проблему коллапса функции

Из-за коллапса признаков выборки (которые находятся вне распределения (OoD)) сопоставляются с областями распределения в пространстве признаков, что делает модель чрезмерно уверенной в входных данных. Поэтому необходимы правильные индуктивные смещения модели, чтобы учесть неопределенность в плотности пространства признаков.

Существует два типа неопределенности:

  1. эпистемическая неопределенность:
    *фиксирует, какой режим не знает
    * высокий для невидимого или OoD входы и могут быть уменьшены за счет большего количества обучающих данных
  2. алеаторическая неопределенность
    *улавливает неоднозначность и шум наблюдения в выборках распределения

В этом исследовании используется DDU для семантической сегментации, чтобы генерировать выходные данные того же измерения, что и классифицированные входные данные. Причина выбора семантической сегментации заключается в том, что она хороша при дисбалансе классов.

DDU в семантической сегментации

Краткое введение в DDU:

Когда мы обучили модель (с билипшицевым ограничением), мы можем вычислить средние значения пространства признаков и ковариации для каждого класса, используя один проход по всем обучающим выборкам. Эти два будут использоваться для соответствия гауссовскому дискриминантному анализу (GDA).

Пиксельно-независимые классовые средние значения и ковариации:

К каждому пикселю привязано собственное предсказание и соответствующее распределение в семантической сегментации. В этом исследовании мы можем вычислить средние значения и ковариационные матрицы без необходимости использования пикселей, как и в многоклассовой классификации.

На этом рисунке авторы нанесли расстояния L2 между средними пространств признаков всех пар. В результате средства одного и того же класса намного ближе друг к другу по сравнению с другими классами. Разумно, что ядро ​​свертки является общим для всего представления пространства признаков.

Вычисление плотности объектов:

Авторы установили GDA, предполагая, что пиксели будут автономными выборками. Одновременно выполняются два действия:

  1. Были получены одно среднее значение и одна ковариация на класс (не пиксель), а затем был применен GDA.
  2. Получена энтропия softmax для каждого пикселя из модели.

Следовательно, авторы могли устранить алеаторическую и эпистемическую неопределенность с помощью единой детерминистической модели семантической сегментации. Это видно из рисунка ниже:

Эксперименты

Чтобы оценить надежность DDU при семантической сегментации, исследователи используют набор данных Pascal VOC и сравнивают его с тремя другими базовыми уровнями неопределенности (энтропия softmax, MC Dropout и Deep Ensembles).

Архитектура и настройка обучения:

Гиперпраметры, используемые для этого исследования, можно описать следующим образом:

  • эпох = 50
  • оптимизатор = SGD (импульс = 0,9 и уменьшение веса = 5e-4)
  • lr = 0.007

Базовые показатели и показатели неопределенности:

  1. Энтропия софтмакс
  2. MC Dropout (MCDO)
  3. Глубокий ансамбль

Метрики для оценки:

Для оценки каждого метода авторы использовали p(точно — достоверно), p(неопределенно — неточно) и PAPU, которые можно проиллюстрировать следующим образом:

  • p(accurate — Certain):вероятность того, что прогноз будет точным при условии, что модель уверена в прогнозе.
  • p(uncertain — inaccurate): вероятность того, что модель окажется неточной из-за неточных прогнозов.
  • PAPU:вероятность того, что модель уверена в точном прогнозе или не уверена в неточном.

Эти три могут быть визуализированы, как показано ниже:

Оценку неопределенности для четырех выборок можно визуализировать следующим образом:

Оценка точности проверочного набора Pascal VOC 2012 и время, необходимое для этого, представлены в таблице ниже:

Примечание. Один прямой проход для:

  1. MC Dropout: включает 5 стохастических проходов вперед.
  2. ансамбль: он получает прогнозы от 3 компонентов ансамбля.

Наблюдение:

  • Время выполнения DDU и обычного softmax лучше, чем у других. (Таблица 1)
  • DDU имеет более высокие значения по всем трем показателям. (Рисунок 3)
  • Плотность признаков DDU фиксирует эпистемическую неопределенность, тогда как энтропия softmax фиксирует алеаторическую неопределенность. (Рисунок 4)

Заключение:

В конце концов мы обнаружили, что DDU может хорошо выполнять задачи семантической сегментации с архитектурой FCNN. Он может работать независимо от пикселя.

Делается вывод, что DDU действовал лучше, чем другие аналогичные модели.

Примечание. Возможно, сдерживание неопределенности в глубоком/машинном обучении поможет нам отладить модели и сделать их более надежными.

Если обнаружены какие-либо ошибки, напишите мне по адресу [email protected]. А пока следите за мной в моем Твиттере здесь и посетите мой LinkedIn здесь». Наконец, если у вас есть идея или совет, я открыт для этого, вам просто нужно написать мне в LinkedIn. 🙂