Пакетное обучение в SOM?

Я пытаюсь реализовать общий SOM с пакетным обучением. и у меня есть сомнения относительно формулы пакетного обучения.

я читал об этом по следующей ссылке

http://cs-www.cs.yale.edu/c2/images/uploads/HR15.pdf

https://notendur.hi.is//~benedikt/Courses/Mia_report2.pdf

я заметил, что обновления веса назначаются, а не добавляются в конце эпохи - разве это не перезапишет предыдущие значения всей сети, а формула обновления не включает предыдущие веса узлов, тогда как это вообще работает?

когда я его реализовывал, многие узлы в сети стали NaN, потому что значение соседства стало равным нулю для многих узлов из-за уменьшения градиента в конце обучения, а формула обновления привела к делению на ноль.

может кто-нибудь правильно объяснить алгоритм пакетной обработки. я ДЕЙСТВИТЕЛЬНО погуглил, и я видел много «улучшения партии» или «ускорения партии», но ничего о просто пакетном кохонене напрямую. и среди тех, кто объяснил, формула была такой же, и это не работает.


person Adithya Sama    schedule 01.04.2016    source источник
comment
Я тоже ищу такие же ответы   -  person Md Monjur Ul Hasan    schedule 05.11.2016


Ответы (1)


Правило обновления пакетного SOM, которое вы видите, является хорошим. Основная идея этого алгоритма заключается в обучении SOM с использованием всего набора данных для обучения, поэтому на каждой итерации веса ваших нейронов представляют собой среднее значение ближайших входных данных. Итак, информация о предыдущих весах находится в BMU (Best Matching Unit).

Как вы сказали, некоторые веса нейронов производят NaN из-за деления на ноль. Чтобы преодолеть эту проблему, вы можете использовать соседнюю функцию, которая всегда больше нуля (например, функцию Гаусса).

person PLATON Ludovic    schedule 29.10.2018