Привет всем, я нашел странное математическое решение простого MLP с 2 слоями, которое можно адаптировать к k нейронам на слои и n слоям. Эти формулы — первый набросок работы, которую я делаю.
(Обновление: я нашел способ, намного лучшее действительное рекурсивное решение. Я проверю данные и опубликую его. В приведенном ниже решении есть проблема с решениями Fk (Y, a). Решение, приведенное ниже, также не очень хорошо сформулировано с некоторыми ошибками по операциям :))
Мы предполагаем, что бинарная перекрестная энтропия J1 и скалярное произведение выходов и предсказаний J2
где K - количество наблюдений
Мы позируем
Итак, у нас есть одно или несколько решений (действительных или комплексных) для W2.
Мы позируем
Таким образом, W1 зависит от Y , a и X, а W2 зависит от Y и a.
Поскольку W2 не зависит от X, мы можем рекурсивно добавить еще один слой после первого.
Я не знаю, чего это стоит, но мы можем настроить количество слоев и нейронов в слоях…