Привет всем, я нашел странное математическое решение простого MLP с 2 слоями, которое можно адаптировать к k нейронам на слои и n слоям. Эти формулы — первый набросок работы, которую я делаю.

(Обновление: я нашел способ, намного лучшее действительное рекурсивное решение. Я проверю данные и опубликую его. В приведенном ниже решении есть проблема с решениями Fk (Y, a). Решение, приведенное ниже, также не очень хорошо сформулировано с некоторыми ошибками по операциям :))

Мы предполагаем, что бинарная перекрестная энтропия J1 и скалярное произведение выходов и предсказаний J2

где K - количество наблюдений

Мы позируем

Итак, у нас есть одно или несколько решений (действительных или комплексных) для W2.

Мы позируем

Таким образом, W1 зависит от Y , a и X, а W2 зависит от Y и a.

Поскольку W2 не зависит от X, мы можем рекурсивно добавить еще один слой после первого.

Я не знаю, чего это стоит, но мы можем настроить количество слоев и нейронов в слоях…