Фреймворк глубокой искусственной нейронной сети, который использует обратное распространение для обучения.

Всего в нем 5 слоев нейронов.

Скрытые слои имеют по 4 нейрона каждый, входной слой имеет 3, а выходной слой имеет 6 нейронов (согласно количеству различных классов в данном наборе данных).

Цель

Определите и внедрите объектно-ориентированную инфраструктуру глубокой нейронной сети (с возможностью реализации DNN с несколькими скрытыми слоями), которая предсказывает классы для тестового набора с достаточно точными результатами.

Реализуйте алгоритм обратного распространения для обновления весов.

Вычислите прямые и обратные проходы с градиентами ошибок для каждой входной выборки.

Повторите процесс для каждого образца в обучающем наборе.

Глубокая нейронная сеть

Данная реализация фреймворка содержит следующие слои в нейронной сети:
1. Один входной слой с 3 нейронами.
2. Три скрытых слоя с 4 нейронами каждый.
3. Один выход Слой с 6 нейронами.

Он представляет собой задачу классификации 6 классов.

Веса инициализируются случайным образом.

Функция активации представляет собой сигмоид.

В наборе данных есть образцы с 3 функциями в каждом.

Взносы

Snehanshu Saha Sir from BITS Pilani
    For Teaching the mathematical concepts and also showing with examples on how to develop a Neural Network.
    For guiding in many ways and sharing his wisdom in the art of machine learning.
    And for sharing a working Artificial Multi-Layer Perceptron implementation in Python.
Ramachandran C - M.Tech Student of Snehanshu Saha Sir in BITS Pilani and Primary Author of Pyano.

Вот ссылка на исходный код:

https://github.com/RamBITS-AI/ArtificialNeuralNetwork