Это вторая часть серии, первую часть вы можете найти здесь, продолжая с того места, где я закончил, в этой статье я объясню, что такое обучение, и как я принял 1 в качестве порога в прошлой статье.

Когда мы рождаемся, мы не знаем вещей и людей вокруг нас, наших родителей, учитель показывает пример типа эй, смотри, это кот, и мы первый раз смотрим на кота, а потом понимаем, что он выглядит Таким образом, нам дается множество примеров того, как выглядит кошка и чем она отличается от других животных. И, наконец, мы узнаем, что такое кошка, и мы можем легко посмотреть на животное и сказать, кошка это или нет. Это может показаться простым явлением. Но наш мозг многократно обучается, чтобы узнать, как выглядит кошка. Это называется обучением.

В прошлой статье я показал свою любовь к южно-индийской кухне, это означает, что с детства я ел разные виды пищи и постепенно развивал сходство с южно-индийской едой. Технически мой мозг сейчас натренирован, я много раз видел и ел южно-индийскую еду, поэтому мой мозг отдавал большее предпочтение типу еды.

Это точная идея персептрона.

Аналогичным образом, когда мы строим искусственную нейронную сеть, входные данные передаются персептрону один за другим, а веса изменяются в соответствии с этим уравнением.

Для всех входных данных i,

W(i) = W(i) + l*(Правильный вывод — вывод, заданный персептроном)*Input(i), где l — скорость обучения

Я написал полное уравнение имени, чтобы никто не запутался в именах переменных. Это очень важное уравнение.

Итак, что происходит?

Perceptron добавляет все входные данные и разделяет их на 2 категории: те, которые вызывают срабатывание, и те, которые нет.

w1x1 + w2x2 = t, где t — пороговое значение

Вот и все, в следующей статье я объясню вам, что такое обратное распространение и чем оно полезно.

Спасибо за чтение .

Вы можете связать меня со мной в Linkedin