Часть 3: Модель персептрона
Добро пожаловать в мою серию статей о глубоком обучении. В этой статье мы подробно обсудим модель Perceptron. Предыдущая серия этого глубокого обучения включает в себя Применение глубокого обучения и MP нейроны. Так что, если вы не читали эту статью, вы можете перейти по ссылке ниже.
Модель персептрона
Ранее мы изучали MP-Neuron и наткнулись на некоторые ограничения. Чтобы преодолеть некоторые проблемы, мы знакомимся с новой моделью, известной как модель персептрона.
Ограничения MP-нейронов:
- Входы являются булевыми → входы либо 0, либо 1.
- Веса и пороги определяются аналитически.
- Модель не может учиться.
- Кроме того, как насчет небинарных задач?
Теперь давайте попробуем подумать о решениях для преодоления этих проблем. Я призываю вас сделать паузу, прежде чем двигаться дальше, и подумать о том, что и как вы можете преодолеть эти ограничения.
Давайте обсудим решения сейчас. Решением этих ограничений является Perceptron!
- Входные данные → В случае модели персептрона входные данные могут быть реальными значениями, а не просто логическими значениями.
- Выходы → Выходы также могут быть небулевыми.
- Веса → Веса в случае модели персептрона могут быть как положительными, так и отрицательными.
- Функции активации могут быть разными.
- И самое главное, веса и пороги можно узнать!
Давайте просто подытожим то, что мы сказали.
Входные данные могут быть действительными значениями. Вывод может быть небулевым. Порог удаляется, а смещение добавляется.
Теперь посмотрите на диаграмму, упомянутую ниже.
Здесь на этой диаграмме мы видим, что введен порог (b = -θ). Уравнение линии принятия решения в случае MP-нейрона былоw1.X1+w1.X2 = θ.В случае модели Perceptron , уравнение линии принятия решений имеет видw1.X1+w1.X2 -θ = 0. Здесь вес больше не является единицей. Теперь это могут быть и реальные значения.
Давайте теперь попробуем реализовать вентиль И, используя режим персептрона.
Реализация вентиля И с моделью персептрона
См. таблицу истинности для вентиля И, нарисованную ниже слева. Мы взяли веса за 1 и смещение за -1,5. Теперь сосредоточьтесь на диаграмме линий принятия решений, нарисованной справа. Мы видим, что модель может разделять два класса.
Уравнение синей линии для разделения двух классов: w1.X1+w1.X2 +b= 0(в данном случае X1+X2– 1,5=0 при w1=w1=1 и b= -1,5).
Когда мы изменим веса w1 и w2, наклон (синяя линия на упомянутом выше рисунке линии принятия решения) также изменится. Эта линия принятия решений изменится на двумерную плоскость.
Реализация OR Gate с моделью Perceptron
См. таблицу истинности для вентиля ИЛИ, упомянутого ниже. Мы взяли веса как -1, 1,2 и 1,2.
Уравнение (синяя линия на рисунке линии принятия решения, упомянутое ниже), составленное для разделения двух классов: w1.X1+w1.X2 +b= 0(в данном случае >X1+X2–1,5=0 с w1=w1=1 и b= -1,5).
Реализация NAND Gate с моделью персептрона
Реализация NAND Gate будет аналогична описанной выше. См. Таблицу истинности для вентиля И-НЕ, упомянутого ниже. Здесь мы взяли веса как 1, -0,6 и -0,6.
Учитывая назначенные веса, если h(x,w) > 0, то выход будет равен 1, иначе выход будет равен 0 и h≤0.
До сих пор мы обсуждали линейную комбинацию взвешенных входных данных. См. диаграмму ниже, чтобы понять процесс. Слева у нас есть некоторые входные данные, которые передаются с весами. Суммирование линейной комбинации взвешенных входных данных обрабатывается с помощью нелинейной функции активации вместе с некоторым добавлением смещения для получения выходных данных.
Эти веса и входы также могут быть обозначены в виде матрицы.
Давайте теперь разберемся в этой теме на нескольких примерах для лучшего понимания.
А теперь попробуйте ответить на следующие вопросы.
• Сколько функций будет в приведенном выше случае?
• Сколько классов будет?
• Как выглядит пространство признаков?
• Может ли один MP Neuron решить проблему?
- Может ли один персептрон решить проблему?
Давайте теперь раскроем все ответы.
Может ли один персептрон решить проблему? — Да. Почему и как? См. ниже рисунок и уравнение, чтобы понять.
Если вы еще не подписаны на меня, пожалуйста, сделайте это. Я надеюсь увидеть вас снова в другом блоге о глубоком обучении. Следите за обновлениями!