Объяснение блока Resnet с глубоким погружением в терминологию

В нейронных сетях сверточные нейронные сети (CNN) были в авангарде задач распознавания изображений ИИ. 3 года назад в этой документе Глубокое остаточное обучение для распознавания изображений был продемонстрирован важный технологический прорыв — структура глубокого остаточного обучения для достижения лучших результатов в соревнованиях по распознаванию изображений ИИ.

Строительный блок «остаточного обучения» (Resnet), как показано на диаграмме (рис. 2 в документе) ниже, является ключом к пониманию приведенного выше документа.

Недавно я хотел углубиться в понимание функциональности того же самого. Как видно выше, на приведенной выше диаграмме нет простого справочного объяснения используемых терминов (x, весовой слой, F(x), ReLU), которое было бы легко понять со ссылкой на стандартную терминологию нейронной сети.

Чтобы прояснить свое собственное понимание, я попытался найти любой подобный контент, в котором подробно описана терминология, используемая на приведенной выше диаграмме.

Не найдя его, я сначала подготовил презентацию в Powerpoint, в которой построена терминология нейронной сети (W * X + B), где W — вектор весов, X — входной вектор, а B — вектор смещения. То же самое было сделано в этой статье шаг за шагом, а затем было объяснено вышеприведенную блок-схему Resnet с учетом этой терминологии.

Презентация состоит из следующих слайдов:

Слайды 1–5: Введение

Слайды 6–10: векторы W, X и B

Слайды 11–13: расчет F(X) первого слоя веса

Слайды 14–16: расчет F(X) второго слоя веса

Слайды 17–20: Окончательный расчет F(X)+X и последующая операция ReLU.

Слайды 21–23: Заключение

Слайд 20 со всеми математическими терминами показан выше. Ссылка на полную презентацию приведена ниже.

http://www.kaytek.co.in/ai/8H31_Kaytek_Residual_Block_Explanation.pdf

Приветствуем все ваши отзывы и предложения.