Урок 2 [1] - 2 [7]:

Содержание курса:

Курс начинается с определения машинного обучения на элементарном уровне; разделение двух измерений линейной линией в форме Wx + b, и позже, как разделить данные с 3, 4 или n измерениями. Вы видите, как данные проходят через перцептрон визуально, и как вы можете комбинировать перцептроны для разделения данных, которые выглядят линейно неразделимыми, например, используя перцептрон AND и NOT для создания перцептрона XOR.

Мы узнали, как работает градиентный спуск, и как различные типы функций активации создают дискретные или непрерывные выходные данные в зависимости от функций активации, помещенных перед выходным слоем. Самым интересным в этом разделе было то, как вы могли объединить несколько линейных моделей, чтобы получить модель, которая могла бы классифицировать нелинейные данные, а затем объединить эти модели для создания еще более сложных моделей внутри раздела нейронной сети, известного как скрытый слой.

Теперь, когда пришло время кодировать, в этом уроке мне особенно понравилось то, что они объяснили, как и почему вы используете определенные уравнения, поэтому, когда я начал кодировать перцептроны, это имело для меня полный смысл, и мне не пришлось возвращаться и просмотрите видео, потому что они так ясно объяснили это. Они могли преподавать концепции более высокого уровня таким образом, что я никогда не смог бы понять, просто прочитав документацию или статью.

Некоторые из более сложных концепций, такие как функции Gradient Decent и Error, были немного сложнее, и они знали об этом. Вместо того, чтобы просто дать вам уравнение и попросить вас закодировать его, они шаг за шагом проводят математические вычисления. Они спрашивают вас, студента, как вы можете помочь нейронной сети классифицировать данные с помощью простых вопросов, например: «Какой тип функции превращает произведение в сумму?» или «Какой тип функции превращает все числа в положительные?», и в ходе этого процесса вы сами создаете алгоритмы и получите более глубокое понимание того, как они работают.

Диаграммы и анимации, представленные в видеороликах, удобны, особенно если вам сложно понять, почему определенные уравнения и концепции работают именно так. Понятно, что они потратили много времени и усилий, чтобы сделать анимацию понятной и понятной для учащихся.

Мысли:

Начиная с моего опыта прохождения этого курса до Урока 2, я очень доволен материалами курса и интерактивным способом преподавания более сложных математических частей глубокого обучения. Мне также нравится, что форумы курса очень активны - почти на каждый ваш вопрос, вероятно, уже будет дан ответ, а каналы Slack всегда доступны для любых вопросов, на которые вы хотите быстро ответить. Проекты для курса не так уж и сложны, если у вас нет проблем с курсовой работой и вы достаточно хорошо ее понимаете.

В большинстве случаев, если вы чего-то не можете понять и на форумах нет ответа, просто отправьте код, который у вас есть. Рецензент всегда отлично отвечает на ваши вопросы и помогает вам улучшить код для следующей отправки, а также отвечает на любые вопросы, которые вы задаете. Кроме того, они предоставляют вам дополнительные ссылки и документацию по конкретным концепциям, которые вы можете не понять, исходя из уровня понимания, который они видят из вашего кода.

Этот курс требует предварительного программирования и знаний Python, и они ожидают, что вы поймете, как кодировать все перцептроны, алгоритмы и функции активации, просто зная, как они работают. Без этого опыта некоторые из довольно простых упражнений по кодированию будут трудными для человека, плохо разбирающегося в Python. Однако совершенно необязательно владеть математическим расчетом, поэтому пусть это вас не пугает. Так как я новичок в старшей школе, я еще не изучал математику, но я смог понять математику градиентного спуска с достаточно хорошим пониманием, просмотрев пару видеороликов здесь и там.

В целом, мне очень нравится этот курс, и до сих пор я учился у Udacity. С нетерпением жду следующих уроков!