Насколько важна математика, когда речь идет о машинном обучении?

Многие из нас начинают обращать внимание на кодирование, чтобы улучшить свои навыки программирования.

Машинное обучение стало предметом дискуссий за последние 5 лет, особенно после взрыва «глубокого обучения». В рамках этого стремления к этому любому новичку в этой области важно понимать основы машинного обучения и его ключевой аспект, тот, который приводит к его появлению сегодня, и ядро ​​, которое приведет машины к лидерству в мире.

В этой статье я попытаюсь охватить простую, но эффективную часть математики, лежащую в основе машинного обучения, а именно вероятностное представление моделей, использующих только простые вероятностные правила.

Сегодня мне попалось следующее изображение:

Пять правил вероятности. В основном все программисты прошли курс вероятностного обучения в средней школе или колледже. Какими бы простыми ни казались эти простые правила, они образуют важнейшие законы машинного обучения.

Чтобы прояснить ситуацию, я начну приводить некоторые примеры, в которых используются эти правила вероятности (показанные на рисунке выше) и другие.

CTC алгоритм

CTC (Connectionist Temporal Classification) - один из интересных алгоритмов, используемых в моделях от последовательности к последовательности, который основан на законах вероятности. Например, это работает следующим образом:

пусть x будет буквой (x: буква), w будет словом (w: слово)

Возникает вопрос: какова вероятность наличия буквы x в слове w?

р (х / ш) =?. Ответ здесь определяет следующий шаг, который сделает алгоритм.

Теперь, чтобы понять его важность, проверьте влияние CTC на следующие поддомены машинного обучения:

Распознавание рукописного текста, Распознавание голоса

Причина использования ctc в этих моделях заключается в том, что они в основном полагаются на вероятность следующего шага для определения текущего.

На рисунке выше показана базовая архитектура модели рукописного декодирования. Прежде всего, сверточные слои используются для извлечения признаков рукописных изображений. Затем их вывод передается на двунаправленные слои lstm просто для сохранения текущего объекта (буквы) и сравнения его со следующим объектом (буквой). В этом случае мы говорим, какова вероятность того, что буква x1 узнает, что за ней следует (или пропущена) буква x2? видеть? простые минимумы вероятности приводят к созданию нежных и отличных моделей, которые перенесут мир в другое будущее!

Наконец, после предсказания шаблона букв они войдут в дерево принятия решений, модель CTC отвечает за выбор правильного шаблона слова.

Вероятность - это наука об изучении неопределенности. Машинное обучение - это наука о разрешении неопределенности, делая ее "в основном" достоверной.

Эти два фактора составляют отличное сочетание вместе.

В заключение, никогда не стоит недооценивать силу математики. Он может творить чудеса.