Я пересматриваю свою Первую книгу по машинному обучению. Если вы хотите получить суть книги по стостраничному машинному обучению, оставайтесь до самого конца, давайте начнем.

Книга по машинному обучению на сотнях страниц

Эта книга посвящена основам машинного обучения, автор начинает с вводного определения машинного обучения: подполя информатики, которая занимается построением алгоритмов, которые, чтобы Будьте полезны, положитесь на коллекцию примеров какого-нибудь явления. Эти примеры
могут быть взяты из природы, созданы вручную людьми или созданы с помощью другого алгоритма. он добавил, что машинное обучение также можно определить как процесс решения практической проблемы путем сбора набора данных и алгоритмического построения статистической модели на основе этого набора данных.

Затем Марков дает нам различные типы обучения:

  1. Контролируемое обучение: набор данных представляет собой набор помеченных примеров, его цель - использовать набор данных для создания модели, которая принимает вектор признаков x в качестве входных данных и выводит информацию, которая позволяет вывести метку для этого вектора признаков. . Например, модель, созданная с использованием набора данных о людях, может принимать в качестве входных данных вектор признаков, описывающий человека, и выводить вероятность того, что этот человек болен раком.
  2. Неконтролируемое обучение: набор данных представляет собой набор немаркированных примеров
    Опять же, x - это вектор признаков, а цель алгоритма неконтролируемого обучения - создать модель, которая принимает вектор признаков x как input и либо преобразует его в другой вектор, либо в значение, которое можно использовать для решения практической задачи.
  3. Полу-контролируемое обучение: набор данных содержит как помеченные, так и немаркированные примеры. Обычно количество немаркированных примеров намного превышает количество помеченных примеров. Цель алгоритма обучения с учителем такая же, как и у алгоритма обучения с учителем.
  4. Обучение с подкреплением: это подраздел машинного обучения, в котором машина «живет» в среде и способна воспринимать состояние этой среды как вектор функций. Машина может выполнять действия в любом состоянии. Различные действия приносят разные награды, а также могут переместить машину в другое состояние среды. Цель алгоритма обучения с подкреплением - изучить политику. Политика - это функция f (аналогичная модели в контролируемом обучении), которая принимает вектор характеристик состояния в качестве входных данных и выводит оптимальное действие для выполнения в этом состоянии. Действие оптимально, если оно максимизирует ожидаемое среднее вознаграждение.

Марков также дает краткий обзор математических и статистических обозначений, таких как Функции, производные и градиентные, несмещенные оценщики.

Если вас интересуют основы математики машинного и глубокого обучения, взгляните на:



Затем наш автор дает определение сравнения между Классификацией против регрессии, Модельно-ориентированным обучением против основанного на экземплярах, Поверхностным и глубоким обучением, для получения дополнительной информации по этой теме купите книга прямо здесь.

В своей главе «Фундаментальные алгоритмы» он описывает пять алгоритмов, которые не только наиболее известны, но и очень эффективны сами по себе, или используются в качестве строительных блоков для наиболее эффективных алгоритмов обучения.

1-линейная регрессия: это популярный алгоритм обучения регрессии, который изучает модель, которая представляет собой линейную комбинацию характеристик входного примера.

2-Логистическая регрессия: дает вероятность, связанную с каждой категорией или каждым отдельным результатом. Функция вероятности соединяется с линейным уравнением с использованием распределения вероятностей. В логистической регрессии мы используем биномиальное распределение, в котором мы работаем над двумя типами задач категории логистической регрессии.

Обучение из трех элементов дерева решений. Дерево решений - это ациклический граф, который можно использовать для принятия решений. В каждом узле ветвления графа исследуется конкретный признак j вектора признаков. Если значение признака ниже определенного порога, то будет следовать левая ветвь; в противном случае следует правая ветвь. По достижении конечного узла принимается решение о классе, к которому принадлежит пример.

Машина 4-опорных векторов: SVM видит каждый вектор признаков как точку в многомерном пространстве, алгоритм помещает все векторы признаков на воображаемый 20 000-мерный график и рисует воображаемую линию размером 19 999 ( гиперплоскость), которая отделяет примеры с положительными метками от примеров с отрицательными метками. В машинном обучении граница, разделяющая примеры разных классов, называется границей решения.

5-k-ближайших соседей (kNN): - это непараметрический алгоритм обучения. В отличие от других алгоритмов обучения, которые позволяют отбрасывать обучающие данные после построения модели, «kNN» сохраняет все обучающие примеры в памяти.

Марков более подробно рассказывает в статье Анатомия алгоритма обучения, где он объясняет строительные блоки алгоритма машинного обучения, такие как функция потерь, критерий оптимизации, основанный на функции потерь (функция стоимости , например), и процедура оптимизации, использующая обучающие данные для поиска решения критерия оптимизации.

Затем он объясняет основную практику аналитика данных, в которой он дает идеи о проектировании функций, быстром кодировании, объединении, нормализации, стандартизации, работе с отсутствующими функциями, методах импутации данных, недостаточном и переобучении, и многое другое.

Марков также дает четкое объяснение, когда дело доходит до оценки производительности модели, когда он начинает с:

Матрица неточностей - это таблица, в которой резюмируется, насколько успешна модель классификации в прогнозировании примеров, принадлежащих к различным классам. Одна ось матрицы неточностей - это метка, предсказанная моделью, а другая ось - фактическая метка. В задаче двоичной классификации есть два класса. Скажем, модель предсказывает два класса: «спам» и «not_spam»:

Помимо прогнозов и отзыва, чтобы узнать больше о показателях машинного обучения, посетите:



Сотни страниц книги по машинному обучению в своей главе Нейронные сети и глубокое обучение смогли определить нейронные сети как математическую функцию, как регрессия или модель SVM:

Мы более подробно рассмотрим одну конкретную конфигурацию нейронных сетей, называемую нейронные сети с прямой связью (FFNN), и, в частности, архитектуру, называемую многослойным персептроном (MLP). В качестве иллюстрации рассмотрим трехуровневую MLP. Наша сеть принимает на вход двумерный вектор признаков и выводит число. Эта FFNN может быть регрессионной или классификационной моделью, в зависимости от функции активации, используемой в третьем, выходном слое.

Глубокое обучение относится к обучению нейронных сетей с более чем двумя не выходными слоями. Раньше стало труднее обучать такие сети, как количество нарастающих слоев. Две самые большие проблемы были названы проблемами взрывного градиента и исчезающего градиента, поскольку градиентный спуск использовался для обучения параметров сети.

Сверточная нейронная сеть (CNN) - это особый вид FFNN, который значительно сокращает количество параметров в глубокой нейронной сети с множеством единиц без слишком большой потери качества модели. CNN нашли применение в обработке изображений и текста, где они превзошли многие ранее установленные стандарты.

затем книга идет еще глубже в определении расширенных понятий: Обработка несбалансированных наборов данных, комбинирование моделей, обучение нейронных сетей, расширенная регуляризация, обработка множественных входных данных и многое другое.

Трансферное обучение, вероятно, является тем местом, где нейронные сети имеют уникальное преимущество перед неглубокими моделями. При трансферном обучении вы выбираете существующую модель, обученную на некотором наборе данных, и адаптируете эту модель для прогнозирования примеров из другого набора данных, отличного от того, на котором модель была построена. Этот второй набор данных не похож на наборы задержек, которые вы используете для проверки и тестирования. Это может быть какое-то другое явление или, как говорят ученые машинного обучения, другое статистическое распределение.

Удачного обучения :)

об авторе

Со страницы Андрея Буркова на LinkedIn: Он имеет докторскую степень. специалист в области искусственного интеллекта, увлеченный данными, говорящий на английском, французском и русском языках. Хорошие научные навыки программирования и лидерства в команде. Более 20 лет опыта работы над различными компьютерными проектами, включая несколько собственных стартапов.

Заключение

Эта книга действительно замечательная, и я благодарен за то, что начал с нее.

Если вы хотите начать заниматься машинным обучением или если вы практикуете машинное обучение, Get The 100-Page Machine Learning Book.

Это мое личное исследование, если у вас есть какие-либо комментарии, пожалуйста, свяжитесь со мной.

Добро пожаловать на мою среднюю страницу

Github, LinkedIn, Захра Эльхамрауи, Upwork