Привет, народ,

Имея общее представление о том, что такое машинное обучение (ML), давайте углубимся в классический ML.

Что такое классический ML?

Классический ML имеет дело с моделями ML, не основанными на нейронных сетях, для обучения и прогнозирования, в то время как Deep Learning имеет дело с моделями ML, основанными на нейронных сетях, для обучения и прогнозирования.

В целом существует два типа методов ML, а именно:

A. Обучение под наблюдением, когда модели машинного обучения используют помеченный набор обучающих данных.

B. Неконтролируемое обучение, где модели ML используют немаркированный набор обучающих данных.

Что такое Склеарн?

Он, также известный как scikit-learn, представляет собой пакет Python для машинного обучения со встроенными алгоритмами классификации, регрессии и кластеризации, упакованными в виде вызываемых функций.

Давайте теперь рассмотрим общие алгоритмы этих методов обучения.

Алгоритмы машинного обучения

Мы будем использовать библиотеку Python sklearn, чтобы понять алгоритм с помощью фрагментов кода.

1. Логистическая регрессия

Это тип статистически смоделированного алгоритма обучения с учителем для задач классификации, в основе которого лежит логистическая функция (также известная как логит или сигмоидальная функция). Математически,

у=1/(1+ехр(-х))

Он широко используется для задач бинарной классификации. В отличие от линейной регрессии, он предсказывает дискретное двоичное значение. В идеале это хороший подход к случаям, результаты которых должны быть типа истина/ложь, 1/0, да/нет.

Как пользоваться?

из sklearn.linear_model импортировать LogisticRegression

модель = Логистическая регрессия (параметры)

2. Деревья решений

Это контролируемый алгоритм обучения, используемый для задач классификации и регрессии, который использует древовидную структуру решений и их результатов. Каждый узел в дереве решений представляет собой проверку функции, а каждая его ветвь и каждый лист представляют соответствующий возможный результат и принятое решение соответственно.

Изображение взято отсюда.

Как пользоваться?

из sklearn.tree импортировать DecisionTreeClassifier

модель = DecisionTreeClassifier ()

3. Прокачка

Это ансамблевый алгоритм обучения с учителем, используемый для задач классификации и регрессии, который использует последовательное обучение, каждый из которых пытается исправить свое предыдущее, чтобы усилить слабого ученика, уменьшив систематическую ошибку и дисперсию, тем самым избегая переобучения и недообучения. Адаптивное усиление (AdaBoost) и градиентное усиление (GradientBoosting) — это несколько типов, на которые стоит обратить внимание.

Изображение взято отсюда.

Как пользоваться?

из sklearn.ensemble импортировать AdaBoostClassifier

модель = AdaBoostClassifier (параметры)

4. Случайные леса

Это ансамблевый алгоритм обучения с учителем, используемый для задач классификации и регрессии, который использует несколько некоррелированных лесов деревьев решений для одновременного обучения и выводит моду или средний класс отдельных деревьев (голосование большинством). Это помогает получать более точные и стабильные прогнозы и избегать переобучения.

Изображение взято отсюда.

Как пользоваться?

из sklearn.ensemble импортировать RandomForestClassifier

модель = RandomForestClassifier (параметры)

5. СВМ

Это аббревиатура от «Машины опорных векторов» и алгоритм обучения с учителем для задач классификации. Он используется для высокоточных классификаций или для того, чтобы избежать незначительных ошибок классификации путем нахождения оптимальной границы между выходными классами. Линейный SVM, RBF SVM, SGD SVM — это несколько вариантов, на которые стоит обратить внимание.

Изображение взято отсюда.

Как пользоваться?

из sklearn.svm импортировать SVC

модель = SVC (параметры)

6. Наивный Байес

Это алгоритм обучения с учителем для задач классификации, который применяет теорему Байеса о вероятности с предположением условной независимости для всех пар признаков. Гауссовский наивный байесовский метод (GaussianNB), полиномиальный наивный байесовский алгоритм (мультиномиальный NB), бернуллиевский наивный байесовский метод (BernoulliNB) — вот лишь некоторые из его вариантов, на которые стоит обратить внимание.

Как пользоваться?

из sklearn.naive_bayes импортировать GaussianNB

модель = GaussianNB ()

7. снн

Это непараметрический алгоритм обучения с учителем, используемый для задач классификации и регрессии, в котором используется голосование ближайших соседей.

Изображение взято отсюда.

Как пользоваться?

из sklearn.neighbors импортировать KNeighborsClassifier

модель = KNeighborsClassifier (параметр)

8. K-средних

Это алгоритм обучения без учителя, используемый для задач кластеризации, когда заданные точки данных группируются/группируются в k кластеров/групп, так что каждая точка данных принадлежит кластеру/группе ближайшего среднего/центроида, который служит маркировщиком данных.

Как пользоваться?

из sklearn.cluster импортировать KMeans

модель = KMeans (параметры)

Сравнение приведенных выше алгоритмов

Надеюсь, вам понравилось ❤️.

Удачного обучения и кодирования,

Виджаякумар Паттанашетти

МСП 2020 | Индия

Свяжитесь со мной в LinkedIn.