После базового введения линейной регрессии, когда вы погрузитесь в мир машинного обучения, вашей следующей остановкой станет классификация. Проще говоря, это способ классификации наблюдений на основе их свойств, шаблонов или поведения. Простым примером может быть классификация электронных писем на "спам" и "не спам", другим примером могут быть категории населения мира на основе 'религии' или классифицируя людей на "хорошие" 😊и"плохие" 😣 .

Логистическая регрессия – это один из способов категоризации наблюдений, с которым проще всего начать работу. Пошагово это похоже на линейную регрессию, но теперь ваша гипотеза здесь изменена, она представлена ​​​​как;

(x) = g(z)

где z = θ. Транспонировать * X

g(z) = 1 / 1+e^(z)

Где тета изначально равна нулю, и ее необходимо рассчитать с помощью GDA.

функция g(z) также известна как сигмовидная функция. После того, как вы снова получите гипотезу, вы должны следовать подходу, аналогичному подходу в линейной регрессии, который кратко изложен ниже:

1. Рассчитайте начальную стоимость. то есть ошибка

2. Минимизируйте ошибку, используя Алгоритм градиентного спуска, BFGS или любой другой классификатор по вашему выбору и требованию.

3. Последний шаг — сделать прогноз на основе ваших характеристик данных.

Это все, ребята 😊, следите за мультиклассовой классификацией.

~ sउत्कर्ष_उवाच