Публикации по теме 'gradient-descent'


Концепции линейной регрессии
В области машинного обучения существует множество алгоритмов, которые могут захватывать различные типы структур данных, но линейная регрессия по-прежнему остается самой популярной из-за своей простоты и интерпретируемости. Каждый специалист по данным начинает свое приключение, сначала изучая эту модель. Оглавление Введение Основы математики Геометрическая интуиция Аналитическая интуиция Метод градиентного спуска Краткое содержание Введение В этой статье я предоставлю вам..

Создайте простую модель линейной регрессии с использованием Python
Это самые простые типы моделей машинного обучения, и мы собираемся реализовать их с помощью Python за несколько шагов. Предполагается, что две переменные связаны линейно. Следовательно, мы попытаемся найти линейную функцию, которая предсказывает ответ (y) по значению признака (x). Итак, начнем: #Шаг 1: Настройте среду Вы можете использовать Jupiter Notebook, Google colab или загрузить python и PyCharm на свой локальный компьютер. Нам понадобятся только две библиотеки: Numpy и..

Сила оптимизаторов в глубоком обучении
Введение Глубокое обучение стало одной из самых многообещающих областей искусственного интеллекта с приложениями, варьирующимися от компьютерного зрения и обработки естественного языка до распознавания речи и открытия лекарств. Успех моделей глубокого обучения объясняется их способностью учиться на больших объемах данных и автоматически извлекать значимые функции. Однако обучение этих моделей может оказаться сложной задачей, требующей продвинутых алгоритмов оптимизации. Здесь..

Код градиентного спуска и объяснение
Всех с наступающим Новым годом и Рождеством!! В этой статье мы объясним работу градиентного спуска с кодом. Это было очень важно и трудно понять для меня, но я постараюсь изо всех сил продемонстрировать, как я достиг следующего результата, а также мои выводы при написании этого. Если есть какие-либо вопросы, не стесняйтесь обращаться ко мне в любое время. Ранее я опубликовал статью в этом блоге, объясняющую теорию градиентного спуска. Не стесняйтесь проверить это здесь . Давай..

Стохастический градиентный спуск для разреженных данных
Во время учебы в магистратуре мне было поручено построить модель, которая будет предсказывать клики по мобильному объявлению на основе большого набора данных из Kaggle . Во время занятий мы изучили стохастический градиентный спуск (SGD) и наивный байесовский метод, и, следовательно, эти методы должны были использоваться в задании. Нам также сказали, что мы будем бороться с размером набора данных, и проще всего будет реализовать алгоритмы с нуля, используя разреженность данных. Именно..

Почему работает градиентный спуск?
Вы могли бы это понять, но видели ли вы это? I) Зачем беспокоиться Во-первых, давайте разберемся, что может быть слоном в комнате для некоторых. Зачем вам читать этот блог? Во-первых, потому что у него потрясающая анимация, как на рисунке 1 ниже. Разве вы не хотите знать, что происходит на этой картинке? Во-вторых, потому что оптимизация действительно очень важна. Меня не волнует, кто вы, это должно быть правдой. Я имею в виду, это наука поиска лучшего. Он позволяет вам..

Градиентный спуск VS Нормальное уравнение - Data Science Journey 5 #
Градиентный спуск и нормальное уравнение — это оба метода, которые можно использовать для поиска оптимального решения для модели линейной регрессии. Оба метода используются для нахождения значений параметров модели (таких как коэффициенты признаков), которые минимизируют ошибку между прогнозируемыми значениями и фактическими значениями в обучающем наборе. Скорость обучения — это гиперпараметр, который определяет размер шагов, предпринимаемых алгоритмом для настройки параметров модели..