Публикации по теме 'gradient-descent'


Алгоритмы оптимизации в науке о данных: раскрытие потенциала эффективности
Алгоритмы оптимизации играют решающую роль в науке о данных, позволяя аналитикам и исследователям извлекать ценную информацию из огромных объемов данных. Эти алгоритмы предназначены для нахождения наилучшего возможного решения данной проблемы, что делает их бесценными инструментами для максимизации эффективности и улучшения процессов принятия решений. В этой статье мы рассмотрим различные алгоритмы оптимизации, используемые в науке о данных, и обсудим их практическое применение...

Концепция линейной регрессии (часть 1)
Машинное обучение — это очень обширная область, часто, когда мы хотим начать изучать алгоритмы ML, первый алгоритм ML, с которого мы начинаем, — это линейная регрессия, многие онлайн-курсы по науке о данных и даже курсы для выпускников начинаются с линейной регрессии. Основная причина этого может заключаться в том, что LR — это один из таких алгоритмов машинного обучения, которому легко научить, но требуется мало времени, чтобы понять основную идею из-за сложной математики, связанной с..

Привет Рэйми,
Привет Рэйми, Просто сомнение, что подразумевается под буквой «w», положительной или отрицательной? поскольку «w» — это вектор весов, «w» должен быть смесью как положительных, так и отрицательных чисел. Пожалуйста, не стесняйтесь исправить меня. Спасибо, Палаш Нанди

Не беспокойтесь об этом (часть 2): векторное исчисление и оптимизация
Добро пожаловать в новую главу серии «Не беспокойтесь об этом», где мы разбираем математические концепции, лежащие в основе современных алгоритмов науки о данных и машинного обучения. После обсуждения линейной алгебры в разделе Не беспокойтесь об этом (Часть 1): линейная алгебра во второй главе мы окунемся в мир исчисления и оптимизации . В машинном обучении целевая функция (также известная как функция потерь или затрат) количественно определяет, насколько хорошо прогнозы модели..

Строительные блоки машинного обучения: линейная регрессия
Линейная регрессия с нуля с использованием Pytorch и Autograd Фреймворки нейронных сетей, автоматические решения и основные числовые библиотеки, такие как Scikit-learn и SciPy, отвлекли большую часть логики и математики от реализации алгоритмов рабочих лошадок. В эту категорию попадают линейные регрессии. Регрессии - это фундаментальные методы, которые часто столь же эффективны, как и более сложные модели, но мы иногда недооцениваем их, просто «проводя черту через данные». Это..

Урок 25 — Введение в нейронные сети
В этом уроке мы познакомимся с нейронными сетями, классом мощных моделей машинного обучения, вдохновленных структурой и функциями человеческого мозга. Мы сосредоточимся на построении интуиции вокруг основных концепций и компонентов нейронных сетей. Нейронные сети состоят из взаимосвязанных узлов или нейронов, организованных слоями. Каждый нейрон получает входные данные от других нейронов или внешние данные, обрабатывает их и создает выходные данные, которые передаются другим нейронам...

Сказка о градиентном спуске и шумном оракуле
Когда гауссовский шум портит состояние Оракула. Введение В этой статье мы обсудим историю о набирающей популярность алгоритмической фигуре: Градиентном спуске . Для непосвященных градиентный спуск — это предпочтительный инструмент для волшебников машинного обучения, пытающихся понять и укротить темные искусства глубокого обучения, хотя он также находит применение в более простых областях, таких как линейная регрессия и тангенциальные области оптимизации. Градиентный спуск похож на..