Публикации по теме 'stochastic-gradient'


Пакетный против мини-пакетного против стохастического градиентного спуска с примерами кода
Один из основных вопросов, возникающих при изучении машинного обучения и глубокого обучения, - это несколько типов градиентного спуска. Следует ли использовать пакетный градиентный спуск? Мини-пакетный градиентный спуск или стохастический градиентный спуск? В этом посте мы собираемся понять разницу между этими концепциями и взглянуть на реализации кода из Gradient Descent, чтобы прояснить эти методы. Изменить: обновленная версия здесь . На данный момент мы знаем, что наша матрица..

Восхождение градиентного спуска
Интуиция, лежащая в основе градиентного спуска и его типов: пакетный градиентный спуск, стохастический градиентный спуск и мини-пакетный градиентный спуск. Для любого алгоритма контролируемого обучения мы всегда пытаемся найти функцию (f) предикторов, которая может наилучшим образом определить целевую переменную (y) и дать наименьшую ошибку (E). Функция стоимости (ничего, кроме ошибки) вычисляет ошибку между прогнозами и фактическими значениями. Простейшая функция стоимости, которую..

Асинхронный стохастический градиентный спуск с уменьшающимся шагом
Введение В последние годы искусственный интеллект (ИИ) становится горячей темой, привлекающей внимание многих исследователей. Многие люди начинают искать метод машинного обучения, который не только обучает модель в распределенной среде (распределенное обучение), но и защищает конфиденциальность данных (например, конфиденциальных данных в медицинской или финансовой сфере или личных привычках) (федеративное обучение). . Теоретически существует два основных варианта распределенного..