Публикации по теме 'gradient-descent'


Полное руководство по машинному обучению — Часть 1
За исключением нескольких ресурсов (которые довольно трудно найти), большинство ресурсов для изучения этой обширной области либо не затрагивают слишком много поверхности, либо углубляются до такой степени, что становятся недоступными для большинства людей. В руководстве я надеюсь создать всеобъемлющее руководство по машинному обучению, надеюсь, в систематизированной и доступной форме. Впрочем, я ни в коем случае не являюсь специалистом в этой области. Я сам начал изучать машинное..

Нейронные сети без страха
Первоначально я опубликовал этот пост в блоге на LinkedIn . Недавно мои коллеги из Red Hat попросили меня написать нетехническое введение в глубокое обучение, которое можно было бы распространить среди сотрудников, использующих инструменты, включающие некоторые из моих работ. Ниже приводится запись в блоге. Резюме Искусственные нейронные сети — это семейство алгоритмов машинного обучения , которые отчасти вдохновлены тем, как работает мозг. Нейронные сети способны изучать..

Что после градиентного спуска (GD) в глубоком обучении (ИИ)?
Хотя алгоритм градиентного спуска является основой всего глубокого обучения, но заканчивается ли на этом история? Ответ: абсолютно нет……..! У нас также есть другие алгоритмы, или мы можем сказать, что они делают Gradient Descent более мощным и даже более быстрым. Расслабьтесь, вам не нужно читать новые алгоритмы, мы просто сделаем наш градиентный спуск более эффективным и быстрым с небольшими изменениями. Проблема с градиентным спуском (GD): GD работает намного медленнее, если..

Федеративное обучение: будущее искусственного интеллекта
Одним из самых последних достижений в области глубокого обучения и искусственного интеллекта является концепция « Федеративного обучения ». В четверг, 6 апреля 2017 года, Google AI объявил об этой концепции федеративного обучения в своем блоге, которая буквально поразила энтузиастов машинного обучения, специалистов по данным и исследователей и заставила их поверить в то, что такая децентрализованная модель ИИ действительно возможна. Федеративное обучение:..

Градиентный спуск для линейной регрессии
В линейной регрессии мы получили функцию стоимости, которая даст нам наилучшую возможную прямую линию, соответствующую нашим данным. (если вы не читали нашу статью о линейной регрессии, вы можете прочитать ее здесь .) Прежде чем двигаться вперед, давайте сначала поймем J (θ), для простоты мы написали J (θ0, θ1) как J (θ). Допустим, у нас есть прямая линия, когда θ0 = 0 и θ1 = 1, ниже представлены точка данных и наша прямая линия, полученные с помощью линейной регрессии. Здесь..

Градиентный спуск
В машинном обучении можно использовать различные методы оптимизации , чтобы уменьшить ошибку и, таким образом, повысить уровень точности . В этой статье мы обсудим оптимизацию моделей машинного обучения с помощью метода градиентного спуска , и чтобы понять это, мы должны сначала взглянуть на концепцию функции стоимости . Функция стоимости Функция стоимости , хотя и имеет разные варианты, в основном содержит 2 переменные ( y_real, y_predicted ); Это позволяет нам измерить ошибку..

Градиентный спуск
Градиентный спуск В этом блоге я расскажу о градиентном спуске. Допустим, у нас есть некоторые данные, и вот диаграмма рассеяния данных. Для простоты я сгенерировал данные, где z вдвое больше x. Допустим, мы хотим найти значение w, при котором линия будет лучше всего соответствовать этим данным. Для этого мы определяем стоимость или функцию потерь. Одна из распространенных функций затрат или потерь - это функция, показанная здесь как J, где мы берем разницу между значениями z и..