Публикации по теме 'negative-log-likelihood'


Путаница CrossEntropy и NLLLoss в Pytorch
Cross Entropy Loss в Pytorch объединяет Softmax и CrossEntropy (а не только часть CrossEntropy) Таким образом, вход должен быть логитом (выход из линейного слоя или любой другой сети), а не нормализованной вероятностью (выход из softmax). 2. NLLLoss (отрицательная логарифмическая потеря правдоподобия) В общем, NLL — это просто отрицательная логарифмическая вероятность L(y)=−log(y) Но в Pytorch нет журнала NLL. Это всего лишь отрицательная вероятность целевого индекса...

Отрицательная вероятность журнала
Объяснение вероятности отрицательного журнала Это функция затрат, которая используется в качестве потерь для моделей машинного обучения, показывая нам, насколько плохо оно работает: чем ниже, тем лучше. Я объясню это слово в слово, надеюсь, у меня все получится. легче понять. Отрицательный : очевидно, означает умножение на -1. Какие? Утрата нашей модели. В большинстве фреймворков машинного обучения есть только минимизация оптимизации, но мы хотим максимизировать вероятность..