Публикации по теме 'negative-log-likelihood'
Путаница CrossEntropy и NLLLoss в Pytorch
Cross Entropy Loss в Pytorch объединяет Softmax и CrossEntropy (а не только часть CrossEntropy)
Таким образом, вход должен быть логитом (выход из линейного слоя или любой другой сети), а не нормализованной вероятностью (выход из softmax).
2. NLLLoss (отрицательная логарифмическая потеря правдоподобия)
В общем, NLL — это просто отрицательная логарифмическая вероятность L(y)=−log(y) Но в Pytorch нет журнала NLL. Это всего лишь отрицательная вероятность целевого индекса...
Отрицательная вероятность журнала
Объяснение вероятности отрицательного журнала
Это функция затрат, которая используется в качестве потерь для моделей машинного обучения, показывая нам, насколько плохо оно работает: чем ниже, тем лучше.
Я объясню это слово в слово, надеюсь, у меня все получится. легче понять.
Отрицательный : очевидно, означает умножение на -1. Какие? Утрата нашей модели. В большинстве фреймворков машинного обучения есть только минимизация оптимизации, но мы хотим максимизировать вероятность..