Что означает минимизация эмпирического риска? Минимизация эмпирического риска — это попытка уменьшить (минимизировать) потерю (риск) между прогнозом вашей модели и истинными (эмпирическими) данными. Убыток (на основе показателя или алгоритма по вашему выбору) вычисляет разницу вашего прогноза с фактическим.
Возьмем пример:
actual_values = [23, 4, 17, 15, 33, 40, 5, 3, 20] your_predictions = [10, 9, 17, 10, 5, 12, 8, 5, 1] loss = [13, 5, 0, 5, 27, 28, 3, 2, 19]
actual_values
— это ваши эмпирические данные (данные, собранные из вашей базы данных или любого случайного источника). your_predictions
- это результат (прогноз) вашей функции (или модели). loss
— это разница actual_values
и your_prediction
(без отрицательного или положительного знака. Это называется абсолютной разницей).
Цель минимизации эмпирического риска состоит в том, чтобы свести эти потери к наименьшему возможному значению (обратите внимание, что в некоторых случаях невозможно получить нулевой убыток). Гораздо лучшая потеря была бы похожа на loss
ниже.
loss = [0.02, 0.1, 0.99, 0.1, 0.2, 0.03, 0.001, 0.01, 0.02]
Чтобы реализовать этот минимальный риск (убыток), мы можем создать алгоритм, который поможет нам уменьшить убыток, но я бы предпочел (на данный момент) полагаться на существующий алгоритм, известный как стохастический градиентный спуск.