Что означает минимизация эмпирического риска? Минимизация эмпирического риска — это попытка уменьшить (минимизировать) потерю (риск) между прогнозом вашей модели и истинными (эмпирическими) данными. Убыток (на основе показателя или алгоритма по вашему выбору) вычисляет разницу вашего прогноза с фактическим.

Возьмем пример:

actual_values = [23, 4, 17, 15, 33, 40, 5, 3, 20]
your_predictions = [10, 9, 17, 10, 5, 12, 8, 5, 1]
loss = [13, 5, 0, 5, 27, 28, 3, 2, 19]

actual_values — это ваши эмпирические данные (данные, собранные из вашей базы данных или любого случайного источника). your_predictions - это результат (прогноз) вашей функции (или модели). loss — это разница actual_values и your_prediction (без отрицательного или положительного знака. Это называется абсолютной разницей).

Цель минимизации эмпирического риска состоит в том, чтобы свести эти потери к наименьшему возможному значению (обратите внимание, что в некоторых случаях невозможно получить нулевой убыток). Гораздо лучшая потеря была бы похожа на loss ниже.

loss = [0.02, 0.1, 0.99, 0.1, 0.2, 0.03, 0.001, 0.01, 0.02]

Чтобы реализовать этот минимальный риск (убыток), мы можем создать алгоритм, который поможет нам уменьшить убыток, но я бы предпочел (на данный момент) полагаться на существующий алгоритм, известный как стохастический градиентный спуск.