В прошлый раз мы увидели, как оценить тенденцию любого временного ряда вместе со значимыми статистическими свойствами, такими как беспристрастность и дисперсия. На этот раз мы приступим к построению надежных статистических оценок ACVF и ACF.

Асимптотическое поведение выборочной АКВФ и выборочной АКФ

Вспомните определение примерной автоковариационной функции для любого временного ряда:

с участием

и далее,

(Если это кажется запутанным, вспомните, что мы определяли их ранее в этой статье).

Оказывается, что эти оценки необъективны, но, тем не менее, непротиворечивы. То есть, при небольшом количестве данных ожидание не достигнет фактического истинного значения, а скорее сведется к коэффициенту Это. Однако, поскольку они непротиворечивы, это говорит нам о том, что чем больше данных у нас будет, тем лучше будут оценки.

  • Обратите внимание, что при суммировании мы поднимаемся только до n-|h| вместо n .
  • Однако мы делим на n и также вычитаем среднее значение всей выборки.
  • Оказывается, это также лучшее, что мы можем сделать, когда дело доходит до оценки автоковариации! (доказательство выходит за рамки).

Пробный эскиз

Идея состоит в том, чтобы сначала решить, что выборка ACVF смещена. Напомним, что для любой случайной величины X

Следовательно,

Итак, все, что нам нужно сделать сейчас, это рассчитать ожидание. Не торопитесь, обрабатывая то, что происходит в вычислениях:

Давайте посмотрим, что здесь произошло:

  • Первая строка просто вставляет определение.
  • Поскольку ожидание линейно, мы можем поместить его в суммирование.
  • Благодаря независимости среднего значения выборки и каждого отдельного наблюдения (вне области действия) мы можем расширить внутренний член и применить ожидания независимо.
  • Переводим эти термины в мю и найденный ранее второй момент, подключаем и отменяем термины.
  • В пятой строке мы отменили термины и осталось только суммирование, поэтому мы просто их суммируем.
  • Обратите внимание, что в шестой строке ни один член не зависит от t, поэтому мы просто суммируем этот множитель и записываем заново.
  • Мы факторизуем один член (1/n²) внутри суммы и вытаскиваем его сразу за пределы суммы.
  • Это не более чем определение дисперсии выборочной средней оценки, которое мы нашли ранее! , раз фактор.

Таким образом, смещение определяется выражением

Обратите внимание, однако, что по мере того, как n стремится к бесконечности, смещение переходит к дисперсии выборочного среднего за вычетом фактического значения.

Теперь, если мы хотим показать непротиворечивость, идея состоит в том, чтобы использовать L.L.N и Теорему Слутки, чтобы показать, что

В стороне: гамма-вектор и гамма-матрица

Итак, кроме забавного суммирования и статистики, какова конечная цель? Идея состоит в том, что для того, чтобы сделать вывод о p(h), нам нужны некоторые предположения о распределении, которые используют эти оценки (например, построение доверительных интервалов для истинных значений). Сначала мы перейдем к определению двух полезных объектов: гамма-вектор и гамма-матрица.

, а в пробной версии вместо этого используется пробная версия ACVF.

аналогичным образом, в пробной версии свои записи заменяется пробной версией ACVF. В оставшейся части этой статьи мы будем использовать только гамма-вектор, но оба они будут полезны в следующих разделах.

Свойства

Совместное распределение выборки (p(1), … ,p(k))

быть вектором всех корреляций до k (обратите внимание, что это просто гамма-вектор 1, деленный на гамму 0), имеющий, скажем, некоторое совместное распределение F. Затем для больших выборок без больших задержек мы можем аппроксимировать такое распределение

То есть образец вектора АКФ следует многомерному нормальному распределению со средним вектором, равным истинному вектору АКФ, и дисперсией, указанной выше, где Wковариационная матрица с элементами, заданными формулой

. Это частный случай формулы Берле. Не вдаваясь в подробности того, как это произошло и насколько это верно, давайте рассмотрим пару примеров.

с коэффициентами

, и поэтому можно показать, что

. Чтобы рассчитать

мы сначала рассмотрим случай, когда i=j.

i=1

Так что

i>1

Так что

В следующий раз

Это все на данный момент! В следующий раз мы фактически вернемся к прогнозированию, дополнительно определив форму наилучшего линейного предиктора будущего наблюдения с учетом наших данных. Оставайтесь с нами, и увидимся в следующий раз!



Последний раз

Введение в операторы временных рядов



Главная страница



Следуй за мной в

  1. https://blog.jairparraml.com/
  2. https://www.linkedin.com/in/hair-parra-526ba19b/
  3. https://github.com/JairParra
  4. https://medium.com/@hair.parra