Мы прошли долгий путь от первого исследования идеи моделей со слишком малой или слишком большой зависимостью до структурированных моделей ARMA(p,q), которые стремятся сбалансировать это, принимая во внимание не только зависимость между наблюдениями, но и между их зависимостями. случайный шум в разные моменты времени. В разделе Предсказание II: Прогнозирование мы изучили лучший линейный предиктор вместе с двумя алгоритмами, помогающими нам находить коэффициенты BLP и делать прогнозы: алгоритм Дурбина-Левинсона и алгоритм инноваций. В этой статье мы увидим, как расширить эти идеи для получения прогнозов для моделей ARMA(p,q). Прежде чем начать, я настоятельно рекомендую вам просмотреть первую статью об Алгоритме инноваций, поскольку эта статья основана непосредственно на этой. Давайте теперь займемся этим!

Алгоритм инноваций для ARMA(p,q)

где тета-коэффициенты определяются рекурсивными вычислениями

и nu удовлетворяет

Далее, пусть W_{t} определяется как

Прежде чем мы приступим к доказательству, которое фактически дает представление о формулировке алгоритма, давайте попробуем понять, о чем оно говорит. Сначала мы рассматриваем процесс ARMA(p,q) и предлагаем, чтобы BLP наблюдения X_{n+1} можно было найти по приведенной выше формуле в зависимости от некоторых тета-коэффициентов. Эти коэффициенты, в свою очередь, также подчиняются набору рекурсивных формул, зависящих от функции K(i,j), напоминающей ACVF. В самом деле, обратите внимание, что они зависят от случайных переменных W_{t}, а не от исходных, которые являются их нормализованной версией. Давайте теперь посмотрим, почему это так и чем это полезно.

Доказательство

Сначала мы покажем последнее представленное уравнение. Мы определяем W_{t}как указано выше, и видим, что для t › m это правильно определено, потому что

Теперь предположим, что p,q ≥ 1, и определим

. Однако допустим тета- и фи-нулевые коэффициенты. Определять

Теперь рассмотрим последовательность W_{t} и применим к ней ранее изученную версию алгоритма Innovations. Это дает

где для n ≥ m суммирование идет только до q, поскольку

Следовательно, W_{t}является линейной комбинацией X_{t} тогда и только тогда, когда X_{t}является линейной комбинацией W_ {т}. Теперь обратите внимание, что BLP для Y|X_{1}, … , X_{n} совпадает с BLP для Y|W_{1}, … , W_{n} . Таким образом, мы имеем это

Наконец, поскольку

также, мы можем сделать вывод, что

. Обратите внимание, что эта формула — не что иное, как Инновации, которые мы получили ранее! Таким образом, мы можем заключить, что

Остальные уравнения для вычисления фактических коэффициентов и nu_{n} взяты непосредственно из версии инновационного алгоритма, которую мы впервые обсуждали. Вы можете сравнить эту формулу с той, что у нас была раньше:

Для которого, как вы можете видеть, это почти то же самое, за исключением того, что это распространяется на более широкую модель ARMA(p,q). Закончим примером :)

Пример

Учитывая X_{1}иX_k{2},какой будет BLP X_{3}с использованием инновационного алгоритма? Сначала вспомним уравнения

Здесь у нас есть m=2, и нам нужно найти коэффициенты

n=1

n=2

k=0

, поэтому мы используем

Подключение,

k=0

Теперь, чтобы найти v2, мы используем

Это

Теперь мы можем рекурсивно вычислить прогнозы для X_{1}, X_{2}, X_{3}следующим образом:

n=0

n=1

n=2

На этом этапе мы можем просто подставить все значения для тета, которые мы нашли ранее.

В следующий раз

В следующей статье мы приступим к ряду алгоритмов для оценки коэффициентов ARMA(p,q), а это не тривиальная задача!



Последний раз

Функции АКФ и ПАКФ



Главная страница



Следуй за мной в

  1. https://blog.jairparraml.com/
  2. https://www.linkedin.com/in/hair-parra-526ba19b/
  3. https://github.com/JairParra
  4. https://medium.com/@hair.parra