Loading [MathJax]/jax/output/HTML-CSS/jax.js
Skip to main content
LibreTexts - Ukrayinska

3.4: Прогнозування

Припустимо, що змінні слабко стаціонарногоX1,,Xn часового ряду(Xt:tZ) спостерігалися з метою передбачити або прогнозувати майбутні значенняXn+1,Xn+2,. Тут основна увага приділяється так званим однокроковим кращим лінійним предикторам (BLP). Це, за визначенням, лінійні комбінації

ˆXn+1=ϕn0+ϕn1Xn++ϕnnX1

спостережуваних зміннихX1,,Xn, які мінімізують середню квадратичну похибку

E[{Xn+1g(X1,,Xn)}2]

для функцій g ofX1,,Xn. Прямі узагальнення дають визначення для m -step найкращих лінійних предикторівˆXn+mXn+m дляmN довільних однаково. Використовуючи Гільбертову космічну теорію, можна довести наступну теорему, яка стане відправною точкою для наших міркувань.

Теорема3.4.1: Best linear prediction (BLP)

(Xt:tZ)Дозволяти бути слабо стаціонарним стохастичним процесом якогоX1,,Xn спостерігаються. Потім одноступінчастий BLPˆXn+1 зXn+1 визначається рівняннями

E[(Xn+1ˆXn+1)Xn+1j]=0

для всіхj=1,,n+1, деX0=1.

Рівняння, зазначені в3.4.1 теоремі, можуть бути використані для обчислення коефіцієнтівϕn0,,ϕnn в Equation\ ref {3.4.1}. Досить зосередитися на середніх нульових процесах(Xt:tZ) і, таким чином, встановитиϕn0=0, як показують наступні розрахунки. Припустимо, щоE[Xt]=μ для всіхtZ. Потім, Теорема3.4.1 дає, щоE[ˆXn+1]=E[Xn+1]=μ (використовуючи рівняння сj=n+1. Отже, він вважає, що

μ=E[ˆXn+1]=E[ϕn0+n=1ϕnXn+1]=ϕn0+n=1ϕnμ.

Використовуючи теперϕn0=μ(1ϕn1ϕnn), Equation\ ref {3.4.1} можна переписати як

ˆYn+1=ϕn1Yn++ϕnnY1,

деˆYn+1=ˆXn+1μ має середнє значення нуля.

З ACVFγ(Xt:tZ), рівняння в теоремі3.4.1 можуть бути виражені як

n=1ϕnγ(j)=γ(j),j=1,,n.

Зверніть увагу, що черезϕn0=0 умовність останнє рівняння в теоремі3.4.1 (для якоїj=n+1) опущено. Більш зручно, це повторюється в матричних позначеннях. З цією метою нехай,ϕn=(ϕn1,,ϕnn)T іΓn=(γ(j))j,=1,,nγn=(γ(1),,γ(n))T, деT позначається транспонування. З цими позначеннями (3.4.2.) стає

Γnϕn=γnϕn=Γ1nγn,

за умови, щоΓn не є сингулярним.

Визначення коефіцієнтівϕn, таким чином, зводилося до розв'язання системи лінійних рівнянь і залежить лише від властивостей другого порядку,(Xt:tZ) які задаються ACVFγ.

НехайXn=(Xn,Xn1,,X1)T. Потім,ˆXn+1=ϕTnXn. Для оцінки якості прогнозу обчислюють середню квадратичну похибку за допомогою Equation\ ref {3.4.3} наступним чином:

Pn+1=E[(Xn+1ˆXn+1)2]=E[(Xn+1ϕTnXn)2]=E[(Xn+1γTnΓ1nXn)2]=E[X2n+12γTnΓ1nXnXn+1+γTnΓ1nXnXTnΓ1nγn]=γ(0)2γTnΓ1nγn+γTnΓ1nΓnΓ1nγn=γ(0)γTnΓ1nγn.

Як початковий приклад ми пояснюємо процедуру прогнозування авторегресивного процесу порядку 2.

Приклад3.4.1: Prediction of an AR(2) Process

(Xt:tZ)Дозволяти бути причинним AR (2) процесXt=ϕ1Xt1+ϕ2Xt2+Zt. Припустимо, що дляX1 прогнозування значення доступне лише спостереженняX2. У цьому спрощеному випадку єдине прогнозне рівняння\ ref {3.4.2} дорівнює

ϕ11γ(0)=γ(1),

щобϕ11=ρ(1) іˆX1+1=ρ(1)X1.

На наступному кроці припустимо, щоX2 спостережувані значенняX1 і знаходяться під рукою для прогнозування значенняX3. Потім один аналогічно отримує з (3.4.2.), що предиктор може бути обчислений з

ˆX2+1=ϕ21X2+ϕ22X1=ϕT2X2=(Γ12γ2)TX2=(γ(1),γ(2))(γ(0)γ(1)γ(1)γ(0))1(X2X1).

Однак, застосовуючи аргументи, що призводять до визначення PAC у розділі 3.3.3., можна виявити, що

E[{X3(ϕ1X2+ϕ2X1)}X1]=E[Z3X1]=0,

E[{X3(ϕ1X2+ϕ2X1)}X2]=E[Z3X2]=0.

Звідси,ˆX2+1=ϕ1X2+ϕ2X1 і навітьˆXn+1=ϕ1Xn+ϕ2Xn1 для всіхn2, експлуатує ту чи іншу авторегресійну структуру.
Оскільки подібні результати можуть бути доведені для загальних причинних процесів AR (p), одноступінчасті предиктори мають вигляд

ˆXn+1=ϕ1Xn++ϕpXnp+1

всякий раз, коли кількість спостережуваних змінних n становить не менше p.

Основний недолік цього підходу відразу видно з попереднього прикладу: Для більших розмірів вибірки n процедура прогнозування вимагає обчислення зворотної матриці,Γ1n яка є обчислювально-дорогою. В іншій частині цього розділу введено два рекурсивні методи прогнозування, які взагалі обходять інверсію. Вони відомі як алгоритм Дурбіна-Левінсона та алгоритм інновацій. Нарешті, вводяться предиктори, засновані на нескінченному минулому, які часто легко застосовні для класу причинно-наслідкових та оборотних процесів ARMA.

Спосіб 1. Алгоритм Дурбіна-Левінсона

Якщо(Xt:tZ) нульовий середній слабо стаціонарний процес з ACVFγ такий, щоγ(0)>0 іγ(h)0 якh, то коефіцієнтиϕn в (3.4.2.) і середні квадратичні похибкиPn в (3.4.4.) задовольняють рекурсії

ϕ11=γ(1)γ(0),P0=γ(0),

і, для тогоn1,

ϕnn=1Pn1(γ(n)n1=1ϕn1,γ(n)),

(ϕn1 ϕn,n1)=(ϕn1,1 ϕn1,n1)ϕnn(ϕn1,n1 ϕn1,1)

і

Pn=Pn1(1ϕ2nn).

Можна показати, що за припущеннями, зробленими на процес(Xt:tZ), він дійсно тримає, щоϕnn дорівнює значенню PACF(Xt:tZ) at lag n. Результат сформульований як наслідок 5.2.1 в Броквелл і Девіс (1991). Цей факт висвітлюється на прикладі.

PACF процесу AR (2)

(Xt:tZ)Дозволяти бути причинним AR (2) процес. Потім,ρ(1)=ϕ1/(1ϕ2) і всі інші значення можна обчислити рекурсивно з

ρ(h)ϕ1ρ(h1)ϕ2ρ(h2)=0,h2.

Зверніть увагу, що ACVFγ задовольняє різницеве рівняння з тими ж коефіцієнтами, що видно множенням останнього рівняння наγ(0). Застосування алгоритму Дурбіна-Левінсона дає перше, що

ϕ11=γ(1)γ(0)=ρ(1)andP1=P0(1ϕ211)=γ(0)(1ρ(1)2).

Ігноруючи рекурсію для термінів помилкиPn в наступному, наступніϕn значення отримують a

ϕ22=1P1[γ(2)ϕ11γ(1)]=11ρ(1)2[ρ(2)ρ(1)2]

=ϕ21(1ϕ2)1+ϕ2[ϕ1(1ϕ2)1]21[ϕ1(1ϕ2)1]2=ϕ2,

ϕ21=ϕ11ϕ22ϕ11=ρ(1)(1ϕ2)=ϕ1,

ϕ33=1P2[γ(3)ϕ21γ(2)ϕ22γ(1)]=1P2[γ(3)ϕ1γ(2)ϕ2γ(2)]=0.

Тепер, посилаючись на зауваження після прикладу 3.3.7., подальші обчислення не потрібні для визначення PACF, оскількиϕnn=0 для всіхn>p=2.

Спосіб 2. Алгоритм нововведень

На відміну від алгоритму Дурбіна-Левінсона, цей метод може застосовуватися і до нестаціонарних процесів. Таким чином, в цілому слід віддати перевагу перед Методом 1. Алгоритм інновацій отримав свою назву від того, що безпосередньо використовується форма прогнозних рівнянь теореми 3.4.1, які викладені в терміні нововведень(Xt+1ˆXt+1)tZ. Зверніть увагу, що послідовність складається з некорельованих випадкових величин.

Однокрокові предикториˆXn+1 можна обчислити за рекурсіями

ˆX0+1=0,P1=γ(0)

і, для тогоn1,

ˆXn+1=n=1θn(Xn+1ˆXn+1)

Pn+1=γ(0)n1=0θ2n,nP+1,

де коефіцієнти отримують з рівнянь

θn,n=1P+1[γ(n)1i=0θ,iθn,niPi+1],=0,1,,n1.

Як приклад ми покажемо, як алгоритм інновацій застосовується до часового ряду ковзного середнього порядку 1.

Приклад3.4.3: Prediction of an MA(1) Process

(Xt:tZ)Дозволяти бути MA (1) процесXt=Zt+θZt1. Зверніть увагу, що

γ(0)=(1+θ2)σ2,γ(1)=θσ2andγ(h)=0(h2).

Використовуючи алгоритм нововведень, можна обчислити однокроковий предиктор за значеннями

\ begin {align*}
\ theta_ {n1} =\ frac {\ тета\ сигма ^ 2} {p_n},\ qquad
\ theta_ {n\ ell} =0\ quad (\ ell=2,\ ldots, n-1),
\ end {align*}

і

P1=(1+θ2)σ2,Pn+1=(1+θ2θθn1)σ2

як

ˆXn+1=θσ2Pn(XnˆXn).

Спосіб 3: Прогнозування на основі нескінченного минулого

Припустимо, що аналізується причинно-оборотний процес ARMA (p, q). Припустимо далі, що (нереально) повна історія процесу може бути збережена і що, таким чином, всі минулі змінні(Xt:tn) можуть бути доступні. Визначте тоді

˜Xn+m=E[Xn+m|Xn,Xn1,],

як провісник m -крок вперед, заснований на нескінченному минулому. Можна показати, що для великих розмірів вибірки n різниця між значеннямиˆXn+m і˜Xn+m зникає з експоненціальною швидкістю. Використовуючи причинність і оборотність процесу ARMA, можна перетворити предиктор˜Xn+m так, щоб він був у обчислювально-більш здійсненній формі. Для цього зверніть увагу, що за причинністю

˜Xn+m=E[Xn+m|Xn,Xn1,]=E[j=0ψjZn+mj|Xn,Xn1,]=j=mψjZn+mj

тому щоE[Zt|Xn,Xn1,] дорівнює нулю, якщо t>n і дорівнює z_t iftn (через оборотність!). Представлення в (3.4.5.) може бути використано для обчислення середньої похибки прогнозування в квадраті˜Pn+m. З причинності випливає, що

˜Pn+m=E[(Xn+m˜Xn+m)2]=E[(m1j=0ψjZn+mj)2]=σ2m1j=0ψ2j.

З іншого боку, Equation\ ref {3.4.5} не дозволяє безпосередньо обчислити прогнози, оскільки˜Xn+m дається в терміні змінних шумуZn+mj. Замість цього буде використана оборотність. Спочатку спостерігайте, що

E[Xn+mj|Xn,Xn1,]={˜Xn+mj,j<m.Xn+mj,jm.

За оборотності (частина ``0 = "знову випливає з причинності),

0=E[Zn+m|Xn,Xn1,]=E[j=0πjXn+mj|Xn,Xn1,]=j=0πjE[Xn+mj|Xn,Xn1,].

Поєднуючи попередні два твердження, дає

˜Xn+m=m1j=1πj˜Xn+mjj=mπjXn+mj.

Рівняння тепер можуть бути вирішені рекурсивно дляm=1,2, Note, однак, що для будь-якоїm1 послідовності(Xn+m+t˜Xn+m+t:tZ) не складається з некорельованих випадкових величин. Насправді, якщоhN0, він вважає, що

E[(Xn+m˜Xn+m)(Xn+m+h˜Xn+m+h)]=E[m1j=0ψjZn+mjm+h1i=0ψiZn+m+hi]=σ2m1j=0ψjψj+h.

Нарешті, для практичних цілей даний прогноз потрібно скоротити. Це досягається шляхом установки

j=n+mπjXn+mj=0.

Отримані рівняння (див. Equation\ ref {3.4.7} для порівняння) рекурсивно дають усічені предиктори m -крокуXn+m:

Xn+m=m1j=1πjXn+mjn+m1j=mπjXn+mj.