3.4: Прогнозування
Припустимо, що змінні слабко стаціонарногоX1,…,Xn часового ряду(Xt:t∈Z) спостерігалися з метою передбачити або прогнозувати майбутні значенняXn+1,Xn+2,…. Тут основна увага приділяється так званим однокроковим кращим лінійним предикторам (BLP). Це, за визначенням, лінійні комбінації
ˆXn+1=ϕn0+ϕn1Xn+…+ϕnnX1
спостережуваних зміннихX1,…,Xn, які мінімізують середню квадратичну похибку
E[{Xn+1−g(X1,…,Xn)}2]
для функцій g ofX1,…,Xn. Прямі узагальнення дають визначення для m -step найкращих лінійних предикторівˆXn+mXn+m дляm∈N довільних однаково. Використовуючи Гільбертову космічну теорію, можна довести наступну теорему, яка стане відправною точкою для наших міркувань.
Теорема3.4.1: Best linear prediction (BLP)
(Xt:t∈Z)Дозволяти бути слабо стаціонарним стохастичним процесом якогоX1,…,Xn спостерігаються. Потім одноступінчастий BLPˆXn+1 зXn+1 визначається рівняннями
E[(Xn+1−ˆXn+1)Xn+1−j]=0
для всіхj=1,…,n+1, деX0=1.
Рівняння, зазначені в3.4.1 теоремі, можуть бути використані для обчислення коефіцієнтівϕn0,…,ϕnn в Equation\ ref {3.4.1}. Досить зосередитися на середніх нульових процесах(Xt:t∈Z) і, таким чином, встановитиϕn0=0, як показують наступні розрахунки. Припустимо, щоE[Xt]=μ для всіхt∈Z. Потім, Теорема3.4.1 дає, щоE[ˆXn+1]=E[Xn+1]=μ (використовуючи рівняння сj=n+1. Отже, він вважає, що
μ=E[ˆXn+1]=E[ϕn0+n∑ℓ=1ϕnℓXn+1−ℓ]=ϕn0+n∑ℓ=1ϕnℓμ.
Використовуючи теперϕn0=μ(1−ϕn1−…−ϕnn), Equation\ ref {3.4.1} можна переписати як
ˆYn+1=ϕn1Yn+…+ϕnnY1,
деˆYn+1=ˆXn+1−μ має середнє значення нуля.
З ACVFγ(Xt:t∈Z), рівняння в теоремі3.4.1 можуть бути виражені як
n∑ℓ=1ϕnℓγ(j−ℓ)=γ(j),j=1,…,n.
Зверніть увагу, що черезϕn0=0 умовність останнє рівняння в теоремі3.4.1 (для якоїj=n+1) опущено. Більш зручно, це повторюється в матричних позначеннях. З цією метою нехай,ϕn=(ϕn1,…,ϕnn)T іΓn=(γ(j−ℓ))j,ℓ=1,…,nγn=(γ(1),…,γ(n))T, деT позначається транспонування. З цими позначеннями (3.4.2.) стає
Γnϕn=γn⟺ϕn=Γ−1nγn,
за умови, щоΓn не є сингулярним.
Визначення коефіцієнтівϕnℓ, таким чином, зводилося до розв'язання системи лінійних рівнянь і залежить лише від властивостей другого порядку,(Xt:t∈Z) які задаються ACVFγ.
НехайXn=(Xn,Xn−1,…,X1)T. Потім,ˆXn+1=ϕTnXn. Для оцінки якості прогнозу обчислюють середню квадратичну похибку за допомогою Equation\ ref {3.4.3} наступним чином:
Pn+1=E[(Xn+1−ˆXn+1)2]=E[(Xn+1−ϕTnXn)2]=E[(Xn+1−γTnΓ−1nXn)2]=E[X2n+1−2γTnΓ−1nXnXn+1+γTnΓ−1nXnXTnΓ−1nγn]=γ(0)−2γTnΓ−1nγn+γTnΓ−1nΓnΓ−1nγn=γ(0)−γTnΓ−1nγn.
Як початковий приклад ми пояснюємо процедуру прогнозування авторегресивного процесу порядку 2.
Приклад3.4.1: Prediction of an AR(2) Process
(Xt:t∈Z)Дозволяти бути причинним AR (2) процесXt=ϕ1Xt−1+ϕ2Xt−2+Zt. Припустимо, що дляX1 прогнозування значення доступне лише спостереженняX2. У цьому спрощеному випадку єдине прогнозне рівняння\ ref {3.4.2} дорівнює
ϕ11γ(0)=γ(1),
щобϕ11=ρ(1) іˆX1+1=ρ(1)X1.
На наступному кроці припустимо, щоX2 спостережувані значенняX1 і знаходяться під рукою для прогнозування значенняX3. Потім один аналогічно отримує з (3.4.2.), що предиктор може бути обчислений з
ˆX2+1=ϕ21X2+ϕ22X1=ϕT2X2=(Γ−12γ2)TX2=(γ(1),γ(2))(γ(0)γ(1)γ(1)γ(0))−1(X2X1).
Однак, застосовуючи аргументи, що призводять до визначення PAC у розділі 3.3.3., можна виявити, що
E[{X3−(ϕ1X2+ϕ2X1)}X1]=E[Z3X1]=0,
E[{X3−(ϕ1X2+ϕ2X1)}X2]=E[Z3X2]=0.
Звідси,ˆX2+1=ϕ1X2+ϕ2X1 і навітьˆXn+1=ϕ1Xn+ϕ2Xn−1 для всіхn≥2, експлуатує ту чи іншу авторегресійну структуру.
Оскільки подібні результати можуть бути доведені для загальних причинних процесів AR (p), одноступінчасті предиктори мають вигляд
ˆXn+1=ϕ1Xn+…+ϕpXn−p+1
всякий раз, коли кількість спостережуваних змінних n становить не менше p.
Основний недолік цього підходу відразу видно з попереднього прикладу: Для більших розмірів вибірки n процедура прогнозування вимагає обчислення зворотної матриці,Γ−1n яка є обчислювально-дорогою. В іншій частині цього розділу введено два рекурсивні методи прогнозування, які взагалі обходять інверсію. Вони відомі як алгоритм Дурбіна-Левінсона та алгоритм інновацій. Нарешті, вводяться предиктори, засновані на нескінченному минулому, які часто легко застосовні для класу причинно-наслідкових та оборотних процесів ARMA.
Спосіб 1. Алгоритм Дурбіна-Левінсона
Якщо(Xt:t∈Z) нульовий середній слабо стаціонарний процес з ACVFγ такий, щоγ(0)>0 іγ(h)→0 якh→∞, то коефіцієнтиϕnℓ в (3.4.2.) і середні квадратичні похибкиPn в (3.4.4.) задовольняють рекурсії
ϕ11=γ(1)γ(0),P0=γ(0),
і, для тогоn≥1,
ϕnn=1Pn−1(γ(n)−n−1∑ℓ=1ϕn−1,ℓγ(n−ℓ)),
(ϕn1 ⋮ϕn,n−1)=(ϕn−1,1 ⋮ϕn−1,n−1)−ϕnn(ϕn−1,n−1 ⋮ϕn−1,1)
і
Pn=Pn−1(1−ϕ2nn).
Можна показати, що за припущеннями, зробленими на процес(Xt:t∈Z), він дійсно тримає, щоϕnn дорівнює значенню PACF(Xt:t∈Z) at lag n. Результат сформульований як наслідок 5.2.1 в Броквелл і Девіс (1991). Цей факт висвітлюється на прикладі.
PACF процесу AR (2)
(Xt:t∈Z)Дозволяти бути причинним AR (2) процес. Потім,ρ(1)=ϕ1/(1−ϕ2) і всі інші значення можна обчислити рекурсивно з
ρ(h)−ϕ1ρ(h−1)−ϕ2ρ(h−2)=0,h≥2.
Зверніть увагу, що ACVFγ задовольняє різницеве рівняння з тими ж коефіцієнтами, що видно множенням останнього рівняння наγ(0). Застосування алгоритму Дурбіна-Левінсона дає перше, що
ϕ11=γ(1)γ(0)=ρ(1)andP1=P0(1−ϕ211)=γ(0)(1−ρ(1)2).
Ігноруючи рекурсію для термінів помилкиPn в наступному, наступніϕnℓ значення отримують a
ϕ22=1P1[γ(2)−ϕ11γ(1)]=11−ρ(1)2[ρ(2)−ρ(1)2]
=ϕ21(1−ϕ2)−1+ϕ2−[ϕ1(1−ϕ2)−1]21−[ϕ1(1−ϕ2)−1]2=ϕ2,
ϕ21=ϕ11−ϕ22ϕ11=ρ(1)(1−ϕ2)=ϕ1,
ϕ33=1P2[γ(3)−ϕ21γ(2)−ϕ22γ(1)]=1P2[γ(3)−ϕ1γ(2)−ϕ2γ(2)]=0.
Тепер, посилаючись на зауваження після прикладу 3.3.7., подальші обчислення не потрібні для визначення PACF, оскількиϕnn=0 для всіхn>p=2.
Спосіб 2. Алгоритм нововведень
На відміну від алгоритму Дурбіна-Левінсона, цей метод може застосовуватися і до нестаціонарних процесів. Таким чином, в цілому слід віддати перевагу перед Методом 1. Алгоритм інновацій отримав свою назву від того, що безпосередньо використовується форма прогнозних рівнянь теореми 3.4.1, які викладені в терміні нововведень(Xt+1−ˆXt+1)t∈Z. Зверніть увагу, що послідовність складається з некорельованих випадкових величин.
Однокрокові предикториˆXn+1 можна обчислити за рекурсіями
ˆX0+1=0,P1=γ(0)
і, для тогоn≥1,
ˆXn+1=n∑ℓ=1θnℓ(Xn+1−ℓ−ˆXn+1−ℓ)
Pn+1=γ(0)−n−1∑ℓ=0θ2n,n−ℓPℓ+1,
де коефіцієнти отримують з рівнянь
θn,n−ℓ=1Pℓ+1[γ(n−ℓ)−ℓ−1∑i=0θℓ,ℓ−iθn,n−iPi+1],ℓ=0,1,…,n−1.
Як приклад ми покажемо, як алгоритм інновацій застосовується до часового ряду ковзного середнього порядку 1.
Приклад3.4.3: Prediction of an MA(1) Process
(Xt:t∈Z)Дозволяти бути MA (1) процесXt=Zt+θZt−1. Зверніть увагу, що
γ(0)=(1+θ2)σ2,γ(1)=θσ2andγ(h)=0(h≥2).
Використовуючи алгоритм нововведень, можна обчислити однокроковий предиктор за значеннями
\ begin {align*}
\ theta_ {n1} =\ frac {\ тета\ сигма ^ 2} {p_n},\ qquad
\ theta_ {n\ ell} =0\ quad (\ ell=2,\ ldots, n-1),
\ end {align*}
і
P1=(1+θ2)σ2,Pn+1=(1+θ2−θθn1)σ2
як
ˆXn+1=θσ2Pn(Xn−ˆXn).
Спосіб 3: Прогнозування на основі нескінченного минулого
Припустимо, що аналізується причинно-оборотний процес ARMA (p, q). Припустимо далі, що (нереально) повна історія процесу може бути збережена і що, таким чином, всі минулі змінні(Xt:t≤n) можуть бути доступні. Визначте тоді
˜Xn+m=E[Xn+m|Xn,Xn−1,…],
як провісник m -крок вперед, заснований на нескінченному минулому. Можна показати, що для великих розмірів вибірки n різниця між значеннямиˆXn+m і˜Xn+m зникає з експоненціальною швидкістю. Використовуючи причинність і оборотність процесу ARMA, можна перетворити предиктор˜Xn+m так, щоб він був у обчислювально-більш здійсненній формі. Для цього зверніть увагу, що за причинністю
˜Xn+m=E[Xn+m|Xn,Xn−1,…]=E[∞∑j=0ψjZn+m−j|Xn,Xn−1,…]=∞∑j=mψjZn+m−j
тому щоE[Zt|Xn,Xn−1,…] дорівнює нулю, якщо t>n і дорівнює z_t ift≤n (через оборотність!). Представлення в (3.4.5.) може бути використано для обчислення середньої похибки прогнозування в квадраті˜Pn+m. З причинності випливає, що
˜Pn+m=E[(Xn+m−˜Xn+m)2]=E[(m−1∑j=0ψjZn+m−j)2]=σ2m−1∑j=0ψ2j.
З іншого боку, Equation\ ref {3.4.5} не дозволяє безпосередньо обчислити прогнози, оскільки˜Xn+m дається в терміні змінних шумуZn+m−j. Замість цього буде використана оборотність. Спочатку спостерігайте, що
E[Xn+m−j|Xn,Xn−1,…]={˜Xn+m−j,j<m.Xn+m−j,j≥m.
За оборотності (частина ``0 = "знову випливає з причинності),
0=E[Zn+m|Xn,Xn−1,…]=E[∞∑j=0πjXn+m−j|Xn,Xn−1,…]=∞∑j=0πjE[Xn+m−j|Xn,Xn−1,…].
Поєднуючи попередні два твердження, дає
˜Xn+m=−m−1∑j=1πj˜Xn+m−j−∞∑j=mπjXn+m−j.
Рівняння тепер можуть бути вирішені рекурсивно дляm=1,2,… Note, однак, що для будь-якоїm≥1 послідовності(Xn+m+t−˜Xn+m+t:t∈Z) не складається з некорельованих випадкових величин. Насправді, якщоh∈N0, він вважає, що
E[(Xn+m−˜Xn+m)(Xn+m+h−˜Xn+m+h)]=E[m−1∑j=0ψjZn+m−jm+h−1∑i=0ψiZn+m+h−i]=σ2m−1∑j=0ψjψj+h.
Нарешті, для практичних цілей даний прогноз потрібно скоротити. Це досягається шляхом установки
∞∑j=n+mπjXn+m−j=0.
Отримані рівняння (див. Equation\ ref {3.4.7} для порівняння) рекурсивно дають усічені предиктори m -крокуX∗n+m:
X∗n+m=−m−1∑j=1πjX∗n+m−j−n+m−1∑j=mπjXn+m−j.