Loading [MathJax]/jax/output/HTML-CSS/jax.js
Skip to main content
LibreTexts - Ukrayinska

3.5: Оцінка параметрів

(Xt:tZ)Дозволяти бути причинним і оборотним АРМА (р, q)

процес з відомими замовленнями p і q, можливо з середнімμ. Цей розділ присвячений процедурам оцінювання вектора невідомого параметра.

β=(μ,ϕ1,,ϕp,θ1,,θq,σ2)T.

Для спрощення процедури оцінки передбачається, що дані вже скориговані відніманням середнього, і тому обговорення обмежено нульовим середнім моделями ARMA.

Далі вводяться три методи оцінки. Метод моментів найкраще працює у випадку чистих процесів AR, при цьому не призводить до оптимальних процедур оцінки загальних процесів ARMA. Для останніх більш ефективні оцінки забезпечуються методами максимальної ймовірності та найменших квадратів, які будуть розглянуті згодом.

Метод 1 (Метод моментів) Оскільки цей метод є ефективним лише у їхньому випадку, представлення тут обмежується процесами AR (p)

Xt=ϕ1Xt1++ϕpXtp+Zt,tZ,

де(Zt:tZ)WN(0,σ2). Вектор параметрів,β відповідно, зводиться до(ϕ,σ2)T зϕ=(ϕ1,,ϕp)T і може бути оцінений за допомогою рівнянь Юля-Уокера

Γpϕ=γpand σ2=γ(0)ϕTγp,

деΓp=(γ(kj))k,j=1,,p іγp=(γ(1),,γ(p))T. Зверніть увагу, що рівняння отримані тими ж аргументами, застосованими для виведення алгоритму Дурбіна-Левінсона в попередньому розділі. Метод моментів пропонує замінити кожну величину в рівняннях Юля-Уокера їх оцінними аналогами, що дає оцінювачі Юля-Уокера

ˆϕ=ˆΓ1pˆγp=ˆR1pˆρp

ˆσ2=ˆγ(0)ˆγTpˆΓ1pˆγp=ˆγ(0)[1ˆρTpˆR1pˆρp].

У ньомуˆRp=ˆγ(0)1ˆΓp іˆρp=ˆγ(0)1ˆγp з

ˆγ(h)визначається як в (1.2.1). Використовуючиˆγ(h) як оцінювач для ACVF при відставанніh, залежність від розміру вибіркиn отримується неявним чином. Ця залежність пригнічується в використовуваних тут позначеннях. Наступна теорема містить граничну поведінку оцінок Юля-Уокера, оскільки n прагне до нескінченності.

Теорема 3.5.1. Якщо(Xt:tZ) є причинним AR (p) процес, то

n(ˆϕϕ)DN(0,σ2Γ1p)andˆσ2Pσ2

якn, деP вказує збіжність по ймовірності.

Доказ цього результату наведено в розділі 8.10 Броквелла і Девіса (1991). Оскільки рівняння (3.5.2) та (3.5.3) мають ту саму структуру, що і відповідні рівняння (3.4.3) та (3.4.4), алгоритм Дурбіна-Левінсона може бути використаний для рекурсивного розв'язання оцінокˆϕh=(ˆϕh1,,ˆϕhh). Більш того, оскількиϕhh дорівнює значенню PACF(Xt:tZ) at lag h, оцінювачˆϕhh може бути використаний як його проксі. Оскільки вже відомо, що у випадку AR (p) процесів,ϕhh=0 якщо h>p, Теорема (3.5.1) має на увазі відразу наступний наслідок.

Наслідок 3.5.1 Якщо(Xt:tZ) є причинним AR (p) процес, то

nˆϕhhDZ(n)

для всіх h>p, де Z означає стандартну нормальну випадкову величину.

Приклад 3.5.1. (Оцінки Юля-Уокера для процесів AR (2)). Припустимо, щоXt=1.5Xt1.75Xt2+Zt спостерігалисяn=144 значення авторегресійного процесу, де(Zt:tZ) є послідовність незалежних стандартних нормальних варіацій. Припустимо даліˆγ(0)=8.434, що,ˆρ(1)=0.834 іˆρ(2)=0.476 були розраховані з даних. Оцінки Юля-Уокера для параметрів потім задаються

ˆϕ=(ˆϕ1ˆϕ2)=(1.0000.8340.8341.000)1(0.8340.476)=(1.4390.725)

і

ˆσ2=8.434[1(0.834,0.476)(1.4390.725)]=1.215.

Для побудови асимптотичних довірчих інтервалів за теоремою 3.5.1σ2Γ1p необхідно оцінити невідому граничну коваріаційну матрицю. Це можна зробити за допомогою кошторисника

ˆσ2ˆΓ1pn=11441.2158.434(1.0000.8340.8341.000)1=(0.05720.0030.0030.0572).

Потім1α рівень довірчого інтервалу для параметрівϕ1ϕ2 і обчислюється як

1.439±0.057z1α/2and0.725±0.057z1α/2,

відповідно, деz1α/2 відповідний нормальний квантиль.

Приклад 3.5.2 (Серія набору персоналу).

Давайте переглянемо серію рекрутингу Приклад 3.3.5. Там спочатку була встановлена модель AR (2) відповідно до даних, а параметри моделі потім оцінювалися за допомогою звичайного підходу з найменшими квадратами. Тут коефіцієнти замість цього будуть оцінюватися за допомогою процедури Юля-Уокера. Команда R є

> rec.yw = ar.yw (rec, порядок = 2)}

Середня оцінка може бути отримана з rec.yw$x.mean якˆμ=62.26, тоді як оцінки авторегресивних параметрів та їх стандартні помилки доступні за допомогою команд rec.yw$ar і sqrt (rec.yw$asy.var.coef asˆϕ1=1.3316(.0422) andˆϕ2=.4445(.0422). Нарешті, оцінку дисперсії отримано з rec.yw$var.pred якˆσ2=94.7991. Всі значення близькі до своїх аналогів у прикладі 3.3.5.

Приклад 3.5.3. Розглянемо інвертований МА (1) процесXt=Zt+θZt1, де|θ|<1. Використовуючи оборотність, коженXt має нескінченне авторегресивне представлення

Xt=j=1(θ)jXtj+Zt

що є нелінійним у невідомому параметріθ, який підлягає оцінці. Метод моментів тут заснований на вирішенні

ˆρ(1)=ˆγ(1)ˆγ(0)=ˆθ1+ˆθ2.

дляˆθ. Вищенаведене квадратне рівняння має два розв'язки:

ˆθ=1±14ˆρ(1)22ˆρ(1),

з яких ми вибираємо оборотний. Зверніть увагу на те,|ˆρ(1)| що не обов'язково менше або дорівнює 1/2, що потрібно для існування реальних рішень. (Теоретичне значення|ρ(1)|, однак, завжди менше 1/2 для будь-якого процесу MA (1), як показує простий розрахунок). Значить, не завждиθ можна оцінити за заданими зразками даних.

Метод 2 (Оцінка максимальної правдоподібності) Алгоритм інновацій попереднього розділу, застосований до причинного АРМА (p, q)

процес(Xt:tZ) дає

ˆXi+1=ij=1θij(Xi+1jˆXi+1j),pj=1ϕjXi+1j+1i<max{p,q},

ˆXi+1=pj=1ϕjXi+1j+qj=1θij(Xi+1jˆXi+1j),1imax{p,q},

з помилкою прогнозування

Pi+1=σ2Ri+1.

В останньому виразі,σ2 було враховано з причин, які стануть очевидними з форми функції ймовірності, яка буде розглянута нижче. Нагадаємо, що послідовність(Xi+1ˆXi+1:iZ) складається з некорельованих випадкових величин, якщо параметри відомі. Припускаючи нормальність помилок, ми до того ж отримуємо навіть незалежність. Це може бути використано для визначення процедури оцінки максимальної ймовірності Гаусса (MLE). На всьому протязі передбачається, що(Xt:tZ) має нульове середнє значення (μ=0). Цікаві параметри збираються в векторахβ=(ϕ,θ,σ2)T іβ=(ϕ,θ)T, деϕ=(ϕ1,,ϕp)T іθ=(θ1,,θq)T. Припустимо, нарешті, що ми спостерігали змінніX1,,Xn. Тоді функція правдоподібності Гаусса для нововведень

L(β)=1(2πσ2)n/2(ni=1R1/2i)exp(12σ2nj=1(XjˆXj)2Rj).

Беручи частковуlnL(β) похідну щодо змінної,σ2 виявляє, що MLE forσ2 може бути

розраховується з

ˆσ2=S(ˆϕ,ˆθ)n,S(ˆϕ,ˆθ)=nj=1(XjˆXj)2Rj.

У ньомуˆϕ іˆθ позначають MLEϕ іθ отримані від мінімізації ймовірності профілю або зниженої ймовірності

(ϕ,θ)=ln(S(ϕ,θ)n)+1nnj=1ln(Rj).

Зверніть увагу, що ймовірність профілю(ϕ,θ) можна обчислити за допомогою алгоритму нововведень. Швидкість цих обчислень сильно залежить від якості початкових оцінок. Вони часто забезпечуються неоптимальною процедурою Yule-Walker. Щодо числових методів, таких як алгоритми Ньютона-Рафсона та скорингу, див. Розділ 3.6 в Shumway and Stoffer (2006).

Граничний розподіл процедури MLE наведено у вигляді наступної теореми. Його доказ можна знайти в розділі 8.8 Броквелла і Девіса (1991).

Теорема 3.5.2. (Xt:tZ)Дозволяти причинно-наслідковий та оборотний процес ARMA (p, q), визначений послідовністю iid

(Zt:tZ)satisfyingE[Zt]=0і

E[Z2t]=σ2. Розглянемо MLEˆβ тогоβ, що ініціалізується з моментом оцінки

Спосіб 1. Потім,

n(ˆββ)DN(0,σ2Γ1p,q)(n).

Результат - оптимальний. Матриця коваріаціїΓp,q має блокову форму і може бути оцінена за коваріаціями різних авторегресійних процесів.

Приклад 3.5.4 (Серія набору персоналу). Процедура оцінки MLE для серії набору може бути застосована в R наступним чином:

>rec.mle = ar.mle (рек, замовлення = 2)

Середня оцінка може бути отримана з rec.mle$x.mean якˆμ=62.26, тоді як оцінки авторегресивних параметрів та їх стандартні помилки доступні за допомогою команд rec.mle$ar та sqrt (rec.mle$asy.var.coef) якˆϕ1=1.3513(.0410) іˆϕ2=.4099(.0410). Нарешті, оцінку дисперсії отримано з rec.yw$var.pred якˆσ2=89.3360. Всі значення дуже близькі до своїх аналогів у прикладі 3.3.5.

Метод 3 (Оцінка найменших квадратів) Альтернатива методу моментів і MLE забезпечується оцінкою найменших квадратів (LSE). Для причинно-наслідкових та оборотних процесів ARMA (p, q) він заснований на мінімізації зваженої суми квадратів

S(ϕ,θ)=nj=1(XjˆXj)2Rj

щодоϕ іθ, відповідно. Припускаючи, що˜ϕ і˜θ позначають ці LSE, LSE дляσ2 обчислюється як

˜σ2=S(˜ϕ,˜θ)npq.

Процедура найменших квадратів має ту саму асимптотику, що і MLE.

Теорема 3.5.3. Результат теореми 3.5.2. тримається також, якщоˆβ його замінити на˜β.

Приклад 3.5.5 (Серія набору персоналу). Оцінка найменших квадратів вже обговорювалася в прикладі 3.3.5, включаючи команди R.