2.2: Оцінка функції автоковаріації
- Page ID
- 97192
У цьому розділі розглядається оцінка ACVF і ACF при відставанні\(h\). Нагадаємо з рівняння (1.2.1), що оцінювач
\[ \hat{\gamma}(h)=\frac 1n\sum_{t=1}^{n-|h|}(X_{t+|h|}-\bar{X}_n)(X_t-\bar{X}_n), \qquad h=0,\pm 1,\ldots, \pm(n-1), \nonumber \]
може використовуватися як проксі-сервер для невідомого\(\gamma(h)\). Як оцінювач для ACF\(\rho(h)\),
\[ \hat{\rho}(h)=\frac{\hat{\gamma}(h)}{\hat\gamma(0)},\qquad h=0,\pm 1,\ldots,\pm(n-1), \nonumber \]
був ідентифікований. Деякі з теоретичних властивостей коротко\(\hat{\rho}(h)\) зібрані в наступному. Їх не так очевидно вивести, як у випадку зразка середнього, і всі докази опущені. Зауважте також, що подібні заяви\(\hat{\gamma}(h)\) тримаються також.
- Оцінювач\(\hat{\rho}(h)\), як правило, упереджений, тобто\(E[\hat{\rho}(h)]\not=\rho(h)\). Однак він дотримується необмежувальних припущень, що\[ E[\hat{\rho}(h)]\to\rho(h)\qquad (n\to\infty). \nonumber \] Ця властивість називається асимптотичною неупередженістю.
- Оцінювач\(\hat{\rho}(h)\) узгоджується\(\rho(h)\) за відповідним набором припущень, тобто\(\mathrm{Var}(\hat{\rho}(h)-\rho(h))\to 0\) як\(n\to\infty\).
У розділі 1.5 вже було встановлено, як зразок ACF\(\hat{\rho}\) можна використовувати для перевірки, чи складаються залишки зі змінних білого шуму. Для більш загального статистичного висновку потрібно знати розподіл вибірки\(\hat{\rho}\). Оскільки оцінка\(\rho(h)\) базується лише на кількох спостереженнях для\(h\) близьких до розміру вибірки\(n\), оцінки, як правило, ненадійні. Як правило, наведене Box and Jenkins (1976),\(n\) має бути принаймні 50 і\(h\) менше або дорівнює n/4.
Теорема\(\PageIndex{1}\)
Для\(m\geq 1\), нехай\(\mathbf{\rho}_m=(\rho(1),\ldots,\rho(m))^T\) і\(\mathbf{\hat{\rho}}_m=(\hat{\rho}(1),\ldots,\hat{\rho}(m))^T\), де\(^T\) позначає транспонування вектора. За набором відповідних припущень він вважає, що
\[ \sqrt{n}(\mathbf{\hat{\rho}}_m-\mathbf{\rho}_m)\sim AN(\mathbf{0},\Sigma)\qquad (n\to\infty), \nonumber \]
де\(\sim AN(0,\Sigma)\) означає приблизно нормально розподілені із середнім вектором\(\mathbf{0}\) та коваріаційною матрицею,\(\Sigma=(\sigma_{ij})\) заданою формулою Бартлетта
\[ \sigma_{ij}=\sum_{k=1}^\infty\big[\rho(k+i)+\rho(k-i)-2\rho(i)\rho(k)\big]\big[\rho(k+j)+\rho(k-j)-2\rho(j)\rho(k)\big]. \nonumber \]
Розділ укладено двома прикладами. Перший згадує результати, вже відомі незалежними, однаково розподіленими випадковими величинами, другий стосується авторегресійного процесу Прикладу (2.2.1).
Приклад\(\PageIndex{1}\)
Нехай\((X_t\colon t\in\mathbb{Z})\sim\mathrm{IID}(0,\sigma^2)\). Потім,\(\rho(0)=1\) і\(\rho(h)=0\) для всіх\(h\not=0\). Отже, матриця коваріації\(\Sigma\) задається
\[ \sigma_{ij}=1\quad\mbox{if $i=j$} \qquad and \qquad \sigma_{ij}=0\quad\mbox{if $i\not=j$}. \nonumber \]
Це означає, що\(\Sigma\) це діагональна матриця. З огляду на теорему 2.2.1 він стверджує, що оцінювачі\(\hat{\rho}(1),\ldots,\hat{\rho}(k)\) є приблизно незалежними та однаково розподіленими нормальними випадковими величинами із середнім 0 та дисперсією\(1/n\). Це було покладено в основу методів 1 і 2 в розділі 1.6 (див. Також Теорему 1.2.1).
Приклад\(\PageIndex{2}\)
Перегляньте авторегресивний процес\((X_t\colon t\in\mathbb{Z})\) з Прикладу 2.1.1 с\(\mu=0\). Поділ\(\gamma(h)\) на\(\gamma(0)\) врожайність, що
\[ \rho(h)=\phi^{|h|},\qquad h\in\mathbb{Z}. \nonumber \]
Тепер\(\Sigma\) діагональні записи обчислюються як
\ почати {вирівнювати*}
\ сигма_ {ii} &=\ сума_ {k=1} ^\ інфти\ великий [\ рхо (k+i) +\ рхо (k-i) -2\ rho (i)\ rho (k)\ великий] ^2\\ [.2см]
&=\ сума {k=1} ^i\ phi^ {2i} (\ phi} {-k} -\ фі^k) ^2+\ sum_ {k=i+1} ^\ infty\ phi^ {2k} (\ phi^ {-i} -\ фі^i) ^2\ [.2см]
& =( 1-\ phi^ {2i}) (1+\ phi^2) (1-\ phi^2) ^ {-1} -2i\ phi} ^ {2i}.
\ end {вирівнювати*}
