Skip to main content
LibreTexts - Ukrayinska

1.2: Стаціонарний часовий ряд

  • Page ID
    97254
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    Підгонка виключно незалежних і однаково розподілених випадкових величин до даних є занадто вузьким поняттям. Хоча, з одного боку, вони дозволяють дещо приємне та легке математичне лікування, їх використання, з іншого боку, часто важко виправдати в додатках. Тому наша мета полягає у впровадженні концепції, яка зберігає деякі бажані властивості незалежних та однаково розподілених випадкових величин («регулярність»), але це також значно розширює клас стохастичних процесів на вибір, дозволяючи залежність, а також різні розподіли. Залежність між двома випадковими величинами\(X\) і\(Y\) зазвичай вимірюється через\(covariance\)\(function\)

    \[ Cov(X,Y)=E\big[(X-E[X])(Y-E[Y])\big] \nonumber \]

    і\(correlation\)\(function\)

    \[ Corr(X,Y)=\frac{Cov(X,Y)}{\sqrt{Var(X)Var(Y)}}. \nonumber \]

    Маючи під рукою ці позначення, можуть бути введені класи строго і слабо залежних стохастичних процесів.

    Визначення 1.2.1 (Сувора стаціонарність). Стохастичний процес (\(X_t\colon t\in T\)) називається строго стаціонарним, якщо для всіх\(t_1,...,t_n \in T\) і\(h\) таких\(t_1+h,...,t_n+h\in T\), що він тримає, що
    \ [(
    X_ {t_1},\ ldots, X_ {t_n})
    \ stackrel {\ cal D} {=}
    (X_ {t_1+h},\ ldots, X_ {t_n+h}).
    \ nonumber\]
    Тобто так звані скінченновимірні розподіли процесу є інваріантними при часових зрушеннях. Тут\(=^{\cal D}\) вказується рівність у розподілі.

    Визначення в терміні скінченновимірного розподілу може бути переформульовано еквівалентно в терміні рівностей кумулятивної функції спільного розподілу

    \[ P(X_{t_1}\leq x_1,\ldots,X_{t_n}\leq x_n)=P(X_{t_1+h}\leq x_1,\ldots,X_{t_n+h}\leq x_n) \nonumber \]

    проведення вірно для всіх\(x_1,...,x_n\in\mathbb{R}\),\(t_1,...,t_n\in T\) і\(h\) таке, що\(t_1+h,...,t_n+h\in T\). Це може бути досить складно перевірити для заданого часового ряду, особливо якщо механізм генерації часового ряду далеко не простий, оскільки занадто багато параметрів моделі доводиться оцінювати за наявними даними, роблячи стислі статистичні висловлювання неможливими. Можливий виняток забезпечується випадком незалежних і однаково розподілених випадкових величин.

    Щоб обійти ці труднощі, аналітик часових рядів зазвичай вказує лише моменти першого та другого порядку спільних розподілів. Це призводить до поняття слабкої стаціонарності.

    Визначення 1.2.2 (Слабка стаціонарність). Стохастичний процес\((X_t\colon t\in T)\) називають слабо стаціонарним, якщо

    • другі моменти кінцеві:\(E[X_t^2]<\infty\) for all \(t\in T\);
    • кошти постійні:\(E[X_t]=m\) для всіх\(t\in T\);
    • коваріація\(X_t\) і\(X_{t+h}\) залежить\(h\) тільки від:

    \[ \gamma(h)=\gamma_X(h)=Cov(X_t,X_{t+h}), \qquad h\in T \mbox{ such that } t+h\in T, \nonumber \]
    не залежить від\(t\in T\) і називається функцією автоковаріації (ACVF). Більш того,
    \[ \rho(h)=\rho_X(h)=\frac{\gamma(h)}{\gamma(0)},\qquad h\in T, \nonumber \]
    називається автокореляційна функція (ACF).

    Зауваження 1.2.1. Якщо\((X_t: t\in T)\)) є строго стаціонарним стохастичним процесом з кінцевими секундними моментами, то він теж слабо нерухомий. Зворотне не обов'язково вірно. Якщо\((X_t\colon t\in T)\) ж слабо нерухомий і гауссовой, то він теж строго стаціонарний. Нагадаємо, що стохастичний процес називається Гауссовим, якщо для будь-якого\(t_1,...,t_n\in T\) випадковий вектор\((X_{t_1},...,X_{t_n})\) багатоваріантний нормально розподілений.

    Цей розділ укладено прикладами стаціонарних і нестаціонарних стохастичних процесів.

    • Малюнок 1.5:100 змодельованих значень циклічного часового ряду (ліва панель), стохастичної амплітуди (середня панель) і синусоїдальної частини (права панель).

    Приклад 1.2.1 (Білий шум). \((Z_t\colon t\in\mathbb{Z})\)Дозволяти послідовність дійсних, попарно некорельованих випадкових величин з\(E[Z_t]=0\) і\(0<Var(Z_t)=\sigma^2<\infty\) для всіх\(t\in\mathbb{Z}\). Тоді\((Z_t\colon t\in Z)\) називається білий шум, скорочено\((Z_t\colon t\in\mathbb{Z})\sim{\rm WN}(0,\sigma^2)\). Він визначає центрований, слабо стаціонарний процес з ACVF та ACF, заданих
    \ [
    \ gamma (h) =\ left\ {\ begin {array} {r@ {\ quad\;} l}\ sigma^2, & h=0,\\ 0, & h\ not=0,\ end {масив}\ право.
    \ qquad\ mbox {і}\ qquad
    \ rho (h) =\ лівий\ {\ begin {масив} {r@ {\ quad\;} л} 1, & h=0,\\ 0, & h\ not=0,\ end {масив}\ праворуч.
    \ nonnumber\]
    відповідно. Якщо\((Z_t\colon t\in\mathbb{Z})\) вони, крім того, незалежні і однаково розподілені, вони називаються iid шумом, коротко\((Z_t\colon t\in\mathbb{Z})\sim{\rm IID}(0,\sigma^2)\). Ліва панель рисунка 1.6 відображає 1000 спостережень послідовності шумів iid на\((Z_t\colon t\in\mathbb{Z})\) основі стандартних нормальних випадкових величин. Відповідні команди R для створення графіка є

    > z = rnorm (1000,0,1)
    > plot.ts (z, xlab= "», ylab= "», main= "»)


    Команда rnorm імітує тут 1000 нормальних випадкових величин із середнім значенням 0 та дисперсією 1. Існують різні вбудовані генератори випадкових величин у R, такі як функції runif (n, a, b) та rbinom (n, m, p), які імітують\(n\) значення рівномірного розподілу на інтервалі\((a,b)\) та біноміального розподілу з параметром повторення\(m\) та успішністю ймовірність\(p\), відповідно.

    Малюнок 1.6:1000 змодельованих значень шуму iid N (0, 1) (ліва панель) і випадкової ходьби з iid N (0, 1) нововведень (права панель).

    Приклад 1.2.2 (Циклічний часовий ряд). \(B\)Дозволяти\(A\) і бути некорельованими випадковими величинами з нульовим середнім і\(Var(A)=Var(B)=\sigma^2\) дисперсіями, і нехай\(\lambda\in\mathbb{R}\) бути параметром частоти. Визначити
    \ [
    x_t=A\ cos (\ лямбда т) +B\ sin (\ лямбда т),\ qquad t\ in\ mathbb {R}.
    \ nonumber\]
    Отриманий стохастичний процес потім\((X_t\colon t\in\mathbb{R})\) слабо стаціонарний. Оскільки\(\sin(\lambda t+\varphi)=\sin(\varphi)\cos(\lambda t)+\cos(\varphi)\sin(\lambda t)\) процес може бути представлений як
    \ [
    x_t=r\ sin (\ lambda t+\ varphi),\ qquad t\ in\ mathbb {R},
    \ nonumber\]
    так що\(R\) стохастична амплітуда і\(\varphi\in[-\pi,\pi]\) стохастична фаза синусоїди. Деякі обчислення показують, що треба мати\(A=R\sin(\varphi)\) і\(B=R\cos(\varphi)\). На лівій панелі малюнка 1.5 відображається 100 спостережуваних значень ряду\((X_t)_{t\in \mathbb{Z}}\). У ньому\(\lambda=\pi/25\) використовувалися, в той час як\(R\) і\(\varphi\) були випадкові величини рівномірно розподілені на інтервалі\((-.5,1)\) і\((0,1)\), відповідно. Середня панель показує реалізацію\(R\), права панель реалізації\(\sin(\lambda t+\varphi)\). Використання циклічних часових рядів має великі переваги, коли потрібно моделювати сезонні ефекти, такі як щорічно повторювані явища. Можна застосувати такі команди R:

    > t = 1:100; R = руніф (100, -.5,1); фі = руніф (100,0,1); лямбда =
    пі/25> цик = R*sin (лямбда*т+фі)
    > ділянка.тс (цик, xlab = "», ylab = "»)

    Таким чином виходить ліва панель малюнка 1.5. Подібним чином слідують середні і праві панелі.

    Приклад 1.2.3 (Випадкова прогулянка). Нехай\((Z_t\colon t\in\mathbb{N})\sim{\rm WN}(0,\sigma^2)\). Нехай\(S_0=0\) і
    \ [
    s_t=z_1+\ ldots+z_t,\ qquad t\ in\ mathbb {N}.
    \ nonumber\]
    Отриманий стохастичний процес\((S_t\colon t\in\mathbb{N}_0)\) називається випадковою прогулянкою і є найважливішим нестаціонарним часовим рядом. Дійсно, тут стверджується, що\(h>0\), для,
    \ [
    Cov (S_t, S_ {t+h}) =Cov (S_t, S_t+r_ {t, h}) =t\ sigma ^ 2,
    \ nonumber\]
    де\(R_{t,h}=Z_{t+1}+\ldots+Z_{t+h}\), і ACVF очевидно залежить від\(t\). У R можна побудувати випадкову прогулянку, наприклад, за допомогою наступної простої команди, яка використовує 1000 нормальних спостережень, збережених у масиві z Прикладу 1.2.1.

    > rw = cumsum (z)
    Функція cumsum приймає як вхідний масив і повертає як вихід масив тієї ж довжини, який містить як j-й запис суму перших j вхідних записів. Отриманий графік часового ряду показаний на правій панелі малюнка 1.6.

    У розділі 3 детально розглядаються так звані авторегресивні процеси ковзної середньої, які стали центральним будівельним блоком аналізу часових рядів. Вони побудовані з послідовностей білих шумів шляхом застосування множини стохастичних різницевих рівнянь, подібних до тих, що визначають випадкову\((S_t\colon t\in\mathbb{N}_0)\) прогулянку Прикладу 1.2.3.

    Загалом, справжні параметри стаціонарного стохастичного процесу статистику\((X_t\colon t\in T)\) невідомі. Тому їх треба оцінювати з усвідомлення\(x_1,...,x_n\). Тут буде використовуватися наступний набір оцінювачів. Середнє значення вибірки\(x_1,...,x_n\) визначається як
    \ [
    \ bar {x} =\ frac 1n\ sum_ {t=1} ^nx_t.
    \ nonumber\]
    Функція автоковаріації зразка (зразок ACVF) задається
    \ begin {рівняння}\ label {eq:1.2.1}
    \ hat { \ гамма} (h) =
    \ frac 1n\ sum_ {t=1} ^ {n-h} (x_ {t+h} -\ бар {x}) (x_t-\ бар {x}),
    \ qquad h = 0,1,\ ldots, n-1.
    \ end {рівняння}
    Нарешті, вибіркова автокореляційна функція (зразок ACF) є

    \ [\ hat {\ rho} (h) =\ frac {\ hat {\ gamma} (h)} {\ hat {\ gamma} (0)},
    \ qquad h=0,1,\ ldots, n-1.
    \ номер\]

    Приклад 1.2.4. \((Z_t\colon t\in\mathbb{Z})\)Дозволяти послідовність незалежних стандартних нормально розподілених випадкових величин (див. ліву панель малюнка 1.6 для типової реалізації розміру n = 1,000). Тоді, зрозуміло,\(\gamma(0)=\rho(0)=1\) і\(\gamma(h)=\rho(h)=0\) коли завгодно\(h\not=0\). У таблиці 1.1 наведені відповідні розрахункові значення\(\hat{\gamma}(h)\) і\(\hat{\rho}(h)\) для\(h=0,1,\ldots,5\).


    Орієнтовні значення дуже близькі до справжніх, що вказує на те, що оцінювачі працюють досить добре для n = 1,000. Дійсно, можна показати, що вони асимптотично неупереджені і послідовні. Причому автокореляції вибірки приблизно\(\hat{\rho}(h)\) нормальні з нульовим середнім і дисперсією\(1/1000\). Дивіться також теорему 1.2.1 нижче. У R функція acf може бути використана для обчислення зразка ACF.

    Теорема 1.2.1. Нехай\((Z_t\colon t\in\mathbb{Z})\sim{\rm WN}(0,\sigma^2)\) і нехай\(h\not=0\). При загальному наборі умов він вважає, що зразок ACF при відставанні\(h\)\(\hat{\rho}(h)\), для великих\(n\) приблизно нормально розподілених з нульовим середнім і дисперсією 1/n.

    Теорема 1.2.1 та приклад 1.2.4 пропонують перший метод оцінки того, чи можна зручно моделювати заданий набір даних за допомогою послідовності білого шуму: для послідовності білого шуму приблизно 95% вибіркових ACF повинні знаходитися в межах довірчого інтервалу\(\pm2/\sqrt{n}\). Використовуючи файли даних на веб-сторінці курсу, можна обчислити за допомогою R відповідні зразки ACF для перевірки білизни базових часових рядів. Властивості зразка ACF переглянуті в розділі 2.

    • Малюнок 1.7: Річні рівні води озера Гурон (ліва панель) та залишкова ділянка, отримані від підгонки лінійного тренду до даних (права панель).