Skip to main content
LibreTexts - Ukrayinska

12.1: Дисперсія

  • Page ID
    98567
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    При розгляді математичного очікування дійсної випадкової величини відзначено\(X\), що середнє значення знаходить центр імовірнісного розподілу маси, індукованого\(X\) на дійсній прямій. У цьому блоці ми вивчаємо, як очікування може бути використано для подальшої характеристики розподілу для\(X\). Зокрема, ми маємо справу з поняттям дисперсії та її квадратним коренем стандартного відхилення. У наступних одиницях ми показуємо, як він може бути використаний для характеристики розподілу для пари, що\(\{X, Y\}\) розглядається спільно з поняттями коваріація та лінійна регресія.

    дисперсія

    Розташування центру мас для розподілу важливо, але надає обмежену інформацію. Дві помітно різні випадкові величини можуть мати однакове середнє значення. Було б корисно мати міру поширення маси ймовірності щодо середнього. Серед можливостей, дисперсія та її квадратний корінь, стандартне відхилення, були знайдені особливо корисними.

    Визначення: дисперсія та стандартне відхилення

    Дисперсія випадкової величини\(X\) - це середній квадрат її варіації щодо середнього значення:

    \(\text{Var } [X] = \sigma_X^2 = E[(X - \mu_X)^2]\)де\(\mu_X = E[X]\)

    Стандартне відхилення для X - позитивний квадратний корінь\(\sigma_X\) дисперсії.

    Зауваження

    • Якщо\(X(\omega)\) є спостережуваним значенням\(X\), то його відхилення від середнього дорівнює\(X(\omega) - \mu_X\). Дисперсія - це імовірність середньозважених квадратів цих дисперсій.
    • Квадрат помилки обробляє позитивні та негативні варіації однаково, і він важить великі варіації важче, ніж менші.
    • Як і у випадку з середнім значенням, дисперсія є властивістю розподілу, а не випадкової величини.
    • Нижче ми покажемо, що стандартне відхилення є «природною» мірою відхилення від середнього.
    • При лікуванні математичного очікування ми показуємо, що

    \(E[(X - c)^2]\)мінімальне відключення\(c = E[X]\), в такому випадку\(E[(X - E[X])^2] = E[X^2] - E^2[X]\)

    Це показує, що середнє значення - це константа, яка найкраще наближає випадкову величину в середньому квадратному сенсі.

    Основні шаблони для дисперсії

    Оскільки дисперсія є очікуванням функції випадкової величини X, ми використовуємо властивості очікування в обчисленнях. Крім того, ми вважаємо доцільним визначити кілька закономірностей для дисперсії, які часто корисні при виконанні розрахунків. З одного боку, поки дисперсія визначається як\(E[(X - \mu_X)^2]\), це зазвичай не найзручніша форма для обчислень. Результат, який наведено вище, дає альтернативний вираз.

    (V1): Формула розрахунку. \(\text{Var } [X] = E[X^2] - E^2[X]\)
    (V2): властивість зсуву. \(\text{Var } [X + b] = \text{Var } [X]\). Додавання\(b\) константи\(X\) зміщує розподіл (отже, його центр маси) на цю величину. Варіація зміщеного розподілу щодо зміщеного центру мас така ж, як варіація вихідного, незміщеного розподілу щодо початкового центру мас.
    (V3): Зміна масштабу. \(\text{Var } [aX] = a^2\text{Var }[X]\). Множення\(X\) на постійну a змінює масштаб на коефіцієнт\([a]\). Квадрати варіацій множимо на\(a^2\). Так само і середнє значення квадратів варіацій.
    (V4): Лінійні комбінації.
    a.\(\text{Var }[aX \pm bY] = a^2\text{Var }[X] + b^2 \text{Var } [Y] \pm 2ab(E[XY] - E[X]E[Y])\)
    b. загалом,

    \(\text{Var } [\sum_{k = 1}^{n} a_k X_k] = \sum_{k = 1}^{n} a_k^2 \text{Var }[X_k] + 2\sum_{i < j} a_i a_j (E[X_i X_j] - E[X_i] E[X_j])\)

    Термін\(c_{ij} = E[X_i X_j] - E[X_i] E[X_j]\) - це коваріація пари\(\{X_i, X_j\}\), роль якої ми вивчаємо в одиниці на цю тему. Якщо\(c_{ij}\) всі нуль, ми говоримо, що клас не корелює.

    Зауваження

    • Якщо пара\(\{X, Y\}\) незалежна, вона некорельована. Зворотне не відповідає дійсності, як показують приклади в наступному розділі.
    • Якщо\(a_i = \pm 1\) і всі пари не співвідносяться, то

    \(\text{Var }[\sum_{k = 1}^{n} a_i X_i] = \sum_{k = 1}^{n} \text{Var } [X_i]\)

    Дисперсія додається, навіть якщо коефіцієнти негативні.

    Обчислимо відхилення для деяких поширених розподілів. Деякі деталі опускаються - зазвичай деталі алгебраїчної маніпуляції або прямої оцінки інтегралів. У деяких випадках використовуються відомі суми нескінченних рядів або значень визначених інтегралів. Ряд відповідних фактів узагальнено в Додатку В. Деякі математичні засоби. Наведені нижче результати включені в таблицю в додатку С.

    Дисперсії деяких дискретних розподілів

    Функція індикатора\(X = I_E P(E) = p, q = 1 - p\)\(E[X] = p\)

    \(E[X^2] - E^2[X] = E[I_E^2] - p^2 = E[I_E] - p^2 = p - p^2 = p(1 - p) - pq\)

    Проста випадкова величина\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) (примітивна форма)\(P(A_i) = p_i\).

    \(\text{Var }[X] = \sum_{i = 1}^{n} t_i^2 p_i q_i - 2 \sum_{i < j} t_i t_j p_i p_j\), так як\(E[I_{A_i} I_{A_j}] = 0\)\(i \ne j\)

    Біноміальний (\(n, p\)). \(X = \sum_{i = 1}^{n} I_{E_i}\)з\(\{I_{E_i}: 1 \le i \le n\}\) iid\(P(E_i) = p\)

    \(\text{Var }[X] = \sum_{i = 1}^{n} \text{Var }[I_{E_i}] = \sum_{i = 1}^{n} pq = npq\)

    Геометричний (\(p\)). \(P(X = k) = pq^k\)\(\forall k \ge 0\)\(E[X] = q/p\)

    Використовуємо трюк:\(E[X^2] = E[X(X - 1)] + E[X]\)

    \(E[X^2] = p\sum_{k = 0}^{\infty} k(k - 1)q^k + q/p = pq^2 \sum_{k = 2}^{\infty} k(k - 1)q^{k - 2} + q/p = pq^2 \dfrac{2}{(1 - q)^3} + q/p = 2\dfrac{q^2}{p^2} + q/p\)

    \(\text{Var }[X] = 2\dfrac{q^2}{p^2} + q/p - (q/p)^2 = q/p^2\)

    Пуассон (\ mu)\(P(X = k) = e^{-\mu} \dfrac{\mu^k}{k!}\)\(\forall k \ge 0\)

    Використовуючи\(E[X^2] = E[X(X - 1)] + E[X]\), ми маємо

    \(E[X^2] = e^{-\mu} \sum_{k = 2}^{\infty} k(k - 1) \dfrac{\mu^k}{k!} + \mu = e^{-\mu} \mu^2 \sum_{k = 2}^{\infty} \dfrac{\mu^{k - 2}}{(k - 2)!} + \mu = \mu^2 + \mu\)

    Таким чином,\(\text{Var }[X] = \mu^2 + \mu - \mu^2 = \mu\). Зверніть увагу, що і середнє значення, і дисперсія мають спільне значення.\(\mu\)

    Деякі абсолютно безперервні дистрибутиви

    Уніформа на\((a, b)f_X(t) = \dfrac{1}{b - a}\)\(a < t < b\)\(E[X] = \dfrac{a + b}{2}\)

    \(E[X^2] = \dfrac{1}{b - a} \int_a^b t^2\ dt = \dfrac{b^3 - a^3}{3(b - a)}\)так\(\text{Var }[X] = \dfrac{b^3 - a^3}{3(b - a)} - \dfrac{(a + b)^2}{4} = \dfrac{(b - a)^2}{12}\)

    Симетричний трикутний\((a, b)\) Через властивість shift (V2) ми можемо центрувати розподіл на початку. Тоді розподіл симетричний трикутний\((-c, c)\), де\(c = (b- a)/2\). Через симетрії

    \(\text{Var }[X] = E[X^2] = \int_{-c}^{c} t^2f_X(t)\ dt = 2\int_{0}^{c} t^2 f_X (t)\ dt\)

    Тепер, в даному випадку,

    \(f_X (t) = \dfrac{c - t}{c^2}\)\(0 \le t \le c\)щоб\(E[X^2] = \dfrac{2}{c^2} \int_{0}^{c} (ct^2 - t^3)\ dt = \dfrac{c^3}{6} = \dfrac{(b - a)^2}{24}\)

    Експоненціальна (\ лямбда)\(f_X (t) = \lambda e^{-\lambda t}\),\(t \ge 0\)\(E[X] = 1/\lambda\)

    \(E[X^2] = \int_{0}^{\infty} \lambda t^2 e^{-\lambda t} \ dt = \dfrac{2}{\lambda^2}\)щоб\(\text{Var }[X] = 1/lambda^2\)

    Гамма (1\(\alpha, \lambda\))\(f_{X} (t) = \dfrac{1}{\Gamma(\alpha)} \lambda^{\alpha} t^{\alpha = 1} e^{-\lambda t}\)\(t \ge 0\)\(E[X] = \dfrac{\alpha}{\lambda}\)

    \(E[X^2] = \dfrac{1}{\Gamma (\alpha)} \int_{0}^{\infty} \lambda^{\alpha} t^{\alpha + 1} e^{-\lambda t}\ dt = \dfrac{\Gamma (\alpha + 2)}{\lambda^2 \Gamma(\alpha)} = \dfrac{\alpha (\alpha + 1)}{lambda^2}\)

    Звідси\(\text{Var } [X] = \alpha/\lambda^2\).

    Звичайний (\(\mu, \sigma^2\))\(E[X] = \mu\)

    Розглянемо\(Y\) ~\(N(0, 1)\),\(E[Y] = 0\),\(\text{Var }[Y] = \dfrac{2}{\sqrt{2\pi}} \int_{0}^{\infty} t^2 e^{-t^2/2} \ dt = 1\).

    \(X = \sigma Y + \mu\)має на увазі\(\text{Var }[Y] = \sigma^2\)

    Розширення деяких попередніх прикладів

    В одиниці по очікуванням розраховуємо середнє значення для самих різних випадків. Ми переглядаємо деякі з цих прикладів і обчислюємо відхилення.

    Приклад\(\PageIndex{1}\) Expected winnings (Example 8 from "Mathematical Expectation: Simple Random Variables")

    Ставець робить три ставки по $2.00 кожна. Перший платить $10,00 з ймовірністю 0.15, другий $8.00 з ймовірністю 0.20, а третій $20.00 з ймовірністю 0.10.

    Рішення

    Чистий приріст може бути виражений

    \(X = 10 I_A + 8I_B + 20I_C - 6\), з\(P(A) = 0.15, P(B) = 0.20, P(C) = 0.10\)

    Ми можемо розумно припустити, що клас\(\{A, B, C\}\) є незалежним (це припущення не є необхідним при обчисленні середнього значення). Тоді

    \(\text{Var }[X] = 10^2 P(A) [1 - P(A)] + 8^2 P(B)[1 - P(B)] + 20^2 P(C) [1 - P(C)]\)

    Розрахунок нескладний. Ми можемо використовувати MATLAB для виконання арифметики.

    c = [10 8 20];
    p = 0.01*[15 20 10];
    q = 1 - p;
    VX = sum(c.^2.*p.*q)
    VX = 58.9900
    

    Приклад\(\PageIndex{2}\) A function of \(X\) (Example 9 from "Mathematical Expectation: Simple Random Variables")

    Припустимо,\(X\) в примітивній формі є

    \(X = -3I_{C_1} - I_{C_2} + 2I_{C_3} - 3I_{C_4} + 4I_{C_5} - I_{C_6} + I_{C_7} + 2I_{C_8} + 3I_{C_9} + 2I_{C_{10}}\)

    з ймовірностями\(P(C_i) = 0.08, 0.11, 0.06, 0.13, 0.05, 0.08, 0.12, 0.07, 0.14, 0.16\).

    Нехай\(g(t) = t^2 + 2t\). Визначте\(E[g(X)]\) і\(\text{Var}[g(X)]\)

    c = [-3 -1 2 -3 4 -1 1 2 3 2];            % Original coefficients
    pc = 0.01*[8 11 6 13 5 8 12 7 14 16];     % Probabilities for c_j
    G = c.^2 + 2*c                            % g(c_j)
    EG = G*pc'                                % Direct calculation E[g(X)]
    EG = 6.4200
    VG = (G.^2)*pc' - EG^2;                   % Direct calculation Var[g(X)]
    VG = 40.8036
    [Z,PZ] = csort(G,pc);                     % Distribution for Z = g(X)
    EZ = Z*PZ'                                % E[Z]
    EZ = 6.4200
    VZ = (Z.^2)*PZ' - EZ^2                    % Var[Z]
    VZ = 40.8036
    

    Приклад\(\PageIndex{3}\) \(Z = g(X, Y)\) (Example 10 from "Mathematical Expectation: Simple Random Variables")

    Ми використовуємо той самий спільний розподіл, що і для прикладу 10 з "Математичне очікування: прості випадкові величини" і нехай\(g(t, u) = t^2 + 2tu - 3u\). Для настройки на розрахунки використовуємо jcalc.

    jdemo1                        % Call for data
    jcalc                         % Set up
    Enter JOINT PROBABILITIES (as on the plane)    P
    Enter row matrix of VALUES of X    X
    Enter row matrix of VALUES of Y    Y
     Use array operations on matrices X, Y, PX, PY, t, u, and P
    G = t.^2 + 2*t.*u - 3*u;      % calcculation of matrix of [g(t_i, u_j)]
    EG = total(G.*P)              % Direct calculation of E[g(X,Y)]
    EG = 3.2529
    VG = total(G.^.*P) - EG^2     % Direct calculation of Var[g(X,Y)]
    VG = 80.2133
    [Z,PZ] = csort(G,P);          % Determination of distribution for Z
    EZ = Z*PZ'                    % E[Z] from distribution
    EZ = 3.2529
    VZ = (Z.^2)*PZ' - EZ^2        % Var[Z] from distribution
    VZ = 80.2133
    

    Приклад\(\PageIndex{4}\) A function with compound definition (Example 12 from "Mathematical Expectation: Simple Random Variables")

    Припустимо,\ (X) ~ експоненціальна (0,3). Нехай

    \(Z = \begin{cases} X^2 & \text{for } X \le 4 \\ 16 & \text{for } X > 4 \end{cases} = I_{[0,4]} (X) X^2 + I_{(4, \infty]} (X) 16\)

    Визначте\(E[Z]\) і\(Var[Z]\).

    Аналітичне рішення

    \(E[g(X)] = \int g(t) f_X(t)\ dt = \int_{0}^{\infty} I_{[0, 4]} (t) t^2 0.3 e^{-0.3t}\ dt + 16 E[I_{(4, \infty]} (X)]\)

    \(= \int_{0}^{4} t^2 0.3 e^{-0.3t} \ dt + 16 P(X > 4) \approx 7.4972\)(від Клена)

    \(Z^2 - I_{[0, 4]} (X) X^4 + I_{(4, \infty]} (X) 256\)

    \(E[Z^2] = \int_{0}^{\infty} I_{[0,4]} (t) t^4 0.3 e^{-0.3t}\ dt + 256 E[I_{(4, \infty]} (X)] = \int_{0}^{4} t^4 0.3 e^{-0.3t}\ dt + 256 e^{-1.2} \approx 100.0562\)

    \(\text{Var } [Z] = E[Z^2] - E^2[Z] \approx 43.8486\)(від Клена)

    НАБЛИЖЕННЯ

    Для отримання простої апроксимації ми повинні наблизитися обмеженою випадковою величиною. Так як\(P(X > 50) = e^{-15} \approx 3 \cdot 10^{-7}\) ми можемо спокійно\(X\) обрізати на 50.

    tuappr
    Enter matrix [a b] of x-range endpoints  [0 50]
    Enter number of x approximation points  1000
    Enter density as a function of t  0.3*exp(-0.3*t)
    Use row matrices X and PX as in the simple case
    M = X <= 4;
    G = M.*X.^2 + 16*(1 - M);   % g(X)
    EG = G*PX'                  % E[g(X)]
    EG = 7.4972
    VG = (G.^2)*PX' - EG^2      % Var[g(X)]
    VG = 43.8472                % Theoretical = 43.8486
    [Z,PZ] = csort(G,PX);       % Distribution for Z = g(X)
    EZ = Z*PZ'                  % E[Z] from distribution
    EZ = 7.4972
    VZ = (Z.^2)*PZ' - EZ^2      % Var[Z]
    VZ = 43.8472
    

    Приклад\(\PageIndex{5}\) Stocking for random demand (Example 13 from "Mathematical Expectation: Simple Random Variables")

    Менеджер універмагу планує сезон відпусток. Певний товар коштує\(c\) доларів за одиницю і продається за\(p\) долари за одиницю. Якщо попит перевищує\(m\) замовлену суму, додаткові одиниці можуть бути спеціально замовлені за\(s\) долари за одиницю (\(s >c\)). Якщо попит менше замовленої суми, залишок запасу можна повернути (або іншим чином утилізувати) за\(r\) доларами за одиницю (\(r < c\)). Попит\(D\) на сезон передбачається випадковою величиною з розподілом Пуассона (\(\mu\)). Припустимо\(\mu = 50\)\(c = 30\),\(p = 50\),,\(s = 40\),\(r = 20\). Яку суму\(m\) повинен замовити керуючий, щоб максимізувати очікуваний прибуток?

    Постановка проблеми

    Припустимо,\(D\) є попит і\(X\) є прибуток. Тоді

    Для\(D \le m\),\(X = D(p - c) - (m - D)(c - r) = D(p - r) + m(r - c)\)
    для\(D > m\),\(X = m(p - c) - (D - m)(p - s) = D(p - s) + m(s - c)\)

    Зручно писати вираз для з\(X\) точки зору\(I_M\), де\(M = (-\infty, M]\). Таким чином

    \(X = I_M (D) [D(p - r) + m(r - c)] + [1 - I_M(D)][D(p - s) + m(s - c)]\)

    \(= D(p - s) + m(s - c) + I_M (D) [D(p - r) + m(r - c) - D(p - s) - m(s - c)]\)

    \(D(p - s) + m(s - c) + I_M(D) (s- r)[D - m]\)

    Тоді

    \(E[X] = (p - s) E[D] + m(s - c) + (s - r) E[I_M(D) D] - (s - r) mE[I_M(D)]\)

    Використовуємо дискретне наближення.

    НАБЛИЖЕННЯ

    >> mu = 50;
    >> n = 100;
    >> t = 0:n;
    >> pD = ipoisson(mu,t);            % Approximate distribution for D
    >> c = 30;
    >> p = 50;
    >> s = 40;
    >> r = 20;
    >> m = 45:55;
    >> for i = 1:length(m)             % Step by step calculation for various m
        M = t<=m(i);
        G(i,:) = (p-s)*t + m(i)*(s-c) + (s-r)*M.*(t - m(i));
    end
    >> EG = G*pD';
    >> VG = (G.^2)*pD' - EG.^2;
    >> SG = sqrt(VG);
    >> disp([EG';VG';SG']')
       1.0e+04 *
        0.0931    1.1561    0.0108
        0.0936    1.3117    0.0115
        0.0939    1.4869    0.0122
        0.0942    1.6799    0.0130
        0.0943    1.8880    0.0137
        0.0944    2.1075    0.0145
        0.0943    2.3343    0.0153
        0.0941    2.5637    0.0160
        0.0938    2.7908    0.0167
        0.0934    3.0112    0.0174
        0.0929    3.2206    0.0179
    

    Приклад\(\PageIndex{6}\) A jointly distributed pair (Example 14 from "Mathematical Expectation: Simple Random Variables")

    Припустимо, пара\(\{X, Y\}\) має щільність стику\(f_{XY} (t, u) = 3u\) на трикутній області,\(u = 0\) обмеженій,\(u = 1 + t\),\(u = 1 - t\). Нехай\(Z = g(X, Y) = X^2 + 2XY\).

    Визначте\(E[Z]\) і\(\text{Var }[Z]\).

    Аналітичне рішення

    \(E[Z] = \int \int (t^2 + 2tu) f_{XY} (t, u) \ dudt = 3\int_{-1}^{0} \int_{0}^{1 + t} u(t^2 + 2tu)\ dudt + 3 \int_{0}^{1} \int_{0}^{1 - t} u(t^2 + 2tu)\ dudt = 1/10\)

    \(E[Z^2] = 3\int_{-1}^{0} \int_{0}^{1 + t} u(t^2 + 2tu)^2 \ dudt + 3\int_{0}^{1} \int_{0}^{1 - t} u(t^2 + 2tu)^2 \ dudt = 3/35\)

    \(\text{Var } [Z] = E[Z^2] -E^2[Z] = 53/700 \approx 0.0757\)

    НАБЛИЖЕННЯ

    tuappr
    Enter matrix [a b] of x-range endpoints  [-1 1]
    Enter matrix [c d] of Y-range endpoints  [0 1]
    Enter number of X approximation points  400
    Enter number of Y approximation points  200
    Enter expression for joint density 3*u.*(u<=min(1+t,1-t))
    Use array operations on X, Y, PX, PY, t, u, and P
    G = t.^2 + 2*t.*u;            % g(X,Y) = X^2 + 2XY
    EG = total(G.*P)              % E[g(X,Y)]
    EG = 0.1006                   % Theoretical value = 1/10
    VG = total(G.^2.*P) - EG^2
    VG = 0.0765                   % Theoretical value 53/700 = 0.757
    [Z,PZ] = csort(G,P);          % Distribution for Z
    EZ = Z*PZ'                    % E[Z] from distribution
    EZ = 0.1006
    VZ = (Z.^2)*PZ' - EZ^2
    VZ = 0.0765

    Приклад\(\PageIndex{7}\) A function with compound definition (Example 15 from "Mathematical Expectation: Simple Random Variables")

    Пара\(\{X, Y\}\) має спільну щільність\(f_{XY} (t, u) = 1/2\) на квадратній області,\(u = 1 + t\) обмеженій\(u = 1 - t\),,\(u = 3 - t\), і\(u = t - 1\).

    \(W = \begin{cases} X & \text{for max }\{X, Y\} \le 1 \\ 2Y & \text{for max } \{X, Y\} > 1 \end{cases} = I_Q(X, Y) X + I_{Q^c} (X, Y) 2Y\)

    де\(Q = \{(t, u): \text{max } \{t, u\} \le 1 \} = \{(t, u): t \le 1, u \le 1\}\).

    Визначте\(E[W]\) і\(\text{Var } [W]\).

    Рішення

    Перетин області\(Q\) і площі - це набір, для якого\(0 \le t \le 1\) і\(1 - t \le u \le 1\). Посилання на рисунок 11.3.2 показує три області інтеграції.

    \(E[W] = \dfrac{1}{2} \int_{0}^{1} \int_{1 - t}^{1} t \ dudt + \dfrac{1}{2} \int_{0}^{1} \int_{1}^{1 + t} 2u \ dudt + \dfrac{1}{2} \int_{1}^{2} \int_{t - 1}^{3 - t} 2u\ dudt = 11/6 \approx 1.8333\)

    \(E[W^2] = \dfrac{1}{2} \int_{0}^{1} \int_{1 - t}^{1} t^2\ dudt + \dfrac{1}{2} \int_{0}^{1} \int_{1}^{1 + t} 4u^2 \ dudt + \dfrac{1}{2} \int_{1}^{2} \int_{t - 1}^{3 - t} 4u^2 \ dudt = 103/24\)

    \(\text{Var } [W] = 103/24 - (11/6)^2 = 67/72 \approx 0.9306\)

    tuappr
    Enter matrix [a b] of x-range endpoints  [0 2]
    Enter matrix [c d] of Y-range endpoints  [0 2]
    Enter number of X approximation points  200
    Enter number of Y approximation points  200
    Enter expression for joint density ((u<=min(t+1,3-t))& ...
            (u$gt;=max(1-t,t-1))/2
    Use array operations on X, Y, PX, PY, t, u, and P
    M = max(t,u)<=1;
    G = t.^M + 2*u.*(1 - M);        %Z = g(X,Y)
    EG = total(G.*P)                % E[g(X,Y)]
    EG = 1.8349=0                   % Theoretical 11/6 = 1.8333
    VG = total(G.^2.*P) - EG^2
    VG = 0.9368                     % Theoretical 67/72 = 0.9306
    [Z,PZ] = csort(G,P);            % Distribution for Z
    EZ = Z*PZ'                      % E[Z] from distribution
    EZ = 1.8340
    VZ = (Z.^2)*PZ' - EZ^2
    VZ = 0.9368

    Приклад\(\PageIndex{8}\) A function with compound definition

    \(f_{XY} (t, u) = 3\)на\(0 \le u \le t^2 \le 1\)

    \(Z = I_Q (X, Y)X + I_{Q^c} (X, Y)\)для\(Q = \{(t, u): u + t \le 1\}\)

    Значення\(t_0\), де лінія\(u = 1 - t\) і крива зустрічаються,\(u = t^2\) задовольняє\(t_0^2 = 1 - t_0\).

    \(E[Z] = 3 \int_{0}^{t_0} t \int_{0}^{t^2} \ dudt + 3 \int_{t_0}^{1} t \int_{0}^{1 - t} \ dudt + 3 \int_{t_0}^{1} \int_{1 - t}^{t^2} \ dudt = \dfrac{3}{4} (5t_0 - 2)\)

    Для\(E[Z^2]\) заміни\(t\) на\(t^2\) в інтегралах, щоб отримати\(E[Z^2] = (25t_0 - 1)/20\).

    Використовуючи\(t_0 = (\sqrt{5} - 1)/2 \approx 0.6180\), отримуємо\(\text{Var }[Z] = (2125t_0 - 1309)/80 \approx 0.0540\).

    НАБЛИЖЕННЯ

    % Theoretical values
    t0 = (sqrt(5) - 1)/2
    t0 = 0.6180
    EZ = (3/4)*(5*t0 - 2)
    EZ = 0.8176
    EZ2 = (25*t0 - 1)/20
    EZ2 = 0.7225
    VZ = (2125*T0 - 1309)/80
    VZ = 0.0540
    tuappr
    Enter matrix [a b] of x-range endpoints  [0 1]
    Enter matrix [c d] of Y-range endpoints  [0 1]
    Enter number of X approximation points  200
    Enter number of Y approximation points  200
    Enter expression for joint density 3*(u <= t.^2)
    Use array operations on X, Y, t, u, and P
    G = (t+u <= 1).*t + (t+u > 1);
    EG = total(G.*P)
    EG = 0.8169                    % Theoretical = 0.8176
    VG = total(G.^2.*P) - EG^2
    VG = 0.0540                    % Theoretical = 0.0540
    [Z,PZ] = csort(G,P);
    EZ = Z*PZ' 
    EZ = 0.8169
    VZ = (Z.^2)*PZ' - EZ^2
    VZ = 0.0540
    

    Стандартне відхилення та нерівність Чебишева

    У прикладі 5 з "Функції випадкової величини» ми показуємо, що якщо\(X\) ~\(N(\mu, \sigma^2)\), то\(Z = \dfrac{X - \mu}{\sigma}\) ~\(N(0, 1)\). Також,\(E[X] = \mu\) і\(\text{Var } [X] = \sigma^2\). Таким чином

    \(P(\dfrac{|X - \mu|}{\sigma} \le t) = P(|X - \mu| \le t \sigma) = 2 \phi (t) - 1\)

    Для нормального розподілу стандартне відхилення,\(\sigma\) здається, є природною мірою відхилення від середнього.

    Для загального розподілу із середнім\(\mu\) та\(\sigma^2\) дисперсійним значенням ми маємо

    Нерівність Чебишева

    \(P(\dfrac{|X - \mu|}{\sigma} \ge a) \le \dfrac{1}{a^2}\)або\(P(|X - \mu| \ge a \sigma) \le \dfrac{1}{a^2}\)

    У цьому загальному випадку стандартне відхилення виступає як міра відхилення від середнього значення. Ця нерівність корисна в багатьох теоретичних додатках, а також деяких практичних. Однак, оскільки він повинен триматися для будь-якого розподілу, який має дисперсію, пов'язане не є особливо жорстким. Може бути повчальним порівняти пов'язану на ймовірності, задану нерівністю Чебишева, з фактичною ймовірністю нормального розподілу.

    t = 1:0.5:3;
    p = 2*(1 - gaussion(0.1,t));
    c = ones(1,length(t))./(t.^2);
    r = c./p;
    h = ['    t    Chebyshev    Prob    Ratio'];
    m = [t;c;p;r]';
    disp(h)
            t    Chebyshev    Prob    Ratio
    disp(m)
        1.0000    1.0000    0.3173    3.1515
        1.5000    0.4444    0.1336    3.3263
        2.0000    0.2500    0.0455    5.4945
        2.5000    0.1600    0.0124   12.8831
        3.0000    0.1111    0.0027   41.1554
    

    — □

    ВИВЕДЕННЯ ЧЕБИШЕВСЬКОЇ НЕРІВНОСТІ

    Нехай\(A = \{|X - \mu| \ge a \sigma\} = \{(X - \mu)^2 \ge a^2 \sigma^2\}\). Потім\(a^2 \sigma^2 I_A \le (X - \mu)^2\).

    Беручи очікування обох сторін і використовуючи монотонність, ми маємо

    \(a^2 \sigma^2 P(A) \le E[(X - \mu)^2] = \sigma^2\)

    з якого відразу випливає нерівність Чебишева.

    — □

    Ми розглядаємо три поняття, які корисні в багатьох ситуаціях.

    Визначення

    Випадкова\(X\) величина відцентрована iff\(E[X] = 0\).

    \(X' = X - \mu\)завжди по центру.

    Визначення

    Випадкова\(X\) величина стандартизована iff\(E[X] = 0\) і\(\text{Var} [X] = 1\).

    \(X^* = \dfrac{X - \mu}{\sigma} = \dfrac{X'}{\sigma}\)стандартизований

    Визначення

    Пара\(\{X, Y\}\) випадкових величин не корелює, якщо

    \(E[XY] - E[X]E[Y] = 0\)

    Завжди можна вивести некорельовану пару як функцію пари\(\{X, Y\}\), обидві з яких мають кінцеві дисперсії. Розглянемо

    \(U = (X^* + Y^*)\)\(V = (X^* - Y^*)\), де\(X^* = \dfrac{X - \mu_X}{\sigma_X}\),\(Y^* = \dfrac{Y - \mu_Y}{\sigma_Y}\)

    Зараз\(E[U] = E[V] = 0\) і

    \(E[UV] = E(X^* + Y^*) (X^* - Y^*)] = E[(X^*)^2] - E[(Y^*)^2] = 1 - 1 = 0\)

    тому пара не співвідноситься.

    Приклад\(\PageIndex{9}\) Determining an unvorrelated pair

    Ми використовуємо розподіл для прикладів Приклад 10 з «Математичне очікування: прості випадкові величини» і приклад, для якого

    \(E[XY] - E[X]E[Y] \ne 0\)

    jdemo1
    jcalc
    Enter JOINT PROBABILITIES (as on the plane)  P
    Enter row matrix of VALUES of X  X
    Enter row matrix of VALUES of Y  Y
     Use array operations on matrices X, Y, PX, PY, t, u, and P
    EX = total(t.*P)
    EX = 0.6420
    EY = total(u.*P)
    EY = 0.0783
    EXY = total(t.*u.*P)
    EXY = -0.1130
    c = EXY - EX*EY
    c = -0.1633                % {X, Y} not uncorrelated
    VX = total(t.^2.*P) - EX^2
    VX = 3.3016
    VY = total(u.^2.*P) - EY^2
    VY = 3.6566
    SX = sqrt(VX)
    SX = 1.8170
    SY = sqrt(VY)
    SY = 1.9122
    x = (t - EX)/SX;           % Standardized random variables
    y = (u - EY)/SY;
    uu = x + y;                % Uncorrelated random variables
    vv = x - y;
    EUV = total(uu.*vv.*P)     % Check for uncorrelated condition
    EUV = 9.9755e-06           % Differs from zero because of roundoff