12.1: Дисперсія
- Page ID
- 98567
При розгляді математичного очікування дійсної випадкової величини відзначено\(X\), що середнє значення знаходить центр імовірнісного розподілу маси, індукованого\(X\) на дійсній прямій. У цьому блоці ми вивчаємо, як очікування може бути використано для подальшої характеристики розподілу для\(X\). Зокрема, ми маємо справу з поняттям дисперсії та її квадратним коренем стандартного відхилення. У наступних одиницях ми показуємо, як він може бути використаний для характеристики розподілу для пари, що\(\{X, Y\}\) розглядається спільно з поняттями коваріація та лінійна регресія.
дисперсія
Розташування центру мас для розподілу важливо, але надає обмежену інформацію. Дві помітно різні випадкові величини можуть мати однакове середнє значення. Було б корисно мати міру поширення маси ймовірності щодо середнього. Серед можливостей, дисперсія та її квадратний корінь, стандартне відхилення, були знайдені особливо корисними.
Визначення: дисперсія та стандартне відхилення
Дисперсія випадкової величини\(X\) - це середній квадрат її варіації щодо середнього значення:
\(\text{Var } [X] = \sigma_X^2 = E[(X - \mu_X)^2]\)де\(\mu_X = E[X]\)
Стандартне відхилення для X - позитивний квадратний корінь\(\sigma_X\) дисперсії.
Зауваження
- Якщо\(X(\omega)\) є спостережуваним значенням\(X\), то його відхилення від середнього дорівнює\(X(\omega) - \mu_X\). Дисперсія - це імовірність середньозважених квадратів цих дисперсій.
- Квадрат помилки обробляє позитивні та негативні варіації однаково, і він важить великі варіації важче, ніж менші.
- Як і у випадку з середнім значенням, дисперсія є властивістю розподілу, а не випадкової величини.
- Нижче ми покажемо, що стандартне відхилення є «природною» мірою відхилення від середнього.
- При лікуванні математичного очікування ми показуємо, що
\(E[(X - c)^2]\)мінімальне відключення\(c = E[X]\), в такому випадку\(E[(X - E[X])^2] = E[X^2] - E^2[X]\)
Це показує, що середнє значення - це константа, яка найкраще наближає випадкову величину в середньому квадратному сенсі.
Основні шаблони для дисперсії
Оскільки дисперсія є очікуванням функції випадкової величини X, ми використовуємо властивості очікування в обчисленнях. Крім того, ми вважаємо доцільним визначити кілька закономірностей для дисперсії, які часто корисні при виконанні розрахунків. З одного боку, поки дисперсія визначається як\(E[(X - \mu_X)^2]\), це зазвичай не найзручніша форма для обчислень. Результат, який наведено вище, дає альтернативний вираз.
(V1): Формула розрахунку. \(\text{Var } [X] = E[X^2] - E^2[X]\)
(V2): властивість зсуву. \(\text{Var } [X + b] = \text{Var } [X]\). Додавання\(b\) константи\(X\) зміщує розподіл (отже, його центр маси) на цю величину. Варіація зміщеного розподілу щодо зміщеного центру мас така ж, як варіація вихідного, незміщеного розподілу щодо початкового центру мас.
(V3): Зміна масштабу. \(\text{Var } [aX] = a^2\text{Var }[X]\). Множення\(X\) на постійну a змінює масштаб на коефіцієнт\([a]\). Квадрати варіацій множимо на\(a^2\). Так само і середнє значення квадратів варіацій.
(V4): Лінійні комбінації.
a.\(\text{Var }[aX \pm bY] = a^2\text{Var }[X] + b^2 \text{Var } [Y] \pm 2ab(E[XY] - E[X]E[Y])\)
b. загалом,
\(\text{Var } [\sum_{k = 1}^{n} a_k X_k] = \sum_{k = 1}^{n} a_k^2 \text{Var }[X_k] + 2\sum_{i < j} a_i a_j (E[X_i X_j] - E[X_i] E[X_j])\)
Термін\(c_{ij} = E[X_i X_j] - E[X_i] E[X_j]\) - це коваріація пари\(\{X_i, X_j\}\), роль якої ми вивчаємо в одиниці на цю тему. Якщо\(c_{ij}\) всі нуль, ми говоримо, що клас не корелює.
Зауваження
- Якщо пара\(\{X, Y\}\) незалежна, вона некорельована. Зворотне не відповідає дійсності, як показують приклади в наступному розділі.
- Якщо\(a_i = \pm 1\) і всі пари не співвідносяться, то
\(\text{Var }[\sum_{k = 1}^{n} a_i X_i] = \sum_{k = 1}^{n} \text{Var } [X_i]\)
Дисперсія додається, навіть якщо коефіцієнти негативні.
Обчислимо відхилення для деяких поширених розподілів. Деякі деталі опускаються - зазвичай деталі алгебраїчної маніпуляції або прямої оцінки інтегралів. У деяких випадках використовуються відомі суми нескінченних рядів або значень визначених інтегралів. Ряд відповідних фактів узагальнено в Додатку В. Деякі математичні засоби. Наведені нижче результати включені в таблицю в додатку С.
Дисперсії деяких дискретних розподілів
Функція індикатора\(X = I_E P(E) = p, q = 1 - p\)\(E[X] = p\)
\(E[X^2] - E^2[X] = E[I_E^2] - p^2 = E[I_E] - p^2 = p - p^2 = p(1 - p) - pq\)
Проста випадкова величина\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) (примітивна форма)\(P(A_i) = p_i\).
\(\text{Var }[X] = \sum_{i = 1}^{n} t_i^2 p_i q_i - 2 \sum_{i < j} t_i t_j p_i p_j\), так як\(E[I_{A_i} I_{A_j}] = 0\)\(i \ne j\)
Біноміальний (\(n, p\)). \(X = \sum_{i = 1}^{n} I_{E_i}\)з\(\{I_{E_i}: 1 \le i \le n\}\) iid\(P(E_i) = p\)
\(\text{Var }[X] = \sum_{i = 1}^{n} \text{Var }[I_{E_i}] = \sum_{i = 1}^{n} pq = npq\)
Геометричний (\(p\)). \(P(X = k) = pq^k\)\(\forall k \ge 0\)\(E[X] = q/p\)
Використовуємо трюк:\(E[X^2] = E[X(X - 1)] + E[X]\)
\(E[X^2] = p\sum_{k = 0}^{\infty} k(k - 1)q^k + q/p = pq^2 \sum_{k = 2}^{\infty} k(k - 1)q^{k - 2} + q/p = pq^2 \dfrac{2}{(1 - q)^3} + q/p = 2\dfrac{q^2}{p^2} + q/p\)
\(\text{Var }[X] = 2\dfrac{q^2}{p^2} + q/p - (q/p)^2 = q/p^2\)
Пуассон (\ mu)\(P(X = k) = e^{-\mu} \dfrac{\mu^k}{k!}\)\(\forall k \ge 0\)
Використовуючи\(E[X^2] = E[X(X - 1)] + E[X]\), ми маємо
\(E[X^2] = e^{-\mu} \sum_{k = 2}^{\infty} k(k - 1) \dfrac{\mu^k}{k!} + \mu = e^{-\mu} \mu^2 \sum_{k = 2}^{\infty} \dfrac{\mu^{k - 2}}{(k - 2)!} + \mu = \mu^2 + \mu\)
Таким чином,\(\text{Var }[X] = \mu^2 + \mu - \mu^2 = \mu\). Зверніть увагу, що і середнє значення, і дисперсія мають спільне значення.\(\mu\)
Деякі абсолютно безперервні дистрибутиви
Уніформа на\((a, b)f_X(t) = \dfrac{1}{b - a}\)\(a < t < b\)\(E[X] = \dfrac{a + b}{2}\)
\(E[X^2] = \dfrac{1}{b - a} \int_a^b t^2\ dt = \dfrac{b^3 - a^3}{3(b - a)}\)так\(\text{Var }[X] = \dfrac{b^3 - a^3}{3(b - a)} - \dfrac{(a + b)^2}{4} = \dfrac{(b - a)^2}{12}\)
Симетричний трикутний\((a, b)\) Через властивість shift (V2) ми можемо центрувати розподіл на початку. Тоді розподіл симетричний трикутний\((-c, c)\), де\(c = (b- a)/2\). Через симетрії
\(\text{Var }[X] = E[X^2] = \int_{-c}^{c} t^2f_X(t)\ dt = 2\int_{0}^{c} t^2 f_X (t)\ dt\)
Тепер, в даному випадку,
\(f_X (t) = \dfrac{c - t}{c^2}\)\(0 \le t \le c\)щоб\(E[X^2] = \dfrac{2}{c^2} \int_{0}^{c} (ct^2 - t^3)\ dt = \dfrac{c^3}{6} = \dfrac{(b - a)^2}{24}\)
Експоненціальна (\ лямбда)\(f_X (t) = \lambda e^{-\lambda t}\),\(t \ge 0\)\(E[X] = 1/\lambda\)
\(E[X^2] = \int_{0}^{\infty} \lambda t^2 e^{-\lambda t} \ dt = \dfrac{2}{\lambda^2}\)щоб\(\text{Var }[X] = 1/lambda^2\)
Гамма (1\(\alpha, \lambda\))\(f_{X} (t) = \dfrac{1}{\Gamma(\alpha)} \lambda^{\alpha} t^{\alpha = 1} e^{-\lambda t}\)\(t \ge 0\)\(E[X] = \dfrac{\alpha}{\lambda}\)
\(E[X^2] = \dfrac{1}{\Gamma (\alpha)} \int_{0}^{\infty} \lambda^{\alpha} t^{\alpha + 1} e^{-\lambda t}\ dt = \dfrac{\Gamma (\alpha + 2)}{\lambda^2 \Gamma(\alpha)} = \dfrac{\alpha (\alpha + 1)}{lambda^2}\)
Звідси\(\text{Var } [X] = \alpha/\lambda^2\).
Звичайний (\(\mu, \sigma^2\))\(E[X] = \mu\)
Розглянемо\(Y\) ~\(N(0, 1)\),\(E[Y] = 0\),\(\text{Var }[Y] = \dfrac{2}{\sqrt{2\pi}} \int_{0}^{\infty} t^2 e^{-t^2/2} \ dt = 1\).
\(X = \sigma Y + \mu\)має на увазі\(\text{Var }[Y] = \sigma^2\)
Розширення деяких попередніх прикладів
В одиниці по очікуванням розраховуємо середнє значення для самих різних випадків. Ми переглядаємо деякі з цих прикладів і обчислюємо відхилення.
Приклад\(\PageIndex{1}\) Expected winnings (Example 8 from "Mathematical Expectation: Simple Random Variables")
Ставець робить три ставки по $2.00 кожна. Перший платить $10,00 з ймовірністю 0.15, другий $8.00 з ймовірністю 0.20, а третій $20.00 з ймовірністю 0.10.
Рішення
Чистий приріст може бути виражений
\(X = 10 I_A + 8I_B + 20I_C - 6\), з\(P(A) = 0.15, P(B) = 0.20, P(C) = 0.10\)
Ми можемо розумно припустити, що клас\(\{A, B, C\}\) є незалежним (це припущення не є необхідним при обчисленні середнього значення). Тоді
\(\text{Var }[X] = 10^2 P(A) [1 - P(A)] + 8^2 P(B)[1 - P(B)] + 20^2 P(C) [1 - P(C)]\)
Розрахунок нескладний. Ми можемо використовувати MATLAB для виконання арифметики.
c = [10 8 20]; p = 0.01*[15 20 10]; q = 1 - p; VX = sum(c.^2.*p.*q) VX = 58.9900
Приклад\(\PageIndex{2}\) A function of \(X\) (Example 9 from "Mathematical Expectation: Simple Random Variables")
Припустимо,\(X\) в примітивній формі є
\(X = -3I_{C_1} - I_{C_2} + 2I_{C_3} - 3I_{C_4} + 4I_{C_5} - I_{C_6} + I_{C_7} + 2I_{C_8} + 3I_{C_9} + 2I_{C_{10}}\)
з ймовірностями\(P(C_i) = 0.08, 0.11, 0.06, 0.13, 0.05, 0.08, 0.12, 0.07, 0.14, 0.16\).
Нехай\(g(t) = t^2 + 2t\). Визначте\(E[g(X)]\) і\(\text{Var}[g(X)]\)
c = [-3 -1 2 -3 4 -1 1 2 3 2]; % Original coefficients pc = 0.01*[8 11 6 13 5 8 12 7 14 16]; % Probabilities for c_j G = c.^2 + 2*c % g(c_j) EG = G*pc' % Direct calculation E[g(X)] EG = 6.4200 VG = (G.^2)*pc' - EG^2; % Direct calculation Var[g(X)] VG = 40.8036 [Z,PZ] = csort(G,pc); % Distribution for Z = g(X) EZ = Z*PZ' % E[Z] EZ = 6.4200 VZ = (Z.^2)*PZ' - EZ^2 % Var[Z] VZ = 40.8036
Приклад\(\PageIndex{3}\) \(Z = g(X, Y)\) (Example 10 from "Mathematical Expectation: Simple Random Variables")
Ми використовуємо той самий спільний розподіл, що і для прикладу 10 з "Математичне очікування: прості випадкові величини" і нехай\(g(t, u) = t^2 + 2tu - 3u\). Для настройки на розрахунки використовуємо jcalc.
jdemo1 % Call for data jcalc % Set up Enter JOINT PROBABILITIES (as on the plane) P Enter row matrix of VALUES of X X Enter row matrix of VALUES of Y Y Use array operations on matrices X, Y, PX, PY, t, u, and P G = t.^2 + 2*t.*u - 3*u; % calcculation of matrix of [g(t_i, u_j)] EG = total(G.*P) % Direct calculation of E[g(X,Y)] EG = 3.2529 VG = total(G.^.*P) - EG^2 % Direct calculation of Var[g(X,Y)] VG = 80.2133 [Z,PZ] = csort(G,P); % Determination of distribution for Z EZ = Z*PZ' % E[Z] from distribution EZ = 3.2529 VZ = (Z.^2)*PZ' - EZ^2 % Var[Z] from distribution VZ = 80.2133
Приклад\(\PageIndex{4}\) A function with compound definition (Example 12 from "Mathematical Expectation: Simple Random Variables")
Припустимо,\ (X) ~ експоненціальна (0,3). Нехай
\(Z = \begin{cases} X^2 & \text{for } X \le 4 \\ 16 & \text{for } X > 4 \end{cases} = I_{[0,4]} (X) X^2 + I_{(4, \infty]} (X) 16\)
Визначте\(E[Z]\) і\(Var[Z]\).
Аналітичне рішення
\(E[g(X)] = \int g(t) f_X(t)\ dt = \int_{0}^{\infty} I_{[0, 4]} (t) t^2 0.3 e^{-0.3t}\ dt + 16 E[I_{(4, \infty]} (X)]\)
\(= \int_{0}^{4} t^2 0.3 e^{-0.3t} \ dt + 16 P(X > 4) \approx 7.4972\)(від Клена)
\(Z^2 - I_{[0, 4]} (X) X^4 + I_{(4, \infty]} (X) 256\)
\(E[Z^2] = \int_{0}^{\infty} I_{[0,4]} (t) t^4 0.3 e^{-0.3t}\ dt + 256 E[I_{(4, \infty]} (X)] = \int_{0}^{4} t^4 0.3 e^{-0.3t}\ dt + 256 e^{-1.2} \approx 100.0562\)
\(\text{Var } [Z] = E[Z^2] - E^2[Z] \approx 43.8486\)(від Клена)
НАБЛИЖЕННЯ
Для отримання простої апроксимації ми повинні наблизитися обмеженою випадковою величиною. Так як\(P(X > 50) = e^{-15} \approx 3 \cdot 10^{-7}\) ми можемо спокійно\(X\) обрізати на 50.
tuappr Enter matrix [a b] of x-range endpoints [0 50] Enter number of x approximation points 1000 Enter density as a function of t 0.3*exp(-0.3*t) Use row matrices X and PX as in the simple case M = X <= 4; G = M.*X.^2 + 16*(1 - M); % g(X) EG = G*PX' % E[g(X)] EG = 7.4972 VG = (G.^2)*PX' - EG^2 % Var[g(X)] VG = 43.8472 % Theoretical = 43.8486 [Z,PZ] = csort(G,PX); % Distribution for Z = g(X) EZ = Z*PZ' % E[Z] from distribution EZ = 7.4972 VZ = (Z.^2)*PZ' - EZ^2 % Var[Z] VZ = 43.8472
Приклад\(\PageIndex{5}\) Stocking for random demand (Example 13 from "Mathematical Expectation: Simple Random Variables")
Менеджер універмагу планує сезон відпусток. Певний товар коштує\(c\) доларів за одиницю і продається за\(p\) долари за одиницю. Якщо попит перевищує\(m\) замовлену суму, додаткові одиниці можуть бути спеціально замовлені за\(s\) долари за одиницю (\(s >c\)). Якщо попит менше замовленої суми, залишок запасу можна повернути (або іншим чином утилізувати) за\(r\) доларами за одиницю (\(r < c\)). Попит\(D\) на сезон передбачається випадковою величиною з розподілом Пуассона (\(\mu\)). Припустимо\(\mu = 50\)\(c = 30\),\(p = 50\),,\(s = 40\),\(r = 20\). Яку суму\(m\) повинен замовити керуючий, щоб максимізувати очікуваний прибуток?
Постановка проблеми
Припустимо,\(D\) є попит і\(X\) є прибуток. Тоді
Для\(D \le m\),\(X = D(p - c) - (m - D)(c - r) = D(p - r) + m(r - c)\)
для\(D > m\),\(X = m(p - c) - (D - m)(p - s) = D(p - s) + m(s - c)\)
Зручно писати вираз для з\(X\) точки зору\(I_M\), де\(M = (-\infty, M]\). Таким чином
\(X = I_M (D) [D(p - r) + m(r - c)] + [1 - I_M(D)][D(p - s) + m(s - c)]\)
\(= D(p - s) + m(s - c) + I_M (D) [D(p - r) + m(r - c) - D(p - s) - m(s - c)]\)
\(D(p - s) + m(s - c) + I_M(D) (s- r)[D - m]\)
Тоді
\(E[X] = (p - s) E[D] + m(s - c) + (s - r) E[I_M(D) D] - (s - r) mE[I_M(D)]\)
Використовуємо дискретне наближення.
НАБЛИЖЕННЯ
>> mu = 50;
>> n = 100;
>> t = 0:n;
>> pD = ipoisson(mu,t); % Approximate distribution for D
>> c = 30;
>> p = 50;
>> s = 40;
>> r = 20;
>> m = 45:55;
>> for i = 1:length(m) % Step by step calculation for various m
M = t<=m(i);
G(i,:) = (p-s)*t + m(i)*(s-c) + (s-r)*M.*(t - m(i));
end
>> EG = G*pD';
>> VG = (G.^2)*pD' - EG.^2;
>> SG = sqrt(VG);
>> disp([EG';VG';SG']')
1.0e+04 *
0.0931 1.1561 0.0108
0.0936 1.3117 0.0115
0.0939 1.4869 0.0122
0.0942 1.6799 0.0130
0.0943 1.8880 0.0137
0.0944 2.1075 0.0145
0.0943 2.3343 0.0153
0.0941 2.5637 0.0160
0.0938 2.7908 0.0167
0.0934 3.0112 0.0174
0.0929 3.2206 0.0179
Приклад\(\PageIndex{6}\) A jointly distributed pair (Example 14 from "Mathematical Expectation: Simple Random Variables")
Припустимо, пара\(\{X, Y\}\) має щільність стику\(f_{XY} (t, u) = 3u\) на трикутній області,\(u = 0\) обмеженій,\(u = 1 + t\),\(u = 1 - t\). Нехай\(Z = g(X, Y) = X^2 + 2XY\).
Визначте\(E[Z]\) і\(\text{Var }[Z]\).
Аналітичне рішення
\(E[Z] = \int \int (t^2 + 2tu) f_{XY} (t, u) \ dudt = 3\int_{-1}^{0} \int_{0}^{1 + t} u(t^2 + 2tu)\ dudt + 3 \int_{0}^{1} \int_{0}^{1 - t} u(t^2 + 2tu)\ dudt = 1/10\)
\(E[Z^2] = 3\int_{-1}^{0} \int_{0}^{1 + t} u(t^2 + 2tu)^2 \ dudt + 3\int_{0}^{1} \int_{0}^{1 - t} u(t^2 + 2tu)^2 \ dudt = 3/35\)
\(\text{Var } [Z] = E[Z^2] -E^2[Z] = 53/700 \approx 0.0757\)
НАБЛИЖЕННЯ
tuappr Enter matrix [a b] of x-range endpoints [-1 1] Enter matrix [c d] of Y-range endpoints [0 1] Enter number of X approximation points 400 Enter number of Y approximation points 200 Enter expression for joint density 3*u.*(u<=min(1+t,1-t)) Use array operations on X, Y, PX, PY, t, u, and P G = t.^2 + 2*t.*u; % g(X,Y) = X^2 + 2XY EG = total(G.*P) % E[g(X,Y)] EG = 0.1006 % Theoretical value = 1/10 VG = total(G.^2.*P) - EG^2 VG = 0.0765 % Theoretical value 53/700 = 0.757 [Z,PZ] = csort(G,P); % Distribution for Z EZ = Z*PZ' % E[Z] from distribution EZ = 0.1006 VZ = (Z.^2)*PZ' - EZ^2 VZ = 0.0765
Приклад\(\PageIndex{7}\) A function with compound definition (Example 15 from "Mathematical Expectation: Simple Random Variables")
Пара\(\{X, Y\}\) має спільну щільність\(f_{XY} (t, u) = 1/2\) на квадратній області,\(u = 1 + t\) обмеженій\(u = 1 - t\),,\(u = 3 - t\), і\(u = t - 1\).
\(W = \begin{cases} X & \text{for max }\{X, Y\} \le 1 \\ 2Y & \text{for max } \{X, Y\} > 1 \end{cases} = I_Q(X, Y) X + I_{Q^c} (X, Y) 2Y\)
де\(Q = \{(t, u): \text{max } \{t, u\} \le 1 \} = \{(t, u): t \le 1, u \le 1\}\).
Визначте\(E[W]\) і\(\text{Var } [W]\).
Рішення
Перетин області\(Q\) і площі - це набір, для якого\(0 \le t \le 1\) і\(1 - t \le u \le 1\). Посилання на рисунок 11.3.2 показує три області інтеграції.
\(E[W] = \dfrac{1}{2} \int_{0}^{1} \int_{1 - t}^{1} t \ dudt + \dfrac{1}{2} \int_{0}^{1} \int_{1}^{1 + t} 2u \ dudt + \dfrac{1}{2} \int_{1}^{2} \int_{t - 1}^{3 - t} 2u\ dudt = 11/6 \approx 1.8333\)
\(E[W^2] = \dfrac{1}{2} \int_{0}^{1} \int_{1 - t}^{1} t^2\ dudt + \dfrac{1}{2} \int_{0}^{1} \int_{1}^{1 + t} 4u^2 \ dudt + \dfrac{1}{2} \int_{1}^{2} \int_{t - 1}^{3 - t} 4u^2 \ dudt = 103/24\)
\(\text{Var } [W] = 103/24 - (11/6)^2 = 67/72 \approx 0.9306\)
tuappr
Enter matrix [a b] of x-range endpoints [0 2]
Enter matrix [c d] of Y-range endpoints [0 2]
Enter number of X approximation points 200
Enter number of Y approximation points 200
Enter expression for joint density ((u<=min(t+1,3-t))& ...
(u$gt;=max(1-t,t-1))/2
Use array operations on X, Y, PX, PY, t, u, and P
M = max(t,u)<=1;
G = t.^M + 2*u.*(1 - M); %Z = g(X,Y)
EG = total(G.*P) % E[g(X,Y)]
EG = 1.8349=0 % Theoretical 11/6 = 1.8333
VG = total(G.^2.*P) - EG^2
VG = 0.9368 % Theoretical 67/72 = 0.9306
[Z,PZ] = csort(G,P); % Distribution for Z
EZ = Z*PZ' % E[Z] from distribution
EZ = 1.8340
VZ = (Z.^2)*PZ' - EZ^2
VZ = 0.9368
Приклад\(\PageIndex{8}\) A function with compound definition
\(f_{XY} (t, u) = 3\)на\(0 \le u \le t^2 \le 1\)
\(Z = I_Q (X, Y)X + I_{Q^c} (X, Y)\)для\(Q = \{(t, u): u + t \le 1\}\)
Значення\(t_0\), де лінія\(u = 1 - t\) і крива зустрічаються,\(u = t^2\) задовольняє\(t_0^2 = 1 - t_0\).
\(E[Z] = 3 \int_{0}^{t_0} t \int_{0}^{t^2} \ dudt + 3 \int_{t_0}^{1} t \int_{0}^{1 - t} \ dudt + 3 \int_{t_0}^{1} \int_{1 - t}^{t^2} \ dudt = \dfrac{3}{4} (5t_0 - 2)\)
Для\(E[Z^2]\) заміни\(t\) на\(t^2\) в інтегралах, щоб отримати\(E[Z^2] = (25t_0 - 1)/20\).
Використовуючи\(t_0 = (\sqrt{5} - 1)/2 \approx 0.6180\), отримуємо\(\text{Var }[Z] = (2125t_0 - 1309)/80 \approx 0.0540\).
НАБЛИЖЕННЯ
% Theoretical values t0 = (sqrt(5) - 1)/2 t0 = 0.6180 EZ = (3/4)*(5*t0 - 2) EZ = 0.8176 EZ2 = (25*t0 - 1)/20 EZ2 = 0.7225 VZ = (2125*T0 - 1309)/80 VZ = 0.0540 tuappr Enter matrix [a b] of x-range endpoints [0 1] Enter matrix [c d] of Y-range endpoints [0 1] Enter number of X approximation points 200 Enter number of Y approximation points 200 Enter expression for joint density 3*(u <= t.^2) Use array operations on X, Y, t, u, and P G = (t+u <= 1).*t + (t+u > 1); EG = total(G.*P) EG = 0.8169 % Theoretical = 0.8176 VG = total(G.^2.*P) - EG^2 VG = 0.0540 % Theoretical = 0.0540 [Z,PZ] = csort(G,P); EZ = Z*PZ' EZ = 0.8169 VZ = (Z.^2)*PZ' - EZ^2 VZ = 0.0540
Стандартне відхилення та нерівність Чебишева
У прикладі 5 з "Функції випадкової величини» ми показуємо, що якщо\(X\) ~\(N(\mu, \sigma^2)\), то\(Z = \dfrac{X - \mu}{\sigma}\) ~\(N(0, 1)\). Також,\(E[X] = \mu\) і\(\text{Var } [X] = \sigma^2\). Таким чином
\(P(\dfrac{|X - \mu|}{\sigma} \le t) = P(|X - \mu| \le t \sigma) = 2 \phi (t) - 1\)
Для нормального розподілу стандартне відхилення,\(\sigma\) здається, є природною мірою відхилення від середнього.
Для загального розподілу із середнім\(\mu\) та\(\sigma^2\) дисперсійним значенням ми маємо
Нерівність Чебишева
\(P(\dfrac{|X - \mu|}{\sigma} \ge a) \le \dfrac{1}{a^2}\)або\(P(|X - \mu| \ge a \sigma) \le \dfrac{1}{a^2}\)
У цьому загальному випадку стандартне відхилення виступає як міра відхилення від середнього значення. Ця нерівність корисна в багатьох теоретичних додатках, а також деяких практичних. Однак, оскільки він повинен триматися для будь-якого розподілу, який має дисперсію, пов'язане не є особливо жорстким. Може бути повчальним порівняти пов'язану на ймовірності, задану нерівністю Чебишева, з фактичною ймовірністю нормального розподілу.
t = 1:0.5:3;
p = 2*(1 - gaussion(0.1,t));
c = ones(1,length(t))./(t.^2);
r = c./p;
h = [' t Chebyshev Prob Ratio'];
m = [t;c;p;r]';
disp(h)
t Chebyshev Prob Ratio
disp(m)
1.0000 1.0000 0.3173 3.1515
1.5000 0.4444 0.1336 3.3263
2.0000 0.2500 0.0455 5.4945
2.5000 0.1600 0.0124 12.8831
3.0000 0.1111 0.0027 41.1554
— □
ВИВЕДЕННЯ ЧЕБИШЕВСЬКОЇ НЕРІВНОСТІ
Нехай\(A = \{|X - \mu| \ge a \sigma\} = \{(X - \mu)^2 \ge a^2 \sigma^2\}\). Потім\(a^2 \sigma^2 I_A \le (X - \mu)^2\).
Беручи очікування обох сторін і використовуючи монотонність, ми маємо
\(a^2 \sigma^2 P(A) \le E[(X - \mu)^2] = \sigma^2\)
з якого відразу випливає нерівність Чебишева.
— □
Ми розглядаємо три поняття, які корисні в багатьох ситуаціях.
Визначення
Випадкова\(X\) величина відцентрована iff\(E[X] = 0\).
\(X' = X - \mu\)завжди по центру.
Визначення
Випадкова\(X\) величина стандартизована iff\(E[X] = 0\) і\(\text{Var} [X] = 1\).
\(X^* = \dfrac{X - \mu}{\sigma} = \dfrac{X'}{\sigma}\)стандартизований
Визначення
Пара\(\{X, Y\}\) випадкових величин не корелює, якщо
\(E[XY] - E[X]E[Y] = 0\)
Завжди можна вивести некорельовану пару як функцію пари\(\{X, Y\}\), обидві з яких мають кінцеві дисперсії. Розглянемо
\(U = (X^* + Y^*)\)\(V = (X^* - Y^*)\), де\(X^* = \dfrac{X - \mu_X}{\sigma_X}\),\(Y^* = \dfrac{Y - \mu_Y}{\sigma_Y}\)
Зараз\(E[U] = E[V] = 0\) і
\(E[UV] = E(X^* + Y^*) (X^* - Y^*)] = E[(X^*)^2] - E[(Y^*)^2] = 1 - 1 = 0\)
тому пара не співвідноситься.
Приклад\(\PageIndex{9}\) Determining an unvorrelated pair
Ми використовуємо розподіл для прикладів Приклад 10 з «Математичне очікування: прості випадкові величини» і приклад, для якого
\(E[XY] - E[X]E[Y] \ne 0\)
jdemo1
jcalc
Enter JOINT PROBABILITIES (as on the plane) P
Enter row matrix of VALUES of X X
Enter row matrix of VALUES of Y Y
Use array operations on matrices X, Y, PX, PY, t, u, and P
EX = total(t.*P)
EX = 0.6420
EY = total(u.*P)
EY = 0.0783
EXY = total(t.*u.*P)
EXY = -0.1130
c = EXY - EX*EY
c = -0.1633 % {X, Y} not uncorrelated
VX = total(t.^2.*P) - EX^2 VX = 3.3016 VY = total(u.^2.*P) - EY^2 VY = 3.6566 SX = sqrt(VX) SX = 1.8170 SY = sqrt(VY) SY = 1.9122 x = (t - EX)/SX; % Standardized random variables y = (u - EY)/SY; uu = x + y; % Uncorrelated random variables vv = x - y; EUV = total(uu.*vv.*P) % Check for uncorrelated condition EUV = 9.9755e-06 % Differs from zero because of roundoff
