10.1: Функції випадкової величини
- Page ID
- 98501
Вступ
Часто ми спостерігаємо значення якоїсь випадкової величини, але насправді зацікавлені в значенні, отриманому з цього правилом функції. Якщо\(X\) є випадковою величиною і\(g\) є розумною функцією (технічно, функцією Бореля), то\(Z = g(X)\) є нова випадкова величина, яка має значення\(g(t)\) для будь-якої\(\omega\) такої, що\(X(\omega) = t\). Таким чином\(Z(\omega) = g(X(\omega))\).
Проблема; підхід
Розглянуто, по-перше, функції однієї випадкової величини. На практиці використовується найрізноманітніші функції.
Приклад 10.1 .1: Проблема контролю якості
При перевірці контролю якості на виробничій лінії для кулькових підшипників може бути простіше зважити кульки, ніж виміряти діаметри. Якщо ми можемо припустити справжню сферичну форму і\(w\) є вагою\(kw^{1/3}\), то діаметр\(k\) - це коефіцієнт, який залежить від формули об'єму сфери, одиниць виміру та щільності сталі. Таким чином,\(X\) якщо вага відібраного кулі, то бажана випадкова величина є\(D = kX^{1/3}\).
Приклад 10.1.2: Перерви цін
Культурний комітет студентської організації організував спеціальну пропозицію на квитки на концерт. Угода полягає в тому, що організація придбає десять квитків по 20 доларів кожен (незалежно від кількості окремих покупців). Додаткові квитки доступні за наступним розкладом:
- 11-20, $18 кожен
- 21-30, $16 кожен
- 31-50, $15 кожен
- 51-100, $13 кожен
Якщо кількість покупців є випадковою величиною\(X\), загальна вартість (у доларах) - це випадкова величина,\(Z = g(X)\) описана
\(g(X) = 200 + 18 I_{M1} (X) (X - 10) + (16 - 18) I_{M2} (X) (X - 20)\)
\(+ (15 - 16) I_{M3} (X) (X - 30) + (13 - 15) I_{M4} (X) (X - 50)\)
де\(M1 = [10, \infty)\),\(M2 = [20, \infty)\),\(M3 = [30, \infty)\),\(M4 = [50, \infty)\)
Правило функції складніше, ніж у прикладі 10.1.1, але суттєва проблема така ж.
проблема
Якщо\(X\) є випадковою величиною, то\(Z = g(X)\) це нова випадкова величина. Припустимо, у нас є дистрибутив для\(X\). Як ми можемо визначити\(P(Z \in M)\), що ймовірність\(Z\) приймає значення в множині\(M\)?
Підхід до вирішення
Розглядаємо два рівнозначних підходу
Щоб знайти\(P(X \in M)\).
- Картографічний підхід. Просто знайдіть кількість маси ймовірності, відображеної у множині\(M\) випадковою величиною\(X\).
- У абсолютно безперервному випадку розрахуйте\(\int_{M} f_X\).
- У дискретному випадку визначте ті\(t_i\) значення\(X\) яких є в множині\(M\) і додайте пов'язані з ними ймовірності.
- Дискретна альтернатива. Розглянемо\(t_i\) кожне значення\(X\). Виберіть ті, які відповідають визначальним умовам,\(M\) і додайте пов'язані з ними ймовірності. Саме такий підхід ми використовуємо в розрахунках MATLAB. Зверніть увагу, що геометрично описувати множину необов'язково\(M\); просто використовуйте визначальні умови.
Знайти\(P(g(X) \in M)\).
- Картографічний підхід. Визначте\(N\) множину всіх тих t, які\(M\) відображені функцією\(g\). Тепер якщо\(X(\omega) \in N\), то\(g(X(\omega)) \in M\), і якщо\(g(X(\omega)) \in M\), то\(X(\omega) \in N\). Звідси
\(\{\omega: g(X(\omega)) \in M\} = \{\omega: X(\omega) \in N\}\)
Оскільки це одна і та ж подія, вони повинні мати однакову ймовірність. Після того, як\(N\) виявлено, визначте\(P(X \in N)\) в звичайному порядку (див. Частина а, вище).
- Дискретна альтернатива. Для кожного\(t_i\) можливого значення\(X\), визначити, чи\(g(t_i)\) відповідає визначальна умова для\(M\). Виберіть ті\(t_i\), які роблять, і додайте пов'язані ймовірності.
— □
Зауваження. Безліч\(N\) в картографічному підході називається зворотним зображенням.\(N = g^{-1} (M)\)
Приклад 10.1.3: Дискретний приклад
Припустимо,\(X\) має значення -2, 0, 1, 3, 6, з відповідними ймовірностями 0,2, 0,1, 0,2, 0,3 0,2.
Розглянемо\(Z = g(X) = (X + 1) (X - 4)\). Визначте\(P(Z > 0)\).
Рішення
Перше рішення. Картографічний підхід
\(g(t) = (t + 1) (t - 4)\). \(N = \{t: g(t) > 0\}\) множина точок зліва від —1 або праворуч від 4. \(X\)Значення -2 і 6 лежать у цьому наборі. Звідси
\(P(g(X) > 0) = P(X = -2) + P(X = 6) = 0.2 + 0.2 = 0.4\)
Друге рішення. Дискретна альтернатива
| Х = | -2 | 0 | 1 | 3 | 6 |
| Р Х = | 0.2 | 0.1 | 0.2 | 0.3 | 0.2 |
| Z = | 6 | -4 | -6 | -4 | 14 |
| Z > 0 | 1 | 0 | 0 | 0 | 1 |
Виділивши і додаючи зазначені ймовірності, ми маємо
\(P(Z > 0) = 0.2 + 0.2 = 0.4\)
У цьому випадку (а часто і для «ручних розрахунків») картографічний підхід вимагає меншого розрахунку. Однак для розрахунків MATLAB (як ми показуємо нижче) більш легко реалізується дискретна альтернатива.
Приклад 10.1.4. Абсолютно безперервний приклад
Припустимо\(X\) ~ рівномірний [—3,7]. Потім\(f_X(t) = 0.1\),\(-3 \le t \le 7\) (і нуль в іншому місці). Нехай
\(Z = g(X) = (X + 1) (X - 4)\)
Визначте\(P(Z > 0)\).
Рішення
Спочатку визначаємося\(N = \{t: g(t) > 0\}\). Як у прикладі 10.1.3,\(g(t) = (t+ 1) (t - 4) > 0\) для\(t < -1\) або\(t > 4)\). Через рівномірний розподіл інтеграл щільності на будь-якому підінтервалі\(\{X, Y\}\) в 0,1 рази перевищує довжину цього субінтервалу. Таким чином, бажана ймовірність
\(P(g(X) > 0) = 0.1 [(-1 - (-3)) + (7 - 4)] = 0.5\)
Розглянемо далі кілька важливих прикладів.
Приклад 10.1.5: Нормальний розподіл та стандартизований нормальний розподіл
Щоб показати, що якщо\(X\) ~\(N(\mu, \sigma^2)\) то
\(Z = g(X) = \dfrac{X - \mu}{\sigma} ~ N(0, 1)\)
ПЕРЕВІРКА
Ми хочемо показати функцію щільності для\(Z\) is
\(\varphi (t) = \dfrac{1}{\sqrt{2\pi}} e^{-t^2/2}\)
Зараз
\(g(t) = \dfrac{t - \mu} {\sigma} \le v\)іфф\(t \le \sigma v + \mu\)
Отже, для даного\(M = (-\infty, v]\) зворотного зображення є\(N = (-\infty, \sigma v + \mu]\), так що
\(F_Z (v) = P(Z \le v) = P(Z \in M) = P(X \in N) = P(X \le \sigma v + \mu) = F_X (\sigma v + \mu)\)
Оскільки щільність є похідною від функції розподілу,
\(f_Z(v) = F_{Z}^{'} (v) = F_{X}^{'} (v) = F_{X}^{'} (\sigma v + \mu) \sigma = \sigma f_X (\sigma v + \mu)\)
Таким чином
\(f_Z (v) = \dfrac{\sigma}{\sigma \sqrt{2\pi}} \text{exp} [-\dfrac{1}{2} (\dfrac{\sigma v + \mu - \mu}{\sigma})^2] = \dfrac{1}{\sqrt{2\pi}} e^{-v^2/2} = \varphi(v)\)
Ми робимо висновок, що\(Z\) ~\(N(0, 1)\).
Приклад\(\PageIndex{1}\)
Припустимо\(X\), має функцію розподілу\(F_X\). Якщо він абсолютно суцільний, відповідна щільність дорівнює\(f_X\). Розглянемо\(Z = aX + b\). Тут\(g(t) = at + b\) афінна функція (лінійна плюс константа). Визначте функцію розподілу для\(Z\) (і щільність в абсолютно безперервному випадку).
Рішення
\(F_Z (v) = P(Z \le v) = P(aX + b \le v)\)
Є два випадки
- \(a\)> 0:
\(F_Z (v) = P(X \le \dfrac{v - b}{a}) = F_X (\dfrac{v - b}{a})\)
- \(a\)< 0
\(F_Z (v) = P(X \ge \dfrac{v - b}{a}) = P(X > \dfrac{v - b}{a}) + P(X = \dfrac{v - b}{a})\)
Так що
\(F_Z (v) = 1 - F_X (\dfrac{v - b}{a}) + P(X = \dfrac{v - b}{a})\)
Для абсолютно безперервного випадку\(P(X = \dfrac{v - b}{a}) = 0\), і шляхом диференціації
- для\(a > 0\)\(f_Z (v) = \dfrac{1}{a} f_X (\dfrac{v - b}{a})\)
- для\(a < 0\)\(f_Z (v) = -\dfrac{1}{a} f_X (\dfrac{v - b}{a})\)
Оскільки для\(a < 0\)\(-a = |a|\), два випадки можуть бути об'єднані в одну формулу.
\(f_Z (v) = \dfrac{1}{|a|} f_X (\dfrac{v-b}{a})\)
Приклад 10.1.7: Завершення нормальних та стандартизованих нормальних відносин
Припустимо\(Z\) ~\(N(0, 1)\). показати, що\(X = \sigma Z + \mu \) (\(\sigma > 0\)) є\(N(\mu, \sigma^2)\).
ПЕРЕВІРКА
Використання результату Прикладу 10.1.6 на афінних функціях показує, що
\(f_{X} (t) = \dfrac{1}{\sigma} \varphi (\dfrac{t - \mu}{\sigma}) = \dfrac{1}{\sigma \sqrt{2\pi}} \text{exp} [-\dfrac{1}{2} (\dfrac{t - \mu}{\sigma})^2]\)
Приклад 10.1.8: Дробовий ступінь невід'ємної випадкової величини
Припустимо\(X \ge 0\) і\(Z = g(X) = X^{1/a}\) для\(a > 1\). Оскільки для\(t \ge 0\),\(t^{1/a}\) збільшується, у нас є\(0 \le t^{1/a} \le v\) iff\(0 \le t \le v^{a}\). Таким чином
\(F_Z (v) = P(Z \le v) = P(X \le v^{a}) = F_X (v^{a})\)
У абсолютно суцільному випадку
\(f_Z (v) = F_{Z}^{'} (v) = f_X (v^{a}) a v^{a - 1}\)
Приклад 10.1.9: Дробова сила експоненціально розподіленої випадкової величини
Припустимо,\(X\) ~ експоненціальна (\(\lambda\)). Потім\(Z = X^{1/a}\) ~ Вейбулл\((a, \lambda, 0)\).
Згідно з результатом Прикладу 10.1.8,
\(F_Z(t) = F_X (t^{a}) = 1- e^{-\lambda t^{a}}\)
яка є функцією розподілу для\(Z\) ~ Weibull\((a, \lambda, 0)\).
Приклад 10.1.10: Просте наближення як функція X
Якщо\(X\) є випадковою величиною, може бути побудовано просте наближення функції (див. Наближення розподілу). Обмежуємо наше обговорення обмеженим випадком, в якому діапазон\(X\) обмежений інтервалом\(I = [a, b]\). Припустимо,\(I\) розділений на\(n\) підінтервали точками\(t_i\)\(1 \le i \le n - 1\), з\(a = t_0\) і\(b = t_n\). \(M_i = [t_{i - 1}, t_i)\)Дозволяти буде\(i\) й підінтервал,\(1 \le i \le n- 1\) і\(M_n = [t_{n -1}, t_n]\). \(E_i = X^{-1} (M_i)\)Дозволяти бути безліч точок, відображених в\(M_i\) по\(X\). Потім\(E_i\) формують перегородку з основного простору\(\Omega\). Для даного підрозділу формуємо просту випадкову величину\(X_s\) наступним чином. У кожному субінтервалі виберіть точку\(s_i, t_{i - 1} \le s_i < t_i\). Проста випадкова величина
\(X_s = \sum_{i = 1}^{n} s_i I_{E_i}\)
\(X\)наближається до довжини найбільшого підінтервалу\(M_i\). Тепер\(I_{E_i} = I_{M_i} (X)\), починаючи з\(I_{E_i} (\omega) = 1\)\(X(\omega) \in M_i\) вимкнення\(I_{M_i} (X(\omega)) = 1\). Таким чином, ми можемо написати
\(X_s = \sum_{i = 1}^{n} s_i I_{M_i} (X)\), функція\(X\)
Використання MATLAB для простих випадкових величин
Для простих випадкових величин ми використовуємо дискретний альтернативний підхід, оскільки це може бути легко реалізовано за допомогою MATLAB. Припустимо, розподіл for\(X\) виражається в рядкових векторах\(X\) і\(PX\).
- Виконуємо операції масиву над вектором\(X\) для отримання
\(G = [g(t_1) g(t_2) \cdot\cdot\cdot g(t_n)]\)
- Ми використовуємо реляційні та логічні операції для\(G\) отримання матриці,\(M\) яка має одиниці для тих\(t_i\) (значень\(X\)), які\(g(t_i)\) задовольняють бажаній умові (і нулі в іншому місці).
- Матриця нуль-один\(M\) використовується для вибору відповідних\(p_i = P(X = t_i)\) і підсумовування їх шляхом взяття точкового добутку\(M\) і\(PX\).
Приклад 10.1.11: Основні розрахунки для функції простої випадкової величини
X = -5:10; % Values of X
PX = ibinom(15,0.6,0:15); % Probabilities for X
G = (X + 6).*(X - 1).*(X - 8); % Array operations on X matrix to get G = g(X)
M = (G > - 100)&(G < 130); % Relational and logical operations on G
PM = M*PX' % Sum of probabilities for selected values
PM = 0.4800
disp([X;G;M;PX]') % Display of various matrices (as columns)
-5.0000 78.0000 1.0000 0.0000
-4.0000 120.0000 1.0000 0.0000
-3.0000 132.0000 0 0.0003
-2.0000 120.0000 1.0000 0.0016
-1.0000 90.0000 1.0000 0.0074
0 48.0000 1.0000 0.0245
1.0000 0 1.0000 0.0612
2.0000 -48.0000 1.0000 0.1181
3.0000 -90.0000 1.0000 0.1771
4.0000 -120.0000 0 0.2066
5.0000 -132.0000 0 0.1859
6.0000 -120.0000 0 0.1268
7.0000 -78.0000 1.0000 0.0634
8.0000 0 1.0000 0.0219
9.0000 120.0000 1.0000 0.0047
10.0000 288.0000 0 0.0005
[Z,PZ] = csort(G,PX); % Sorting and consolidating to obtain
disp([Z;PZ]') % the distribution for Z = g(X)
-132.0000 0.1859
-120.0000 0.3334
-90.0000 0.1771
-78.0000 0.0634
-48.0000 0.1181
0 0.0832
48.0000 0.0245
78.0000 0.0000
90.0000 0.0074
120.0000 0.0064
132.0000 0.0003
288.0000 0.0005
P1 = (G<-120)*PX ' % Further calculation using G, PX
P1 = 0.1859
p1 = (Z<-120)*PZ' % Alternate using Z, PZ
p1 = 0.1859
Приклад 10.1.12
\(X = 10 I_A + 18 I_B + 10 I_C\)з\(\{A, B, C\}\) незалежними і\(P =\) [0.60.30.5].
Розраховуємо розподіл за\(X\), потім визначаємо розподіл по
\(Z = X^{1/2} - X + 50\)
c = [10 18 10 0];
pm = minprob(0.1*[6 3 5]);
canonic
Enter row vector of coefficients c
Enter row vector of minterm probabilities pm
Use row matrices X and PX for calculations
Call for XDBN to view the distribution
disp(XDBN)
0 0.1400
10.0000 0.3500
18.0000 0.0600
20.0000 0.2100
28.0000 0.1500
38.0000 0.0900
G = sqrt(X) - X + 50; % Formation of G matrix
[Z,PZ] = csort(G,PX); % Sorts distinct values of g(X)
disp([Z;PZ]') % consolidates probabilities
18.1644 0.0900
27.2915 0.1500
34.4721 0.2100
36.2426 0.0600
43.1623 0.3500
50.0000 0.1400
M = (Z < 20)|(Z >= 40) % Direct use of Z distribution
M = 1 0 0 0 1 1
PZM = M*PZ'
PZM = 0.5800
Зауваження. Зауважте, що за допомогою m-функції csort ми можемо назвати результат за бажанням.
Приклад 10.1.13: Продовження прикладу 10.1.12, вище.
H = 2*X.^2 - 3*X + 1; [W,PW] = csort(H,PX) W = 1 171 595 741 1485 2775 PW = 0.1400 0.3500 0.0600 0.2100 0.1500 0.0900
Приклад 10.1.14: Дискретне наближення
Припустимо\(X\), має функцію щільності\(f_X(t) = \dfrac{1}{2} (3t^2 + 2t)\) для\(0 \le t \le 1\). Потім\(F_X (t) = \dfrac{1}{2} (t^3 + t^2)\). Нехай\(Z = X^{1/2}\). Ми можемо використовувати апроксимаційну m-процедуру tappr для отримання наближеного дискретного розподілу. Потім ми працюємо з апроксимуючою випадковою величиною як просту випадкову величину. Припустимо, ми хочемо\(P(Z \le 0.8)\). Тепер\(Z \le 0.8\) вимкнено\(X \le 0.8^2 = 0.64\). Бажана ймовірність може бути розрахована, щоб бути
\(P(Z \le 0.8) = F_X (0.64) = (0.64^3 + 0.64^2)/2 = 0.3359\)
Використовуючи процедуру наближення, ми маємо
tappr Enter matrix [a b] of x-range endpoints [0 1] Enter number of x approximation points 200 Enter density as a function of t (3*t.^2 + 2*t)/2 Use row matrices X and PX as in the simple case G = X.^(1/2); M = G <= 0.8; PM = M*PX' PM = 0.3359 % Agrees quite closely with the theoretical
