Skip to main content
LibreTexts - Ukrayinska

10.1: Функції випадкової величини

  • Page ID
    98501
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    Вступ

    Часто ми спостерігаємо значення якоїсь випадкової величини, але насправді зацікавлені в значенні, отриманому з цього правилом функції. Якщо\(X\) є випадковою величиною і\(g\) є розумною функцією (технічно, функцією Бореля), то\(Z = g(X)\) є нова випадкова величина, яка має значення\(g(t)\) для будь-якої\(\omega\) такої, що\(X(\omega) = t\). Таким чином\(Z(\omega) = g(X(\omega))\).

    Проблема; підхід

    Розглянуто, по-перше, функції однієї випадкової величини. На практиці використовується найрізноманітніші функції.

    Приклад 10.1 .1: Проблема контролю якості

    При перевірці контролю якості на виробничій лінії для кулькових підшипників може бути простіше зважити кульки, ніж виміряти діаметри. Якщо ми можемо припустити справжню сферичну форму і\(w\) є вагою\(kw^{1/3}\), то діаметр\(k\) - це коефіцієнт, який залежить від формули об'єму сфери, одиниць виміру та щільності сталі. Таким чином,\(X\) якщо вага відібраного кулі, то бажана випадкова величина є\(D = kX^{1/3}\).

    Приклад 10.1.2: Перерви цін

    Культурний комітет студентської організації організував спеціальну пропозицію на квитки на концерт. Угода полягає в тому, що організація придбає десять квитків по 20 доларів кожен (незалежно від кількості окремих покупців). Додаткові квитки доступні за наступним розкладом:

    • 11-20, $18 кожен
    • 21-30, $16 кожен
    • 31-50, $15 кожен
    • 51-100, $13 кожен

    Якщо кількість покупців є випадковою величиною\(X\), загальна вартість (у доларах) - це випадкова величина,\(Z = g(X)\) описана

    \(g(X) = 200 + 18 I_{M1} (X) (X - 10) + (16 - 18) I_{M2} (X) (X - 20)\)

    \(+ (15 - 16) I_{M3} (X) (X - 30) + (13 - 15) I_{M4} (X) (X - 50)\)

    де\(M1 = [10, \infty)\),\(M2 = [20, \infty)\),\(M3 = [30, \infty)\),\(M4 = [50, \infty)\)

    Правило функції складніше, ніж у прикладі 10.1.1, але суттєва проблема така ж.

    проблема

    Якщо\(X\) є випадковою величиною, то\(Z = g(X)\) це нова випадкова величина. Припустимо, у нас є дистрибутив для\(X\). Як ми можемо визначити\(P(Z \in M)\), що ймовірність\(Z\) приймає значення в множині\(M\)?

    Підхід до вирішення

    Розглядаємо два рівнозначних підходу

    Щоб знайти\(P(X \in M)\).

    1. Картографічний підхід. Просто знайдіть кількість маси ймовірності, відображеної у множині\(M\) випадковою величиною\(X\).
      • У абсолютно безперервному випадку розрахуйте\(\int_{M} f_X\).
      • У дискретному випадку визначте ті\(t_i\) значення\(X\) яких є в множині\(M\) і додайте пов'язані з ними ймовірності.
    2. Дискретна альтернатива. Розглянемо\(t_i\) кожне значення\(X\). Виберіть ті, які відповідають визначальним умовам,\(M\) і додайте пов'язані з ними ймовірності. Саме такий підхід ми використовуємо в розрахунках MATLAB. Зверніть увагу, що геометрично описувати множину необов'язково\(M\); просто використовуйте визначальні умови.

    Знайти\(P(g(X) \in M)\).

    1. Картографічний підхід. Визначте\(N\) множину всіх тих t, які\(M\) відображені функцією\(g\). Тепер якщо\(X(\omega) \in N\), то\(g(X(\omega)) \in M\), і якщо\(g(X(\omega)) \in M\), то\(X(\omega) \in N\). Звідси

      \(\{\omega: g(X(\omega)) \in M\} = \{\omega: X(\omega) \in N\}\)

    Оскільки це одна і та ж подія, вони повинні мати однакову ймовірність. Після того, як\(N\) виявлено, визначте\(P(X \in N)\) в звичайному порядку (див. Частина а, вище).

    • Дискретна альтернатива. Для кожного\(t_i\) можливого значення\(X\), визначити, чи\(g(t_i)\) відповідає визначальна умова для\(M\). Виберіть ті\(t_i\), які роблять, і додайте пов'язані ймовірності.

    — □

    Зауваження. Безліч\(N\) в картографічному підході називається зворотним зображенням.\(N = g^{-1} (M)\)

    Приклад 10.1.3: Дискретний приклад

    Припустимо,\(X\) має значення -2, 0, 1, 3, 6, з відповідними ймовірностями 0,2, 0,1, 0,2, 0,3 0,2.

    Розглянемо\(Z = g(X) = (X + 1) (X - 4)\). Визначте\(P(Z > 0)\).

    Рішення

    Перше рішення. Картографічний підхід

    \(g(t) = (t + 1) (t - 4)\). \(N = \{t: g(t) > 0\}\) множина точок зліва від —1 або праворуч від 4. \(X\)Значення -2 і 6 лежать у цьому наборі. Звідси

    \(P(g(X) > 0) = P(X = -2) + P(X = 6) = 0.2 + 0.2 = 0.4\)

    Друге рішення. Дискретна альтернатива

    Х = -2 0 1 3 6
    Р Х = 0.2 0.1 0.2 0.3 0.2
    Z = 6 -4 -6 -4 14
    Z > 0 1 0 0 0 1

    Виділивши і додаючи зазначені ймовірності, ми маємо

    \(P(Z > 0) = 0.2 + 0.2 = 0.4\)

    У цьому випадку (а часто і для «ручних розрахунків») картографічний підхід вимагає меншого розрахунку. Однак для розрахунків MATLAB (як ми показуємо нижче) більш легко реалізується дискретна альтернатива.

    Приклад 10.1.4. Абсолютно безперервний приклад

    Припустимо\(X\) ~ рівномірний [—3,7]. Потім\(f_X(t) = 0.1\),\(-3 \le t \le 7\) (і нуль в іншому місці). Нехай

    \(Z = g(X) = (X + 1) (X - 4)\)

    Визначте\(P(Z > 0)\).

    Рішення

    Спочатку визначаємося\(N = \{t: g(t) > 0\}\). Як у прикладі 10.1.3,\(g(t) = (t+ 1) (t - 4) > 0\) для\(t < -1\) або\(t > 4)\). Через рівномірний розподіл інтеграл щільності на будь-якому підінтервалі\(\{X, Y\}\) в 0,1 рази перевищує довжину цього субінтервалу. Таким чином, бажана ймовірність

    \(P(g(X) > 0) = 0.1 [(-1 - (-3)) + (7 - 4)] = 0.5\)

    Розглянемо далі кілька важливих прикладів.

    Приклад 10.1.5: Нормальний розподіл та стандартизований нормальний розподіл

    Щоб показати, що якщо\(X\) ~\(N(\mu, \sigma^2)\) то

    \(Z = g(X) = \dfrac{X - \mu}{\sigma} ~ N(0, 1)\)

    ПЕРЕВІРКА

    Ми хочемо показати функцію щільності для\(Z\) is

    \(\varphi (t) = \dfrac{1}{\sqrt{2\pi}} e^{-t^2/2}\)

    Зараз

    \(g(t) = \dfrac{t - \mu} {\sigma} \le v\)іфф\(t \le \sigma v + \mu\)

    Отже, для даного\(M = (-\infty, v]\) зворотного зображення є\(N = (-\infty, \sigma v + \mu]\), так що

    \(F_Z (v) = P(Z \le v) = P(Z \in M) = P(X \in N) = P(X \le \sigma v + \mu) = F_X (\sigma v + \mu)\)

    Оскільки щільність є похідною від функції розподілу,

    \(f_Z(v) = F_{Z}^{'} (v) = F_{X}^{'} (v) = F_{X}^{'} (\sigma v + \mu) \sigma = \sigma f_X (\sigma v + \mu)\)

    Таким чином

    \(f_Z (v) = \dfrac{\sigma}{\sigma \sqrt{2\pi}} \text{exp} [-\dfrac{1}{2} (\dfrac{\sigma v + \mu - \mu}{\sigma})^2] = \dfrac{1}{\sqrt{2\pi}} e^{-v^2/2} = \varphi(v)\)

    Ми робимо висновок, що\(Z\) ~\(N(0, 1)\).

    Приклад\(\PageIndex{1}\)

    Припустимо\(X\), має функцію розподілу\(F_X\). Якщо він абсолютно суцільний, відповідна щільність дорівнює\(f_X\). Розглянемо\(Z = aX + b\). Тут\(g(t) = at + b\) афінна функція (лінійна плюс константа). Визначте функцію розподілу для\(Z\) (і щільність в абсолютно безперервному випадку).

    Рішення

    \(F_Z (v) = P(Z \le v) = P(aX + b \le v)\)

    Є два випадки

    • \(a\)> 0:

      \(F_Z (v) = P(X \le \dfrac{v - b}{a}) = F_X (\dfrac{v - b}{a})\)

    • \(a\)< 0

      \(F_Z (v) = P(X \ge \dfrac{v - b}{a}) = P(X > \dfrac{v - b}{a}) + P(X = \dfrac{v - b}{a})\)

    Так що

    \(F_Z (v) = 1 - F_X (\dfrac{v - b}{a}) + P(X = \dfrac{v - b}{a})\)

    Для абсолютно безперервного випадку\(P(X = \dfrac{v - b}{a}) = 0\), і шляхом диференціації

    • для\(a > 0\)\(f_Z (v) = \dfrac{1}{a} f_X (\dfrac{v - b}{a})\)
    • для\(a < 0\)\(f_Z (v) = -\dfrac{1}{a} f_X (\dfrac{v - b}{a})\)

    Оскільки для\(a < 0\)\(-a = |a|\), два випадки можуть бути об'єднані в одну формулу.

    \(f_Z (v) = \dfrac{1}{|a|} f_X (\dfrac{v-b}{a})\)

    Приклад 10.1.7: Завершення нормальних та стандартизованих нормальних відносин

    Припустимо\(Z\) ~\(N(0, 1)\). показати, що\(X = \sigma Z + \mu \) (\(\sigma > 0\)) є\(N(\mu, \sigma^2)\).

    ПЕРЕВІРКА

    Використання результату Прикладу 10.1.6 на афінних функціях показує, що

    \(f_{X} (t) = \dfrac{1}{\sigma} \varphi (\dfrac{t - \mu}{\sigma}) = \dfrac{1}{\sigma \sqrt{2\pi}} \text{exp} [-\dfrac{1}{2} (\dfrac{t - \mu}{\sigma})^2]\)

    Приклад 10.1.8: Дробовий ступінь невід'ємної випадкової величини

    Припустимо\(X \ge 0\) і\(Z = g(X) = X^{1/a}\) для\(a > 1\). Оскільки для\(t \ge 0\),\(t^{1/a}\) збільшується, у нас є\(0 \le t^{1/a} \le v\) iff\(0 \le t \le v^{a}\). Таким чином

    \(F_Z (v) = P(Z \le v) = P(X \le v^{a}) = F_X (v^{a})\)

    У абсолютно суцільному випадку

    \(f_Z (v) = F_{Z}^{'} (v) = f_X (v^{a}) a v^{a - 1}\)

    Приклад 10.1.9: Дробова сила експоненціально розподіленої випадкової величини

    Припустимо,\(X\) ~ експоненціальна (\(\lambda\)). Потім\(Z = X^{1/a}\) ~ Вейбулл\((a, \lambda, 0)\).

    Згідно з результатом Прикладу 10.1.8,

    \(F_Z(t) = F_X (t^{a}) = 1- e^{-\lambda t^{a}}\)

    яка є функцією розподілу для\(Z\) ~ Weibull\((a, \lambda, 0)\).

    Приклад 10.1.10: Просте наближення як функція X

    Якщо\(X\) є випадковою величиною, може бути побудовано просте наближення функції (див. Наближення розподілу). Обмежуємо наше обговорення обмеженим випадком, в якому діапазон\(X\) обмежений інтервалом\(I = [a, b]\). Припустимо,\(I\) розділений на\(n\) підінтервали точками\(t_i\)\(1 \le i \le n - 1\), з\(a = t_0\) і\(b = t_n\). \(M_i = [t_{i - 1}, t_i)\)Дозволяти буде\(i\) й підінтервал,\(1 \le i \le n- 1\) і\(M_n = [t_{n -1}, t_n]\). \(E_i = X^{-1} (M_i)\)Дозволяти бути безліч точок, відображених в\(M_i\) по\(X\). Потім\(E_i\) формують перегородку з основного простору\(\Omega\). Для даного підрозділу формуємо просту випадкову величину\(X_s\) наступним чином. У кожному субінтервалі виберіть точку\(s_i, t_{i - 1} \le s_i < t_i\). Проста випадкова величина

    \(X_s = \sum_{i = 1}^{n} s_i I_{E_i}\)

    \(X\)наближається до довжини найбільшого підінтервалу\(M_i\). Тепер\(I_{E_i} = I_{M_i} (X)\), починаючи з\(I_{E_i} (\omega) = 1\)\(X(\omega) \in M_i\) вимкнення\(I_{M_i} (X(\omega)) = 1\). Таким чином, ми можемо написати

    \(X_s = \sum_{i = 1}^{n} s_i I_{M_i} (X)\), функція\(X\)

    Використання MATLAB для простих випадкових величин

    Для простих випадкових величин ми використовуємо дискретний альтернативний підхід, оскільки це може бути легко реалізовано за допомогою MATLAB. Припустимо, розподіл for\(X\) виражається в рядкових векторах\(X\) і\(PX\).

    • Виконуємо операції масиву над вектором\(X\) для отримання

      \(G = [g(t_1) g(t_2) \cdot\cdot\cdot g(t_n)]\)

    • Ми використовуємо реляційні та логічні операції для\(G\) отримання матриці,\(M\) яка має одиниці для тих\(t_i\) (значень\(X\)), які\(g(t_i)\) задовольняють бажаній умові (і нулі в іншому місці).
    • Матриця нуль-один\(M\) використовується для вибору відповідних\(p_i = P(X = t_i)\) і підсумовування їх шляхом взяття точкового добутку\(M\) і\(PX\).

    Приклад 10.1.11: Основні розрахунки для функції простої випадкової величини

    X = -5:10;                     % Values of X
    PX = ibinom(15,0.6,0:15);      % Probabilities for X
    G = (X + 6).*(X - 1).*(X - 8); % Array operations on X matrix to get G = g(X)
    M = (G > - 100)&(G < 130);     % Relational and logical operations on G
    PM = M*PX'                     % Sum of probabilities for selected values
    PM =  0.4800
    disp([X;G;M;PX]')              % Display of various matrices (as columns)
       -5.0000   78.0000    1.0000    0.0000
       -4.0000  120.0000    1.0000    0.0000
       -3.0000  132.0000         0    0.0003
       -2.0000  120.0000    1.0000    0.0016
       -1.0000   90.0000    1.0000    0.0074
             0   48.0000    1.0000    0.0245
        1.0000         0    1.0000    0.0612
        2.0000  -48.0000    1.0000    0.1181
        3.0000  -90.0000    1.0000    0.1771
        4.0000 -120.0000         0    0.2066
        5.0000 -132.0000         0    0.1859
        6.0000 -120.0000         0    0.1268
        7.0000  -78.0000    1.0000    0.0634
        8.0000         0    1.0000    0.0219
        9.0000  120.0000    1.0000    0.0047
       10.0000  288.0000         0    0.0005
    [Z,PZ] = csort(G,PX);          % Sorting and consolidating to obtain
    disp([Z;PZ]')                  % the distribution for Z = g(X)
     -132.0000    0.1859
     -120.0000    0.3334
      -90.0000    0.1771
      -78.0000    0.0634
      -48.0000    0.1181
             0    0.0832
       48.0000    0.0245
       78.0000    0.0000
       90.0000    0.0074
      120.0000    0.0064
      132.0000    0.0003
      288.0000    0.0005
    P1 = (G<-120)*PX '           % Further calculation using G, PX
    P1 =  0.1859
    p1 = (Z<-120)*PZ'            % Alternate using Z, PZ
    p1 =  0.1859

    Приклад 10.1.12

    \(X = 10 I_A + 18 I_B + 10 I_C\)з\(\{A, B, C\}\) незалежними і\(P =\) [0.60.30.5].

    Розраховуємо розподіл за\(X\), потім визначаємо розподіл по

    \(Z = X^{1/2} - X + 50\)

    c = [10 18 10 0];
    pm = minprob(0.1*[6 3 5]);
    canonic
     Enter row vector of coefficients  c
     Enter row vector of minterm probabilities  pm
    Use row matrices X and PX for calculations
    Call for XDBN to view the distribution
    disp(XDBN)
             0    0.1400
       10.0000    0.3500
       18.0000    0.0600
       20.0000    0.2100
       28.0000    0.1500
       38.0000    0.0900
    G = sqrt(X) - X + 50;       % Formation of G matrix
    [Z,PZ] = csort(G,PX);       % Sorts distinct values of g(X)
    disp([Z;PZ]')               % consolidates probabilities
       18.1644    0.0900
       27.2915    0.1500
       34.4721    0.2100
       36.2426    0.0600
       43.1623    0.3500
       50.0000    0.1400
    M = (Z < 20)|(Z >= 40)      % Direct use of Z distribution
    M =    1     0     0     0     1     1
    PZM = M*PZ'
    PZM =  0.5800

    Зауваження. Зауважте, що за допомогою m-функції csort ми можемо назвати результат за бажанням.

    Приклад 10.1.13: Продовження прикладу 10.1.12, вище.

    H = 2*X.^2 - 3*X + 1;
    [W,PW] = csort(H,PX)
    W  =     1      171     595     741    1485    2775
    PW =  0.1400  0.3500  0.0600  0.2100  0.1500  0.0900

    Приклад 10.1.14: Дискретне наближення

    Припустимо\(X\), має функцію щільності\(f_X(t) = \dfrac{1}{2} (3t^2 + 2t)\) для\(0 \le t \le 1\). Потім\(F_X (t) = \dfrac{1}{2} (t^3 + t^2)\). Нехай\(Z = X^{1/2}\). Ми можемо використовувати апроксимаційну m-процедуру tappr для отримання наближеного дискретного розподілу. Потім ми працюємо з апроксимуючою випадковою величиною як просту випадкову величину. Припустимо, ми хочемо\(P(Z \le 0.8)\). Тепер\(Z \le 0.8\) вимкнено\(X \le 0.8^2 = 0.64\). Бажана ймовірність може бути розрахована, щоб бути

    \(P(Z \le 0.8) = F_X (0.64) = (0.64^3 + 0.64^2)/2 = 0.3359\)

    Використовуючи процедуру наближення, ми маємо

    tappr
    Enter matrix [a b] of x-range endpoints  [0 1]
    Enter number of x approximation points  200
    Enter density as a function of t  (3*t.^2 + 2*t)/2
    Use row matrices X and PX as in the simple case
    G = X.^(1/2);
    M = G <= 0.8;
    PM = M*PX'
    PM =   0.3359       % Agrees quite closely with the theoretical