Skip to main content
LibreTexts - Ukrayinska

13.1: Методи перетворення

  • Page ID
    98607
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    Як зазначається в одиницях Очікування та дисперсії, математичне очікування\(E[X] = \mu_X\) випадкової\(X\) величини знаходить центр маси для індукованого розподілу, а очікування

    \(E[g(X)] = E[(X - E[X])^2] = \text{Var} [X] = \sigma_X^2\)

    вимірює поширення розподілу навколо його центру мас. Ці величини також відомі, відповідно, як середнє (момент)\(X\) і другий момент\(X\) приблизно середнього. Інші моменти дають додаткову інформацію. Наприклад, третій момент про середнє\(E[(X - \mu_X)^3]\) дає інформацію про перекіс, або асиметрії, розподілу про середнє. Досліджуємо далі за цими напрямками, вивчаючи очікування певних функцій\(X\). Кожна з цих функцій передбачає певний параметр, таким чином, який повністю визначає розподіл. З причин, зазначених нижче, ми називаємо їх перетвореннями. Ми розглянемо три найкорисніших з них.

    Три основні перетворення

    Ми визначаємо кожне з трьох перетворень, визначаємо деякі ключові властивості та використовуємо їх для вивчення різних розподілів ймовірностей, пов'язаних з випадковими величинами. У розділі про інтегральні перетворення ми показуємо їх зв'язок з відомими інтегральними перетвореннями. Вони широко вивчалися і використовуються в багатьох інших додатках, що дозволяє використовувати значну літературу про ці перетворення.

    Визначення

    Функцією, що генерує момент\(M_X\) для випадкової величини\(X\) (тобто для її розподілу) є функцією

    \(M_X (s) = E[e^{sX}]\)(\(s\)є реальним або складним параметром)

    Характерною функцією\(\phi_X\) для випадкової величини\(X\) є

    \(\varphi_X (u) = E[e^{iuX}]\)(\(i^2 = -1\),\(u\) є реальним параметром)

    Функція генерації\(g_X(s)\) для невід'ємної цілочисельної випадкової величини\(X\) дорівнює

    \(g_X (s) = E[s^X] = \sum_k s^k P(X = k)\)

    Генеруюча функція\(E[s^X]\) має значення для більш загальних випадкових величин, але її корисність є найбільшою для невід'ємних, цілозначних змінних, і ми обмежуємо наш розгляд цим випадком.

    Визначальні вирази відображають подібності, які показують корисні зв'язки. Відзначимо два, які особливо корисні.

    \(M_X (s) = E[e^{sX}] = E[(e^s)^X] = g_X (e^s)\)і\(\varphi_X (u) = E[e^{iuX}] = M_X (iu)\)

    Через останній зв'язок ми зазвичай використовуємо функцію генерування моменту замість характерної функції, щоб уникнути запису складної одиниці i. При бажанні ми легко конвертуємо за допомогою зміни змінної.

    Інтегральний характер перетворення цих сутностей передбачає, що між перетворенням і розподілом по суті існує зв'язок один до одного.

    Моменти

    Назва та частина важливості функції, що генерує момент, виникають через те, що похідні\(M_X\) оцінюваного в\(s = 0\) - це моменти про походження. Конкретно

    \(M_{X}^{(k)} (0) = E[X^k]\), за умови, що\(k\) момент існує

    Оскільки очікування є інтегралом і через регулярність integrand, ми можемо диференціювати всередині інтеграла по відношенню до параметра.

    \(M_X'(s) = \dfrac{d}{ds} E[e^{sX}] = E[\dfrac{d}{ds} e^{sX}] = E[X e^{sX}]\)

    Після постановки\(s = 0\), ми маємо\(M_X'(0) = E[X]\). Повторна диференціація дає загальний результат. Відповідний результат для характерної функції є\(\varphi^{(k)} (0) = i^k E[X^k]\).

    Приклад\(\PageIndex{1}\) The exponential distribution

    Функція щільності -\(f_X (t) = \lambda e^{-\lambda t}\) для\(t \ge 0\).

    \(M_X (s) = E[e^{sX}] = \int_{0}^{\infty} \lambda e^{-(\lambda - s) t}\ dt = \dfrac{\lambda}{\lambda - s}\)

    \(M_X'(s) = \dfrac{\lambda}{(\lambda - s)^2}\)\(M_X '' (s0 = \dfrac{2\lambda}{(\lambda - s)^3}\)

    \(E[X] = M_X' (0) = \dfrac{\lambda}{\lambda^2} = \dfrac{1}{\lambda}\)\(E[X^2] = M_X'' (0) = \dfrac{2\lambda}{\lambda^3} = \dfrac{2}{\lambda^2}\)

    З цього отримуємо\(\text{Var} [X] = 2/\lambda^2 - 1/\lambda^2 = 1/\lambda^2\).

    Генеруюча функція не піддається легко обчислювальним моментам, хіба що

    \(g_X' (s) = \sum_{k = 1}^{\infty} k s^{k - 1} P(X = k)\)так що\(g_X'(1) = \sum_{k = 1}^{\infty} kP(X = k) = E[X]\)

    Для моментів вищого порядку ми можемо перетворити генеруючу функцію в функцію, що генерує момент, замінивши\(s\) на\(e^s\), потім працювати з\(M_X\) та її похідними.

    Приклад\(\PageIndex{2}\) The Poisson (\(\mu\)) distribution

    \(P(X = k) = e^{-\mu} \dfrac{\mu^k}{k!}\),\(k \ge 0\), щоб

    \(g_X (s) = e^{-\mu} \sum_{k = 0}^{\infty} s^k \dfrac{\mu^k}{k!} = e^{-\mu} \sum_{k = 0}^{\infty} \dfrac{(s\mu)^k}{k!} = e^{-\mu} e^{\mu s} = e^{\mu (s - 1)}\)

    Ми перетворюємо в\(M_X\),\(s\) замінивши на\(e^s\) щоб отримати\(M_X (s) = e^{u(e^s - 1)}\). Тоді

    \(M_X'(s) = e^{u(e^s - 1)} \mu e^s\)\(M_X''(s) = e^{u(e^s - 1)} [\mu^2 e^{2s} + \mu e^s]\)

    щоб

    \(E[X] = M_X' (0) = \mu\),\(E[X^2] = M_X''(0) = \mu^2 + \mu\), і\(\text{Var} [X] = \mu^2 + \mu - \mu^2 = \mu\)

    Ці результати узгоджуються, звичайно, з тими, що знайдені шляхом прямого обчислення з розподілом.

    експлуатаційні властивості

    Під експлуатаційними властивостями ми називаємо наступне.

    (T1): Якщо\(Z = aX + b\), то

    \(M_Z (s) = e^{bs} M_X (as)\),\(\varphi_Z (u) = e^{iub} \varphi_X (au)\),\(g_Z (s) = s^b g_X (s^a)\)

    Для функції, що генерує момент, ця закономірність випливає з

    \(E[e^{(aX + b)s}] = s^{bs} E[e^{(as)X}]\)

    Аналогічні аргументи дотримуються і для двох інших.

    (T2): Якщо пара\(\{X, Y\}\) незалежна, то

    \(M_{X+Y} (s) = M_X (s) M_Y(s)\),\(\varphi_{X+Y} (u) = \varphi_X (u) \varphi_Y(u)\),\(g_{X+Y} (s) = g_X (s) g_Y(s)\)

    Для моменту генеруючи функцію,\(e^{sX}\) і\(e^{sY}\) формують незалежну пару для кожного значення параметра\(s\). За правилом продукту для очікування

    \(E[e^{s(X+Y)}] = E[e^{sX} e^{sY}] = E[e^{sX}] E[e^{sY}]\)

    Подібні аргументи використовуються для двох інших перетворень.

    Часткове зворотне для (Т2) виглядає наступним чином:

    (T3): Якщо\(M_{X + Y} (s) = M_X (s) M_Y (s)\),\(\{X + Y\}\) то пара не корелює. Щоб показати це, ми отримуємо два вирази для\(E[(X + Y)^2]\), одне шляхом прямого розширення та використання лінійності, а інше, взявши другу похідну функції, що генерує момент.

    \(E[(X + Y)^2] = E[X^2] + E[Y^2] + 2E[XY]\)

    \(M_{X+Y}'' (s) = [M_X (s) M_Y(s)]'' = M_X'' (s) M_Y(s) + M_X (s) M_Y''(s) + 2M_X'(s) M_Y'(s)\)

    На налаштуванні\(s = 0\) і використанні того\(M_X (0) = M_Y (0) = 1\), що, у нас є

    \(E[(X + Y)^2] = E[X^2] + E[Y^2] + 2E[X]E[Y]\)

    що має на увазі рівність\(E[XY] = E[X] E[Y]\).

    Зверніть увагу, що ми не показали, що бути некорельованим означає правило продукту.

    Ми використовуємо ці властивості для визначення моменту генерування та генерації функцій для кількох наших загальних розподілів.

    Деякі дискретні дистрибутиви

    Функція індикатора\(X = I_E\)\(P(E) = p\)

    \(g_X(s) = s^0 q + s^1 p = q + ps\)\(M_X (s) = g_X (e^s) = q + pe^s\)

    Проста випадкова величина\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) (примітивна форма)\(P(A_i) = p_i\)

    \(M_X(s) = \sum_{i = 1}^{n} e^{st_i} p_i\)

    Біноміальні (\(n\),\(p\)). \(X = \sum_{i = 1}^{n} I_{E_i}\)з\(\{I_{E_i}: 1 \le i \le n\}\) iid\(P(E_i) = p\)

    Використовується правило добутку для сум незалежних випадкових величин та генеруючу функцію для індикаторної функції.

    \(g_X (s) = \prod_{i = 1}^{n} (q + ps) = (q + ps)^n\)\(M_X (s) = (q + pe^s)^n\)

    Геометричний (\(p\)). \(P(X = k) = pq^k\)\(\forall k \ge 0\)\(E[X] = q/p\)Використовуємо формулу геометричного ряду, щоб отримати

    \(g_X (s) = \sum_{k = 0}^{\infty} pq^k s^k = p \sum_{k = 0}^{\infty} (qs)^k = \dfrac{p}{1 - qs} M_X (s) = \dfrac{p}{1 - qe^s}\)

    Негативний біноміал (\(m, p\)) Якщо\(Y_m\) число випробування в послідовності Бернуллі,\(m\) на якому відбувається успіх, і\(X_m = Y_m - m\) кількість невдач перед успіхом, то\(m\)

    \(P(X_m = k) = P(Y_m - m = k) = C(-m, k) (-q)^k p^m\)

    де\(C(-m, k) = \dfrac{-m (-m - 1) (-m - 2) \cdot\cdot\cdot (-m - k + 1)}{k!}\)

    Розширення силової серії про\(t = 0\) показує, що

    \((1 + t)^{-m} = 1 + C(-m, 1) t + C(-m, 2)t^2 + \cdot\cdot\cdot\)для\(-1 < t < 1\)

    Отже,

    \(M_{X_m} (s) = p^m \sum_{k = 0}^{\infty} C(-m, k) (-q)^k e^{sk} = [\dfrac{p}{1 - qe^s}]^m\)

    Порівняння з моментогенеруючою функцією для геометричного розподілу показує, що\(X_m = Y_m - m\) має такий же розподіл, як і сума\(m\) iid випадкових величин, кожна геометрична (\(p\)). Це говорить про те, що послідовність характеризується незалежним, послідовним часом очікування до успіху. Це також показує, що очікування та дисперсія в\(m\) рази\(X_m\) перевищують очікування та дисперсію для геометричного. Таким чином

    \(E[X_m] = mq/p\)і\(\text{Var} [X_m] = mq/p^2\)

    Пуассона (\(\mu\))\(P(X = k) = e^{-\mu} \dfrac{\mu^k}{k!}\)\(\forall k \ge 0\) У прикладі 13.1.2, вище, встановлюємо\(g_X (s) = e^{\mu(s -1)}\) і\(M_X (s) = e^{\mu (e^s - 1)}\). Якщо\(\{X, Y\}\) незалежна пара, з\(X\) ~ Пуассоном (\(\lambda\)) і\(Y\) ~ Пуассоном (\(\mu\)), то\(Z = X + Y\) ~ Пуассоном\((\lambda + \mu)\). Випливає з (T1) і добутку експоненціальних чисел.

    Деякі абсолютно безперервні дистрибутиви

    Уніформа на\((a, b) f_X(t) = \dfrac{1}{b - a}\)\(a < t < b\)

    \(M_X (s) = \int e^{st} f_X (t)\ dt = \dfrac{1}{b-a} \int_{a}^{b} e^{st}\ dt = \dfrac{e^{sb} - e^{sa}}{s(b - a)}\)

    Симетричний трикутний\((-c, c)\)

    \(f_X(t) = I_{[-c, 0)} (t) \dfrac{c + t}{c^2} + I_{[0, c]} (t) \dfrac{c - t}{c^2}\)

    \(M_X (s) = \dfrac{1}{c^2} \int_{-c}^{0} (c + t) e^{st} \ dt + \dfrac{1}{c^2} \int_{0}^{c} (c - t) e^{st}\ dt = \dfrac{e^{cs} + e^{-cs} - 2}{c^2s^2}\)

    \(= \dfrac{e^{cs} - 1}{cs} \cdot \dfrac{1 - e^{-cs}}{cs} = M_Y (s) M_Z (-s) = M_Y (s) M_{-Z} (s)\)

    де\(M_Y\) - функція генерування моменту для\(Y\) ~ рівномірної\((0, c)\) і аналогічно для\(M_Z\). Таким чином,\(X\) має такий же розподіл, як і різниця двох незалежних випадкових величин, кожна рівномірна на\((0, c)\).

    Експоненціальна (\(\lambda\))\(f_X (t) = \lambda e^{-\lambda t}\),\(t \ge 0\)

    У прикладі 1, вище, ми показуємо це\(M_X (s) = \dfrac{\lambda}{\lambda - s}\).

    Гамма (1\(\alpha, \lambda\))\(f_X (t) = \dfrac{1}{\Gamma(\alpha)} \lambda^{\alpha} t^{\alpha - 1} e^{-\lambda t}\)\(t \ge 0\)

    \(M_X (s) = \dfrac{\lambda^{\alpha}}{\Gamma (\alpha)} \int_{0}^{\infty} t^{\alpha - 1} e^{-(\lambda - s)t} \ dt = [\dfrac{\lambda}{\lambda - s}]^{\alpha}\)

    For\(\alpha = n\), натуральне ціле число,

    \(M_X (s) = [\dfrac{\lambda}{\lambda - s}]^n\)

    який показує, що в даному випадку\(X\) має розподіл суми\(n\) незалежних випадкових величин кожна експоненціальна\((\lambda)\).

    Звичайний (\(\mu, \sigma^2\)).

    • Стандартизована норма,\(Z\) ~\(N(0, 1)\)

    \(M_Z (s) = \dfrac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty} e^{st} e^{-t^2/2}\ dt\)

    Тепер\(st - \dfrac{t^2}{2} = \dfrac{s^2}{2} - \dfrac{1}{2} (t - s)^2\) так, щоб

    \(M_Z (s) = e^{s^2/2} \dfrac{1}{\sqrt{2\pi}} \int_{-\infty}^{\infty} e^{-(t - s)^2/2} \ dt = e^{s^2/2}\)

    так як integrand (в тому числі константа)\((1/\sqrt{2\pi})\) - це щільність для\(N(s, 1)\).

    • \(X = \sigma Z + \mu\)має на увазі майно (Т1)

    \(M_X (s) = e^{s\mu} e^{\sigma^2 s^2/2} = \text{exp} (\dfrac{\sigma^2 s^2}{2} + s\mu)\)

    Приклад\(\PageIndex{3}\) Affine combination of independent normal random variables

    Припустимо,\(\{X, Y\}\) це незалежна пара з\(X\) ~\(N(\mu_X, \sigma_X^2)\) і\(Y\) ~\(N(\mu_Y, \sigma_Y^2)\). Нехай\(Z = aX + bY + c\). The\(Z\) є нормальним, для за властивостями очікування і дисперсії

    \(\mu_Z = a \mu_X + b \mu_Y + c\)і\(\sigma_Z^2 = a^2 \sigma_X^2 + b^2 \sigma_Y^2\)

    і за експлуатаційними властивостями для моментогенеруючої функції

    \(M_Z (s) = e^{sc} M_X (as) M_Y (bs) = \text{exp} (\dfrac{(a^2 \sigma_X^2 + b^2 \sigma_Y^2) s^2}{2} + s(a\mu_X + b\mu_Y + c))\)

    \(= \text{exp} (\dfrac{\sigma_Z^2 s^2}{2} + s \mu_Z)\)

    Ця форма\(M_Z\) показує, що\(Z\) нормально розподіляється.

    Функція генерації моменту та прості випадкові величини

    Припустимо,\(X = \sum_{i = 1}^{n} t_i I_{A_i}\) в канонічній формі. Тобто,\(A_i\) це подія\(\{X = t_i\}\) для кожного з різних значень в діапазоні\(X_i\) з\(p_i = P(A_i) = P(X = t_i)\). Тоді функція генерування моменту\(X\) для

    \(M_X (s) = \sum_{i = 1}^{n} p_i e^{st_i}\)

    Таким чином, функція\(M_X\) генерування моменту пов'язана безпосередньо і просто з розподілом для випадкової величини\(X\).

    Розглянемо задачу визначення суми незалежної пари\(\{X, Y\}\) простих випадкових величин. Момент, що генерує

    функція для суми - добуток функцій, що генерують момент. Тепер\(Y = \sum_{j = 1}^{m} u_j I_{B_j}\), якщо, з\(P(Y = u_j) = \pi_j\), у нас є

    \(M_X (s) M_Y(s) = (\sum_{i = 1}^{n} p_i e^{st_i})(\sum_{j = 1}^{m} \pi_j e^{su_j}) = \sum_{i,j} p_i \pi_j e^{s(t_i + u_j)}\)

    Різні значення - це\(t_i + u_j\) суми пар\((t_i, u_j)\) значень. Кожна з цих сум має ймовірність\(p_i \pi_j\) для значень, відповідних\(t_i, u_j\). Оскільки більше однієї пари сума може мати однакове значення, нам потрібно сортувати значення, консолідувати подібні значення та додати ймовірності для подібних значень, щоб досягти розподілу для суми. У нас є м-функція mgsum для досягнення цього безпосередньо. Він виробляє парні добутки для ймовірностей та пар-суми для значень, потім виконує операцію csort. Незважаючи на те, що безпосередньо не залежить від аналізу функції, що генерує момент, він дає той самий результат, що і отриманий шляхом множення функцій, що генерують момент.

    Приклад\(\PageIndex{4}\) Distribution for a sum of independent simple random variables

    Припустимо\(\{X, Y\}\), пара незалежна з розподілами

    \(X =\)[1 3 5 7]\(Y =\) [2 3 4]\(PX =\) [0.2 0.4 0.3 0.1]\(PY =\) [0,3 0,5 0,2]

    Визначте розподіл для\(Z = X + Y\).

    X = [1 3 5 7];
    Y = 2:4;
    PX = 0.1*[2 4 3 1];
    PY = 0.1*[3 5 2];
    [Z,PZ] = mgsum(X,Y,PX,PY);
    disp([Z;PZ]')
        3.0000    0.0600
        4.0000    0.1000
        5.0000    0.1600
        6.0000    0.2000
        7.0000    0.1700
        8.0000    0.1500
        9.0000    0.0900
       10.0000    0.0500
       11.0000    0.0200

    Це, звичайно, можна було б досягти за допомогою icalc та csort, що має ту перевагу, що інші функції\(X\) та\(Y\) можуть бути оброблені. Крім того, оскільки випадкові величини невід'ємні, цілозначні, може використовуватися функція згортки MATLAB (див. Приклад 13.1.7). При багаторазовому використанні функції mgsum ми можемо отримати розподіл на суму більше двох простих випадкових величин. М-функції mgsum3 і mgsum4 використовувати цю стратегію.

    Методи простих випадкових величин можуть бути використані з простими наближеннями до абсолютно неперервних випадкових величин.

    Приклад\(\PageIndex{5}\) Difference of uniform distribution

    Моментогенеруючі функції для рівномірного та симетричного трикутника показують, що останній виглядає природним чином як різниця двох рівномірно розподілених випадкових величин. Розглянемо\(X\) і\(Y\) iid, рівномірний на [0,1].

    tappr
    Enter matrix [a b] of x-range endpoints  [0 1]
    Enter number of x approximation points  200
    Enter density as a function of t  t<=1
    Use row matrices X and PX as in the simple case
    [Z,PZ] = mgsum(X,-X,PX,PX);
    plot(Z,PZ/d)               % Divide by d to recover f(t)
    %  plotting details   ---  see Figure 13.1.1

    Малюнок перший - це графік щільності. Він називається, Щільність для різниці двох змінних, кожна рівномірна (0, 1). Горизонтальна вісь графіка позначена, t, а вертикальний - fZ (t). Ділянка щільності трикутна, починаючи з (-1, 0), і збільшується з постійним нахилом до точки (0, 1). Графік продовжується після цієї точки вниз з постійним негативним нахилом до точки (1, 0).
    Малюнок 13.1.1. Щільність для різниці незалежної пари, рівномірна (0,1).

    генеруюча функція

    Форма генеруючої функції для невід'ємної цілозначної випадкової величини проявляє ряд важливих властивостей.

    \(X = \sum_{k = 0}^{\infty} kI_{A_i}\)(Канонічна форма)\(p_k = P(A_k) = P(X = k)\)\(g_X (s) = \sum_{k = 0}^{\infty} s^k p_k\)

    Як степеневий ряд в\(s\) з немаєнегативними коефіцієнтами, часткові суми яких сходяться до одиниці, ряд сходиться хоча б для\(|s| \le 1\).

    Коефіцієнти силового ряду відображають розподіл: для значення\(k\) ймовірність\(p_k = P(X = k)\) - коефіцієнт\(s^k\).

    Розширення рядів степенів про походження аналітичної функції є унікальним. Якщо генеруюча функція відома в замкнутому вигляді, розподіл визначає унікальне розширення рядів потужності про походження. Якщо силовий ряд сходиться до відомої замкнутої форми, ця форма характеризує розподіл.

    Для простої випадкової величини (тобто\(p_k = 0\) for\(k > n\)),\(g_X\) є поліном.

    Приклад\(\PageIndex{6}\) The Poisson distribution

    У прикладі 13.1.2, вище, ми встановлюємо генеруючу функцію для\(X\) ~ Пуассона\((\mu)\) з розподілу. Припустимо, однак, ми просто стикаємося з генеруючою функцією

    \(g_X (s) = e^{m(s - 1)} = e^{-m} e^{ms}\)

    З відомого силового ряду для експоненціальної отримуємо

    \(g_X (s) = e^{-m} \sum_{k = 0}^{\infty} \dfrac{(ms)^k}{k!} = e^{-m} \sum_{k = 0}^{\infty} s^k \dfrac{m^k}{k!}\)

    Ми робимо висновок, що

    \(P(X = k) = e^{-m} \dfrac{m^k}{k!}\),\(0 \le k\)

    який є розподілом Пуассона з параметром\(\mu = m\).

    Для простих, невід'ємних, цілозначних випадкових величин генеруючими функціями є поліноми. Через правило добутку (Т2) задача визначення розподілу для суми незалежних випадкових величин може оброблятися процесом множення многочленів. Це можна зробити швидко і легко за допомогою функції згортки MATLAB.

    Приклад\(\PageIndex{7}\) Sum of independent simple random variables

    Припустимо, пара\(\{X, Y\}\) незалежна, з

    \(g_X (s) = \dfrac{1}{10} (2 + 3s + 3s^2 + 2s^5)\)\(g_Y (s) = \dfrac{1}{10} (2s + 4s^2 + 4s^3)\)

    У згортці функції MATLAB всі повноваження s повинні враховуватися шляхом включення нулів для відсутніх ступенів.

    gx = 0.1*[2 3 3 0 0 2];      % Zeros for missing powers 3, 4
    gy = 0.1*[0 2 4 4];          % Zero  for missing power 0
    gz = conv(gx,gy);
    a = ['       Z         PZ'];
    b = [0:8;gz]';
    disp(a)
           Z         PZ          % Distribution for Z = X + Y
    disp(b)
             0         0
        1.0000    0.0400
        2.0000    0.1400
        3.0000    0.2600
        4.0000    0.2400
        5.0000    0.1200
        6.0000    0.0400
        7.0000    0.0800
        8.0000    0.0800
    

    Якби використовувалася mgsum, не потрібно було б турбуватися про відсутні повноваження і відповідні нульові коефіцієнти.

    Інтегральні перетворення

    Розглянуто коротко зв'язок моментогенеруючої функції і характерної функції з відомими інтегральними перетвореннями (звідси і назва цієї глави).

    Функція генерації моменту та перетворення Лапласа

    Коли ми розглядаємо інтегральні форми моментогенеруючої функції, ми бачимо, що вони являють собою форми перетворення Лапласа, широко використовувані в інженерній та прикладній математиці. Припустимо,\(F_X\) це функція розподілу ймовірностей с\(F_X (-\infty) = 0\). Двостороннє перетворення Лапласа для\(F_X\) задається

    \(\int_{-\infty}^{\infty} e^{-st} F_X (t) \ dt\)

    Перетворення Лапласа-Стілтьєса для\(F_X\) нас

    \(\int_{-\infty}^{\infty} e^{-st} F_X (dt)\)

    Таким чином, якщо\(M_X\) є моментогенеруючою функцією для\(X\), то\(M_X (-s)\) є перетворення Лапласа-Стілтьєса для\(X\) (або, еквівалентно, for\(F_X\)).

    Теорія перетворень Лапласа-Стілтьєса показує, що в умовах досить загальні, щоб включити всі практичні функції розподілу

    \(M_X (-s) = \int_{-\infty}^{\infty} e^{-st} F_X (dt) = s \int_{-\infty}^{\infty} e^{-st} F_X (t)\ dt\)

    Звідси

    \(\dfrac{1}{s} M_X (-s) = \int_{-\infty}^{\infty} e^{-st} F_X (t)\ dt\)

    Вираз правої руки - це двостороннє перетворення Лапласа\(F_X\). Ми можемо використовувати таблиці перетворень Лапласа для відновлення,\(F_X\) коли\(M_X\) це відомо. Це особливо корисно, коли випадкова величина\(X\) невід'ємна, так що\(F_X (t) = 0\) для\(t < 0\).

    Якщо\(X\) абсолютно безперервний, то

    \(M_X (-s) = \int_{-\infty}^{\infty} e^{-st} f_X (t) \ dt\)

    У цьому випадку\(M_X (-s)\) відбувається двостороннє перетворення Лапласа\(f_X\). Для невід'ємної випадкової\(X\) величини ми можемо використовувати звичайні таблиці перетворення Лапласа для відновлення\(f_X\).

    Приклад\(\PageIndex{8}\) Use of Laplace transform

    Припустимо,\(X\) невід'ємний має функцію генерування моменту

    \(M_X (s) = \dfrac{1}{(1 - s)}\)

    Ми знаємо, що це функція генерування моменту для експоненціального (1) розподілу. Тепер,

    \(\dfrac{1}{s} M_X (-s) = \dfrac{1}{s(1 + s)} = \dfrac{1}{s} - \dfrac{1}{1 + s}\)

    З таблиці перетворень Лапласа, ми знаходимо\(1/s\) це перетворення для константи 1 (for\(t \ge 0\)) і\(1/(1 + s)\) є перетворенням\(e^{-t}\) for\(t \ge 0\), так що\(F_X (t) = 1 - e^{-t} t \ge 0\), як очікувалося.

    Приклад\(\PageIndex{9}\) Laplace transform and the density

    Припустимо, функція генерування моменту для невід'ємної випадкової величини дорівнює

    \(M_X (s) = [\dfrac{\lambda}{\lambda - s}]^{\alpha}\)

    З таблиці трансформацій Лапласа, ми знаходимо, що для\(\alpha >0\).

    \(\dfrac{\Gamma (\alpha)}{(s - a)^{\alpha}}\)це перетворення Лапласа\(t^{\alpha - 1} e^{at}\)\(t \ge 0\)

    Якщо ставимо\(a = -\lambda\), то знаходимо після якихось алгебраїчних маніпуляцій

    \(f_X (t) = \dfrac{\lambda^{\alpha} t^{\alpha - 1} e^{-\lambda t}}{\Gamma (\alpha)}\),\(t \ge 0\)

    Таким чином,\(X\) ~ гамма\((\alpha, \lambda)\), відповідно до визначення вище, моментогенеруючої функції для цього розподілу.

    характерна функція

    Оскільки ця функція відрізняється від функції, що генерує момент обміну параметром\(s\) і\(iu\), де\(i\) є уявна одиниця\(i^2 = -1\), інтегральні вирази роблять цю зміну параметру. Результатом є те, що перетворення Лапласа перетворюються на перетворення Фур'є. Теоретична і прикладна література ще більш обширна для характерної функції.

    Мало того, що ми маємо експлуатаційні властивості (T1) та (T2) та результат на моментах як похідні на початку, але є важливе розширення для характерної функції.

    Теорема про розширення

    Якщо\(E[[X]^n] < \infty\), то

    \(\varphi^{(k)} (0) = i^k E[X^k]\), для\(0 \le k \le n\) і\(\varphi (u) = \sum_{k = 0}^{n} \dfrac{(iu)^k}{k!} E[X^k] + o (u^n)\) як\(u \to 0\)

    Відзначимо одну граничну теорему, яка має дуже важливі наслідки.

    Фундаментальна гранична теорема

    Припустимо,\(\{F_n: 1 \le n\}\) це послідовність функцій розподілу ймовірностей і\(\{\varphi_n: 1 \le n\}\) є відповідною послідовністю характерних функцій.

    Якщо функція розподілу\(F\) така, що\(F_n (t) \to F(t)\) в кожній точці безперервності для\(F\), і\(\phi\) є характерною функцією для\(F\), то

    \(\varphi_n (u) \to \varphi (u)\)\(\forall u\)

    Якщо\(\varphi_n (u) \to \varphi (u)\) для всіх\(u\) і\(\phi\) є безперервним при 0, то\(\phi\) характерна функція для функції розподілу\(F\) така, що

    \(F_n (t) \to F(t)\)в кожній точці безперервності\(F\)

    — □