15.1: Випадковий вибір
- Page ID
- 98602
Вступ
Звичайні методи лікування мають справу з однією випадковою величиною або фіксованим, кінцевим числом випадкових величин, що розглядаються спільно. Однак існує багато поширених додатків, в яких ми вибираємо випадковим чином член класу випадкових величин і спостерігаємо за його значенням, або вибираємо випадкове число випадкових величин і отримуємо деяку функцію обраних. Це формулюється за допомогою підрахунку або вибору випадкової величини\(N\), яка не є негативною, цілим значенням. Він може бути незалежним від обраного класу або може бути пов'язаний певним послідовним чином з членами класу. Розглянемо тільки самостійний випадок. Багато важливих проблем вимагають необов'язкових випадкових величин, іноді званих Марківськими часами. Вони включають більше теорії, ніж ми розробляємо в цьому лікуванні.
Кілька поширених прикладів:
Загальний попит\(N\) клієнтів -\(N\) незалежно від індивідуальних вимог.
Загальний час обслуговування для\(N\) одиниць -\(N\) незалежно від індивідуального часу обслуговування.
Чистий\(N\) виграш у грі -\(N\) незалежно від індивідуального виграшу.
Екстремальні значення\(N\) випадкових величин—\(N\) незалежні від окремих значень.
Випадкова вибірка розміру\(N\) —\(N\) зазвичай визначається властивостями спостережуваного зразка.
Вирішіть, коли грати на основі минулих результатів -\(N\) залежно від минулого
Корисна модель — випадкові суми
В якості базової моделі розглянуто суму випадкового числа членів класу iid. Для того, щоб мати конкретну інтерпретацію, яка допоможе візуалізувати формальні закономірності, ми думаємо про попит випадкової кількості клієнтів. Ми вважаємо, що кількість клієнтів N не залежить від індивідуальних вимог. Сформулюємо модель, яка буде використовуватися для різних застосувань.
Основна послідовність\(\{X_n: 0 \le n\}\) [Попит\(n\) клієнтів]
Покрокова послідовність\(\{Y_n:0 \le n\}\) [Індивідуальні вимоги]
Вони пов'язані наступним чином:
\(X_n = \sum_{k = 0}^{n} Y_k\)для\(n \ge 0\) і\(X_n = 0\)\(n < 0\)\(Y_n = X_n - X_{n - 1}\) для всіх\(n\)
Підрахувальна випадкова величина\(N\). Якщо\(N = n\) потім\(n\) з\(Y_k\) додаються, щоб дати складний попит\(D\) (випадкова сума)
\(D = \sum_{k = 0}^{N} Y_k = \sum_{k = 0}^{\infty} I_{[N = k]} X_k = \sum_{k = 0}^{\infty} I_{\{k\}} (N) X_k\)
Примітка. У деяких додатках підрахунок випадкової величини може набувати ідеалізованого значення\(\infty\). Наприклад, у грі, яка відтворюється до тих пір, поки не настане певний вказаний результат, цього ніколи не може статися, так що кінцеве значення не може бути призначено\(N\). У такому випадку необхідно вирішити, яке значення\(X_{\infty}\) потрібно привласнити. Для\(N\) незалежних від\(Y_n\) (звідси\(X_n\)), нам рідко потрібно розглядати цю можливість.
Незалежне виділення з інкрементної послідовності iid
Ми припускаємо протягом усього часу, якщо конкретно не вказано інше, що:
\(X_0 = Y_0 = 0\)
\(\{Y_k: 1 \le k\}\) is iid
\(\{N, Y_k: 0 \le k\}\) є незалежним класом
Ми неодноразово використовуємо дві важливі пропозиції:
\(E[h(D)|N = n] = E[h(X_n)]\),\(n \ge 0\)
\(M_D (s) = g_N [M_Y (s)]\). Якщо невід'ємні ціле значення, то так є\(D\) і\(Y_n\)\(g_D (s) = g_N[g_Y (s)]\)
ВИВЕДЕННЯМ
Використовуються властивості генеруючих функцій, момент-генеруючих функцій та умовного очікування.
\(E[I_{\{n\}} (N) h(D)] = E[h(D)|N = n] P(N = n)\)за визначенням умовного очікування, заданого подією, Now,
\(I_{\{n\}} (N) h(D) = I_{\{n\}} (N) h(X_n)\) і\(E[I_{\{n\}} (N) h(X_n)] = P(N = n) E[h(X_n)]\). Звідси
\(E[h(D) |N = n] P(N = n) = P(N = n) E[h(X_n)]\). Розподіл на\(P(N = n)\) дає бажаний результат.
За законом повної ймовірності (Ce1b),\(M_D(s)= E[e^{sD}] = E\{E[e^{sD} |N]\}\). За пропозицією 1 та правилом добутку для функцій, що генерують момент,
\(E[e^{sD}|N = n] = E[e^{sX_n}] = \prod_{k = 1}^{n} E[e^{sY_k}] = M_Y^n (s)\)
Звідси
\(M_D(s) = \sum_{n = 0}^{\infty} M_Y^n (s) P(N = n) = g_N[M_Y (s)]\)
Паралельний аргумент має значення для\(g_D\)
— □
Зауваження. Результат на\(M_D\) і\(g_D\) може бути розроблений без використання умовного очікування.
в цілозначному відмінку.
\(M_D(s) = E[e^{sD}] = \sum_{k = 0}^{\infty} E[I_{\{N = n\}} e^{sX_n}] = \sum_{k = 0}^{\infty} P(N = n) E[e^{sX_n}]\)
\(= \sum_{k = 0}^{\infty} P(N = n) M_Y^n (s) = g_N [M_Y (s)]\)
— □
Приклад\(\PageIndex{1}\) A service shop
Припустимо,\(N\) кількість завдань, принесених в сервісний магазин за добу, - Пуассона (8). Четверта з них - це предмети, що знаходяться під гарантією, за які не стягується жодної плати. Інші потрапляють в одну з двох категорій. Половина робочих місць, що прибувають, стягується за одну годину часу магазину; решта однієї четвертої стягується за дві години часу магазину. Таким чином, окремі годинні збори магазину\(Y_k\) мають загальний розподіл
\(Y =\)[0 1 2] з ймовірностями\(PY =\) [1/4 1/2 1/4]
Складіть основні припущення нашої моделі. Визначте\(P(D \le 4)\).
Рішення
\(g_N(s) = e^{8(s - 1)} g_Y (s) = \dfrac{1}{4} (1 + 2s + s^2)\)
Згідно з формулою, розробленою вище,
\(g_D (s) = g_N [g_Y (s)] = \text{exp} ((8/4) (1 + 2s + s^2) - 8) = e^{4s} e^{2s^2} e^{-6}\)
Розгорніть експоненціальні числа в рядах влади про походження, помножте, щоб отримати достатню кількість членів. Результатом нехитрих, але дещо виснажливих розрахунків є
\(g_D (s) = e^{-6} ( 1 + 4s + 10s^2 + \dfrac{56}{3} s^3 + \dfrac{86}{3} s^4 + \cdot\cdot\cdot)\)
Взявши коефіцієнти генеруючої функції, отримаємо
\(P(D \le 4) \approx e^{-6} (1 + 4 + 10 + \dfrac{56}{3} + \dfrac{86}{3}) = e^{-6} \dfrac{187}{3} \approx 0.1545\)
Приклад\(\PageIndex{2}\) A result on Bernoulli trials
Припустимо, що лічильна випадкова величина\(N\) ~ біноміальна\((n, p)\) і\(Y_i = I_{E_i}\), с\(P(E_i) = p_0\). Тоді
\(g_N = (q + ps)^n\)і\(g_Y (s) = q_0 + p_0 s\)
За основним результатом на випадковому відборі ми маємо
\(g_D (s) = g_N [g_Y(s)] = [q + p(q_0 + p_0 s)]^n = [(1 - pp_0) + pp_0 s]^n\)
так що\(D\) ~ біном\((n, pp_0)\).
У наступному розділі встановлено корисні m-процедури для визначення генеруючої функції g D та функції генерації моменту\(M_D\) для складного попиту на прості випадкові величини, отже, для визначення повного розподілу. Очевидно, що це не спрацює для всіх проблем. Це може бути корисно, якщо не зовсім достатньо, в таких випадках мати можливість визначити середнє значення\(E[D]\) і дисперсію\(\text{Var} [D]\). З цією метою встановлюємо наступні вирази для середнього і дисперсії.
Приклад\(\PageIndex{3}\) Mean and variance of the compound demand
\(E[D] = E[N]E[Y]\)і\(\text{Var} [D] = E[N] \text{Var} [Y] + \text{Var} [N] E^2 [Y]\)
ВИВЕДЕННЯМ
\(E[D] = E[\sum_{n = 0}^{\infty} I_{\{N = n\}} X_n] = \sum_{n = 0}^{\infty} P(N = n) E[X_n]\)
\(= E[Y] \sum_{n = 0}^{\infty} n P(N = n) = E[Y] E[N]\)
\(E[D^2] = \sum_{n = 0}^{\infty} P(N = n) E[X_n^2] = \sum_{n = 0}^{\infty} P(N = n) \{\text{Var} [X_n] + E^2 [X_n]\}\)
\(= \sum_{n = 0}^{\infty} P(N = n) \{n \text{Var} [Y] = n^2 E^2 [Y]\} = E[N] \text{Var} [Y] + E[N^2] E^2[Y]\)
Звідси
\(\text{Var} [D] = E[N] \text{Var} [Y] + E[N^2] E^2 [Y] - E[N]^2 E^2[Y] = E[N] \text{Var} [Y] + \text{Var} [N] E^2[Y]\)
Приклад\(\PageIndex{4}\) Mean and variance for Example 15.1.1
\(E[N] = \text{Var} [N] = 9\). За симетрії\(E[Y] = 1\). \(\text{Var} [Y] = 0.25(0 + 2 + 4) - 1 = 0.5\). Отже,
\(E[D] = 8 \cdot 1 = 8\),\(\text{Var} [D] = 8 \cdot 0.5 + 8 \cdot 1 = 12\)
Розрахунки для складного попиту
Ми маємо m-процедури для виконання розрахунків, необхідних для визначення розподілу для складеного попиту,\(D\) коли підрахункова випадкова величина\(N\) та окремі вимоги\(Y_k\) є простими випадковими величинами з не надто великою кількістю значень. У деяких випадках, наприклад, для підрахунку Пуассона випадкова величина, ми можемо наблизити за допомогою простої випадкової величини.
Генд процедури
Якщо невід'ємні, ціле значення, то так є\(D\), і є генеруюча функція.\(Y_i\) Розглянуто стратегію обчислень, яка реалізується в генді m-процедури. Припустимо
\(g_N (s) = p_0 + p_1 s + p_2 s^2 + \cdot\cdot\cdot p_n s^n\)
\(g_Y (s) = \pi_0 + \pi_1 s + \pi_2 s^2 + \cdot\cdot\cdot \pi_m s^m\)
Коефіцієнти\(g_N\) і\(g_Y\) є ймовірностями значень\(N\) і\(Y\), відповідно. Вводимо їх і обчислюємо коефіцієнти для ступенів\(g_Y\):
\(\begin{array} {lcr} {gN = [p_0\ p_1\ \cdot\cdot\cdot\ p_n]} & {1 \times (n + 1)} & {\text{Coefficients of } g_N} \\ {y = [\pi_0\ \pi_1\ \cdot\cdot\cdot\ \pi_n]} & {1 \times (m + 1)} & {\text{Coefficients of } g_Y} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {y2 = \text{conv}(y,y)} & {1 \times (2m + 1)} & {\text{Coefficients of } g_Y^2} \\ {y3 = \text{conv}(y,y2)} & {1 \times (3m + 1)} & {\text{Coefficients of } g_Y^3} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {yn = \text{conv}(y,y(n - 1))} & {1 \times (nm + 1)} & {\text{Coefficients of } g_Y^n}\end{array}\)
Ми хочемо створити матрицю, рядки\(P\) якої містять спільні ймовірності. Імовірності в\(i\) -му рядку складаються з коефіцієнтів для відповідної потужності,\(g_Y\) помноженої на ймовірність\(N\) має це значення. Для досягнення цього нам знадобиться матриця, кожен з\(n + 1\) рядків якої має\(nm + 1\) елементи, довжиною\(yn\). Починаємо з «попереднього розподілу» нулів на рядки. Тобто ставимо\(P = \text{zeros}(n + 1, n\ ^*\ m + 1)\). Потім замінюємо відповідні елементи послідовних рядів. Імовірності заміни для\(i\) го ряду отримують згорткою\(g_Y\) і силою\(g_Y\) для попереднього ряду. Коли матриця буде\(P\) завершена, прибираємо нульові рядки і стовпці, відповідні відсутнім значенням\(N\) і\(D\) (тобто значень з нульовою ймовірністю). Щоб зорієнтувати спільні ймовірності як на площині, повертаємо на\(P\) дев'яносто градусів проти годинникової стрілки. При спільному розподілі ми можемо обчислити будь-які бажані величини.
Приклад\(\PageIndex{5}\) A compound demand
Кількість клієнтів у великому магазині побутової техніки однаково ймовірно буде 1, 2 або 3. Кожен клієнт купує 0, 1 або 2 предмети з відповідними ймовірностями 0.5, 0.4, 0.1. Покупці купують самостійно, незалежно від кількості клієнтів. Спочатку визначаємо матриці, що представляють\(g_N\) і\(g_Y\). Коефіцієнти - це ймовірності того, що кожне ціле значення спостерігається. Зверніть увагу, що нульові коефіцієнти для будь-яких відсутніх повноважень повинні бути включені.
gN = (1/3)*[0 1 1 1]; % Note zero coefficient for missing zero power
gY = 0.1*[5 4 1]; % All powers 0 thru 2 have positive coefficients
gend
Do not forget zero coefficients for missing powers
Enter the gen fn COEFFICIENTS for gN gN % Coefficient matrix named gN
Enter the gen fn COEFFICIENTS for gY gY % Coefficient matrix named gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD) % Optional display of complete distribution
0 0.2917
1.0000 0.3667
2.0000 0.2250
3.0000 0.0880
4.0000 0.0243
5.0000 0.0040
6.0000 0.0003
EN = N*PN'
EN = 2
EY = Y*PY'
EY = 0.6000
ED = D*PD'
ED = 1.2000 % Agrees with theoretical EN*EY
P3 = (D>=3)*PD'
P3 = 0.1167
[N,D,t,u,PN,PD,PL] = jcalcf(N,D,P);
EDn = sum(u.*P)./sum(P);
disp([N;EDn]')
1.0000 0.6000 % Agrees with theoretical E[D|N=n] = n*EY
2.0000 1.2000
3.0000 1.8000
VD = (D.^2)*PD' - ED^2
VD = 1.1200 % Agrees with theoretical EN*VY + VN*EY^2
Приклад\(\PageIndex{6}\) A numerical example
\(g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)\)\(g_Y (s) = 0.1 (5s + 3s^2 + 2s^3\)
Зверніть увагу, що нульова потужність відсутня\(gY\) з. відповідної тому, що\(P(Y = 0) = 0\).
gN = 0.2*[1 1 1 1 1];
gY = 0.1*[0 5 3 2]; % Note the zero coefficient in the zero position
gend
Do not forget zero coefficients for missing powers
Enter the gen fn COEFFICIENTS for gN gN
Enter the gen fn COEFFICIENTS for gY gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD) % Optional display of complete distribution
0 0.2000
1.0000 0.1000
2.0000 0.1100
3.0000 0.1250
4.0000 0.1155
5.0000 0.1110
6.0000 0.0964
7.0000 0.0696
8.0000 0.0424
9.0000 0.0203
10.0000 0.0075
11.0000 0.0019
12.0000 0.0003
p3 = (D == 3)*PD' % P(D=3) P3 = 0.1250 P4_12 = ((D >= 4)&(D <= 12))*PD' P4_12 = 0.4650 % P(4 <= D <= 12)
Приклад\(\PageIndex{7}\) Number of successes for random number \(N\) of trials.
Нас цікавить кількість успіхів у\(N\) випробуваннях для загальної підрахунку випадкової величини. Це узагальнення випадку Бернуллі в прикладі 15.1.2. Припустимо, як і в прикладі 15.1.2, кількість клієнтів у великому магазині побутової техніки однаково ймовірно буде 1, 2 або 3, і кожен купує хоча б один предмет з ймовірністю\(p = 0.6\). Визначте розподіл за\(D\) кількістю покупців, що купують.
Рішення
Ми використовуємо\(gN\)\(gY\), і генд.
gN = (1/3)*[0 1 1 1]; % Note zero coefficient for missing zero power
gY = [0.4 0.6]; % Generating function for the indicator function
gend
Do not forget zero coefficients for missing powers
Enter gen fn COEFFICIENTS for gN gN
Enter gen fn COEFFICIENTS for gY gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD)
0 0.2080
1.0000 0.4560
2.0000 0.2640
3.0000 0.0720
Процедура gend обмежена простим\(N\) і\(Y_k\), з невід'ємними цілими значеннями. Іноді випадкова величина з необмеженим діапазоном може бути наближена простою випадковою величиною. Рішення в наступному прикладі використовує таку процедуру наближення для підрахунку випадкової величини\(N\).
Приклад\(\PageIndex{8}\) Solution of the shop time Example 15.1.1
\(N\)Кількість робочих місць, принесених в сервісний магазин за день, - Пуассона (8). Окремі магазинні годинні збори\(Y_k\) мають загальний розподіл\(Y =\) [0 1 2] з ймовірностями\(PY =\) [1/4 1/2 1/4].
За основними припущеннями нашої моделі визначаємо\(P(D \le 4)\).
Рішення
Так як\(N\) Пуассон необмежений, нам потрібно перевірити достатню кількість членів в простому наближенні. Далі чинимо як в простому випадку.
pa = cpoisson(8,10:5:30) % Check for sufficient number of terms
pa = 0.2834 0.0173 0.0003 0.0000 0.0000
p25 = cpoisson(8,25) % Check on choice of n = 25
p25 = 1.1722e-06
gN = ipoisson(8,0:25); % Approximate gN
gY = 0.25*[1 2 1];
gend
Do not forget zero coefficients for missing powers
Enter gen fn COEFFICIENTS for gN gN
Enter gen fn COEFFICIENTS for gY gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD(D<=20,:)) % Calculated values to D = 50
0 0.0025 % Display for D <= 20
1.0000 0.0099
2.0000 0.0248
3.0000 0.0463
4.0000 0.0711
5.0000 0.0939
6.0000 0.1099
7.0000 0.1165
8.0000 0.1132
9.0000 0.1021
10.0000 0.0861
11.0000 0.0684
12.0000 0.0515
13.0000 0.0369
14.0000 0.0253
15.0000 0.0166
16.0000 0.0105
17.0000 0.0064
18.0000 0.0037
19.0000 0.0021
20.0000 0.0012
sum(PD) % Check on sufficiency of approximation
ans = 1.0000
P4 = (D<=4)*PD'
P4 = 0.1545 % Theoretical value (4 places) = 0.1545
ED = D*PD'
ED = 8.0000 % Theoretical = 8 (Example 15.1.4)
VD = (D.^2)*PD' - ED^2
VD = 11.9999 % Theoretical = 12 (Example 15.1.4)
М-процедури mgd і jmgd
Наступний приклад показує принципове обмеження гендерної процедури. Значення для індивідуальних вимог не обмежуються цілими числами, і між значеннями є значні проміжки. У цьому випадку нам потрібно реалізувати функцію генерування моменту,\(M_D\) а не генеруючу функцію\(g_D\).
У випадку генеруючої функції так само легко розробити спільний розподіл,\(\{N, D\}\) як розробити граничний розподіл для\(D\). На момент генеруючої функції спільний розподіл вимагає значно більших обчислень. Як наслідок, нам зручно мати дві m-процедури: mgd для граничного розподілу і jmgd для спільного розподілу.
Замість процедури згортки, яка використовується в gend для визначення розподілу сум окремих вимог, m-процедура mgd використовує m-функцію mgsum для отримання цих розподілів. Розподіли для різних сум об'єднані в два рядкові вектори, до яких застосовується csort для отримання розподілу для складного попиту. Процедура вимагає в якості введення генеруючої функції для\(N\) і фактичного розподілу\(PY\),\(Y\) і, для окремих вимог. Для\(gN\), необхідно ставитися до коефіцієнтів як в генді. Однак фактичні значення і ймовірності в розподілі для Y ставляться в пару рядкових матриць. Якщо\(Y\) ціле значення, то в матриці ймовірностей відсутні нулі.
Приклад\(\PageIndex{9}\) Noninteger values
Сервісний магазин має три стандартні збори за певний клас гарантійних послуг, які він виконує: $10, $12.50, і $15. Кількість робочих місць, отриманих за звичайний робочий день, можна вважати випадковою величиною,\(N\) яка приймає значення 0, 1, 2, 3, 4 з рівними ймовірностями 0,2. Типи завдань для прибуття можуть бути представлені класом iid\(\{Y_i: 1 \le i \le 4\}\), незалежно від процесу прибуття. \(Y_i\)Прийняти значення 10, 12,5, 15 з відповідними ймовірностями 0,5, 0,3, 0,2. Нехай\(C\) буде загальний обсяг наданих послуг за добу. Визначте розподіл для\(C\).
Рішення
gN = 0.2*[1 1 1 1 1]; % Enter data
Y = [10 12.5 15];
PY = 0.1*[5 3 2];
mgd % Call for procedure
Enter gen fn COEFFICIENTS for gN gN
Enter VALUES for Y Y
Enter PROBABILITIES for Y PY
Values are in row matrix D; probabilities are in PD.
To view the distribution, call for mD.
disp(mD) % Optional display of distribution
0 0.2000
10.0000 0.1000
12.5000 0.0600
15.0000 0.0400
20.0000 0.0500
22.5000 0.0600
25.0000 0.0580
27.5000 0.0240
30.0000 0.0330
32.5000 0.0450
35.0000 0.0570
37.5000 0.0414
40.0000 0.0353
42.5000 0.0372
45.0000 0.0486
47.5000 0.0468
50.0000 0.0352
52.5000 0.0187
55.0000 0.0075
57.5000 0.0019
60.0000 0.0003
Далі ми перерахуємо приклад 15.1.6, вище, використовуючи mgd, а не gend.
Приклад\(\PageIndex{10}\) Recalculation of Example 15.1.6
У прикладі 15.1.6 ми маємо
\(g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)\)\(g_Y (s) = 0.1 (5s + 3s^2 + 2s^3)\)
Означає, що розподіл для\(Y\) є\(Y =\) [1 2 3] і\(PY =\) 0.1 * [5 3 2].
Ми використовуємо той самий вираз для\(gN\), як у прикладі 15.1.6.
gN = 0.2*ones(1,5);
Y = 1:3;
PY = 0.1*[5 3 2];
mgd
Enter gen fn COEFFICIENTS for gN gN
Enter VALUES for Y Y
Enter PROBABILITIES for Y PY
Values are in row matrix D; probabilities are in PD.
To view the distribution, call for mD.
disp(mD)
0 0.2000
1.0000 0.1000
2.0000 0.1100
3.0000 0.1250
4.0000 0.1155
5.0000 0.1110
6.0000 0.0964
7.0000 0.0696
8.0000 0.0424
9.0000 0.0203
10.0000 0.0075
11.0000 0.0019
12.0000 0.0003
P3 = (D==3)*PD'
P3 = 0.1250
ED = D*PD'
ED = 3.4000
P_4_12 = ((D>=4)&(D<=12))*PD'
P_4_12 = 0.4650
P7 = (D>=7)*PD'
P7 = 0.1421
Як і очікувалося, результати такі ж, як і результати, отримані з гендом.
При бажанні отримати спільний розподіл для\(\{N, D\}\), ми використовуємо модифікацію mgd під назвою jmgd. Ускладнення виникають при розміщенні ймовірностей в\(P\) матриці в потрібних положеннях. Для цього потрібні деякі розрахунки для визначення відповідного розміру використовуваних матриць, а також процедури, щоб поставити кожну ймовірність в положення, відповідне її\(D\) значенню. Фактична операція досить схожа на операцію mgd, і вимагає того ж формату даних.
Принципове використання спільного розподілу полягає в демонстрації особливостей моделі, таких як\(E[D|N = n] = nE[Y]\) і т.д. це, звичайно, використовується при отриманні виразів for\(M_D (s)\) в терміні\(g_N (s)\) і\(M_Y (s)\). Цей результат керує розвитком обчислювальних процедур, але вони не залежать від цього результату. Однак зазвичай корисно продемонструвати обґрунтованість припущень на типових прикладах.
Зауваження. Загалом, якщо використання gend доречно, це швидше і ефективніше, ніж mgd (або jmgd). І він впорається з дещо більшими проблемами. Але обидві m-процедури досить добре працюють для завдань помірного розміру, і є зручними інструментами для вирішення різних завдань типу «складного попиту».
