Loading [MathJax]/extensions/TeX/boldsymbol.js
Skip to main content
LibreTexts - Ukrayinska

15.1: Випадковий вибір

Вступ

Звичайні методи лікування мають справу з однією випадковою величиною або фіксованим, кінцевим числом випадкових величин, що розглядаються спільно. Однак існує багато поширених додатків, в яких ми вибираємо випадковим чином член класу випадкових величин і спостерігаємо за його значенням, або вибираємо випадкове число випадкових величин і отримуємо деяку функцію обраних. Це формулюється за допомогою підрахунку або вибору випадкової величиниN, яка не є негативною, цілим значенням. Він може бути незалежним від обраного класу або може бути пов'язаний певним послідовним чином з членами класу. Розглянемо тільки самостійний випадок. Багато важливих проблем вимагають необов'язкових випадкових величин, іноді званих Марківськими часами. Вони включають більше теорії, ніж ми розробляємо в цьому лікуванні.

Кілька поширених прикладів:

Загальний попитN клієнтів -N незалежно від індивідуальних вимог.
Загальний час обслуговування дляN одиниць -N незалежно від індивідуального часу обслуговування.
ЧистийN виграш у грі -N незалежно від індивідуального виграшу.
Екстремальні значенняN випадкових величин—N незалежні від окремих значень.
Випадкова вибірка розміруNN зазвичай визначається властивостями спостережуваного зразка.
Вирішіть, коли грати на основі минулих результатів -N залежно від минулого

Корисна модель — випадкові суми

В якості базової моделі розглянуто суму випадкового числа членів класу iid. Для того, щоб мати конкретну інтерпретацію, яка допоможе візуалізувати формальні закономірності, ми думаємо про попит випадкової кількості клієнтів. Ми вважаємо, що кількість клієнтів N не залежить від індивідуальних вимог. Сформулюємо модель, яка буде використовуватися для різних застосувань.

Основна послідовність\{X_n: 0 \le n\} [Попитn клієнтів]
Покрокова послідовність\{Y_n:0 \le n\} [Індивідуальні вимоги]
Вони пов'язані наступним чином:

X_n = \sum_{k = 0}^{n} Y_kдляn \ge 0 іX_n = 0n < 0Y_n = X_n - X_{n - 1} для всіхn

Підрахувальна випадкова величинаN. ЯкщоN = n потімn зY_k додаються, щоб дати складний попитD (випадкова сума)

D = \sum_{k = 0}^{N} Y_k = \sum_{k = 0}^{\infty} I_{[N = k]} X_k = \sum_{k = 0}^{\infty} I_{\{k\}} (N) X_k

Примітка. У деяких додатках підрахунок випадкової величини може набувати ідеалізованого значення\infty. Наприклад, у грі, яка відтворюється до тих пір, поки не настане певний вказаний результат, цього ніколи не може статися, так що кінцеве значення не може бути призначеноN. У такому випадку необхідно вирішити, яке значенняX_{\infty} потрібно привласнити. ДляN незалежних відY_n (звідсиX_n), нам рідко потрібно розглядати цю можливість.

Незалежне виділення з інкрементної послідовності iid

Ми припускаємо протягом усього часу, якщо конкретно не вказано інше, що:
X_0 = Y_0 = 0
\{Y_k: 1 \le k\} is iid
\{N, Y_k: 0 \le k\} є незалежним класом

Ми неодноразово використовуємо дві важливі пропозиції:
E[h(D)|N = n] = E[h(X_n)],n \ge 0
M_D (s) = g_N [M_Y (s)]. Якщо невід'ємні ціле значення, то так єD іY_ng_D (s) = g_N[g_Y (s)]

ВИВЕДЕННЯМ

Використовуються властивості генеруючих функцій, момент-генеруючих функцій та умовного очікування.
E[I_{\{n\}} (N) h(D)] = E[h(D)|N = n] P(N = n)за визначенням умовного очікування, заданого подією, Now,
I_{\{n\}} (N) h(D) = I_{\{n\}} (N) h(X_n) іE[I_{\{n\}} (N) h(X_n)] = P(N = n) E[h(X_n)]. Звідси
E[h(D) |N = n] P(N = n) = P(N = n) E[h(X_n)]. Розподіл наP(N = n) дає бажаний результат.
За законом повної ймовірності (Ce1b),M_D(s)= E[e^{sD}] = E\{E[e^{sD} |N]\}. За пропозицією 1 та правилом добутку для функцій, що генерують момент,

E[e^{sD}|N = n] = E[e^{sX_n}] = \prod_{k = 1}^{n} E[e^{sY_k}] = M_Y^n (s)

Звідси

M_D(s) = \sum_{n = 0}^{\infty} M_Y^n (s) P(N = n) = g_N[M_Y (s)]

Паралельний аргумент має значення дляg_D

— □

Зауваження. Результат наM_D іg_D може бути розроблений без використання умовного очікування.

в цілозначному відмінку.

M_D(s) = E[e^{sD}] = \sum_{k = 0}^{\infty} E[I_{\{N = n\}} e^{sX_n}] = \sum_{k = 0}^{\infty} P(N = n) E[e^{sX_n}]

= \sum_{k = 0}^{\infty} P(N = n) M_Y^n (s) = g_N [M_Y (s)]

— □

Приклад\PageIndex{1} A service shop

Припустимо,N кількість завдань, принесених в сервісний магазин за добу, - Пуассона (8). Четверта з них - це предмети, що знаходяться під гарантією, за які не стягується жодної плати. Інші потрапляють в одну з двох категорій. Половина робочих місць, що прибувають, стягується за одну годину часу магазину; решта однієї четвертої стягується за дві години часу магазину. Таким чином, окремі годинні збори магазинуY_k мають загальний розподіл

Y =[0 1 2] з ймовірностямиPY = [1/4 1/2 1/4]

Складіть основні припущення нашої моделі. ВизначтеP(D \le 4).

Рішення

g_N(s) = e^{8(s - 1)} g_Y (s) = \dfrac{1}{4} (1 + 2s + s^2)

Згідно з формулою, розробленою вище,

g_D (s) = g_N [g_Y (s)] = \text{exp} ((8/4) (1 + 2s + s^2) - 8) = e^{4s} e^{2s^2} e^{-6}

Розгорніть експоненціальні числа в рядах влади про походження, помножте, щоб отримати достатню кількість членів. Результатом нехитрих, але дещо виснажливих розрахунків є

g_D (s) = e^{-6} ( 1 + 4s + 10s^2 + \dfrac{56}{3} s^3 + \dfrac{86}{3} s^4 + \cdot\cdot\cdot)

Взявши коефіцієнти генеруючої функції, отримаємо

P(D \le 4) \approx e^{-6} (1 + 4 + 10 + \dfrac{56}{3} + \dfrac{86}{3}) = e^{-6} \dfrac{187}{3} \approx 0.1545

Приклад\PageIndex{2} A result on Bernoulli trials

Припустимо, що лічильна випадкова величинаN ~ біноміальна(n, p) іY_i = I_{E_i}, сP(E_i) = p_0. Тоді

g_N = (q + ps)^nіg_Y (s) = q_0 + p_0 s

За основним результатом на випадковому відборі ми маємо

g_D (s) = g_N [g_Y(s)] = [q + p(q_0 + p_0 s)]^n = [(1 - pp_0) + pp_0 s]^n

так щоD ~ біном(n, pp_0).

У наступному розділі встановлено корисні m-процедури для визначення генеруючої функції g D та функції генерації моментуM_D для складного попиту на прості випадкові величини, отже, для визначення повного розподілу. Очевидно, що це не спрацює для всіх проблем. Це може бути корисно, якщо не зовсім достатньо, в таких випадках мати можливість визначити середнє значенняE[D] і дисперсію\text{Var} [D]. З цією метою встановлюємо наступні вирази для середнього і дисперсії.

Приклад\PageIndex{3} Mean and variance of the compound demand

E[D] = E[N]E[Y]і\text{Var} [D] = E[N] \text{Var} [Y] + \text{Var} [N] E^2 [Y]

ВИВЕДЕННЯМ

E[D] = E[\sum_{n = 0}^{\infty} I_{\{N = n\}} X_n] = \sum_{n = 0}^{\infty} P(N = n) E[X_n]

= E[Y] \sum_{n = 0}^{\infty} n P(N = n) = E[Y] E[N]

E[D^2] = \sum_{n = 0}^{\infty} P(N = n) E[X_n^2] = \sum_{n = 0}^{\infty} P(N = n) \{\text{Var} [X_n] + E^2 [X_n]\}

= \sum_{n = 0}^{\infty} P(N = n) \{n \text{Var} [Y] = n^2 E^2 [Y]\} = E[N] \text{Var} [Y] + E[N^2] E^2[Y]

Звідси

\text{Var} [D] = E[N] \text{Var} [Y] + E[N^2] E^2 [Y] - E[N]^2 E^2[Y] = E[N] \text{Var} [Y] + \text{Var} [N] E^2[Y]

Приклад\PageIndex{4} Mean and variance for Example 15.1.1

E[N] = \text{Var} [N] = 9. За симетріїE[Y] = 1. \text{Var} [Y] = 0.25(0 + 2 + 4) - 1 = 0.5. Отже,

E[D] = 8 \cdot 1 = 8,\text{Var} [D] = 8 \cdot 0.5 + 8 \cdot 1 = 12

Розрахунки для складного попиту

Ми маємо m-процедури для виконання розрахунків, необхідних для визначення розподілу для складеного попиту,D коли підрахункова випадкова величинаN та окремі вимогиY_k є простими випадковими величинами з не надто великою кількістю значень. У деяких випадках, наприклад, для підрахунку Пуассона випадкова величина, ми можемо наблизити за допомогою простої випадкової величини.

Генд процедури

Якщо невід'ємні, ціле значення, то так єD, і є генеруюча функція.Y_i Розглянуто стратегію обчислень, яка реалізується в генді m-процедури. Припустимо

g_N (s) = p_0 + p_1 s + p_2 s^2 + \cdot\cdot\cdot p_n s^n

g_Y (s) = \pi_0 + \pi_1 s + \pi_2 s^2 + \cdot\cdot\cdot \pi_m s^m

Коефіцієнтиg_N іg_Y є ймовірностями значеньN іY, відповідно. Вводимо їх і обчислюємо коефіцієнти для ступенівg_Y:

\begin{array} {lcr} {gN = [p_0\ p_1\ \cdot\cdot\cdot\ p_n]} & {1 \times (n + 1)} & {\text{Coefficients of } g_N} \\ {y = [\pi_0\ \pi_1\ \cdot\cdot\cdot\ \pi_n]} & {1 \times (m + 1)} & {\text{Coefficients of } g_Y} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {y2 = \text{conv}(y,y)} & {1 \times (2m + 1)} & {\text{Coefficients of } g_Y^2} \\ {y3 = \text{conv}(y,y2)} & {1 \times (3m + 1)} & {\text{Coefficients of } g_Y^3} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {yn = \text{conv}(y,y(n - 1))} & {1 \times (nm + 1)} & {\text{Coefficients of } g_Y^n}\end{array}

Ми хочемо створити матрицю, рядкиP якої містять спільні ймовірності. Імовірності вi -му рядку складаються з коефіцієнтів для відповідної потужності,g_Y помноженої на ймовірністьN має це значення. Для досягнення цього нам знадобиться матриця, кожен зn + 1 рядків якої маєnm + 1 елементи, довжиноюyn. Починаємо з «попереднього розподілу» нулів на рядки. Тобто ставимоP = \text{zeros}(n + 1, n\ ^*\ m + 1). Потім замінюємо відповідні елементи послідовних рядів. Імовірності заміни дляi го ряду отримують згорткоюg_Y і силоюg_Y для попереднього ряду. Коли матриця будеP завершена, прибираємо нульові рядки і стовпці, відповідні відсутнім значеннямN іD (тобто значень з нульовою ймовірністю). Щоб зорієнтувати спільні ймовірності як на площині, повертаємо наP дев'яносто градусів проти годинникової стрілки. При спільному розподілі ми можемо обчислити будь-які бажані величини.

Приклад\PageIndex{5} A compound demand

Кількість клієнтів у великому магазині побутової техніки однаково ймовірно буде 1, 2 або 3. Кожен клієнт купує 0, 1 або 2 предмети з відповідними ймовірностями 0.5, 0.4, 0.1. Покупці купують самостійно, незалежно від кількості клієнтів. Спочатку визначаємо матриці, що представляютьg_N іg_Y. Коефіцієнти - це ймовірності того, що кожне ціле значення спостерігається. Зверніть увагу, що нульові коефіцієнти для будь-яких відсутніх повноважень повинні бути включені.

gN = (1/3)*[0 1 1 1];    % Note zero coefficient for missing zero power
gY = 0.1*[5 4 1];        % All powers 0 thru 2 have positive coefficients
gend
 Do not forget zero coefficients for missing powers
Enter the gen fn COEFFICIENTS for gN gN    % Coefficient matrix named gN
Enter the gen fn COEFFICIENTS for gY gY    % Coefficient matrix named gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD)                  % Optional display of complete distribution
         0    0.2917
    1.0000    0.3667
    2.0000    0.2250
    3.0000    0.0880
    4.0000    0.0243
    5.0000    0.0040
    6.0000    0.0003
EN = N*PN'
EN =   2
EY = Y*PY'
EY =  0.6000
ED = D*PD'
ED =  1.2000                % Agrees with theoretical EN*EY
P3 = (D>=3)*PD'
P3  = 0.1167                
[N,D,t,u,PN,PD,PL] = jcalcf(N,D,P);
EDn = sum(u.*P)./sum(P);
disp([N;EDn]')
    1.0000    0.6000        % Agrees with theoretical E[D|N=n] = n*EY
    2.0000    1.2000
    3.0000    1.8000
VD = (D.^2)*PD' - ED^2
VD =  1.1200                % Agrees with theoretical EN*VY + VN*EY^2

Приклад\PageIndex{6} A numerical example

g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)g_Y (s) = 0.1 (5s + 3s^2 + 2s^3

Зверніть увагу, що нульова потужність відсутняgY з. відповідної тому, щоP(Y = 0) = 0.

gN = 0.2*[1 1 1 1 1];
gY = 0.1*[0 5 3 2];      % Note the zero coefficient in the zero position
gend
Do not forget zero coefficients for missing powers
Enter the gen fn COEFFICIENTS for gN  gN
Enter the gen fn COEFFICIENTS for gY  gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD)                 % Optional display of complete distribution
         0    0.2000
    1.0000    0.1000
    2.0000    0.1100
    3.0000    0.1250
    4.0000    0.1155
    5.0000    0.1110
    6.0000    0.0964
    7.0000    0.0696
    8.0000    0.0424
    9.0000    0.0203
   10.0000    0.0075
   11.0000    0.0019
   12.0000    0.0003
p3 = (D == 3)*PD'        % P(D=3)
P3 =  0.1250
P4_12 = ((D >= 4)&(D <= 12))*PD'
P4_12 = 0.4650           % P(4 <= D <= 12)

Приклад\PageIndex{7} Number of successes for random number N of trials.

Нас цікавить кількість успіхів уN випробуваннях для загальної підрахунку випадкової величини. Це узагальнення випадку Бернуллі в прикладі 15.1.2. Припустимо, як і в прикладі 15.1.2, кількість клієнтів у великому магазині побутової техніки однаково ймовірно буде 1, 2 або 3, і кожен купує хоча б один предмет з ймовірністюp = 0.6. Визначте розподіл заD кількістю покупців, що купують.

Рішення

Ми використовуємоgNgY, і генд.

gN = (1/3)*[0 1 1 1]; % Note zero coefficient for missing zero power
gY = [0.4 0.6];       % Generating function for the indicator function
gend
Do not forget zero coefficients for missing powers
Enter gen fn COEFFICIENTS for gN  gN
Enter gen fn COEFFICIENTS for gY  gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD)
         0    0.2080
    1.0000    0.4560
    2.0000    0.2640
    3.0000    0.0720

Процедура gend обмежена простимN іY_k, з невід'ємними цілими значеннями. Іноді випадкова величина з необмеженим діапазоном може бути наближена простою випадковою величиною. Рішення в наступному прикладі використовує таку процедуру наближення для підрахунку випадкової величиниN.

Приклад\PageIndex{8} Solution of the shop time Example 15.1.1

NКількість робочих місць, принесених в сервісний магазин за день, - Пуассона (8). Окремі магазинні годинні збориY_k мають загальний розподілY = [0 1 2] з ймовірностямиPY = [1/4 1/2 1/4].

За основними припущеннями нашої моделі визначаємоP(D \le 4).

Рішення

Так якN Пуассон необмежений, нам потрібно перевірити достатню кількість членів в простому наближенні. Далі чинимо як в простому випадку.

pa = cpoisson(8,10:5:30)     % Check for sufficient number of terms
pa =   0.2834    0.0173    0.0003    0.0000    0.0000
p25 = cpoisson(8,25)         % Check on choice of n = 25
p25 =  1.1722e-06
gN = ipoisson(8,0:25);       % Approximate gN
gY = 0.25*[1 2 1];
gend
Do not forget zero coefficients for missing powers
Enter gen fn COEFFICIENTS for gN  gN
Enter gen fn COEFFICIENTS for gY  gY
Results are in N, PN, Y, PY, D, PD, P
May use jcalc or jcalcf on N, D, P
To view distribution for D, call for gD
disp(gD(D<=20,:))            % Calculated values to D = 50
         0    0.0025         % Display for D <= 20
    1.0000    0.0099
    2.0000    0.0248
    3.0000    0.0463
    4.0000    0.0711
    5.0000    0.0939
    6.0000    0.1099
    7.0000    0.1165
    8.0000    0.1132
    9.0000    0.1021
   10.0000    0.0861
   11.0000    0.0684
   12.0000    0.0515
   13.0000    0.0369
   14.0000    0.0253
   15.0000    0.0166
   16.0000    0.0105
   17.0000    0.0064
   18.0000    0.0037
   19.0000    0.0021
   20.0000    0.0012
sum(PD)                       % Check on sufficiency of approximation
ans =  1.0000
P4 = (D<=4)*PD'
P4 =   0.1545                 % Theoretical value (4  places) = 0.1545
ED = D*PD'
ED =   8.0000                 % Theoretical = 8  (Example 15.1.4)
VD = (D.^2)*PD' - ED^2
VD =  11.9999                 % Theoretical = 12 (Example 15.1.4)

М-процедури mgd і jmgd

Наступний приклад показує принципове обмеження гендерної процедури. Значення для індивідуальних вимог не обмежуються цілими числами, і між значеннями є значні проміжки. У цьому випадку нам потрібно реалізувати функцію генерування моменту,M_D а не генеруючу функціюg_D.

У випадку генеруючої функції так само легко розробити спільний розподіл,\{N, D\} як розробити граничний розподіл дляD. На момент генеруючої функції спільний розподіл вимагає значно більших обчислень. Як наслідок, нам зручно мати дві m-процедури: mgd для граничного розподілу і jmgd для спільного розподілу.

Замість процедури згортки, яка використовується в gend для визначення розподілу сум окремих вимог, m-процедура mgd використовує m-функцію mgsum для отримання цих розподілів. Розподіли для різних сум об'єднані в два рядкові вектори, до яких застосовується csort для отримання розподілу для складного попиту. Процедура вимагає в якості введення генеруючої функції дляN і фактичного розподілуPY,Y і, для окремих вимог. ДляgN, необхідно ставитися до коефіцієнтів як в генді. Однак фактичні значення і ймовірності в розподілі для Y ставляться в пару рядкових матриць. ЯкщоY ціле значення, то в матриці ймовірностей відсутні нулі.

Приклад\PageIndex{9} Noninteger values

Сервісний магазин має три стандартні збори за певний клас гарантійних послуг, які він виконує: $10, $12.50, і $15. Кількість робочих місць, отриманих за звичайний робочий день, можна вважати випадковою величиною,N яка приймає значення 0, 1, 2, 3, 4 з рівними ймовірностями 0,2. Типи завдань для прибуття можуть бути представлені класом iid\{Y_i: 1 \le i \le 4\}, незалежно від процесу прибуття. Y_iПрийняти значення 10, 12,5, 15 з відповідними ймовірностями 0,5, 0,3, 0,2. НехайC буде загальний обсяг наданих послуг за добу. Визначте розподіл дляC.

Рішення

gN = 0.2*[1 1 1 1 1];         % Enter data
Y = [10 12.5 15];
PY = 0.1*[5 3 2];
mgd                           % Call for procedure
Enter gen fn COEFFICIENTS for gN  gN
Enter VALUES for Y  Y
Enter PROBABILITIES for Y  PY
Values are in row matrix D; probabilities are in PD.
To view the distribution, call for mD.
disp(mD)                      % Optional display of distribution
         0    0.2000
   10.0000    0.1000
   12.5000    0.0600
   15.0000    0.0400
   20.0000    0.0500
   22.5000    0.0600
   25.0000    0.0580
   27.5000    0.0240
   30.0000    0.0330
   32.5000    0.0450
   35.0000    0.0570
   37.5000    0.0414
   40.0000    0.0353
   42.5000    0.0372
   45.0000    0.0486
   47.5000    0.0468
   50.0000    0.0352
   52.5000    0.0187
   55.0000    0.0075
   57.5000    0.0019
   60.0000    0.0003

Далі ми перерахуємо приклад 15.1.6, вище, використовуючи mgd, а не gend.

Приклад\PageIndex{10} Recalculation of Example 15.1.6

У прикладі 15.1.6 ми маємо

g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)g_Y (s) = 0.1 (5s + 3s^2 + 2s^3)

Означає, що розподіл дляY єY = [1 2 3] іPY = 0.1 * [5 3 2].

Ми використовуємо той самий вираз дляgN, як у прикладі 15.1.6.

gN = 0.2*ones(1,5);
Y = 1:3;
PY = 0.1*[5 3 2];
mgd
Enter gen fn COEFFICIENTS for gN  gN
Enter VALUES for Y  Y
Enter PROBABILITIES for Y  PY
Values are in row matrix D; probabilities are in PD.
To view the distribution, call for mD.
disp(mD)
         0    0.2000
    1.0000    0.1000
    2.0000    0.1100
    3.0000    0.1250
    4.0000    0.1155
    5.0000    0.1110
    6.0000    0.0964
    7.0000    0.0696
    8.0000    0.0424
    9.0000    0.0203
   10.0000    0.0075
   11.0000    0.0019
   12.0000    0.0003
P3 = (D==3)*PD'
P3 =   0.1250
ED = D*PD'
ED =   3.4000
P_4_12 = ((D>=4)&(D<=12))*PD'
P_4_12 =  0.4650
P7 = (D>=7)*PD'
P7 =   0.1421

Як і очікувалося, результати такі ж, як і результати, отримані з гендом.

При бажанні отримати спільний розподіл для\{N, D\}, ми використовуємо модифікацію mgd під назвою jmgd. Ускладнення виникають при розміщенні ймовірностей вP матриці в потрібних положеннях. Для цього потрібні деякі розрахунки для визначення відповідного розміру використовуваних матриць, а також процедури, щоб поставити кожну ймовірність в положення, відповідне їїD значенню. Фактична операція досить схожа на операцію mgd, і вимагає того ж формату даних.

Принципове використання спільного розподілу полягає в демонстрації особливостей моделі, таких якE[D|N = n] = nE[Y] і т.д. це, звичайно, використовується при отриманні виразів forM_D (s) в термініg_N (s) іM_Y (s). Цей результат керує розвитком обчислювальних процедур, але вони не залежать від цього результату. Однак зазвичай корисно продемонструвати обґрунтованість припущень на типових прикладах.

Зауваження. Загалом, якщо використання gend доречно, це швидше і ефективніше, ніж mgd (або jmgd). І він впорається з дещо більшими проблемами. Але обидві m-процедури досить добре працюють для завдань помірного розміру, і є зручними інструментами для вирішення різних завдань типу «складного попиту».