15.1: Випадковий вибір
Вступ
Звичайні методи лікування мають справу з однією випадковою величиною або фіксованим, кінцевим числом випадкових величин, що розглядаються спільно. Однак існує багато поширених додатків, в яких ми вибираємо випадковим чином член класу випадкових величин і спостерігаємо за його значенням, або вибираємо випадкове число випадкових величин і отримуємо деяку функцію обраних. Це формулюється за допомогою підрахунку або вибору випадкової величиниN, яка не є негативною, цілим значенням. Він може бути незалежним від обраного класу або може бути пов'язаний певним послідовним чином з членами класу. Розглянемо тільки самостійний випадок. Багато важливих проблем вимагають необов'язкових випадкових величин, іноді званих Марківськими часами. Вони включають більше теорії, ніж ми розробляємо в цьому лікуванні.
Кілька поширених прикладів:
Загальний попитN клієнтів -N незалежно від індивідуальних вимог.
Загальний час обслуговування дляN одиниць -N незалежно від індивідуального часу обслуговування.
ЧистийN виграш у грі -N незалежно від індивідуального виграшу.
Екстремальні значенняN випадкових величин—N незалежні від окремих значень.
Випадкова вибірка розміруN —N зазвичай визначається властивостями спостережуваного зразка.
Вирішіть, коли грати на основі минулих результатів -N залежно від минулого
Корисна модель — випадкові суми
В якості базової моделі розглянуто суму випадкового числа членів класу iid. Для того, щоб мати конкретну інтерпретацію, яка допоможе візуалізувати формальні закономірності, ми думаємо про попит випадкової кількості клієнтів. Ми вважаємо, що кількість клієнтів N не залежить від індивідуальних вимог. Сформулюємо модель, яка буде використовуватися для різних застосувань.
Основна послідовність\{X_n: 0 \le n\} [Попитn клієнтів]
Покрокова послідовність\{Y_n:0 \le n\} [Індивідуальні вимоги]
Вони пов'язані наступним чином:
X_n = \sum_{k = 0}^{n} Y_kдляn \ge 0 іX_n = 0n < 0Y_n = X_n - X_{n - 1} для всіхn
Підрахувальна випадкова величинаN. ЯкщоN = n потімn зY_k додаються, щоб дати складний попитD (випадкова сума)
D = \sum_{k = 0}^{N} Y_k = \sum_{k = 0}^{\infty} I_{[N = k]} X_k = \sum_{k = 0}^{\infty} I_{\{k\}} (N) X_k
Примітка. У деяких додатках підрахунок випадкової величини може набувати ідеалізованого значення\infty. Наприклад, у грі, яка відтворюється до тих пір, поки не настане певний вказаний результат, цього ніколи не може статися, так що кінцеве значення не може бути призначеноN. У такому випадку необхідно вирішити, яке значенняX_{\infty} потрібно привласнити. ДляN незалежних відY_n (звідсиX_n), нам рідко потрібно розглядати цю можливість.
Незалежне виділення з інкрементної послідовності iid
Ми припускаємо протягом усього часу, якщо конкретно не вказано інше, що:
X_0 = Y_0 = 0
\{Y_k: 1 \le k\} is iid
\{N, Y_k: 0 \le k\} є незалежним класом
Ми неодноразово використовуємо дві важливі пропозиції:
E[h(D)|N = n] = E[h(X_n)],n \ge 0
M_D (s) = g_N [M_Y (s)]. Якщо невід'ємні ціле значення, то так єD іY_ng_D (s) = g_N[g_Y (s)]
ВИВЕДЕННЯМ
Використовуються властивості генеруючих функцій, момент-генеруючих функцій та умовного очікування.
E[I_{\{n\}} (N) h(D)] = E[h(D)|N = n] P(N = n)за визначенням умовного очікування, заданого подією, Now,
I_{\{n\}} (N) h(D) = I_{\{n\}} (N) h(X_n) іE[I_{\{n\}} (N) h(X_n)] = P(N = n) E[h(X_n)]. Звідси
E[h(D) |N = n] P(N = n) = P(N = n) E[h(X_n)]. Розподіл наP(N = n) дає бажаний результат.
За законом повної ймовірності (Ce1b),M_D(s)= E[e^{sD}] = E\{E[e^{sD} |N]\}. За пропозицією 1 та правилом добутку для функцій, що генерують момент,
E[e^{sD}|N = n] = E[e^{sX_n}] = \prod_{k = 1}^{n} E[e^{sY_k}] = M_Y^n (s)
Звідси
M_D(s) = \sum_{n = 0}^{\infty} M_Y^n (s) P(N = n) = g_N[M_Y (s)]
Паралельний аргумент має значення дляg_D
— □
Зауваження. Результат наM_D іg_D може бути розроблений без використання умовного очікування.
в цілозначному відмінку.
M_D(s) = E[e^{sD}] = \sum_{k = 0}^{\infty} E[I_{\{N = n\}} e^{sX_n}] = \sum_{k = 0}^{\infty} P(N = n) E[e^{sX_n}]
= \sum_{k = 0}^{\infty} P(N = n) M_Y^n (s) = g_N [M_Y (s)]
— □
Приклад\PageIndex{1} A service shop
Припустимо,N кількість завдань, принесених в сервісний магазин за добу, - Пуассона (8). Четверта з них - це предмети, що знаходяться під гарантією, за які не стягується жодної плати. Інші потрапляють в одну з двох категорій. Половина робочих місць, що прибувають, стягується за одну годину часу магазину; решта однієї четвертої стягується за дві години часу магазину. Таким чином, окремі годинні збори магазинуY_k мають загальний розподіл
Y =[0 1 2] з ймовірностямиPY = [1/4 1/2 1/4]
Складіть основні припущення нашої моделі. ВизначтеP(D \le 4).
Рішення
g_N(s) = e^{8(s - 1)} g_Y (s) = \dfrac{1}{4} (1 + 2s + s^2)
Згідно з формулою, розробленою вище,
g_D (s) = g_N [g_Y (s)] = \text{exp} ((8/4) (1 + 2s + s^2) - 8) = e^{4s} e^{2s^2} e^{-6}
Розгорніть експоненціальні числа в рядах влади про походження, помножте, щоб отримати достатню кількість членів. Результатом нехитрих, але дещо виснажливих розрахунків є
g_D (s) = e^{-6} ( 1 + 4s + 10s^2 + \dfrac{56}{3} s^3 + \dfrac{86}{3} s^4 + \cdot\cdot\cdot)
Взявши коефіцієнти генеруючої функції, отримаємо
P(D \le 4) \approx e^{-6} (1 + 4 + 10 + \dfrac{56}{3} + \dfrac{86}{3}) = e^{-6} \dfrac{187}{3} \approx 0.1545
Приклад\PageIndex{2} A result on Bernoulli trials
Припустимо, що лічильна випадкова величинаN ~ біноміальна(n, p) іY_i = I_{E_i}, сP(E_i) = p_0. Тоді
g_N = (q + ps)^nіg_Y (s) = q_0 + p_0 s
За основним результатом на випадковому відборі ми маємо
g_D (s) = g_N [g_Y(s)] = [q + p(q_0 + p_0 s)]^n = [(1 - pp_0) + pp_0 s]^n
так щоD ~ біном(n, pp_0).
У наступному розділі встановлено корисні m-процедури для визначення генеруючої функції g D та функції генерації моментуM_D для складного попиту на прості випадкові величини, отже, для визначення повного розподілу. Очевидно, що це не спрацює для всіх проблем. Це може бути корисно, якщо не зовсім достатньо, в таких випадках мати можливість визначити середнє значенняE[D] і дисперсію\text{Var} [D]. З цією метою встановлюємо наступні вирази для середнього і дисперсії.
Приклад\PageIndex{3} Mean and variance of the compound demand
E[D] = E[N]E[Y]і\text{Var} [D] = E[N] \text{Var} [Y] + \text{Var} [N] E^2 [Y]
ВИВЕДЕННЯМ
E[D] = E[\sum_{n = 0}^{\infty} I_{\{N = n\}} X_n] = \sum_{n = 0}^{\infty} P(N = n) E[X_n]
= E[Y] \sum_{n = 0}^{\infty} n P(N = n) = E[Y] E[N]
E[D^2] = \sum_{n = 0}^{\infty} P(N = n) E[X_n^2] = \sum_{n = 0}^{\infty} P(N = n) \{\text{Var} [X_n] + E^2 [X_n]\}
= \sum_{n = 0}^{\infty} P(N = n) \{n \text{Var} [Y] = n^2 E^2 [Y]\} = E[N] \text{Var} [Y] + E[N^2] E^2[Y]
Звідси
\text{Var} [D] = E[N] \text{Var} [Y] + E[N^2] E^2 [Y] - E[N]^2 E^2[Y] = E[N] \text{Var} [Y] + \text{Var} [N] E^2[Y]
Приклад\PageIndex{4} Mean and variance for Example 15.1.1
E[N] = \text{Var} [N] = 9. За симетріїE[Y] = 1. \text{Var} [Y] = 0.25(0 + 2 + 4) - 1 = 0.5. Отже,
E[D] = 8 \cdot 1 = 8,\text{Var} [D] = 8 \cdot 0.5 + 8 \cdot 1 = 12
Розрахунки для складного попиту
Ми маємо m-процедури для виконання розрахунків, необхідних для визначення розподілу для складеного попиту,D коли підрахункова випадкова величинаN та окремі вимогиY_k є простими випадковими величинами з не надто великою кількістю значень. У деяких випадках, наприклад, для підрахунку Пуассона випадкова величина, ми можемо наблизити за допомогою простої випадкової величини.
Генд процедури
Якщо невід'ємні, ціле значення, то так єD, і є генеруюча функція.Y_i Розглянуто стратегію обчислень, яка реалізується в генді m-процедури. Припустимо
g_N (s) = p_0 + p_1 s + p_2 s^2 + \cdot\cdot\cdot p_n s^n
g_Y (s) = \pi_0 + \pi_1 s + \pi_2 s^2 + \cdot\cdot\cdot \pi_m s^m
Коефіцієнтиg_N іg_Y є ймовірностями значеньN іY, відповідно. Вводимо їх і обчислюємо коефіцієнти для ступенівg_Y:
\begin{array} {lcr} {gN = [p_0\ p_1\ \cdot\cdot\cdot\ p_n]} & {1 \times (n + 1)} & {\text{Coefficients of } g_N} \\ {y = [\pi_0\ \pi_1\ \cdot\cdot\cdot\ \pi_n]} & {1 \times (m + 1)} & {\text{Coefficients of } g_Y} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {y2 = \text{conv}(y,y)} & {1 \times (2m + 1)} & {\text{Coefficients of } g_Y^2} \\ {y3 = \text{conv}(y,y2)} & {1 \times (3m + 1)} & {\text{Coefficients of } g_Y^3} \\ {\ \ \ \ \ \cdot\cdot\cdot} & { } & { } \\ {yn = \text{conv}(y,y(n - 1))} & {1 \times (nm + 1)} & {\text{Coefficients of } g_Y^n}\end{array}
Ми хочемо створити матрицю, рядкиP якої містять спільні ймовірності. Імовірності вi -му рядку складаються з коефіцієнтів для відповідної потужності,g_Y помноженої на ймовірністьN має це значення. Для досягнення цього нам знадобиться матриця, кожен зn + 1 рядків якої маєnm + 1 елементи, довжиноюyn. Починаємо з «попереднього розподілу» нулів на рядки. Тобто ставимоP = \text{zeros}(n + 1, n\ ^*\ m + 1). Потім замінюємо відповідні елементи послідовних рядів. Імовірності заміни дляi го ряду отримують згорткоюg_Y і силоюg_Y для попереднього ряду. Коли матриця будеP завершена, прибираємо нульові рядки і стовпці, відповідні відсутнім значеннямN іD (тобто значень з нульовою ймовірністю). Щоб зорієнтувати спільні ймовірності як на площині, повертаємо наP дев'яносто градусів проти годинникової стрілки. При спільному розподілі ми можемо обчислити будь-які бажані величини.
Приклад\PageIndex{5} A compound demand
Кількість клієнтів у великому магазині побутової техніки однаково ймовірно буде 1, 2 або 3. Кожен клієнт купує 0, 1 або 2 предмети з відповідними ймовірностями 0.5, 0.4, 0.1. Покупці купують самостійно, незалежно від кількості клієнтів. Спочатку визначаємо матриці, що представляютьg_N іg_Y. Коефіцієнти - це ймовірності того, що кожне ціле значення спостерігається. Зверніть увагу, що нульові коефіцієнти для будь-яких відсутніх повноважень повинні бути включені.
gN = (1/3)*[0 1 1 1]; % Note zero coefficient for missing zero power gY = 0.1*[5 4 1]; % All powers 0 thru 2 have positive coefficients gend Do not forget zero coefficients for missing powers Enter the gen fn COEFFICIENTS for gN gN % Coefficient matrix named gN Enter the gen fn COEFFICIENTS for gY gY % Coefficient matrix named gY Results are in N, PN, Y, PY, D, PD, P May use jcalc or jcalcf on N, D, P To view distribution for D, call for gD disp(gD) % Optional display of complete distribution 0 0.2917 1.0000 0.3667 2.0000 0.2250 3.0000 0.0880 4.0000 0.0243 5.0000 0.0040 6.0000 0.0003 EN = N*PN' EN = 2 EY = Y*PY' EY = 0.6000 ED = D*PD' ED = 1.2000 % Agrees with theoretical EN*EY P3 = (D>=3)*PD' P3 = 0.1167 [N,D,t,u,PN,PD,PL] = jcalcf(N,D,P); EDn = sum(u.*P)./sum(P); disp([N;EDn]') 1.0000 0.6000 % Agrees with theoretical E[D|N=n] = n*EY 2.0000 1.2000 3.0000 1.8000 VD = (D.^2)*PD' - ED^2 VD = 1.1200 % Agrees with theoretical EN*VY + VN*EY^2
Приклад\PageIndex{6} A numerical example
g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)g_Y (s) = 0.1 (5s + 3s^2 + 2s^3
Зверніть увагу, що нульова потужність відсутняgY з. відповідної тому, щоP(Y = 0) = 0.
gN = 0.2*[1 1 1 1 1]; gY = 0.1*[0 5 3 2]; % Note the zero coefficient in the zero position gend Do not forget zero coefficients for missing powers Enter the gen fn COEFFICIENTS for gN gN Enter the gen fn COEFFICIENTS for gY gY Results are in N, PN, Y, PY, D, PD, P May use jcalc or jcalcf on N, D, P To view distribution for D, call for gD disp(gD) % Optional display of complete distribution 0 0.2000 1.0000 0.1000 2.0000 0.1100 3.0000 0.1250 4.0000 0.1155 5.0000 0.1110 6.0000 0.0964 7.0000 0.0696 8.0000 0.0424 9.0000 0.0203 10.0000 0.0075 11.0000 0.0019 12.0000 0.0003
p3 = (D == 3)*PD' % P(D=3) P3 = 0.1250 P4_12 = ((D >= 4)&(D <= 12))*PD' P4_12 = 0.4650 % P(4 <= D <= 12)
Приклад\PageIndex{7} Number of successes for random number N of trials.
Нас цікавить кількість успіхів уN випробуваннях для загальної підрахунку випадкової величини. Це узагальнення випадку Бернуллі в прикладі 15.1.2. Припустимо, як і в прикладі 15.1.2, кількість клієнтів у великому магазині побутової техніки однаково ймовірно буде 1, 2 або 3, і кожен купує хоча б один предмет з ймовірністюp = 0.6. Визначте розподіл заD кількістю покупців, що купують.
Рішення
Ми використовуємоgNgY, і генд.
gN = (1/3)*[0 1 1 1]; % Note zero coefficient for missing zero power gY = [0.4 0.6]; % Generating function for the indicator function gend Do not forget zero coefficients for missing powers Enter gen fn COEFFICIENTS for gN gN Enter gen fn COEFFICIENTS for gY gY Results are in N, PN, Y, PY, D, PD, P May use jcalc or jcalcf on N, D, P To view distribution for D, call for gD disp(gD) 0 0.2080 1.0000 0.4560 2.0000 0.2640 3.0000 0.0720
Процедура gend обмежена простимN іY_k, з невід'ємними цілими значеннями. Іноді випадкова величина з необмеженим діапазоном може бути наближена простою випадковою величиною. Рішення в наступному прикладі використовує таку процедуру наближення для підрахунку випадкової величиниN.
Приклад\PageIndex{8} Solution of the shop time Example 15.1.1
NКількість робочих місць, принесених в сервісний магазин за день, - Пуассона (8). Окремі магазинні годинні збориY_k мають загальний розподілY = [0 1 2] з ймовірностямиPY = [1/4 1/2 1/4].
За основними припущеннями нашої моделі визначаємоP(D \le 4).
Рішення
Так якN Пуассон необмежений, нам потрібно перевірити достатню кількість членів в простому наближенні. Далі чинимо як в простому випадку.
pa = cpoisson(8,10:5:30) % Check for sufficient number of terms pa = 0.2834 0.0173 0.0003 0.0000 0.0000 p25 = cpoisson(8,25) % Check on choice of n = 25 p25 = 1.1722e-06 gN = ipoisson(8,0:25); % Approximate gN gY = 0.25*[1 2 1]; gend Do not forget zero coefficients for missing powers Enter gen fn COEFFICIENTS for gN gN Enter gen fn COEFFICIENTS for gY gY Results are in N, PN, Y, PY, D, PD, P May use jcalc or jcalcf on N, D, P To view distribution for D, call for gD disp(gD(D<=20,:)) % Calculated values to D = 50 0 0.0025 % Display for D <= 20 1.0000 0.0099 2.0000 0.0248 3.0000 0.0463 4.0000 0.0711 5.0000 0.0939 6.0000 0.1099 7.0000 0.1165 8.0000 0.1132 9.0000 0.1021 10.0000 0.0861 11.0000 0.0684 12.0000 0.0515 13.0000 0.0369 14.0000 0.0253 15.0000 0.0166 16.0000 0.0105 17.0000 0.0064 18.0000 0.0037 19.0000 0.0021 20.0000 0.0012 sum(PD) % Check on sufficiency of approximation ans = 1.0000 P4 = (D<=4)*PD' P4 = 0.1545 % Theoretical value (4 places) = 0.1545 ED = D*PD' ED = 8.0000 % Theoretical = 8 (Example 15.1.4) VD = (D.^2)*PD' - ED^2 VD = 11.9999 % Theoretical = 12 (Example 15.1.4)
М-процедури mgd і jmgd
Наступний приклад показує принципове обмеження гендерної процедури. Значення для індивідуальних вимог не обмежуються цілими числами, і між значеннями є значні проміжки. У цьому випадку нам потрібно реалізувати функцію генерування моменту,M_D а не генеруючу функціюg_D.
У випадку генеруючої функції так само легко розробити спільний розподіл,\{N, D\} як розробити граничний розподіл дляD. На момент генеруючої функції спільний розподіл вимагає значно більших обчислень. Як наслідок, нам зручно мати дві m-процедури: mgd для граничного розподілу і jmgd для спільного розподілу.
Замість процедури згортки, яка використовується в gend для визначення розподілу сум окремих вимог, m-процедура mgd використовує m-функцію mgsum для отримання цих розподілів. Розподіли для різних сум об'єднані в два рядкові вектори, до яких застосовується csort для отримання розподілу для складного попиту. Процедура вимагає в якості введення генеруючої функції дляN і фактичного розподілуPY,Y і, для окремих вимог. ДляgN, необхідно ставитися до коефіцієнтів як в генді. Однак фактичні значення і ймовірності в розподілі для Y ставляться в пару рядкових матриць. ЯкщоY ціле значення, то в матриці ймовірностей відсутні нулі.
Приклад\PageIndex{9} Noninteger values
Сервісний магазин має три стандартні збори за певний клас гарантійних послуг, які він виконує: $10, $12.50, і $15. Кількість робочих місць, отриманих за звичайний робочий день, можна вважати випадковою величиною,N яка приймає значення 0, 1, 2, 3, 4 з рівними ймовірностями 0,2. Типи завдань для прибуття можуть бути представлені класом iid\{Y_i: 1 \le i \le 4\}, незалежно від процесу прибуття. Y_iПрийняти значення 10, 12,5, 15 з відповідними ймовірностями 0,5, 0,3, 0,2. НехайC буде загальний обсяг наданих послуг за добу. Визначте розподіл дляC.
Рішення
gN = 0.2*[1 1 1 1 1]; % Enter data Y = [10 12.5 15]; PY = 0.1*[5 3 2]; mgd % Call for procedure Enter gen fn COEFFICIENTS for gN gN Enter VALUES for Y Y Enter PROBABILITIES for Y PY Values are in row matrix D; probabilities are in PD. To view the distribution, call for mD. disp(mD) % Optional display of distribution 0 0.2000 10.0000 0.1000 12.5000 0.0600 15.0000 0.0400 20.0000 0.0500 22.5000 0.0600 25.0000 0.0580 27.5000 0.0240 30.0000 0.0330 32.5000 0.0450 35.0000 0.0570 37.5000 0.0414 40.0000 0.0353 42.5000 0.0372 45.0000 0.0486 47.5000 0.0468 50.0000 0.0352 52.5000 0.0187 55.0000 0.0075 57.5000 0.0019 60.0000 0.0003
Далі ми перерахуємо приклад 15.1.6, вище, використовуючи mgd, а не gend.
Приклад\PageIndex{10} Recalculation of Example 15.1.6
У прикладі 15.1.6 ми маємо
g_N (s) = \dfrac{1}{5} (1 + s + s^2 + s^3 + s^4)g_Y (s) = 0.1 (5s + 3s^2 + 2s^3)
Означає, що розподіл дляY єY = [1 2 3] іPY = 0.1 * [5 3 2].
Ми використовуємо той самий вираз дляgN, як у прикладі 15.1.6.
gN = 0.2*ones(1,5); Y = 1:3; PY = 0.1*[5 3 2]; mgd Enter gen fn COEFFICIENTS for gN gN Enter VALUES for Y Y Enter PROBABILITIES for Y PY Values are in row matrix D; probabilities are in PD. To view the distribution, call for mD. disp(mD) 0 0.2000 1.0000 0.1000 2.0000 0.1100 3.0000 0.1250 4.0000 0.1155 5.0000 0.1110 6.0000 0.0964 7.0000 0.0696 8.0000 0.0424 9.0000 0.0203 10.0000 0.0075 11.0000 0.0019 12.0000 0.0003 P3 = (D==3)*PD' P3 = 0.1250 ED = D*PD' ED = 3.4000 P_4_12 = ((D>=4)&(D<=12))*PD' P_4_12 = 0.4650 P7 = (D>=7)*PD' P7 = 0.1421
Як і очікувалося, результати такі ж, як і результати, отримані з гендом.
При бажанні отримати спільний розподіл для\{N, D\}, ми використовуємо модифікацію mgd під назвою jmgd. Ускладнення виникають при розміщенні ймовірностей вP матриці в потрібних положеннях. Для цього потрібні деякі розрахунки для визначення відповідного розміру використовуваних матриць, а також процедури, щоб поставити кожну ймовірність в положення, відповідне їїD значенню. Фактична операція досить схожа на операцію mgd, і вимагає того ж формату даних.
Принципове використання спільного розподілу полягає в демонстрації особливостей моделі, таких якE[D|N = n] = nE[Y] і т.д. це, звичайно, використовується при отриманні виразів forM_D (s) в термініg_N (s) іM_Y (s). Цей результат керує розвитком обчислювальних процедур, але вони не залежать від цього результату. Однак зазвичай корисно продемонструвати обґрунтованість припущень на типових прикладах.
Зауваження. Загалом, якщо використання gend доречно, це швидше і ефективніше, ніж mgd (або jmgd). І він впорається з дещо більшими проблемами. Але обидві m-процедури досить добре працюють для завдань помірного розміру, і є зручними інструментами для вирішення різних завдань типу «складного попиту».