15.2: Деякі проблеми випадкового вибору
- Page ID
- 98603
У блоці з випадкового вибору ми розробляємо деякі загальні теоретичні результати та обчислювальні процедури за допомогою MATLAB. У цьому блоці ми поширюємо лікування на різні проблеми. Встановлено деякі корисні теоретичні результати і в деяких випадках використовуємо процедури MATLAB, в тому числі в блоці на випадковому відборі.
Розпад Пуассона
У багатьох проблемах окремі вимоги можуть бути класифіковані на один з m типів. Якщо випадкова величина\(T_i\) є типом\(i\) приходу, а клас\(\{T_i: 1 \le i\}\) iid, ми маємо багатономіальні випробування. Бо у\(m = 2\) нас є Бернуллі або біноміальний випадок, в якому один тип називається успіхом, а інший - невдачею.
Багатономіальні випробування
Розбираємо таку послідовність випробувань наступним чином. Припустимо, є m типів, які ми пронумемо 1 через\(m\). \(E_{ki}\)Дозволяти подія, що тип\(k\) відбувається\(i\) на trial компонента. Для кожного\(i\) клас\(\{E_{ki}: 1 \le k \le m\}\) є розділом, так як на кожному компоненті trial буде відбуватися саме один з типів. Тип на\(i\) trial може бути представлений типом випадкової величини.
\(T_i = \sum_{k = 1}^{m} kI_{E_{ki}}\)
ми припускаємо
\(\{T_k: 1 \le i\}\)iid, з\(P(T_i = k) = P(E_{ki}) = p_k\) інваріантним з\(i\)
У послідовності\(n\) випробувань ми дозволяємо\(N_{kn}\) бути кількість випадків типу\(k\). Тоді
\(N_{kn} = \sum_{i = 1}^{n} I_{E_{ki}}\)з\(\sum_{k = 1}^{m} N_{kn} = n\)
Тепер кожен\(N_{kn}\) ~ біном (\(n, p_k\)). Клас\(\{N_{kn}: 1 \le k \le m\}\) не може бути незалежним, оскільки він становить\(n\). Якщо\(m - 1\) значення їх відомі, визначається значення іншого. Якщо\(n_1 + n_2 + \cdot\cdot\cdot n_m = n\). подія
\(\{N_{1n} = n_1, N_{2n} = n_2, \cdot\cdot\cdot, N_{mn} = n_m\}\)
є одним з
\(C(n; n_1, n_2, \cdot\cdot\cdot, n_m) = n!/(n1! n2! \cdot\cdot\cdot n_m!)\)
способи\(n_1\) облаштування на\(E_{1i}\),\(n_2\) з\(E_{2i}\),\(\cdot\cdot\cdot\),\(n_m\) з\(E_{mi}\). Кожна така домовленість має ймовірність\(p_{1}^{n_1} p_{2}^{n_2} \cdot\cdot\cdot p_{m}^{n_m}\), так що
\(P(N_{1n} = n_1, N_{2n} = n_2, \cdot\cdot\cdot N_{mn} = n_m) = n! \prod_{k = 1}^{m} \dfrac{p_{k}^{n_k}}{n_k !}\)
Цей набір спільних ймовірностей становить багатономіальний розподіл. Для\(m = 2\), і тип 1 успішно, це біноміальний розподіл з параметром\((n, p_1)\).
Випадкове число багатономіальних випробувань
Розглянуто, зокрема, випадок випадкового числа\(N\) багатономіальних випробувань, де\(N\) ~ Пуассона\((\mu)\). \(N_k\)Дозволяти кількість результатів типу\(k\) у випадковому числі\(N\) багатономіальних випробувань.
\(N_k = \sum_{i = 1}^{N} I_{E_{ki}} = \sum_{n = 1}^{\infty} I_{\{N = n\}} N_{kn}\)з\(\sum_{k = 1}^{m} N_k = N\)
розкладання Пуассона
Припустимо
\(N\)~ Пуассон (\(\mu\))
\(\{T_i: 1 \le i\}\) є iid з\(P(T_i = k) = p_k\),\(1 \le k \le m\)
\(\{N, T_i : 1 \le i\}\) є незалежним
Тоді
Кожен\(N_k\) ~ Пуассон (\(\mu p_k\))
\(\{N_k: 1 \le k \le m\}\) є незалежним.
— □
Корисність цього чудового результату посилюється тим, що сума незалежних випадкових величин Пуассона також є Пуассоном, причому\(\mu\) для суми додана сума\(\mu_i\) для змінних. Це легко встановлюється за допомогою генеруючої функції. Перш ніж перевірити пропозиції вище, розглянемо деякі приклади.
Приклад\(\PageIndex{1}\) A shipping problem
Кількість\(N\) замовлень в день, отриманих будинком поштового замовлення, - Пуассона (300). Замовлення відправляються на наступний день експрес, за пріоритетом другого дня, або звичайною посилкою. Припустимо, 4/10 клієнтів хочуть наступного дня експрес, 5/10 хочуть пріоритету другого дня, а 1/10 вимагають звичайної пошти. Зробіть звичайні припущення щодо складного попиту. Яка ймовірність того, що менше 150 хочуть наступного дня висловити? Яка ймовірність того, що менше 300 хочуть одну чи іншу з двох швидших поставок?
Рішення
Модель як випадкове число багатономіальних випробувань, з трьома типами результатів: Тип 1 - експрес наступного дня, тип 2 - пріоритет другого дня, а тип 3 - звичайна пошта, з відповідними ймовірностями\(p_1 = 0.4\)\(p_2 = 0.5\), і\(p_3 = 0.1\). \(N_1\)~ Пуассон\((0.4 \cdot 300 = 120)\),\(N_2\) ~ Пуассон\((0.5 \cdot 300 = 150)\), і\(N_3\) ~ Пуассон\((0.1 \cdot 300 = 30)\). Також\(N_1 + N_2\) ~ Пуассон (120 + 150 = 270).
P1 = 1 - cpoisson(120,150) P1 = 0.9954 P12 = 1 - cpoisson(270,300) P12 = 0.9620
Приклад\(\PageIndex{2}\) Message routing
Точка з'єднання в мережі має дві вхідні лінії і дві вихідні лінії. Кількість вхідних повідомлень\(N_1\) на лінії один за одну годину - Пуассона (50); на рядку 2 число\(N_2\) ~ Пуассона (45). На вхідному рядку 1 повідомлення мають\(P_{1a} = 0.33\) ймовірність виходу на вихідний рядок a та\(1 - p_{1a}\) виходу на рядок b. Повідомлення, що надходять у рядок 2, мають ймовірність\(P_{2a} = 0.47\) виходу на рядок a. За звичайними припущеннями незалежності, яким є розподіл вихідних повідомлень на рядку a? Які ймовірності щонайменше 30, 35, 40 вихідних повідомлень на лінії a?
Рішення
За розкладом Пуассона,\(N_a\) ~ Пуассона\((50 \cdot 0.33 + 45 \cdot 0.47 = 37.65)\).
ma = 50*0.33 + 45*0.47 ma = 37.6500 Pa = cpoisson(ma,30:5:40) Pa = 0.9119 0.6890 0.3722
ПЕРЕВІРКА розкладання Пуассона
\(N_k = \sum_{i = 1}^{N} I_{E{ki}}\).
Це композитний попит з\(Y_k = I_{E_{ki}}\), так що\(g_{Y_k} (s) = q_k + sp_k = 1 + p_k (s - 1)\). Тому,
\(g_{N_k} (s) = g_N [g_{Y_k} (s)] = e^{} = e^{}\)
яка є генеруючою функцією для\(N_k\) ~ Пуассона\((\mu p_k)\).
Для будь-якого\(n_1\),\(n_2\),\(\cdot\cdot\cdot\),\(n_m\), нехай\(n = n_1 + n_2 + \cdot\cdot\cdot + n_m\), і розглянути
\(A = \{N_1 = n_1, N_2 = n_2, \cdot\cdot\cdot, N_m = n_m\} = \{N = n\} \cap \{N_{1n} = N_1, N_{2n} = n_2, \cdot\cdot\cdot, N_{mn} = n_m\}\)
Так\(N\) як не залежить від класу\(I_{E_{ki}}\), клас
\(\{\{N = n\}, \{N_{1n} = n_1, N_{2n} = n_2, \cdot\cdot\cdot, N_{mn} = n_m\}\}\)
є незалежним. За правилом продукту та багатономіальним розподілом
\(P(A) = e^{-\mu} \dfrac{\mu^n}{n!} \cdot n! \prod_{k = 1}^{m} \dfrac{p_{k}^{n_k}}{(n_k)!} = \prod_{k = 1}^{m} e^{-\mu p_k} \dfrac{p_{k}^{n_k}}{n_k !} = \prod_{k = 1}^{m} P(N_k = n_k)\)
Другий продукт використовує той факт, що
\(e^{\mu} = e^{\mu (p_1 + p_2 + \cdot\cdot\cdot + p_m)} = \prod_{k = 1}^{m} e^{\mu p_k}\)
Таким чином, правило продукту має місце для класу
Екстремальні значення
Розглянемо iid клас\(\{Y_i: 1 \le i\}\) невід'ємних випадкових величин. Для будь-якого натурального цілого\(n\) ми дозволяємо
\(V_n = \text{min } \{Y_1, Y_2, \cdot\cdot\cdot, Y_n\}\)і\(W_n = \text{max } \{Y_1, Y_2, \cdot\cdot\cdot, Y_n\}\)
Тоді
\(P(V_n > t) = P^n (Y > t)\)і\(P(W_n \le t) = P^n (Y \le t)\)
Тепер розглянемо випадкове\(N\) число\(Y_i\). Мінімальна і максимальна випадкові величини
\(V_N = \sum_{n = 0}^{\infty} I_{\{N = n\}} V_n\)і\(W_N = \sum_{n = 0}^{\infty} I_{\{N = n\}} W_n\)
— □
Обчислювальні формули
Якщо ми встановимо\(V_0 = W_0 = 0\), то
\(F_V (t) = P(V \le t) = 1 + P(N = 0) - g_N [P(Y > t)]\)
\(F_W (t) = g_N [P(Y \le t)]\)
Ці результати легко встановлюються наступним чином. \(\{V_N > t\} = \bigvee_{n = 0}^{\infty} \{N = n\} \ \{V_n > t\}\). За адитивністю і незалежністю\(\{N, V_n\}\) для кожного\(n\)
\(P(V_N > t) = \sum_{n = 0}^{\infty} P(N = n) P(V_n > t) = \sum_{n = 1}^{\infty} P(N = n) P^n (Y > t)\), так як\(P(V_0 > t) = 0\)
Якщо ми додамо в останню суму термін\(P(N = 0) P^0 (Y > t) = P(N = 0)\) потім відняти його, ми маємо
\(P(V_N > t) = \sum_{n = 0}^{\infty} P(N = n) P^n (Y > t) - P(N = 0) = g_N [P(Y > t)] - P(N = 0)\)
Аналогічний аргумент дотримується і для пропозиції (b). У цьому випадку у нас немає додаткового терміну для\(\{N = 0\}\), так як\(P(W_0 \le t) = 1\).
Особливий випадок. У деяких випадках\(N = 0\) не відповідає допустимому результату (див. Приклад 14.2.4, нижче, про учасника найнижчих торгів та Приклад 14.2.6). У такому випадку
\(F_V (t) = \sum_{n = 1}^{\infty} P(V_n \le t) P(N = n) = \sum_{n = 1}^{\infty} [1 - P^n (Y > t)] P(N = n) = \sum_{n = 1}^{\infty} P(N = n) - \sum_{n = 1}^{\infty} P^n (Y > t) P(N = n)\)
Додайте\(P(N = 0) = p^0\ (Y > t) P(N = 0)\) до кожної з сум, щоб отримати
\(F_V (t) = 1 - \sum_{n = 0}^{\infty} P^n (Y > t) P (N = n) = 1 - g_N [P(Y > t)]\)
— □
Приклад\(\PageIndex{3}\) Maximum service time
\(N\)Кількість робочих місць, що надходять в сервісний центр за тиждень, є випадковою величиною, що має розподіл Пуассона (20). Припустимо, час обслуговування (в годинами) для окремих одиниць є iid, із загальним розподілом експоненціальним (1/3). Яка ймовірність максимального часу обслуговування агрегатів не більше 6, 9, 12, 15, 18 годин?
Рішення
\(P(W_N \le t) = g_N [P(Y \le t)] = e^{20[F_Y (t) - 1]} = \text{exp} (-20e^{-t/3})\)
t = 6:3:18;
PW = exp(-20*exp(-t/3));
disp([t;PW]')
6.0000 0.0668
9.0000 0.3694
12.0000 0.6933
15.0000 0.8739
18.0000 0.9516
Приклад\(\PageIndex{4}\) Lowest Bidder
Виробник шукає пропозиції на модифікацію одного зі своїх технологічних одиниць. До участі в торгах запрошуються двадцять підрядників. Вони роблять ставку з ймовірністю 0,3, так що кількість ставок\(N\) ~ біноміальне (20,0,3). Припустимо, що ставки Y i (у тисячах доларів) утворюють клас iid. Ринок такий, що пропозиції мають загальний розподіл симетричний трикутний на (150,250). Яка ймовірність хоча б однієї ставки не більше 170, 180, 190, 200, 210? Зверніть увагу, що жодна ставка не є низькою ставкою нуля, тому ми повинні використовувати спеціальний випадок.
Рішення
\(P(V \le t) = 1 - g_N [P(Y > t)] = 1 - (0.7 + 0.3p)^{20}\)де\(p = P(Y > t)\)
Рішення графічно для\(p = P (V > t)\), отримуємо
\(p =\)[23/25 41/50 17/25 1/2 8/25] для\(t =\) [170 180 190 200 210]
Зараз\(g_N (s) = (0.7 + 0.3s)^{20}\). Ми використовуємо MATLAB для отримання
t = [170 180 190 200 210]; p = [23/25 41/50 17/25 1/2 8/25]; PV = 1 - (0.7 + 0.3*p).^20; disp([t;p;PV]') 170.0000 0.9200 0.3848 180.0000 0.8200 0.6705 190.0000 0.6800 0.8671 200.0000 0.5000 0.9612 210.0000 0.3200 0.9896
Приклад\(\PageIndex{5}\) Example 15.2.4 with a general counting variable
Припустимо, що кількість заявок дорівнює 1, 2 або 3 з ймовірностями 0,3, 0,5, 0,2 відповідно.
\(P(V \le t)\)Визначаємося в кожному конкретному випадку.
Рішення
Мінімум\(Y\) вибраних не більше, ніж\(t\) якщо і лише за наявності принаймні\(Y\) одиниці менше або дорівнює\(t\). Визначаємо в кожному конкретному випадку ймовірності кількості заявок, що задовольняють\(Y \le t\). Для кожного\(t\) нас цікавить ймовірність одного або декількох випадків події\(Y \le t\). Це, по суті, проблема в прикладі 7 з "випадкового вибору «, з ймовірністю\(p = P(Y \le t)\).
t = [170 180 190 200 210]; p = [23/25 41/50 17/25 1/2 8/25]; % Probabilities Y <= t are 1 - p gN = [0 0.3 0.5 0.2]; % Zero for missing value PV = zeros(1,length(t)); for i=1:length(t) gY = [p(i),1 - p(i)]; [d,pd] = gendf(gN,gY); PV(i) = (d>0)*pd'; % Selects positions for d > 0 and end % adds corresponding probabilities disp([t;PV]') 170.0000 0.1451 180.0000 0.3075 190.0000 0.5019 200.0000 0.7000 210.0000 0.8462
Приклад 15.2.4 може працювати таким чином, використовуючи gN = ibinom (20,0,3, 0:20). Результати, звичайно ж, такі ж, як і в попередньому рішенні. Той факт, що ймовірності в цьому прикладі нижчі для кожного t, ніж у прикладі 15.2.4, відображає той факт, що в кожному випадку, ймовірно, менше ставок.
Приклад\(\PageIndex{6}\) Batch testing
Електричні агрегати з виробничої лінії спочатку перевіряються на працездатність. Однак досвід показує, що\(p\) частина тих, хто проходить початковий тест на працездатність, є дефектними. Всі працездатні агрегати згодом випробовуються в партії при безперервній роботі (тест на «спалювання»). Статистичні дані вказують на дефектні одиниці часу виходу з ладу\(Y_i\) iid, експоненціальні (\(\lambda\)тоді як хороші одиниці мають дуже довгий термін служби (нескінченний з точки зору тесту). Тестується партія\(n\) одиниць. Нехай\(V\) буде час першої поломки і\(N\) буде кількість бракованих одиниць в партії. Якщо тест йде\(t\) одиниці часу без відмов (тобто\(V > t\)), то яка ймовірність відсутності несправних блоків?
Рішення
Оскільки відсутність дефектних одиниць не передбачає жодних збоїв у будь-який розумний час тестування, ми маємо
\(\{N = 0\} \subset \{V > t \}\)щоб\(P(N = 0|V > t) = \dfrac{P(N = 0)}{P(V > t)}\)
Так як\(N = 0\) не дає мінімального значення, у нас є\(P(V > t) = g_N [P(Y > t)]\). Тепер за умови вище, кількість дефектних одиниць\(N\) ~ binomial (\(n, p\)), так що\(g_N (s) = (q + ps)^n\). Якщо\(N\) великий і\(p\) досить малий,\(N\) то приблизно Пуассона\((np)\) з\(g_N (s) = e^{np (s - 1)}\) і\(P(N = 0) = e^{-np}\). Тепер\(P(Y > t) = e^{-\lambda t}\); для великих\(n\)
\(P(N = 0|V > t) = \dfrac{e^{-np}}{e^{np[P(Y > t) - 1]}} = e^{-np P(Y >t)} = e^{-npe^{-lambda t}}\)
Для\(n = 5000\),,\(p = 0.001\)\(\lambda = 2\), і\(t = 1, 2, 3, 4, 5\), MATLAB розрахунки дають
t = 1:5;
n = 5000;
p = 0.001;
lambda = 2;
P = exp(-n*p*exp(-lambda*t));
disp([t;P]')
1.0000 0.5083
2.0000 0.9125
3.0000 0.9877
4.0000 0.9983
5.0000 0.9998
Виявляється, тест тривалістю від трьох до п'яти годин повинен дати достовірні результати. При власне проектуванні тесту, ймовірно, слід проводити розрахунки з низкою різних припущень про частку дефектних одиниць і тривалості життя дефектних одиниць. Ці розрахунки порівняно легко зробити за допомогою MATLAB.
Випробування Бернуллі з випадковим часом виконання або витратами
Розглянемо послідовність Бернуллі з\(p\) ймовірністю успіху на будь-якому компонентному дослідженні. \(N\)Дозволяти буде номер судового розгляду, на якому відбувається перший успіх. Нехай\(Y_i\) буде час (або вартість) для виконання судового\(i\) розгляду. Тоді загальний час (або вартість) від початку до завершення першого успіху становить
\(T = \sum_{i = 1}^{N} Y_i\)(композитний «попит» з\(N - 1\) ~ геометричним\(p\))
Ми припускаємо, що\(Y_i\) форма класу iid, незалежно від\(N\). Тепер\(N - 1\) ~ геометричний (\(p\)) має на увазі\(g_N (s) = ps/(1 - qs)\), так що
\(M_T (s) = g_N [M_Y (s)] = \dfrac{pM_Y (s)}{1 - qM_Y (s)}\)
Є два корисних особливих випадку:
\(Y_i\)~ експоненціальний\((\lambda)\), так що\(M_Y (s) = \dfrac{}{}\).
\(M_T (s) = \dfrac{}{} = \dfrac{}{}\)
що означає\(T\) ~ експоненціальний (\(p \lambda\)).
\(Y_i - 1\)~ геометричний\((p_0)\), так що\(g_Y (s) = \dfrac{\lambda}{\lambda - s}\)
\(g_T (s) = \dfrac{p \lambda/ (\lambda -s)}{1 - q\lambda/(\lambda -s)} = \dfrac{p \lambda}{p\lambda - s}\)
так що\(T - 1\) ~ геометричний\((pp_0)\).
Приклад\(\PageIndex{7}\) Job interviews
Припустимо, потенційний роботодавець проводить співбесіду з кандидатами на роботу з пулу, в якому двадцять відсотків кваліфіковані. Передбачається, що час співбесіди (у\(Y_i\) годині) утворює клас iid, кожен експоненціальний (3). Таким чином, середній час співбесіди становить 1/3 години (двадцять хвилин). Ми беремо ймовірність успіху на будь-якому співбесіді\(p = 0.2\). Яка ймовірність того, що задовільний кандидат буде знайдений через чотири години або менше? Яка ймовірність того, що максимальний час співбесіди буде не більше 0,5, 0,75, 1, 1,25, 1,5 години?
Рішення
\(T\)~ експоненціальна (\(0.2 \cdot 3 = 0.6\)), так що\(P(T \le 4) = 1 - e^{-0.6 \cdot 4} = 0.9093\).
\(P(W \le t) = g_N [P(Y \le t)] = \dfrac{0.2 (1 - e^{-3t})}{1 - 0.8 (1 - e^{-3t})} = \dfrac{1 - e^{-3t}}{1 + 4e^{-3t}}\)
MATLAB обчислення дають
t = 0.5:0.25:1.5;
PWt = (1 - exp(-3*t))./(1 + 4*exp(-3*t));
disp([t;PWt]')
0.5000 0.4105
0.7500 0.6293
1.0000 0.7924
1.2500 0.8925
1.5000 0.9468
Середній час співбесіди становить 1/3 години; з ймовірністю 0.63 максимум становить 3/4 години або менше; з ймовірністю 0.79 максимум - одна година або менше; і т.д.
У загальному випадку, рішення для розподілу\(T\) вимагає теорії перетворення, і може бути оброблено найкращим чином за допомогою таких програм, як Maple або Mathematica.
Для випадку простих\(Y_i\) ми можемо використовувати апроксимаційні процедури, засновані на властивостях геометричного ряду. Так як\(N - 1\) ~ геометричний\((p)\).
\(g_N 9s) = \dfrac{ps}{1 - qs} = ps \sum_{k = 0}^{\infty} (qs)^k = ps [\sum_{k = 0}^{n} (qs)^k + \sum_{k = m + 1}^{\infty} (qs)^k] = ps[\sum_{k = 0}^{n} (qs)^k + (qs)^{n + 1} \sum_{k = 0}^{\infty} (qs)^k]\)
\(= ps[\sum_{k = 0}^{n} (qs)^k] + (qs)^{n + 1} g_N 9s) = g_n (s) + (qs)^{n + 1} g_N (s)\)
Зауважте, що\(g_n (s)\) має вигляд генеруючої функції для простого наближення\(N_n\), яке відповідає значенням та ймовірностям з\(N\) до\(k = n\). Зараз
\(g_T (s) = g_n[g_Y (s)] + (qs)^{n + 1} g_N [g_Y (s)]\)
Оцінка передбачає згортку коефіцієнтів, які ефективно встановлюють\(s = 1\). Так як\(g_N (1) = g_Y (1) = 1\).
\((qs)^{n + 1} g_N [g_Y (s)]\)для\(s = 1\) знижує до\(q^{n + 1} = P(N > n)\)
який мізерно малий\(n\), якщо він досить великий. \(n\)Відповідні можуть бути визначені в кожному конкретному випадку. З таким\(n\), якщо\(Y_i\) вони невід'ємні, цілозначні, ми можемо використовувати процедуру gend on\(g_n [g_Y (s)]\), де
\(g_n (s) = ps + pqs^2 + pq^2s^3 + \cdot\cdot\cdot + pq^n s^{n + 1}\)
Для цілозначного випадку, як і в загальному випадку простого\(Y_i\), ми могли б використовувати mgd. Однак gend, як правило, швидше і ефективніше для цілозначного випадку. Якщо\(q\) це не мало, кількість термінів, необхідних для наближення\(g_n\), швидше за все, буде занадто великою.
Приклад\(\PageIndex{8}\) Approximating the generating function
Нехай\(p = 0.3\) і\(Y\) рівномірно розподілятися по\(\{1, 2, \cdot\cdot\cdot, 10\}\). Визначаємо розподіл для
\(T = \sum_{k = 1}^{N} Y_k\)
Рішення
p = 0.3;
q = 1 - p;
a = [30 35 40]; % Check for suitable n
b = q.^a
b = 1.0e-04 * % Use n = 40
0.2254 0.0379 0.0064
n = 40;
k = 1:n;
gY = 0.1*[0 ones(1,10)];
gN = p*[0 q.^(k-1)]; % Probabilities, 0 <= k <= 40
gend
Do not forget zero coefficients for missing powers
Enter gen fn COEFFICIENTS for gN gN
Enter gen fn COEFFICIENTS for gY gY
Values are in row matrix D; probabilities are in PD.
To view the distribution, call for gD.
sum(PD) % Check sum of probabilities
ans = 1.0000
FD = cumsum(PD); % Distribution function for D
plot(0:100,FD(1:101)) % See Figure 15.2.1
P50 = (D<=50)*PD'
P50 = 0.9497
P30 = (D<=30)*PD'
P30 = 0.8263

Малюнок 15.2.1. Функція розподілу часу виконання\(F_D\).
Ті ж результати можуть бути досягнуті з mgd, хоча і ціною більшої обчислювальної часу. У цьому випадку використовуйте,\(gN\) як у прикладі 15.2.8, але використовуйте фактичний розподіл для\(Y\).
Час прибуття та процеси підрахунку
Припустимо, що у нас є явища, які відбуваються в дискретні моменти часу, розділені випадковим часом очікування або міжприбуття. Це можуть бути прибуття клієнтів у магазин, імпульси шуму на лінії зв'язку, транспортні засоби, що проходять позицію на дорозі, збої системи тощо Ми називаємо ці випадки прибуття і позначаємо час виникнення як час прибуття. Потік прибуття може бути описаний трьома еквівалентними способами.
- Час прибуття:\(\{S_n: 0 \le n\}\), з\(0 = S_0 < S_1 < \cdot\cdot\cdot\) a.s (основна послідовність)
- Час міжприбуття:\(\{W_i: 1 \le i\}\), з кожним\(W_i > 0\) a.s (інкрементна послідовність)
Суворі нерівності мають на увазі, що з ймовірністю не відбувається одночасних заїздів. Відносини між двома послідовностями просто
\(S_0 = 0\),\(S_n = \sum_{i = 1}^{n} W_i\) і\(W_n = S_n - S_{n - 1}\) для всіх\(n \ge 1\)
Формулювання вказує на істотну еквівалентність проблеми з проблемою складного попиту. Позначення та термінологія змінюються відповідно до тих, які зазвичай використовуються при лікуванні процесів прибуття та підрахунку.
Потік прибуття можна описати третім способом.
- Процеси підрахунку:\(N_t = N(t)\) це кількість прибуття в часовому періоді\((0, t]\). Повинно бути зрозуміло, що це випадкова величина для кожного невід'ємного\(t\). Для\(t, \omega\) заданого значення є\(N (t, \omega)\). Таке сімейство випадкових величин становить випадковий процес. У цьому випадку випадковий процес є процесом підрахунку.
Таким чином, ми маємо три еквівалентних опису для потоку прибуття.
\(\{S_n: 0 \le n\}\)\(\{W_n: 1 \le n\}\)\(\{N_t: 0 \le t\}\)
Слід зазначити кілька властивостей процесу\(N\) підрахунку:
\(N(t + h) - N(t)\) підраховує прибуття в інтервалі\((t, t + h]\)\(h > 0\), так що\(N(t + h) \ge N(t)\) для\(h > 0\).
\(N_0 = 0\)і для\(t >0\) нас є
\(N_t = \sum_{i = 1}^{\infty} I_{(0, t]} (S_i) = \text{max } \{n: S_n \le t\} = \text{min } \{n: S_{n + 1} > t\}\)
Для будь-якого заданого\(\omega\),\(N(\cdot, \omega)\) є неспадною, право-неперервна цілозначна функція,\([0, \infty)\) визначена на, з\(N(0, \omega) = 0\).
Істотні зв'язки між трьома способами опису потоку прибуття відображаються в
\(W_n = S_n - S_{n - 1}\),\(\{N_t \ge n\} = \{S_n \le t\}\),\(\{N_t = n\} = \{S_n \le t < S_{n + 1}\}\)
Це має на увазі
\(P(N_t = n) = P(S_n \le t) - P(S_{n + 1} \le t) = P(S_{n + 1} > t) - P(S_n > t)\)
Хоча існує багато можливостей для розподілу часу міжприбуття, ми припускаємо
\(\{W_i: 1 \le i\}\)це iid, з\(W_i > 0\) a.s.
За таких припущень процес підрахунку часто називають процесом поновлення, а проміжні часи називаються часом поновлення. У літературі про процеси оновлення зазвичай випадкова величина підраховує прибуття в\(t = 0\). Це вимагає коригування виразів, що стосуються\(N_t\) і\(S_i\). Використовуємо конвенцію вище.
Експоненціальний час міжприбуття iid
Випадок експоненціального часу міжприбуття є природним у багатьох додатках і призводить до важливих математичних результатів. Ми використовуємо наступні пропозиції про час прибуття\(S_n\), час\(W_i\) прибуття та процес підрахунку\(N\).
Якщо\(\{W_i: 1 \le i\}\) iid експоненціальна (\(\lambda\)), то\(S_n\) ~ гамма\((n, \lambda)\) для всіх\(n \ge 1\). Це відпрацьовано в блоці з МЕТОДІВ ПЕРЕТВОРЕННЯ, при обговоренні зв'язку між гамма-розподілом і експоненціальним розподілом.
\(S_n\)~ гамма\((n, \lambda)\) для всіх\(n \ge 1\), і\(S_0 = 0\), iff\(N_t\) ~\((\lambda t)\) Пуассона для всіх\(t > 0\). Це випливає результат в одиниці РОЗПОДІЛУ APPROXIMATIONS на зв'язок між розподілами Пуассона і гамма, поряд з тим, що\(\{N_t \ge n\} = \{S_n \le t\}\).
Зауваження. Процес підрахунку - це процес Пуассона в тому сенсі, що\(N_t\) ~ Пуассона (\(\lambda t\)) для всіх\(t > 0\). Більш просунуті методи лікування показують, що процес має самостійні, стаціонарні прирости. Тобто
\(N(t + h) - N(t) = N(h)\)для всіх\(t, h > 0\), і
For\(t_1 < t_2 \le t_3 < t_4 \le \cdot\cdot\cdot \le t_{m - 1} < t_m\), клас\(\{N(t_2) - N(N_1), N(t_4) - N(t_3), \cdot\cdot\cdot, N(t_m) - N(t_{m -1})\}\) незалежний.
Словами, кількість заїздів в будь-якому часовому інтервалі залежить від довжини інтервалу, а не від його розташування в часі, а числа прибуття в неперемежовуваних часових інтервалах незалежні.
Приклад\(\PageIndex{9}\) Emergency calls
Екстрені виклики надходять на поліцейський розподільний щит з часом прибуття (у годині) експоненціальним (15). Таким чином, середній час прибуття становить 1/15 години (чотири хвилини). Яка ймовірність кількості дзвінків у восьмигодинну зміну не більше 100, 120, 140?
p = 1 - cpoisson(8*15,[101 121 141]) p = 0.0347 0.5243 0.9669
Далі ми розробляємо простий обчислювальний результат для процесів прибуття, для яких\(S_n\) ~ гамма\((n, \lambda)\)
Приклад\(\PageIndex{10}\) Gamma arrival times
Припустимо, час прибуття\(S_n\) ~ gamma (\(n, \lambda\)) і\(g\) є таким, що
\(\int_{0}^{\infty} |g| < \infty\)і\(E[\sum_{n = 1}^{\infty} |g(S_n)|] < \infty\)
Тоді
\(E[\sum_{n = 1}^{\infty} g(S_n)] = \lambda \int_{0}^{\infty} g\)
ПЕРЕВІРКА
Ми використовуємо властивість лічильних сум (E8b) для очікування та відповідну властивість для інтегралів для твердження
\(E[\sum_{n = 1}^{\infty} g(S_n)] = \sum_{n = 1}^{\infty} E[g(S_n)] = \sum_{n = 1}^{\infty} \int_{0}^{\infty} g(t) f_n (t)\ dt\)де\(f_n (t) = \dfrac{\lambda e^{-\lambda t} (\lambda t)^{n - 1}}{(n - 1)!}\)
Ми можемо застосувати (E8b), щоб стверджувати
\(\sum_{n = 1}^{\infty} \int_{0}^{\infty} gf_n = \int_{0}^{\infty} g \sum_{n = 1}^{\infty} f_n\)
Так як
\(\sum_{n = 1}^{\infty} f_n (t) = \lambda e^{-\lambda t} \sum_{n = 1}^{\infty} \dfrac{(\lambda t)^{n - 1}}{(n - 1)!} = \lambda e^{-\lambda t} e^{\lambda t} = \lambda\)
пропозиція встановлюється.
Приклад\(\PageIndex{11}\) Discounted replacement costs
Критична одиниця у виробничій системі має експоненціальну тривалість життя\((\lambda)\). При виході з ладу агрегат відразу замінюється аналогічним блоком. Агрегати виходять з ладу самостійно. Вартість заміни одиниці становить c доларами. Якщо гроші дисконтуються за курсом\(\alpha\), то долар, витрачений t одиниць часу в майбутньому, має поточне значення\(e^{\alpha t}\). Якщо час\(S_n\) заміни\(n\) го блоку, то\(S_n\) ~ гамма\((n, \lambda)\) і теперішнє значення всіх майбутніх замін дорівнює
\(C = \sum_{n = 1}^{\infty} ce^{-\alpha S_n}\)
Очікувана вартість заміни
\(E[C] = E[\sum_{n =1}^{\infty} g(S_n)]\)де\(g(t) = ce^{-\infty}\)
Звідси
\(E[C] = \lambda \int_{0}^{\infty} ce^{-\alpha t} \ dt = \dfrac{\lambda c}{\alpha}\)
Припустимо вартість заміни агрегату\(c = 1200\), середній час (в роках) до виходу з ладу\(1/\lambda = 1/4\), і ставка дисконтування за рік\(\alpha = 0.08\) (вісім відсотків). Тоді
\(E[C] = \dfrac{1200 \cdot 4}{0.08} = 60,000\)
Приклад\(\PageIndex{12}\) Random costs
Припустимо, вартість\(n\) заміни у прикладі 15.2.11 - випадкова величина\(C_n\), з\(\{C_n, S_n\}\) незалежним і\(E[C_n] = c\), інваріантним с\(n\). Тоді
\(E[C] = E[\sum_{n = 1}^{\infty} C_n e^{-\alpha S_n}] = \sum_{n = 1}^{\infty} E[C_n] E[e^{-\alpha S_n}] = \sum_{n = 1}^{\infty} cE[e^{-\alpha S_n}] = \dfrac{\lambda c}{\alpha}\)
Аналіз до цього моменту передбачає, що процес буде тривати нескінченно в майбутньому. Найчастіше бажано планувати на конкретний, кінцевий період. Результат Прикладу 15.2.10 може бути легко змінений для обліку кінцевого періоду, який часто називають скінченним горизонтом.
Приклад\(\PageIndex{13}\) Finite horizon
За умов, прийнятих в прикладі 15.2.10, вище, нехай\(N_t\) буде обчислювальна випадкова величина для надходжень в інтервал\((0, t]\).
Якщо\(Z_t = \sum_{n = 1}^{N_t} g(S_n)\), то\(E[Z_t] = \lambda \int_{0}^{t} g(u)\ du\)
ПЕРЕВІРКА
Починаючи з\(N_t \ge n\) іфф\(S_n \le t\). \(\sum_{n = 1}^{N_t} g(S_n) = \sum_{n = 0}^{\infty} I_{(0, t]} (S_n) g(S_n)\). У результаті Прикладу 15.2.10 замініть\(g\) на\(I_{(0, t]} g\) і зауважте, що
\(\int_{0}^{\infty} I_{(0, t]} (u) g(u)\ du = \int_{0}^{t} g(u)\ du\)
Приклад\(\PageIndex{14}\) Replacement costs, finite horizon
За умови Прикладу 15.2.11 розгляньте витрати на заміну протягом дворічного періоду.
Рішення
\(E[C] = \lambda c\int_{0}^{t} e^{-\alpha u} \ du = \dfrac{\lambda c}{\alpha} (1 - e^{-\alpha t})\)
Таким чином, очікувана вартість для нескінченного горизонту\(\lambda c/ \alpha\) знижується в рази\(1 - e^{-\alpha t}\). Для\(t = 2\) і числа в прикладі 15.2.11, коефіцієнт зменшення\(1 - e^{-0.16} = 0.1479\) повинен дати\(E[C] = 60000 \cdot 0.1479 = 8871.37\).
У важливому особливому випадку\(g(u) = ce^{-\alpha u}\), що, експозиція для\(E[\sum_{n = 1}^{\infty} g(S_n)]\) може бути введена у форму, яка не вимагає, щоб час міжприбуття був експоненціальним.
Приклад\(\PageIndex{15}\) General interarrival, exponential g
Припустимо\(S_0 = 0\) і\(S_n = \sum_{i = 1}^{n} W_i\), де\(\{W_i: 1 \le i\}\) знаходиться iid. \(\{V_n: 1 \le n\}\)Дозволяти клас такий, що кожна\(E[V_n] = c\) пара\(\{V_n ,S_n\}\) незалежна. Тоді для\(\alpha > 0\)
\(E[C] = E[\sum_{n = 1}^{\infty} V_n e^{-\alpha S_n}] = c \cdot \dfrac{M_W (-\alpha)}{1 - M_W (-\alpha)}\)
де\(M_W\) - функція генерування моменту для\(W\).
ВИВЕДЕННЯМ
Спочатку відзначимо, що
\(E[V_n e^{-\alpha S_n}] = cM_{S_n} (-\alpha) = cM_W^n (-\alpha)\)
Звідси, за властивостями очікування і геометричного ряду
\(E[C] = c \sum_{n =1}^{\infty} M_W^n (- \alpha) = \dfrac{M_W (-\alpha)}{1 - M_W (-\alpha)}\), за умови\(|M_W (-\alpha)| < 1\)
Так як\(\alpha > 0\) і\(W > 0\), у нас\(0 < e^{-\alpha W} < 1\), так що\(M_W (-\alpha) = E[e^{-\alpha W}] < 1\)
Приклад\(\PageIndex{16}\) Uniformly distributed interarrival times
Припустимо, кожен\(W_i\) ~ рівномірний\((a, b)\). Потім (див. Додаток С)
\(M_W (-\alpha) = \dfrac{e^{-a \alpha} - e^{-b \alpha}}{\alpha (b - a)}\)щоб\(E[C] = c \cdot \dfrac{e^{-a \alpha} - e^{-b \alpha}}{\alpha (b - a) - [e^{-a \alpha} - e^{-b \alpha}]}\)
Нехай\(a = 1\),\(b = 5\),\(c = 100\) і\(\alpha = 0\). Потім,
a = 1; b = 5; c = 100; A = 0.08; MW = (exp(-a*A) - exp(-b*A))/(A*(b - a)) MW = 0.7900 EC = c*MW/(1 - MW) EC = 376.1643
