7.2: Наближення розподілу
Біноміальні, Пуассонові, гамма-та Гауссонові розподіли
Наближення Пуассона до біноміального розподілу
Наступне наближення є класичним. Бажаємо показати, що для маленькихp і досить великихn
P(X=k)=C(n,k)pk(1−p)n−k≈e−npnpk!
Припустимо,p=μ/n зn великими іμ/n<1. Потім,
P(X=k)=C(n,k)(μ/n)k(1−μ/n)n−k=n(n−1)⋅⋅⋅(n−k+1)nk(1−μn)−k(1−μn)nμkk!
Перший фактор в останньому виразі - це відношення многочленів вn однаковому ступеніk, яке повинно наближатися до одиниці, оскількиn стає великим. Другий фактор наближається до одного, оскількиn стає великим. За добре відомою властивістю експоненціального
(1−μn)n→e−μ
якn→∞.
В результаті виходить, що для великихnP(X=k)≈e−μμkk!, деμ=np.
Розподіли Пуассона та Гамма
Припустимо,Y Пуассон (λt). ТеперX гамма (α,λ) iff
P(X≤t)=λαΓ(α)∫10xα−1e−λx dx=1Γ(α)∫t0(λx)α−1eλxd(λx)=1Γ(α)∫λt0uα−1e−μ du
Відомим певним інтегралом, отриманим шляхом інтеграції частинами, є
int∞αtn−1e−tdt=Γ(n)e−an−1∑k=1akk!
сΓ(n)=(n−1)!.
Відзначивши, що1=e−aea=e−a∑∞k=0akk! ми знаходимо після деякої простої алгебри, що
1Γ(n)∫a0tn−1e−t dt=e−a∞∑k=nakk!
Дляa=λt іα=n, ми маємо наступну рівність iffX gamma (α,λ)
P(X≤t)=1Γ(n)∫λt0un−1d−u du=e−λt∞∑k=n(λt)kk!
Зараз
P(Y≥n)=e−λt∞∑k=n(λt)kk!
ЛіффY Пуассон (мλt.
Гаусове (нормальне) наближення
Центральна гранична теорема, про яку йдеться в обговоренні гауссового або нормального розподілу вище, говорить про те, що біноміальний і Пуассоновий розподіли повинні бути наближені гаусовим. Число успіхів у n випробуваннях має біноміальний (n, p) розподіл. Ця випадкова величина може бути виражена
X=n∑i=1IEi
Оскільки середнє значенняX isnp і дисперсія єnpq, розподіл повинен бути приблизноN(np,npq).

Використання генеруючої функції показує, що сума незалежних випадкових величин Пуассона дорівнює Пуассону. Тепер якщоX )Poisson(\(μ), то можнаX вважати сумуn незалежних випадкових величин, кожна Пуассона (μ/n). Оскільки середнє значення і дисперсія обидваμ, розумно припустити, щоX це приблизноN(μ,μ).
Як правило, найкраще порівнювати функції розподілу. Оскільки біноміальний і Пуассоновий розподіли є цілозначними, то виходить, що найкраще гаусове наближення виходить шляхом внесення «корекції неперервності». Щоб отримати наближення до щільності для цілозначної випадкової величини, ймовірність att=k представлена прямокутником висотиpk та одиничної шириниk, з середньою точкою. На малюнку 1 показаний графік «щільності» і відповідної густини Гаусса дляn=300,p=0.1. Очевидно, що гаусова щільність компенсується приблизно на 1/2. Щоб наблизити ймовірністьX≤k, візьміть площу під кривою відk + 1/2; це називається корекцією неперервності.
Використання m-процедур для порівняння
У нас є дві m-процедури, щоб зробити порівняння. Спочатку розглянемо наближення

Малюнок 7.2.9. Гауссова апроксимація до функції розподілу Пуассонаμ = 10.

Розподіл Пуассона (μ). m-процедура poissapp викликає значенняμ, вибирає відповідний діапазон проk=μ та відображає функцію розподілу для розподілу Пуассона (сходи) та нормального (Гаусового) розподілу (крапка тире) дляN(μ,μ). Крім того, корекція неперервності застосовується до гаусового розподілу при цілочисельних значеннях (колах). На малюнку 7.2.10 показані ділянки дляμ = 10. Зрозуміло, що корекція безперервності забезпечує набагато краще наближення. Ділянки на малюнку 7.2.11 призначені дляμ = 100. Тут корекція безперервності забезпечує краще наближення, але не стільки, скільки для меншогоμ.


У m-процедурі bincomp порівнюються біноміальні, гаусові та Пуассонові розподіли. Викликає значенняn іp, вибирає відповідніk значення та будує функцію розподілу для біноміала, безперервне наближення до функції розподілу для Пуассона, а також неперервність скоригованих значень функції розподілу за цілими значеннями. На малюнку 7.2.11 показані ділянки дляn=1000,p=0.03. Хороша згода всіх трьох функцій розподілу очевидна. На малюнку 7.2.12 показані ділянки дляn=50,p=0.6. Існує ще хороша узгодження біноміального та скоригованого гаусса. Однак розподіл Пуассона відстежує не дуже добре. Складність, як ми бачимо в одиниці дисперсії, полягає в різниці в deparances—npq для біноміального порівняно зnp для Пуассона.
Наближення дійсної випадкової величини простими випадковими величинами
Прості випадкові величини відіграють значну роль, як в теорії, так і в додатках. В одиниці Випадкові величини ми покажемо, як визначається проста випадкова величина множиною точок на дійсній лінії, що представляють можливі значення і відповідний набір ймовірностей, за якими береться кожне з цих значень. Це описує розподіл випадкової величини і робить можливим обчислення ймовірностей подій і параметрів розподілу.
Безперервна випадкова величина характеризується сукупністю можливих значень, що поширюються безперервно по інтервалу або сукупності інтервалів. У цьому випадку ймовірність також поширюється плавно. Розподіл описується функцією щільності ймовірності, значення якої в будь-якій точці вказує «ймовірність на одиницю довжини» поблизу точки. Просте наближення отримують шляхом поділу інтервалу, який включає діапазон (набір можливих значень) на досить малі підінтервали, щоб щільність була приблизно постійною над кожним підінтервалом. Вибирається точка в кожному підінтервалі і присвоюється маса ймовірності в його підінтервалі. Поєднання обраних точок і відповідних ймовірностей описує розподіл апроксимуючої простої випадкової величини. Розрахунки, засновані на цьому розподілі, наближені відповідні розрахунки на безперервний розподіл.
Перш ніж розглядати загальну процедуру наближення, яка має значні наслідки для подальшого лікування, розглянемо кілька наочних прикладів.
Приклад7.2.10: Simple approximation to Poisson
Випадкова величина з розподілом Пуассона необмежена. Однак для даного значення параметра μ ймовірність для,n досить великаk≥n, мізерно мала. Експеримент вказуєn=μ+6√μ (тобто шість стандартних відхилень понад середнє) є розумним значенням для5≤μ≤200.
Рішення
>> mu = [5 10 20 30 40 50 70 100 150 200]; >> K = zeros(1,length(mu)); >> p = zeros(1,length(mu)); >> for i = 1:length(mu) K(i) = floor(mu(i)+ 6*sqrt(mu(i))); p(i) = cpoisson(mu(i),K(i)); end >> disp([mu;K;p*1e6]') 5.0000 18.0000 5.4163 % Residual probabilities are 0.000001 10.0000 28.0000 2.2535 % times the numbers in the last column. 20.0000 46.0000 0.4540 % K is the value of k needed to achieve 30.0000 62.0000 0.2140 % the residual shown. 40.0000 77.0000 0.1354 50.0000 92.0000 0.0668 70.0000 120.0000 0.0359 100.0000 160.0000 0.0205 150.0000 223.0000 0.0159 200.0000 284.0000 0.0133
M-процедура дискретного наближення
ЯкщоX обмежена, абсолютно неперервна з функцією щільностіfX, m-процедура tappr встановлює розподіл для апроксимуючої простої випадкової величини. Інтервал, що містить діапазонX, ділиться на задану кількість рівних підрозділів. Маса ймовірності для кожного підінтервалу присвоюється середній точці. Якщоdx довжина підінтервалів, то інтеграл функції щільності над підінтервалом наближається доfX(ti)dx. деti - середина. По суті, графік щільності над підінтервалом наближається прямокутником довжиниdx і висотиfX(ti). Після встановлення апроксимуючого простого розподілу проводяться обчислення, як для простих випадкових величин.
Приклад7.2.11: a numerical example
ПрипустимоfX(t)=3t2,0≤t≤1. ВизначтеP(0.2≤X≤0.9).
Рішення
В цьому випадку аналітичне рішення легко. FX(t)=t3на інтервалі [0, 1], так
P=0.93−0.23=0.7210. Використовуємо таппр наступним чином.
>> tappr Enter matrix [a b] of x-range endpoints [0 1] Enter number of x approximation points 200 Enter density as a function of t 3*t.^2 Use row matrices X and PX as in the simple case >> M = (X >= 0.2)&(X <= 0.9); >> p = M*PX' p = 0.7210
Через регулярності щільності і кількості точок наближення результат цілком добре узгоджується з теоретичним значенням.
Наступний приклад - більш складний. Зокрема, розподіл не обмежений. Однак легко визначити межу, за якою ймовірність мізерно мала.

Малюнок 7.2.13. Функція розподілу для Приклад 7.2.12.
Приклад7.2.12: Radial tire mileage
Термін служби (в милі) певної марки радіальних шин може бути представлений випадковою величиноюX з щільністю
fX(t)={t2/a3for 0≤t<a(b/a)e−k(t−a)for a≤t
деa=40,000,b=20/3, іk=1/4000. ВизначтеP(X≥45,000.
>> a = 40000; >> b = 20/3; >> k = 1/4000; >> % Test shows cutoff point of 80000 should be satisfactory >> tappr Enter matrix [a b] of x-range endpoints [0 80000] Enter number of x approximation points 80000/20 Enter density as a function of t (t.^2/a^3).*(t < 40000) + ... (b/a)*exp(k*(a-t)).*(t >= 40000) Use row matrices X and PX as in the simple case >> P = (X >= 45000)*PX' P = 0.1910 % Theoretical value = (2/3)exp(-5/4) = 0.191003 >> cdbn Enter row matrix of VALUES X Enter row matrix of PROBABILITIES PX % See Figure 7.2.14 for plot
В даному випадку ми використовуємо досить велику кількість точок наближення. Як наслідок, результати виходять досить точними. У випадку з однією змінною позначення великої кількості апроксимуючих точок зазвичай не викликає проблем з пам'яттю комп'ютера.
Загальна процедура наближення
Тепер ми покажемо, що будь-яка обмежена дійсна випадкова величина може бути наближена так близько, як потрібно, простою випадковою величиною (тобто такою, що має скінченний набір можливих значень). Для необмеженого випадку наближення є близьким, за винятком частини діапазону, що має довільно малу загальну ймовірність.
Обмежуємо наше обговорення обмеженим випадком, в якому діапазонX обмежений інтерваломI=[a,b]. Припустимо,I розділений наn підінтервали точкамиti1≤i≤n−1, зa=t0 іb=tn. Mi=[ti−1,ti)Дозволяти будеi й підінтервал,1≤i≤n−1 іMn=[tn−1,tn] (див. Рис. 7.14). Тепер випадкова величинаX може відображатися в будь-якій точці інтервалу, а отже, і в будь-яку точку в кожному підінтерваліMi. EiX−1(Mi)Дозволяти бути безліч точок, відображених вMi поX. ПотімEi формують перегородку з основного просторуΩ. Для даного підрозділу формуємо просту випадкову величинуXs наступним чином. У кожному субінтервалі виберіть точкуsi,ti−1≤si≤ti. Розглянемо просту випадкову величинуXs=∑ni=1siIEi.


Ця випадкова величина знаходиться в канонічній формі. Якщоω∈Ei, тоX(ω)∈Mi іXs(ω)=si. Тепер абсолютне значення різниці задовольняє
|X(ω)−Xs(ω)|<ti−ti−1довжина субінтервалуMi
Оскільки це справедливо для кожногоω і відповідного субінтервалу, у нас є важливий факт
|X(ω)−Xs(ω)|<максимальна довжинаMi
Зробивши підінтервали досить малими, збільшивши кількість точок поділу, ми можемо зробити різницю настільки маленькою, наскільки нам заманеться.
У той час як вибірsi довільний у кожномуMi, вибірsi=ti−1 (ліва кінцева точка) призводить до властивостіXs(ω)≤X(ω)∀ω. У цьому випадку, якщо ми додамо точки поділу, щоб зменшити розмір деяких або всіхMi, нове просте наближенняYs задовольняє
Xs(ω)=Ys(ω)≤X(ω)∀ω
Щоб переконатися в цьому, розглянемоt∗i∈Mi (див. Рис. Miрозділений на розділиM′i⋃M″i іEi розділяється наE′i⋃E″i. XкартиE′i вM′i іE″i вM″i. YsкартиE′i вti і картиE″it″i в> t_i\). Xsкарти як, такE′i іE″i вti. Таким чином, стверджувана нерівність повинна триматися для кожногоω Беручи послідовність розділів, в яких кожен наступний розділ уточнює попередній (тобто додає точки поділу) таким чином, що максимальна довжина підінтервалу йде до нуля, ми можемо сформувати незменшувану послідовність простих випадкових величин Xnякі збільшуютьсяX для кожногоω.
Останній результат може бути поширений на випадкові величини, необмежені вище. Просто дозвольтеN множині точок підрозділу поширюватися відa доN, зробивши останній підінтервал[N,∞). Субінтервали відa доN робляться все коротше. Результатом є неспадна{XN:1≤N} послідовність простих випадкових величин, зXN(ω)→X(ω) asN→∞, для кожноїω∈Ω.
Для обчислень ймовірності ми просто вибираємо інтервал, доситьI великий, щоб ймовірність зовніI була незначною, і використовуємо просте наближенняI.