Loading [MathJax]/jax/output/HTML-CSS/jax.js
Skip to main content
LibreTexts - Ukrayinska

7.2: Наближення розподілу

Біноміальні, Пуассонові, гамма-та Гауссонові розподіли

Наближення Пуассона до біноміального розподілу

Наступне наближення є класичним. Бажаємо показати, що для маленькихp і досить великихn

P(X=k)=C(n,k)pk(1p)nkenpnpk!

Припустимо,p=μ/n зn великими іμ/n<1. Потім,

P(X=k)=C(n,k)(μ/n)k(1μ/n)nk=n(n1)(nk+1)nk(1μn)k(1μn)nμkk!

Перший фактор в останньому виразі - це відношення многочленів вn однаковому ступеніk, яке повинно наближатися до одиниці, оскількиn стає великим. Другий фактор наближається до одного, оскількиn стає великим. За добре відомою властивістю експоненціального

(1μn)neμ

якn.

В результаті виходить, що для великихnP(X=k)eμμkk!, деμ=np.

Розподіли Пуассона та Гамма

Припустимо,Y  Пуассон (λt). ТеперX  гамма (α,λ) iff

P(Xt)=λαΓ(α)10xα1eλx dx=1Γ(α)t0(λx)α1eλxd(λx)=1Γ(α)λt0uα1eμ du

Відомим певним інтегралом, отриманим шляхом інтеграції частинами, є

intαtn1etdt=Γ(n)ean1k=1akk!

сΓ(n)=(n1)!.

Відзначивши, що1=eaea=eak=0akk! ми знаходимо після деякої простої алгебри, що

1Γ(n)a0tn1et dt=eak=nakk!

Дляa=λt іα=n, ми маємо наступну рівність iffX  gamma (α,λ)

P(Xt)=1Γ(n)λt0un1du du=eλtk=n(λt)kk!

Зараз

P(Yn)=eλtk=n(λt)kk!

ЛіффY  Пуассон (мλt.

Гаусове (нормальне) наближення

Центральна гранична теорема, про яку йдеться в обговоренні гауссового або нормального розподілу вище, говорить про те, що біноміальний і Пуассоновий розподіли повинні бути наближені гаусовим. Число успіхів у n випробуваннях має біноміальний (n, p) розподіл. Ця випадкова величина може бути виражена

X=ni=1IEi

Оскільки середнє значенняX isnp і дисперсія єnpq, розподіл повинен бути приблизноN(np,npq).

Малюнок 7.2.8. Гауссова апроксимація до біноміалу.

Використання генеруючої функції показує, що сума незалежних випадкових величин Пуассона дорівнює Пуассону. Тепер якщоX )Poisson(\(μ), то можнаX вважати сумуn незалежних випадкових величин, кожна Пуассона (μ/n). Оскільки середнє значення і дисперсія обидваμ, розумно припустити, щоX це приблизноN(μ,μ).

Як правило, найкраще порівнювати функції розподілу. Оскільки біноміальний і Пуассоновий розподіли є цілозначними, то виходить, що найкраще гаусове наближення виходить шляхом внесення «корекції неперервності». Щоб отримати наближення до щільності для цілозначної випадкової величини, ймовірність att=k представлена прямокутником висотиpk та одиничної шириниk, з середньою точкою. На малюнку 1 показаний графік «щільності» і відповідної густини Гаусса дляn=300,p=0.1. Очевидно, що гаусова щільність компенсується приблизно на 1/2. Щоб наблизити ймовірністьXk, візьміть площу під кривою відk + 1/2; це називається корекцією неперервності.

Використання m-процедур для порівняння

У нас є дві m-процедури, щоб зробити порівняння. Спочатку розглянемо наближення

Малюнок 7.2.9. Гауссова апроксимація до функції розподілу Пуассонаμ = 10.

Малюнок 7.2.10. Гауссова апроксимація до функції розподілу Пуассонаμ = 100.

Розподіл Пуассона (μ). m-процедура poissapp викликає значенняμ, вибирає відповідний діапазон проk=μ та відображає функцію розподілу для розподілу Пуассона (сходи) та нормального (Гаусового) розподілу (крапка тире) дляN(μ,μ). Крім того, корекція неперервності застосовується до гаусового розподілу при цілочисельних значеннях (колах). На малюнку 7.2.10 показані ділянки дляμ = 10. Зрозуміло, що корекція безперервності забезпечує набагато краще наближення. Ділянки на малюнку 7.2.11 призначені дляμ = 100. Тут корекція безперервності забезпечує краще наближення, але не стільки, скільки для меншогоμ.

Малюнок 7.2.11. Пуассона і Гаусса наближення до біноміалу:n = 1000,p = 0,03.
Малюнок 7.2.12. Пуассона і Гаусса наближення до біноміалу:n = 50,p = 0,6.

У m-процедурі bincomp порівнюються біноміальні, гаусові та Пуассонові розподіли. Викликає значенняn іp, вибирає відповідніk значення та будує функцію розподілу для біноміала, безперервне наближення до функції розподілу для Пуассона, а також неперервність скоригованих значень функції розподілу за цілими значеннями. На малюнку 7.2.11 показані ділянки дляn=1000,p=0.03. Хороша згода всіх трьох функцій розподілу очевидна. На малюнку 7.2.12 показані ділянки дляn=50,p=0.6. Існує ще хороша узгодження біноміального та скоригованого гаусса. Однак розподіл Пуассона відстежує не дуже добре. Складність, як ми бачимо в одиниці дисперсії, полягає в різниці в deparances—npq для біноміального порівняно зnp для Пуассона.

Наближення дійсної випадкової величини простими випадковими величинами

Прості випадкові величини відіграють значну роль, як в теорії, так і в додатках. В одиниці Випадкові величини ми покажемо, як визначається проста випадкова величина множиною точок на дійсній лінії, що представляють можливі значення і відповідний набір ймовірностей, за якими береться кожне з цих значень. Це описує розподіл випадкової величини і робить можливим обчислення ймовірностей подій і параметрів розподілу.

Безперервна випадкова величина характеризується сукупністю можливих значень, що поширюються безперервно по інтервалу або сукупності інтервалів. У цьому випадку ймовірність також поширюється плавно. Розподіл описується функцією щільності ймовірності, значення якої в будь-якій точці вказує «ймовірність на одиницю довжини» поблизу точки. Просте наближення отримують шляхом поділу інтервалу, який включає діапазон (набір можливих значень) на досить малі підінтервали, щоб щільність була приблизно постійною над кожним підінтервалом. Вибирається точка в кожному підінтервалі і присвоюється маса ймовірності в його підінтервалі. Поєднання обраних точок і відповідних ймовірностей описує розподіл апроксимуючої простої випадкової величини. Розрахунки, засновані на цьому розподілі, наближені відповідні розрахунки на безперервний розподіл.

Перш ніж розглядати загальну процедуру наближення, яка має значні наслідки для подальшого лікування, розглянемо кілька наочних прикладів.

Приклад7.2.10: Simple approximation to Poisson

Випадкова величина з розподілом Пуассона необмежена. Однак для даного значення параметра μ ймовірність для,n досить великаkn, мізерно мала. Експеримент вказуєn=μ+6μ (тобто шість стандартних відхилень понад середнє) є розумним значенням для5μ200.

Рішення

>> mu = [5 10 20 30 40 50 70 100 150 200];
>> K = zeros(1,length(mu));
>> p = zeros(1,length(mu));
>> for i = 1:length(mu)
     K(i) = floor(mu(i)+ 6*sqrt(mu(i)));
     p(i) = cpoisson(mu(i),K(i));
end
>> disp([mu;K;p*1e6]')
    5.0000   18.0000    5.4163  % Residual probabilities are 0.000001
   10.0000   28.0000    2.2535  % times the numbers in the last column.
   20.0000   46.0000    0.4540  % K is the value of k needed to achieve
   30.0000   62.0000    0.2140  % the residual shown.
   40.0000   77.0000    0.1354  
   50.0000   92.0000    0.0668
   70.0000  120.0000    0.0359
  100.0000  160.0000    0.0205
  150.0000  223.0000    0.0159
  200.0000  284.0000    0.0133

M-процедура дискретного наближення

ЯкщоX обмежена, абсолютно неперервна з функцією щільностіfX, m-процедура tappr встановлює розподіл для апроксимуючої простої випадкової величини. Інтервал, що містить діапазонX, ділиться на задану кількість рівних підрозділів. Маса ймовірності для кожного підінтервалу присвоюється середній точці. Якщоdx довжина підінтервалів, то інтеграл функції щільності над підінтервалом наближається доfX(ti)dx. деti - середина. По суті, графік щільності над підінтервалом наближається прямокутником довжиниdx і висотиfX(ti). Після встановлення апроксимуючого простого розподілу проводяться обчислення, як для простих випадкових величин.

Приклад7.2.11: a numerical example

ПрипустимоfX(t)=3t2,0t1. ВизначтеP(0.2X0.9).

Рішення

В цьому випадку аналітичне рішення легко. FX(t)=t3на інтервалі [0, 1], так

P=0.930.23=0.7210. Використовуємо таппр наступним чином.

>> tappr
Enter matrix [a b] of x-range endpoints  [0 1]
Enter number of x approximation points  200
Enter density as a function of t  3*t.^2
Use row matrices X and PX as in the simple case
>> M = (X >= 0.2)&(X <= 0.9);
>> p = M*PX'
p  =  0.7210

Через регулярності щільності і кількості точок наближення результат цілком добре узгоджується з теоретичним значенням.

Наступний приклад - більш складний. Зокрема, розподіл не обмежений. Однак легко визначити межу, за якою ймовірність мізерно мала.

Малюнок 7.2.13. Функція розподілу для Приклад 7.2.12.

Приклад7.2.12: Radial tire mileage

Термін служби (в милі) певної марки радіальних шин може бути представлений випадковою величиноюX з щільністю

fX(t)={t2/a3for  0t<a(b/a)ek(ta)for  at

деa=40,000,b=20/3, іk=1/4000. ВизначтеP(X45,000.

>> a = 40000;
>> b = 20/3;
>> k = 1/4000;
>> % Test shows cutoff point of 80000 should be satisfactory
>> tappr
Enter matrix [a b] of x-range endpoints  [0 80000]
Enter number of x approximation points  80000/20
Enter density as a function of t  (t.^2/a^3).*(t < 40000) + ...
(b/a)*exp(k*(a-t)).*(t >= 40000)
Use row matrices X and PX as in the simple case
>> P = (X >= 45000)*PX'
P   =  0.1910             % Theoretical value = (2/3)exp(-5/4) = 0.191003
>> cdbn
Enter row matrix of VALUES  X
Enter row matrix of PROBABILITIES  PX  % See Figure 7.2.14 for plot

В даному випадку ми використовуємо досить велику кількість точок наближення. Як наслідок, результати виходять досить точними. У випадку з однією змінною позначення великої кількості апроксимуючих точок зазвичай не викликає проблем з пам'яттю комп'ютера.

Загальна процедура наближення

Тепер ми покажемо, що будь-яка обмежена дійсна випадкова величина може бути наближена так близько, як потрібно, простою випадковою величиною (тобто такою, що має скінченний набір можливих значень). Для необмеженого випадку наближення є близьким, за винятком частини діапазону, що має довільно малу загальну ймовірність.

Обмежуємо наше обговорення обмеженим випадком, в якому діапазонX обмежений інтерваломI=[a,b]. Припустимо,I розділений наn підінтервали точкамиti1in1, зa=t0 іb=tn. Mi=[ti1,ti)Дозволяти будеi й підінтервал,1in1 іMn=[tn1,tn] (див. Рис. 7.14). Тепер випадкова величинаX може відображатися в будь-якій точці інтервалу, а отже, і в будь-яку точку в кожному підінтерваліMi. EiX1(Mi)Дозволяти бути безліч точок, відображених вMi поX. ПотімEi формують перегородку з основного просторуΩ. Для даного підрозділу формуємо просту випадкову величинуXs наступним чином. У кожному субінтервалі виберіть точкуsi,ti1siti. Розглянемо просту випадкову величинуXs=ni=1siIEi.

Малюнок 7.2.14. Розділ інтервалу,I включаючи діапазонX
Малюнок 7.2.15. Доопрацювання перегородки додатковими точками поділу.

Ця випадкова величина знаходиться в канонічній формі. ЯкщоωEi, тоX(ω)Mi іXs(ω)=si. Тепер абсолютне значення різниці задовольняє

|X(ω)Xs(ω)|<titi1довжина субінтервалуMi

Оскільки це справедливо для кожногоω і відповідного субінтервалу, у нас є важливий факт

|X(ω)Xs(ω)|<максимальна довжинаMi

Зробивши підінтервали досить малими, збільшивши кількість точок поділу, ми можемо зробити різницю настільки маленькою, наскільки нам заманеться.

У той час як вибірsi довільний у кожномуMi, вибірsi=ti1 (ліва кінцева точка) призводить до властивостіXs(ω)X(ω)ω. У цьому випадку, якщо ми додамо точки поділу, щоб зменшити розмір деяких або всіхMi, нове просте наближенняYs задовольняє

Xs(ω)=Ys(ω)X(ω)ω

Щоб переконатися в цьому, розглянемоtiMi (див. Рис. Miрозділений на розділиMiMi іEi розділяється наEiEi. XкартиEi вMi іEi вMi. YsкартиEi вti і картиEiti в> t_i\). Xsкарти як, такEi іEi вti. Таким чином, стверджувана нерівність повинна триматися для кожногоω Беручи послідовність розділів, в яких кожен наступний розділ уточнює попередній (тобто додає точки поділу) таким чином, що максимальна довжина підінтервалу йде до нуля, ми можемо сформувати незменшувану послідовність простих випадкових величин Xnякі збільшуютьсяX для кожногоω.

Останній результат може бути поширений на випадкові величини, необмежені вище. Просто дозвольтеN множині точок підрозділу поширюватися відa доN, зробивши останній підінтервал[N,). Субінтервали відa доN робляться все коротше. Результатом є неспадна{XN:1N} послідовність простих випадкових величин, зXN(ω)X(ω) asN, для кожноїωΩ.

Для обчислень ймовірності ми просто вибираємо інтервал, доситьI великий, щоб ймовірність зовніI була незначною, і використовуємо просте наближенняI.