3.1: Умовна ймовірність
Початкова або попередня міра ймовірності використовує всю наявну інформацію для присвоєнняP(A) ймовірностей тощо з урахуванням визначальних умов (P1), (P2) та (P3).P(B) ІмовірністьP(A) вказує на ймовірність того, що подія А відбудеться на будь-якому судовому розгляді.
Нерідко надходить нова інформація, що призводить до переоцінки ймовірності події А. Наприклад
- Проводиться співбесіда з претендентом на роботу керівником сервісного відділу. Його резюме показує адекватний досвід та іншу кваліфікацію. Він веде себе з легкістю і досить чітко виражений у своєму інтерв'ю. Він вважається перспективою з високою ймовірністю успіху. Після співбесіди йде велика перевірка. Його кредитний рейтинг, через безнадійну заборгованість, виявляється досить низьким. З цією інформацією ймовірність того, що він є задовільним кандидатом, кардинально змінюється.
- Молода жінка прагне придбати вживаний автомобіль. Вона знаходить той, який, здається, є відмінною покупкою. Він виглядає «чистим», має розумний пробіг і є надійною моделлю добре відомої марки. Перед покупкою у неї є друг-механік подивитися на нього. Він знаходить докази того, що автомобіль зазнав аварії з можливими пошкодженнями рами, які були відремонтовані. Таким чином, ймовірність того, що автомобіль буде задовільним, значно зменшується.
- Лікар проводить звичайне фізичне обстеження пацієнта в її сімдесяті роки. Вона має кілька зайву вагу. Він підозрює, що вона може бути схильна до проблем з серцем. Потім він виявляє, що вона регулярно займається фізичними вправами, їсть з низьким вмістом жиру, високим вмістом клітковини, варіаційною дієтою і походить з сім'ї, в якій виживання в дев'яності роки є загальним явищем. На основі цієї нової інформації він переоцінює ймовірність виникнення проблем з серцем.
Нова, але часткова інформація визначає обумовлюючу подіюC, яка може потребувати переоцінки ймовірності подіїA. З одного боку, це означає, щоA відбувається, якщоAC відбувається подія. Ефективно це робитьC новий базовий простір. Нова одиниця маси ймовірності єP(C). Як слід робити нові призначення ймовірності? Одна з можливостей полягає в тому, щоб зробити нове присвоєнняA пропорційним ймовірностіP(AC). Ці міркування і досвід роботи з класичним випадком передбачає наступну процедуру перепризначення. Хоча така перепризначення логічно не є необхідною, подальші розробки дають суттєві докази того, що це відповідна процедура.
Визначення
ЯкщоC є навіть, що має позитивну ймовірність, умовна ймовірністьA, данаC дорівнює
P(A|C)=P(AC)P(C)
Для фіксованої подіїC кондиціонування ми маємо нове призначення ймовірності подіїA. Зараз
P(A|C)≥0,P(Ω|C)=1, іP(⋁jAj|C)=P(⋁jAjCP(C)=∑jP(AjC)/P(C)=∑jP(Aj|C)
Таким чином, нова функціяP(⋅|C) задовольняє три визначальні властивості (P1), (P2) і (P3) для ймовірності, так що для фіксованого C ми маємо нову міру ймовірності, з усіма властивостями звичайної міри ймовірності.
Зауваження. Коли миP(A|C) пишемо, ми оцінюємо ймовірність події,A коли відомо, що подіяC сталася. Це не ймовірність умовної подіїA|C. Умовні події не мають ніякого значення в розроблюваної нами моделі.
Приклад3.1.1 Conditional probabilities from joint frequency data
Опитування думки студентів щодо запропонованої національної програми охорони здоров'я включало 250 студентів, з яких 150 були студентами та 100 аспірантами. Їх відповіді були класифіковані Y (ствердно), N (негативний) та D (невизначений або відсутність думки). Результати наведені нижче.
У | П | D | |
У | 60 | 40 | 50 |
Г | 70 | 20 | 10 |
Припустимо, вибірка репрезентативна, тому результати можуть бути прийняті як типові для студентського організму. Студент вибирається навмання. Нехай Y - подія, яку він чи вона сприятливий для плану, N бути подією, яку він або вона несприятлива, а D - подія відсутності думки (або невизначеного). Нехай U бути подією студент є бакалавратом і G бути подією він або вона аспірант. Дані можуть бути розумно інтерпретовані
P(G)=100/250,P(U)=150/250,P(Y)=(60+70)/250P(YU)=60/250, і т.д.
Тоді
P(Y|U)=P(YU)P(U)=60/250150/250=60150
Аналогічно ми можемо обчислити
P(N|U)=40/150,P(D|U)=50/150,P(Y|G)=70/100,P(N|G)=20/100,P(D|G)=10/100
Ми також можемо розраховувати безпосередньо
P(U|Y)=60/130P(G|N)=20/60, і т.д.
Умовна ймовірність часто забезпечує природний спосіб боротьби зі складними випробуваннями, проведеними в кілька етапів.
Приклад3.1.2 Jet aircraft with two engines
Літак має два реактивні двигуни. Він буде літати тільки з одним двигуном, що працює. НехайF1 буде подія одного двигуна виходить з ладу на далекі відстані польоту, а подіяF2 другий виходить з ладу. Досвід свідчить про цеP(F1)=0.0003. Як тільки перший двигун виходить з ладу, додається навантаження на другий, так щоP(F2|F1)=0.001. Тепер другий двигун може вийти з ладу тільки в тому випадку, якщо інший вже вийшов з ладу. ТакимF2⊂F1 чином, щоб
P(F2)=P(F1F2)=P(F1)P(F2|F1)=3×10−7
При цьому надійність будь-якого двигуна може бути менш ніж задовільною, але загальна надійність може бути досить високою.
Наступний приклад взято з модуля UMAP 576, Пол Мулленікс, передрукований у журналі UMAP, vol 2, no. 4. Там дається більш широке лікування проблеми.
Приклад3.1.3 Responses to a sensitive question on a survey
В опитуванні, якщо відповідь «так» на запитання може, як правило, інкримінувати або іншим чином збентежити суб'єкта, надана відповідь може бути неправильною або вводити в оману. Тим не менш, може бути бажаним отримати правильні відповіді для цілей соціального аналізу. Наступне пристосування для боротьби з цією проблемою приписується Б.Г. Грінбергу. За випадковим процесом кожному суб'єкту доручено зробити одну з трьох речей:
- Відповідайте чесною відповіддю на питання.
- Відповідайте «так» на питання, незалежно від правди в питанні.
- Відповідайте «ні» незалежно від правдивої відповіді.
Нехай A буде подією, на яку суб'єкт сказав відповісти чесно, B бути подією, на яку суб'єкт доручено відповісти «так», а C бути подією, відповідь буде «ні». ІмовірностіP(A)P(B), іP(C) визначаються випадковим механізмом (тобто фракція,P(A) вибрана випадковим чином, кажуть відповісти чесно тощо). ДозвольтеE бути подією відповідь «так». Ми хочемо обчислитиP(E|A), ймовірність відповіді «так», враховуючи відповідь чесна.
Рішення
З тих пірE=EA⋁B, у нас є
P(E)=P(EA)+P(B)=P(E|A)P(A)+P(B)
які можуть бути вирішені алгебраїчно, щоб дати
P(E|A)=P(E)−P(B)P(A)
Припустимо, що існує 250 предметів. Механізм випадковості такийP(A)=0.7, що,P(B)=0.4 іP(C)=0.16. Є 62 відповіді «так», які ми приймаємо на увазіP(E)=62/250. За зразком вище
P(E|A)=62/250−14/10070/100=27175≈0.154
Формулювання умовної ймовірності передбачає, що обумовлююча подія С чітко визначена. Іноді виникають тонкі труднощі. З опису проблеми може бути не зовсім зрозуміло, що таке подія кондиціонування. Зазвичай це пов'язано з деякою неоднозначністю або нерозумінням наданої інформації.
Приклад3.1.4 What is the conditioning event?
П'ять однаково кваліфікованих кандидатів на роботу, Джим, Пол, Річард, Баррі та Еван, визначаються на основі співбесід і розповідають, що вони є фіналістами. Три з них повинні бути обрані випадковим чином, а результати будуть опубліковані на наступний день. Один з них, Джим, має друга в кабінеті кадрів. Джим просить друга сказати йому ім'я одного з обраних (крім себе). Друг розповідає Джиму, що Річард був обраний. Джим аналізує проблему наступним чином.
Аналіз
НехайAi,1≤i≤5 бути подієюi го з них найнято (A1це подія Джим найнятий, чиA3 є подія Річард найнятий тощо). ТеперP(Ai) (для кожногоi) є ймовірність того, що фіналістi виявиться в одній з комбінацій трьох з п'яти. Таким чином, ймовірність Джима бути найманим, перш ніж отримати інформацію про Річарда, є
P(A1)=1×C(4,2)C(5,3)=610=P(Ai),1≤i≤5
Інформація про те, що Річард є одним із найнятих, - це інформація про те, що подіяA3 сталася. Крім того, для будь-якої париi≠j кількість комбінацій трьох з п'яти включаючи ці два - це лише кількість способів вибору одного з решти трьох. Отже,
P(A1A3)=C(3,1)C(5,3)=310=P(AiAj),i≠j
умовна ймовірність
P(A1|A3)=P(A1A3)P(A3)=3/106/10=1/2
Це узгоджується з тим, що якщо Джим знає, що Річард найманий, то з чотирьох фіналістів, які будуть відібрані два, щоб
P(A1|A3)=1×C(3,1)C(4,2)=36=1/2
Обговорення
Хоча це рішення здається простим, воно було оскаржено як неповне. Багато хто відчуває, що повинна бути інформація про те, як друг вирішив назвати Річарда. Багато хто зробить припущення дещо наступним чином. Друг взяв три вибрані імена: якщо Джим був одним з них, ім'я Джима було видалено, і було зроблено однаково ймовірний вибір серед двох інших; в іншому випадку друг вибрав на однаково ймовірній основі одного з трьох, які будуть найняті. За цим припущенням передбачається, що інформація є подією B 3, яка не є такою ж, як A 3. Насправді обчислення (див. Приклад 5, нижче) показує
P(A1|B3)=610=P(A1)≠P(A1|A3)
Обидва результати математично правильні. Різниця полягає в обумовленні події, яка відповідає різниці в наданій (або передбачуваної) інформації.
Деякі властивості
На додаток до своїх властивостей як міри ймовірності, умовна ймовірність має особливі властивості, які є наслідками того, як вона пов'язана з початковою мірою ймовірностіP(⋅). Наступні легко виводяться з визначення умовної ймовірності та основних властивостей попередньої міри ймовірності та виявляються корисними в різних проблемних ситуаціях.
(CP1) Правило продукту ЯкщоP(ABCD)>0, тоP(ABCD)=P(A)P(B|A)P(C|AB)P(D|ABC).
деривація
Визначальний вираз може бути написано у вигляді продукту:P(AB)=P(A)P(B|A). Так само
P(ABC)=P(A)P(AB)P(A)⋅P(ABC)P(AB)=P(A)P(B|A)P(C|AB)
і
P(ABCD)=P(A)P(AB)P(A)⋅P(ABC)P(AB)⋅P(ABCD)P(ABC)=P(A)P(B|A)P(C|AB)P(D|ABC)
Цей шаблон може бути продовжений до перетину будь-якої кінцевої кількості подій. Також заходи можуть бути прийняті в будь-якому порядку.
— □
Приклад3.1.5 Selection of items from a lot
Магазин електроніки має в наявності десять найменувань даного типу. Один несправний. Чотири послідовних клієнта купують один з предметів. Кожен раз вибір відбувається на однаково імовірній основі з тих, що залишилися. Яка ймовірність того, що всі чотири customes отримують хороші предмети?
Рішення
НехайEi буде подія,i коли клієнт отримує хороший товар. Потім перший вибирає один з дев'яти з десяти хороших, другий вибирає один з восьми з дев'яти хороших і т.д., щоб
P(E1E2E3E4)=P(E1)P(E2|E1)P(E3|E1E2)P(E4|E1E2E3)=910⋅89⋅78⋅67=610
Зауважимо, що цей результат можна було б визначити комбінаторним аргументом: за припущеннями однаково вірогідна кожна комбінація з чотирьох з десяти; кількість комбінацій чотирьох хороших - це кількість комбінацій чотирьох з дев'яти. Звідси
P(E1E2E3E4)=C(9,4)C(10,4)=126210=3/5
Приклад3.1.6 A selection problem
Три пункти повинні бути обрані (на однаково ймовірній основі на кожному кроці) з десяти, два з яких несправні. Визначте ймовірність того, що перший і третій обрані хороші.
Рішення
НехайGi,1≤i≤3 бути навітьi той блок обраний хороший. ПотімG1G3=G1G2G3⋁G1Gc2G3. За правилом продукту
P(G1G3)=P(G1)P(G2|G1)P(G3|G1G2)+P(G1)P(Gc2|G1)P(G3|G1Gc2)=810⋅79⋅68+810⋅29⋅78=2845≈0.6
(CP2) Закон повної ймовірності Припустимо, що клас{Ai:1≤i≤n} подій є взаємовиключним, і кожен результат в E знаходиться в одній з цих подій. Таким чиномE=A1E⋁A2E⋁⋅⋅⋅⋁AnE, утворюється нероз'ємний союз. Тоді
P(E)=P(E|A1)P(A1)+P(E|A2)P(A2)+⋅⋅⋅+P(E|An)P(An)
Приклад3.1.7 a compound experiment
П'ять карт пронумеровані від однієї до п'яти. Двоетапна процедура відбору проводиться наступним чином.
- Три карти вибираються без заміни, на однаково імовірній основі.
- Якщо карта 1 витягнута, дві інші кладуть в коробку
- Якщо карта 1 не витягнута, всі три кладуться в коробку
- Одна з карт в коробці витягується однаково імовірно (з двох або трьох)
AiДозволяти подія я карта намальована на першому виборі і нехайBi буде подія картаi пронумерована на другому виділенні (з коробки).i ВизначитиP(B5),P(A1B5), іP(A1|B5).
Рішення
З прикладу 3.1.4 ми маємоP(Ai)=6/10 іP(AiAj)=3/10. Це має на увазі
P(AiAcj)=P(Ai)−P(AiAj)=3/10
Тепер ми можемо намалювати карту п'ятірку на другому виділенні тільки в тому випадку, якщо вона вибрана на першому малюнку, так щоB5⊂A5. ТакожA5=A1A5⋁Ac1A5. Тому ми маємоB5=B5A5=B5A1A5⋁B5Ac1A5. За законом повної ймовірності (СР2),
P(B5)=P(B5|A1A5)P(A1A5)+P(B5|Ac1A5)P(Ac1A5)=12⋅310+13⋅310=14
Крім того, з тих пірA1B5=A1A5B5,
P(A1B5)=P(A1A5B50=P(A1A5)P(B5|A1A5)=310⋅12=320
Таким чином, ми маємо
P(A1|B5)=3/205/20=610=P(A1)
Виникнення події ніяк неB1 впливає на ймовірність виникненняA1. Ця умова більш ретельно розглядається в розділі «Незалежність подій».
Часто в додатках дані призводять до кондиціонування щодо події, але проблема вимагає «кондиціонування в зворотному напрямку».
Приклад3.1.8 Reversal of conditioning
Учні в класі математики першокурсника походять з трьох різних середніх шкіл. Їх математична підготовка різниться. Для того, щоб їх належним чином згрупувати в секціях класу, їм дається діагностичний тест. НехайHi буде подія, що студент випробовував це з середньої школиi,1≤i≤3. Нехай F буде подією, коли студент не проходить тест. Припустимо, дані вказують
P(H1)=0.2,P(H2)=0.5,P(H3)=0.3,P(F|H1)=0.10,P(F|H2)=0.02,P(F|H3)=0.06
Студент здає іспит. Визначте для кожногоi умовну ймовірністьP(Hi|Fc) того, що учень з середньої школиi.
Рішення
P(Fc)=P(Fc|H1)P(H1)+P(Fc|H2)P(H2)+P(Fc|H3)P(H3)=0.90⋅0.2+0.98⋅0.5+0.94⋅0.3=0.952
Тоді
P(H1|Fc)=P(FcH1)P(Fc)=P(Fc|H1)P(H1)P(Fc)=180952=0.1891
Аналогічно,
P(H2|Fc)=P(Fc|H2)P(H2)P(Fc)=590952=0.5147іP(H3|Fc)=P(Fc|H3)P(H3)P(Fc)=282952=0.2962
Основна модель, яка використовується в розвороті, полягає в наступному.
(CP3) Правило Байєса ЯкщоE⊂⋁ni=1Ai (як в законі повної ймовірності), то
P(Ai|E)=P(AiE)P(E)=P(E|Ai)P(Ai)P(E)1≤i≤nЗакон загальної ймовірності прибутковостіP(E)
Такі розвороти бажані в самих різних практичних ситуаціях.
Приклад3.1.9 A compound selection and reversal
Почніть з предметів у двох лотах:
- Три пункти, один бракований.
- Чотири предмети, один бракований.
Один предмет вибирається з лота 1 (на однаково імовірній основі); цей елемент додається до лоту 2; потім проводиться вибір з лота 2 (також на однаково імовірній основі). Цей другий пункт хороший. Яка ймовірність того, що товар, обраний з лота 1, був хорошим?
Рішення
НехайG1 буде подія перший пункт (з лота 1) був хорошим, аG2 бути подією другий пункт (з доповненого лота 2) хороший. Ми хочемо визначитиP(G1|G2). Тепер дані інтерпретуються як
P(G1)=2/3,P(G2|G1)=4/5,P(G2|Gc1)=3/5
За законом повної ймовірності (СР2),
P(G2)=P(G1)P(G2|G1)+P(Gc1)P(G2|Gc1)=23⋅45+13⋅35=1115
За правилом Байєса (CP3),
P(G1|G2)=P(G2|G1)P(G1)P(G2)=4/5×2/311/15=811≈0.73
Приклад3.1.10 Additional problems requiring reversals
- Медичні аналізи. Припустимо, D - це випадок, коли у пацієнта є певне захворювання, а T - подія, тест на захворювання позитивний. Дані зазвичай мають вигляд: попередня ймовірністьP(D) (або попередні шансиP(D)/P(Dc)), ймовірністьP(T|Dc) помилкового позитиву та ймовірністьP(Tc|D) помилкового негативу. Бажаними ймовірностями єP(D|T) іP(Dc|Tc).
- Сигналізація безпеки. Якщо D - це подія, коли існує небезпечна умова (скажімо, тиск пари занадто високий), а T - подія, на якій працює сигналізація безпекиP(D), то дані зазвичай мають формуP(T|Dc)P(Tc|D), і, або еквівалентно (наприклад,P(Tc|Dc) іP(T|D)). Знову ж таки, бажані ймовірності полягають у тому, що сигнали тривоги безпеки правильно,P(D|T) іP(Dc|Tc).
- Успіх роботи. Якщо H - це подія успіху на роботі, а Е - це подія, коли людина опитана має певні бажані характеристики, дані, як правило, попередніP(H) та достовірність характеристик як предикторів у форміP(H) таP(E|Hc). Бажана ймовірність єP(H|E).
- Наявність масла. Якщо Н - подія присутності нафти на передбачуваній ділянці свердловини, а Е - подія певної геологічної будови (соляний купол або розлом), то дані зазвичайP(H) (або шанси)P(E|H), іP(E|Hc). Бажана ймовірність єP(H|E).
- Стан ринку. Перед виходом нового продукту на національний ринок фірма зазвичай вивчає стан тестового ринку як індикатора національного ринку. Якщо H - це подія, національний ринок сприятливий, а E - подія, що тестовий ринок є сприятливим, дані є попередньоюP(H) оцінкою ймовірності того, що національний ринок є надійним, а даніP(E|H) таP(E|Hc) вказують на надійність тестового ринку. БажаноP(H|E), що ймовірність того, що національний ринок є сприятливим, враховуючи сприятливий тестовий ринок.
Обчислення, як у прикладі 3.8, прості, але можуть бути нудними. У нас є m-процедура під назвою bayes для легкого виконання розрахунків. ІмовірностіP(Ai) поміщаються в матрицю ПА і умовні ймовірностіP(E|Ai) ставляться в матрицю PEA. Потрібні ймовірностіP(Ai|E) іPAi|Ec) обчислюються і відображаються
Приклад3.1.11 matlab calculations for
>> PEA = [0.10 0.02 0.06]; >> PA = [0.2 0.5 0.3]; >> bayes Requires input PEA = [P(E|A1) P(E|A2) ... P(E|An)] and PA = [P(A1) P(A2) ... P(An)] Determines PAE = [P(A1|E) P(A2|E) ... P(An|E)] and PAEc = [P(A1|Ec) P(A2|Ec) ... P(An|Ec)] Enter matrix PEA of conditional probabilities PEA Enter matrix PA of probabilities PA P(E) = 0.048 P(E|Ai) P(Ai) P(Ai|E) P(Ai|Ec) 0.1000 0.2000 0.4167 0.1891 0.0200 0.5000 0.2083 0.5147 0.0600 0.3000 0.3750 0.2962 Various quantities are in the matrices PEA, PA, PAE, PAEc, named above
Процедура виводить результати в табличній формі, як показано на малюнку. Крім того, різні величини знаходяться в робочій області в названих матрицях, так що вони можуть бути використані в подальших розрахунках без перекопіювання.
Наступна варіація правила Байєса застосовується у багатьох практичних ситуаціях.
(CP3*) Форма співвідношення правила БайєсаP(A|C)P(B|C)=P(AC)P(BC)=P(C|A)P(C|B)⋅P(A)P(B)
Член лівої руки називається заднім коефіцієнтом, що є шансами після знання про виникнення обумовлювальної події. Друга фракція в правій руці - це попередні шанси, які є шансами до знання про виникнення обумовлювальної подіїC. Перша фракція в правій частині руки відома як коефіцієнт ймовірності. Це співвідношення ймовірностей (або ймовірностей)C для двох різних мір ймовірностіP(⋅|A) іP(⋅|B).
Приклад3.1.12 A performance test
В рамках регламентної процедури технічного обслуговування комп'ютера дається тест на працездатність. Машина, здається, працює настільки добре, що попередні шанси, які вона задовільна, вважаються десятьма до одного. Тест має ймовірність 0,05 хибнопозитивного і 0,01 помилкового негативного. Проводиться тест. Результат позитивний. Які задні шанси пристрою працює належним чином?
Рішення
НехайS буде подія, коли комп'ютер працює задовільно, і нехайT буде подія тест сприятливий. Дані єP(S)/P(Sc)=10P(T|Sc)=0.05, іP(Tc|S)=0.01 .Тоді за співвідношенням форми правила Байєса
P(S|T)P(Sc|T)=P(T|S)P(T|Sc⋅P(S)P(Sc)=0.990.05⋅10=198так щоP(S|T)=198199=0.9950
Наступна властивість служить для встановлення в розділах про «Незалежність подій» та «Умовна незалежність» низки важливих властивостей для поняття незалежності та умовної незалежності подій.
(CP4) Деякі еквівалентні умови Якщо0<P(A)<1 і0<P(B)<1, то
P(A|B)∗P(A)P(B|A)∗P(B)вимкнітьP(AB)∗P(A)P(B) і
P(AB)∗P(A)P(B)iffP(AcBc)∗P(Ac)P(Bc) іффP(ABc)⋄P(A)P(Bc)
де * є<,≤,=,≥, або> і⋄ є>,≥,=,≤, або< відповідно.
Через роль цієї властивості в теорії незалежності та умовної незалежності розглянуто виведення цих результатів.
ПЕРЕВІРКА (СР4)
P(AB)∗P(A)P(B)iffP(A|B)∗P(A) (розділити наP(B) - може обмінюватисяA іAc
P(AB)∗P(A)P(B) iffP(B|A)∗P(B) (ділити наP(A) - можеB обмінюватися іBc
P(AB)∗P(A)P(B)[P(A)−P(ABc)]∗P(A)[1−P(Bc)] iff−P(ABc)∗−P(A)P(Bc) iff,P(ABc)⋄P(A)P(Bc)
якщо ми можемо використовувати c щоб вийтиP(AB)∗P(A)P(B)P(ABC)⋄P(A)P(Bc) зP(AcBc)∗P(Ac)P(Bc)
— □
З них може бути виведено низку важливих і корисних пропозицій.
P(A|B)+P(Ac|B)=1, але, в цілому,P(A|B)+P(A|Bc)≠1.
P(A|B)>P(A)іффP(A|Bc)<P(A).
P(Ac|B)>P(Ac)іффP(A|B)<P(A).
P(A|B)>P(A)іффP(Ac|Bc)>P(Ac).
ВЕРИФІКАЦІЯ - Вправи (див. набір проблем)
— □
Повторне кондиціонування
Припустимо, обумовлення подієюC сталася. Потім отримується додаткова інформація про те, що сталася подія D. У нас новий захід кондиціонуванняCD. Є дві можливості:
Переназначте умовні ймовірності. PC(A)стає
PC(A|D)=PC(AD)PC(D)=P(ACD)P(CD)
Перепризначити сумарні ймовірності:P(A) стає
PCD(A)=P(A|CD)=P(ACD)P(CD)
Основний результат:PC(A|D)=P(A|CD)=PD(A|C). Таким чином, повторне кондиціонування двома подіями може бути зроблено в будь-якому порядку, або може бути зроблено в один крок. Цей результат легко поширюється на повторне кондиціонування будь-якою кінцевою кількістю подій. Цей результат важливий для розширення поняття «Незалежність подій» до «умовної незалежності». Ці умови важливі для багатьох проблем ймовірного висновку.