Skip to main content
LibreTexts - Ukrayinska

3.1: Умовна ймовірність

  • Page ID
    98737
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    Початкова або попередня міра ймовірності використовує всю наявну інформацію для присвоєння\(P(A)\) ймовірностей тощо з урахуванням визначальних умов (P1), (P2) та (P3).\(P(B)\) Імовірність\(P(A)\) вказує на ймовірність того, що подія А відбудеться на будь-якому судовому розгляді.

    Нерідко надходить нова інформація, що призводить до переоцінки ймовірності події А. Наприклад

    • Проводиться співбесіда з претендентом на роботу керівником сервісного відділу. Його резюме показує адекватний досвід та іншу кваліфікацію. Він веде себе з легкістю і досить чітко виражений у своєму інтерв'ю. Він вважається перспективою з високою ймовірністю успіху. Після співбесіди йде велика перевірка. Його кредитний рейтинг, через безнадійну заборгованість, виявляється досить низьким. З цією інформацією ймовірність того, що він є задовільним кандидатом, кардинально змінюється.
    • Молода жінка прагне придбати вживаний автомобіль. Вона знаходить той, який, здається, є відмінною покупкою. Він виглядає «чистим», має розумний пробіг і є надійною моделлю добре відомої марки. Перед покупкою у неї є друг-механік подивитися на нього. Він знаходить докази того, що автомобіль зазнав аварії з можливими пошкодженнями рами, які були відремонтовані. Таким чином, ймовірність того, що автомобіль буде задовільним, значно зменшується.
    • Лікар проводить звичайне фізичне обстеження пацієнта в її сімдесяті роки. Вона має кілька зайву вагу. Він підозрює, що вона може бути схильна до проблем з серцем. Потім він виявляє, що вона регулярно займається фізичними вправами, їсть з низьким вмістом жиру, високим вмістом клітковини, варіаційною дієтою і походить з сім'ї, в якій виживання в дев'яності роки є загальним явищем. На основі цієї нової інформації він переоцінює ймовірність виникнення проблем з серцем.

    Нова, але часткова інформація визначає обумовлюючу подію\(C\), яка може потребувати переоцінки ймовірності події\(A\). З одного боку, це означає, що\(A\) відбувається, якщо\(AC\) відбувається подія. Ефективно це робить\(C\) новий базовий простір. Нова одиниця маси ймовірності є\(P(C)\). Як слід робити нові призначення ймовірності? Одна з можливостей полягає в тому, щоб зробити нове присвоєння\(A\) пропорційним ймовірності\(P(AC)\). Ці міркування і досвід роботи з класичним випадком передбачає наступну процедуру перепризначення. Хоча така перепризначення логічно не є необхідною, подальші розробки дають суттєві докази того, що це відповідна процедура.

    Визначення

    Якщо\(C\) є навіть, що має позитивну ймовірність, умовна ймовірність\(A\), дана\(C\) дорівнює

    \(P(A|C) = \dfrac{P(AC)}{P(C)}\)

    Для фіксованої події\(C\) кондиціонування ми маємо нове призначення ймовірності події\(A\). Зараз

    \(P(A|C) \ge 0\),\(P(\Omega |C) = 1\), і\(P(\bigvee_j A_j | C) = \dfrac{P(\bigvee_j A_j C}{P(C)} = \sum_j P(A_j C)/P(C) = \sum_j P(A_j | C)\)

    Таким чином, нова функція\(P(\cdot | C)\) задовольняє три визначальні властивості (P1), (P2) і (P3) для ймовірності, так що для фіксованого C ми маємо нову міру ймовірності, з усіма властивостями звичайної міри ймовірності.

    Зауваження. Коли ми\(P(A|C)\) пишемо, ми оцінюємо ймовірність події,\(A\) коли відомо, що подія\(C\) сталася. Це не ймовірність умовної події\(A|C\). Умовні події не мають ніякого значення в розроблюваної нами моделі.

    Приклад\(\PageIndex{1}\) Conditional probabilities from joint frequency data

    Опитування думки студентів щодо запропонованої національної програми охорони здоров'я включало 250 студентів, з яких 150 були студентами та 100 аспірантами. Їх відповіді були класифіковані Y (ствердно), N (негативний) та D (невизначений або відсутність думки). Результати наведені нижче.

      У П D
    У 60 40 50
    Г 70 20 10

    Припустимо, вибірка репрезентативна, тому результати можуть бути прийняті як типові для студентського організму. Студент вибирається навмання. Нехай Y - подія, яку він чи вона сприятливий для плану, N бути подією, яку він або вона несприятлива, а D - подія відсутності думки (або невизначеного). Нехай U бути подією студент є бакалавратом і G бути подією він або вона аспірант. Дані можуть бути розумно інтерпретовані

    \(P(G) = 100/250\),\(P(U) = 150/250\),\(P(Y) = (60 + 70)/250\)\(P(YU) = 60/250\), і т.д.

    Тоді

    \(P(Y|U) = \dfrac{P(YU)}{P(U)} = \dfrac{60/250}{150/250} = \dfrac{60}{150}\)

    Аналогічно ми можемо обчислити

    \(P(N|U) = 40/150\),\(P(D|U) = 50/150\),\(P(Y|G) = 70/100\),\(P(N|G) = 20/100\),\(P(D|G) = 10/100\)

    Ми також можемо розраховувати безпосередньо

    \(P(U|Y) = 60/130\)\(P(G|N) = 20/60\), і т.д.

    Умовна ймовірність часто забезпечує природний спосіб боротьби зі складними випробуваннями, проведеними в кілька етапів.

    Приклад\(\PageIndex{2}\) Jet aircraft with two engines

    Літак має два реактивні двигуни. Він буде літати тільки з одним двигуном, що працює. Нехай\(F_1\) буде подія одного двигуна виходить з ладу на далекі відстані польоту, а подія\(F_2\) другий виходить з ладу. Досвід свідчить про це\(P(F_1) = 0.0003\). Як тільки перший двигун виходить з ладу, додається навантаження на другий, так що\(P(F_2|F_1) = 0.001\). Тепер другий двигун може вийти з ладу тільки в тому випадку, якщо інший вже вийшов з ладу. Таким\(F_2 \subset F_1\) чином, щоб

    \(P(F_2) = P(F_1 F_2) = P(F_1) P(F_2|F_1) = 3 \times 10^{-7}\)

    При цьому надійність будь-якого двигуна може бути менш ніж задовільною, але загальна надійність може бути досить високою.

    Наступний приклад взято з модуля UMAP 576, Пол Мулленікс, передрукований у журналі UMAP, vol 2, no. 4. Там дається більш широке лікування проблеми.

    Приклад\(\PageIndex{3}\) Responses to a sensitive question on a survey

    В опитуванні, якщо відповідь «так» на запитання може, як правило, інкримінувати або іншим чином збентежити суб'єкта, надана відповідь може бути неправильною або вводити в оману. Тим не менш, може бути бажаним отримати правильні відповіді для цілей соціального аналізу. Наступне пристосування для боротьби з цією проблемою приписується Б.Г. Грінбергу. За випадковим процесом кожному суб'єкту доручено зробити одну з трьох речей:

    1. Відповідайте чесною відповіддю на питання.
    2. Відповідайте «так» на питання, незалежно від правди в питанні.
    3. Відповідайте «ні» незалежно від правдивої відповіді.

    Нехай A буде подією, на яку суб'єкт сказав відповісти чесно, B бути подією, на яку суб'єкт доручено відповісти «так», а C бути подією, відповідь буде «ні». Імовірності\(P(A)\)\(P(B)\), і\(P(C)\) визначаються випадковим механізмом (тобто фракція,\(P(A)\) вибрана випадковим чином, кажуть відповісти чесно тощо). Дозвольте\(E\) бути подією відповідь «так». Ми хочемо обчислити\(P(E|A)\), ймовірність відповіді «так», враховуючи відповідь чесна.

    Рішення

    З тих пір\(E = EA \bigvee B\), у нас є

    \(P(E) = P(EA) + P(B) = P(E|A) P(A) + P(B)\)

    які можуть бути вирішені алгебраїчно, щоб дати

    \(P(E|A) = \dfrac{P(E) - P(B)}{P(A)}\)

    Припустимо, що існує 250 предметів. Механізм випадковості такий\(P(A) = 0.7\), що,\(P(B) = 0.4\) і\(P(C) = 0.16\). Є 62 відповіді «так», які ми приймаємо на увазі\(P(E) = 62/250\). За зразком вище

    \(P(E|A) = \dfrac{62/250 - 14/100}{70/100} = \dfrac{27}{175} \approx 0.154\)

    Формулювання умовної ймовірності передбачає, що обумовлююча подія С чітко визначена. Іноді виникають тонкі труднощі. З опису проблеми може бути не зовсім зрозуміло, що таке подія кондиціонування. Зазвичай це пов'язано з деякою неоднозначністю або нерозумінням наданої інформації.

    Приклад\(\PageIndex{4}\) What is the conditioning event?

    П'ять однаково кваліфікованих кандидатів на роботу, Джим, Пол, Річард, Баррі та Еван, визначаються на основі співбесід і розповідають, що вони є фіналістами. Три з них повинні бути обрані випадковим чином, а результати будуть опубліковані на наступний день. Один з них, Джим, має друга в кабінеті кадрів. Джим просить друга сказати йому ім'я одного з обраних (крім себе). Друг розповідає Джиму, що Річард був обраний. Джим аналізує проблему наступним чином.

    Аналіз

    Нехай\(A_i\),\(1 \le i \le 5\) бути подією\(i\) го з них найнято (\(A_1\)це подія Джим найнятий, чи\(A_3\) є подія Річард найнятий тощо). Тепер\(P(A_i)\) (для кожного\(i\)) є ймовірність того, що фіналіст\(i\) виявиться в одній з комбінацій трьох з п'яти. Таким чином, ймовірність Джима бути найманим, перш ніж отримати інформацію про Річарда, є

    \(P(A_1) = \dfrac{1 \times C(4,2)}{C(5,3)} = \dfrac{6}{10} = P(A_i)\),\(1 \le i \le 5\)

    Інформація про те, що Річард є одним із найнятих, - це інформація про те, що подія\(A_3\) сталася. Крім того, для будь-якої пари\(i \ne j\) кількість комбінацій трьох з п'яти включаючи ці два - це лише кількість способів вибору одного з решти трьох. Отже,

    \(P(A_1 A_3) = \dfrac{C(3,1)}{C(5,3)} = \dfrac{3}{10} = P(A_i A_j), i \ne j\)

    умовна ймовірність

    \(P(A_1 | A_3) = \dfrac{P(A_1A_3)}{P(A_3)} = \dfrac{3/10}{6/10} = 1/2\)

    Це узгоджується з тим, що якщо Джим знає, що Річард найманий, то з чотирьох фіналістів, які будуть відібрані два, щоб

    \(P(A_1 | A_3) = \dfrac{1 \times C(3,1)}{C(4,2)} = \dfrac{3}{6} = 1/2\)

    Обговорення

    Хоча це рішення здається простим, воно було оскаржено як неповне. Багато хто відчуває, що повинна бути інформація про те, як друг вирішив назвати Річарда. Багато хто зробить припущення дещо наступним чином. Друг взяв три вибрані імена: якщо Джим був одним з них, ім'я Джима було видалено, і було зроблено однаково ймовірний вибір серед двох інших; в іншому випадку друг вибрав на однаково ймовірній основі одного з трьох, які будуть найняті. За цим припущенням передбачається, що інформація є подією B 3, яка не є такою ж, як A 3. Насправді обчислення (див. Приклад 5, нижче) показує

    \(P(A_1|B_3) = \dfrac{6}{10} = P(A_1) \ne P(A_1|A_3)\)

    Обидва результати математично правильні. Різниця полягає в обумовленні події, яка відповідає різниці в наданій (або передбачуваної) інформації.

    Деякі властивості

    На додаток до своїх властивостей як міри ймовірності, умовна ймовірність має особливі властивості, які є наслідками того, як вона пов'язана з початковою мірою ймовірності\(P(\cdot)\). Наступні легко виводяться з визначення умовної ймовірності та основних властивостей попередньої міри ймовірності та виявляються корисними в різних проблемних ситуаціях.

    (CP1) Правило продукту Якщо\(P(ABCD) > 0\), то\(P(ABCD) = P(A) P(B|A) P(C|AB) P(D|ABC).\)

    деривація

    Визначальний вираз може бути написано у вигляді продукту:\(P(AB) = P(A) P(B|A)\). Так само

    \(P(ABC) = P(A) \dfrac{P(AB)}{P(A)} \cdot \dfrac{P(ABC)}{P(AB)} = P(A) P(B|A) P(C|AB)\)

    і

    \(P(ABCD) = P(A) \dfrac{P(AB)}{P(A)} \cdot \dfrac{P(ABC)}{P(AB)} \cdot \dfrac{P(ABCD)}{P(ABC)} = P(A) P(B|A) P(C|AB) P(D|ABC)\)

    Цей шаблон може бути продовжений до перетину будь-якої кінцевої кількості подій. Також заходи можуть бути прийняті в будь-якому порядку.

    — □

    Приклад\(\PageIndex{5}\) Selection of items from a lot

    Магазин електроніки має в наявності десять найменувань даного типу. Один несправний. Чотири послідовних клієнта купують один з предметів. Кожен раз вибір відбувається на однаково імовірній основі з тих, що залишилися. Яка ймовірність того, що всі чотири customes отримують хороші предмети?

    Рішення

    Нехай\(E_i\) буде подія,\(i\) коли клієнт отримує хороший товар. Потім перший вибирає один з дев'яти з десяти хороших, другий вибирає один з восьми з дев'яти хороших і т.д., щоб

    \(P(E_1E_2E_3E_4) = P(E_1)P(E_2|E_1)P(E_3|E_1E_2)P(E_4|E_1E_2E_3) = \dfrac{9}{10} \cdot \dfrac{8}{9} \cdot \dfrac{7}{8} \cdot \dfrac{6}{7} = \dfrac{6}{10}\)

    Зауважимо, що цей результат можна було б визначити комбінаторним аргументом: за припущеннями однаково вірогідна кожна комбінація з чотирьох з десяти; кількість комбінацій чотирьох хороших - це кількість комбінацій чотирьох з дев'яти. Звідси

    \(P(E_1E_2E_3E_4) = \dfrac{C(9,4)}{C(10,4)} = \dfrac{126}{210} = 3/5\)

    Приклад\(\PageIndex{6}\) A selection problem

    Три пункти повинні бути обрані (на однаково ймовірній основі на кожному кроці) з десяти, два з яких несправні. Визначте ймовірність того, що перший і третій обрані хороші.

    Рішення

    Нехай\(G_i\),\(1 \le i \le 3\) бути навіть\(i\) той блок обраний хороший. Потім\(G_1 G_3 = G_1 G_2 G_3 \bigvee G_1 G_2^c G_3\). За правилом продукту

    \(P(G_1 G_3) = P(G_1) P(G_2|G_1) P(G_3|G_1 G_2) + P(G_1) P(G_2^c | G_1) P(G_3|G_1 G_2^c) = \dfrac{8}{10} \cdot \dfrac{7}{9} \cdot \dfrac{6}{8} + \dfrac{8}{10} \cdot \dfrac{2}{9} \cdot \dfrac{7}{8} = \dfrac{28}{45} \approx 0.6\)

    (CP2) Закон повної ймовірності Припустимо, що клас\(\{A_i: 1 \le i \le n\}\) подій є взаємовиключним, і кожен результат в E знаходиться в одній з цих подій. Таким чином\(E = A_1 E \bigvee A_2 E \bigvee \cdot \cdot \cdot \bigvee A_n E\), утворюється нероз'ємний союз. Тоді

    \(P(E) = P(E|A_1) P(A_1) + P(E|A_2) P(A_2) + \cdot \cdot \cdot + P(E|A_n) P(A_n)\)

    Приклад\(\PageIndex{7}\) a compound experiment

    П'ять карт пронумеровані від однієї до п'яти. Двоетапна процедура відбору проводиться наступним чином.

    1. Три карти вибираються без заміни, на однаково імовірній основі.
      • Якщо карта 1 витягнута, дві інші кладуть в коробку
      • Якщо карта 1 не витягнута, всі три кладуться в коробку
    2. Одна з карт в коробці витягується однаково імовірно (з двох або трьох)

    \(A_i\)Дозволяти подія я карта намальована на першому виборі і нехай\(B_i\) буде подія карта\(i\) пронумерована на другому виділенні (з коробки).\(i\) Визначити\(P(B_5)\),\(P(A_1B_5)\), і\(P(A_1|B_5)\).

    Рішення

    З прикладу 3.1.4 ми маємо\(P(A_i) = 6/10\) і\(P(A_iA_j) = 3/10\). Це має на увазі

    \(P(A_i A_j^c) = P(A_i) - P(A_i A_j) = 3/10\)

    Тепер ми можемо намалювати карту п'ятірку на другому виділенні тільки в тому випадку, якщо вона вибрана на першому малюнку, так що\(B_5 \subset A_5\). Також\(A_5 = A_1 A_5 \bigvee A_1^c A_5\). Тому ми маємо\(B_5 = B_5 A_5 = B_5 A_1 A_5 \bigvee B_5 A_1^c A_5\). За законом повної ймовірності (СР2),

    \(P(B_5) = P(B_5|A_1A_5) P(A_1A_5) + P(B_5|A_1^cA_5) P(A_1^c A_5) = \dfrac{1}{2} \cdot \dfrac{3}{10} + \dfrac{1}{3} \cdot \dfrac{3}{10} = \dfrac{1}{4}\)

    Крім того, з тих пір\(A_1B_5 = A_1A_5B_5\),

    \(P(A_1B_5) = P(A_1A_5B_50 = P(A_1A_5)P(B_5|A_1A_5) = \dfrac{3}{10} \cdot \dfrac{1}{2} = \dfrac{3}{20}\)

    Таким чином, ми маємо

    \(P(A_1|B_5) = \dfrac{3/20}{5/20} = \dfrac{6}{10} = P(A_1)\)

    Виникнення події ніяк не\(B_1\) впливає на ймовірність виникнення\(A_1\). Ця умова більш ретельно розглядається в розділі «Незалежність подій».

    Часто в додатках дані призводять до кондиціонування щодо події, але проблема вимагає «кондиціонування в зворотному напрямку».

    Приклад\(\PageIndex{8}\) Reversal of conditioning

    Учні в класі математики першокурсника походять з трьох різних середніх шкіл. Їх математична підготовка різниться. Для того, щоб їх належним чином згрупувати в секціях класу, їм дається діагностичний тест. Нехай\(H_i\) буде подія, що студент випробовував це з середньої школи\(i\),\(1 \le i \le 3\). Нехай F буде подією, коли студент не проходить тест. Припустимо, дані вказують

    \(P(H_1) = 0.2\),\(P(H_2) = 0.5\),\(P(H_3) = 0.3\),\(P(F|H_1) = 0.10\),\(P(F|H_2) = 0.02\),\(P(F|H_3) = 0.06\)

    Студент здає іспит. Визначте для кожного\(i\) умовну ймовірність\(P(H_i|F^c)\) того, що учень з середньої школи\(i\).

    Рішення

    \(P(F^c) = P(F^c|H_1) P(H_1) + P(F^c|H_2) P(H_2) + P(F^c|H_3) P(H_3) = 0.90 \cdot 0.2 + 0.98 \cdot 0.5 + 0.94 \cdot 0.3 = 0.952\)

    Тоді

    \(P(H_1|F^c) = \dfrac{P(F^c H_1)}{P(F^c)} = \dfrac{P(F^c|H_1) P(H_1)}{P(F^c)} = \dfrac{180}{952} = 0.1891\)

    Аналогічно,

    \(P(H_2|F^c) = \dfrac{P(F^c|H_2)P(H_2)}{P(F^c)} = \dfrac{590}{952} = 0.5147\)і\(P(H_3|F^c) = \dfrac{P(F^c|H_3) P(H_3)}{P(F^c)} = \dfrac{282}{952} = 0.2962\)

    Основна модель, яка використовується в розвороті, полягає в наступному.

    (CP3) Правило Байєса Якщо\(E \subset \bigvee_{i = 1}^{n} A_i\) (як в законі повної ймовірності), то

    \(P(A_i |E) = \dfrac{P(A_i E)}{P(E)} = \dfrac{P(E|A_i) P(A_i)}{P(E)}\)\(1 \le i \le n\)Закон загальної ймовірності прибутковості\(P(E)\)

    Такі розвороти бажані в самих різних практичних ситуаціях.

    Приклад\(\PageIndex{9}\) A compound selection and reversal

    Почніть з предметів у двох лотах:

    1. Три пункти, один бракований.
    2. Чотири предмети, один бракований.

    Один предмет вибирається з лота 1 (на однаково імовірній основі); цей елемент додається до лоту 2; потім проводиться вибір з лота 2 (також на однаково імовірній основі). Цей другий пункт хороший. Яка ймовірність того, що товар, обраний з лота 1, був хорошим?

    Рішення

    Нехай\(G_1\) буде подія перший пункт (з лота 1) був хорошим, а\(G_2\) бути подією другий пункт (з доповненого лота 2) хороший. Ми хочемо визначити\(P(G_1|G_2)\). Тепер дані інтерпретуються як

    \(P(G_1) = 2/3\),\(P(G_2|G_1) = 4/5\),\(P(G_2|G_1^c) = 3/5\)

    За законом повної ймовірності (СР2),

    \(P(G_2) = P(G_1) P(G_2|G_1) + P(G_1^c)P(G_2|G_1^c) = \dfrac{2}{3} \cdot \dfrac{4}{5} + \dfrac{1}{3} \cdot \dfrac{3}{5} = \dfrac{11}{15}\)

    За правилом Байєса (CP3),

    \(P(G_1|G_2) = \dfrac{P(G_2|G_1) P(G_1)}{P(G_2)} = \dfrac{4/5 \times 2/3}{11/15} = \dfrac{8}{11} \approx 0.73\)

    Приклад\(\PageIndex{10}\) Additional problems requiring reversals

    • Медичні аналізи. Припустимо, D - це випадок, коли у пацієнта є певне захворювання, а T - подія, тест на захворювання позитивний. Дані зазвичай мають вигляд: попередня ймовірність\(P(D)\) (або попередні шанси\(P(D)/P(D^c)\)), ймовірність\(P(T|D^c)\) помилкового позитиву та ймовірність\(P(T^c|D)\) помилкового негативу. Бажаними ймовірностями є\(P(D|T)\) і\(P(D^c|T^c)\).
    • Сигналізація безпеки. Якщо D - це подія, коли існує небезпечна умова (скажімо, тиск пари занадто високий), а T - подія, на якій працює сигналізація безпеки\(P(D)\), то дані зазвичай мають форму\(P(T|D^c)\)\(P(T^c|D)\), і, або еквівалентно (наприклад,\(P(T^c|D^c)\) і\(P(T|D)\)). Знову ж таки, бажані ймовірності полягають у тому, що сигнали тривоги безпеки правильно,\(P(D|T)\) і\(P(D^c|T^c)\).
    • Успіх роботи. Якщо H - це подія успіху на роботі, а Е - це подія, коли людина опитана має певні бажані характеристики, дані, як правило, попередні\(P(H)\) та достовірність характеристик як предикторів у формі\(P(H)\) та\(P(E|H^c)\). Бажана ймовірність є\(P(H|E)\).
    • Наявність масла. Якщо Н - подія присутності нафти на передбачуваній ділянці свердловини, а Е - подія певної геологічної будови (соляний купол або розлом), то дані зазвичай\(P(H)\) (або шанси)\(P(E|H)\), і\(P(E|H^c)\). Бажана ймовірність є\(P(H|E)\).
    • Стан ринку. Перед виходом нового продукту на національний ринок фірма зазвичай вивчає стан тестового ринку як індикатора національного ринку. Якщо H - це подія, національний ринок сприятливий, а E - подія, що тестовий ринок є сприятливим, дані є попередньою\(P(H)\) оцінкою ймовірності того, що національний ринок є надійним, а дані\(P(E|H)\) та\(P(E|H^c)\) вказують на надійність тестового ринку. Бажано\(P(H|E)\), що ймовірність того, що національний ринок є сприятливим, враховуючи сприятливий тестовий ринок.

    Обчислення, як у прикладі 3.8, прості, але можуть бути нудними. У нас є m-процедура під назвою bayes для легкого виконання розрахунків. Імовірності\(P(A_i)\) поміщаються в матрицю ПА і умовні ймовірності\(P(E|A_i)\) ставляться в матрицю PEA. Потрібні ймовірності\(P(A_i|E)\) і\(PA_i|E^c)\) обчислюються і відображаються

    Приклад\(\PageIndex{11}\) matlab calculations for

    >> PEA = [0.10 0.02 0.06];
    >> PA =  [0.2 0.5 0.3];
    >> bayes
    Requires input PEA = [P(E|A1) P(E|A2) ... P(E|An)]
    and PA = [P(A1) P(A2) ... P(An)]
    Determines PAE  = [P(A1|E) P(A2|E) ... P(An|E)]
           and PAEc = [P(A1|Ec) P(A2|Ec) ... P(An|Ec)]
    Enter matrix PEA of conditional probabilities  PEA
    Enter matrix  PA of probabilities  PA
    P(E) = 0.048
    P(E|Ai)   P(Ai)     P(Ai|E)   P(Ai|Ec)
    0.1000    0.2000    0.4167    0.1891
    0.0200    0.5000    0.2083    0.5147
    0.0600    0.3000    0.3750    0.2962
    Various quantities are in the matrices PEA, PA, PAE, PAEc, named above

    Процедура виводить результати в табличній формі, як показано на малюнку. Крім того, різні величини знаходяться в робочій області в названих матрицях, так що вони можуть бути використані в подальших розрахунках без перекопіювання.

    Наступна варіація правила Байєса застосовується у багатьох практичних ситуаціях.

    (CP3*) Форма співвідношення правила Байєса\(\dfrac{P(A|C)}{P(B|C)} = \dfrac{P(AC)}{P(BC)} = \dfrac{P(C|A)}{P(C|B)} \cdot \dfrac{P(A)}{P(B)}\)

    Член лівої руки називається заднім коефіцієнтом, що є шансами після знання про виникнення обумовлювальної події. Друга фракція в правій руці - це попередні шанси, які є шансами до знання про виникнення обумовлювальної події\(C\). Перша фракція в правій частині руки відома як коефіцієнт ймовірності. Це співвідношення ймовірностей (або ймовірностей)\(C\) для двох різних мір ймовірності\(P(\cdot |A)\) і\(P(\cdot |B)\).

    Приклад\(\PageIndex{12}\) A performance test

    В рамках регламентної процедури технічного обслуговування комп'ютера дається тест на працездатність. Машина, здається, працює настільки добре, що попередні шанси, які вона задовільна, вважаються десятьма до одного. Тест має ймовірність 0,05 хибнопозитивного і 0,01 помилкового негативного. Проводиться тест. Результат позитивний. Які задні шанси пристрою працює належним чином?

    Рішення

    Нехай\(S\) буде подія, коли комп'ютер працює задовільно, і нехай\(T\) буде подія тест сприятливий. Дані є\(P(S)/P(S^c) = 10\)\(P(T|S^c) = 0.05\), і\(P(T^c|S) = 0.01\) .Тоді за співвідношенням форми правила Байєса

    \(\dfrac{P(S|T)}{P(S^c|T)} = \dfrac{P(T|S)}{P(T|S^c} \cdot \dfrac{P(S)}{P(S^c)} = \dfrac{0.99}{0.05} \cdot 10 = 198\)так що\(P(S|T) = \dfrac{198}{199} = 0.9950\)

    Наступна властивість служить для встановлення в розділах про «Незалежність подій» та «Умовна незалежність» низки важливих властивостей для поняття незалежності та умовної незалежності подій.

    (CP4) Деякі еквівалентні умови Якщо\(0 < P(A) < 1\) і\(0 < P(B) < 1\), то

    \(P(A|B) * P(A)\)\(P(B|A) * P(B)\)вимкніть\(P(AB) * P(A) P(B)\) і

    \(P(AB) *P(A) P(B)\)iff\(P(A^cB^c) * P(A^c) P(B^c)\) іфф\(P(AB^c) \diamond P(A) P(B^c)\)

    де * є\(<, \le, =, \ge,\) або\(>\) і\(\diamond\) є\(>, \ge, =, \le,\) або\(<\) відповідно.

    Через роль цієї властивості в теорії незалежності та умовної незалежності розглянуто виведення цих результатів.

    ПЕРЕВІРКА (СР4)

    \(P(AB) * P(A) P(B)\)iff\(P(A|B) * P(A)\) (розділити на\(P(B)\) - може обмінюватися\(A\) і\(A^c\)
    \(P(AB) * P(A) P(B)\) iff\(P(B|A) * P(B)\) (ділити на\(P(A)\) - може\(B\) обмінюватися і\(B^c\)
    \(P(AB) * P(A) P(B)\)\([P(A) - P(AB^c)] * P(A)[1 - P(B^c)]\) iff\(-P(AB^c) * - P(A)P(B^c)\) iff,\(P(AB^c) \diamond P(A) P(B^c)\)
    якщо ми можемо використовувати c щоб вийти\(P(AB) * P(A) P(B)\)\(P(AB^C) \diamond P(A)P(B^c)\) з\(P(A^cB^c)*P(A^c) P(B^c)\)

    — □

    З них може бути виведено низку важливих і корисних пропозицій.

    \(P(A|B) + P(A^c|B) = 1\), але, в цілому,\(P(A|B) + P(A|B^c) \ne 1\).
    \(P(A|B) > P(A)\)іфф\(P(A|B^c) < P(A)\).
    \(P(A^c|B) > P(A^c)\)іфф\(P(A|B) < P(A)\).
    \(P(A|B) > P(A)\)іфф\(P(A^c|B^c) > P(A^c)\).

    ВЕРИФІКАЦІЯ - Вправи (див. набір проблем)

    — □

    Повторне кондиціонування

    Припустимо, обумовлення подією\(C\) сталася. Потім отримується додаткова інформація про те, що сталася подія D. У нас новий захід кондиціонування\(CD\). Є дві можливості:

    Переназначте умовні ймовірності. \(P_C(A)\)стає

    \(P_C(A|D) = \dfrac{P_C(AD)}{P_C(D)} = \dfrac{P(ACD)}{P(CD)}\)

    Перепризначити сумарні ймовірності:\(P(A)\) стає

    \(P_{CD}(A) = P(A|CD) = \dfrac{P(ACD)}{P(CD)}\)

    Основний результат:\(P_C(A|D) = P(A|CD) = P_D(A|C)\). Таким чином, повторне кондиціонування двома подіями може бути зроблено в будь-якому порядку, або може бути зроблено в один крок. Цей результат легко поширюється на повторне кондиціонування будь-якою кінцевою кількістю подій. Цей результат важливий для розширення поняття «Незалежність подій» до «умовної незалежності». Ці умови важливі для багатьох проблем ймовірного висновку.