Skip to main content
LibreTexts - Ukrayinska

5.1: Умовна незалежність

  • Page ID
    98644
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    5.1. Умовна незалежність*

    Ідея стохастичної (імовірнісної) незалежності досліджується в блоці Незалежність подій. До поняття наближається як відсутність кондиціонування:\(P(A|B) = P(A)\). Це еквівалентно правилу продукту\(P(AB) = P(A) P(B)\). Розглядаємо продовження до умовної незалежності.

    Концепція

    Експертиза концепції незалежності виявляє два важливих математичних факту:

    • Незалежність класу невзаємовиключних подій залежить від міри ймовірності, а не від взаємозв'язку між подіями. Незалежність не може відображатися на діаграмі Венна, якщо не вказані ймовірності. Для однієї міри ймовірності пара може бути незалежною, тоді як для іншого вимірювання ймовірності пара може бути не незалежною.
    • Умовна ймовірність - це міра ймовірності, оскільки вона має три визначальні властивості та всі ці властивості, отримані з них.

    Тут виникає питання: чи є корисна умовна незалежність - тобто незалежність щодо умовної міри ймовірності? У цьому розділі ми досліджуємо це питання плідно.

    Серед простих прикладів «оперативної незалежності» в блоці про незалежність подій, які природно призводять до припущення «імовірнісної незалежності» можна виділити наступні:

    • Якщо клієнти приходять в добре укомплектований магазин в різний час, кожен не знає про вибір, зроблений іншим, товар, придбаний одним, не повинен впливати на вибір, зроблений іншим.
    • Якщо двоє учнів здають іспити на різних курсах, оцінка, яка одна робить, не повинна впливати на оцінку, зроблену іншим.

    Приклад\(\PageIndex{1}\) Buying umbrellas and the weather

    Універмаг має приємний запас парасольок. Двоє клієнтів приходять в магазин «самостійно». Нехай A буде подією: перший купує парасольку, а B подія другий купує парасольку. Зазвичай ми повинні думати, що події {\(A, B\)} утворюють незалежну пару. Але враховуйте вплив погоди на покупки. Нехай C буде подією погода дощова (тобто дощ або загрожує дощем). Тепер слід подумати\(P(A|C) > P(A|C^c)\) і\(P(B|C) > P(B|C^c)\). Погода вирішено впливає на ймовірність покупки парасольки. Але з огляду на той факт, що погода дощова (подія С сталася), здавалося б розумним, що покупка парасольки одним не повинна впливати на ймовірність такої покупки іншим. Таким чином, може бути розумним припустити

    \(P(A|C) = P(A|BC)\)або, в іншому позначенні,\(P_C(A) = P_C(A|B)\)

    Дослідження шістнадцяти еквівалентних умов незалежності, при цьому міра ймовірності\(P\) замінена мірою ймовірності\(P_C\), показує, що ми маємо незалежність пари {\(A, B\)} щодо умовної міри ймовірності\(P_C(\cdot) = P(\cdot |C)\). Таким чином,\(P(A|C^c) = P(A|BC^c)\). Для цього прикладу слід також очікувати\(P(A|C^c = P(A|BC^c)\), що, так що існує незалежність щодо умовної міри ймовірності\(P(\cdot |C^c)\). Чи робить це пару {\(A, B\)} незалежною (щодо попередньої міри ймовірності\(P\))? Деякі числові приклади дають зрозуміти, що лише в самих незвичайних випадках пара буде незалежною. Без розрахунків ми можемо зрозуміти, чому так повинно бути. Якщо перший покупець купує парасольку, це свідчить про більш високу, ніж зазвичай, ймовірність того, що погода дощова, і в цьому випадку другий покупець, швидше за все, придбає. Стан призводить до\(P(B|A) > P(B)\). Розглянемо наступний числовий випадок. Припустимо\(P(AB|C) = P(A|C)P(B|C)\) і\(P(AB|C^c) = P(A|C^c) P(B|C^c)\) і

    \(P(A|C) = 0.60\),\(P(A|C^c) = 0.20\),\(P(B|C) = 0.50\),\(P(B|C^c) = 0.15\), с\(P(C) = 0.30\).

    Тоді

    \(P(A) = P(A|C) P(C) + P(A|C^c) P(C^c) = 0.3200\)\(P(B) = P(B|C) P(C) + P(B|C^c) P(C^c) = 0.2550\)

    \(P(AB) = P(AB|C) P(C) + P(AB|C^c) P(C^c) = P(A|C) P(B|C) P(C) + P(A|C^c) P(C^c) = 0.1110\)

    Як результат,

    \(P(A) P(B) = 0.0816 \ne 0.1110 = P(AB)\)

    Правило продукту виходить з ладу, так що пара не є незалежною. Експертиза схеми обчислень показує, що незалежність вимагатиме дуже особливих ймовірностей, які навряд чи будуть зустрічатися.

    Приклад\(\PageIndex{2}\) Students and exams

    Двоє студентів здають іспити на різних курсах, За звичайних обставин можна було б припустити, що їхні виступи утворюють незалежну пару. Нехай A буде подією, коли перший учень робить клас 80 або краще, а B - подією, другий має оцінку 80 або краще. Іспит дається в понеділок вранці. Це осінній семестр. Є ймовірність 0.30, що в суботу відбувся футбольний матч, і обидва студенти - захоплені вболівальники. Нехай C буде подією гри в попередню суботу. Тепер розумно припустити

    \(P(A|C) = P(A|BC)\)і\(P(A|C^c) = P(A|BC^c)\)

    Якщо ми знаємо, що була суботня гра, додаткові знання про те, що B стався, не впливають на вірогідність, що відбувається А. Знову ж таки, використання еквівалентних умов показує, що ситуація може бути виражена

    \(P(AB|C) = P(A|C) P(B|C)\)і\(P(AB|C^c) = P(A|C^c) P(B|C^c)\)

    У цих умовах слід вважати, що\(P(A|C) < P(A|C^c)\) і\(P(B|C) < P(B|C^c)\). Якби ми знали, що один зробив погано на іспиті, це збільшило б ймовірність того, що була суботня гра і, отже, збільшить ймовірність того, що інший зробив погано. Нездатність бути незалежною виникає через загальний фактор шансів, який впливає на обидва. Хоча їх виступи «операційно» незалежні, вони не є незалежними в сенсі ймовірності. Як числовий приклад, припустимо

    \(P(A|C) = 0.7\)\(P(A|C^c) = 0.9\)\(P(B|C) = 0.6\)\(P(B|C^c) = 0.8\)\(P(C) = 0.3\)

    Прямі розрахунки показують\(P(A) = 0.8400\),\(P(B) = 0.7400\),\(P(AB) = 0.6300\). Зверніть увагу, що\(P(A|B) = 0.8514 > P(A)\) як і слід було очікувати.

    Шістнадцять еквівалентних умов

    Використовуючи факти про повторне кондиціонування і еквівалентні умови незалежності, ми можемо скласти аналогічну таблицю еквівалентних умов умовної незалежності. У гібридному позначенні використовуємо для повторного кондиціонування, пишемо

    \(P_C(A|B) = P_C(A)\)або\(P_C(AB) = P_C(A)P_C(B)\)

    Це перекладається на

    \(P(A|BC) = P(A|C)\)або\(P(AB|C) = P(A|C) P(B|C)\)

    Якщо відомо, що\(C\) сталося, то додаткові знання виникнення\(B\) не змінюють ймовірності\(A\).

    Якщо записати шістнадцять еквівалентних умов незалежності з точки зору умовної міри ймовірності\(P_C(\cdot)\), то переведемо як зазначено вище, маємо наступні еквівалентні умови.

    Таблиця 5.1. Шістнадцять еквівалентних умов
    \(P(A|BC) = P(A|C)\) \(P(B|AC) = P(B|C)\) \(P(AB|C) = P(A|C) P(B|C)\)
    \(P(A|B^c C)\)= Р (А|С)\) \(P(B^c|AC) = P(B^c|C)\) \(P(AB^c|C) = P(A|C) P(B^c|C)\)
    \(P(A^c| BC) = P(A^c|C)\) \(P(B|A^c C) = P(B|C)\) \(P(A^cB|C) = P(A^c|C) P(B|C)\)
    \(P(A^c|B^cC) = P(a^c|C)\) \(P(B^c|A^cC) = P(B^c|C)\) \(P(A^cB^c|C) = P(A^c|C) P(B^c|C)\)

     

    Таблиця 5.2.
    \(P(A|BC) = P(A|B^c C)\) \(P(A^c|B^cC) = P(A^c|B^c C)\) \(P(B|AC) = P(B|A^cC)\) \(P(B^c|AC) = P(B^c|A^cC)\)

    Схеми кондиціонування в наведених вище прикладах належать до цього набору. У даній проблемі та чи інша з цих умов може здатися розумним припущенням. Як тільки одна з цих закономірностей буде розпізнана, то все однаково вагомі припущення. Через його простоту і симетрію ми приймаємо за визначальну умову правило виробу\(P(AB|C) = P(A|C) = P(B|C)\).

    Визначення

    Пара подій {\(A, B\)} вважається умовно незалежною, задана C, позначена {\(A, B\)}, якщо має таке правило продукту:\(P(AB|C) = P(A|C) P(B|C)\).

    Еквівалентність чотирьох записів в правій колонці верхньої частини таблиці, встановити

    правило заміни

    Якщо будь-яка з пар {\(A, B\)}, {\(A, B^c\)}, {\(A^c, B\)} або {\(A^c, B^c\)} умовно незалежна, задана C, то і інші.

    — □

    Це може бути виражено тим, що якщо пара умовно незалежна, ми можемо замінити або обидва їх доповнення і все ж мати умовно незалежну пару.

    Щоб надалі проілюструвати корисність цієї концепції, відзначимо деякі інші поширені приклади, в яких дотримуються подібні умови: є операційна незалежність, але певний фактор шансу, який впливає на обидва.

    • Два підрядника працюють цілком самостійно на робочих місцях в одному місті. Операційна незалежність передбачає імовірнісну незалежність. Однак обидві роботи знаходяться поза межами і піддаються затримкам через погану погоду. Припустимо, що A - це подія, коли перший підрядник виконує свою роботу вчасно, а B - подія, яку другий завершує вчасно. Якщо C є подією «гарної» погоди, то аргументи, подібні до тих, що наведені в прикладах 1 та 2, здаються розумними припустити {\(A, B\)} ci\(|C\) та {\(A, B\)} ci\(|C^c\). Зауваження. У формальній теорії ймовірностей подія повинна бути різко визначена: на будь-якому суді вона відбувається чи ні. Подія «гарної погоди» не так чітко визначено. Чи є сліди дощу чи грому в цьому районі є поганою погодою? Чи затримка дощу на один день на місяць проекту склала погану погоду? Навіть при такій неоднозначності закономірність імовірнісного аналізу може виявитися корисною.
    • Пацієнт звертається до лікаря. Попереднє обстеження змушує лікаря думати, що існує тридцятивідсоткова ймовірність того, що пацієнт має певне захворювання. Лікар призначає два незалежних аналізи на умови, які вказують на захворювання. Чи дійсно результати цих тестів незалежні? Звичайно, існує операційна незалежність - тести можуть проводитися різними лабораторіями, не знаючи про тестування іншими. Тим не менш, якщо тести мають сенс, вони обидва повинні впливати на фактичний стан пацієнта. Припустимо, D - це випадок, коли пацієнт має захворювання, А - подія першого тесту позитивний (вказує на умови, пов'язані з хворобою), а B - подія другого тесту позитивний. Тоді здавалося б розумним припустити {\(A, B\)} ci\(|D\) і {\(A, B\)} ci\(|D^c\).

    У розглянутих прикладах було розумно припустити умовну незалежність, враховуючи подію C, і умовну незалежність, враховуючи взаємодоповнюючу подію. Але бувають випадки, коли ефект кондиціонуючого заходу асиметричний. Розглянемо кілька прикладів.

    • Двоє студентів працюють над курсовою роботою. Працюють вони зовсім окремо. Їм обом потрібно позичити певну книгу з бібліотеки. Дозвольте C бути подією бібліотеки має дві копії доступні. Якщо A - подія, перша завершується вчасно, а B - подія друга успішна, то здається розумним припустити {\(A, B\)} ci\(|C\). Однак якщо в наявності тільки одна книга, то дві умови не були б умовно незалежними. Загалом\(P(B|AC^c) < P(B|C^c)\), оскільки якщо перший студент закінчує вчасно, то він або вона, мабуть, досягли успіху в отриманні книги, на шкоду другому.
    • Якщо двом підрядникам наведеного вище прикладу потрібні матеріали, які можуть бути в дефіцитному постачанні, то успішне завершення буде умовно незалежним, дають адекватну пропозицію, тоді як вони не були б умовно незалежними, враховуючи дефіцит.
    • Двоє студентів одного курсу складають іспит. Якщо вони готувалися окремо, захід обох отримання хороших оцінок має бути умовно самостійним. Якщо вони вчаться разом, то ймовірність хороших оцінок не була б самостійною. Не маючи ні обману, ні співпраці над самим тестом, якщо один робить добре, інший також повинен.

    Оскільки умовна незалежність - це звичайна незалежність щодо умовної міри ймовірності, повинно бути зрозуміло, як поширити поняття на більші класи множин.

    Визначення

    Клас\(\{A_i: i \in J\}\), де\(J\) є довільним набором індексів, є умовно незалежним, заданою подією\(C\)\(|C\), позначається\(\{A_i: i \in J\}\) ci, якщо правило добутку тримає для кожного скінченного підкласу з двох або більше.

    Як і в разі простої незалежності, правило заміни поширюється.

    правило заміни

    Якщо клас\(\{A_i: i \in J\}\) ci\(|C\), то будь-яке або всі події A i можуть бути замінені їх доповненнями і все одно мати умовно незалежний клас.

    Застосування техніки самостійності

    Оскільки умовна незалежність - це незалежність, ми можемо використовувати методи самостійності у вирішенні проблем. Розглянуто два типи задач: задачу виведення та умовну послідовність Бернуллі.

    Приклад\(\PageIndex{3}\) Use of independence techniques

    Шерон розслідує бізнес-підприємство, яке, на її думку, має ймовірність 0.7 бути успішним. Вона звіряється з п'ятьма «незалежними» радниками. Якщо перспективи надійні, ймовірності становлять 0,8, 0,75, 0,6, 0,9 та 0,8, що радники порадять їй продовжити; якщо підприємство не є надійним, відповідні ймовірності становлять 0,75, 0,85, 0,7, 0,9 та 0, 7, що порада буде негативною. З огляду на якість проекту, радники незалежні один від одного в тому сенсі, що ніхто не постраждав від інших. Звичайно, вони не є незалежними, бо всі вони пов'язані з обгрунтованістю затії. Ми можемо обґрунтовано припустити умовну незалежність поради, враховуючи, що підприємство є надійним, а також враховуючи, що підприємство не є надійним. Якщо Шерон піде з більшістю радників, яка ймовірність, що вона прийме правильне рішення?

    Рішення

    Якщо проект звуковий, Шерон робить правильний вибір, якщо три або більше з п'яти радників позитивні. Якщо затія нерозумна, вона робить правильний вибір, якщо три або більше з п'яти радників негативні. Нехай\(H = \) подія проект звучить,\(F = \) подія три і більше радників позитивні,\(G = F^c = \) подія три і більше негативні, а\(E =\) подія правильного рішення. Тоді

    \(P(E) = P(FH) + P(GH^c) = P(F|H) P(H) + P(G|H^c) P(H^c)\)

    Нехай\(E_i\) буде подія\(i\) радник позитивний. Потім\(P(F|H) = \) сума ймовірностей виду\(P(M_k|H)\), де\(M_k\) знаходяться мінтерми, породжені класом\(\{E_i : 1 \le i \le 5\}\). Через передбачувану умовну незалежність,

    \(P(E_1 E_2^c E_3^c E_4 E_5|H) = P(E_1|H) P(E_2^c|H) P(E_3^c|H) P(E_4|H) P(E_5|H)\)

    зі схожими виразами для кожного\(P(M_k|H)\) і\(P(M_k|H^c)\). Це означає, що якщо ми хочемо ймовірності трьох і більше успіхів, заданих\(H\), ми можемо використовувати cn з матрицею умовних ймовірностей. Зазначено наступне рішення інвестиційної проблеми MATLAB.

    P1 = 0.01*[80 75 60 90 80];
    P2 = 0.01*[75 85 70 90 70];
    PH = 0.7;
    PE = ckn(P1,3)*PH + ckn(P2,3)*(1 - PH)
    PE =    0.9255
    

    Часто послідовність Бернуллі пов'язана з деякою подією кондиціонування H. У цьому випадку розумно припустити послідовність\(\{E_i : 1 \le i \le n\}\) ci\(|H\) і ci\(|H^c\). Розглянемо простий приклад.

    Приклад\(\PageIndex{4}\) Test of a claim

    Гоночний трек регулярні стверджує, що він може вибрати переможного коня в будь-якій гонці 90 відсотків часу. Для того, щоб перевірити свою претензію, він вибирає коня, щоб виграти в кожній з десяти гонок. У кожному забігу по п'ять коней. Якщо він просто ворожить, ймовірність успіху на кожній гонці дорівнює 0,2. Розглянемо випробування, щоб скласти послідовність Бернуллі. Нехай\(H\) буде подія, яку він вірний у своїй претензії. Якщо\(S\) є кількість успіхів у виборі переможців в десяти гонках, визначте\(P(H|S = k)\) для різних чисел\(k\) правильні кирки. Припустимо, однаково ймовірно, що його претензія є дійсною або що він просто здогадується. Приймаємо два умовних випробування Бернуллі:

    претензія дійсна: Десять випробувань, ймовірність\(p = P(E_i | H) = 0.9\).

    Ворожіння навмання: Десять випробувань, ймовірність\(p = P(E_i|H^c) = 0.2\).

    Нехай\(S=\) кількість правильних вибірки в десяти випробуваннях. Тоді

    \(\dfrac{P(H|S = k}{P(H^c|S = k)} = \dfrac{P(H)}{P(H^c)} \cdot \dfrac{P(S = k|H)}{P(S = k|H^c)}\),\(0 \le k \le 10\)

    Даючи йому користь від сумніву, припускаємо\(P(H)/P(H^c) = 1\) і обчислюємо умовні коефіцієнти.

    k = 0:10;
    Pk1 = ibinom(10,0.9,k);    % Probability of k successes, given H
    Pk2 = ibinom(10,0.2,k);    % Probability of k successes, given H^c
    OH  = Pk1./Pk2;            % Conditional odds-- Assumes P(H)/P(H^c) = 1
    e   = OH > 1;              % Selects favorable odds
    disp(round([k(e);OH(e)]'))
               6           2      % Needs at least six to have creditability
               7          73      % Seven would be creditable,
               8        2627      % even if P(H)/P(H^c) = 0.1
               9       94585
              10     3405063

    Відповідно до цих припущень, йому доведеться правильно вибрати принаймні сім, щоб дати обґрунтовану перевірку своєї претензії.