11: Ланцюги Маркова
Сучасна теорія ймовірностей вивчає випадкові процеси, для яких знання попередніх результатів впливає на прогнози майбутніх експериментів. В принципі, коли ми спостерігаємо послідовність випадкових експериментів, всі минулі результати можуть вплинути на наші прогнози на наступний експеримент. Наприклад, це повинно бути при прогнозуванні оцінок учня за послідовністю іспитів на курсі. Але допустити таку велику спільність було б дуже важко довести загальні результати. У 1907 році А.А.Марков почав вивчення важливого нового типу випадкового процесу. У цьому процесі результат даного експерименту може вплинути на результат наступного експерименту. Цей тип процесу називається марковської ланцюгом.
- 11.1: Вступ
- Більшість нашого дослідження ймовірності стосувалося незалежних випробувань процесів. Ці процеси є основою класичної теорії ймовірностей і значної частини статистики. Ми обговорили дві основні теореми для цих процесів: Закон великих чисел і Центральна гранична теорема.
- 11.2: Поглинаючі ланцюги Марков**
- Предмет марковських ланцюгів найкраще вивчати, розглянувши спеціальні типи ланцюгів Маркова.
- 11.3: Ергодичні ланцюги Маркова**
- Другим важливим видом ланцюга Маркова ми детально вивчимо, є ланцюг Маркова.
- 11.5: Середній час першого проходження для ергодичних ланцюгів
- У цьому розділі ми розглянемо дві тісно пов'язані описові величини, що представляють інтерес для ергодичних ланцюгів: середній час повернення до стану і середній час переходу з одного стану в інший стан.
Мініатюра: діаграма, що представляє двостанний марковський процес, зі станами, позначеними E та A. Кожне число представляє ймовірність зміни марковського процесу з одного стану в інший, напрямок якого вказано стрілкою. Якщо процес Маркова знаходиться в стані А, то ймовірність його зміни в стан Е дорівнює 0,4, тоді як ймовірність, що він залишається в стані А, дорівнює 0,6. (CC BY-SA 3.0; Joxemai4 через Вікіпедію).