12.2: Загальний опис
12.2.1 Марківські процеси
Більш загально, припустимо, що у нас є система, що володіє дискретним набором станів, які можуть бути позначені цілим числом0,1,2,… А Марковський процес - це набір ймовірнісних правил, які підказують нам, як вибрати новий стан системи, виходячи з поточного стану системи. Якщо система в даний момент знаходиться в станіn, то ймовірність вибору стануm на наступному кроці позначається значеннямP(m|n). Ми називаємо це «ймовірністю переходу» від стануn до стануm. Багаторазово застосовуючи марковський процес, ми переміщаємо систему через випадкову послідовність станів{n(0),n(1),n(2),n(3),…}, деn(k) позначає стан на ступеніk. Такий вид випадкової послідовності називається ланцюгом Маркова.
Існує важливе обмеження на перехідні ймовірності марковського процесу. Тому що система повинна переходити в якийсь стан на кожному кроці,
∑mP(m|n)=1foralln∈{0,1,…}.
Далі введемо уявлення про державні ймовірності. Припустимо, ми розглянемо ансамбль усіх можливих ланцюгів Маркова, які можуть бути породжені заданою марковською процесом. Нехай{p(k)0,p(k)1,p(k)2,…} позначають ймовірності для різних станівn=0,1,2,…, на кроціk. Враховуючи це, які ймовірності для різних станів на кроціk+1? Згідно теоремі Байєса, ми можемо записатиp(k+1)m як суму над умовними ймовірностями:
p(k+1)m=∑nP(m|n)p(k)n.
Це має вигляд матричного рівняння:
[p(k+1)0p(k+1)1⋮]=[P(0|0)P(0|1)⋯P(1|0)P(1|1)⋯⋮⋮][p(k)0p(k)1⋮],
де матриця з правого боку називається матрицею переходу. Кожен елемент цієї матриці є дійсним числом між0 і1; крім того, через вищезгадане збереження ймовірностей переходу кожен стовпець матриці сумує до1. У математиці матриці такого типу називаються «лівими стохастичними матрицями».
12.2.2 Стаціонарний розподіл
Стаціонарний розподіл - це сукупність ймовірностей стану{π0,π1,π2,…}, таких, що проходження одного етапу марковського процесу залишає ймовірності незмінними:
πm=∑nP(m|n)πn.
Дивлячись на еквівалентне матричне рівняння, ми бачимо, що вектор[π0;π1;π2;…] повинен бути власним вектором матриці переходу, з власним значенням 1. Виявляється, існує математична теорема (теорема Перрона—Фробеніуса), яка стверджує, що кожна ліва стохастична матриця має свій вектор такого роду. Значить, кожен марковський процес має стаціонарне розподіл. Стаціонарні розподіли є основними причинами, які нас цікавлять марківські процеси. У фізиці нас часто цікавить використання марковських процесів для моделювання термодинамічних систем, таких, що стаціонарний розподіл представляє розподіл термодинамічних мікростанів при тепловій рівновазі. (Ми побачимо приклад у наступному розділі.) Знаючи стаціонарний розподіл, ми можемо з'ясувати всі термодинамічні властивості системи, такі як її середня енергія.
В принципі, одним із способів з'ясувати стаціонарний розподіл є побудова матриці переходу, вирішення проблеми на власні значення та вибір вектора з власним значенням 1. Біда в тому, що нас часто цікавлять системи, де кількість можливих станів величезна - в деяких випадках більше, ніж кількість атомів у Всесвіті! У таких випадках не представляється можливим явним чином генерувати матрицю переходу, не кажучи вже про вирішення проблеми з власними значеннями.
Ми зараз натрапимо на щасливий і важливий факт: для величезного класу марковських процесів розподіл станів всередині досить довгої марковського ланцюга сходиться до стаціонарного розподілу. Значить, щоб дізнатися про стаціонарному розподілі, нам просто потрібно згенерувати довгу марковський ланцюжок, і вивчити її статистичні властивості.