8.1: Оцінка
Часто необхідно визначити вхідну подію, коли спостерігалася лише вихідна подія. Це стосується систем зв'язку, в яких мета полягає в тому, щоб зробити висновок символу, що випромінюється джерелом, щоб його можна було відтворити на виході. Це також стосується систем пам'яті, в яких метою є відтворення вихідного бітового шаблону без помилок.
В принципі, ця оцінка проста, якщо відомий розподіл вхідних ймовірностейp(Ai) та умовні вихідні ймовірності, обумовлені на вхідних подіях.p(Bj|Ai)=cji Ці «вперед» умовні ймовірностіcji утворюють матрицю з такою кількістю рядків, скільки є вихідні події, і стільки стовпців, скільки є вхідні події. Вони є властивістю процесу, і не залежать від вхідних ймовірностейp(Ai).
Безумовнаp(Bj) ймовірність кожноїBj вихідної події
p(Bj)=∑icjip(Ai)

а спільна ймовірність кожного входу з кожним виходомp(Ai,Bj) і зворотними умовними ймовірностямиp(Ai|Bj) можна знайти за допомогою теореми Байєса:
\ begin {вирівнювати*}
p (A_ {i}, B_ {j}) &=p (B_ {j}) p (A_ {i}\; |\; B_ {j})\\
&= p (A_ {i}) p (B_ {j}\; |\; A_ {i})\ тег {8.2}\
&= p (A_ {i}) c_ {ji}
\ end {вирівнювати*}
Тепер припустимо, що певна вихідна подіяBj спостерігалася. Вхідну подію, яка «викликала» цей вихід, може бути оцінена лише за ступенем розподілу ймовірностей по вхідних подіях. Для кожноїAi вхідної події ймовірність того, що це був вхід, просто зворотнаp(Ai|Bj) умовна ймовірність для конкретної вихідної подіїBj, яку можна записати за допомогою Equation 8.2 як
p(Ai|Bj)=p(Ai)cjip(Bj)
Якщо процес не має втрат (L= 0), то для кожногоj рівно одне з вхідних подійAi має ненульову ймовірність, а отже його ймовірністьp(Ai|Bj) дорівнює 1. У більш загальному випадку, при ненульових втратах, оцінка складається з уточнення набору вхідних ймовірностей, щоб вони узгоджувалися з відомим виходом. Зауважте, що цей підхід працює, лише якщо відомий вихідний розподіл ймовірностей. Все, що він робить, - це вдосконалити цей розподіл у світлі нових знань, а саме спостережуваного виходу.
Можна подумати, що новий розподіл вхідних ймовірностей матиме меншу невизначеність, ніж у вихідному розподілі. Чи завжди це правда?
Невизначеність розподілу ймовірностей - це, звичайно, його ентропія, як визначено раніше. Невизначеність (про вхідну подію) перед відомою вихідною подією
Ubefore=∑ip(Ai)log2(1p(Ai))
Залишкова невизначеність, після того, як відомо якась конкретна вихідна подія, є
Uafter(Bj)=∑ip(Ai|Bj)log2(1p(Ai|Bj))
Питання, тоді в тому, чи єUafter(Bj)≤Ubefore. Відповідь часто, але не завжди, так. Однак неважко довести, що середня (за всіма вихідними станами) залишкової невизначеності менше початкової невизначеності:
∑jp(Bj)Uafter(Bj)≤Ubefore


Малюнок 8.2: (a) Двійковий канал без шуму (b) Симетричний двійковий канал, з помилками
На словах це твердження говорить про те, що в середньому наша невизначеність щодо вхідного стану ніколи не збільшується, дізнавшись щось про вихідний стан. Іншими словами, в середньому ця методика висновку допомагає нам отримати кращу оцінку вхідного стану.
Два з наступних прикладів будуть продовжені в наступних розділах, включаючи наступну главу про Принцип максимальної ентропії - симетричний двійковий канал і Бергера Бургера.