3: Розподіли, ймовірність та очікувані значення
- Page ID
- 21516
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)
- 3.1: Функція розподілу як зведення експериментальних результатів
- Коли ми збираємо все більшу кількість даних, накопичення швидко стає громіздким, якщо ми не зможемо звести його до математичної моделі. Ми називаємо математичну модель, яку ми розробляємо функцією розподілу, оскільки це функція, яка виражає те, що ми можемо дізнатися про джерело даних - розподіл. Функція розподілу - це рівняння, яке узагальнює результати багатьох вимірювань; це математична модель для реального джерела даних.
- 3.2: Результати, події та ймовірність
- Також потрібно представити думку про те, що функція, яка успішно моделює результати минулих експериментів, може бути використана для прогнозування деяких характеристик майбутніх результатів.
- 3.3: Деякі важливі властивості подій
- Якщо ми знаємо ймовірності можливих результатів випробування, ми можемо обчислити ймовірності для комбінацій результатів. Вони засновані на двох правилах, які ми називаємо законами ймовірності. Якщо розділити результати на вичерпні та взаємовиключні події, застосовуються і закони ймовірності. Оскільки, як ми їх визначаємо, «події» - це більш загальний термін, ніж «результати», ми називаємо їх законом ймовірності альтернативних подій і законом ймовірності складних подій.
- 3.4: Застосування законів ймовірності
- Закони ймовірності поширюються на події, які є незалежними. Якщо результат одного судового розгляду залежить від результату іншого судового розгляду, ми все одно можемо використовувати закони ймовірності. Однак для цього ми повинні знати природу взаємозалежності.
- 3.5: Гістограми та гістограми
- Оскільки дискретний розподіл повністю задається ймовірностями кожної його події, ми можемо зобразити його гістограмою. Імовірність кожної події представлена висотою одного бару. Ми можемо узагальнити це графічне представлення для представлення безперервних розподілів. Щоб побачити, що ми маємо на увазі, розглянемо конкретний приклад.
- 3.6: Функції безперервного розподілу - функція оболонки є похідною від площі
- Коли ми можемо представити криву огинаючої як неперервну функцію, крива огинаючої є похідною від кумулятивної функції розподілу ймовірностей: функція кумулятивного розподілу - f (u); функція огинаючої - df (u) /du. Функція огинаючої є щільністю ймовірності, і ми будемо називати функцію конверту, df (u) /du, як функцію щільності ймовірності. Функція щільності ймовірності є похідною стосовно випадкової величини кумулятивного розподілу
- 3.10: Статистика - середнє значення та дисперсія розподілу
- Існує дві важливі статистичні дані, пов'язані з будь-яким розподілом ймовірностей: середнє значення розподілу та дисперсія розподілу.
- 3.12: Нормальний розподіл
- Нормальний розподіл дуже важливий. Центральна гранична теорема говорить, що якщо усереднити достатньо значень з будь-якого розподілу, розподіл середніх, які ми обчислюємо, буде нормальним розподілом.