Skip to main content
LibreTexts - Ukrayinska

32.2: Ймовірність та статистика

  • Page ID
    26788
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    Випадкова величина X може мати більше одного значення x як результат. Яке значення має змінна в конкретному випадку, є справою випадковості і не може бути передбачено, крім того, що ми пов'язуємо ймовірність з результатом. Ймовірність\(p\) - це число від 0 до 1, яке вказує на ймовірність того, що змінна\(X\) має певний результат\(x\). Сукупність результатів та їх ймовірності формують розподіл ймовірностей. Існує два види дистрибутивів:

    1. дискретні
    2. суцільні

    Загальна ймовірність завжди повинна складатися до єдності.

    Дискретні дистрибутиви

    Хорошим прикладом дискретного розподілу є справжня монета. Випадкова величина X може мати два значення:

    1. голови (0)
    2. хвости (1)

    Обидва мають однакову ймовірність, і оскільки сума повинна дорівнювати одиниці, ймовірність повинна бути ½ для кожного. 'Імовірність того, що X = heads' записана формально як:

    \[Pr(X=heads) = Pr(X=0) = 0.5 \nonumber \]

    Випадкова функція записується у вигляді комбінації трьох тверджень.

    • Пр (Х = 0) = ½
    • Пр (Х = 1) = ½
    • в іншому місці Pr = 0

    Безперервні дистрибутиви

    Тепер розглянемо сферичну плашку. Можна сказати, що він має нескінченну кількість граней, на які він може приземлитися. Таким чином, кількість результатів\(n = ∞\), це робить кожну ймовірність

    \[p = 1/∞=0. \nonumber \]

    Це створює трохи математичної задачі, тому що як ми можемо отримати загальну ймовірність єдності шляхом складання нулів? Крім того, якщо ми розділимо сферу в північній та південній півкулі чітко ймовірність того, що вона приземлиться на точку, скажімо, північ повинен бути ½. Все-таки p = 0 для всіх балів. Вводиться нове поняття: щільність ймовірності, над якою ми інтегруємо, а не сума. Ми призначаємо рівну щільність кожній точці сфери і переконуємося, що якщо ми інтегруємося над півкулею, ми отримаємо ½. (Це включає в себе два кути θ і φ і інтеграцію над ними, і я не буду йти в це).

    Трохи простішим прикладом безперервного розподілу, ніж сферична матриця, є однорідний розподіл 1D. Це той, який функція Excel = RAND () виробляє до хорошого наближення. Його щільність ймовірності визначається як

    • f (х) = 1 для 0<1>
    • f (x) = 0 в іншому місці

    На малюнку показано (двоваріантний) рівномірний розподіл.

    Імовірність того, що результат менший за 0,5 записується як Pr (X<0.5) і знаходить шляхом інтеграції від 0 до 0,5 над f (x).

    Пр (Х<0,5) = ф (х) .дх від 0 до 0,5 = 1 .dx від 0 до 0,5 = [х] 0,5 - [х] 0 = 0,5

    Зверніть увагу, що в кожному окремому результаті b ймовірність дійсно дорівнює нулю, оскільки інтеграл від b до b завжди дорівнює нулю, навіть якщо щільність ймовірності f (b) не дорівнює нулю. Очевидно, що ймовірність і щільність ймовірності не однакові. На жаль, різниця між ймовірністю та щільністю ймовірності часто не проводиться належним чином у фізичних науках. Моменти також можна обчислити для неперервних розподілів шляхом інтеграції над щільністю ймовірності альт

    Іншим відомим неперервним розподілом є нормальний (або Гауссовий) розподіл, який визначається як:

    \[f(x) = 1/[√(2π)σ] * exp(-½[(x-μ)/σ]2) \nonumber \]

    (Notice the normalization factor 1/[√(2π)σ])

    We can also compute moments of continuous distribution. Instead of using a summation we now have to evaluate an integral:

    \[ \langle X \rangle = \int [f(x)^*x] dx \nonumber \]

    \[ \langle X^2 \rangle =\int [f(x)^*x^2] dx \nonumber \]

    For the normal distribution \(\langle X \rangle = μ\)

    Exercise

    Compute 2> and 3> for the uniform distribution. answer>

    Indistinguishable Outcomes

    When flipping two coins we could get four outcomes: two heads (0), heads plus tails (1), tails plus heads (1), two tails (2)

    Each outcome is equally likely, this implies a probability of ¼ for each:

    Xtot = X1 + X2 = 0 + 0 = 0 p=¼
    Xtot = X1 + X2 = 0 + 1 = 1 p=¼
    Xtot = X1 + X2 = 1 + 0 = 1 p=¼
    Xtot = X1 + X2 = 1 + 1 = 2 p=¼

    The probability of a particular outcome is often abbreviated simply to p. The two middle outcomes collapse into one with p=¼+¼= ½ if the coins are indistinguishable. We will see that this concept has very important consequences in statistical thermodynamics.

    If we cannot distinguish the two outcomes leading to Xtot=1 we get the following random function:

    • Pr(Xtot=0) = ¼
    • Pr(Xtot=1) = ½
    • Pr(Xtot=2) = ¼
    • elsewhere Pr = 0

    Notice that it is quite possible to have a distribution where the probabilities differ from outcome to outcome. Often the p values are given as f(x), a function of x. An example:

    X3 defined as:

    • f(x) = (x+1)/6 for x=0,1,2;
    • f(x) =0 elsewhere;

    The factor 1/6 makes sure the probabilities add up to unity. Such a factor is known as a normalization factor. Again this concept is of prime importance in statistical thermodynamics.

    Another example of a discrete distribution is a die. If it has 6 sides (the most common die) there are six outcomes, each with p= 1/6. There are also dice with n=4, 12 or 20 sides. Each outcome will then have p= 1/n.

    Moments of Distributions

    In important aspect of probability distributions are the moments of the distribution. They are values computed by summing over the whole distribution.

    The zero order moment is simply the sum of all p and that is unity:

    0> = ΣX0*p= Σ1*p= 1

    The first moment multiplies each outcome with its probability and sums over all outcomes:

    = ΣX*p

    This moment is known as the average or mean. (It is what we have done to your grades for years...)

    For one coin is ½, for two coins is 1. (Exercise: verify this)

    The second moment is computed by summing the product of the square of X and p:

    2> = ΣX2*p
    For one coin we have 2> = ½,
    For two coins 2>= [0*¼ + 1*½ + 4*¼] = 1.5
    What is 2> for X3? answer

    The notation is used a lot in quantum mechanics, often in the form <ψ*ψ> or <ψ*|h|ψ>. The <.. part is known as the bra, the ..> part as the ket. (Together bra(c)ket)

    Intermezzo: The strange employer

    You have a summer job but your employer likes games of chance. At the end of every day he rolls a die and pays you the square of the outcome in dollars per hour. So on a lucky day you'd make $36.- per hour, but on a bad day $1.-. Is this a bad deal? What would you make on the average over a longer period?

    To answer this we must compute the second moment 2> of the distribution:

    2> = 1/6 *[1+4+9+16+25+36] = 91/6 = $15.17 per hour.

    (I have taken p=1/6 out of brackets because the value is the same for all six outcomes)

    As you see in the intermezzo, the value of the second moment is in this case what you expect to be making on the long term. Moments are examples of what is know as expectation values. Another term you may run into that of a functional. A functional is a number computed by some operation (such as summation or integration) over a whole function. Moments are clearly an example of that too.