Skip to main content
LibreTexts - Ukrayinska

12: Лінійна регресія та кореляція

  • Page ID
    98345
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    Регресійний аналіз - це статистичний процес оцінки взаємозв'язків між змінними і включає безліч методів моделювання та аналізу декількох змінних. Коли основна увага приділяється зв'язку між залежною змінною і однією або декількома незалежними змінними.

    • 12.1: Прелюдія до лінійної регресії та кореляції
      У цьому розділі ви будете вивчати найпростішу форму регресії, «лінійну регресію» з однією незалежною змінною (x). Це включає в себе дані, які підходять до лінії в двох вимірах. Ви також вивчите кореляцію, яка вимірює, наскільки міцні стосунки.
    • 12.2: Лінійні рівняння
      Лінійна регресія для двох змінних базується на лінійному рівнянні з однією незалежною змінною. Рівняння має вигляд: y=a+bx, де a і b - постійні числа. Змінна x є незалежною змінною, а y - залежною змінною. Зазвичай ви вибираєте значення для заміни незалежної змінної, а потім вирішуєте залежну змінну.
    • 12.3: Розкид ділянок
      Графік розкиду показує напрямок зв'язку між змінними. Чіткий напрямок відбувається, коли є або: Високі значення однієї змінної, що зустрічаються з високими значеннями іншої змінної, або низькі значення однієї змінної, що зустрічаються з низькими значеннями іншої змінної. Високі значення однієї змінної зустрічаються з низькими значеннями іншої змінної.
    • 12.4: Рівняння регресії
      Лінія регресії, або лінія, яка найкраще підходить, може бути намальована на графіку розсіювання та використана для прогнозування результатів для змінних x та y у заданому наборі даних даних або вибіркових даних. Існує кілька способів знайти лінію регресії, але зазвичай використовується лінія регресії з найменшими квадратами, оскільки вона створює рівномірну лінію. Залишки вимірюють відстань від фактичного значення y і розрахункового значення y. Сума квадратних помилок, якщо встановлено її мінімум, обчислює точки на лінії найкращого прилягання.
    • 12.5: Тестування значущості коефіцієнта кореляції
      Коефіцієнт кореляції говорить нам про силу і напрямок лінійної залежності між x і y, проте надійність лінійної моделі також залежить від кількості спостережуваних точок даних у вибірці. Нам потрібно подивитися як на значення коефіцієнта кореляції r, так і на розмір вибірки n, і виконати перевірку гіпотези «значущості коефіцієнта кореляції», щоб вирішити, чи є лінійний зв'язок у вибіркових даних достатньо сильним для використання в лінійній моделі.
    • 12.6: Передбачення
      Після визначення наявності сильного коефіцієнта кореляції та обчислення лінії найкращого підгонки, ви можете використовувати лінію регресії найменших квадратів, щоб робити прогнози щодо ваших даних. Процес прогнозування всередині спостережуваних значень x, що спостерігаються в даних, називається інтерполяцією. Процес прогнозування поза спостережуваних х-значень, що спостерігаються в даних, називається екстраполяцією.
    • 12.7: Виділення
      У деяких наборах даних є значення (спостережувані точки даних), які називаються викидами. Виділення спостерігаються точками даних, які знаходяться далеко від лінії найменших квадратів. Вони мають великі «похибки», де «помилка» або залишкова - вертикальна відстань від лінії до точки.
    • 12.8: Регресія - Відстань від школи (робочий аркуш)
      Статистика Робочий аркуш: Студент буде обчислювати і побудувати лінію найкраще підходить між двома змінними. Студент буде оцінювати зв'язок між двома змінними, щоб визначити, якщо ці відносини є значущими.
    • 12.9: Регресія - Вартість підручника (робочий аркуш)
      Статистика Робочий аркуш: Студент буде обчислювати і побудувати лінію найкраще підходить між двома змінними. Студент буде оцінювати зв'язок між двома змінними, щоб визначити, якщо ці відносини є значними.
    • 12.10: Регресія - економічність палива (робочий аркуш)
      Статистика Робочий аркуш: Студент буде обчислити і побудувати лінію найкраще підходить між двома змінними. Студент буде оцінювати зв'язок між двома змінними, щоб визначити, якщо ці відносини є значущими.
    • 12.E: Лінійна регресія та кореляція (вправи)
      Це домашні вправи для супроводу TextMap, створеного для «Вступної статистики» OpenStax.