13: Лінійна регресія
- Page ID
- 99079
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)
- 13.1: Лінія найкращої посадки
- У кореляціях ми посилалися на лінійну тенденцію в даних. Тобто, ми припустили, що існує пряма лінія, яку ми могли б провести через середину нашого розсіювача, який буде представляти відношення між нашими двома змінними, X і Y. Регресія передбачає розв'язування рівняння цієї лінії, яка називається лінією найкращого підгонки.
- 13.2: Передбачення
- У регресії ми найчастіше говоримо про прогнозування, зокрема прогнозуючи нашу змінну результату Y з нашої пояснювальної змінної X, і ми використовуємо лінію найкраще підходить для наших прогнозів.
- 13.3: Таблиця АНОВА
- Наша таблиця ANOVA в регресії відповідає тому ж формату, що і для ANOVA (звідси і назва). Наш верхній ряд - це наш спостережуваний ефект, наш середній ряд - наша помилка, а наш нижній ряд - наша загальна. Стовпці приймають ті ж інтерпретації, а також: зліва направо, ми маємо наші суми квадратів, наші ступені свободи, наші середні квадрати та наша статистика F.
- 13.4: Тестування гіпотез в регресії
- Регресія, як і всі інші аналізи, перевірить нульову гіпотезу в наших даних. У регресії ми зацікавлені в прогнозуванні Y балів і поясненні дисперсії за допомогою лінії, нахил якої дозволяє нам наблизитися до наших спостережуваних балів, ніж середнє значення Y може. Таким чином, наші гіпотези стосуються нахилу прямої, який оцінюється в рівнянні прогнозування b.
- 13.5: Щастя і благополуччя
- Дослідники зацікавлені в поясненні відмінностей в тому, наскільки щасливі люди засновані на тому, наскільки здорові люди. Вони збирають дані про кожну з цих змінних від 18 людей і відповідають лінійній моделі регресії, щоб пояснити дисперсію. Ми будемо слідувати чотириетапній процедурі тестування гіпотез, щоб побачити, чи існує зв'язок між цими змінними, яка є статистично значущою.
- 13.6: Множинна регресія та інші розширення
- Наступним кроком регресії є вивчення множинної регресії, яка використовує кілька змінних X як предиктори для однієї змінної Y одночасно. Математика множинної регресії дуже складна, але логіка однакова: ми намагаємося використовувати змінні, які статистично суттєво пов'язані з нашим результатом, щоб пояснити дисперсію, яку ми спостерігаємо в цьому результаті. Інші форми регресії включають криволінійні моделі, які можуть пояснити криві в даних, а не прямі.
