Skip to main content
LibreTexts - Ukrayinska

11.4: Багатоваріантна лінійна регресія

  • Page ID
    17781
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    У розділі 11.2 ми використовували кластерний аналіз спектрів для 24 зразків, виміряних на 16 довжині хвиль, щоб показати, що ми можемо розділити зразки на три різні групи, припускаючи, що зразки містять три аналіти і що в кожній групі один з аналітів був присутній з концентрацією більшою, ніж ця. двох інших аналітів. У розділі 11.3 ми використовували аналіз основних компонентів того ж набору зразків, щоб припустити, що трьома аналітами є Cu 2 +, Cr 3 + та Co 2 +. У цьому розділі ми будемо використовувати багатовимірний лінійний регресійний аналіз для визначення концентрації цих аналітів у кожному з 24 зразків.

    Як працює калібрування за допомогою багатовимірної регресії?

    У простому лінійному регресійному аналізі, як зазначено в розділі 8, ми моделюємо зв'язок між єдиною залежною змінною y та єдиною залежною змінною x, використовуючи рівняння

    \[y = \beta_0 + \beta_1 x \nonumber \]

    де y - вектор виміряних відповідей для залежної змінної, де x - вектор значень для незалежної змінної, де\(\beta_0\) очікуваний y -перехоплення, а де\(\beta_1\) очікуваний нахил. Наприклад, для завершення кривої калібрування закону Біра для одного аналіту, де A - поглинання, а C - концентрація аналіта.

    \[ A = \epsilon b C \nonumber \]

    готуємо набір з n стандартних розчинів, кожен з яких має відому концентрацію аналіту і вимірюємо поглинання для кожного зі стандартних розчинів на одній довжині хвилі. Лінійний регресійний аналіз повертає значення для\(\epsilon b\), що дозволяє визначити концентрацію аналіту в зразку шляхом вимірювання його поглинання. Див. Розділ 8 для огляду того, як виконати лінійний регресійний аналіз за допомогою R.

    У багатоваріантній лінійній регресії ми маємо j залежні змінні, Y та k незалежні змінні, X, і ми вимірюємо залежну змінну для кожного з n значень для незалежних змінних; ми можемо представити це, використовуючи матричні позначення як

    \[ [ Y ]_{n \times j} = [X]_{n \times k} \times [\beta_1]_{k \times j} \nonumber \]

    У цьому випадку для завершення калібрувальної кривої закону Біра ми готуємо набір n стандартних розчинів, кожен з яких містить відомі концентрації k аналітів, і вимірюємо поглинання кожного стандарту на кожній з j довжин хвиль.

    \[ [ A ]_{n \times j} = [C]_{n \times k} \times [\epsilon b]_{k \times j} \nonumber \]

    де [A] - матриця значень поглинання, [C] - матриця концентрацій, а [\(\epsilon b\)] - матриця\(\epsilon b\) значень для кожного аналіту на кожній довжині хвилі.

    Оскільки матрична алгебра не дозволяє ділити, ми вирішуємо для [\(\epsilon b\)] спочатку попередньо множивши обидві сторони рівняння на транспонування матриці концентрацій

    \[ [C]_{k \times n}^{\text{T}} \times [ A ]_{n \times j} = [C]_{k \times n}^{\text{T}} \times [C]_{n \times k} \times [\epsilon b]_{k \times j} \nonumber \]

    а потім попередньо множивши обидві сторони рівняння на\( \left( [C]_{k \times n}^{\text{T}} \times [C]_{n \times k} \right)^{-1} \) дати

    \[ \left( [C]_{k \times n}^{\text{T}} \times [C]_{n \times k} \right)^{-1} \times [C]_{k \times n}^{\text{T}} \times [ A ]_{n \times j} = \left( [C]_{k \times n}^{\text{T}} \times [C]_{n \times k} \right)^{-1} \times [C]_{k \times n}^{\text{T}} \times [C]_{n \times k} \times [\epsilon b]_{k \times j} \nonumber \]

    Множення\(\left( [C]_{k \times n}^{\text{T}} \times [C]_{n \times k} \right)^{-1}\) на\(\left( [C]_{k \times n}^{\text{T}} \times [C]_{n \times k} \right)\) еквівалентно множенню значення на його обернене, яке дорівнює 1; таким чином, ми маємо

    \[ \left( [C]_{k \times n}^{\text{T}} \times [C]_{n \times k} \right)^{-1} \times [C]_{k \times n}^{\text{T}} \times [ A ]_{n \times j} = [\epsilon b]_{k \times j} \nonumber \]

    Маючи\(\epsilon b\) матрицю в руці, ми можемо визначити концентрацію аналітів у наборі зразків, використовуючи той самий загальний підхід, як показано тут

    \[ [ A ]_{n \times j} = [C]_{n \times k} \times [\epsilon b]_{k \times j} \nonumber \]

    \[ [ A ]_{n \times j} \times [\epsilon b]_{j \times k}^{\text{T}} = [C]_{n \times k} \times [\epsilon b]_{k \times j} \times [\epsilon b]_{j \times k}^{\text{T}} \nonumber \]

    \[ [ A ]_{n \times j} \times [\epsilon b]_{j \times k}^{\text{T}} \times \left( [\epsilon b]_{k \times j} \times [\epsilon b]_{j \times k}^{\text{T}} \right)^{-1} = [C]_{n \times k} \times [\epsilon b]_{k \times j} \times [\epsilon b]_{j \times k}^{\text{T}} \times \left( [\epsilon b]_{k \times j} \times [\epsilon b]_{j \times k}^{\text{T}} \right)^{-1} \nonumber \]

    \[ [ A ]_{n \times j} \times [\epsilon b]_{j \times k}^{\text{T}} \times \left( [\epsilon b]_{k \times j} \times [\epsilon b]_{j \times k}^{\text{T}} \right)^{-1} = [C]_{n \times k} \nonumber \]

    Примітка

    Завершення цих розрахунків вручну є справою; див. Розділ 11.7, щоб побачити, як ви можете виконати багатоваріантну лінійну регресію за допомогою R.

    Як ми оцінюємо результати калібрування за допомогою багатовимірної лінійної регресії?

    Одним із способів оцінки результатів калібрування на основі багатовимірної лінійної регресії є використання його для вивчення значень кожного аналіта з калібрування та порівняння їх зі спектрами окремих аналітів; форма двох графіків повинна бути подібною.\(\epsilon b\) Іншим способом оцінки калібрування на основі багатовимірної регресійної калібрування є використання його для аналізу набору зразків з відомими концентраціями аналітів.