Skip to main content
LibreTexts - Ukrayinska

7.2: Діагоналізація

  • Page ID
    63233
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    Результати
    1. Визначте, коли можна діагоналізувати матрицю.
    2. Коли це можливо, діагоналізуйте матрицю.

    Подібність і діагоналізація

    Починаємо цей розділ з згадки визначення подібних матриць. Нагадаємо, що якщо\(A,B\) дві\(n\times n\) матриці, то вони схожі якщо і тільки в тому випадку, якщо існує оборотна матриця\(P\) така, що\[A=P^{-1}BP\nonumber \]

    В даному випадку пишемо\(A \sim B\). Поняття подібності є прикладом співвідношення еквівалентності.

    Лемма\(\PageIndex{1}\): Similarity is an Equivalence Relation

    Подібність - відношення еквівалентності, тобто для\(n \times n\) матриць\(A,B,\) і\(C\),

    1. \(A \sim A\)(рефлексивний)
    2. Якщо\(A \sim B\), то\(B \sim A\) (симетричний)
    3. Якщо\(A \sim B\) і\(B \sim C\), то\(A \sim C\) (перехідний)
    Доказ

    Зрозуміло\(A\sim A\), що, беручи\(P=I\).

    Тепер, якщо\(A\sim B,\) тоді для деяких\(P\) обертається,\[A=P^{-1}BP\nonumber \] і так\[PAP^{-1}=B\nonumber \] Але тоді,\[\left( P^{-1}\right) ^{-1}AP^{-1}=B\nonumber \] який показує, що\(B\sim A\).

    Тепер припустимо\(A\sim B\) і\(B\sim C\). Тоді існують оборотні матриці\(P,Q\) такі, що\[A=P^{-1}BP,\ B=Q^{-1}CQ\nonumber \] потім,\[A=P^{-1} \left( Q^{-1}CQ \right)P=\left( QP\right) ^{-1}C\left( QP\right)\nonumber \] показуючи,\(A\) що схоже на\(C\).

    Ще одним важливим поняттям, необхідним для цього розділу, є слід матриці. Розглянемо визначення.

    Визначення\(\PageIndex{1}\): Trace of a Matrix

    Якщо\(A=[a_{ij}]\)\(n\times n\) матриця, то слід\(A\) є\[\mathrm{trace}(A) = \sum_{i=1}^n a_{ii}.\nonumber \]

    У словах слід матриці - це сума записів на головній діагоналі.

    Лемма\(\PageIndex{2}\): Properties of Trace

    Для\(n\times n\) матриць\(A\) і\(B\), і будь-яких\(k\in\mathbb{R}\),

    1. \(\mathrm{trace}(A+B)=\mathrm{trace}(A) + \mathrm{trace}(B)\)
    2. \(\mathrm{trace}(kA)=k\cdot\mathrm{trace}(A)\)
    3. \(\mathrm{trace}(AB)=\mathrm{trace}(BA)\)

    Наступна теорема включає посилання на характеристичний многочлен матриці. Нагадаємо, що для будь-якої\(n \times n\) матриці\(A\) характерний многочлен\(A\) є\(c_A(x)=\det(xI-A)\).

    Теорема\(\PageIndex{1}\): Properties of Similar Matrices

    Якщо\(A\) і\(B\) є\(n\times n\) матрицями і\(A\sim B\), то

    1. \(\det(A) = \det(B)\)
    2. \(\mathrm{rank}(A) = \mathrm{rank}(B)\)
    3. \(\mathrm{trace}(A)= \mathrm{trace}(B)\)
    4. \(c_A(x)=c_B(x)\)
    5. \(A\)і\(B\) мають однакові власні значення

    Тепер перейдемо до основної концепції цього розділу. Коли матриця схожа на діагональну матрицю, матриця, як кажуть, є діагональною. Діагональну матрицю ми визначаємо\(D\) як матрицю, яка містить нуль у кожному записі, крім тих, що знаходяться на головній діагоналі. Точніше, якщо\(d_{ij}\) це\(ij^{th}\) запис діагональної матриці\(D\), то\(d_{ij}=0\) хіба\(i=j\). Виглядають такі матриці наступним чином. \[D = \left[ \begin{array}{ccc} \ast & & 0 \\ & \ddots & \\ 0 & & \ast \end{array} \right]\nonumber \]де число,\(\ast\) яке не може бути нулем.

    Далі наведено формальне визначення діагональної матриці.

    Визначення\(\PageIndex{2}\): Diagonalizable

    \(A\)Дозволяти бути\(n\times n\) матрицею. Тоді\(A\), як кажуть, діагонально, якщо існує оборотна матриця\(P\) така, що\[P^{-1}AP=D\nonumber \] де\(D\) діагональна матриця.

    Зверніть увагу, що вищевказане рівняння можна переставити як\(A=PDP^{-1}\). Припустимо, ми хотіли обчислити\(A^{100}\). По діагоналі\(A\) спочатку досить потім обчислити\(\left(PDP^{-1}\right)^{100}\), що зводиться до\(PD^{100}P^{-1}\). Це останнє обчислення набагато простіше, ніж\(A^{100}\). Хоча цей процес докладно описаний далі, він забезпечує мотивацію для діагоналізації.

    Діагоналізація матриці

    Найважливішою теоремою про діагональності є наступний основний результат.

    Теорема\(\PageIndex{2}\): Eigenvectors and Diagonalizable Matrices

    \(n\times n\)\(A\)Матриця може бути діагональна тоді і тільки тоді, коли є оборотна матриця,\(P\) задана\[P=\left[\begin{array}{cccc} X_{1} & X_{2} & \cdots & X_{n} \end{array} \right]\nonumber\] де\(X_{k}\) є власні вектори\(A\).

    Крім того,\(A\) якщо діагонально, відповідні власні значення є\(A\) діагональними записами діагональної матриці\(D\).

    Доказ

    Припустимо,\(P\) наведено як вище, як обернена матриця, стовпці якої є власними векторами\(A\). Тоді\(P^{-1}\) має форму,\[P^{-1}=\left[\begin{array}{c} W_{1}^{T} \\ W_{2}^{T} \\ \vdots \\ W_{n}^{T} \end{array} \right]\nonumber \] де\(W_{k}^{T}X_{j}=\delta _{kj},\) є символом Кронекера, визначеним\[\delta _{ij}=\left\{ \begin{array}{c} 1 \text{ if }i=j \\ 0\text{ if }i\neq j \end{array} \right.\nonumber \]

    Тоді\[\begin{aligned} P^{-1}AP & = \left[\begin{array}{c} W_{1}^{T} \\ W_{2}^{T} \\ \vdots \\ W_{n}^{T} \end{array} \right] \left[\begin{array}{cccc} AX_{1} & AX_{2} & \cdots & AX_{n} \end{array} \right] \\ & = \left[\begin{array}{c} W_{1}^{T} \\ W_{2}^{T} \\ \vdots \\ W_{n}^{T} \end{array} \right] \left[\begin{array}{cccc} \lambda _{1}X_{1} & \lambda _{2}X_{2} & \cdots & \lambda _{n}X_{n} \end{array} \right] \\ &= \left[\begin{array}{ccc} \lambda _{1} & & 0 \\ & \ddots & \\ 0 & & \lambda _{n} \end{array} \right] \end{aligned}\]

    І навпаки,\(A\) припустимо, діагонально так що\(P^{-1}AP=D.\) Нехай\[P=\left[\begin{array}{cccc} X_{1} & X_{2} & \cdots & X_{n} \end{array} \right]\nonumber \] де стовпці є\(X_{k}\) і\[D=\left[\begin{array}{ccc} \lambda _{1} & & 0 \\ & \ddots & \\ 0 & & \lambda _{n} \end{array} \right]\nonumber \] Тоді\[AP=PD=\left[\begin{array}{cccc} X_{1} & X_{2} & \cdots & X_{n} \end{array} \right] \left[\begin{array}{ccc} \lambda _{1} & & 0 \\ & \ddots & \\ 0 & & \lambda _{n} \end{array} \right]\nonumber\] і так\[\left[\begin{array}{cccc} AX_{1} & AX_{2} & \cdots & AX_{n} \end{array} \right] =\left[\begin{array}{cccc} \lambda _{1}X_{1} & \lambda _{2}X_{2} & \cdots & \lambda _{n}X_{n} \end{array} \right]\nonumber\] показуючи\(X_{k}\) є власні вектори\(A\) і\(\lambda _{k}\) є власними векторами.

    Зверніть увагу, що оскільки матриця,\(P\) визначена вище, є оборотною, випливає, що набір власних векторів\(A\)\(\left\{ X_1, X_2, \cdots, X_n \right\}\),, утворюють основу\(\mathbb{R}^n\).

    Ми демонструємо поняття, наведене у вищезгаданій теоремі в наступному прикладі. Зверніть увагу, що не тільки стовпці матриці\(P\) утворені власними векторами, але\(P\) повинні бути оборотними, тому повинні складатися з найрізноманітніших власних векторів. Ми досягаємо цього за допомогою базових власних векторів для стовпців\(P\).

    Приклад\(\PageIndex{1}\): Diagonalize a Matrix

    Дозвольте\[A=\left[\begin{array}{rrr} 2 & 0 & 0 \\ 1 & 4 & -1 \\ -2 & -4 & 4 \end{array} \right]\nonumber\] знайти оборотну матрицю\(P\) і діагональну матрицю\(D\) таку, що\(P^{-1}AP=D\).

    Рішення

    За теоремою\(\PageIndex{2}\) ми використовуємо власні вектори\(A\) як стовпчики\(P\), а відповідні власні значення\(A\) як діагональні записи\(D\).

    Спочатку знайдемо власні значення\(A\). Для цього вирішуємо\(\det \left( \lambda I -A \right) =0\) наступним чином. \[\det \left( \lambda \left[\begin{array}{rrr} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right] - \left[\begin{array}{rrr} 2 & 0 & 0 \\ 1 & 4 & -1 \\ -2 & -4 & 4 \end{array} \right] \right) = 0\nonumber \]

    Це обчислення залишається як вправа, і ви повинні переконатися, що власні значення\(\lambda_1 =2, \lambda_2 = 2\), і\(\lambda_3 = 6\).

    Далі нам потрібно знайти власні вектори. Спочатку знайдемо власні вектори для\(\lambda_1, \lambda_2 = 2\). Розв'язуючи,\(\left(2I - A \right)X = 0\) щоб знайти власні вектори, ми виявимо, що власні\(t,s\) вектори\[t\left[\begin{array}{r} -2 \\ 1 \\ 0 \end{array} \right] +s\left[\begin{array}{r} 1 \\ 0 \\ 1 \end{array} \right]\nonumber \] - це скаляри. Звідси є два основних власних вектора, які задаються\[X_1 = \left[\begin{array}{r} -2 \\ 1 \\ 0 \end{array} \right], X_2 = \left[\begin{array}{r} 1 \\ 0 \\ 1 \end{array} \right]\nonumber \]

    Ви можете переконатися, що основним власним вектором для\(\lambda_3 =6\) є\(X_3 = \left[\begin{array}{r} 0 \\ 1 \\ -2 \end{array} \right]\)

    Потім будуємо матрицю\(P\) наступним чином. \[P= \left[\begin{array}{rrr} X_1 & X_2 & X_3 \end{array} \right] = \left[\begin{array}{rrr} -2 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & -2 \end{array} \right]\nonumber \]Тобто стовпці є\(P\) основними власнимивекторами\(A\). Потім ви можете перевірити, що\[P^{-1}=\left[\begin{array}{rrr} - \frac{1}{4} & \frac{1}{2} & \frac{1}{4} \\ \frac{1}{2} & 1 & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2} & - \frac{1}{4} \end{array} \right]\nonumber \] Таким чином,\[\begin{aligned} P^{-1}AP &=\left[\begin{array}{rrr} - \frac{1}{4} & \frac{1}{2} & \frac{1}{4} \\ \frac{1}{2} & 1 & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2} & - \frac{1}{4} \end{array} \right] \left[\begin{array}{rrr} 2 & 0 & 0 \\ 1 & 4 & -1 \\ -2 & -4 & 4 \end{array} \right] \left[\begin{array}{rrr} -2 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & -2 \end{array} \right] \\ &=\left[\begin{array}{rrr} 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 6 \end{array} \right] \end{aligned}\]

    Ви можете бачити, що результатом тут є діагональна матриця, де записи на головній діагоналі є власними значеннями\(A\). Ми очікували цього на основі теореми\(\PageIndex{2}\). Зверніть увагу, що власні значення на головній діагоналі повинні бути в тому ж порядку, що і відповідні власні вектори в\(P\).

    Розглянемо наступну важливу теорему.

    Теорема\(\PageIndex{3}\): Linearly Independent Eigenvectors

    \(A\)Дозволяти\(n\times n\) матриця, і припустимо, що\(A\) має різні власні значення\(\lambda_1, \lambda_2, \ldots, \lambda_m\). Для кожного\(i\), нехай\(X_i\) буде\(\lambda_i\) -власним вектором\(A\). Потім\(\{ X_1, X_2, \ldots, X_m\}\) лінійно незалежний.

    Наслідок, який випливає з цієї теореми, дає корисний інструмент для\(A\) визначення діагоналізації.

    Слідство\(\PageIndex{1}\): Distinct Eigenvalues

    \(A\)Дозволяти\(n \times n\) матриця і припустимо, що вона має\(n\) різні власні значення. Потім випливає,\(A\) що діагонально.

    Можливо, що матриця\(A\) не може бути діагоналізована. Іншими словами, ми не можемо знайти оборотну матрицю\(P\) так\(P^{-1}AP=D\).

    Розглянемо наступний приклад.

    Приклад\(\PageIndex{2}\): A Matrix which cannot be Diagonalized

    Нехай\[A = \left[\begin{array}{rr} 1 & 1 \\ 0 & 1 \end{array} \right]\nonumber\] Якщо можливо, знайдіть оборотну матрицю\(P\) і діагональну матрицю\(D\) так, щоб\(P^{-1}AP=D\).

    Рішення

    За допомогою звичайної процедури ми знаходимо, що власні значення\(A\) є\(\lambda_1 =1, \lambda_2=1.\) Щоб знайти власні вектори, вирішуємо рівняння\(\left(\lambda I - A \right) X = 0\). \(\left(\lambda I -A \right)\)Матриця задається\[\left[\begin{array}{cc} \lambda - 1 & -1 \\ 0 & \lambda - 1 \end{array} \right]\nonumber\]

    Підставляючи в\(\lambda = 1\), ми маємо матрицю\[\left[\begin{array}{cc} 1 - 1 & -1 \\ 0 & 1 - 1 \end{array} \right] = \left[\begin{array}{rr} 0 & -1 \\ 0 & 0 \end{array} \right]\nonumber\]

    Потім рішення рівняння\(\left(\lambda I - A\right) X = 0\) передбачає перенесення наступної доповненої матриці до її зменшеної рядково-ешелонної форми. \[\left[\begin{array}{rr|r} 0 & -1 & 0 \\ 0 & 0 & 0 \end{array} \right] \rightarrow \cdots \rightarrow \left[\begin{array}{rr|r} 0 & -1 & 0 \\ 0 & 0 & 0 \end{array} \right]\nonumber\]

    Тоді власні вектори мають вигляд,\[t\left[\begin{array}{r} 1 \\ 0 \end{array} \right]\nonumber\] а основний власний вектор -\[X_1 = \left[\begin{array}{r} 1 \\ 0 \end{array} \right]\nonumber\]

    У цьому випадку матриця\(A\) має одне власне значення кратності два, але тільки один основний власний вектор. Для того щоб діагоналізувати\(A\), нам потрібно побудувати оборотну\(2\times 2\) матрицю\(P\). Однак, оскільки має\(A\) лише один базовий власні вектори, ми не можемо побудувати це\(P\). Зверніть увагу, що якби ми повинні були використовувати\(X_1\) як обидва стовпці\(P\), не\(P\) буде обертається. З цієї причини ми не можемо повторити власні вектори в\(P\).

    Отже, ця матриця не може бути діагоналізована.

    Ідея про те, що матриця не може бути діагональною, свідчить про те, що існують умови, щоб визначити, коли можна діагоналізувати матрицю. Ми бачили раніше в Слідство,\(\PageIndex{1}\) що\(n \times n\) матриця з\(n\) різними власними значеннями діагонально. Виявляється, є й інші корисні тести на діагональність.

    Для початку нам знадобиться наступне визначення.

    Визначення\(\PageIndex{3}\): Eigenspace

    \(A\)Дозволяти\(n\times n\) матриці і\(\lambda\in\mathbb{R}\). У власному просторі\(A\) відповідного\(\lambda\), записаного\(E_{\lambda}(A)\) є множиною всіх власних векторів, що відповідають\(\lambda\).

    Іншими словами, власне простір\(E_{\lambda}(A)\) - це все\(X\) таке, що\(AX = \lambda X\). Зверніть увагу, що цей набір може бути записаний\(E_{\lambda}(A) = \mathrm{null}(\lambda I - A)\), показуючи, що\(E_{\lambda}(A)\) є підпростором\(\mathbb{R}^n\).

    Нагадаємо, що кратність власноївеличини\(\lambda\) - це кількість разів, яке воно зустрічається як корінь характеристичного многочлена.

    Розглянемо тепер наступну лему.

    Лемма\(\PageIndex{3}\): Dimension of the Eigenspace

    Якщо\(A\)\(n\times n\) матриця,\(\lambda\) то\[\dim(E_{\lambda}(A))\leq m\nonumber\] де - власне значення\(A\) кратності\(m\).

    Цей результат говорить нам, що якщо\(\lambda\) є власним значенням\(A\), то кількість лінійно незалежних\(\lambda\) -власних векторів ніколи не перевищує кратність\(\lambda\). Тепер ми використовуємо цей факт, щоб забезпечити корисну умову діагональності.

    Теорема\(\PageIndex{4}\): Diagonalizability Condition

    \(A\)Дозволяти бути\(n \times n\) матрицею\(A\). Потім\(A\) діагонально, якщо і тільки якщо для кожного власне значення\(\lambda\)\(A\),\(\dim(E_{\lambda}(A))\) дорівнює кратності\(\lambda\).

    Складні власні значення

    У деяких додатках матриця може мати власні значення, які є комплексними числами. Наприклад, це часто відбувається в диференціальних рівняннях. До цих питань підходять так само, як і вище.

    Розглянемо наступний приклад.

    Приклад\(\PageIndex{3}\): A Real Matrix with Complex Eigenvalues

    Дозвольте\[A=\left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 2 & -1 \\ 0 & 1 & 2 \end{array} \right ]\nonumber \] знайти власні значення та власні вектори\(A\).

    Рішення

    Спочатку ми знайдемо власні значення, як зазвичай, вирішивши наступне рівняння.

    \[\det \left( \lambda \left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right ] - \left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 2 & -1 \\ 0 & 1 & 2 \end{array} \right ] \right) =0\nonumber \]Це зводиться\(\left( \lambda -1\right) \left( \lambda^{2}-4 \lambda +5\right) =0.\) до Рішення є\(\lambda_1 =1,\lambda_2 = 2+i\) і\(\lambda_3 =2-i.\)

    Немає нічого нового в пошуку власних векторів,\(\lambda_1 =1\) тому це залишається як вправа.

    Розглянемо тепер власне значення.\(\lambda_2 =2+i.\) Як завжди, ми вирішуємо рівняння,\(\left(\lambda I -A \right) X = 0\) як задано.\[\left( \left( 2+i\right) \left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right ] - \left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 2 & -1 \\ 0 & 1 & 2 \end{array} \right ] \right) X =\left [ \begin{array}{r} 0 \\ 0 \\ 0 \end{array} \right ]\nonumber \] Іншими словами, нам потрібно вирішити систему, представлену доповненою матрицею.\[\left [ \begin{array}{crr|r} 1+i & 0 & 0 & 0 \\ 0 & i & 1 & 0 \\ 0 & -1 & i & 0 \end{array} \right ]\nonumber \]

    Тепер ми використовуємо наші операції рядків для вирішення системи. Розділіть перший ряд на,\(\left( 1+i\right)\) а потім візьміть\(-i\) раз другий ряд і додайте до третього ряду. Це дає\[\left [ \begin{array}{rrr|r} 1 & 0 & 0 & 0 \\ 0 & i & 1 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right ]\nonumber\] Тепер множимо другий рядок на,\(-i\) щоб отримати зменшену форму рядка-ешелону, задану\[\left [ \begin{array}{rrr|r} 1 & 0 & 0 & 0 \\ 0 & 1 & -i & 0 \\ 0 & 0 & 0 & 0 \end{array} \right ]\nonumber \] Отже, власні вектори мають вигляд,\[t\left [ \begin{array}{r} 0 \\ i \\ 1 \end{array} \right ]\nonumber\] а основний власний вектор задається\[X_2 = \left [ \begin{array}{r} 0 \\ i \\ 1 \end{array} \right ]\nonumber\]

    В якості вправи переконайтеся, що власні\(\lambda_3 =2-i\) вектори для мають вигляд\[t\left [ \begin{array}{r} 0 \\ -i \\ 1 \end{array} \right ]\nonumber\] Отже, основний власний вектор задається\[X_3 = \left [ \begin{array}{r} 0 \\ -i \\ 1 \end{array} \right ]\nonumber\]

    Як завжди, обов'язково перевірте свої відповіді! Щоб перевірити, ми перевіряємо це\(AX_3 = \left(2 - i \right) X_3\) наступним чином. \[\left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 2 & -1 \\ 0 & 1 & 2 \end{array} \right ] \left [ \begin{array}{r} 0 \\ -i \\ 1 \end{array} \right ] = \left [ \begin{array}{c} 0 \\ -1-2i \\ 2-i \end{array} \right ] =\left( 2-i\right) \left [ \begin{array}{r} 0 \\ -i \\ 1 \end{array} \right ]\nonumber \]

    Тому ми знаємо, що це власне вектор і власне значення є правильними.

    Зверніть увагу\(\PageIndex{3}\), що в прикладі два власних значення були задані\(\lambda_2 = 2 + i\) і\(\lambda_3 = 2-i\). Ви можете згадати, що ці два комплексних числа є сполученими. Виявляється, що всякий раз, коли матриця, що містить реальні записи\(\lambda\), має складне власне значення, вона також має власне значення, яке дорівнює\(\overline{\lambda}\), сполучений з\(\lambda\).