Vecteurs propres et valeurs de l'opérateur linéaire (transformation). Valeurs propres et vecteurs propres d'un opérateur linéaire

Avec la matrice A, s'il existe un nombre l tel que AX = lX.

Dans ce cas, le nombre l s'appelle valeur propre opérateur (matrice A) correspondant au vecteur X.

En d’autres termes, un vecteur propre est un vecteur qui, sous l’influence opérateur linéaire entre dans un vecteur colinéaire, c'est-à-dire multipliez simplement par un certain nombre. En revanche, les vecteurs impropres sont plus complexes à transformer.

Écrivons la définition d'un vecteur propre sous la forme d'un système d'équations :

Déplaçons tous les termes vers la gauche :

Ce dernier système peut s’écrire sous forme matricielle comme suit :

(A - lE)X = O

Le système résultant a toujours une solution nulle X = O. De tels systèmes dans lesquels tous les termes libres sont égaux à zéro sont appelés homogène. Si la matrice d'un tel système est carrée et que son déterminant n'est pas égal à zéro, alors en utilisant les formules de Cramer, nous obtiendrons toujours une solution unique - zéro. On peut prouver qu'un système a des solutions non nulles si et seulement si le déterminant de cette matrice est égal à zéro, c'est-à-dire

|A - lE| = = 0

Cette équation d’inconnue l est appelée équation caractéristique (polynôme caractéristique) matrice A (opérateur linéaire).

On peut prouver que le polynôme caractéristique d'un opérateur linéaire ne dépend pas du choix de la base.

Par exemple, trouvons les valeurs propres et les vecteurs propres de l'opérateur linéaire défini par la matrice A = .

Pour ce faire, créons une équation caractéristique |A - lE| = = (1 - l) 2 - 36 = 1 - 2l + l 2 - 36 = l 2 - 2l - 35 = 0 ; D = 4 + 140 = 144 ; valeurs propres l 1 = (2 - 12)/2 = -5 ; l 2 = (2 + 12)/2 = 7.

Pour trouver les vecteurs propres, nous résolvons deux systèmes d'équations

(A + 5E)X = O

(UNE - 7E)X = O

Pour le premier d’entre eux, la matrice développée prend la forme

,

d'où x 2 = c, x 1 + (2/3)c = 0 ; x 1 = -(2/3)s, c'est-à-dire X (1) = (-(2/3)s;s).

Pour le second d’entre eux, la matrice développée prend la forme

,

d'où x 2 = c 1, x 1 - (2/3)c 1 = 0 ; x 1 = (2/3)s 1, c'est-à-dire X (2) = ((2/3)s 1; s 1).

Ainsi, les vecteurs propres de cet opérateur linéaire sont tous les vecteurs de la forme (-(2/3)с; с) de valeur propre (-5) et tous les vecteurs de la forme ((2/3)с 1 ; с 1) de valeur propre 7 .

On peut prouver que la matrice de l'opérateur A dans la base constituée de ses vecteurs propres est diagonale et a la forme :

,

où l i sont les valeurs propres de cette matrice.

L'inverse est également vrai : si la matrice A dans une base est diagonale, alors tous les vecteurs de cette base seront des vecteurs propres de cette matrice.

On peut également prouver que si un opérateur linéaire a n valeurs propres distinctes deux à deux, alors les vecteurs propres correspondants sont linéairement indépendants et la matrice de cet opérateur dans la base correspondante a une forme diagonale.


Illustrons cela avec l'exemple précédent. Prenons des valeurs arbitraires non nulles c et c 1, mais telles que les vecteurs X (1) et X (2) soient linéairement indépendants, c'est-à-dire constituerait une base. Par exemple, soit c = c 1 = 3, alors X (1) = (-2 ; 3), X (2) = (2 ; 3).

Vérifions l'indépendance linéaire de ces vecteurs :

12 ≠ 0. Dans cette nouvelle base, la matrice A prendra la forme A * = .

Pour le vérifier, utilisons la formule A * = C -1 AC. Tout d’abord, trouvons C -1.

C-1 = ;

Formes quadratiques

Forme quadratique f(x 1, x 2, x n) de n variables est appelé une somme dont chaque terme est soit le carré d'une des variables, soit le produit de deux variables différentes, prises avec un certain coefficient : f(x 1 , x 2, x n) = (un ij = un ji).

La matrice A composée de ces coefficients est appelée matrice forme quadratique. C'est toujours symétrique matrice (c'est-à-dire une matrice symétrique par rapport à la diagonale principale, a ij = a ji).

En notation matricielle, la forme quadratique est f(X) = X T AX, où

En effet

Par exemple, écrivons la forme quadratique sous forme matricielle.

Pour ce faire, on trouve une matrice de forme quadratique. Ses éléments diagonaux sont égaux aux coefficients des variables au carré, et les éléments restants sont égaux aux moitiés des coefficients correspondants de la forme quadratique. C'est pourquoi

Soit la matrice-colonne de variables X être obtenue par une transformation linéaire non dégénérée de la matrice-colonne Y, c'est-à-dire X = CY, où C est une matrice non singulière d'ordre n. Alors la forme quadratique f(X) = X T AX = (CY) T A(CY) = (Y T C T)A(CY) = Y T (C T AC)Y.

Ainsi, avec une transformation linéaire non dégénérée C, la matrice de forme quadratique prend la forme : A* = C T AC.

Par exemple, trouvons la forme quadratique f(y 1, y 2), obtenue à partir de la forme quadratique f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 par transformation linéaire.

La forme quadratique s'appelle canonique(Il a vue canonique), si tous ses coefficients a ij = 0 pour i ≠ j, c'est-à-dire
f(x 1, x 2, x n) = une 11 x 1 2 + une 22 x 2 2 + une nn x n 2 = .

Sa matrice est diagonale.

Théorème(preuve non donnée ici). Toute forme quadratique peut être réduite à Forme canonique en utilisant une transformation linéaire non dégénérée.

Par exemple, réduisons la forme quadratique à la forme canonique
f(x 1, x 2, x 3) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 - x 2 x 3.

Pour ce faire, sélectionnez d'abord un carré complet avec la variable x 1 :

f(x 1, x 2, x 3) = 2(x 1 2 + 2x 1 x 2 + x 2 2) - 2x 2 2 - 3x 2 2 - x 2 x 3 = 2(x 1 + x 2) 2 - 5x 2 2 - x 2 x 3.

Maintenant, nous sélectionnons un carré complet avec la variable x 2 :

f(x 1, x 2, x 3) = 2(x 1 + x 2) 2 - 5(x 2 2 + 2* x 2 *(1/10)x 3 + (1/100)x 3 2) + (5/100)x 3 2 =
= 2(x 1 + x 2) 2 - 5(x 2 - (1/10)x 3) 2 + (1/20)x 3 2.

Alors la transformation linéaire non dégénérée y 1 = x 1 + x 2, y 2 = x 2 + (1/10) x 3 et y 3 = x 3 amène cette forme quadratique à la forme canonique f(y 1, y 2 , y 3) = 2a 1 2 - 5a 2 2 + (1/20)a 3 2 .

A noter que la forme canonique d'une forme quadratique est déterminée de manière ambiguë (la même forme quadratique peut être réduite à la forme canonique différentes façons). Cependant, le reçu différentes façons les formes canoniques ont un certain nombre de propriétés générales. En particulier, le nombre de termes à coefficients positifs (négatifs) d'une forme quadratique ne dépend pas de la méthode de réduction de la forme à cette forme (par exemple, dans l'exemple considéré il y aura toujours deux coefficients négatifs et un positif). Cette propriété est appelée loi d’inertie des formes quadratiques.

Vérifions cela en ramenant la même forme quadratique à la forme canonique d'une manière différente. Commençons la transformation avec la variable x 2 :

f(x 1, x 2, x 3) = 2x 1 2 + 4x 1 x 2 - 3x 2 2 - x 2 x 3 = -3x 2 2 - x 2 x 3 + 4x 1 x 2 + 2x 1 2 = - 3(x2 2 +
+ 2* x 2 ((1/6) x 3 - (2/3)x 1) + ((1/6) x 3 - (2/3)x 1) 2) + 3((1/6) x 3 - (2/3)x 1) 2 + 2x 1 2 =
= -3(x 2 + (1/6) x 3 - (2/3)x 1) 2 + 3((1/6) x 3 + (2/3)x 1) 2 + 2x 1 2 = f (y 1 , y 2 , y 3) = -3y 1 2 -
+3y 2 2 + 2y 3 2, où y 1 = - (2/3)x 1 + x 2 + (1/6) x 3, y 2 = (2/3)x 1 + (1/6) x 3 et oui 3 = X 1 . Ici il y a un coefficient négatif -3 à y 1 et deux coefficients positifs 3 et 2 à y 2 et y 3 (et en utilisant une autre méthode nous avons obtenu un coefficient négatif (-5) à y 2 et deux positifs : 2 à y 1 et 1/20 à y 3).

Il convient également de noter que le rang d'une matrice de forme quadratique, appelée rang de la forme quadratique, est égal au nombre de coefficients non nuls de la forme canonique et ne change pas sous les transformations linéaires.

La forme quadratique f(X) est appelée positivement (négatif) certain, si pour toutes les valeurs des variables qui ne sont pas simultanément égales à zéro, il est positif, c'est-à-dire f(X) > 0 (négatif, c'est-à-dire
f(X)< 0).

Par exemple, la forme quadratique f 1 (X) = x 1 2 + x 2 2 est définie positive, car est une somme de carrés, et la forme quadratique f 2 (X) = -x 1 2 + 2x 1 x 2 - x 2 2 est définie négative, car représente qu'il peut être représenté par f 2 (X) = -(x 1 - x 2) 2.

Dans la plupart des situations pratiques, il est un peu plus difficile d'établir le signe défini d'une forme quadratique, c'est pourquoi nous utilisons pour cela l'un des théorèmes suivants (nous les formulerons sans preuve).

Théorème. Une forme quadratique est définie positive (négative) si et seulement si toutes les valeurs propres de sa matrice sont positives (négatives).

Théorème(Critère Sylvester). Une forme quadratique est définie positive si et seulement si tous les mineurs principaux de la matrice de cette forme sont positifs.

Principal (coin) mineur La matrice d'ordre k A du n ième ordre est appelée le déterminant de la matrice, composé des k premières lignes et colonnes de la matrice A ().

Notez que pour les formes quadratiques définies négatives, les signes des mineurs principaux alternent et le mineur du premier ordre doit être négatif.

Par exemple, examinons la forme quadratique f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 + 3x 2 2 pour la précision du signe.

= (2 - l)*
*(3 - l) - 4 = (6 - 2l - 3l + l 2) - 4 = l 2 - 5l + 2 = 0 ; D = 25 - 8 = 17 ;
. La forme quadratique est donc définie positive.

Méthode 2. Principal mineur du premier ordre de la matrice A D 1 = a 11 = 2 > 0. Principal mineur du deuxième ordre D 2 = = 6 - 4 = 2 > 0. Par conséquent, selon le critère de Sylvester, la forme quadratique est définie positive.

Nous examinons une autre forme quadratique pour la définition du signe, f(x 1, x 2) = -2x 1 2 + 4x 1 x 2 - 3x 2 2.

Méthode 1. Construisons une matrice de forme quadratique A = . L'équation caractéristique aura la forme = (-2 - l)*
*(-3 - l) - 4 = (6 + 2l + 3l + l 2) - 4 = l 2 + 5l + 2 = 0 ; D = 25 - 8 = 17 ;
. La forme quadratique est donc définie négative.

Méthode 2. Principal mineur du premier ordre de la matrice A D 1 = a 11 =
= -2 < 0. Главный минор второго порядка D 2 = = 6 - 4 = 2 >0. Par conséquent, selon le critère de Sylvester, la forme quadratique est définie négative (les signes des principaux mineurs alternent en commençant par le moins).

Et comme autre exemple, nous examinons la forme quadratique déterminée par le signe f(x 1, x 2) = 2x 1 2 + 4x 1 x 2 - 3x 2 2.

Méthode 1. Construisons une matrice de forme quadratique A = . L'équation caractéristique aura la forme = (2 - l)*
*(-3 - l) - 4 = (-6 - 2l + 3l + l 2) - 4 = l 2 + l - 10 = 0 ; D = 1 + 40 = 41 ;
.

L'un de ces chiffres est négatif et l'autre est positif. Les signes des valeurs propres sont différents. Par conséquent, la forme quadratique ne peut être définie ni négativement ni positivement, c'est-à-dire cette forme quadratique n'est pas définie par un signe (elle peut prendre des valeurs de n'importe quel signe).

Méthode 2. Principal mineur du premier ordre de la matrice A D 1 = a 11 = 2 > 0. Principal mineur du deuxième ordre D 2 = = -6 - 4 = -10< 0. Следовательно, по критерию Сильвестра квадратичная форма не является знакоопределенной (знаки главных миноров разные, при этом первый из них - положителен).

1. Le concept d'opérateur linéaire

Laisser R. Et S espaces linéaires qui ont une dimension n Et m respectivement. Opérateur UN agissant de R. V S appelé mappage de la forme, qui associe chaque élément X espace R. un élément oui espace S. Pour cette cartographie nous utiliserons la notation y= UN(X) ou y= UN X.

Définition 1. Opérateur UN agissant de R. V S est appelé linéaire si pour des éléments X 1 et X 2 espaces R. et n'importe quel λ à partir d'un champ numérique K les relations sont satisfaites

  1. UN(X 1 +X 2)=UNX 1 +UNX 2 .
  2. UN(λx)=λ UNX.

Si l'espace S coïncide avec l'espace R., puis un opérateur linéaire qui agit à partir de R. V R. appelé une transformation linéaire de l'espace R..

Soit deux espaces vectoriels n- mesuré R. Et m- mesuré S, et que les bases et soient spécifiées dans ces espaces, respectivement. Que la cartographie soit donnée

Montrons maintenant le contraire, c'est-à-dire que pour tout opérateur linéaire UN, représentant l'espace R. V S et des bases arbitraires et dans R. Et S il existe donc une telle matrice UN avec des éléments d'un champ numérique K, que l'application linéaire (1) définie par cette matrice exprime les coordonnées du vecteur cartographié ouià travers les coordonnées du vecteur d'origine X.

Laisser X− élément arbitraire dans R.. Alors

un ij− coordonnées du vecteur résultant dans la base.

Puis en utilisant l'opérateur UNà l'élément X et en tenant compte de (3) et (4), nous avons

Alors l'égalité (5) prendra la forme suivante :

Alors l’expression (6) peut s’écrire sous forme matricielle :

X∈R signifie que X appartient à l'espace R..

La somme des opérateurs linéaires est notée comme suit C=A+B. Il est facile de vérifier que la somme des opérateurs linéaires est aussi un opérateur linéaire.

Appliquons l'opérateur C au vecteur de base e j, Alors:

3. Multiplication des opérateurs linéaires

Soit trois espaces linéaires R., S Et T. Soit l'opérateur linéaire B affiche R. V S, et l'opérateur linéaire UN affiche S V T.

Définition 3. Produit des opérateurs UN Et B opérateur appelé C, pour lequel l'égalité suivante est vraie pour tout X depuis R.:

Cx=UN(Bx), XR..
(12)

Le produit des opérateurs linéaires est noté C=AB. Il est facile de voir que le produit des opérateurs linéaires est aussi un opérateur linéaire.

Alors l'opérateur C affiche l'espace R. V T. Choisissons dans les espaces R, S Et T bases et désignons-les par UN B Et C matrices d'opérateurs UN,B Et C correspondant à ces bases. Puis les mappages d'opérateurs linéaires UN, B, C

Compte tenu du caractère arbitraire de x, on obtient

Alors l'opérateur C affiche l'espace R. V S. Choisissons dans les espaces R et S bases et désignons-les par UN matrice d'opérateur UN les égalités vectorielles correspondant à ces bases

peut s'écrire sous forme d'égalités matricielles

x, y, z− vecteurs X, oui, z− présenté sous forme de colonnes de coordonnées. Alors

Compte tenu du caractère arbitraire X, on a

Par conséquent, le produit de l’opérateur C le nombre λ correspond au produit de la matrice UN par numéro λ .

5. Opérateur nul

Un opérateur qui mappe tous les éléments de l'espace R à l'élément zéro de l'espace S est appelé opérateur nul et est noté par Ô. L’action de l’opérateur nul peut s’écrire comme suit :

7. Noyau d'opérateur linéaire

Définition 5. Noyau d'un opérateur linéaire UN est appelé l'ensemble de tous ces éléments X espace R. Hache=0.

Le noyau d’un opérateur linéaire est également appelé défaut d’opérateur. Le noyau d'un opérateur linéaire est désigné par le symbole ker UN.

8. Image d'un opérateur linéaire

Définition 6. L'image d'un opérateur linéaire UN est appelé l'ensemble de tous les éléments oui espace R., pour lequel l'égalité suivante est vraie : y = Hache pour tous X depuis R..

L'image d'un opérateur linéaire est notée im UN.

9. Rang de l'opérateur linéaire

Définition 7. Rang d'un opérateur linéaire UN désigné par le rang UN s'appelle un nombre égal à la dimension de l'image im UN opérateur UN, soit : rang UN=faible (je suis UN).

- Algèbre linéaire

Vecteurs propres et valeurs des opérateurs linéaires (transformations)

Soit une transformation linéaire d'un espace linéaire à n dimensions V. Vecteur non nul \boldsymbol(s) de l'espace linéaire V satisfaisant la condition


\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s),


appelé vecteur propre de transformation linéaire\mathcal(A) . Le nombre \lambda en égalité (9,5) s'appelle valeur propre de transformation\mathcal(A) . On dit que le vecteur propre correspond à (appartient à) la valeur propre \lambda . Si l'espace V est réel (complexe), alors la valeur propre \lambda est un nombre réel (complexe).


L'ensemble de toutes les valeurs propres d'une transformation linéaire est appelé son spectre.


Expliquons la signification géométrique des vecteurs propres. Un vecteur s non nul est un vecteur propre de la transformation \mathcal(A) si son image \mathcal(A) (\boldsymbol(s)) est colinéaire à l'image inverse de \boldsymbol(s) . Autrement dit, si \boldsymbol(s) est un vecteur propre, alors la transformation \mathcal(A) a un sous-espace invariant unidimensionnel. L’affirmation inverse est également vraie.


En effet, laissez le vecteur propre \boldsymbol(s) correspondre à une valeur propre \lambda . Tout vecteur \boldsymbol(v) de \nom de l'opérateur(Lin)(\boldsymbol(s)) ressemble à \boldsymbol(v)=\alpha \boldsymbol(s), où \alpha est n'importe quel nombre du champ donné. Trouvons l'image de ce vecteur


\mathcal(A)(\boldsymbol(v))= \mathcal(A)(\alpha \boldsymbol(s))= \alpha\cdot \mathcal(A)(\boldsymbol(s))= \alpha\cdot \ lambda\cdot \boldsymbol(s)\in \operatorname(Lin) (\boldsymbol(s)).


Ainsi, \mathcal(A)(\boldsymbol(v))\in \operatorname(Lin)(\boldsymbol(s)) pour n'importe quel vecteur \boldsymbol(v)\in \operatorname(Lin)(\boldsymbol(s)), c'est à dire. sous-espace \nom de l'opérateur(Lin)(\boldsymbol(s)) invariant sous la transformation \mathcal(A) . Dimension sous-spatiale \nom de l'opérateur(Lin) (\boldsymbol(s)) est égal à un, puisque \boldsymbol(s)\ne \boldsymbol(o) un-prieuré.


L’affirmation inverse peut être prouvée en raisonnant dans l’ordre inverse.

Relation entre les vecteurs propres d'une transformation linéaire (opérateur) et sa matrice

Auparavant, les vecteurs propres et les valeurs propres d'une matrice étaient considérés. Rappelons qu'un vecteur propre d'une matrice carrée A d'ordre n est une colonne numérique non nulle s=\begin(pmatrix)s_1&\cdots&s_(n)\end(pmatrix)^T, condition satisfaisante (7.13) :


A\cdot s=\lambda\cdot s.


Le nombre \lambda dans (9.6) est appelé valeur propre de la matrice A. On croyait que la valeur propre \lambda et les nombres s_i~(i=1,\ldots,n) appartiennent au domaine des nombres complexes.


Ces concepts sont liés aux vecteurs propres et aux valeurs propres d'une transformation linéaire.


Théorème 9.3 sur les vecteurs propres d'une transformation linéaire et sa matrice. Laisser \mathcal(A)\colon V\to V est une transformation linéaire d'un espace linéaire à n dimensions V avec base. Alors la valeur propre \lambda et la ou les colonnes de coordonnées du vecteur propre \boldsymbol(s) de la transformation \mathcal(A) sont la valeur propre et le vecteur propre de la matrice A de cette transformation définie par rapport à la base \boldsymbol(e)_1,\ldots, \boldsymbol(e)_n, c'est à dire.


\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s)\quad \Rightarrow\quad A\cdot s=\lambda\cdot s, Où \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n,~ s=\begin(pmatrix)s_1&\cdots& s_n\end(pmatrix)^T.


L’affirmation inverse est vraie pour conditions additionnelles: si colonne s=\begin(pmatrix) s_1&\cdots&s_n\end(pmatrix)^T et le nombre \lambda sont le vecteur propre et la valeur propre de la matrice A, et les nombres s_1,\ldots,s_n,\lambda appartiennent au même corps numérique sur lequel l'espace linéaire V est défini, alors le vecteur \boldsymbol(s)=s_1 \boldsymbol(e)_1+ \ldots+s_n \boldsymbol(e)_n et le nombre \lambda sont le vecteur propre et la valeur propre de la transformation linéaire \mathcal(A)\colon V\to V avec la matrice A en base \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n.


En fait, la condition (9.5) sous forme coordonnée a la forme (9.6), qui coïncide avec la définition (7.13) du vecteur propre matriciel. Au contraire, l'égalité (9.6) implique l'égalité (9.5) à condition que les vecteurs et \lambda\cdot \boldsymbol(s) défini, c'est-à-dire Nombres s_1,\ldots,s_n,\lambda appartiennent au même champ numérique sur lequel l'espace linéaire est défini.


Rappelons que trouver les valeurs propres d'une matrice revient à résoudre son équation caractéristique \Delta_A(\lambda)=0, Où \Delta_A(\lambda)=\det(A-\lambda E) est le polynôme caractéristique de la matrice A. Pour la transformation linéaire, nous introduisons des concepts similaires.


Polynôme caractéristique de transformation linéaire \mathcal(A)\colon V\to V L'espace linéaire à n dimensions est le polynôme caractéristique de la matrice A de cette transformation, trouvé par rapport à toute base de l'espace V.


L'équation s'appelle équation caractéristique de transformation linéaire.


Conversion \mathcal(A)-\lambda\mathcal(E) appelé caractéristique d'une transformation linéaire \mathcal(A)\colon V\to V.

Remarques 9.4


1. Le polynôme caractéristique d'une transformation linéaire ne dépend pas de la base sur laquelle se trouve la matrice de transformation.


En fait, les matrices \mathop(A)\limits_((\boldsymbol(e))) Et \mathop(A)\limits_((\boldsymbol(f))) transformation linéaire \mathcal(A) en bases (\boldsymbol(e))= (\boldsymbol(e)_1,\ldots, \boldsymbol(e)_n) Et (\boldsymbol(f))=(\boldsymbol(f)_1,\ldots,\boldsymbol(f)_n) sont, d’après (9.4), similaires : \nathop(A)\limits_((\boldsymbol(f)))=S^(-1)\mathop(A)\limits_((\boldsymbol(e)))S, où S est la matrice de transition de la base (\boldsymbol(e)) à la base (\boldsymbol(f)). Comme montré précédemment, les polynômes caractéristiques de telles matrices coïncident (voir propriété 3). Ainsi, pour le polynôme caractéristique de la transformation \mathcal(A) on peut utiliser la notation \Delta_(\mathcal(A))(\lambda), sans préciser la matrice de cette transformation.


2. Du théorème 9.3, il s'ensuit que toute racine complexe (réelle, rationnelle) de l'équation caractéristique est une valeur propre de la transformation linéaire \mathcal(A)\colon V\to V espace linéaire V défini sur le champ des nombres complexes (réels, rationnels).


3. Du Théorème 9.3 il résulte que toute transformation linéaire d'un espace linéaire complexe possède un sous-espace invariant unidimensionnel, puisque cette transformation a une valeur propre (voir point 2), et donc des vecteurs propres. Un tel sous-espace est, par exemple, l'étendue linéaire de tout vecteur propre. Une transformation d'un espace linéaire réel peut ne pas avoir de sous-espaces invariants unidimensionnels si toutes les racines de l'équation caractéristique sont complexes (mais pas réelles).

Théorème 9.4 sur les sous-espaces invariants d'un opérateur linéaire dans un espace réel. Chaque transformation linéaire d'un espace linéaire réel possède un sous-espace invariant unidimensionnel ou bidimensionnel.


En effet, composons une matrice de transformation linéaire A \mathcal(A)\colon V\to V espace linéaire réel V à n dimensions sur une base arbitraire \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n. Les éléments de cette matrice sont des nombres réels. Par conséquent, le polynôme caractéristique \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E) est un polynôme de degré n à coefficients réels. Selon les corollaires 3 et 4 du théorème fondamental de l'algèbre, un tel polynôme peut avoir des racines réelles et des paires de racines conjuguées complexes.


Si est une racine réelle de l’équation caractéristique, alors le vecteur propre correspondant s=\begin(pmatrix)s_1&\cdots&s_n\end(pmatrix)^T la matrice A est également réelle. Il définit donc un vecteur propre \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n transformation linéaire (voir Théorème 9.3). Dans ce cas, il existe un invariant de sous-espace unidimensionnel sous \mathcal(A) \nom de l'opérateur(Lin)(\boldsymbol(s))(voir la signification géométrique des vecteurs propres).


Si \lambda=\alpha\pm\beta i est une paire de racines conjuguées complexes (\beta\ne0), alors le vecteur propre s\ne o de la matrice A a également des éléments complexes : s=\begin(pmatrix)x_1+y_1i&\cdots& x_n+y_n i \end(pmatrix)^T. Il peut être représenté par s=x+yi , où x,\,y sont de vraies colonnes. L'égalité (9.6) aura alors la forme


A\cdot(x+yi)= (\alpha+\beta i)\cdot(x+yi).


En isolant les parties réelles et imaginaires, on obtient le système

\begin(cases)Ax=\alpha x-\beta y,\\ Ay=\beta x+\alpha y.\end(cases)


Montrons que les colonnes (x) et (y) sont linéairement indépendantes. Considérons deux cas. Si x=o, alors de la première équation (9.7) il résulte que y=o, puisque \beta\ne0. Alors s=o, ce qui contredit la condition s\ne o. Supposons que x\ne o et les colonnes x et y soient proportionnelles, c'est-à-dire il existe un nombre réel \gamma tel que y=\gamma x . Alors du système (9.7) on obtient \begin(cases)Ax=(\alpha-\beta\gamma)x,\\ \gamma Ax=(\beta-\alpha\gamma)x. \end(cas) En ajoutant la première équation multipliée par (-\gamma) à la deuxième équation, on arrive à l'égalité [(\beta+\alpha\gamma)-\gamma(\alpha-\beta\gamma)]x=o. Puisque x\ne o , l’expression entre crochets est égale à zéro, c’est-à-dire (\beta+\alpha\gamma)- \gamma(\alpha- \beta\gamma)= \beta(1+\gamma^2)=0. Puisque \beta\ne0 , alors \gamma^2=-1 . Cela ne peut pas arriver puisque \gamma est un nombre réel. Nous avons une contradiction. Ainsi, les colonnes x et y sont linéairement indépendantes.


Considérons le sous-espace où \boldsymbol(x)= x_1 \boldsymbol(e)_1+\ldots+x_n \boldsymbol(e)_n,~ \boldsymbol(y)= y_1 \boldsymbol(e)_1+\ldots+ y_n \boldsymbol(y)_n. Ce sous-espace est bidimensionnel, puisque les vecteurs \boldsymbol(x),\boldsymbol(y) linéairement indépendants (comme indiqué ci-dessus, leur coordonnée colonnes x,y linéairement indépendant). De (9.7) il résulte que \begin(cases)\mathcal(A)(\boldsymbol(x))=\alpha \boldsymbol(x)-\beta \boldsymbol(y),\\ \mathcal(A)(\boldsymbol(y))=\ bêta \boldsymbol(x)+\alpha \boldsymbol(y),\end(cases) ceux. l'image de tout vecteur appartenant à \nom de l'opérateur(Lin)(\boldsymbol(x),\boldsymbol(y)), appartient également \nom de l'opérateur(Lin)(\boldsymbol(x),\boldsymbol(y)). Ainsi, \nom de l'opérateur(Lin)(\boldsymbol(x),\boldsymbol(y)) est un invariant de sous-espace bidimensionnel sous la transformation \mathcal(A) , ce que nous devions prouver.

Trouver les vecteurs propres et les valeurs d'un opérateur linéaire (transformation)

Pour trouver les vecteurs propres et les valeurs propres d'une transformation linéaire \mathcal(A)\colon V\to V espace linéaire réel V, les étapes suivantes doivent être effectuées.


1. Choisissez une base arbitraire \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n espace linéaire V et trouver la matrice de transformation A \mathcal(A) dans cette base.


2. Composer le polynôme caractéristique de la transformation \mathcal(A)\colon\, \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E).


3. Trouvez toutes les différentes vraies racines \lambda_1,\ldots,\lambda_kéquation caractéristique \Delta_(\mathcal(A))(\lambda)=0. Les racines complexes (mais non réelles) de l'équation caractéristique doivent être écartées (voir paragraphe 2 des remarques 9.4).


4. Pour la racine \lambda=\lambda_1 trouver le système fondamental \varphi_1, \varphi_2,\ldots,\varphi_(n-r) (A-\lambda_1E)x=o, Où r=\nom de l'opérateur(rg)(A-\lambda_1E). Pour ce faire, vous pouvez utiliser soit un algorithme de résolution d'un système homogène, soit l'une des méthodes permettant de trouver la matrice fondamentale.


5. Écrivez les vecteurs propres linéairement indépendants de la transformation \mathcal(A) correspondant à la valeur propre \lambda_1 :


\begin(matrix) \boldsymbol(s)_1=\varphi_(1\,1)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,1)\boldsymbol(e)_n,\\ \boldsymbol(s) _2=\varphi_(1\,2)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,2)\boldsymbol(e)_n,\\ \vdots\\ \boldsymbol(s)_(n-r)=\ varphi_(1\,n-r) \boldsymbol(e)_1+ \ldots+\varphi_(n\,n-r)\boldsymbol(e)_n. \end(matrice)


Pour trouver l'ensemble de tous les vecteurs propres correspondant à la valeur propre \lambda_1, formez des combinaisons linéaires non nulles


\boldsymbol(s)= C_1 \boldsymbol(s)_1+C_2 \boldsymbol(s)_2+\ldots+ C_(n-r)\boldsymbol(s)_(n-r),


C_1,C_2,\ldots,C_(n-r)- des constantes arbitraires qui ne sont pas égales à zéro en même temps.


Répétez les étapes 4, 5 pour les valeurs propres restantes \lambda_2,\ldots,\lambda_k transformation linéaire \mathcal(A) .


Pour trouver les vecteurs propres d'une transformation linéaire d'un espace linéaire complexe, vous devez déterminer à l'étape 3 toutes les racines de l'équation caractéristique et, sans écarter les racines complexes, effectuer les étapes 4 et 5 pour elles.

Exemples de vecteurs propres d'opérateurs linéaires (transformations)

1. Pour une conversion zéro \mathcal(O)\colon V\to V tout vecteur non nul est un vecteur propre correspondant à une valeur propre nulle \lambda=0 , puisque \mathcal(O)(\boldsymbol(s))=0\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.


2. Pour la transformation de l'identité \mathcal(E)\colon V\to V tout vecteur non nul \symbole(s) gras\dans V est la valeur propre correspondant à la valeur propre d'identité \lambda=1 , puisque \mathcal(E) (\boldsymbol(s))=1\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.


3. Pour la symétrie centrale \mathcal(Z)_(\boldsymbol(o))\colon V\à V tout vecteur non nul \symbole(s) gras\dans V \mathcal(Z)_(\boldsymbol(o)) (\boldsymbol(s))=(-1)\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.


4. Pour l'homothétie \mathcal(H)_(\lambda)\colon V\to V tout vecteur non nul \symbole(s) gras\dans V est la valeur propre correspondant à la valeur propre \lambda (le coefficient d'homothétie), puisque \mathcal(H)_(\lambda) (\boldsymbol(\boldsymbol(s)))= \lambda\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.


5. Pour tourner \mathcal(R)_(\varphi)\colon V_2\to V_2 plan (à ) il n'y a pas de vecteurs propres, puisque lorsqu'elle est tournée d'un angle non multiple de \pi, l'image de chaque vecteur non nul est non colinéaire à l'image inverse. Ici, nous considérons la rotation du plan réel, c'est-à-dire espace vectoriel bidimensionnel sur le champ des nombres réels.


6. Pour l'opérateur de différenciation \mathcal(D)\colon P_n(\mathbb(R))\to P_n(\mathbb(R)) tout polynôme non nul de degré zéro (pas identiquement nul) est un vecteur propre correspondant à la valeur propre nulle \lambda=0 , puisque \mathcal(D)(s(x))=0\cdot s(x) \forall s(x)\equiv \text(const). Tout polynôme de degré non nul n'est pas un vecteur propre, puisque le polynôme n'est pas proportionnel à sa dérivée : \mathcal(D)(s(x))=s"(x)\ne \lambda\cdot s(x), puisqu'ils ont des diplômes différents.


7. Considérez l'opérateur \Pi_(L_1)\colon V\à V projection sur le sous-espace L_1 parallèle au sous-espace L_2. Ici V=L_1\oplus L_2, \Pi_(L_1)(\boldsymbol(v)_1+ \boldsymbol(v)_2)=\boldsymbol(v)_1 Pour \Pi_(L_1)(\boldsymbol(v)_1)=1\cdot \boldsymbol(v)_1, et tout vecteur non nul est un vecteur propre correspondant à la valeur propre \lambda=0 , puisque \Pi_(L_2)(\boldsymbol(v)_2)=0\cdot \boldsymbol(v)_2 \Pi_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1= \lambda(\boldsymbol(v)_1+\boldsymbol(v)_2) c'est possible soit à soit à .


8. Considérez l'opérateur \mathcal(Z)_(L_1)\colon V\to V réflexions sur le sous-espace L_1 parallèle au sous-espace L_2. Ici V=L_1\oplus L_2 \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2, Pour \boldsymbol(v)=\boldsymbol(v)_1+\boldsymbol(v)_2, \boldsymbol(v)_1\in L_1,~ \boldsymbol(v)_2\in L_2. Pour cet opérateur, tout vecteur non nul \boldsymbol(v)_1\in L_1 est la valeur propre correspondant à la valeur propre \lambda=1 , puisque \mathcal(Z)_(L_1) (\boldsymbol(v)_1)= 1\cdot \boldsymbol(v)_1, et tout vecteur non nul \boldsymbol(v)_2\in L_2 est la valeur propre correspondant à la valeur propre \lambda=-1 , puisque \mathcal(Z)_(L_2) (\boldsymbol(v)_2)= (-1)\cdot \boldsymbol(v)_2. Les autres vecteurs ne sont pas des vecteurs propres, puisque l'égalité \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2= \lambda(\boldsymbol()_1+ \boldsymbol(v )_2) possible soit avec \boldsymbol(v)_1=\boldsymbol(o), ou à \boldsymbol(v)_2= \boldsymbol(o).


9. Dans l'espace V_3 des rayons vecteurs de l'espace, tracé à partir d'un point fixe O, considérons une rotation d'un angle \varphi\ne\pi k,~ k\in\mathbb(Z), autour de l'axe \ell défini par le rayon vecteur \vec(\ell) . Tout vecteur non nul colinéaire au vecteur \vec(\ell) est une valeur propre correspondant à la valeur propre \lambda=1 . Cette transformation n'a pas d'autres vecteurs propres.

Exemple 9.1. Trouver les valeurs propres et les vecteurs propres de l'opérateur de différenciation \mathcal(D)\colon T_1\à T_1, transformant l'espace des polynômes trigonométriques (fréquence \omega=1) :


a) avec des coefficients réels T_1=T_1(\mathbb(R))= \operatorname(Lin) (\sin(t),\cos(t));

b) avec des coefficients complexes T_1=T_1(\mathbb(C))= \operatorname(Lin) (\sin(t),\cos(t)).


Solution. 1. Choisissons une base standard e_1(t)=\sin(t),~ e_2(t)=\cos(t) et sur cette base on compose la matrice D de l'opérateur \mathcal(D) :


D=\begin(pmatrix)0&-1\\ 1&0 \end(pmatrix)\!.


2. Composons le polynôme caractéristique de la transformation \mathcal(D)\colon\, \Delta_(\mathcal(D))(\lambda)= \begin(vmatrix)-\lambda&-1\\ 1&-\lambda\end(vmatrix)= \lambda^2+ 1..


3. L'équation caractéristique \lambda^2+1=0 a des racines conjuguées complexes \lambda_1=i,~ \lambda_2=-i. Il n'y a pas de racines réelles, donc la transformation \mathcal(D) de l'espace réel T_1(\mathbb(R)) (cas (a)) n'a pas de valeurs propres, et donc pas de vecteurs propres. La transformation \mathcal(D) de l'espace complexe T_1(\mathbb(C)) (cas (b)) a des valeurs propres complexes \lambda_1,\,\lambda_2.


4(1). Pour la racine \lambda_1=i on trouve le système fondamental \varphi_1 de solutions du système homogène d'équations (D-\lambda_1 E)x=o :


\begin(pmatrix)-i&-1\\ 1&-i\end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.


Réduisons la matrice système sous forme pas à pas en multipliant la première équation par (i) et en la soustrayant de la deuxième équation :


\begin(pmatrix)-i&-1\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\ \0&0\end(pmatrix)\!.


Nous exprimons la variable de base x_1 en fonction de la variable libre : x_1=ix_2. En supposant x_2=1, nous obtenons x_1=i, c'est-à-dire \varphi=\begin(pmatrix)i&1 \end(pmatrix)^T.


5(1). On note le vecteur propre correspondant à la valeur propre \lambda_1= i\colon\, s_1(t)=i\cdot\sin(t)+1\cdot\cos(t). L'ensemble de tous les vecteurs propres correspondant à la valeur propre \lambda_1=i forme des fonctions non nulles proportionnelles à s_1(t) .


4(2). Pour la racine \lambda_2=-i on trouve de la même manière le système fondamental (constitué d'un vecteur) \varphi_2=\begin(pmatrix)-i&1 \end(pmatrix)^T solutions à un système homogène d'équations (D-\lambda_2E)x=o :


\begin(pmatrix)i&-1\\ 1&i \end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.


5(2). On note le vecteur propre correspondant à la valeur propre \lambda_2=-i\colon\, s_2(t)=-i\cdot\sin(t)+1\cdot\cos(t). L'ensemble de tous les vecteurs propres correspondant à la valeur propre \lambda_2=-i forme des fonctions non nulles proportionnelles à s_2(t) .

voir également

Définition 5.3. Vecteur non nul x dans l'espace linéaire L s'appelle vecteur propre de l'opérateur linéaire A : L → L, si pour un nombre réel A la relation Ax = λx est vraie. Dans ce cas, le nombre λ est appelé valeur propre (valeur propre) de l'opérateur linéaire UN.

Exemple 5.3. L'espace linéaire K n [x] des polynômes de degré au plus n contient des polynômes de degré zéro, c'est-à-dire fonctions permanentes. Puisque dc/dx = 0 = 0 c, les polynômes de degré zéro p(x) = c ≠ 0 sont les vecteurs propres de l'opérateur de différenciation linéaire, et le nombre λ = 0 est la valeur propre de cet opérateur. #

L'ensemble de toutes les valeurs propres d'un opérateur linéaire est appelé spectre de l'opérateur linéaire . Chaque vecteur propre est associé à sa propre valeur propre. En effet, si un vecteur x satisfait simultanément deux égalités Ax = λx et Ax = μx, alors λx = μx, d'où (λ - μ)x = 0. Si λ - μ ≠ 0, multipliez l'égalité par le nombre (λ - μ ) -1 et par conséquent nous obtenons que x = 0. Mais cela contredit la définition d'un vecteur propre, puisqu'un vecteur propre est toujours non nul.

Chaque valeur propre a ses propres vecteurs propres, et il en existe une infinité. En effet, si x est un vecteur propre d'un opérateur linéaire A de valeur propre λ, c'est-à-dire Ах = λx, alors pour tout nombre réel non nul α on a αx ≠ 0 et А(αх) = α(Ах) = αλx = λ(αx). Cela signifie que le vecteur αx est également un vecteur propre pour l'opérateur linéaire.

Remarque 5.1. Ils parlent souvent de valeurs propres (nombres), spectre et vecteurs propres d'une matrice carrée . Cela signifie ce qui suit. La matrice A d'ordre n est matrice quelques opérateur linéaire dans un fixe base, Opérant dans espace linéaire à n dimensions. Par exemple, si on s'arrête à base standard dans l'espace arithmétique linéaire R n , alors la matrice A définit un opérateur linéaire A, mappant un vecteur x ∈ R n avec une colonne de coordonnées x à un vecteur avec une colonne de coordonnées Ax. La matrice A est précisément la matrice A. Il est naturel d'identifier un opérateur à sa matrice de la même manière qu'un vecteur arithmétique s'identifie à une colonne de ses coordonnées. Cette identification, souvent utilisée et pas toujours précisée, permet de transférer des termes « opérateur » vers des matrices.

Le spectre d'un opérateur linéaire est étroitement lié à son équation caractéristique.

Théorème 5.3. Pour qu'un nombre réel λ soit une valeur propre d'un opérateur linéaire, il faut et il suffit qu'il soit la racine de l'équation caractéristique de cet opérateur.

◄ Nécessité. Soit le nombre λ une valeur propre de l'opérateur linéaire A : L → L. Cela signifie qu'il existe un vecteur x ≠ 0 pour lequel

Axe = λx. (5.2)

Notez que dans L il y a opérateur d'identité I : Ix = x pour tout vecteur x. A l'aide de cet opérateur, on transforme l'égalité (5.2) : Ах = λIx, ou

(A - λI)х = 0. (5.3)

Écrivons l'égalité vectorielle (5.3) dans une base b. La matrice de l'opérateur linéaire A - λI sera la matrice A - λE, où A est la matrice de l'opérateur linéaire A en base b, et E est la matrice identité, et soit x la colonne de coordonnées du vecteur propre x . Alors x ≠ 0, et l'égalité vectorielle (5.3) est équivalente à la matrice

(A - λE)x = 0, (5.4)

qui est une forme matricielle d'enregistrement d'un système homogène de équations algébriques(SLAE) avec une matrice carrée A - λE d'ordre n. Ce système a une solution non nulle, qui est la colonne de coordonnées x du vecteur propre x. Par conséquent, la matrice A - λE du système (5.4) a un déterminant nul, c'est-à-dire det(A - λE) = 0. Cela signifie que λ est la racine de l'équation caractéristique de l'opérateur linéaire A.

Adéquation. Il est facile de voir que le raisonnement ci-dessus peut être effectué dans l’ordre inverse. Si λ est la racine de l'équation caractéristique, alors dans une base b donnée, l'égalité det (A - λE) = 0 est vraie. Par conséquent, la matrice du SLAE homogène (5.4), écrite sous forme matricielle, est dégénérée, et le le système a une solution x non nulle. Cette solution non nulle est un ensemble de coordonnées dans la base b d'un vecteur x non nul pour lequel l'égalité vectorielle (5.3) ou son égalité équivalente (5.2) est valable. Nous arrivons à la conclusion que le nombre λ est une valeur propre de l'opérateur linéaire A.

Chaque valeur propre λ de la matrice (opérateur linéaire) est associée à son multiplicité, en le mettant égal à la multiplicité de la racine λ de l'équation caractéristique de cette matrice (de cet opérateur linéaire).

L'ensemble de tous les vecteurs propres correspondant à une valeur propre donnée d'un opérateur linéaire n'est pas sous-espace linéaire, puisque cet ensemble ne contient pas vecteur zéro, ce qui, par définition, ne peut pas être correct. Mais cet obstacle formel et facilement levé est le seul. Notons £(A, λ) l'ensemble de tous les vecteurs propres de l'opérateur linéaire A dans l'espace linéaire L correspondant à la valeur propre λ, avec le vecteur nul ajouté à cet ensemble.

Théorème 5.4. L'ensemble £(A,λ) est un sous-espace linéaire dans L.

◄ Choisissons deux arbitrairement vecteur x,y∈ £(A, λ) et prouver que pour tout réel α et β le vecteur αx + βу appartient aussi à £(A, λ). Pour ce faire, on calcule l'image de ce vecteur sous l'action de l'opérateur linéaire A :

А(αх + βу) = А((αx) + А(βу) = αАх + βАу = α(λх) + β(λу) = λ(αx) + λ(βу) = λ(αx + βу).

Ainsi, pour le vecteur z = αх + βу la relation Az = λz est vraie. Si z est un vecteur nul, alors il appartient à £(A,λ). Si elle est non nulle, alors, selon la relation prouvée, c'est une valeur propre avec une valeur propre λ et appartient à nouveau à l'ensemble £(A, λ).

Le sous-espace linéaire £(A,λ) est parfois appelé sous-espace propre de l'opérateur linéaire *. C'est un cas particulier sous-espace invariant opérateur linéaire A - un sous-espace linéaire tel que pour tout vecteur x ∈ H le vecteur Ax appartient également à H.

Un sous-espace invariant d'un opérateur linéaire est également l'étendue linéaire de tout système de ses vecteurs propres. Un sous-espace invariant d'un opérateur linéaire non lié à ses vecteurs propres est image de l'opérateur.

Les matrices diagonales ont la structure la plus simple. La question se pose de savoir s'il est possible de trouver une base dans laquelle la matrice de l'opérateur linéaire aurait une forme diagonale. Une telle base existe.
Donnons-nous un espace linéaire R n et un opérateur linéaire A agissant dans celui-ci ; dans ce cas, l'opérateur A prend R n en lui-même, c'est-à-dire A:R n → R n .

Définition. Un vecteur non nul est appelé vecteur propre de l'opérateur A si l'opérateur A se traduit par un vecteur colinéaire, c'est-à-dire. Le nombre λ est appelé valeur propre ou valeur propre de l'opérateur A, correspondant au vecteur propre.
Notons quelques propriétés des valeurs propres et des vecteurs propres.
1. Toute combinaison linéaire de vecteurs propres l'opérateur A correspondant à la même valeur propre λ est un vecteur propre de même valeur propre.
2. Vecteurs propres l'opérateur A avec des valeurs propres deux à deux différentes λ 1 , λ 2 , …, λ m sont linéairement indépendants.
3. Si les valeurs propres λ 1 =λ 2 = λ m = λ, alors la valeur propre λ ne correspond pas à plus de m vecteurs propres linéairement indépendants.

Donc, s’il existe n vecteurs propres linéairement indépendants , correspondant à différentes valeurs propres λ 1, λ 2, ..., λ n, alors elles sont linéairement indépendantes, elles peuvent donc être prises comme base de l'espace R n. Retrouvons la forme de la matrice de l'opérateur linéaire A à base de ses vecteurs propres, pour laquelle nous agirons avec l'opérateur A à base de vecteurs : Alors .
Ainsi, la matrice de l'opérateur linéaire A sur la base de ses vecteurs propres a une forme diagonale, et les valeurs propres de l'opérateur A sont le long de la diagonale.
Existe-t-il une autre base dans laquelle la matrice a une forme diagonale ? La réponse à cette question est donnée par le théorème suivant.

Théorème. La matrice d'un opérateur linéaire A dans la base (i = 1..n) a une forme diagonale si et seulement si tous les vecteurs de la base sont des vecteurs propres de l'opérateur A.

Règle pour trouver les valeurs propres et les vecteurs propres

Soit un vecteur , où x 1, x 2, …, x n sont les coordonnées du vecteur par rapport à la base et est le vecteur propre de l'opérateur linéaire A correspondant à la valeur propre λ, c'est-à-dire. Cette relation peut s'écrire sous forme matricielle

. (*)


L'équation (*) peut être considérée comme une équation pour trouver , et , c'est-à-dire que nous nous intéressons aux solutions non triviales, puisque le vecteur propre ne peut pas être nul. On sait que les solutions non triviales d'un système homogène équations linéaires existe si et seulement si det(A - λE) = 0. Ainsi, pour que λ soit une valeur propre de l'opérateur A il faut et suffisant que det(A - λE) = 0.
Si l'équation (*) est écrite en détail sous forme de coordonnées, nous obtenons un système d'équations linéaires homogènes :

(1)
- matrice d'opérateur linéaire.

Le système (1) a une solution non nulle si son déterminant D est égal à zéro


Nous avons reçu une équation pour trouver les valeurs propres.
Cette équation est appelée équation caractéristique, et son côté gauche est appelé polynôme caractéristique de la matrice (opérateur) A. Si le polynôme caractéristique n'a pas de racines réelles, alors la matrice A n'a pas de vecteurs propres et ne peut pas être réduite à une forme diagonale.
Soit λ 1, λ 2, …, λ n les racines réelles de l'équation caractéristique, et parmi elles il peut y avoir des multiples. En substituant ces valeurs tour à tour dans le système (1), on trouve les vecteurs propres.

Exemple 12. L'opérateur linéaire A agit dans R 3 selon la loi, où x 1, x 2, .., x n sont les coordonnées du vecteur dans la base , , . Trouvez les valeurs propres et les vecteurs propres de cet opérateur.
Solution. On construit la matrice de cet opérateur :
.
Nous créons un système pour déterminer les coordonnées des vecteurs propres :

Nous composons une équation caractéristique et la résolvons :

.
λ 1,2 = -1, λ 3 = 3.
En substituant λ = -1 dans le système, nous avons :
ou
Parce que , alors il y a deux variables dépendantes et une variable libre.
Soit x 1 une inconnue libre, alors Nous résolvons ce système de n'importe quelle manière et trouvons la solution générale de ce système : Le système fondamental de solutions se compose d'une solution, puisque n - r = 3 - 2 = 1.
L'ensemble des vecteurs propres correspondant à la valeur propre λ = -1 a la forme : , où x 1 est tout nombre autre que zéro. Choisissons un vecteur dans cet ensemble, par exemple en mettant x 1 = 1 : .
En raisonnant de la même manière, on trouve le vecteur propre correspondant à la valeur propre λ = 3 : .
Dans l'espace R 3, la base est constituée de trois vecteurs linéairement indépendants, mais nous n'avons reçu que deux vecteurs propres linéairement indépendants, à partir desquels la base dans R 3 ne peut pas être composée. Par conséquent, on ne peut pas réduire la matrice A d’un opérateur linéaire à une forme diagonale.

Exemple 13. Étant donné une matrice .
1. Prouver que le vecteur est un vecteur propre de la matrice A. Trouver la valeur propre correspondant à ce vecteur propre.
2. Trouvez une base dans laquelle la matrice A a une forme diagonale.
Solution.
1. Si , alors est un vecteur propre

.
Le vecteur (1, 8, -1) est un vecteur propre. Valeur propre λ = -1.
La matrice a une forme diagonale dans une base constituée de vecteurs propres. L'un d'eux est célèbre. Trouvons le reste.
Nous recherchons les vecteurs propres du système :

Équation caractéristique : ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ 2 - 1) = 0
λ 1 = -3, λ 2 = 1, λ 3 = -1.
Trouvons le vecteur propre correspondant à la valeur propre λ = -3 :

Le rang de la matrice de ce système est deux et égal au nombre d'inconnues, donc ce système n'a qu'une solution nulle x 1 = x 3 = 0. x 2 ici peut être autre chose que zéro, par exemple, x 2 = 1. Ainsi, le vecteur (0 ,1,0) est un vecteur propre correspondant à λ = -3. Allons vérifier:
.
Si λ = 1, alors on obtient le système
Le rang de la matrice est deux. Nous biffons la dernière équation.
Soit x 3 une inconnue libre. Alors x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
En supposant x 3 = 1, nous avons (-3,-9,1) - un vecteur propre correspondant à la valeur propre λ = 1. Vérifiez :

.
Puisque les valeurs propres sont réelles et distinctes, les vecteurs qui leur correspondent sont linéairement indépendants, ils peuvent donc être pris comme base dans R 3 . Ainsi, sur la base , , la matrice A a la forme :
.
Toutes les matrices d'un opérateur linéaire A:R n → R n ne peuvent pas être réduites à une forme diagonale, car pour certains opérateurs linéaires, il peut y avoir moins de n vecteurs propres indépendants linéaires. Cependant, si la matrice est symétrique, alors la racine de l'équation caractéristique de multiplicité m correspond exactement à m vecteurs linéairement indépendants.

Définition. Une matrice symétrique est une matrice carrée dans laquelle les éléments symétriques par rapport à la diagonale principale sont égaux, c'est-à-dire dans laquelle .
Remarques. 1. Toutes les valeurs propres d'une matrice symétrique sont réelles.
2. Les vecteurs propres d'une matrice symétrique correspondant à des valeurs propres deux à deux différentes sont orthogonaux.
Comme l'une des nombreuses applications de l'appareil étudié, nous considérons le problème de la détermination du type d'une courbe du second ordre.