Opérateurs linéaires. Valeurs propres et vecteurs propres d'un opérateur linéaire

Le vecteur X ≠ 0 est appelé vecteur propre opérateur linéaire de matrice A, s'il existe un nombre tel que AX =X.

Dans ce cas, le numéro  est appelé valeur propre opérateur (matrice A) correspondant au vecteur x.

En d'autres termes, un vecteur propre est un vecteur qui, sous l'action d'un opérateur linéaire, se transforme en vecteur colinéaire, c'est-à-dire multipliez simplement par un certain nombre. En revanche, les vecteurs impropres sont plus complexes à transformer.

Écrivons la définition d'un vecteur propre sous la forme d'un système d'équations :

Déplaçons tous les termes vers la gauche :

Ce dernier système peut s’écrire sous forme matricielle comme suit :

(UNE - E)X = O

Le système résultant a toujours une solution nulle X = O. De tels systèmes dans lesquels tous les termes libres sont égaux à zéro sont appelés homogène. Si la matrice d’un tel système est carrée et que son déterminant n’est pas égal à zéro, alors en utilisant les formules de Cramer, nous obtiendrons toujours une solution unique – zéro. On peut prouver qu'un système a des solutions non nulles si et seulement si le déterminant de cette matrice est égal à zéro, c'est-à-dire

|A - E| = = 0

Cette équation à inconnue s’appelle équation caractéristique(polynôme caractéristique) matrice A (opérateur linéaire).

On peut prouver que le polynôme caractéristique d'un opérateur linéaire ne dépend pas du choix de la base.

Par exemple, trouvons les valeurs propres et les vecteurs propres de l'opérateur linéaire défini par la matrice A = .

Pour ce faire, créons une équation caractéristique |A - E| = = (1 -) 2 – 36 = 1 – 2+ 2 - 36 = 2 – 2- 35 ; D = 4 + 140 = 144 ; valeurs propres 1 = (2 - 12)/2 = -5 ; 2 = (2 + 12)/2 = 7.

Pour trouver les vecteurs propres, nous résolvons deux systèmes d'équations

(A + 5E)X = O

(UNE - 7E)X = O

Pour le premier d’entre eux, la matrice développée prend la forme

,

d'où x 2 = c, x 1 + (2/3)c = 0 ; x 1 = -(2/3)s, c'est-à-dire X (1) = (-(2/3)s;s).

Pour le second d’entre eux, la matrice développée prend la forme

,

d'où x 2 = c 1, x 1 - (2/3)c 1 = 0 ; x 1 = (2/3)s 1, c'est-à-dire X (2) = ((2/3)s 1; s 1).

Ainsi, les vecteurs propres de cet opérateur linéaire sont tous les vecteurs de la forme (-(2/3)с; с) de valeur propre (-5) et tous les vecteurs de la forme ((2/3)с 1 ; с 1) de valeur propre 7 .

On peut prouver que la matrice de l'opérateur A dans la base constituée de ses vecteurs propres est diagonale et a la forme :

,

où  i sont les valeurs propres de cette matrice.

L'inverse est également vrai : si la matrice A dans une base est diagonale, alors tous les vecteurs de cette base seront des vecteurs propres de cette matrice.

On peut également prouver que si un opérateur linéaire a n valeurs propres distinctes deux à deux, alors les vecteurs propres correspondants sont linéairement indépendants et la matrice de cet opérateur dans la base correspondante a une forme diagonale.

Définition 5.3. Vecteur non nul x dans l'espace linéaire L s'appelle vecteur propre de l'opérateur linéaire A : L → L, si pour un nombre réel A la relation Ax = λx est vraie. Dans ce cas, le nombre λ est appelé valeur propre (valeur propre) de l'opérateur linéaire UN.

Exemple 5.3. L'espace linéaire K n [x] des polynômes de degré au plus n contient des polynômes de degré zéro, c'est-à-dire fonctions permanentes. Puisque dc/dx = 0 = 0 c, les polynômes de degré zéro p(x) = c ≠ 0 sont les vecteurs propres de l'opérateur de différenciation linéaire, et le nombre λ = 0 est la valeur propre de cet opérateur. #

L'ensemble de toutes les valeurs propres d'un opérateur linéaire est appelé spectre de l'opérateur linéaire . Chaque vecteur propre est associé à sa propre valeur propre. En effet, si un vecteur x satisfait simultanément deux égalités Ax = λx et Ax = μx, alors λx = μx, d'où (λ - μ)x = 0. Si λ - μ ≠ 0, multipliez l'égalité par le nombre (λ - μ ) -1 et par conséquent nous obtenons que x = 0. Mais cela contredit la définition d'un vecteur propre, puisqu'un vecteur propre est toujours non nul.

Chaque valeur propre a ses propres vecteurs propres, et il en existe une infinité. En effet, si x est un vecteur propre d'un opérateur linéaire A de valeur propre λ, c'est-à-dire Ах = λx, alors pour tout nombre réel non nul α on a αx ≠ 0 et А(αх) = α(Ах) = αλx = λ(αx). Cela signifie que le vecteur αx est également un vecteur propre pour l'opérateur linéaire.

Remarque 5.1. Ils parlent souvent de valeurs propres (nombres), spectre et vecteurs propres d'une matrice carrée . Cela signifie ce qui suit. La matrice A d'ordre n est matrice quelques opérateur linéaire dans un fixe base, Opérant dans espace linéaire à n dimensions. Par exemple, si on s'arrête à base standard dans l'espace arithmétique linéaire R n , alors la matrice A définit un opérateur linéaire A, mappant un vecteur x ∈ R n avec une colonne de coordonnées x à un vecteur avec une colonne de coordonnées Ax. La matrice A est précisément la matrice A. Il est naturel d'identifier un opérateur à sa matrice de la même manière qu'un vecteur arithmétique s'identifie à une colonne de ses coordonnées. Cette identification, souvent utilisée et pas toujours précisée, permet de transférer des termes « opérateur » vers des matrices.

Le spectre d'un opérateur linéaire est étroitement lié à son équation caractéristique.

Théorème 5.3. Pour qu'un nombre réel λ soit une valeur propre d'un opérateur linéaire, il faut et il suffit qu'il soit la racine de l'équation caractéristique de cet opérateur.

◄ Nécessité. Soit le nombre λ une valeur propre de l'opérateur linéaire A : L → L. Cela signifie qu'il existe un vecteur x ≠ 0 pour lequel

Axe = λx. (5.2)

Notez que dans L il y a opérateur d'identité I : Ix = x pour tout vecteur x. A l'aide de cet opérateur, on transforme l'égalité (5.2) : Ах = λIx, ou

(A - λI)x = 0. (5.3)

Écrivons l'égalité vectorielle (5.3) dans une base b. La matrice de l'opérateur linéaire A - λI sera la matrice A - λE, où A est la matrice de l'opérateur linéaire A en base b, et E est la matrice identité, et soit x la colonne de coordonnées du vecteur propre x . Alors x ≠ 0, et l'égalité vectorielle (5.3) est équivalente à la matrice

(A - λE)x = 0, (5.4)

qui est une forme matricielle d'enregistrement d'un système homogène de équations algébriques(SLAE) avec une matrice carrée A - λE d'ordre n. Ce système a une solution non nulle, qui est la colonne de coordonnées x du vecteur propre x. Par conséquent, la matrice A - λE du système (5.4) a un déterminant nul, c'est-à-dire det(A - λE) = 0. Cela signifie que λ est la racine de l'équation caractéristique de l'opérateur linéaire A.

Adéquation. Il est facile de voir que le raisonnement ci-dessus peut être effectué dans l’ordre inverse. Si λ est la racine de l'équation caractéristique, alors dans une base b donnée, l'égalité det (A - λE) = 0 est vraie. Par conséquent, la matrice du SLAE homogène (5.4), écrite sous forme matricielle, est dégénérée, et le le système a une solution x non nulle. Cette solution non nulle est un ensemble de coordonnées dans la base b d'un vecteur x non nul pour lequel l'égalité vectorielle (5.3) ou son égalité équivalente (5.2) est valable. Nous arrivons à la conclusion que le nombre λ est une valeur propre de l'opérateur linéaire A.

Chaque valeur propre λ de la matrice (opérateur linéaire) est associée à son multiplicité, en le mettant égal à la multiplicité de la racine λ de l'équation caractéristique de cette matrice (de cet opérateur linéaire).

L'ensemble de tous les vecteurs propres correspondant à une valeur propre donnée d'un opérateur linéaire n'est pas sous-espace linéaire, puisque cet ensemble ne contient pas vecteur zéro, ce qui, par définition, ne peut pas être correct. Mais cet obstacle formel et facilement levé est le seul. Notons £(A, λ) l'ensemble de tous les vecteurs propres de l'opérateur linéaire A dans l'espace linéaire L correspondant à la valeur propre λ, avec le vecteur nul ajouté à cet ensemble.

Théorème 5.4. L'ensemble £(A,λ) est un sous-espace linéaire dans L.

◄ Choisissons deux arbitrairement vecteur x,y∈ £(A, λ) et prouver que pour tout réel α et β le vecteur αx + βу appartient aussi à £(A, λ). Pour ce faire, on calcule l'image de ce vecteur sous l'action de l'opérateur linéaire A :

А(αх + βу) = А((αx) + А(βу) = αАх + βАу = α(λх) + β(λу) = λ(αx) + λ(βу) = λ(αx + βу).

Ainsi, pour le vecteur z = αх + βу la relation Az = λz est vraie. Si z est un vecteur nul, alors il appartient à £(A,λ). Si elle est non nulle, alors, selon la relation prouvée, c'est une valeur propre avec une valeur propre λ et appartient à nouveau à l'ensemble £(A, λ).

Le sous-espace linéaire £(A,λ) est parfois appelé sous-espace propre de l'opérateur linéaire *. C'est un cas particulier sous-espace invariant opérateur linéaire A - un sous-espace linéaire tel que pour tout vecteur x ∈ H le vecteur Ax appartient également à H.

Un sous-espace invariant d'un opérateur linéaire est également l'étendue linéaire de tout système de ses vecteurs propres. Un sous-espace invariant d'un opérateur linéaire non lié à ses vecteurs propres est image de l'opérateur.

Les matrices diagonales ont la structure la plus simple. La question se pose de savoir s'il est possible de trouver une base dans laquelle la matrice de l'opérateur linéaire aurait une forme diagonale. Une telle base existe.
Donnons-nous un espace linéaire R n et un opérateur linéaire A agissant dans celui-ci ; dans ce cas, l'opérateur A prend R n en lui-même, c'est-à-dire A:R n → R n .

Définition. Un vecteur non nul est appelé vecteur propre de l'opérateur A si l'opérateur A se traduit par un vecteur colinéaire, c'est-à-dire. Le nombre λ est appelé valeur propre ou valeur propre de l'opérateur A, correspondant au vecteur propre.
Notons quelques propriétés des valeurs propres et des vecteurs propres.
1. Toute combinaison linéaire de vecteurs propres l'opérateur A correspondant à la même valeur propre λ est un vecteur propre de même valeur propre.
2. Vecteurs propres l'opérateur A avec des valeurs propres deux à deux différentes λ 1 , λ 2 , …, λ m sont linéairement indépendants.
3. Si les valeurs propres λ 1 =λ 2 = λ m = λ, alors la valeur propre λ ne correspond pas à plus de m vecteurs propres linéairement indépendants.

Donc, s’il existe n vecteurs propres linéairement indépendants , correspondant à différentes valeurs propres λ 1, λ 2, ..., λ n, alors elles sont linéairement indépendantes, elles peuvent donc être prises comme base de l'espace R n. Retrouvons la forme de la matrice de l'opérateur linéaire A à base de ses vecteurs propres, pour laquelle nous agirons avec l'opérateur A à base de vecteurs : Alors .
Ainsi, la matrice de l'opérateur linéaire A sur la base de ses vecteurs propres a une forme diagonale, et les valeurs propres de l'opérateur A sont le long de la diagonale.
Existe-t-il une autre base dans laquelle la matrice a une forme diagonale ? La réponse à cette question est donnée par le théorème suivant.

Théorème. La matrice d'un opérateur linéaire A dans la base (i = 1..n) a une forme diagonale si et seulement si tous les vecteurs de la base sont des vecteurs propres de l'opérateur A.

Règle pour trouver les valeurs propres et les vecteurs propres

Soit un vecteur , où x 1, x 2, …, x n sont les coordonnées du vecteur par rapport à la base et est le vecteur propre de l'opérateur linéaire A correspondant à la valeur propre λ, c'est-à-dire. Cette relation peut s'écrire sous forme matricielle

. (*)


L'équation (*) peut être considérée comme une équation pour trouver , et , c'est-à-dire que nous nous intéressons aux solutions non triviales, puisque le vecteur propre ne peut pas être nul. On sait que les solutions non triviales d'un système homogène équations linéaires existe si et seulement si det(A - λE) = 0. Ainsi, pour que λ soit une valeur propre de l'opérateur A il faut et suffisant que det(A - λE) = 0.
Si l'équation (*) est écrite en détail sous forme de coordonnées, nous obtenons un système d'équations linéaires homogènes :

(1)
- matrice d'opérateur linéaire.

Le système (1) a une solution non nulle si son déterminant D est égal à zéro


Nous avons reçu une équation pour trouver les valeurs propres.
Cette équation est appelée équation caractéristique, et son côté gauche est appelé polynôme caractéristique de la matrice (opérateur) A. Si le polynôme caractéristique n'a pas de racines réelles, alors la matrice A n'a pas de vecteurs propres et ne peut pas être réduite à une forme diagonale.
Soit λ 1, λ 2, …, λ n les racines réelles de l'équation caractéristique, et parmi elles il peut y avoir des multiples. En substituant ces valeurs tour à tour dans le système (1), on trouve les vecteurs propres.

Exemple 12. L'opérateur linéaire A agit dans R 3 selon la loi, où x 1, x 2, .., x n sont les coordonnées du vecteur dans la base , , . Trouvez les valeurs propres et les vecteurs propres de cet opérateur.
Solution. On construit la matrice de cet opérateur :
.
Nous créons un système pour déterminer les coordonnées des vecteurs propres :

Nous composons une équation caractéristique et la résolvons :

.
λ 1,2 = -1, λ 3 = 3.
En substituant λ = -1 dans le système, nous avons :
ou
Parce que , alors il y a deux variables dépendantes et une variable libre.
Soit x 1 une inconnue libre, alors Nous résolvons ce système de n'importe quelle manière et trouvons la solution générale de ce système : Le système fondamental de solutions se compose d'une solution, puisque n - r = 3 - 2 = 1.
L'ensemble des vecteurs propres correspondant à la valeur propre λ = -1 a la forme : , où x 1 est tout nombre autre que zéro. Choisissons un vecteur dans cet ensemble, par exemple en mettant x 1 = 1 : .
En raisonnant de la même manière, on trouve le vecteur propre correspondant à la valeur propre λ = 3 : .
Dans l'espace R 3, la base est constituée de trois vecteurs linéairement indépendants, mais nous n'avons reçu que deux vecteurs propres linéairement indépendants, à partir desquels la base dans R 3 ne peut pas être composée. Par conséquent, on ne peut pas réduire la matrice A d’un opérateur linéaire à une forme diagonale.

Exemple 13. Étant donné une matrice .
1. Prouver que le vecteur est un vecteur propre de la matrice A. Trouver la valeur propre correspondant à ce vecteur propre.
2. Trouvez une base dans laquelle la matrice A a une forme diagonale.
Solution.
1. Si , alors est un vecteur propre

.
Le vecteur (1, 8, -1) est un vecteur propre. Valeur propre λ = -1.
La matrice a une forme diagonale dans une base constituée de vecteurs propres. L'un d'eux est célèbre. Trouvons le reste.
Nous recherchons les vecteurs propres du système :

Équation caractéristique : ;
(3 + λ)[-2(2-λ)(2+λ)+3] = 0; (3+λ)(λ 2 - 1) = 0
λ 1 = -3, λ 2 = 1, λ 3 = -1.
Trouvons le vecteur propre correspondant à la valeur propre λ = -3 :

Le rang de la matrice de ce système est deux et égal au nombre d'inconnues, donc ce système n'a qu'une solution nulle x 1 = x 3 = 0. x 2 ici peut être autre chose que zéro, par exemple, x 2 = 1. Ainsi, le vecteur (0 ,1,0) est un vecteur propre correspondant à λ = -3. Allons vérifier:
.
Si λ = 1, alors on obtient le système
Le rang de la matrice est deux. Nous biffons la dernière équation.
Soit x 3 une inconnue libre. Alors x 1 = -3x 3, 4x 2 = 10x 1 - 6x 3 = -30x 3 - 6x 3, x 2 = -9x 3.
En supposant x 3 = 1, nous avons (-3,-9,1) - un vecteur propre correspondant à la valeur propre λ = 1. Vérifiez :

.
Puisque les valeurs propres sont réelles et distinctes, les vecteurs qui leur correspondent sont linéairement indépendants, ils peuvent donc être pris comme base dans R 3 . Ainsi, sur la base , , la matrice A a la forme :
.
Toutes les matrices d'un opérateur linéaire A:R n → R n ne peuvent pas être réduites à une forme diagonale, car pour certains opérateurs linéaires, il peut y avoir moins de n vecteurs propres indépendants linéaires. Cependant, si la matrice est symétrique, alors la racine de l'équation caractéristique de multiplicité m correspond exactement à m vecteurs linéairement indépendants.

Définition. Une matrice symétrique est une matrice carrée dans laquelle les éléments symétriques par rapport à la diagonale principale sont égaux, c'est-à-dire dans laquelle .
Remarques. 1. Toutes les valeurs propres d'une matrice symétrique sont réelles.
2. Les vecteurs propres d'une matrice symétrique correspondant à des valeurs propres deux à deux différentes sont orthogonaux.
Comme l'une des nombreuses applications de l'appareil étudié, nous considérons le problème de la détermination du type d'une courbe du second ordre.

L'opérateur linéaire le plus simple est la multiplication d'un vecteur par un nombre \(\lambda\). Cet opérateur étend simplement tous les vecteurs de \(\lambda \) fois. Sa forme matricielle dans n'importe quelle base est \(diag(\lambda ,\lambda ,...,\lambda)\). Pour plus de précision, nous fixons la base \(\(e\)\) dans l'espace vectoriel \(\mathit(L)\) et considérons un opérateur linéaire avec une forme matricielle diagonale dans cette base, \(\alpha = diag( \lambda _1,\lambda _2,...,\lambda _n)\). Cet opérateur, selon la définition de la forme matricielle, étend \(e_k\) de \(\lambda _k\) fois, c'est-à-dire \(Ae_k=\lambda _ke_k\) pour tout \(k=1,2,...,n\). Il est pratique de travailler avec des matrices diagonales ; le calcul fonctionnel est simple à construire pour elles : pour toute fonction \(f(x)\) on peut mettre \(f(diag(\lambda _1,\lambda _2,..., \lambda _n))= diag(f(\lambda _1),f(\lambda _2),...,f(\lambda _n))\). Ainsi, une question naturelle se pose : qu'il y ait un opérateur linéaire \(A\), est-il possible de choisir une telle base dans l'espace vectoriel pour que la forme matricielle de l'opérateur \(A\) soit diagonale dans cette base ? Cette question conduit à la définition de valeurs propres et de vecteurs propres.

Définition. Soit pour l'opérateur linéaire \(A\) il existe un vecteur non nul \(u\) et un nombre \(\lambda \) tel que \[ Au=\lambda \cdot u. \quad \quad(59) \] Alors le vecteur \(u\) est appelé vecteur propre opérateur \(A\), et le nombre \(\lambda \) - le correspondant valeur propre opérateur \(A\). L'ensemble de toutes les valeurs propres s'appelle spectre de l'opérateur linéaire \(UN\).

Un problème naturel se pose : trouver pour un opérateur linéaire donné ses valeurs propres et les vecteurs propres correspondants. Ce problème est appelé problème du spectre d’un opérateur linéaire.

Équation aux valeurs propres

Pour plus de précision, nous fixons la base dans l'espace vectoriel, c'est-à-dire Nous supposerons qu'il est donné une fois pour toutes. Ensuite, comme indiqué ci-dessus, la considération des opérateurs linéaires peut être réduite à la considération des matrices - formes matricielles des opérateurs linéaires. On réécrit l'équation (59) sous la forme \[ (\alpha -\lambda E)u=0. \] Ici \(E\) est la matrice d'identité, et \(\alpha\) est la forme matricielle de notre opérateur linéaire \(A\). Cette relation peut être interprétée comme un système d'équations linéaires \(n\) pour des inconnues \(n\) - les coordonnées du vecteur \(u\). De plus, il s’agit d’un système d’équations homogène, et nous devrions le trouver non trivial solution. Auparavant, une condition pour l'existence d'une telle solution était donnée - pour cela, il est nécessaire et suffisant que le rang du système soit inférieur au nombre d'inconnues. Cela implique l'équation pour les valeurs propres : \[ det(\alpha -\lambda E)=0. \quad \quad(60) \]

Définition. L'équation (60) est appelée équation caractéristique pour l'opérateur linéaire \(A\).

Décrivons les propriétés de cette équation et ses solutions. Si nous l'écrivons explicitement, nous obtenons une équation de la forme \[ (-1)^n\lambda ^n+...+det(A)=0. \quad \quad(61) \] Sur le côté gauche il y a un polynôme dans la variable \(\lambda \). De telles équations sont appelées algébriques de degré \(n\). Fournissons les informations nécessaires sur ces équations.

Aide sur les équations algébriques.

Théorème. Soit toutes les valeurs propres de l'opérateur linéaire \(A\) premières. Ensuite, l'ensemble des vecteurs propres correspondant à ces valeurs propres constitue la base de l'espace vectoriel.

Des conditions du théorème, il s'ensuit que toutes les valeurs propres de l'opérateur \(A\) sont différentes. Supposons que l'ensemble des vecteurs propres soit linéairement dépendant, de sorte qu'il existe des constantes \(c_1,c_2,...,c_n\), qui ne sont pas toutes nulles, satisfaisant la condition : \[ \sum_(k=1)^ nc_ku_k=0. \quad \quad(62) \]

Parmi ces formules, considérons-en une qui inclut le nombre minimum de termes et agissons sur elle avec l'opérateur \(A\). De par sa linéarité, on obtient : \[ A\left (\sum_(k=1)^nc_ku_k \right)=\sum_(k=1)^nc_kAu_k=\sum_(k=1)^nc_k\lambda _ku_k= 0. \quad \quad(63) \]

Soit, pour être précis, \(c_1 \neq 0\). En multipliant (62) par \(\lambda _1\) et en soustrayant de (63), on obtient une relation de la forme (62), mais contenant un terme de moins. La contradiction prouve le théorème.

Ainsi, dans les conditions du théorème, une base apparaît associée à un opérateur linéaire donné - la base de ses vecteurs propres. Considérons la forme matricielle de l'opérateur dans une telle base. Comme mentionné ci-dessus, la \(k\)ème colonne de cette matrice est la décomposition du vecteur \(Au_k\) par rapport à la base. Or, par définition, \(Au_k=\lambda _ku_k\), donc ce développement (ce qui est écrit à droite) ne contient qu'un seul terme et la matrice construite s'avère être diagonale. En conséquence, on trouve que dans les conditions du théorème, la forme matricielle de l'opérateur en fonction de ses vecteurs propres est égale à \(diag(\lambda _1,\lambda _2,...,\lambda _n)\ ). Par conséquent, s’il est nécessaire de développer le calcul fonctionnel pour un opérateur linéaire, il est raisonnable de travailler sur la base de ses vecteurs propres.

Si parmi les valeurs propres d'un opérateur linéaire il y a des multiples, la description de la situation devient plus compliquée et peut inclure ce qu'on appelle les cellules de Jordan. Nous renvoyons le lecteur à des tutoriels plus avancés pour des situations pertinentes.

Soit une transformation linéaire d'un espace linéaire à n dimensions V. Vecteur non nul \boldsymbol(s) de l'espace linéaire V satisfaisant la condition

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s),

appelé vecteur propre de transformation linéaire\mathcal(A) . Le nombre \lambda en égalité (9,5) s'appelle valeur propre de transformation\mathcal(A) . On dit que le vecteur propre correspond à (appartient à) la valeur propre \lambda . Si l'espace V est réel (complexe), alors la valeur propre \lambda est un nombre réel (complexe).

L'ensemble de toutes les valeurs propres d'une transformation linéaire est appelé son spectre.

Expliquons la signification géométrique des vecteurs propres. Un vecteur s non nul est un vecteur propre de la transformation \mathcal(A) si son image \mathcal(A) (\boldsymbol(s)) est colinéaire à l'image inverse de \boldsymbol(s) . Autrement dit, si \boldsymbol(s) est un vecteur propre, alors la transformation \mathcal(A) a un sous-espace invariant unidimensionnel. L’affirmation inverse est également vraie.

En effet, laissez le vecteur propre \boldsymbol(s) correspondre à une valeur propre \lambda . Tout vecteur \boldsymbol(v) de \nom de l'opérateur(Lin)(\boldsymbol(s)) ressemble à \boldsymbol(v)=\alpha \boldsymbol(s), où \alpha est n'importe quel nombre du champ donné. Trouvons l'image de ce vecteur

\mathcal(A)(\boldsymbol(v))= \mathcal(A)(\alpha \boldsymbol(s))= \alpha\cdot \mathcal(A)(\boldsymbol(s))= \alpha\cdot \ lambda\cdot \boldsymbol(s)\in \operatorname(Lin) (\boldsymbol(s)).

Ainsi, \mathcal(A)(\boldsymbol(v))\in \operatorname(Lin)(\boldsymbol(s)) pour n'importe quel vecteur \boldsymbol(v)\in \operatorname(Lin)(\boldsymbol(s)), c'est à dire. sous-espace \nom de l'opérateur(Lin)(\boldsymbol(s)) invariant sous la transformation \mathcal(A) . Dimension sous-spatiale \nom de l'opérateur(Lin) (\boldsymbol(s)) est égal à un, puisque \boldsymbol(s)\ne \boldsymbol(o) un-prieuré.

L’affirmation inverse peut être prouvée en raisonnant dans l’ordre inverse.

Relation entre les vecteurs propres d'une transformation linéaire (opérateur) et sa matrice

Auparavant, les vecteurs propres et les valeurs propres d'une matrice étaient considérés. Rappelons qu'un vecteur propre d'une matrice carrée A d'ordre n est une colonne numérique non nulle s=\begin(pmatrix)s_1&\cdots&s_(n)\end(pmatrix)^T, condition satisfaisante (7.13) :

A\cdot s=\lambda\cdot s.

Le nombre \lambda dans (9.6) est appelé valeur propre de la matrice A. On croyait que la valeur propre \lambda et les nombres s_i~(i=1,\ldots,n) appartiennent au domaine des nombres complexes.

Ces concepts sont liés aux vecteurs propres et aux valeurs propres d'une transformation linéaire.

Théorème 9.3 sur les vecteurs propres d'une transformation linéaire et sa matrice. Laisser \mathcal(A)\colon V\to V est une transformation linéaire d'un espace linéaire à n dimensions V avec base. Alors la valeur propre \lambda et la ou les colonnes de coordonnées du vecteur propre \boldsymbol(s) de la transformation \mathcal(A) sont la valeur propre et le vecteur propre de la matrice A de cette transformation définie par rapport à la base \boldsymbol(e)_1,\ldots, \boldsymbol(e)_n, c'est à dire.

\mathcal(A)(\boldsymbol(s))=\lambda\cdot \boldsymbol(s)\quad \Rightarrow\quad A\cdot s=\lambda\cdot s, Où \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n,~ s=\begin(pmatrix)s_1&\cdots& s_n\end(pmatrix)^T.

L’affirmation inverse est vraie pour conditions additionnelles: si colonne s=\begin(pmatrix) s_1&\cdots&s_n\end(pmatrix)^T et le nombre \lambda sont le vecteur propre et la valeur propre de la matrice A, et les nombres s_1,\ldots,s_n,\lambda appartiennent au même corps numérique sur lequel l'espace linéaire V est défini, alors le vecteur \boldsymbol(s)=s_1 \boldsymbol(e)_1+ \ldots+s_n \boldsymbol(e)_n et le nombre \lambda sont le vecteur propre et la valeur propre de la transformation linéaire \mathcal(A)\colon V\to V avec la matrice A en base \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n.

En fait, la condition (9.5) sous forme coordonnée a la forme (9.6), qui coïncide avec la définition (7.13) du vecteur propre matriciel. Au contraire, l'égalité (9.6) implique l'égalité (9.5) à condition que les vecteurs et \lambda\cdot \boldsymbol(s) défini, c'est-à-dire Nombres s_1,\ldots,s_n,\lambda appartiennent au même champ numérique sur lequel l'espace linéaire est défini.

Rappelons que trouver les valeurs propres d'une matrice revient à résoudre son équation caractéristique \Delta_A(\lambda)=0, Où \Delta_A(\lambda)=\det(A-\lambda E) est le polynôme caractéristique de la matrice A. Pour la transformation linéaire, nous introduisons des concepts similaires.

Polynôme caractéristique de transformation linéaire \mathcal(A)\colon V\to V L'espace linéaire à n dimensions est le polynôme caractéristique de la matrice A de cette transformation, trouvé par rapport à toute base de l'espace V.

L'équation s'appelle équation caractéristique de transformation linéaire.

Conversion \mathcal(A)-\lambda\mathcal(E) appelé caractéristique d'une transformation linéaire \mathcal(A)\colon V\to V.

Remarques 9.4

1. Le polynôme caractéristique d'une transformation linéaire ne dépend pas de la base sur laquelle se trouve la matrice de transformation.

En fait, les matrices \mathop(A)\limits_((\boldsymbol(e))) Et \mathop(A)\limits_((\boldsymbol(f))) transformation linéaire \mathcal(A) en bases (\boldsymbol(e))= (\boldsymbol(e)_1,\ldots, \boldsymbol(e)_n) Et (\boldsymbol(f))=(\boldsymbol(f)_1,\ldots,\boldsymbol(f)_n) sont, d’après (9.4), similaires : \nathop(A)\limits_((\boldsymbol(f)))=S^(-1)\mathop(A)\limits_((\boldsymbol(e)))S, où S est la matrice de transition de la base (\boldsymbol(e)) à la base (\boldsymbol(f)). Comme montré précédemment, les polynômes caractéristiques de telles matrices coïncident (voir propriété 3). Ainsi, pour le polynôme caractéristique de la transformation \mathcal(A) on peut utiliser la notation \Delta_(\mathcal(A))(\lambda), sans préciser la matrice de cette transformation.

2. Du théorème 9.3, il s'ensuit que toute racine complexe (réelle, rationnelle) de l'équation caractéristique est une valeur propre de la transformation linéaire \mathcal(A)\colon V\to V espace linéaire V défini sur le champ des nombres complexes (réels, rationnels).

3. Du Théorème 9.3 il résulte que toute transformation linéaire d'un espace linéaire complexe possède un sous-espace invariant unidimensionnel, puisque cette transformation a une valeur propre (voir point 2), et donc des vecteurs propres. Un tel sous-espace est, par exemple, l'étendue linéaire de tout vecteur propre. Une transformation d'un espace linéaire réel peut ne pas avoir de sous-espaces invariants unidimensionnels si toutes les racines de l'équation caractéristique sont complexes (mais pas réelles).

Théorème 9.4 sur les sous-espaces invariants d'un opérateur linéaire dans un espace réel. Chaque transformation linéaire d'un espace linéaire réel possède un sous-espace invariant unidimensionnel ou bidimensionnel.

En effet, composons une matrice de transformation linéaire A \mathcal(A)\colon V\to V espace linéaire réel V à n dimensions sur une base arbitraire \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n. Les éléments de cette matrice sont des nombres réels. Par conséquent, le polynôme caractéristique \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E) est un polynôme de degré n à coefficients réels. Selon les corollaires 3 et 4 du théorème fondamental de l'algèbre, un tel polynôme peut avoir des racines réelles et des paires de racines conjuguées complexes.

Si \lambda=\lambda_1 est une racine réelle de l'équation caractéristique, alors le vecteur propre correspondant s=\begin(pmatrix)s_1&\cdots&s_n\end(pmatrix)^T la matrice A est également réelle. Il définit donc un vecteur propre \boldsymbol(s)=s_1 \boldsymbol(e)_1+\ldots+s_n \boldsymbol(e)_n transformation linéaire (voir Théorème 9.3). Dans ce cas, il existe un invariant de sous-espace unidimensionnel sous \mathcal(A) \nom de l'opérateur(Lin)(\boldsymbol(s))(voir la signification géométrique des vecteurs propres).

Si \lambda=\alpha\pm\beta i est une paire de racines conjuguées complexes (\beta\ne0), alors le vecteur propre s\ne o de la matrice A a également des éléments complexes : s=\begin(pmatrix)x_1+y_1i&\cdots& x_n+y_n i \end(pmatrix)^T. Il peut être représenté par s=x+yi , où x,\,y sont de vraies colonnes. L'égalité (9.6) aura alors la forme

A\cdot(x+yi)= (\alpha+\beta i)\cdot(x+yi).


En isolant les parties réelles et imaginaires, on obtient le système

\begin(cases)Ax=\alpha x-\beta y,\\ Ay=\beta x+\alpha y.\end(cases)

Montrons que les colonnes (x) et (y) sont linéairement indépendantes. Considérons deux cas. Si x=o, alors de la première équation (9.7) il résulte que y=o, puisque \beta\ne0. Alors s=o, ce qui contredit la condition s\ne o. Supposons que x\ne o et les colonnes x et y soient proportionnelles, c'est-à-dire il existe un nombre réel \gamma tel que y=\gamma x . Alors du système (9.7) on obtient \begin(cases)Ax=(\alpha-\beta\gamma)x,\\ \gamma Ax=(\beta-\alpha\gamma)x. \end(cas) En ajoutant la première équation multipliée par (-\gamma) à la deuxième équation, on arrive à l'égalité [(\beta+\alpha\gamma)-\gamma(\alpha-\beta\gamma)]x=o. Puisque x\ne o , l’expression entre crochets est égale à zéro, c’est-à-dire (\beta+\alpha\gamma)- \gamma(\alpha- \beta\gamma)= \beta(1+\gamma^2)=0. Puisque \beta\ne0 , alors \gamma^2=-1 . Cela ne peut pas arriver puisque \gamma est un nombre réel. Nous avons une contradiction. Ainsi, les colonnes x et y sont linéairement indépendantes.

Considérons le sous-espace où \boldsymbol(x)= x_1 \boldsymbol(e)_1+\ldots+x_n \boldsymbol(e)_n,~ \boldsymbol(y)= y_1 \boldsymbol(e)_1+\ldots+ y_n \boldsymbol(y)_n. Ce sous-espace est bidimensionnel, puisque les vecteurs \boldsymbol(x),\boldsymbol(y) sont linéairement indépendants (comme indiqué ci-dessus, leurs colonnes de coordonnées x, y sont linéairement indépendantes). De (9.7) il résulte que \begin(cases)\mathcal(A)(\boldsymbol(x))=\alpha \boldsymbol(x)-\beta \boldsymbol(y),\\ \mathcal(A)(\boldsymbol(y))=\ bêta \boldsymbol(x)+\alpha \boldsymbol(y),\end(cases) ceux. l'image de tout vecteur appartenant à \nom de l'opérateur(Lin)(\boldsymbol(x),\boldsymbol(y)), appartient également \nom de l'opérateur(Lin)(\boldsymbol(x),\boldsymbol(y)). Ainsi, \nom de l'opérateur(Lin)(\boldsymbol(x),\boldsymbol(y)) est un invariant de sous-espace bidimensionnel sous la transformation \mathcal(A) , ce que nous devions prouver.

Trouver les vecteurs propres et les valeurs d'un opérateur linéaire (transformation)

Pour trouver les vecteurs propres et les valeurs propres d'une transformation linéaire \mathcal(A)\colon V\to V espace linéaire réel V, les étapes suivantes doivent être effectuées.

1. Choisissez une base arbitraire \boldsymbol(e)_1,\ldots,\boldsymbol(e)_n espace linéaire V et trouver la matrice de transformation A \mathcal(A) dans cette base.

2. Composer le polynôme caractéristique de la transformation \mathcal(A)\colon\, \Delta_(\mathcal(A))(\lambda)=\det(A-\lambda E).

3. Trouvez toutes les différentes vraies racines \lambda_1,\ldots,\lambda_kéquation caractéristique \Delta_(\mathcal(A))(\lambda)=0. Les racines complexes (mais non réelles) de l'équation caractéristique doivent être écartées (voir paragraphe 2 des remarques 9.4).

4. Pour la racine \lambda=\lambda_1 trouvez le système fondamental \varphi_1, \varphi_2,\ldots,\varphi_(n-r) solutions à un système homogène d'équations (A-\lambda_1E)x=o , où r=\nom de l'opérateur(rg)(A-\lambda_1E). Pour ce faire, vous pouvez utiliser soit un algorithme de résolution d'un système homogène, soit l'une des méthodes permettant de trouver la matrice fondamentale.

5. Écrivez les vecteurs propres linéairement indépendants de la transformation \mathcal(A) correspondant à la valeur propre \lambda_1 :

\begin(matrix) \boldsymbol(s)_1=\varphi_(1\,1)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,1)\boldsymbol(e)_n,\\ \boldsymbol(s) _2=\varphi_(1\,2)\boldsymbol(e)_1+ \ldots+ \varphi_(n\,2)\boldsymbol(e)_n,\\ \vdots\\ \boldsymbol(s)_(n-r)=\ varphi_(1\,n-r) \boldsymbol(e)_1+ \ldots+\varphi_(n\,n-r)\boldsymbol(e)_n. \end(matrice)

Pour trouver l'ensemble de tous les vecteurs propres correspondant à la valeur propre \lambda_1, formez des combinaisons linéaires non nulles

\boldsymbol(s)= C_1 \boldsymbol(s)_1+C_2 \boldsymbol(s)_2+\ldots+ C_(n-r)\boldsymbol(s)_(n-r),

C_1,C_2,\ldots,C_(n-r)- des constantes arbitraires qui ne sont pas égales à zéro en même temps.

Répétez les étapes 4, 5 pour les valeurs propres restantes \lambda_2,\ldots,\lambda_k transformation linéaire \mathcal(A) .

Pour trouver les vecteurs propres d'une transformation linéaire d'un espace linéaire complexe, vous devez déterminer à l'étape 3 toutes les racines de l'équation caractéristique et, sans écarter les racines complexes, effectuer les étapes 4 et 5 pour elles.

Exemples de vecteurs propres d'opérateurs linéaires (transformations)

1. Pour une conversion zéro \mathcal(O)\colon V\to V tout vecteur non nul est un vecteur propre correspondant à une valeur propre nulle \lambda=0 , puisque \mathcal(O)(\boldsymbol(s))=0\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

2. Pour la transformation de l'identité \mathcal(E)\colon V\to V tout vecteur non nul \symbole(s) gras\dans V est la valeur propre correspondant à la valeur propre d'identité \lambda=1 , puisque \mathcal(E) (\boldsymbol(s))=1\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

3. Pour la symétrie centrale \mathcal(Z)_(\boldsymbol(o))\colon V\à V tout vecteur non nul \symbole(s) gras\dans V \mathcal(Z)_(\boldsymbol(o)) (\boldsymbol(s))=(-1)\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

4. Pour l'homothétie \mathcal(H)_(\lambda)\colon V\to V tout vecteur non nul \symbole(s) gras\dans V est la valeur propre correspondant à la valeur propre \lambda (le coefficient d'homothétie), puisque \mathcal(H)_(\lambda) (\boldsymbol(\boldsymbol(s)))= \lambda\cdot \boldsymbol(s)~ \forall \boldsymbol(s)\in V.

5. Pour tourner \mathcal(R)_(\varphi)\colon V_2\to V_2 plan (à ) il n'y a pas de vecteurs propres, puisque lorsqu'elle est tournée d'un angle non multiple de \pi, l'image de chaque vecteur non nul est non colinéaire à l'image inverse. Ici, nous considérons la rotation du plan réel, c'est-à-dire espace vectoriel bidimensionnel sur le champ des nombres réels.

6. Pour l'opérateur de différenciation \mathcal(D)\colon P_n(\mathbb(R))\to P_n(\mathbb(R)) tout polynôme non nul de degré zéro (pas identiquement nul) est un vecteur propre correspondant à la valeur propre nulle \lambda=0 , puisque \mathcal(D)(s(x))=0\cdot s(x) \forall s(x)\equiv \text(const). Tout polynôme de degré non nul n'est pas un vecteur propre, puisque le polynôme n'est pas proportionnel à sa dérivée : \mathcal(D)(s(x))=s"(x)\ne \lambda\cdot s(x), puisqu'ils ont des diplômes différents.

7. Considérez l'opérateur \Pi_(L_1)\colon V\to V projection sur le sous-espace L_1 parallèle au sous-espace L_2. Ici V=L_1\oplus L_2, \Pi_(L_1)(\boldsymbol(v)_1+ \boldsymbol(v)_2)=\boldsymbol(v)_1 Pour \Pi_(L_1)(\boldsymbol(v)_1)=1\cdot \boldsymbol(v)_1, et tout vecteur non nul est un vecteur propre correspondant à la valeur propre \lambda=0 , puisque \Pi_(L_2)(\boldsymbol(v)_2)=0\cdot \boldsymbol(v)_2 \Pi_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1= \lambda(\boldsymbol(v)_1+\boldsymbol(v)_2) c'est possible soit à soit à .

8. Considérez l'opérateur \mathcal(Z)_(L_1)\colon V\to V réflexions sur le sous-espace L_1 parallèle au sous-espace L_2. Ici V=L_1\oplus L_2 \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2, Pour \boldsymbol(v)=\boldsymbol(v)_1+\boldsymbol(v)_2, \boldsymbol(v)_1\in L_1,~ \boldsymbol(v)_2\in L_2. Pour cet opérateur, tout vecteur non nul \boldsymbol(v)_1\in L_1 est la valeur propre correspondant à la valeur propre \lambda=1 , puisque \mathcal(Z)_(L_1) (\boldsymbol(v)_1)= 1\cdot \boldsymbol(v)_1, et tout vecteur non nul \boldsymbol(v)_2\in L_2 est la valeur propre correspondant à la valeur propre \lambda=-1 puisque \mathcal(Z)_(L_2) (\boldsymbol(v)_2)= (-1)\cdot \boldsymbol(v)_2. Les autres vecteurs ne sont pas des vecteurs propres, puisque l'égalité \mathcal(Z)_(L_1)(\boldsymbol(v)_1+\boldsymbol(v)_2)= \boldsymbol(v)_1- \boldsymbol(v)_2= \lambda(\boldsymbol()_1+ \boldsymbol(v )_2) possible soit avec \boldsymbol(v)_1=\boldsymbol(o), ou à \boldsymbol(v)_2= \boldsymbol(o).

9. Dans l'espace V_3 des rayons vecteurs de l'espace, tracé à partir d'un point fixe O, considérons une rotation d'un angle \varphi\ne\pi k,~ k\in\mathbb(Z), autour de l'axe \ell défini par le rayon vecteur \vec(\ell) . Tout vecteur non nul colinéaire au vecteur \vec(\ell) est une valeur propre correspondant à la valeur propre \lambda=1 . Cette transformation n'a pas d'autres vecteurs propres.

Exemple 9.1. Trouver les valeurs propres et les vecteurs propres de l'opérateur de différenciation \mathcal(D)\colon T_1\à T_1, transformant l'espace des polynômes trigonométriques (fréquence \omega=1) :

a) avec des coefficients réels T_1=T_1(\mathbb(R))= \operatorname(Lin) (\sin(t),\cos(t));

b) avec des coefficients complexes T_1=T_1(\mathbb(C))= \operatorname(Lin) (\sin(t),\cos(t)).

Solution. 1. Choisissons une base standard e_1(t)=\sin(t),~ e_2(t)=\cos(t) et sur cette base on compose la matrice D de l'opérateur \mathcal(D) :

D=\begin(pmatrix)0&-1\\ 1&0 \end(pmatrix)\!.

2. Composons le polynôme caractéristique de la transformation \mathcal(D)\colon\, \Delta_(\mathcal(D))(\lambda)= \begin(vmatrix)-\lambda&-1\\ 1&-\lambda\end(vmatrix)= \lambda^2+ 1..

3. L'équation caractéristique \lambda^2+1=0 a des racines conjuguées complexes \lambda_1=i,~ \lambda_2=-i. Il n'y a pas de racines réelles, donc la transformation \mathcal(D) de l'espace réel T_1(\mathbb(R)) (cas (a)) n'a pas de valeurs propres, et donc pas de vecteurs propres. La transformation \mathcal(D) de l'espace complexe T_1(\mathbb(C)) (cas (b)) a des valeurs propres complexes \lambda_1,\,\lambda_2.

4(1). Pour la racine \lambda_1=i on trouve le système fondamental \varphi_1 de solutions du système homogène d'équations (D-\lambda_1 E)x=o :

\begin(pmatrix)-i&-1\\ 1&-i\end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

Réduisons la matrice système sous forme pas à pas en multipliant la première équation par (i) et en la soustrayant de la deuxième équation :

\begin(pmatrix)-i&-1\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\\ 1&-i \end(pmatrix)\sim \begin(pmatrix)1&-i\ \0&0\end(pmatrix)\!.

Nous exprimons la variable de base x_1 en fonction de la variable libre : x_1=ix_2. En supposant x_2=1, nous obtenons x_1=i, c'est-à-dire \varphi=\begin(pmatrix)i&1 \end(pmatrix)^T.

5(1). On note le vecteur propre correspondant à la valeur propre \lambda_1= i\colon\, s_1(t)=i\cdot\sin(t)+1\cdot\cos(t). L'ensemble de tous les vecteurs propres correspondant à la valeur propre \lambda_1=i forme des fonctions non nulles proportionnelles à s_1(t) .

4(2). Pour la racine \lambda_2=-i on trouve de la même manière le système fondamental (constitué d'un vecteur) \varphi_2=\begin(pmatrix)-i&1 \end(pmatrix)^T solutions à un système homogène d'équations (D-\lambda_2E)x=o :

\begin(pmatrix)i&-1\\ 1&i \end(pmatrix)\!\cdot\! \begin(pmatrix) x_1\\x_2 \end(pmatrix)= \begin(pmatrix)0\\0 \end(pmatrix)\!.

5(2). On note le vecteur propre correspondant à la valeur propre \lambda_2=-i\colon\, s_2(t)=-i\cdot\sin(t)+1\cdot\cos(t). L'ensemble de tous les vecteurs propres correspondant à la valeur propre \lambda_2=-i forme des fonctions non nulles proportionnelles à s_2(t) .


Voir aussi Propriétés des vecteurs propres des opérateurs linéaires (transformations) Javascript est désactivé sur votre navigateur.
Pour effectuer des calculs, vous devez activer les contrôles ActiveX !