Chapitre 1
Chapitre 1
Chapitre 1
Motivation
Point de vue matriciel
Transformer une matrice carrée A en une matrice semblable B la “plus simple possible”.
Dans la situation idéale, la matrice B sera diagonale, et on dira alors que A est diagonalisable.
Dans les cas moins favorables, on pourra seulement transformer A en une matrice B trian-
gulaire (et on dira que A est trigonalisable) voire triangulaire par blocs.
1
2 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
B = P −1 AP.
Pour faire le produit de matrices par blocs, on procède comme pour faire un produit habituel :
0
A B0 AA0 + BC 0 AB 0 + BD0
A B
= .
C D C 0 D0 CA0 + DC 0 CB 0 + DD0
Tout ceci se généralise sans difficultés à des matrices comportant plus de blocs.
Attention : Les produits ci-dessus sont des produits de matrices. Il est interdit de permuter
l’ordre des termes.
Calcul du déterminant :
• Si A ∈ Mn (K) et B ∈ Mn (K), alors det AB = det A det B.
• Si A ∈ Mn (K) et B ∈ Mn (K) sont semblables alors det A = det B.
• Si A ∈ Mp (K), B ∈ Mp,n−p (K) et C ∈ Mn−p (K), on a
A B
det = det A det C.
0 C
où le k-ième bloc diagonal est une matrice carrée de taille dim Ek .
Exemples : Considérons F et G de dimension respective m et n − m, et tels que E = F ⊕ G.
Soit B une base adaptée à la décomposition E = F ⊕ G.
1. Soit p le projecteur sur F parallèlement à G. Alors
Im 0
matB p = .
0 0
Définition 1.3.2 Si λ est une valeur propre de l’endomorphisme u de End(E), on appelle sous-
espace propre associé à λ l’ensemble des vecteurs propres de u pour λ. Ce sous-espace se note
Eλ (u) (ou simplement Eλ en l’absence d’ambiguı̈té).
Proposition 1.3.3 Si λ est une valeur propre de u, l’ensemble Eλ est un sous-espace vectoriel
de E non réduit à {0}, et l’on a
Eλ = Ker (u − λId).
Remarque : En particulier, 0 est valeur propre de u si et seulement si Ker u n’est pas réduit
à 0, c’est-à-dire si et seulement si u n’est pas injectif. Dans ce cas E0 n’est autre que Ker u.
Proposition 1.3.4 On a les propriétés suivantes :
i) Si λ est une valeur propre de u alors Eλ est stable par u. L’endomorphisme uEλ induit par
u sur Eλ est égal à λ IdEλ .
ii) Si λ et µ sont deux valeurs propres distinctes de u, alors Eλ et Eµ sont en somme directe.
iii) Soit (x1 , · · · , xp ) une famille de p vecteurs propres non nuls de E associés à des valeurs
propres λ1 , · · · , λp deux à deux distinctes. Alors (x1 , · · · , xp ) est une famille libre.
1.3. VALEURS PROPRES, VECTEURS PROPRES 5
Preuve : Prouvons i). Soit x ∈ Eλ . On a u(u(x)) = u(λx) = λu(x) par linéarité de u. Par
conséquent, u(x) ∈ Eλ , et Eλ est donc stable par u. On peut donc parler d’endomorphisme
induit par u sur Eλ , et il est trivial que uEλ = λ IdEλ .
Si maintenant x est vecteur propre pour λ et pour µ, on a u(x) = λx = µx, donc (λ−µ)x =
0. On en déduit que λ = µ ou x = 0, ce qui prouve ii).
Pour prouver iii), considérons un p-uplet (α1 , · · · , αp ) de Kp tel que
p
X
αi xi = 0.
i=1
Proposition 1.3.5 Si u et v sont deux endomorphismes de End(E) qui commutent 2 alors tout
sous-espace propre de u est stable par v. De même Im u est stable par v.
2. Symétries :
Si l’on considère maintenant la symétrie s par rapport à F parallèlement à G, alors on a
3. Endomorphismes nilpotents :
Définition 1.3.7 On dit que u ∈ End(E) est un endomorphisme nilpotent s’il existe
un p ∈ N tel que up = 0. Le plus petit p vérifiant cette propriété est appelé indice de
nilpotence de u.
Proposition 1.3.8 Si u est un endomorphisme nilpotent alors Sp(u) = {0}.
Preuve : Si Sp(u) ne contenait pas 0, alors Ker u serait réduit à {0}. Soit maintenant
x ∈ E arbitraire. Alors up (x) = 0 donc u(up−1 (x)) = 0 d’où up−1 (x) = 0. Une
récurrence élémentaire permet de montrer que up (x) = up−1 (x) = · · · = u(x) = x = 0,
ce qui est absurde puisque E n’est pas réduit à {0} ! Donc Sp(u) ⊃ {0}.
Montrons Sp(u) ⊂ {0}. Soit λ ∈ Sp(u) et x un vecteur propre (non nul) associé. On
établit aisément que uk (x) = λk x pour tout k ≥ 1. En particulier up (x) = λp x = 0.
Donc λp = 0, d’où λ = 0.
4. Deux exemples “pathologiques” en dimension infinie : Considérons l’espace vec-
déf
toriel réel E = C ∞ (R; R) et
E −→ E
u :
f 7−→ f 0 .
Alors tout λ ∈ R est valeur propre de u avec pour vecteur propre associé la fonction
fλ : x 7→ eλx . On conclut que Sp(u) = R.
Prenons maintenant E = K[X] et
E −→ E
u :
P 7−→ XP.
Dire que u(P ) = λP signifie que (X − λ)P = 0. Comme X − λ n’est pas le polynôme nul,
l’intégrité de K[X] entraı̂ne que P = 0. Donc Sp(u) = ∅.
Ces quelques exemples montrent que le spectre de u peut prendre des formes très diverses lorsque
E est un espace vectoriel quelconque.
Nous supposons désormais que E est un espace vectoriel de dimension finie n ≥ 1. Nous
allons alors établir que Sp(u) contient au plus n éléments. Lorsque K = C, nous verrons que
Sp(u) ne peut pas être vide.
Preuve : i) ⇒ ii) : Comme λ ∈ Sp(A), la matrice A − λIn n’est pas inversible. Son rang est
donc strictement inférieur à n.
ii) ⇒ iii) : Soit u l’endomorphisme de matrice A par rapport à la base canonique
(1 , · · · , n ) de Kn . On a donc rg (u − λ Id) < n. Donc, d’après le théorème du rang,
Ker (u − λ Id) n’est pas réduit à {0} et l’on peut trouver x = x1 1 + · · · + xn n tel que
u(x) = λx. Le vecteur colonne de composantes (x1 , · · · , xn ) répond à la question.
iii) ⇒ i) : Si u désigne l’endomorphisme défini ci-dessus, et x = x1 1 + · · · + xn n où les
xi sont les composantes de X, alors x ∈ Ker (u − λ Id). Donc u − λIn n’est pas inversible,
et la matrice (par rapport à la base canonique) correspondante A − λIn non plus.
Définition 1.3.11 Si λ est valeur propre de A, tout vecteur colonne X tel que AX = λX est
appelé vecteur propre de A.
Preuve : La définition de Sp(A) et Sp(u) entraı̂ne que Sp(A) = Sp(u). Par ailleurs, si l’on
utilise les notations de la proposition, l’égalité u(x) = λx est équivalente à AX = λX.
Définition 1.3.14 On dit que A ∈ Mn (K) est une matrice nilpotente s’il existe un p ∈ N
tel que Ap = 0. Le plus petit p vérifiant cette propriété est appelé indice de nilpotence de A.
Exemple : Toute matrice triangulaire supérieure avec des 0 sur la diagonale est nilpotente.
Proposition 1.3.15 Une matrice A est nilpotente si et seulement si l’endomorphisme u ∈
End(Kn ) de matrice A par rapport à la base canonique est nilpotent.
k
Preuve : On utilise simplement la formule matB (uk ) = matB (u) vraie pour tout k ∈ N.
Exemples :
1. Dans le cas n = 2, on a χA = X 2 − X tr A + det A.
2. Si χA est scindé avec χA = ni=1 (λi − X), alors tr A = ni=1 λi et det A = ni=1 λi .
Q P Q
Considérons deux matrices semblables A et B. Alors il existe P ∈ GLn (K) telle que
B = P −1 AP . On a visiblement
Donc B − λIn et A − λIn sont semblables, et leur déterminant est donc égal.
La façon la plus élémentaire de prouver iii) consiste à passer dans M2n (K). On remarque
alors que
λIn A −In 0 AB − λIn A
= ,
B In B In 0 In
λIn A In A λIn 0
= .
B In 0 −λIn B BA − λIn
Par conséquent
n λIn A n λIn A
(−1) det = det(AB − λIn ) et (−λ) det = λn det(BA − λIn ).
B In B In
λIn A
La fonction λ 7→ det est visiblement une fonction polynôme de terme dominant
B In
λn , donc non nulle. Grâce à la relation ci-dessus, on peut donc conclure que det(AB −
λIn ) = det(BA − λIn ) pour tout λ ∈ K. D’où χAB = χBA .
Voici maintenant un résultat fondamental :
Preuve : Pour i), considérons une base (e1 , · · · , em ) de F que l’on complète en une base
B = (e1 , · · · , en ) soit une base de E. Alors
A C
(1.1) matB (u) = .
0 B
Remarquons que A est la matrice de uF par rapport à la base (e1 , · · · , em ). Donc χuF =
det(A − XIm ). Or, d’après (1.1), on a
A − XIm C
χu = .
0 B − XIn−m
1.5. ENDOMORPHISMES DIAGONALISABLES 11
Preuve : Si λ est racine de χu alors λ est valeur propre de u (cf th. 1.4.6) et donc Eλ n’est
déf
pas réduit à {0}, d’où β = dim Eλ ≥ 1.
De plus, d’après la proposition 1.3.4, l’endomorphisme induit par u sur Eλ coı̈ncide avec
λIdEλ . Son polynôme caractéristique est donc (λ−X)β . D’après la proposition précédente,
(λ − X)β divise donc χu , ce qui montre (cf. théorème de Gauss) que β ≤ α.
Attention : En général dim Eλ = 1 n’implique pas que λ est racine simple de χu . En effet,
considérons un espace vectoriel E de dimension 2, et soit (e1 , e2 ) une base de E. On définit
u ∈ End(E) par
u(e1 ) = 0 et u(e2 ) = e1 .
Alors E0 = Ker u = Ke1 donc est de dimension 1. Mais comme u est nilpotent, on a χu = X 2
donc 0 est valeur propre de multiplicité 1 bien que 0 soit racine double de χu .
Définition 1.5.2 On dit que A ∈ Mn (K) est diagonalisable si A est semblable à une matrice
B diagonale.
Preuve : Si u est diagonalisable, alors sa matrice dans une base de vecteurs propres est
diagonale. Réciproquement, si dans une base B = (e1 , · · · , en ) donnée la matrice de u est
diagonale, alors tous les ei sont vecteurs propres pour u. On a donc prouvé i).
Pour prouver ii), il suffit de remarquer que si A = P diag(λ1 , · · · , λn )P −1 et si l’on note
(1 , · · · , n ) la base canonique de Kn , on a
AP i = P diag(λ1 , · · · , λn )i = λi P i .
Par conséquent dire que A est diagonalisable équivaut à dire que l’endomorphisme u de
matrice A par rapport à la base canonique admet (P 1 , · · · , P n ) comme base de vecteurs
propres.
Exemples :
1. Projecteurs : Soit p le projecteur sur F parallèlement à G. Alors n’importe quelle base
(e1 , · · · , en ) adaptée à la décomposition E = F ⊕ G est une base de vecteurs propres pour
p. Plus précisément, si dim F = m, ei est associé à la valeur propre 1 si 1 ≤ i ≤ m, et à la
valeur propre 0 si m + 1 ≤ i ≤ n.
En conclusion, tout projecteur est diagonalisable.
2. Symétries : Soit s la symétrie par rapport à F parallèlement à G. Alors n’importe quelle
base (e1 , · · · , en ) adaptée à la décomposition E = F ⊕ G est une base de vecteurs propres
pour s. Plus précisément, si dim F = m, ei est associé à la valeur propre 1 si 1 ≤ i ≤ m,
et à la valeur propre −1 si m + 1 ≤ i ≤ n.
En conclusion, toute symétrie est diagonalisable.
3. Endomorphismes nilpotents : Soit u un endomorphisme nilpotent. On sait que Sp(u) =
{0}. Par conséquent, dire que E admet une base de vecteurs propres pour u revient à dire
qu’il existe une base (e1 , · · · , en ) de E telle que u(ei ) = 0 pour tout i ∈ {1, · · · , n}. Donc
u est nul.
En conclusion, un endomorphisme nilpotent est diagonalisable si et seulement si il est nul.
Proposition 1.5.4 Considérons p sous-espaces propres (Eλi )1≤i≤p de u associés à des valeurs
propres deux à deux distinctes. Alors les (Eλi )1≤i≤p sont en somme directe.
Preuve : Il s’agit de de prouver que tout x ∈ Eλ1 + · · · + Eλp se décompose de façon unique
en x = x1 + · · · + xp avec xi ∈ Ei .
Supposons qu’il existe deux décompositions de ce type
x = x1 + · · · + xp = y1 + · · · + yp .
Alors pi=1 (xi − yi ) = 0 ce qui signifie qu’il existe une relation de dépendance linéaire
P
entre les p vecteurs propres x1 − y1 , · · · xp − yp . En vertu de la proposition 1.3.4, l’un de
ces vecteurs doit être nul. Par récurrence descendante, on conclut qu’ils sont tous nuls.
Théorème 1.5.5 Soit u ∈ End(E). Notons Sp(u) = {λ1 , · · · , λp }. Les quatre propriétés sui-
vantes sont équivalentes :
i) u est diagonalisable,
ii) E = pi=1 Eλi .
L
iv) Il existe p entiers non nuls γ1 , · · · , γp tels que γ1 + · · · + γp = n, et une base B de E par
rapport à laquelle la matrice de u est
λ1 Iγ1 0 ··· 0
0 λ2 Iγ2 ··· 0
matB (u) = . .
.. .. ..
.. . . .
0 0 ··· λp Iγp
Preuve : Sachant que les Eλi sont en somme directe et inclus dans E, on a ii) ⇐⇒ iii).
i) ⇒ iii) : Soit u diagonalisable. On considère une base (e1 , · · · , en ) de vecteurs propres
de u que l’on ordonne de telle sorte que les γ1 premiers P
vecteurs soient associés à λ1 , les
γ2 suivants à λ2 . On a bien évidemment dim Eλ1 = γi et pi=1 γi = n, ce qui entraı̂ne iii).
ii) ⇒ iv) : Supposons que E = pi=1 Eλi . La matrice de u par rapport à une base adaptée
L
à cette décomposition est clairement du type voulu.
iv) ⇒ i) : Immédiat.
Corollaire 1.5.6 Si u a n valeurs propres deux à deux distinctes, λ1 , · · · , λn alors u est dia-
gonalisable et tous ses sous-espaces propres sont de dimension 1. De plus, la matrice de u dans
une base de vecteurs propres (x1 , · · · , xn ) associés à λ1 , · · · , λn est
Preuve : Comme les Eλi sont en somme directe et tous de dimension au moins 1, on a
n
M n
X
dim Eλi = dim Eλi ≥ n
i=1 i=1
avec égalité L
si et seulement si tous les sous-espaces propres sont de dimension 1. Mais
n
par ailleurs
Lp i=1 Eλi est inclus dans E donc est de dimension au plus n. On conclut que
E = i=1 Eλi , et donc u est diagonalisable en vertu du théorème 1.5.5.
Preuve : Grâce au corollaireP 1.4.8, on sait déjà que pour tout i ∈ {1, · · · , p}, on a γi ≤ αi .
Puisque deg χu = n, on a pi=1 αi = n.
Supposons u diagonalisable. Alors d’après le théorème 1.5.5, on a pi=1 γi = n, et donc
P
nécessairement αi = γi pour tout i.
Réciproquement, si γi = αi pour tout i, alors pi=1 γi = n, et donc u est diagonalisable
P
d’après le théorème 1.5.5.
(1.2) u(x) − λi x = 0.
Si on note (x1 , · · · , xn ) les coordonnées de x par rapport à une base donnée, résoudre
(1.2) revient à résoudre un système homogène de n équations dont les n inconnues sont
les coordonnées de x. La dimension γi de Eλi est le nombre d’inconnues non principales
de ce système linéaire. La résolution du système linéaire permet de trouver γi vecteurs
indépendants x1i , · · · , xγi i de Eλi .
4. Conclusion.
L’endomorphisme u est diagonalisable si et seulement si γi est égal à la multiplicité αi de
γ
λi pour tout i. Dans ce cas, la famille (x11 , · · · , xγ11 , x12 , · · · , xγ22 , · · · , x1p , · · · , xpp ) est une
base de vecteurs propres pour u.
Pour les matrices : Soit A ∈ Mn (K). Donnons une méthode systématique permettant de
déterminer valeurs propres et vecteurs propres de A.
1. Calcul de χA .
2. Calcul des racines λ1 , · · · , λp de χA . Si χu a n racines deux à deux distinctes (i.e p = n),
on peut tout de suite conclure que u est diagonalisable.
3. Pour chaque λi , on résout le système linéaire homogène (A − λi In )X = 0. L’ensemble de
ses solutions est Eλi . La dimension γi de Eλi est le nombre d’inconnues non principales.
On peut extraire γi vecteurs colonnes Xi1 , · · · , Xiγi formant une base de Eλi .
4. Conclusion.
La matrice A est diagonalisable si et seulement si γi est égal à la multiplicité αi de λi pour
tout i. Dans ce cas, on a
λ1 Iγ1 0 ··· 0
.. ..
0 λ2 Iγ2 . .
P −1 ,
A=P .
. .
.. .. ..
0
0 ··· 0 λp Iγp
γ
où P est la matrice de colonnes (X11 , · · · , X1γ1 , X21 , · · · , X2γ2 , · · · , Xp1 , · · · , Xp p ).
déf
Si l’on choisit B = (e1 , e2 , · · · , en+1 ), on trouve
λ1 ?
matB (u) = ,
0 T0
donc matB (u) est du type voulu.
Corollaire 1.6.3 Toute matrice est trigonalisable dans C. De même, si E est un C-espace
vectoriel de dimension finie, tout élément de End(E) est trigonalisable.
Preuve : On a déjà vu dans la proposition 1.3.8 que i) ⇒ ii), puis que ii) ⇒ iii).
iii) ⇒ iv) : Supposons que χu = (−X)n . D’après le théorème 1.6.2, on peut trouver une
base par rapport à laquelle la matrice de u est triangulaire supérieure avec des 0 sur la
diagonale.
iv) ⇒ i) : Si la matrice de u par rapport à une base donnée est triangulaire supérieure
avec des 0 sur la diagonale, alors elle nilpotente. Donc u est nilpotent.
Preuve : En vertu de la proposition 1.4.7, χuF divise χu . Donc χuF est également scindé ce
qui, grâce au théorème 1.6.2 montre que uF est trigonalisable.
Méthode pratique de trigonalisation des matrices :
1. Calcul de χA
2. Détermination des racines de χA .
3. On détermine les sous-espaces propres de A en résolvant AX = λX pour λ ∈ Sp(A).
On obtient ainsi p vecteurs colonnes propres linéairement indépendants (X1 , · · · , Xp ). Si
p = n, A est en fait diagonalisable, et on conclut comme dans le paragraphe précédent.
Sinon, on complète (X1 , · · · , Xp ) en une base (X1 , · · · , Xn ) de Kn . Soit P la matrice de
colonnes (X1 , · · · , Xn ). On a
λ1 0
.. ?
.
A=P 0 λp −1
P .
0 B
1.7. POLYNÔMES D’ENDOMORPHISMES ET DE MATRICES 17
En plus d’être des morphismes d’algèbre, les applications Φ et Ψ ont d’autres propriétés utiles :
Proposition 1.7.5 Soit u ∈ End(E) et A ∈ Mn (K). On a pour tout P ∈ K[X] et Q ∈ K[X],
t
P (u)Q(u) = Q(u)P (u) = (P Q)(u), P (A)Q(A) = Q(A)P (A) = (P Q)(A) et [P (A)] = P (t A).
1.7. POLYNÔMES D’ENDOMORPHISMES ET DE MATRICES 19
Preuve : Résulte d’une part de la commutativité de K[X], d’autre part de la formule t (A2 ) =
t At A = (t A)2 qui s’étend en t (Ap ) = (t A)p pour tout p ∈ N.
Proposition 1.7.6 Si u ∈ End(E) et P ∈ K[X] alors Im P (u) et Ker P (u) sont stables par u.
Proposition 1.7.7 Soit P ∈ K[X]. Soit u ∈ End(E) tel que χu soit scindé. Alors χP (u) est
également scindé.
Plus précisément, si χu = ni=1 (λi − X), alors on a χP (u) = ni=1 (P (λi ) − X). Résultat
Q Q
analogue pour les matrices.
Qn
Preuve : Si χu = i=1 (λi − X), le théorème 1.6.2 assure l’existence d’une base B de E telle
que
λ1 ? ··· ?
.. ..
0 λ2 . .
matB (u) =
.. .. ..
.
. . . ?
0 ··· 0 λn
De ce fait,
P (λ1 ) ? ··· ?
. ..
P (λ2 ) . .
0 .
matB (P (u)) = .
.. ..
.
..
. . ?
0 ··· 0 P (λn )
Qn
Il est donc immédiat que χP (u) = i=1 (P (λi ) − X).
Preuve : Soit λ ∈ Sp(u) et x un vecteur propre non nul de u associé à λ. Alors u(x) = λx,
puis par récurrence, uk (x) = λk x pour tout k ∈ N. On en déduit que
P (u)(x) = P (λ)x,
ce qui permet de conclure que P (λ) ∈ Sp(P (u)). D’où P (Sp(u)) ⊂ Sp(P (u)).
que χu soit scindé. D’après la proposition 1.7.7, si χu = ni=1 (λi − X),
Q
Supposons de plus Q
alors on a χP (u) = ni=1 (P (λi ) − X). On en déduit que µ ∈ Sp(P (u)) si et seulement si il
existe λ ∈ Sp(u) tel que P (λ) = µ, ce qui est exactement le résultat voulu.
Pour les matrices, on a le résultat suivant :
Corollaire 1.7.9 Soit A ∈ Mn (K) trigonalisable et P ∈ K[X]. Alors P (Sp(A)) = Sp(P (A)). En
particulier, pour toute matrice A ∈ Mn (C) et P ∈ C[X], on a P (Sp(A)) = Sp(P (A)).
Proposition 1.7.11 Soit A et B, deux matrices semblables, et R ∈ K[X]. Alors R(A) ∼ R(B).
En particulier R(A) = 0 si et seulement si R(B) = 0.
20 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Lemme 1.7.13 Il existe un entier p ≤ n unique tel que x, u(x), · · · , up−1 (x) soit
une famille libre et la famille x, u(x), · · · , up−1 (x), up (x) soit liée. On a alors
Définition 1.8.1 On dit que A est un idéal de K[X] si les propriétés suivantes sont vérifiées :
1. A est un sous-groupe de (K[X], +),
2. A est stable par multiplication (i.e ∀P ∈ A, ∀Q ∈ K[X], P Q ∈ A).
Théorème 1.8.2 Pour tout idéal A de K[X] non réduit à {0}, il existe un unique polynôme
unitaire 4 I tel que A = IK[X]. Ce polynôme I est appelé générateur de l’idéal A et on dit que
K[X] est un anneau principal.
Théorème 1.8.3 Soit u ∈ End(E). Alors l’ensemble des polynômes annulateurs de u est Ker Φ
(où Φ a été définie à la proposition 1.7.2). Cet ensemble est un idéal de K[X] non réduit à {0}.
Son générateur est appelé polynôme minimal de u et noté mu .
Preuve : Il est clair que l’ensemble des polynômes annulateurs de u est ker Φ. Cet ensemble
est stable par combinaison linéaire et par produit. C’est donc un idéal de K[X]. De plus
il contient χu (cf th. de Cayley-Hamilton) qui n’est pas nul, donc ker Φ n’est pas réduit à
{0}. Le théorème 1.8.2 assure l’existence de mu .
3. Pour plus de détails, consulter un cours de 1ère année, par exemple [?].
4. C’est-à-dire à coefficient dominant égal à 1
22 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
La proposition suivante qui découle facilement de la définition du générateur d’un idéal, permet
de caractériser le polynôme minimal.
Proposition 1.8.4 Soit u ∈ End(E) et P un polynôme unitaire. Les propriétés suivantes sont
équivalentes :
i) P = mu ,
ii) P (u) = 0 et Q(u) = 0 ⇒ P | Q ,
iii) P (u) = 0 et Q(u) = 0 avec Q 6= 0 ⇒ deg P ≤ deg Q .
De façon analogue, pour toute matrice carrée A, ker Ψ est l’ensemble des polynômes annula-
teurs de A. C’est un idéal non trivial de K[X], ce qui permet de définir le polynôme minimal
mA de A. Il y a bien sûr une correspondance étroite entre polynôme minimal de matrices et
d’endomorphismes :
Proposition 1.8.5 Soit u ∈ End(E) de matrice A par rapport à une base B donnée. Alors
mu = mA .
D’après le théorème de Cayley-Hamilton, le polynôme caractéristique est un polynôme annula-
teur. De la proposition précédente, on déduit la
Proposition 1.8.6 Le polynôme minimal divise le polynôme caractéristique. En particulier,
1 ≤ deg mu ≤ n.
0 = mu (u)(x) = mu (λ)x.
Donc mu (λ) = 0.
iii) ⇒ i) : Soit λ une racine de mu . Alors mu peut être factorisé par (X − λ) : il existe
Q ∈ K[X] tel que mu = (X − λ)Q. Or Q ne peut pas être un polynôme annulateur de u.
Donc il existe x ∈ E tel que Q(u)(x) 6= 0.
Par ailleurs,
0 = mu (u)(x) = (u − λ Id)[Q(u)(x)].
Donc ker(u − λ Id) contient un vecteur non nul, ce qui montre que λ est valeur propre de
u.
Exemples :
1. Homothéties
Si u ∈ End(E) est l’homothétie de rapport λ alors mu = X − λ.
En effet, par définition même de u, le polynôme X − λ est un polynôme annulateur de u.
Mais comme deg mu ≥ 1, on en déduit que mu = X − λ.
2. Projections
On suppose que E = F ⊕ G (avec F et G non réduits à {0}). Soit p le projecteur sur F
parallèlement à G. On sait que Sp(p) = {0, 1} donc 0 et 1 doivent être racines de mp . Donc
X 2 − X doit diviser mp . Mais tout projecteur vérifie p2 − p = 0. Donc
mp = X 2 − X.
3. Symétries
On suppose que E = F ⊕ G (avec F et G non réduits à {0}). Soit s la symétrie par rapport
à F parallèlement à G. On sait que Sp(s) = {−1, 1} donc X 2 − 1 doit diviser ms . Mais
toute symétrie vérifie s2 − Id = 0. Donc
ms = X 2 − 1.
4. Endomorphismes nilpotents
Soit u nilpotent d’indice p. Par définition même de p, on sait que X p est un polynôme
annulateur de u, et que X p−1 ne l’est pas. Donc mu doit diviser X p mais pas X p−1 . Cela
entraı̂ne
mu = X p .
5. Matrice de Frobenius
Soit A une matrice de Frobenius de taille n. On a vu dans la preuve du théorème de
Cayley-Hamilton que
∀i ∈ {1, · · · , n − 1}, Ai E1 = Ei+1 .
Donc les vecteurs colonnes (E1 , AE1 , · · · , An−1 E1 ) sont linéairement indépendants. On en
déduit qu’il n’existe pas de polynôme P non nul de degré strictement inférieur à n et tel
que P (A)E1 = 0. Mais on sait que χA (qui est de degré n) annule A. Donc,
n−1
X
n n
mA = (−1) χA = X − ai X i .
i=0
Lemme 1.8.10 (Lemme des noyaux) Soit P et Q deux polynômes premiers entre eux. Alors
ker(P Q)(u) = ker P (u) ⊕ ker Q(u).
Preuve : D’après le théorème de Bezout 5 , il existe deux polynômes U et V tels que
(1.6) P U + QV = 1.
Soit x ∈ Ker P (u) ∩ Ker Q(u). D’après (1.6), on a
x = U (u)[P (u)(x)] + V (u)[Q(u)(x)] = 0
| {z } | {z }
y z
Preuve : i) ⇒ ii) : D’après la proposition 1.8.9, les racines de mu sont les valeurs propres de
p
déf
Y
u. Donc le polynôme M = (X − λi ) divise mu .
i=1
Si xi est un vecteur propre associé à λi , alors il est clair que (u − λi Id)(xi ) = 0, et donc
Y
(1.7) M (u)(xi ) = (λj Id −u) (λi Id −u)(xi ) = 0.
j6=i
Si u est diagonalisable alors en vertu du théorème 1.5.5, E = pi=1 Eλi . Donc tout x ∈ E
L
se décompose en x = x1 + · · · + xp avec xi ∈ Eλi puis, grâce à (1.7),
p
X
M (u)(x) = M (u)(xi ) = 0.
i=1
Comme les polynômes X −µi sont premiers entre eux dans leur ensemble, on peut appliquer
le lemme des noyaux généralisé (remarque 1.8.11), ce qui donne
q
M
E = ker P (u) = ker(u − µi Id).
i=1
Si, dans cette décomposition, on ne garde que les µi tels que ker(u − µi Id) ne soit pas
réduit à {0}, on a obtenu une décomposition de E en somme de sous-espaces propres de
u. Donc u est diagonalisable.
Preuve : Si u est diagonalisable, alors, d’après le théorème 1.8.12, il existe P ∈ K[X] scindé à
racines simples tel que P (u) = 0. On a bien sûr aussi P (uF ) = 0. Donc, à nouveau d’après
le théorème 1.8.12, uF est diagonalisable.
A = P DP −1 et B = P D0 P −1 .
Preuve : Traitons le cas des endomorphismes. Soit donc u et v diagonalisables qui commutent.
En vertu du théorème 1.5.5, on peut écrire
p
M
(1.8) E= Eλi (u).
i=1
26 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES
Comme u et v commutent, chaque Eλi (u) est stable par v, et on peut donc définir l’en-
domorphisme vi induit par v sur Eλi (u). D’après le corollaire 1.8.13, vi est diagonalisable.
Donc on peut trouver une base (ei1 , · · · , eiγi ) de Eλi (u) qui est une base de vecteurs propres
pour vi . Bien sûr, chaque eik est également vecteur propre de u pour λi .
En rassemblant les bases obtenues pour chaque Eλi (u), on obtient une base de E (grâce à
(1.8)) qui est une base commune de vecteurs propres pour u et v.
Remarque : Ce théorème de réduction simultanée s’étend sans difficulté majeure au cas de p
endomorphismes diagonalisables qui commutent.
déf
Preuve : Notons v = u − λ Id. Il est clair que v m (x) = 0 entraı̂ne v m+1 (x) = 0. On a donc
bien ker v m ⊂ ker v m+1 . De plus, il n’est pas difficile de vérifier que
ker v m = ker v m+1 ⇒ ker v m+1 = ker v m+2 .
Par conséquent la suite dim(kerv m ) est une suite croissante d’entiers qui devient
m∈N
stationnaire dès que deux termes consécutifs sont égaux. Comme elle est visiblement ma-
jorée par n = dim E, on conclut qu’il existe un p ≤ n tel que (ker v m )m∈N soit strictement
croissante pour m ≤ p − 1 et stationnaire à partir du rang p.
Le polynôme minimal mu de u peut se décomposer en
mu = Q(X − λ)β .
avec Q et (X − λ)β premiers entre eux. A fortiori Q et X −λ sont premiers entre eux, et
donc, d’après le lemme des noyaux,
déf
Par définition de p, il existe x ∈ ker(u − λ Id)p tel que y = (u − λ Id)p−1 (x) 6= 0. Comme
de plus y ∈ ker(u − λ Id), la relation (1.9) assure que y 6∈ Ker Q(u). Donc
Exemples :
1. Endomorphismes diagonalisables : Si u est diagonalisable, pour chaque valeur propre
λ de u, on a Eλ = Eλ0 .
2. Endomorphismes nilpotents : Si u est nilpotent alors u a un seul sous-espace ca-
ractéristique : E00 = E.
Théorème 1.9.3 Soit λ une valeur propre de u de multiplicité α dans χu et β dans mu . Alors
Eλ0 est un sous-espace stable de u de dimension α. De plus, l’endomorphisme vλ induit par
u − λ Id sur Eλ0 est nilpotent d’indice β.
Mais χvλ = (−X)p avec p = dim Eλ0 (cf corollaire 1.6.4), donc χuλ = (λ − X)p .
Par ailleurs, il existe un polynôme Q premier avec (X − λ)α et tel que χu = Q(X − λ)α .
D’après le lemme des noyaux, on a
et l’on sait que ker Q(u) est stable par u (cf prop. 1.7.6), et que ker(u − λ Id)α = Eλ0
(puisque β ≤ α). Soit w l’endomorphisme induit par u sur ker Q(u). Remarquons tout de
suite que λ n’est pas valeur propre de w (cela contredirait (1.10)). Par ailleurs, d’après la
proposition 1.4.7, on a
Les polynômes (λ−X)p et χw (resp. Q et (X −λ)α ) sont premiers entre eux. En appliquant
le théorème de Gauss, on conclut que α = p.
Les polynômes (X −λi )αisont premiers entre eux dans leur ensemble. Le lemme des noyaux
généralisé assure donc que les sous-espaces caractéristiques sont en somme directe. Mais
on sait grâce au théorème précédent que dim Eλ0 i = αi . Donc
p
X p
X
dim Eλ0 i = αi = n,
i=1 i=1
Lp
d’où E = i=1 Eλ0 i .
Grâce au théorème précédent, l’endomorphisme ui induit par u sur Eλ0 i peut s’écrire
et donc χui = (λi − X)αi . Le théorème 1.6.2 assure l’existence d’une base Bi par rapport
à laquelle la matrice Ti de ui est triangulaire supérieure de taille αi avec des λi sur la
diagonale.
En prenant la réunion de toutes ces bases Bi pour i décrivant {1, · · · , p}, on obtient une
base B de E par rapport à laquelle la matrice de u est du type voulu.
Mais comme chaque ν(xi ) est dans Eλ0 i , on a également d(ν(xi )) = λi ν(xi ), d’où
p
X p
X p
X
λi ν(xi ) = d(ν(xi )) = (dν) xi = dν(x).
i=1 i=1 i=1
Pour p ≥ 2n et k ∈ {0, · · · , p}, l’un des deux entiers k et p − k est forcément supérieur
ou égal à n, donc le produit ν k (−1)p−k (ν 0 )p−k est nul. Donc (ν − ν 0 )p est nul et ν − ν 0 est
nilpotent.
Mais ν 0 − ν = d − d0 donc ν 0 − ν est à la fois nilpotent et diagonalisable. C’est donc
l’endomorphisme nul. Cela entraı̂ne évidemment que d0 = d.
Voici la version matricielle de la décomposition de Dunford :
Théorème 1.9.6 Soit A ∈ Mn (K) telle que χA soit scindé. Alors il existe une matrice
D diagonalisable, et une matrice N nilpotente telles que
A=D+N et DN = N D.
L 0
3. Détermination d’une base particulière adaptée à la décomposition E = Eλi .
Soit ui l’endomorphisme induit par u sur Eλ0 i . On sait déjà que ui = λi IdEλ0 +νi avec νi
i
nilpotent d’indice βi (multiplicité de λi dans le polynôme minimal de A).
On veut trouver une base de Eλ0 i par rapport à laquelle la matrice de νi est triangulaire
supérieure avec des 0 sur la diagonale. Pour cela, on détermine une base (ei1 , · · · , eip1 ) de
ker(u − λi Id), que l’on complète en une base (ei1 , · · · , eip1 +p2 ) de ker(u − λi Id)2 , que l’on
complète ensuite en base de ker(u − λi Id)3 , etc, jusqu’à obtention d’une base (ei1 , · · · , eiαi )
de ker(u − λi Id)βi tout entier. Il est facile de vérifier que la matrice de νi par rapport à
(ei1 , · · · , eiαi ) est triangulaire supérieure avec des 0 sur la diagonale.
La base de Cn cherchée est la réunion de toutes les bases (ei1 , · · · , eiαi ) déterminées précé-
demment.
Remarque : Il n’est pas toujours évident de connaı̂tre βi d’avance. En pratique, on trouve
cet indice au cours de la procédure de recherche d’une base de Eλ0 i comme ci-dessus : c’est
le plus petit indice vérifiant ker(u − λi Id)βi = ker(u − λi Id)βi +1 .
4. Décomposition de Dunford
On forme la matrice P dont les colonnes sont les vecteurs de la base obtenue à l’étape
précédente. On calcule T = P −1 AP . Cette matrice T est triangulaire supérieure. On la
décompose en T = ∆ + Θ où ∆ est la matrice diagonale dont les termes diagonaux sont
ceux de T . Il ne reste plus qu’à poser
D = P ∆P −1 et N = P ΘP −1 .
Finalement, dans le cas A diagonalisable, le calcul de Ak est immédiat pourvu que l’on
connaisse les valeurs propres de A et la matrice de passage de la base canonique de Kn
vers une base de vecteurs propres.
Remarque : Si A est diagonalisable dans C mais pas dans R, rien n’empêche de diago-
naliser dans Mn (C). Le résultat final doit bien sûr être réel !
2. Cas non diagonalisable : Quitte à travailler dans C, on peut toujours supposer que A
est trigonalisable. C’est alors que la décomposition de Dunford va s’avérer particulièrement
utile.
En effet, on peut écrire A = D + N avec D diagonalisable, N nilpotente, et DN = N D.
Comme D et N commutent, on peut appliquer la formule du binôme de Newton :
k
Ckj N j Dk−j .
X
k
A =
j=0
Pour effectuer le calcul le plus simplement possible, on peut utiliser les matrices ∆, Θ et P
obtenues au cours du processus de détermination de la décomposition de Dunford. Comme
par construction ∆ et Θ commutent, on a
k
X
Ak = (D + N )k = P (∆ + Θ)k P −1 = P Ckj Θj ∆k−j P −1 .
j=0
Les puissances de ∆ sont immédiates à calculer puisque ∆ est diagonale. Par ailleurs Θ
est nilpotente donc Θj = 0 pour j ≥ n. Donc au pire, il faudra calculer les n − 1 premières
puissances de Θ.