Math Ing
Math Ing
Math Ing
1 Transformée de Laplace 3
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Conditions d’existence . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.4 Conditions suffisantes d’existence de L[f ] . . . . . . . . . . . 5
1.1.5 Transformée de Laplace inverse . . . . . . . . . . . . . . . . 6
1.1.6 Théorèmes de translations et dérivée de la transformation de
Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.7 Fonction etagée unitaire (Heaviside) . . . . . . . . . . . . . . 9
1.1.8 Forme inverse du second théorème de translation . . . . . . 11
1.1.9 Dérivée de la Transformée de Laplace . . . . . . . . . . . . . 12
1.2 Transformée de Laplca des : dérivées, des convolutions et des fonc-
tions périodiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Fonction de Dirac et sa transformée de Laplace . . . . . . . . . . . 14
1.3.1 Impulsion unité . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.2 Fonction de Dirac . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.3 Transformée de Laplace de δ . . . . . . . . . . . . . . . . . . 14
1.3.4 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1
2
Chapitre 1
Transformée de Laplace
1.1 Introduction
La transfomée de Laplace est un outil mathématique de grande utilité en in-
génierie. Elle permet de transformée une équation différentielle linéaire (resp un
systéme différentiel linéaire) en une équation algébrique (resp système algébrique).
La transformée de Laplace permet egalement la résolution de certaines équations
aux dérivées partielles et aussi des équations intégrales.
Preuve :
Z +∞
L[f (αt)] = e−pt f (αt)dt , u = αt
0
1 +∞ − p u
Z
= e α f (u)du
p 0
1 p
= F[ ] (1.4)
α α
1
L[1] = si p > 0
p
5
Si f est une fonction croissante, la condition |f (t)| ≤ M ect pour t > T signifie
que le graphe de f sur [T, +∞[ ne croit pas plus rapidement que M ect .
Exemples :
— ∀t ≥ 0 , |t| ≤ et
— ∀t ≥ 0 , |e−t | ≤ et
— ∀t ≥ 0 , |2 cos t| ≤ 2et
2
— la fonction et n’est pas du type c-exponentielle car pour t suffisament grand
2
on peut montrer toujours que et > ect pour tout c > 0.
— la fonction tn est du type c-exponentielle car limt→+∞ tn e−ct = 0 pour c > 0.
On peut donc toujours trouver un M tel que : ∀t > T , |tn e−ct | < M et par
suite |tn | < M ect
6
Preuve :
Z +∞ Z T Z +∞
−pt −pt
L[f (t)] = e f (t)dt = e f (t)dt + e−pt f (t)dt = I1 + I2
0 0 T
I1 existe car f (et aussi e−pt f (t)) est continue par morceaux sur [0, T ].
Pour I2 :
Z +∞ Z +∞ Z +∞
−pt −pt ct
|I2 | = | e f (t)dt| ≤ M e e dt = M e(c−p)t dt
T T T
Z +∞
M (c−p)t +∞
= M e(c−p)t dt = [e ]T
T c−p
R +∞
il est claire que pour p > c, T e(c−p)t dt est convergente.
I1 et I2 existent, donc L[f ] existe pour p > c
Proposition : Si la fonction f est continue par morceaux sur [0, +∞[ et est du
type c-exponentielle pour t > T alors limp→∞ L[f ](p) = 0.
Preuve : f est continue par morceau sur [0, T ] elle est donc bornée sur cet in-
tervalle : |f (t)| < M1 = M1 e0t . De plus sur [T, +∞[ on a : |f (t)| ≤ M2 eαt . Si on
prend M = max(M1 , M2 ) et c = max(0, α) alors :
Z +∞ Z +∞
−pt M
|L[f (t)](p)| ≤ e |f (t)|dt ≤ M e−pt ect dt = (1.10)
0 0 p−c
Proposition :
L−1 est une transformation linéaire :
∀α, β ∈ R, étant donné deux fonctions : F et G alors :
7
L−1 (αF (p) + βG(p)) = αL−1 (F (p)) + βL−1 (G(p)) = αf (t) + βg(t)
Exemples :
— L−1 [ p14 ] = 1 −1 3!
3!
L [ p3+1 ] = 16 t3
—
2p + 5 p 5 3
L−1 [ 2
] = 2L−1 [ 2 2
] + L−1 [ 2 ]
p +9 p +3 3 p + 32
5
= 2 cos 3t + sin 3t (1.13)
3
— Dans le cas ou F (p) est une fraction rationnelle, on procède à la décompo-
sition en éléments simples. Par exemple, si on veut chercher la transformée
1
inverse de F (p) = p(p+1)(p−1) , d’après la technique de la décomposition :
1 a b c
F (p) = = + + (1.14)
p(p + 1)(p − 1) p p+1 p−1
on trouve a = −1, b = c = 12 .
donc la transformée de Laplace inverse :
1 1 1 1 1
L−1 [F (p)] = −L−1 [ ] + L−1 [ ] + L−1 [ ]
p 2 p+1 2 p−1
1 1
= −1 + e−t + et
2 2
8
— L−1 [ p2 +16
1
].
On va appliquer L−1 [ p2 +ω
ω
2 ] = sin ωt. En effet ;
1 1 −1 4
L−1 [ ] = L [ 2 ]
p2 + 16 4 p + 42
1
= sin 4t (1.15)
4
Preuve
Exemples
2
— L(e4t t2 ) = L(t2 )p→p−4 = (p−4) 3
p−2
— L(e2t cos 3t) = L(cos 3t)p→p−2 = (p−2) 2 +9
or : L−1 ( (p−2)
1 1 −1
4 ) = 3! L ( (p−2) 3! 1 t 3
3+1 = 6 e t
L−1 ( p2 −2p+5
1
) = L−1 ( (p−1)1 2 +4 ) = 12 L−1 ( (p−1)22 +22 ) = 1 −1
2
2
L ( p2 +22 )p→p−1 =
1 t
2
e sin 2t
et ∀a ∈ R
0 , si 0 ≤ t < a
U(t − a) = (1.21)
1 , si t ≥ a
noter que U(t − a) est définie uniquement pour les valeurs non-négatives puisque
c’est ce qui nous interesse pour la transformée de Laplace.
Exemples et applications
On peut utiliser la Fonction etagée pour ecrire certaines fonctions définies par
morceaux sur des intervalles. Voici des exemples :
1.) soit la fonction f définie par :
0 , si 0 ≤ t ≤ π
f (t) = (1.22)
sin t , si t ≥ π
Preuve :
Z +∞
L(f (t − a)U(t − a)) = e−pt f (t − a)U(t − a))dt
0
Z a Z +∞
−pt
= e f (t − a) U(t − a))dt + e−pt f (t − a) U(t − a))dt
0 | {z } a | {z }
0 1
Z +∞
= e−pt f (t − a))dt
a
on pose : z = t − a, dz = dt donc :
Z +∞ Z +∞
−p(z+a) −pa
L(f (t − a)U(t − a)) = e f (z)dz = e e−pz f (z))dz
0 0
−pa
= e L(f (t)) (1.25)
Z +∞
L(g(t)U(t − a)) = e−pt g(t)U(t − a))dt
Z0 a Z +∞
−pt
= e g(t) U(t − a))dt + e−pt g(t) U(t − a))dt
0 | {z } a | {z }
0 1
Z +∞
= e−pt g(t))dt
Za +∞
= e−p(z+a) g(z + a))dt t = z + a
0
−pa
= e L(g(t + a) (1.26)
conclusion :
Exemples
1.) Calculer L(U(t − a)).
On applique L(f (t − a)U(t − a)) = e−pa L(f (t)) avec f (t) = 1, donc L(U(t − a)) =
11
−pa
e−pa L(1) = e p .
2.) Calculer L((t − 1)2 U(t − 1)).
On applique le résultat précedent on a :
2!
L((t − 1)2 U(t − 1)) = e−t L(t2 ) = e−t
p3
et calculer sa transformée
de Laplace.
2 , si 0 ≤ t ≤ 2
La fonction f (t) = −1 , si 2 ≤ t ≤ 3 Sa transformée de Laplace est :
0 , si t ≥ 3
−πp
Exemple : Calculer L−1 ( ep2 +9
4
).
−1 1 −1
On a : L ( p2 +9 ) = 3 L ( p2 +32 = 31 sin 3t.
1 3
π
−1 e− 4 p 1 −1 1 π
L ( 2 ) = (L ( 2 ))t→t− π4 U(t − )
p +9 3 p +9 4
1 π π
= sin 3(t − )U(t − ) (1.31)
3 4 4
12
Convolution
Définition : Si f et g sont deux fonctions continues par morceaux sur [0, +∞[,
le produit de convolution de f et g noté f ∗ g est défini par :
Z t
(f ∗ g)(t) = f (u)g(t − u)du (1.43)
0
Z t Z 0
(f ∗ g)(t) = f (u)g(t − u)du = − f (t − v)g(v)dv (t − u = v)
0 t
Z t
= f (t − v)g(v)dv = (g ∗ f )(t) (1.44)
0
14
Z ∞
δ(t − t0 )dt = 1 (1.48)
0
1
L(δa (t − t0 )) = (L(U (t − (t0 − a))) − L(U (t − (t0 + a))))
2a
1 e−p(t0 −a) e−p(t0 +a)
= ( − )
2a p p
epa − e−pa
= e−pt0 ( ) (1.50)
2pa
15
en passant à la limite a → 0 :
en particulier pour t0 = 0 on a :
L(δ(t)) = 1 (1.52)
1.3.4 Application
Soit à résoudre y ′′ + y = δ(t − 2π) avec les conditions initiales :
a. y(0) = 1 et y ′ (0) = 0.
b. y(0) = 0 et y ′ (0) = 0.
a.) On applique la transformée de Laplace avec y(0) = 1 et y ′ (0) = 0 on trouve :
p e−2pπ
p2 Y (p) − p + Y (p) = e−2pπ → Y (p) + (1.53)
p2 + 1 p2 + 1
En utilisant la transformation inverse on a :
e−2pπ
p2 Y (p) + Y (p) = e−2pπ → Y (p) (1.56)
p2 + 1
et donc
0 si 0 ≤ t ≤ 2π
y(t) = sin(t − 2π)U (t − 2π) =
sin t si t ≥ 2π
Théorème : Si F (p) est une fraction rationnelle de pôles p1 , p2 , ... , pk alors la
transformée de laplace inverse de F (p) est f (t) est donnée par :
k
X
f (t) = res(F (p)ept ) (1.57)
i=0
avec
— pôle simple :
— pôle d’ordre m :
1 dm−1
(res(F (p)ept ))p=pk = ((p − pk )m F (p)ept ) (1.59)
(m − 1)! dpm−1
Exemples :
1
1.) Calculer la transformée de Laplace inverse de F (p) = p2 +1
.
F admet deux pôles simples p1 = i et p2 = −i.
(res(F (p)ept ))p=i = limp→i ((p − i) p21+1 ept ) = 2i1 eit .
(res(F (p)ept ))p=−i = limp→−i ((p + i) p21+1 ept ) = −1 2i
e−it .
Donc f (t) = 2i1 eit + −1
2i
e−it = sin t.
1
1.) Calculer la transformée de Laplace inverse de F (p) = (p2 +1) 2.
1
Une autre méthode consiste à écrire F (p) = (p2 +1) 2 = F1 (p)F2 (p) avec F1 (p) =
1 1
(p2 +1)
et F2 (p) = (p2 +1) et d’appliquer le résultat du produit de convolution. Dans
ce cas L−1 (F1 F2 ) = f ∗ f avec f (t) = L−1 (F1 ) = sin t. En effet :
Z t Z t
f ∗ f (t) = sin u sin(t − u)du = sin u(sin t cos u − cos t sin u)du
0 0
Z t Z t
= sin t sin u cos udu − cos t sin2 udu
0 0
1 1
= sin t − t cos t (1.60)
2 2
Chapitre 2
Méthodes itératives
2.1 Introduction
La méthode d’élimination de Gauss ou la factorisation LU sont efficaces pour la
résolution des systèmes d’ordre pas trop grand. Dans les théories des équations aux
dérivées partielles on tombe facilement sur des systèmes d’ordre 104 ou 105 . Dans
ce cas, l’application de la méthode d’élimination de Gauss ou la factorisation LU
devient très coûteuse en terme de temps de calcul.
Comme pour la recherche de zéro de fonction non linéaie f (x) = 0, on a ramené
le problème à la recherche de point fixe x = g(x) par les méthodes itératives en
regardant la convergence de la suite xn+1 = g(xn ) pour un x0 initialement choisi.
De manière similaire, le système d’ordre n : Ax = b peut être écrit sous la forme :
x = Bx + c où B est une matrice n × n et c un vecteur. On genére la suite :
x(0) donne
x(k+1) = Bx(k) + c , pour k = 0, 1, 2, . . . (2.1)
et étudié sa convergence.
Avant d’exposer ses méthodes itératives, nous présentons d’abord quelques notions
sur les normes vectorielles et normes matricielles.
17
18
On a donc besoin d’un moyen pour mesurer les écarts entre deux vecteurs. Nous
allons donc étendre la notion de valeur absolue dans le cas à une dimension au cas
vectoriel.
Rn = {x|x = (x1 , x2 , . . . , xn )t ; x1 , x2 , . . . , xn ∈ R}
Par norme vectorielle sur Rn nous sous entendons une fonction réelle ∥∥ de Rn vers
R+ qui satisfait les conditions suivantes :
(i) ∥x∥ ≥ 0 pour tout x ∈ Rn et ∥x∥ = 0 ssi x = 0
(ii) ∥λx∥ = λ∥x∥ pour tou λ ∈ R et x ∈ Rn
(iii) ∥x + y∥ ≤ ∥x∥ + ∥y∥, pour tout x, y ∈ Rn
Dans le cas de Rn , les normes les plus utilisées en pratique sont : pour tout x =
(x1 , x2 , . . . , xn )t ∈ Rn
n
X
∥x∥1 = |x1 | + |x2 | + . . . + |xn | = |xi |
i=1
q
∥x∥2 = x21 + x22 + . . . + x2n
∥x∥∞ = max{|x1 |, |x2 |, . . . , |xn |}
∥x∥2 est ce qu’on appelle la norme Euclidienne. En fait, toutes ces normes provienent
de la norme lp définie par
Xn
p p p 1/p
∥x∥p = (|x1 | + |x2 | + . . . + |xn | ) =( |xi |p )1/p
i=1
Exemples
1.) Soit x = (2, −3, 5)t un vecteur 3
p de R . √
∥x∥1 = |2|+|−3|+|5| = 10, ∥x∥2 = 22 + (−3)2 + (5)2 = 38, ∥x∥∞ = max{|2|, |−
19
3|, |5|} = 5.
t t t
2.) Si x = (2,√ −3, 5) , y = (1, 3, 0) on a x − y = (1, −6, 5) , alors ∥x − y∥1 = 12,
∥x − y∥2 = 62 et ∥x − y∥∞ = 6.
est une norme matricielle, elle est appelée norme matricielle naturelle.
20
∥Ax∥ ≤ ∥A∥∥x∥
Preuve :
x
Pour tout x ̸= 0, la norme ∥ ∥x∥ ∥ = 1 donc :
x
∥A( )∥ ≤ ∥A∥
∥x∥
x 1
or A( ∥x∥ )= ∥x∥
Ax et par suite :
1 1 x
∥Ax∥ = ∥ Ax∥ = ∥A( ) ≤ ∥A∥
∥x∥ ∥x∥ ∥x∥
ce qui implique que :
∥Ax∥ ≤ ∥A∥∥x∥
Nous donnons dans le tableau suivant, les principaux normes vectorielles et les
normes matricielles associées
Norme vectorielle norme matricielle
Pnassociée
∥x∥1 = ni=1 |xi |
P
∥A∥1 = maxj i=1 |aij |
le max porte sur la p somme des colonnes
∥x∥2 = ( ni=1 x2i )1/2
P
∥A∥2 = ρ(At A)
t
ρ est le rayon spectral
Pn de A A
∥x∥∞ = maxi |xi | ∥A∥∞ = maxi j=1 |aij |
le max porte sur la somme des lignes
Exemples
Calculer ∥A∥1 , ∥A∥2 et ∥A∥∞ si
3 1 −1
A= 1 5 1
1 −1 8
∥A∥1 = max{|3|
p + |1| + |1|, |1| + |5| + | − 1|, | − 1| + |1| + |8|} = 10
∥A∥2 = pρ(At A), les√valeurs propres de At A sont : 66.9142, 29.5613, 7.52451. Donc
∥A∥2 = ρ(At A) = 66.9142 = 8.18011.
∥A∥∞ = max{|3| + |1| + | − 1|, |1| + |5| + |1|, |1| + | − 1| + |8|} = 10
2.3.1 Exemple
Soit à résoudre le système suivant :
4x1 + x2 = 5
(2.3)
x1 − 5x2 = −4
0 − 41 5
x1 x1 4
= 1 + 4 (2.4)
x2 5
0 x2 5
| {z }
c
(k) (k)
A ce niveau, on introduit la suite x(k) = (x1 , x2 )t ou x = (x1 , x2 )t avec une valeur
d’initialisation x(0) = (0, 0) :
pour x(0) = (0, 0), on a x(1) = (1.25, 0.8), x(2) = (1.05, 1.5) ... les valeurs de la suite
x(k) pour k = 0, 1, ..., 10 sont données dans le tableau suivant :
On voit clairement que pour k grand la suite x(k) converge vers la solution exacte.
(k+1) −x(k) ∥
Sur ce tableau nous avons illustrés également l’erreur relative ∥x ∥x(k+1) ∥
et l’erreur
∥x(k+1) −x(k) ∥
absolue ∥x(k) −(1, 1)t ∥. Il est clair d’après ce tableau que ∥x(k+1) ∥
et ∥x(k) −(1, 1)t ∥
(k+1) −x(k) ∥
sont du même ordre de grandeur, on pourra donc utiliser ∥x ∥x(k+1) ∥
comme test
d’arrêt des itérations.
Par la suite, nous allons introduire le principe général des méthodes itératives.
22
si aii ̸= 0.
La méthode itérative de Jacobi est définie par :
n
(k+1) 1 X (k)
xi = (bi − aij xj ) , i = 1, 2, . . . , n et k = 0, 1, ... (2.9)
aii j=1,j̸=i
Exemple
Soit à résoudre par la méthode de Jacobi le système suivant :
3x1 + x2 − x3 = 8
x1 + 5x2 + x3 = −2 (2.15)
x1 − x2 + 8x3 = 4
On choisit x(0) = (0, 0, 0)t pour initialiser, on obtient pour x(1) et x(2) les valeurs
suivantes : x(1) = ( 83 , − 52 , 12 )t , x(2) = ( 89
30
, − 31 , 7 )t . Les résultats des 10 premières
30 60
itérations de Jacobi sont donnés dans le tableau suivant
(k) (k) (k)
k x1 x2 x3
0 0 0 0
1 2.6666667 -0.4 0.5
2 2.9666667 -1.033333 0.1166667
3 3.0500000 -1.016667 0
4 3.0055556 -1.010000 -0.0083333
5 3.0005556 -0.999444 -0.0019444
6 2.9991667 -0.999722 0.0000000
7 2.9999074 -0.999833 0.0001389
8 2.9999907 -1.000009 0.0000324
9 3.0000139 -1.000005 0.0000000
10 3.0000015 -1.000003 -2.314815 10−6
20 2.9999999 -1.000000 2.5006 10−12
24
Exemple
On reprend l’exemple précédent :
3x1 + x2 − x3 = 8
x1 + 5x2 + x3 = −2 (2.25)
x1 − x2 + 8x3 = 4
On remarque qu’il y a convergence vers x = (3, −1, 0), la convergence dans le cas
de Gauss-Seidel est relativement plus rapide que dans le cas de Jacobi.
pour i = 1, 2, . . . , n.
On pourra généraliser la méthode de Gauss-Seidel en introduisant un paramètre de
26
relaxation ω pour former une combinaison qui converge plus vite que Gauss-Seidel
pour un choix approprié de ω. Le paramètre ω est introduit de telle sorte à ce que
(k+1) (k) (k+1) (k)
xi = xj + ω(x̃j − xj ) (2.27)
i−1 n
(k+1) (k) ω X (k+1)
X (k)
xi = (1 − ω)xj + (bi − aij xj − aij xj (2.28)
aii j=1 j=i+1
Si les aii ̸= 0 pour tout i, D + ωL est une matrice triangulaire inférieure et donc
det(D + ωL)=detD = Πni=1 aii ̸= 0. La matrice D + ωL est donc inversible et la
relation (2.30) devient :
(k+1) (k)
xi = (D + ωL)−1 [(1 − ω)D − ωU ]xj + ω(D + ωL)−1 b (2.31)
Exemple
On reprend l’exemple précédent :
3x1 + x2 − x3 = 8
x1 + 5x2 + x3 = −2 (2.32)
x1 − x2 + 8x3 = 4
On choisit x(0) = (0, 0, 0)t pour initialiser et trois valeurs de ω = 0.5, 1.073, 1.2. Le
résultat des 10 premières itérations est affiché dans le tableau suivant :
27
On aura donc
La convergence est réalisée lorsque l’erreur e(k+1) est toujours inférieur à e(k) , ou si
limk→+∞ ∥e(k) ∥ = 0.
Comme x(0) est arbitrairement choisi alors e(0) est aussi arbitraire, on conclut qu’on
a convergence de la méthode si limk→+∞ ∥B k ∥ = 0.
Ils existent plusieurs tests pour arrêter les itérations. Elles sont tous basés sur
le vecteur d’erreur qui doit atteindre un critère prédéfini et tendant vers une valeur
proche de zéro.
On utilise le test d’arrêt basé sur :
∥x(k+1) − x(k) ∥
<ϵ
∥x(k) ∥
On peut aussi se contanter du critère d’arrêt suivant :
2.6.2 Convergence
Comme on vient de voir, l’algorithme x(k+1) = Bx(k) +c converge si limk→+∞ ∥e(k) ∥ =
0 ce qui est équivalent à dire que limk→+∞ ∥B k ∥ = 0. Cette condition s’applique
aussi bien à la méthode de Jacobi qu’à la méthode de Gauss-Seidel. Une condition
nécessaire et suffisante pour que limk→+∞ ∥B k ∥ = 0 est que le rayon spectrale de B
vérifie ρ(B) = maxi=1,...,n |λi | < 1. Où les λi , i = 1, . . . , n sont les valeurs propres de
B. On a donc les théorèmes suivants :
Théorème : Pour tout choix de x(0) ∈ Rn , la suite x(k) définie par x(k+1) =
(k)
Bx + c pour tout k ≥ 1 converge vers l’unique solution de x = Bx + c si et
seulement si ρ(B) < 1.
3 1 1
Exemples : 1.) La matrice : 1 4 −1 est à diagonale strictement domi-
2 3 8
nante car : 3 > 1 + 1, 4 > |1|
+ | − 1| et 8 > 2 + 3.
4x1 + x2 = 5
2.) La matrice du système est aussi à diagonale strictement do-
x1 − 5x2 = −4
minante car : 4 > 1 et 5 > 1.
Théorème : Si la matrice du système Ax = b est à diagonale strictement do-
minante alors les méthodes de Jacobi et de Gauss-Seidel convergent vers l’unique
solution de Ax = b pour n’importe quelle valeur d’initialisation x(0) .
Exemples :
4x1 + x2 = 5
1.) La matrice du système est à diagonale strictement domi-
x1 − 5x2 = −4
nante, donc la méthode de Jacobi étudiée précédement est convergente.
3x1 + x2 − x3 = 8
2.) La matrice du système x1 + 5x2 + x3 = −2 est à diagonale strictement do-
x1 − x2 + 8x3 = 4
minante, donc la méthode de Gauss-Seidel étudiée précédement est convergente.
3.) La condition “à diagonale strictement dominante” est suffisante pour garantir la
convergence de la méthode de Jacobi et Gauss-Seidel, mais elle n’est pas necessaire,
c’est à dire on peut avoir des systèmes avec des matrices qui ne sont pas à diago-
nale strictement dominante mais la méthode itérative de Jacobi et/ou Gauss-Seidel
converge. C’est ce qu’illustre l’exemple suivant :
−3x1 + x2 = −4
−x1 − 2x2 − 2x3 = −1
x2 − 2x3 = −3
30
On
√
remarque que la convergence est très lente, car le rayon spectral est ρ(BJ ) =
2
√ ≈ 0.82 < 1 qui est proche de 1.
3
De même, la matrice
de la méthode de Gauss-Seidel est BG = (D + L)−1 U =
0 −1/3 0
0 1/6 1 . Le spectre de la matrice BG est : σ(BG ) = 2/3, 0, 0, le rayon
0 1/12 1/2
spectral est ρ(BG ) = 2/3 < 1, donc la méthode de Gauss-Seidel converge.
31
Dans le cas de la méthode de Gauss-Seidel, la convergence est plus vite que celle de
Jacobi mais est relativement lente aussi.
Théorème : Si A est une matrice symétrique, définie positive et tridiago-
nale, alors les méthodes de Jacobi, Gauss-Seidel et de ralaxation avec 0 < ω < 2
convergent pour tout x(0) ∈ Rn . Pour la méthode de relaxation, le choix optimal de
ω est donné par :
2
ωo = p
1 + 1 − ρ(BJ )2
Exemple : soit le système suivant
2x1 + x2 = 2
x1 + 2x2 + x3 = 3
x2 + 2x3 = 2
Considérons
le sysème
original
avecune petite perturbation du second membre
4 0
b′ = b + δb = + . Le système devient donc
4.0001 0.0004
x1 + 3x2 = 4
1.0001x1 + 3x2 = 4.0004
∥b − b̃∥ 0.0003
= = 0.7510−4 (2.38)
∥b∥ 4.0001
∥x − x̃∥ 3
= =3 (2.39)
∥x∥ 1
pour une petite erreur relative sur le second membre du système, on a une grande
erreur relative sur x.
Pour comprendre ce phénomène, on a tracé sur la figure (2.1) les droites d1
d’équation x1 + 3x2 = 4 et la droite d2 d’équation 1.0001x1 + 3x2 = 4.0001. Evi-
dement, l’unique solution du système est le point d’intersection de d1 et d2 . Après
perturbation du second membre, les droites d˜1 d’équation x1 + 3x2 = 4 et la droite
d˜2 d’équation 1.0001x1 + 3x2 = 4.0004 seront complètement confondues avec d1 et
d2 . Cependant, la solution exacte x̃ = (4, 0)t est sur la droite d1 , qui est très proche
de d2 . Ce qui implique que x̃ est aussi sur la droite d2 (voir figure (2.1)).
Cet exemple nous montre bien les difficultés qui peuvent apparaître. Pour savoir
quand ce genre de phénomème pourra apparaître, il est necessaire de considérer la
norme de la matrice A et celle de A−1 . Ceci nous conduit à introduire la notion de
conditionnement d’une matrice.
33
d2 4
d1 3
2
1
1 2 3 4
Preuve :
i) On a A(x+δx) = b+δb = Ax+A(δx) ce qui donne A(δx) = δb et donc δx = A−1 δb.
En passant à la norme : ∥δx∥ = ∥A−1 δb∥ ≤ ∥A−1 ∥∥δb∥ d’où le résultat.
ii) Puisque b = Ax est équivalent à x = A−1 b, alors on a ∥b∥ = ∥Ax∥ ≤ ∥A∥∥x∥ et
∥x∥ ≤ ∥A−1 ∥∥b∥. On a aussi ∥δx∥ =≤ ∥A−1 ∥∥δb∥ et ∥δb∥ =≤ ∥A∥∥δx∥ donc :
donne :
∥δx∥
≤ ∥A−1 ∥∥δA∥
∥x + δx∥
∥δA∥
≤ ∥A∥∥A−1 ∥ (2.41)
∥A∥
κ(A) = ∥A∥∥A−1 ∥
∥δx∥ ∥δb∥
≤ κ(A) , perturbation du second membre (2.42)
∥x∥ ∥b∥
∥δx∥ ∥δA∥
≤ κ(A) perturbation de la matrice (2.43)
∥x + δx∥ ∥A∥
Ses deux relations nous montrent que si une matrice A est mal conditionnée, κ(A)
est grand, alors des petites variations sur les données A ou b entraînent de très
fortes variations sur le résultat x équations (2.42,2.43).
Le conditionnement est donc l’outil mathématique permettant de quantifier l’insta-
bilité numérique des résolutions des systèmes linéaires. Le conditionnement mesure
la dépendance de la solution d’un problème numérique par rapport aux données du
problème, ceci afin de contrôler la validité d’une solution calculée par rapport à ces
données.
Propriétés :
(i) κ(αA) = κ(A) pour toute matrice A et tout scalaire α non nul.
(ii) κ(αA) = κ(αA−1 )
(iii) κ(AB) ≤ κ(A)κ(B)
(iv) Si A est une matrice symétrique définie positive alors si Λ et λ représentent
respectivement la plus grande et la plus petite valeur propre de A alors κ(A)
pour la norme 2 est égale à : κ(A) = Λ/λ
(v) Si A est une matrice unitaire (AA∗ = A∗ A = I) ou orthogonale réelle
(AAt = At A = I) alors pour la norme ∥.∥2 on a : κ(A) = 1.
Remarques :
1.) La propriété (v) montre que les systèmes à matrice unitaire ou orthogonale sont
bien conditionnés.
2.) La propriété (iv) est utile pour trouver une valeur approchée de κ(A) sans passer
35
par le calcul de la norme de A et A−1 , surtout que le calcul de A−1 est très coûteux
O(n3 ).
Exemple : La matrice du système considérée dans l’exemple précédent est
1 3
A=
1.0001 3
sa norme est ∥A∥∞ = 4.0001, cette norme ne sera pas considerée très grande.
Cependant, la norme de A−1 est :
−1 −10000 10000
A = donc ∥A−1 ∥∞ = 20000
3333.67 −3333.33
donc pour la norme infinie : κ(A) = (20000)(4.0001) = 80002 qui est un grand
nombre.
Comme nous l’avons vu dans l’exemple si ∥δb∥
∥b∥
= 0.7510−4 , à partir de la majoration
∥δx∥ ∥δx∥
de ∥x∥
donnée par ∥x∥
≤ κ(A) ∥δb∥
∥b∥
, on trouve : ∥δx∥
∥x∥
≤ 6.00015. On a calculé ∥δx∥
∥x∥
=3
∥δx∥
ce qui est consistent avec ce qu’on a trouvé à partir de la majoration de ∥x∥
.