Élimination de Gauss-Jordan
En mathématiques, plus précisément en algèbre linéaire, l'élimination de Gauss-Jordan, est un algorithme pour déterminer les solutions d'un système d'équations linéaires. Cette méthode permet aussi de déterminer le rang d'une matrice et de calculer l'inverse d'une matrice (carrée) inversible. Lorsqu'on applique l'élimination de Gauss à une matrice, on obtient sa forme échelonnée réduite.
La méthode est nommée ainsi en hommage à Carl Friedrich Gauss et Wilhelm Jordan.
Histoire
[modifier | modifier le code]Cette méthode est connue des mathématiciens chinois depuis au moins le Ier siècle de notre ère. Elle est référencée dans le livre chinois Jiuzhang suanshu (Les Neuf Chapitres sur l'art mathématique), dont elle constitue le huitième chapitre, sous le titre « Fang cheng » (la disposition rectangulaire). La méthode est présentée au moyen de dix-huit exercices. Dans son commentaire daté de 263, Liu Hui en attribue la paternité à Chang Ts'ang, chancelier de l'empereur de Chine au IIe siècle avant notre ère.
En Europe, cette méthode a été découverte et présentée sous forme moderne au XIXe siècle. En 1810, Carl Friedrich Gauss présente sa méthode des moindres carrés dans un livre étudiant le mouvement de l'astéroïde Pallas[1]. Dans l'article 13 de ce livre, il décrit une méthode générale de résolution de système d'équations linéaires qui constitue l'essentiel de la méthode du pivot. En 1888, Wilhelm Jordan publie un livre de géodésie précisant comment utiliser cette méthode et adoptant une notation un peu différente[2]. C'est grâce à ce dernier livre que cette méthode se diffusa dans tout l'Occident[3]. Elle est aujourd'hui connue sous le nom d'élimination de Gauss-Jordan ou méthode du pivot de Gauss.
Algorithme
[modifier | modifier le code]Opérations
[modifier | modifier le code]L'algorithme de Gauss-Jordan produit la matrice échelonnée réduite d'une matrice à l'aide d'opérations élémentaires sur les lignes. Trois types d'opérations élémentaires sont utilisées :
- Échange de deux lignes ;
- Multiplication d'une ligne par un scalaire non nul ;
- Ajout du multiple d'une ligne à une autre ligne.
Pseudocode
[modifier | modifier le code]Soit une matrice A de dimensions n × m ;
L'algorithme de Gauss-Jordan est le suivant[4] :
Gauss-Jordan r = 0 (r est l'indice de ligne du dernier pivot trouvé) Pour j de 1 jusqu'à m (j décrit tous les indices de colonnes) | Rechercher max(|A[i,j]|, r+1 ≤ i ≤ n). Noter k l'indice de ligne du maximum | (A[k,j] est le pivot) | Si A[k,j]≠0 alors (A[k,j] désigne la valeur de la ligne k et de la colonne j) | | r=r+1 (r désigne l'indice de la future ligne servant de pivot) | | Diviser la ligne k par A[k,j] (On normalise la ligne de pivot de façon que le pivot prenne la valeur 1) | | Si k≠r alors | | | Échanger les lignes k et r (On place la ligne du pivot en position r) | | Fin Si | | Pour i de 1 jusqu'à n (On simplifie les autres lignes) | | | Si i≠r alors | | | | Soustraire à la ligne i la ligne r multipliée par A[i,j] (de façon à annuler A[i,j]) | | | Fin Si | | Fin Pour | Fin Si Fin Pour Fin Gauss-Jordan
Exemple.
On part de la matrice
Il s'agit d'une matrice réelle, donc le module d'un coefficient est sa valeur absolue.
- Première itération, j = 1 (et r = 0) :
- étape 1.1 : on cherche dans la première colonne de la matrice la valeur maximale des valeurs absolues des coefficients. Elle vaut 2, située en (1, 1), de sorte que k = 1,
- étape 1.2.1 : r = 1,
- étape 1.2.2 : r = k, il n'y a pas d'échange,
- étape 1.2.3 : on divise la ligne 1 par A(1, 1) = 2, soit ,
- étape 1.2.4 :
- ligne i = 2, on a A(2, 1) = -1 ; on calcule
, - ligne i = 3, on a A(3, 1) = 0, la ligne n'est donc pas modifiée,
- ligne i = 2, on a A(2, 1) = -1 ; on calcule
- la matrice est alors
;
- deuxième itération, j = 2 (et r = 1) :
- étape 2.1 : on cherche dans les lignes 2 à 3 de la deuxième colonne la valeur maximale en valeur absolue. Il s'agit de 3/2, situé en (2, 2),
- étape 2.2.1 : r = 2,
- étape 2.2.2 : r = k, il n'y a pas d'échange.
- étape 2.2.3 : on divise la ligne 2 par A'(2, 2) = 3/2, soit ,
- étape 2.2.4 :
- ligne i = 1, on a A'(1, 2) = -1/2 ; on calcule
, - ligne i = 3, on a A'(3, 2) = -1 ; on calcule
,
- ligne i = 1, on a A'(1, 2) = -1/2 ; on calcule
- la matrice est alors
;
- troisième itération, j = 3 (et r = 2) :
- étape 3.1 : le pivot de la troisième colonne, troisième ligne est 4/3. Donc k = 3
- étape 3.2.1 : r = k,
- étape 3.2.2 : il n'y a aucune ligne à permuter,
- étape 3.2.3 : on divise la ligne 3 par A''(3, 3) = 4/3, elle devient
- étape 3.2.4 :
- ligne i = 1, on a A''(1, 3) = -1/3. La dernière étape annule ce coefficient.
- ligne i = 2, on a A''(2, 3) = -2/3. La dernière étape annule ce coefficient.
- la matrice est alors
qui est réduite échelonnée.
Stabilité numérique
[modifier | modifier le code]La première section de l'algorithme, soit l'échange de ligne avec la valeur de pivot la plus grande, a pour but d'améliorer la stabilité numérique de l'algorithme. Cette étape tente de minimiser les erreurs d'arrondis cumulatives causant de l'instabilité numérique. Cette stratégie permet en général de remédier à cette instabilité, même si on peut donner des contre-exemples[5].
Complexité algorithmique
[modifier | modifier le code]La complexité algorithmique asymptotique de l'élimination de Gauss est O(n3) (notations de Landau) : n×n est la taille de la matrice et le nombre d'instructions à réaliser est proportionnel à n3. Cet algorithme peut être utilisé sur un ordinateur pour des systèmes avec des milliers d'inconnues et d'équations[6],[7]. Cependant, l'algorithme de Strassen, qui est en O(n2,807) a une meilleure complexité algorithmique asymptotique.
La complexité algorithmique du pivot de Gauss reste O(n3) quand la matrice est creuse. En effet, prenons une matrice n×n dont seulement k n entrées sont non nulles mais dont les entrées sont régulièrement réparties sur les lignes et les colonnes, alors au cours de l'algorithme du pivot de Gauss le nombre moyen de valeurs non nulles sur une ligne passera de k à 2k puis 3k jusqu'à n. On trouve donc que le nombre d'instructions est de l'ordre de n n (n-1)/2.
Calcul de l'inverse d'une matrice carrée
[modifier | modifier le code]L'élimination de Gauss-Jordan peut être utilisée pour inverser une matrice carrée si celle-ci est inversible. Pour cela, on crée une matrice à n lignes et 2n colonnes en bordant la matrice A par la matrice identité In, ce qui génère une matrice augmentée (en) notée [ A | I ]. Si la matrice d'entrée est inversible, on applique l'algorithme de Gauss-Jordan à la matrice augmentée. La matrice finale est de la forme [ I | A−1 ] et contient l'inverse de la matrice initiale dans sa section de droite.
Exemple
[modifier | modifier le code]Admettons la matrice suivante:
Pour trouver l'inverse de cette matrice, il faut générer la matrice augmentée [ A | I ] comme suit:
En appliquant l'algorithme de Gauss-Jordan, on obtient la matrice augmentée sous sa forme échelonnée réduite suivante:
La section gauche de la matrice est la matrice identité, ce qui démontre que A est inversible. La section 3x3 de droite, soit la matrice B, est l'inverse de A.
Cas général
[modifier | modifier le code]Effectuer une opération élémentaire O sur les n lignes d'une matrice revient à la multiplier à gauche par la matrice élémentaire (inversible) Gs := O(In).
En notant O1, …, Os les opérations élémentaires que l'on effectue sur A, et Gs = Os(In) les matrices élémentaires associées, on aboutit donc, dans la section de gauche, à la matrice
et dans celle de droite, à la matrice
Ainsi, B est inversible et BA = In, donc B−1 = A et A−1 = B.
Résolution d'un système d'équations linéaires
[modifier | modifier le code]L'élimination de Gauss-Jordan peut résoudre un système d'équations AX = B, où A est une matrice n × m de rang r, B est un vecteur fixé, et X le vecteur inconnu. On crée un tableau à n lignes et m + 1 colonnes en bordant la matrice A par le vecteur B. On réduit la matrice sous forme échelonnée réduite.
Si les pivots de la matrice échelonnée réduite associée à (A|B) sont situés uniquement dans les m premières colonnes (ce qui est toujours le cas si r = n ) et ont pour indice de colonnes k1, …, kr , alors la dernière colonne fournit une solution particulière, obtenue en prenant tous ses termes nuls sauf ceux situés à la ligne d'indice ki et à qui on donne la valeur du terme situé à la ligne i de la dernière colonne, i variant de 1 à r.
On obtient la solution générale du système en ajoutant à cette solution particulière un élément quelconque du noyau de A. Celle-ci s'obtient en donnant des valeurs quelconques aux coefficients de X situés à un indice de ligne autre que les ki, et en déterminant les coefficients situés aux lignes d'indice ki de façon à satisfaire le système (ce qui est facile compte tenu de la forme échelonnée de la matrice).
Si le dernier pivot de la matrice échelonnée réduite associée à (A|B) se situe dans la dernière colonne, alors il n'y a pas de solution.
Si la matrice A est carrée inversible (autrement dit, le système est de Cramer), alors on obtient dans la dernière colonne l'unique solution X du système.
Variante : dans l'algorithme précédent, si on se borne à obtenir une matrice échelonnée (non réduite), on obtient une matrice triangulaire supérieure. Il ne reste plus qu'à « remonter » pour retrouver les valeurs des coefficients de X.
Soit le système d'équations linéaires :
On établit la matrice correspondante :
On commence par la colonne 1. Le pivot est le maximum en valeur absolue entre 1, 3 et 2, soit 3 :
Comme ce pivot n'est pas nul, on divise la ligne où il se trouve (c'est-à-dire la ligne 2) par le pivot :
On échange les lignes 1 et 2 :
On analyse maintenant les lignes autres que celle du pivot. Ligne 2, on a A(2, 1) = 1. On calcule
Ligne 3, on a A(3, 1) = 2. On calcule
On remplace les lignes 2 et 3 ainsi calculées :
On passe à la colonne 2. Le pivot est le maximum en valeur absolue entre et , soit :
Comme ce pivot n'est pas nul, on divise la ligne où il se trouve (c'est-à-dire la ligne 3) par le pivot :
On échange les lignes 2 et 3 :
On analyse maintenant les lignes autres que celle du pivot. Ligne 1, on a A(1, 2) = . On calcule
Ligne 3, on a A(3, 2) = . On calcule
On remplace les lignes 1 et 3 ainsi calculées :
On passe à la colonne 3. Le pivot est :
Comme ce pivot n'est pas nul, on divise la ligne où il se trouve (c'est-à-dire la ligne 3) par le pivot :
Comme ce pivot est déjà ligne 3, on n'a pas besoin d'échanger de lignes.
On analyse maintenant les lignes autres que celle du pivot. Ligne 1, on a A(1, 3) = . On calcule
Ligne 2, on a A(2, 3) = . On calcule
On remplace les lignes 1 et 2 ainsi calculées :
Toutes les colonnes à gauche de la barre verticale ont été traitées. Nous sommes en présence d'une matrice échelonnée réduite, avec la matrice identité d'un côté et la valeur des variables de l'autre. La solution du système d'équations est donc :
Soit le système d'équations linéaires :
La matrice échelonnée réduite associée à
est
- .
Les pivots sont situés aux colonnes d'indice 1 et 3. Une solution particulière est donc : , ce qui correspond au vecteur :
Soit le système d'équations linéaires :
La matrice échelonnée réduite associée à
est
- .
Il n'y a pas de solution.
Déterminant
[modifier | modifier le code]Cet algorithme permet également de calculer le déterminant d'une matrice :
avec p le nombre de permutations de lignes, et le pivot noté à l'étape j de l'algorithme.
Si l'un des pivots est nul, alors le déterminant de la matrice est nul et celle-ci n'est pas inversible.
- Exemple
On part de la matrice
Il s'agit d'une matrice réelle, donc le module d'un coefficient est sa valeur absolue.
On recherche le pivot dans la colonne 1 :
On divise la ligne 1 par 2 de sorte que l'on obtienne un 1 sur la diagonale :
On modifie les lignes 2 et 3 par combinaisons linéaires avec la ligne 1 de sorte que l'on obtienne des zéros dans la première colonne (hors diagonale) :
On recherche le pivot dans la colonne 2 :
On échange les lignes 2 et 3 :
On divise la ligne 2 par (3/2) de sorte que l'on obtienne 1 sur la diagonale :
On modifie les lignes 1 et 3 par combinaisons linéaires avec la ligne 2 de sorte que l'on obtienne des zéros dans la deuxième colonne (hors diagonale) :
On recherche le pivot dans la colonne 3 :
On divise la ligne 3 par (4/3) de sorte que l'on obtienne 1 sur la diagonale :
On modifie les lignes 1 et 2 par combinaisons linéaires avec la ligne 3 de sorte que l'on obtienne des zéros dans la troisième colonne (hors diagonale), la matrice est alors :
qui est réduite échelonnée.
Le déterminant de la matrice vaut donc .
Notes
[modifier | modifier le code]- Gauss 1810.
- Jordan 1888.
- Althoen et McLaughlin 1987.
- Adapté de Beezer 2014, p. 30.
- Voir par exemple les commentaires de Patrick Lascaux et Raymond Théodor, Analyse numérique matricielle appliquée à l'art de l'ingénieur, t. 1 : Méthodes directes [détail des éditions], p. 228.
- Alan Edelman, « The first annual large dense linear systems survey », The SIGNUM Newsletter, no 26, , p. 6-12 (lire en ligne) ; Alan Edelman, « Large dense numerical linear algebra in 1993: The parallel computing influence », Int. J. Supercomputer appl., vol. 7, no 2, , p. 113-128.
- La collection de matrices creuses inversibles de Harwell-Boeing est très connue des développeurs de codes de calcul. Elle a fait l'objet de plusieurs publications, par ex. I. Duff, R. Grimes et J. Lewis, « Sparse Matrix Test Problems », ACM Trans. Math. Softw., vol. 15, no 1, , p. 1-14 (DOI 10.1145/62038.62043)
Références
[modifier | modifier le code]- Steven C. Althoen et Renate McLaughlin, « Gauss-Jordan Reduction: A Brief History », Amer. Math. Month., vol. 94, , p. 130-142.
- Robert A. Beezer, A First Course in Linear Algebra, University of Puget Sound, (lire en ligne).
- Carl Friedrich Gauss, Disquisitio de elementis ellipticis Palladis, .
- Wilhelm Jordan, Handbuch der Vermessungskunde, vol. 1, Metzler, .
- Joseph-Louis Lagrange, Mélanges de Turin, .
Articles connexes
[modifier | modifier le code]- Algorithme d'échelonnement dans un anneau euclidien
- Décomposition LU
- Décomposition QR
- Élimination de Fourier-Motzkin, généralisation de la méthode aux systèmes d'inégalités linéaires
- Factorisation de Cholesky
Lien externe
[modifier | modifier le code]Méthode du pivot de Gauss sur math-linux.com