Chapitre 3 Traitement Des Images Satellites - Est

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 73

Chapitre 3 : Traitement des images satellites

Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
• Les images satellitales sont sous format numérique.
• Une scène multispectrale ou hyperspectrale est composée d’un ensemble
d’images monospectrales.
• Le traitement d’une scène a pour ultime objectif, l’extraction d’informations
qualitatives et quantitatives relatives à la surface terrestre.
• Le traitement d’une scène nécessite l’utilisation d’outils (microordinateur) et
méthodes informatiques (logiciels).
La chaine de traitement des scènes satellitales comprend les trois étapes suivantes :

• Corrections radiométriques
Prétraitement • Corrections géométriques
• Rehaussement monospectral ou multispectral

•Classification de la scène
Extraction de
•Choix des sites d’entrainement
l’information
•Algorithme de classification

•Réalité-Terrain : collecte d’échantillons témoins


Validation
des résultats •Méthode d’échantillonnage
•Calcul de la matrice de confusion

• Cartes d’occupation/utilisation du sol


Résultats • Cartes thématiques
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
Une image numérique est une matrice de (m) lignes et (n) colonnes dont chaque cellule appelée
pixel, est caractérisée par une valeur appelée: compte numérique ou valeur digitale (notée DN).

12 104 54 75 1

87 201 153 89 12
(n)
23 57 49 33 47

205 198 157 53 39


Valeur digitale
28 14 7 5 1

(m)

La valeur digitale d’un pixel exprime la quantité de rayonnement réfléchie ou émise par la
partie du sol correspondant au pixel. Par conséquent, on l’appelle : valeur de brillance.
Pixel: Picture Element.
• Il y a autant d’images que de bandes spectrales par capteur du satellite.
• Nombre de canaux du capteur = nombre de copies de l’image.

Exemples:
• Landsat-8 OLI, TIRS: 11 bandes spectrales, donc 11 images de la
même région à la fois.
• Spot NAOMI: 5 bandes, soit 5 images à la fois de la même région.

Scène multispectrale Landsat-8 OLI et TIRS

• La taille d’une image numérique est exprimée sous la


forme du produit : Nombre de colonnes x Nombre de
lignes

• Exemple:

Taille de l’image: (10 x 5)


Dans l’image numérique, chaque pixel est caractérisé par :
1)La valeur digitale (ou compte numérique) du pixel
• La valeur digitale du pixel est un chiffre entier naturel dont la valeur
varie dans un intervalle de valeur appelé : intervalle dynamique.
• La largeur de l’intervalle dynamique dépend de la résolution
radiométrique du capteur satellitaire ayant acquis l’image.

2) La taille du pixel
• Les pixels de l’image ont une forme carrée.
• Tous les pixels d’une image ont une taille identique.
• Les dimensions du pixel (donc sa taille) sont déterminées par la
résolution géométrique du capteur ayant acquis l’image.
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
•L’intervalle dynamique d’une image est le nombre de valeurs possibles que peut affecter le capteur aux
pixels d’une image ;
•Il dépend de la résolution radiométrique du capteur.
•Ce niveau est compris entre 21 et 2n.
•Il détermine le nombre de niveaux de gris affectés aux pixels de l’image.
•Il rend compte du nombre de bits nécessaires pour stocker la valeur digitale de chaque pixel de
l’image.
Niveau codification Nombre de niveaux de gris

1 bit 21 = 2, soit 0 et 1.

2 bits 22 = 4, soit 0, 1, 2, 3. (noir, gris foncé, gris clair, blanc)

3 bits 23 = 8, soit [0, 7].

4 bits 24 = 16, soit [0, 15] (œil humain)

5 bits 25 = 32, soit [0, 31].

8 bits 28 = 256, soit [0, 255].

10 bits 210 = 1024, soit [0, 1023].

12 bits 212 = 4096, soit [0, 4095].

16 bits 216 = 65536, soit [0, 65535].


RESOLUTION RADIOMETRIQUE

256 16 6 2
Nombre de niveaux de l’image
• La qualité visuelle de l’image
dépend du nombre de niveaux de
gris utilisés : plus ce nombre est
grand, plus la qualité visuelle
est meilleure.
1 bit (2 niveaux de gris) 2 bit (4 niveaux de gris)
• Le moniteur du micro-ordinateur
peut distinguer des millions de
tons de gris.

• L’œil humain ne peut pas


percevoir plus de 16 tons de gris,
c’est-à-dire 4 bits.

3 bit (8 niveaux de gris) 8 bit (256 niveaux de gris)


Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
• Les valeurs digitales sont stockées dans des bits.
• La valeur digitale d’un pixel est stockée sur un groupe de bits.
• Un groupe de 8 bits est un octet (ou byte).
• Dans chaque bit, l’information est traduite sous forme de 0 et 1 (système binaire) :
ceci est compris par la machine en termes de présence (1) ou absence (0) de
courant.

Off On Off Off Off Off Off On

Un octet ou byte
0 1 0 0 0 0 0 1
Signal numérisé
Les données digitales des images sous format binaire dans les pistes de
l’unité de stockage sont organisées de la manière suivante:

1 1 0 0 1 0 0 1 1 1 0 0 1 1 1 1 1 0 0 0 0 1 0 1 0
0 1 1 1 0 0 0 1 0 0 1 0 1 1 1 0 0 1 1 1 0 1 0 0 0

Piste de l’unité de
0 1 1 1 0 1 0 1 1 1 0 0 0 0 1 0 0 1 1 1 0 0 1 0 1
1 0 1 0 0 0 1 1 0 0 0 1 1 0 0 1 1 0 0 0 1 1 0 0 0
1 0 1 0 0 1 1 0 0 0 0 1 1 1 0 0 1 1 1 0 0 1 0 1 0

stockage
0 0 0 0 1 1 1 0 1 1 0 1 0 1 0 1 0 0 1 1 0 1 0 0 1
1 0 1 0 0 0 0 1 1 1 0 0 1 0 0 1 0 1 1 1 1 0 1 0 1
0 1 1 0 1 0 1 1 1 1 0 0 0 1 1 1 0 0 1 1 0 0 1 1 0

151
154
225
123
192
133

243
167
167

218
205
225

152
106
111
103

220

137
44
29

64
28

18

35

38
La capacité de stockage des supports informatique et la taille des fichiers images sont
exprimées en multiple d’octet (byte en anglais):

• 1 Ko (KB) = 1024 octets donc 210 octets.

• 1 Mo (MB) = 1024 Ko donc 220 octets soit 1048576 octets.

• 1Go (GB) = 1024 Mo donc 230 octets soit 1073741824 octets.

• 1To (TB) = 1024 Go donc 240 octets.

Soit approximativement:

• Kilo-octet (Ko) = 1000 octets


• Méga-octet (Mo) = 1.000.000 octets = 1000 Ko.

• Giga-octet (Go) = 1.000.000.000 octets = 1.000.000 Ko = 1000 Mo.

• Tera-octet (To) = 1.000.000.000.000 octets = 1.000.000.000 Ko = 1.000.000 Mo


= 1.000 Go
Les images numériques de télédétection constituent une grande quantité d’information qui nécessitent une capacité
mémoire très importante pour leur stockage.
Exemple
• Soit une scène (180Km x 180Km) du capteur Landsat-8 OLI et TIRS ayant 11 canaux.
➢ Quelle sera la taille de l’espace mémoire nécessaire pour le stockage de cette scène?.
Réponse:
• Les données utiles:
➢ Nombre de canaux 11.
➢ Résolution géométrique: 1 canal à 15m, 8 canaux à 30m, 2 canaux à 100m
➢ Niveau de codification: 12 bits.
➢ Dimensions de la scène: 180 Km x 180 Km.
• Le nombre de pixels qui forment l’image de résolution 15m est: (180.000m÷15m) (180.000m÷15m) = 144000000 pixels, soit 144 * 106 pixels.
• Le nombre de pixels qui forment une image de résolution 30m est : (180.000m÷30m) (180.000m÷30m) = 36000000 pixels, soit 36 * 106 pixels.
• Le nombre de pixels qui forment les 8 images de résolution 30m est : 36000000 * 8 = 288000000 pixels, soit 288 * 106 pixels.
• Le nombre de pixels qui forment une image de résolution 100m est : (180.000m÷100m) (180.000m÷100m) = 3240000 pixels, soit 3,24 * 106 pixels.
• Le nombre de pixels qui forment les 2 images de résolution 100m est : 3240000 * 2 = 6480000 pixels, soit 6,48 * 106 pixels.
• Le nombre total de pixels pour l’ensemble des 11 canaux est: (144 + 288 + 6,48) * 106 = 438,48 * 106 pixels.
Réponse :
• Le nombre de bits nécessaires au stockage de la totalité de la scène est: 438,48 * 106 pixels * 12 bits = 5261760000 bits, soit
5261,76 * 106 bits.
• Le nombre d’octets nécessaires au stockage de la totalité de la scène est: 5261760000 bits ÷ 8 = 657720000 octet ;
soit 657,72 Mo.
Conclusion
Les images digitales constituent une grande quantité d’information. Le traitement de cette information ne
peut pas se faire manuellement. Le traitement est réalisé par le biais d’outils informatiques
Un logiciel de traitement d’images de télédétection comprend les catégories de modules
(algorithmes) suivants :
• Gestion des données : import / export, conversion ;
• Affichage des images en niveaux de gris ou en couleurs ;
• Corrections géométriques : Géoréférencement, Reprojection, Rééchantillonnage,
Orthorectification, …etc
• Corrections radiométriques : Destripping, calibration radiométrique, correction
atmosphérique ;
• Manipulation du contraste : Etirement de l’histogramme, filtrage ;
• Transformations multispectrales : Opérations arithmétiques, Analyse en
composantes principales, calcul d’indices ;
• Classification et validation: Extraction de l’information à partir des images,
évaluation de la précision et de l’exactitude des résultats de la classification
Erdas imagine2022
http://www.hexagongeospatial.com/products/power-portfolio/erdas-imagine

Envi 5.6
http://www.harrisgeospatial.com/SoftwareTechnology/ENVI.aspx

PCI Geomatica2017
http://www.pcigeomatics.com/

TerrSet
https://clarklabs.org/terrset/
Prix : 99$ (Etudiant) – 675$ (Université) – 1250$ (Public)

ILWIS4
http://www.itc.nl/ilwis/downloads/ilwis33.asp
Prix : Gratuit

Arcgis 10.8 et versions ultérieures


http://www.esri.com/products

QGIS 3.34
https://www.qgis.org/fr/site/about/index.html
• ENVI 5.6 : Configuration minimale requise:
• RAM : 4Go ou plus ;
• CPU intel dual core (3Ghz) ou plus;
• 2 GB d’espace disque (pour l’installation de l’application).
• Affichage HD (1600×1200) ou plus est recommandé.

• TerrSet: Configuration minimale requise:


• Windows 7 ou plus, Windows Server 2003 ou plus ;
• 1,3 GB d’espace disque (pour l’installation de l’application) ;
• 7,4 GB d’espace disque (pour l’installation des données du tutoriel) ;
• RAM : 4Go, 8 GB ou plus est recommandée ;
• Affichage HD (1920×1080) ou plus est recommandé.
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
• Une image numérique est une population de pixels.
• On peut lui appliquer les traitements statistiques.
• Chaque image est caractérisée par son histogramme.
Un histogramme est une fonction de distribution qui traduit la fréquence de
pixels ayant une valeur digitale donnée au sein d’une image.
Chaque histogramme est décrit par :

Nombre de
•Un mode : valeur digitale ayant la fréquence
maximale au sein de l’image.

pixels
•Une valeur digitale minimale (DNmin) et
une valeur digitale maximale (DNmax).
•Valeur digitale moyenne
•Ecart-type.
Valeursdigitales (DN)
0 9 42 65 255

DNmin Mode DNmax


• Il y a autant d’images que de bandes spectrales du capteur satellitaire.
• Chaque bande admet son propre histogramme.

XS1 XS2 XS3

• L’histogramme ne donne pas la répartition spatiale des pixels.


• L’histogramme permet l’estimation et l’amélioration du contraste de l’image.
• L’histogramme peut être uni ou multi-mode (en fonction de l’existence dans l’image
d’objets ayant des contrastes radiométriques).
Histogramme étroit

Nombre de pixels ou
Histogramme large
fréquence

0 255 Valeur digitale (DN)

• Histogramme étroit = image à faible contraste (qualité visuelle médiocre).

• Histogramme large = image à fort contraste (bonne qualité visuelle).


Eau

Terre

Végétation

Sol

Zone Urbaine

0 255 DN
Bande X
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
• L’affichage d’une image se fait par la transformation des valeurs digitales des pixels en
niveaux de gris.
• Cette transformation se fait grâce à une table de conversion : Table de transcodage
(Look-Up-Table ou LUT).
7 6 4

5 7 6
0 1 2 3 4 5 6 7
1 0 2
Table de transcodage (LUT).
Image (3 x 3)
Bande X

12 104 54 75 1
L’affichage ou la visualisation
de l’image numérique consiste 87 201 153 89 12
en une transformation des
23 57 49 33 47
valeurs digitales des pixels de
l’image en niveaux (ou tons)
205 198 157 53 39
de gris.F
255 14 7 5 1
• La table de transcodage détermine le nombre de niveau de gris qui peuvent être
affichés sur une image.
• Le nombre de niveaux de gris dépend du niveau de codification de l’image
Valeurs d’entrée: Valeurs de sortie:
LUT DN de l’image Niveaux de gris affichés
9 9
DN = 255
10 10
11 11
12 12
. .
. .
. .
62 62
63 63
64 64
65 65
Image monospectrale (en niveaux de gris) DN = 0

LUT
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
Principe et physiologie de la vision humaine
• L’œil humain est un système optique (cristallin + rétine).
• La rétine est l’élément photosensible du système.
• La rétine est un tissu composé entre autres, de deux types de cellules
photosensibles :
• Les cônes, responsables de la vision des couleurs (trois types :
Rouge, Vert et bleu) ;
• Les bâtonnets, responsable de la vision nocturne.
• La vision des couleurs est obtenue via la fusion par le cerveau, des
images captées par les trois types de cônes.
• La visualisation multispectrale ou «en couleurs» des images de
télédétection se fait sur le moniteur d’un micro-ordinateur.

• Le moniteur couleur (et aussi le téléviseur couleur) du


micro-ordinateur admet trois canaux d’affichage
d’image: bleu, vert et rouge.

• Chaque image «en couleurs» affichée admet trois composantes,


correspondant chacune à un canal du moniteur: bleu, vert et rouge. Elle est
formée par l’addition des trois composantes.

Principe de synthèse des


couleurs

Couleurs soustractives.
Couleurs additives. (Imprimante et photocopies
(écran de télé couleur) couleurs)
• Chaque couleur est un « mélange » de trois couleurs primaires (bleu, vert et
rouge) à des proportions différentes.

• La quantification des proportions de mélange est exprimée par les valeurs


digitales du pixel dans les trois images monospectrales.

- (0,0,0) = Noir.
0,255,255 255,255,255 - (0,0,255) = Bleu.
- (0,255,0) = Vert.
255,0,255
0,0,255 - (255,0,0) = Rouge.
- (0,255,255) = Cyan.
- (255,255,0) = Jaune.
0,255,0 - (255,0,255) = Magenta.
255,255,0 - (255,255,255) = Blanc.
- (100,100,100) = Gris-sombre.
0,0,0 255,0,0 - (200,200,200) = Gris-clair.
• Le moniteur du micro-ordinateur possède trois canaux pour l’affichage des images: le
canal rouge, vert et bleu.
• Les images de télédétection sont
multispectrales.
• Pour un affichage «en couleurs»
d’une scène satellitaire, on combine
trois images de trois bandes
spectrales différentes.
• Chacune des trois composantes est
affichée à travers un canal du
moniteur.
Images monospectrales

0 255 0 0 0 255 0 0 0
0 255 255 + 0 255 0 + 255 0 255
0 100 255 255 100 255 255 100 255

Composition colorée
• Il existe deux types de compositions colorées des images de télédétection :
• Visualisation en couleurs naturelles.
• Visualisation en «fausses couleurs».
• La visualisation en couleurs naturelles est obtenue en choisissant pour
l’affichage, les bandes spectrales du visible correspondant au bleu, vert et rouge
(composition identique à la vision des couleurs par l’œil humain).
• On affiche ces bandes respectivement dans les canaux bleu, vert et rouge du
moniteur.
Bande affichée de la scène Canal d’affichage du moniteur
TM-3 (Rouge) Canal Rouge
TM-2 (Vert) Canal vert
TM-1 (Bleu) Canal bleu

Relation de
Correspondance
TM-3

TM-2

Composition en couleurs naturelles.


Combinaison TM (3,2,1) (RVB)

TM-1
Une composition en « fausses couleurs » est obtenue, soit en:

• affichant au moins une bande spectrale hors du spectre visible.


• supprimant la relation de correspondance entre les bandes spectrales à
afficher et les canaux d’affichage du moniteur.

Bande affichée de la scène Canal d’affichage du moniteur

TM-2 (Vert) Canal Rouge


TM-3 (Rouge) Canal Vert
TM-1 (Bleu) Canal Bleu
Pas de
Correspondance

L’image obtenue est une composition en «fausses couleurs» notée:


TM(2,3,1) (RVB)
Composition en TM-4 = Proche Infrarouge
«fausses couleurs». TM-3 = Rouge
Combinaison TM TM-2 = Vert
(4,3,2) RVB

La composition
TM(4,3,2)(RVB)
permet
l’accentuation de
la végétation saine
sur cette scène.

TM (3,2,1) (RVB) TM (4,3,2) (RVB)


EXEMPLE

0.4 0.45 0.5 0.55 0.6 0.65 0.7 3 6 20  (enµm)

Canaux Landsat TM 1 2 3 4 5 7 6

Canaux
d’affichage
B V R B V R B V R
1 2 3 2 3 4 1 4 7
Couleurs
Fausses Fausses
naturelles
Couleurs Couleurs
TM-1 TM-2 TM-3

TM-6

TM-4 TM-5 TM-7


TM (3,2,1) (RVB) TM (4,3,2) (RVB)

TM (7,5,3) (RVB) TM (7,4,3) (RVB)


CONCLUSION

• La visualisation en «fausses couleurs» est utilisée


pour accentuer certains traits ou objets de la
surface terrestre.

• La combinaison choisie est fonction de la


signature spectrale de l’objet à accentuer.
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
-Les opérations de traitement d’images numériques les plus
courantes effectuées sur les images satellitaires sont :
• La visualisation et l’affichage des images numériques.
• L’amélioration de la qualité visuelle de l’image.
• La correction des images.
• L’extraction d’informations contenues dans l’image
sous forme de cartes thématiques.
-Les opérations de correction effectuées sur les images
satellitaires sont de deux types:
• Corrections géométriques ;
• Corrections radiométriques.
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
• Lors de l’acquisition des images satellitaires, des
déformations de l’image peuvent se produire sous l’effet
de facteurs qui sont:
−Distorsion panoramique : Courbure de la Terre ;
−Distorsion de biais, due à la rotation de la Terre (image
floue) ;
−Instabilité de la plate forme.
• Géoréférencement : affecter un système de coordonnées
géographiques ou cartographiques aux images.
Corrections géométriques : origines des déformations
Lors de l’acquisition des images satellitaires, des déformations de l’image
peuvent se produire sous l’effet de facteurs qui sont:
Déformations liées à l’instrument Exemple : effet de
l’angle de visée
• étalonnage du capteur,
• dysfonctionnement de détecteurs,
• défaut d’égalisation entre barrettes,
• angle de visée (si dépointage)
• vitesse de balayage des miroirs rotatifs …
Déformations liées à l’environnement
• rotation de la terre l’image = parallélogramme
• relief Objets identiques

Déformations liées au vecteur


• variation d’altitude du satellite, Visée oblique
Images différentes
• variation de la vitesse de déplacement, Visée verticale
• attitude (tangage, roulis, lacet) …
Image déformée Image corrigée.
Corrections géométriques :
calage d’une image par rapport à une image de référence

Superposition Superposition
image de MAI-AOUT MAI-AOUT
référence SANS APRES
correction correction

MAI 1990
Visée verticale

image à
recaler

AOUT 1990
Visée oblique (2°26)
Corrections géométriques
calage d’une image par rapport à une carte (= géoréférencement)

carte de
géoréférence

image à
géoréférencer Image géoréférencée

On peut lui superposer un carroyage


exprimé dans un système de projection
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
• Lors de l’acquisition des images de télédétection par les capteurs, la
radiométrie des pixels peut être altérée par plusieurs facteurs
perturbateurs.

• Les principales causes de ces défauts radiométriques sont :


➢Contribution atmosphérique ;

➢Anomalies instrumentales ;

➢Géométrie de l’illumination solaire.


CONTRIBUTION ATMOSPHERIQUE
• Radiométrie au niveau du Satellite = Radiométrie de la cible + Radiométrie
atmosphérique.
• Correction atmosphérique tente de supprimer la radiométrie de trajet due à
l’atmosphère appelée : contribution atmosphérique
• La correction atmosphérique est nécessaire uniquement pour les analyses
quantitatives, par exemple le calcul de la température de surface des océans
(SST : Sea Surface Température)

Image LANDSAT-TM sans correction atmosphérique Image LANDSAT-TM avec correction atmosphérique
CONTRIBUTION ATMOSPHERIQUE
• La correction atmosphérique n’est pas toujours nécessaire !
• La correction atmosphérique est nécessaire dans le cas de la comparaison de
plusieurs scènes.
✓Mosaïquage de scènes : collage d’images de régions contiguës.
✓Études diachroniques : suivi de l’évolution d’un phénomène au cours du
temps.
ANOMALIE INSTRUMENTALE
Il arrive que certains détecteurs du capteur soient défectueux, ceci se traduit par une
altération de la radiométrie de lignes entière de pixels. La conséquence est le
lignage de l’image.

Lignage = Striping (anglais) Après correction (destriping)


DISTORSIONS LIÉES À LA VARIATION D’ENSOLEILLEMENT
• Les variations de l’angle d’incidence affectent la radiométrie de la scène.
• L’angle d’incidence varie en fonction de :
➢Heure locale.
➢Saison.
➢Latitude.
➢Topographie
• Seules les variations saisonnières sont à corriger.
• Il existe des modèles mathématiques (équations) qui permettent la correction de
cette variation d’ensoleillement.
• Cette correction est indispensable quand on veut comparer des images de la
même région prises à des dates différentes.
• L : Luminance mesurée par le capteur ;

L = k . Lcosa + b •

 : angle d’élévation solaire ;
k, a, b: constantes déduites empiriquement ;
• Lc : Luminance corrigée.
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
• «Le rehaussement de l’image est une manipulation de son
apparence telle que l’information contenue en elle est
facilement interprétable visuellement pour une nécessité
précise» (Mather, 1999)
• Il existe trois manières principales pour améliorer le contraste d’une
image :
• Étirement de l’histogramme ;
• Transformations multispectrales ;
• Filtrage de l’image pour rehausser les contours d’objets.
ÉTIREMENT DE L’HISTOGRAMME
• Parfois, les images sont sur- ou sous-exposées : elles peuvent être soit trop
claires ou très sombres ; ce qui les rend inutilisables à l’état brute.
• L’intervalle de valeurs digitales utilisé par TM-3 sur l’image ci- dessous
s’étend entre 9 et 65.
• Les systèmes d’affichage peuvent afficher jusqu’à 256 niveaux de gris, mais
cette image ne les utilise pas tous [ 9, 65 ].
Landsat TM-3

Nombre de
pixels
0 9 65 DN de l’image 255
Image
sombre,
contraste image claire,
faible contraste
faible

0 255 0 255

0
255

Image à fort contraste: beaucoup de nuances de gris, par conséquent on peut


distinguer les détails de l’image.
L’ordinateur améliore le contraste des images en modifiant la table de
transcodage (Look-Up Table ou LUT)

Valeurs d’entrée Valeurs de sortie


9 0
10 5
11 9
12 14
. .
. .
. .
62 241
63 246
64 251
65 255
Image brute Image après égalisation de l’histogramme
Chapitre 3 : Traitement des images satellites
Introduction
I/ Images numériques
I-1/ Définition
I-2/ Intervalle dynamique
I-3/ Stockage de l’image numérique
I-4/ Visualisation des images numériques
I-4-1/ Histogramme d’une image
I-4-2/ Visualisation monospectrale
I-4-3 / Visualisation multispectrale
II/ Opérations de traitement des images satellitales.
II-1/ Corrections géométriques
II-2/ Corrections radiométriques
II-3/ Rehaussement des images
II-4/ Transformations multispectrales
II-5/ Classification
1/ Principe
2/ Classification non supervisée
3/ Classification supervisée
II-6/ Validation du résultat de classification
• Les transformations multispectrales sont des opérations mathématiques
appliquées aux bandes spectrales d’une scène (plus d’une bande) afin d’y
accentuer des objets ou phénomènes sur la base de leur radiométrie.
• Le résultat d’une transformation multispectrale est une nouvelle image appelée :
néocanal.
• Les opérations mathématiques pouvant être appliquées sont :
oArithmétiques : addition, soustraction, multiplication ou division.
oStatistiques : Analyse en composantes principales (ACP).
oLes transformations les plus fréquentes sont le calcul d’indices spectraux et
les rapports de bandes.
INDICE SPECTRAL
• Un indice spectral est une combinaison arithmétique de bandes spectrales
d’un même capteur afin d’accentuer un objet ou phénomène de la scène
sur la base de sa signature spectrale.
• Exemples :
Indice Nom Formule pour Landsat-TM
IB Indice de Brillance d’un sol (TM32+TM42)1/2
IR Indice de Rougeur d’un sol TM32/(TM1*TM23)
IC Indice de Couleur d’un sol (TM3-TM2)/(TM3+TM2)
NDWI Normalized Difference Water Index (TM4-TM5) / (TM4+TM5)
NDVI Normalized Difference Vegetation Index (TM4-TM3) / (TM4+TM3)
NDSI Normalized Difference Snow Index (TM2-TM5) / (TM2+TM5)
NDSI Normalized Difference Soil Index (TM5-TM4) / (TM5+TM4)
NBR Normalized Burn Ratio (TM4-TM7) / (TM7+TM4)
TI Indice de Turbidité TM3/TM4
RAPPORT DE BANDES
Le rapport de deux bandes spectrales d’un même capteur permet :
➢L’élimination ou l’atténuation des différences d’ensoleillement dus à la
topographie ;
➢L’accentuation d’un objet ou d’un phénomène représenté dans la scène.
Exemples de rapports de bandes

TM3/TM4 Accentuation des sols nus et du bâti


TM4/TM3 Accentuation de la végétation
TM5/TM7 Distinction sols nus / eau
TM3/TM2 Distinction Cultures / forêt
TM4/TM5 Accentuation des surfaces aquatiques, végétation et teneur en eau des cultures
TM5/TM4 Distinction des surfaces aquatiques de la forêt, sols nus et végétation ;
TM2/TM3 Distinction parfaite des sols nus / cultures ;
TM5/TM7 Distinction des surfaces aquatiques des sols nus. Sensible à la teneur en eau du sol et de la
végétation
TM3/TM5 Accentuation des sols nus, routes et bâti ;
TM7/TM2 Distinction forêt / cultures. Accentuation du réseau routier, zones urbaines et les cultures.
ANALYSE EN COMPOSANTES PRINCIPALES (ACP)
• L’ACP est une méthode d'analyse statistique qui consiste à transformer des
variables liées entre elles (dites "corrélées") en nouvelles variables
indépendantes, de manière à réduire le nombre de variables nécessaires pour
représenter une information.
• Dans le cas des scènes satellitales, les variables corrélées sont les bandes
spectrales qui la composent.

ACP

PC3
PC2
PC1

Scène multispectrale PC 1-3 (90% de l’information de la scène


ANALYSE EN COMPOSANTES PRINCIPALES (ACP)
• transformation pour réduire le nombre de dimensions (nombre de bandes)
• produit une compression de l'information de plusieurs bandes dans un nombre
plus restreint de bandes
• Les "nouvelles" bandes qui résultent sont appelées composantes
• Maximiser (statistiquement) la quantité d'information (ou variance) des données
originales dans un nombre restreint de composantes
• L’ACP permet de transformer des données des sept bandes du capteur
Landsat-TM en trois principales composantes représentant plus de 90% de
l'information
• L'interprétation et l'analyse de ces trois composantes, en les combinant
visuellement ou numériquement, est plus simple et plus efficace que l'utilisation
des sept bandes initiales
ANALYSE EN COMPOSANTES PRINCIPALES (ACP)
• Elle se base sur la corrélation positive entre les bandes spectrales d’un capteur.
• Cette corrélation est représentée par le diagramme de dispersion à N dimensions
(N étant le nombre de bandes spectrales).
• Elle consiste en une transformation d’axes selon lesquels la variance des DN est
respectivement maximale et minimale.
ANALYSE EN COMPOSANTES PRINCIPALES (ACP)
Classification et analyse

• Analyse en composantes principales


• Exemple avec 98% de l’information contenue dans 3 composantes!

Source : www.unige.ch
ANALYSE EN COMPOSANTES PRINCIPALES (ACP)
• Elle se base sur la corrélation positive entre les bandes spectrales d’un
capteur.
• Cette corrélation est représentée par le diagramme de dispersion à N dimensions
(N étant le nombre de bandes spectrales).
• Elle consiste en une transformation d’axes selon lesquels la variance des DN est
respectivement maximale et minimale.

D
D
N

D
N

CP

2

Bande
Bande

Bande
Y

Y
CP1

BandeX DN BandeX DN BandeX DN

Principe de l’Analyse en Composantes Principales (ACP)


ETM-1 ETM-2 ETM-3

ETM-4 ETM-5 ETM-7

Sub-scène Landsat-7 ETM (Région de Béni Mellal)


CP-1 CP-2 CP-3

CP-4 CP-5 CP-6

Composante principale de la sub-scène Landsat-7 ETM (Région de Béni Mellal)

Vous aimerez peut-être aussi