Rapport 005

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 72

Mémoire de Soutenance du Diplôme d’Ingénieur INSA

Spécialité Topographie

Photogrammétrie et Modélisation 3D à
partir d'images drone au sein de TPLM-3D

Présenté le 23 Septembre 2015 par Thibaut Dudka

Réalisé au sein de l'entreprise : TPLM-3D


1 rue Édouard Prénat
69700 Givors
Directeur de PFE : M. Stéphane Hopp
Cogérant
Correcteurs de PFE : M. Pierre Grussenmeyer
Professeur des universités, INSA de Strasbourg

M. Mathieu Koehl
Maître de Conférences, INSA de Strasbourg
Photogrammétrie et Modélisation 3D par images de drones ii
Avant-Propos

Ce projet de fin d’études constitue l’aboutissement de mes cinq années d’études d’ingénieur à
l’INSA de Strasbourg.
Cette expérience au sein de TPLM-3D m’a permis de me concentrer sur un projet de recherche
passionnant pendant six mois.
J’ai eu la chance de travailler sur un projet concernant une technologie en plein essor : la
photogrammétrie par drone. J’ai eu la chance de participer à une formation concernant le logiciel
MicMac.
Une grande partie des participants comptait utiliser ce logiciel avec des photographiques acquises
par drone. Cela m’a fait réaliser l’impact de ces nouvelles technologies dans le monde de la
photogrammétrie.

Photogrammétrie et Modélisation 3D par images de drones iii


Photogrammétrie et Modélisation 3D par images de drones iv
Remerciements
Je tiens à remercier toute l’équipe de TPLM-3D qui a été là pour m’aider pendant toute la durée de
ce projet. Je pense bien évidemment aux deux cogérants : Stéphane Hopp, mon maitre de stage et
David Desbuisson, responsable du département recherche et développement. Mais je pense
également à tous les employés : Hugues de Lambilly, Julien Vessella, Aurélie Kepka, Xavier Gerard,
Marie Arsac et enfin Nataniel Reynaud.

Je voudrais également remercier mes professeurs à l’Institut National des Sciences Appliquées de
Strasbourg, pour le savoir qu’ils ont partagé pendant toutes ces années. Dans le cadre de ce projet
de fin d’études, je remercie particulièrement Pierre Grussenmeyer et Matthieu Koehl, qui étaient
mes correcteurs. Ils ont été disponibles pour répondre à mes nombreuses questions et m’indiquer
des pistes de réflexions.

Un grand merci à toutes les personnes que j’ai pu croiser pendant toutes mes années à l’INSA. Je
pense à mes camarades de spécialité topographie : Marion Roy, Julien Assémat, Marouane
Boudhaim, Léa Simeray et Catherine Battaglia. Une pensée également pour mes camarades de
l’année supérieure : Alexis Charron mon parrain, Rémi Beauvais, Quentin Choquart et Loic Sabau.

J’adresse également un grand merci à toutes les personnes des autres spécialités que j’ai côtoyées
pendant ces quatre années et qui m’ont fait aimer cette école, son histoire et ses valeurs. Je pense
particulièrement à tous les membres du bureau des élèves Ri’Sharks.
Je remercie aussi toutes les personnes que j’ai rencontrées pendant mon semestre d’Erasmus en
Finlande, période qui m’a beaucoup fait apprendre.

Pour terminer je voudrais remercier mes parents et ma sœur. Ils sont là pour moi depuis 22 ans et je
ne serais pas là sans eux.

Photogrammétrie et Modélisation 3D par images de drones v


Photogrammétrie et Modélisation 3D par images de drones vi
Table des Matières

AVANT-PROPOS .................................................................................................... III


REMERCIEMENTS ................................................................................................... V
TABLE DES MATIERES.............................................................................................. 1
1 - INTRODUCTION ................................................................................................. 5
TPLM-3D ........................................................................................................................................................ 5
CONTEXTE DE L’ETUDE ........................................................................................................................................ 5
OBJECTIFS......................................................................................................................................................... 6
PRINCIPALES ETAPES DU PROJET ............................................................................................................................ 6

2 - ÉTAT DE L’ART .................................................................................................... 9


2.1 - LES SOLUTIONS EXISTANTES EN PHOTOGRAMMETRIE....................................................................................... 10
2.1.1 Les solutions web............................................................................................................................................ 10
1.1.2 Les solutions payantes .................................................................................................................................... 11
1.1.3 Les solutions open source ............................................................................................................................... 11
1.2 – APPORT DES ETUDES PREALABLES ............................................................................................................... 12
1.2.1 Cas de l’article de Faure & al.(2014) ............................................................................................................... 12
3.2 Article de Gini et al. (2013) ................................................................................................................................ 13
3.3 Article de Remondino et al. (2012) .................................................................................................................... 15
3.4 Expérience de TPLM-3D dans le domaine de l'imagerie par drones .................................................................. 16
4 - BILAN DE L'ETAT DE L'ART.............................................................................................................................. 17

3 - NOTIONS THEORIQUES .................................................................................... 19


3.1 – GRANDEURS FONDAMENTALES D'UNE CAMERA ............................................................................................. 20
3.1.1- Distance focale et point principal .................................................................................................................. 20
3.1.2 - Ouverture du diaphragme ............................................................................................................................ 20
3.1.3 - Temps d'ouverture et sensibilité de la pellicule ............................................................................................ 20
3.2 – DISTORSIONS .......................................................................................................................................... 21
3.2.1 - Distorsions radiales ...................................................................................................................................... 21
3.2.2 – Distorsions tangentielles.............................................................................................................................. 22
3.2.3 – Distorsions affines ....................................................................................................................................... 22
3.3 - ALGORITHMES DE DETECTION DES POINTS HOMOLOGUES ................................................................................ 23
3.3.1- Détecteurs SIFT et SURF ............................................................................................................................... 23
Table des Matières

3.3.2 - Comparaison de ces algorithmes ................................................................................................................. 23


3.3.3 - Fonctionnement de l'algorithme SIFT ........................................................................................................... 24
3.3- COMPARAISON DE NUAGES DE POINTS .......................................................................................................... 26
3.3.1 – Méthodes nuage-maillage........................................................................................................................... 26
3.3.2- Méthodes nuage-nuage ................................................................................................................................ 26
3.4 – ORTHOPHOTOGRAPHIES ........................................................................................................................... 27
3.4.1 - Création d'une orthophotographie............................................................................................................... 27
3.4.2 – Notion d'orthophotographie vraie .............................................................................................................. 28
3.3 – CONCLUSION DE L’ETUDE THEORIQUE ......................................................................................................... 29

4 - CHANTIER TEST ET SOLUTIONS DRONES .......................................................... 31


4.1 – LE CHANTIER TEST .................................................................................................................................... 32
4.1.1 - La chapelle Saint Vincent.............................................................................................................................. 32
3.1.2 - Acquisition et précision des valeurs de comparaison ................................................................................... 33
4.2 – LES SOLUTIONS DRONES ............................................................................................................................ 35
4.2.1 - Caractéristiques techniques ......................................................................................................................... 35
4.2.2 -Vols effectués ................................................................................................................................................ 36

5 - CHOIX DU LOGICIEL ......................................................................................... 39


5.1 – CALIBRATION DES CAMERAS ...................................................................................................................... 40
5.2 - POSITIONS DES CAMERAS .......................................................................................................................... 41
5.3 - PRECISION SUR LES POINTS DE CONTROLE ..................................................................................................... 43
5.4– NUAGES DE FAÇADE .................................................................................................................................. 44
5.5 – BRUIT DANS LE NUAGE DE POINTS............................................................................................................... 46
5.6 – ORTHOPHOTOGRAPHIES ........................................................................................................................... 48
5.7 – AUTRES ASPECTS ET CHOIX FINAL ................................................................................................................ 50

6 - COMPARAISON DES SOLUTIONS ET REFLEXIONS SUR LES VOLS DE DRONES .... 51


6.1 – DE LA DIFFICULTE DE LA COMPARAISON DES SOLUTIONS ................................................................................. 52
6.2 – PRECISION SUR LES POINTS DE CONTROLE .................................................................................................... 52
6.3 – BRUIT DANS LE NUAGE DE POINTS............................................................................................................... 53
6.4 – ORTHOPHOTOGRAPHIES ........................................................................................................................... 54
6.5 – CAHIER DES CHARGES DRONE..................................................................................................................... 55

7 - CONCLUSIONS ET PERSPECTIVES ..................................................................... 57


BIBLIOGRAPHIE .................................................................................................... 59
THESES ET PROJETS DE FIN D'ETUDES ................................................................................................................... 59
OUVRAGE, REVUES ET ARTICLES .......................................................................................................................... 59
DOCUMENTS ET NOTICES D'UTILISATION .............................................................................................................. 60
SUPPORTS DE COURS ........................................................................................................................................ 61
SITES INTERNET ............................................................................................................................................... 61

Photogrammétrie et Modélisation 3D par images de drones 2


Table des Matières

TABLES ................................................................................................................. 63
TABLES DES ILLUSTRATIONS ................................................................................................................................ 63
TABLE DES TABLEAUX ........................................................................................................................................ 64

TABLE DES ANNEXES

ANNEXE A : DETERMINATION DES ERREURS MOYENNES QUADRATIQUES SUR LES POINTS DE CONTROLE ET DE
CALAGE………………………………………………………………………………………………………………………………………………………………………….4
ANNEXE B : PARAMETRES UTILISES DANS LES DIFFERENTS TRAITEMENTS LOGICIELS…………………………………………………...7
ANNEXE C : MODELES DE CALIBRATION UTILISES POUR PHOTO SCAN ET PIX4D……………………………………………………….….12
ANNEXE D : POSITIONS DE CAMERAS CALCULEES PAR LES DIFFERENTS LOGICIELS : VOL NADIRAL SOLUTION B..………..13
ANNEXE E : POSITIONS DE CAMERAS CALCULEES PAR LES DIFFERENTS LOGICIELS : VOL DE FAÇADE – SOLUTION B..…..17
ANNEXE F : MODE OPERATOIRE DE PIX4D……………………………………………….………………………………………………………………….23
ANNEXE G : MODE OPERATOIRE DE MICMAC………………………………….………………………………………………………………………….33
ANNEXE H : MODE OPERATOIRE POUR LES PRESTATAIRES DRONE………………….……………………………………………………………46

Les annexes F, G et H sont confidentielles. Elles ne seront accessibles qu’aux correcteurs de ce


projet de fin d’études.

Photogrammétrie et Modélisation 3D par images de drones 3


Table des Matières

Photogrammétrie et Modélisation 3D par images de drones 4


1 - Introduction

TPLM-3D
TPLM-3D est une société spécialisée dans les services
topographiques, en particulier lasergrammétriques. Elle
est fondée le 1er juin 2004 par deux ingénieurs géomètres
de l’ENSAIS, David Desbuisson et Stéphane Hopp.
Aujourd’hui, pas moins de neuf personnes travaillent au
sein de cette structure.
Figure 1 : Logo de TPLM-3D
Cette entreprise possède aujourd’hui ces locaux à Givors, (@TPLM3D[2015])
en Rhône-Alpes, à une vingtaine de kilomètres au sud de
Lyon. Cette position géographique privilégiée est aux carrefours des grands axes de communication
(autoroute, aéroport proche…) et permet d’intervenir dans tout le pays.
Depuis la fondation de la société, celle-ci a été sollicitée dans des secteurs extrêmement variés, tels
que par exemple l’industrie nucléaire, pétrolière, chimique, le BTP ou encore l’aéronautique.
Le savoir-faire et le professionnalisme de TPLM-3D est aujourd’hui reconnu partout en France mais
également à l’étranger.

Contexte de l’étude
Ces dernières années, les drones sont au cœur de l'actualité. Les enjeux sont à la fois militaires,
mais également civils. La baisse du prix de ces appareils sans pilote entraîne leur rapide
démocratisation. De plus en plus utilisés en topographie, ils révolutionnent les méthodes de prises
de vues aériennes. L’utilisation des drones par les géomètres était d’ailleurs le thème de la
conférence organisée dans le cadre des journées de la topographie 2014 de l’INSA de Strasbourg.
La société TPLM-3D est reconnue pour son expertise dans la topographie et dans la modélisation
3D. Elle utilise régulièrement la lasergrammétrie et la photogrammétrie dans le cadre de ses
différents travaux topographiques. Actuellement le logiciel IMG Surveyor, développé par David
Desbuisson, est utilisé pour les travaux photogrammétriques.
Ce projet interne de Recherche & Développement, proposé sous la forme d'un Projet de Fin
d'Études intitulé « Photogrammétrie et Modélisation 3D à partir d'images drones » est né de la
rencontre de ces deux états de faits.
La société TPLM-3D, en continuelle recherche d'innovation, cherche à offrir de nouvelles
prestations à ses clients. L'utilisation d'un drone pour réaliser des prises de vue aérienne d'une zone
peu accessible avec les techniques de scanner laser serait un atout pour la société. TPLM-3D

Photogrammétrie et Modélisation 3D par images de drones 5


1 - Introduction

souhaite également utiliser un nouveau logiciel pour ce type de traitements photogrammétriques.

Objectifs
Les objectifs de ce PFE sont donc multiples. L’aboutissement de ces six mois de travail a été :
 le choix d'un nouveau logiciel, adapté aux travaux photogrammétriques de l'entreprise
 la rédaction d'un mode opératoire et à la formation des employés de TPLM3D à la solution
choisie
 la rédaction d'un cahier des charges pour les futurs prestataires drones

Les modes opératoires ainsi que le cahier des charges sont disponibles dans les annexes F, G et H.
Celles-ci ne sont disponibles que pour les correcteurs.

Principales étapes du projet


Au cours de cette étude nous devions mener à la fois une réflexion sur les logiciels mais également
sur les spécificités du vol de drone.
Nous nous sommes tout d’abord intéressés à l’état de l’art dans le domaine de la photogrammétrie
par drone. Nous avons répertorié des logiciels susceptibles répondre aux besoins de TPLM-3D.
Après avoir étudié leurs caractéristiques, les solutions les plus adaptées à notre problématique ont
été sélectionnées. Nous avons choisi d'étudier les logiciels commerciaux Photoscan, Pix4D, ainsi
que MicMac, logiciel libre quant à lui.
Afin de comparer ces logiciels, une chapelle à proximité de Givors a été utilisée comme chantier
test.
Nous avons fait appel à deux prestataires, spécialistes des prises de vues par drone. Nous avons
effectué deux vols avec chacun d’entre eux : un vol nadiral et un vol suivant l’une des façades du
batiment.
Nous avons utilisé les données acquises avec l’une des solutions pour mener des projets avec les
logiciels sélectionnés. Leurs performances ont été comparées suivant plusieurs axes :
 Calibration de la caméra
 Coordonnées des prises de vues calculées
 Erreurs sur des points de contrôle
 Qualité du nuage de points densifié
 Qualité de l'orthophotographie
 Les autres informations telles que le temps de calcul ou la facilité d’utilisation

Le logiciel donnant les meilleurs résultats est ainsi sélectionné. Dans notre cas, le suisse Pix4D a
finalement été retenu.

Photogrammétrie et Modélisation 3D par images de drones 6


1 - Introduction

Dans un deuxième temps, les images acquises par les deux prestataires ont été traitées avec le
logiciel sélectionné. Les orientations, nuages de points et orthophotos générés ont été comparés
avec les mêmes tests.
Ces deux tests nous ont permis d’accumuler des connaissances et de cerner les particularités de la
photogrammétrie par drone. Nous nous sommes servis de ces expériences pour rédiger le cahier des
charges à l’attention des futurs prestataires de TPLM-3D.

Photogrammétrie et Modélisation 3D par images de drones 7


1 - Introduction

Photogrammétrie et Modélisation 3D par images de drones 8


2 - État de l’art

Avant de se lancer dans une étude, il est important de s’intéresser aux travaux déjà existants sur le
même sujet.
Dans un premier temps, nous décrirons les logiciels que nous avons envisagés pour les futurs
travaux photogrammétriques de TPLM-3D. Les trois grandes catégories sont les solutions web, les
payantes et les open sources. Pour avons étudié leur mode de fonctionnement, leur caractéristiques
ainsi que leurs produits.
Nous nous sommes ensuite penchés sur la littérature scientifique. Nous avons particulièrement
étudié quatre articles. Deux ont pour sujet la prise de vue par drone. Deux autres concernent la
comparaison de différents logiciels de photogrammétrie disponibles sur le marché.
Ce travail préparatoire nous a permis d’isoler trois logiciels qui seront étudiés et confrontés durant
la suite de l’étude. Il s’agit de Pix4D, PhotoScan et MicMac.

2 - ÉTAT DE L’ART .................................................................................................... 9


2.1 - LES SOLUTIONS EXISTANTES EN PHOTOGRAMMETRIE....................................................................................... 10
2.1.1 Les solutions web............................................................................................................................................ 10
1.1.2 Les solutions payantes .................................................................................................................................... 11
1.1.3 Les solutions open source ............................................................................................................................... 11
1.2 – APPORT DES ETUDES PREALABLES ............................................................................................................... 12
1.2.1 Cas de l’article de Faure & al.(2014) ............................................................................................................... 12
3.2 Article de Gini et al. (2013) ................................................................................................................................ 13
3.3 Article de Remondino et al. (2012) .................................................................................................................... 15
3.4 Expérience de TPLM-3D dans le domaine de l'imagerie par drones .................................................................. 16
4 - BILAN DE L'ETAT DE L'ART.............................................................................................................................. 17

Photogrammétrie et Modélisation 3D par images de drones 9


2 - État de l’art

2.1 - Les solutions existantes en


photogrammétrie
La première application de la photogrammétrie date de 1849, par Aimé Laussedat sur la façade des
Invalides. Depuis plus de 150 ans, les techniques utilisées ont bien évidemment considérablement
évoluées.
Depuis l'arrivée de l'informatique, de nombreuses solutions sont disponibles. Cette partie a pour but
de présenter brièvement les principales solutions, mais ne prétend cependant pas être exhaustive.

2.1.1 Les solutions web


La première grande famille de solution est celle des solutions sur Internet. Celles-ci s'adressent
généralement à un public de débutants sans connaissances photogrammétriques. L'une des
principales limitations de ce type de solution est la quantité limitée d'images qui peuvent être
chargées sur le serveur.

Photosynth
Photosynth (photosynth@[2015]) est une application en ligne lancée par Microsoft. L'utilisateur
doit télécharger ses images sur un serveur. Un algorithme permet ensuite d'orienter les différentes
photos. Un nuage de points 3D est ensuite créé. Originellement, il n'était pas prévu que l'utilisateur
puisse récupérer ce nuage. Celui-ci peut cependant être téléchargé à l'aide d'une boite à outil. Le
nuage de points est ensuite traité à l'aide d'un autre logiciel, ou de la toolbox.
Le principal défaut de ce logiciel est de fonctionner en « boite noire ». Seul le résultat final est
communiqué à l'utilisateur, qui n'a pas connaissance des étapes intermédiaires. C'est une solution de
SfM (Structure from Motion), c'est à dire que les paramètres de calibration de la caméra sont
calculés pour chaque photo.

123DCatch
123DCatch (123DCatch@[2015]) est quant à lui développé par Autodesk. Il fonctionne sur le même
principe : l'utilisateur est invité à télécharger ses images et récupère un modèle 3D de l'objet choisi.
Il existe même une application pour téléphone. Cette solution souffre des mêmes défauts que
Photosynth : « boite noire », manque de fiabilité... Bien qu'adaptée à des utilisateurs débutants
n'ayant pas de connaissances poussées en topographie, elle n’est pas adaptée à des professionnels.
Pour preuve, seules 40 photos peuvent être téléchargées, ce qui est très peu pour un projet
photogrammétrique.

Recap 360 Photo


Recap 360 est une solution payante également proposée par Autodesk. Les principales évolutions
par rapport à 123DCatch sont la possibilité de sélectionner des points de contrôle sur les photos, ou
des distances entre deux points. La quantité limite de photos téléchargeables est également plus
élevée : 5 Go. Cette solution ne paraît néanmoins toujours pas adaptée aux professionnels. En effet,

Photogrammétrie et Modélisation 3D par images de drones 10


2 - État de l’art

il n'est pas possible de produire d'orthophotos, ni de modèle numérique de terrain. De plus, les
paramètres du traitement ainsi que les erreurs finales ne sont pas précisés.

1.1.2 Les solutions payantes


La deuxième grande famille est celle des solutions commerciales. De nombreuses entreprises ont
développé leurs propres outils pour répondre à la demande croissante de ce marché en plein essors.
Ci-dessous sont présentées celles sur lesquelles nous nous sommes penchés :

Correlator3D
Simactive, une société canadienne, a conçu le logiciel Correlator3D. Initialement positionné sur le
secteur de l'imagerie spatiale et aérienne, ce groupe propose depuis deux ans une solution conçue
pour les drones. Il est nécessaire de connaître les positions approximatives de la caméra au moment
des prises de vue avant le traitement des données. Un système GPS doit donc être embarqué dans
l'appareil.
Un entretien par vidéo-conférence avec les équipes de Simactive nous a permis d'évaluer les
performances de ce logiciel. Le fait que le nuage de point créé par ce logiciel soit en 2.5D a
constitué pour nous une faiblesse rédhibitoire, notamment pour la modélisation des bâtiments. Il
n’est pas non plus adapté à la photogrammétrie terrestre.

Pix4D
Fruit d'une start-up née au sein de l'École Polytechnique Fédérale de Lausanne (EPFL), PIX4D est
l'une des principales solutions professionnelles sur le marché de la photogrammétrie. Ce logiciel
permet de réaliser les principaux produits photogrammétriques, du nuage de points au modèle
numérique de terrain, en passant par les orthophotographies. La société s’est imposée depuis sa
fondation en 2011 comme l’un des leaders dans le domaine. Son interface très intuitive permet une
prise en main rapide.

Photomodeler
L'éditeur canadien Eos System propose quant à lui Photomodeler. Ce logiciel a des fonctionnalités
assez proches de celles de Pix4D, malgré une interface légèrement moins intuitive. Les algorithmes
de sélection et de mise en correspondance des points homologues sont également différents. Lancé
en 1993, il fut pendant de nombreuses années le principal logiciel de photogrammétrie sur le
marché.

PhotoScan
Photoscan a quant à lui été développé à Saint-Pétersbourg en Russie. Il est développé par Agisoft
depuis 2006. Cette solution est également très utilisée par les professionnels. Elle permet de mettre
en correspondance des photos, de créer des nuages de points densifiés, des maillages ou encore des
orthophotos.

1.1.3 Les solutions open source


Certains organismes publics, universitaires ou collectivités, mettent à la disposition du public des

Photogrammétrie et Modélisation 3D par images de drones 11


2 - État de l’art

logiciels. Le plus souvent le code est en open source, ce qui permet de comprendre les méthodes
utilisés et de les adapter aux besoins. L'autre avantage de ces logiciels est bien entendu leur prix : ils
sont gratuits.

Visual SFM
VisualSFM (Visual Structure from Motion System) (VisualSFM@[2015]) a été créé par Changchang
Wu, de l'université de Washington à Seattle.
Ce logiciel permet de créer un nuage de points à partir de photos. Il est ensuite possible d'utiliser
des logiciels de traitement de nuage de points, tels que Meshlab, pour réaliser un maillage.
Cependant, la licence de ce logiciel est très restrictive et interdit toute utilisation lucrative, ce qui est
problématique dans le cas qui nous intéresse. De plus, il n'est pas possible de créer
d'orthophotographies avec Visual SFM.

PAM (Pastis-Apéro-MicMac)
Le laboratoire MATIS de l'IGN a développé la suite PAM (Pastis-Apéro-MicMac). PASTIS, le
premier module, a pour but d'extraire les points d'intérêt et de liaison des différentes images.
APÉRO permet quant à lui de calculer la position et l'orientation des images ainsi que la
détermination du fichier de calibration de la caméra. Pour finir, le dernier module MicMac peut
générer des nuages de points.
Le principal défaut de cette solution est également sa principale force : sa complexité. Si cela peut
rebuter à première vue les utilisateurs non avertis, les nombreuses possibilités de paramétrage
offertes par cette solution permettent de s'adapter à chaque cas.
A l’origine, ces applications avaient été développées pour l’environnement Linux. Il est aujourd’hui
possible de travailler avec un poste de travail sous Windows.
Ce logiciel est publié sous licence « CeCILL-B ». Cela signifie qu’il est utilisable librement, y
compris en cas d’usage commercial, en échange d’une obligation de citation.

1.2 – Apport des études préalables


L'usage de la modélisation à partir d'images de drone et l'étude des solutions utilisables pour le
traitement des données n'est pas une problématique nouvelle. Dans ce paragraphe, nous allons
présenter quelques études qui nous ont aidées dans notre réflexion. Certaines ont pour sujet les
problématiques de prises de vue par drone, comme les articles de Faure & al (2014) et Houin & al
(2014). D’autres se penchent sur les comparaisons entre des logiciels de photogrammétrie. C’est le
cas des études de Gini & al (2013) et de Remondino & al (2012).

1.2.1 Cas de l’article de Faure & al.(2014)


Problématique :
La Compagnie Nationale du Rhône (CNR), concessionnaire du Rhône, possède plus de 400km de
digues le long du fleuve, de la frontière suisse à Arles. Le besoin d'optimiser l'auscultation de ces
ouvrages est donc évident. L'utilisation de la plateforme drone a donc pour but d’acquérir

Photogrammétrie et Modélisation 3D par images de drones 12


2 - État de l’art

rapidement et à moindre coût des images de haute résolution, du fait de la faible hauteur de vol.
Cette étude est présentée plus en détail dans l'article Faure & al (2014), publié dans le revue XYZ.
L'un des problèmes posé par les ouvrages linéaires est l'effet de courbure lors de la modélisation. Le
but de cette étude était donc d'assurer une précision satisfaisante (de 1 à 3cm), tout en minimisant
le nombre de points au sol nécessaires, et donc le temps de travail sur le terrain et les coûts.

Solution choisie :
Pour résoudre son problème, la CNR s'est associée à l'IGN. Le logiciel Micmac a été choisi,
notamment à cause de sa grande flexibilité, et de la possibilité laissée à l'utilisateur de l'améliorer.
Un banc d'essai a été réalisé dans les locaux de l'École Supérieure des Géomètres et Topographes
afin reproduire les conditions de prise de vue linéaire. La caméra utilisée est un Sony RX1. Celle-ci
a été calibrée en utilisant 4 bandes d'images. La dérive restait tout de même supérieure au
centimètre. Le modèle ne semble donc pas totalement adapté.
Des essais ont été réalisés afin d'étudier l'effet d'une augmentation de la hauteur de vol, et donc la
réduction du nombre de photos. Jouer sur l'altitude de prise des clichés n'a pas permis de réduire les
erreurs, planimétriques comme altimétriques.
Le facteur déterminant dans cette étude a été l'ajout dans la chaîne de traitement d'images obliques.
L'utilisation de celles-ci permet de réduire considérablement les erreurs, comme indiqué dans le
tableau ci-dessous.

Figure 2:Erreurs de reprojection moyenne absolue sur les points


d'appuis (Faure & al 2014)

Cette utilisation d’images obliques permet de rigidifier le modèle, en ajoutant des images où une
grande partie de la scène est vue. Nous avons repris cette idée dans le cahier des charges final.

3.2 Article de Gini et al. (2013)

Une équipe de l'université polytechnique de Milan a comparé plusieurs logiciels de


photogrammétrie : Pix4D, Photoscan mais également Erdas Leica Photogrammetry Suite (LPS) et
le logiciel scientifique EyeDEA de l'université de Parme.

Photogrammétrie et Modélisation 3D par images de drones 13


2 - État de l’art

Les tests ont été effectués sur une zone de 0,3km²


en Lombardie, comprenant à la fois des bâtiments,
des champs et des arbres. Une caméra Canon Ixus
220HS a été utilisée. Au total, 49 photos de la
scène ont été prises, réparties en 5 bandes.
L'équipe disposait de quinze points de contrôle au
sol (GCP) dans cette zone. Dans le premier cas, ils
ont tous été utilisés pour réaliser l'orientation des
photos. Dans le second cas, seul cinq GCP ont été
utilisés. A partir de la comparaison entre les
coordonnées vraies et les coordonnées trouvées par
le logiciel pour les dix autres points, un écart type
empirique a été calculé.
La sélection des points homologues est manuelle
pour le logiciel LPS et semi-manuelle pour
EyeDEA. Elle est cependant totalement
automatique pour Pix4D et Photoscan.

Voici ci-joint les principaux résultats de la


comparaison entre ces deux dernières solutions : Figure 3 : Distribution des points homologues
et multiplicité. En haut Pix4D, en bas
Photoscan. (Gini et al. (2013)

Pix4D Photoscan
Points homologues 1317 6098
Nombre moyen d'image
4,7 3,1
par point homologue
Écart type : Nombre de GCP 15 5 15 5
théorique Planimétrique 34 41 11 12
(mm) Altimétrique 61 76 20 23
empirique Planimétrique - 67 - 53
(mm) Altimétrique - 213 - 55

Tableau 1:Comparaison des performances des logiciels Pix4D et Photoscan


(Données Gini et al. (2013))

On constate que Pix4D détecte moins de points homologues que Photoscan mais que ceux-ci sont
en moyenne partagés par un plus grand nombre d'images. De plus la précision, estimée grâce aux
écarts type, est plus importante avec le logiciel russe qu'avec son homologue suisse.
Les modèles numériques de terrain créés par les deux logiciels ont également été comparés. Les
bâtiments sont souvent difficiles à modéliser fidèlement à cause de leurs arêtes nettes. Le modèle
créé par Photoscan était cependant plus fidèle à cette réalité que ceux des autres logiciels. Les
orthophotos ont également été comparées. Une fois de plus, l'avantage revient au russe avec lequel
les bâtiments sont mieux délimités.

Photogrammétrie et Modélisation 3D par images de drones 14


2 - État de l’art

3.3 Article de Remondino et al. (2012)


Dans cet article, les auteurs se proposent de comparer cinq logiciels photogrammétriques dans six
cas de figure. Les cinq logiciels sont : Photosynth, Bundler et VisualSFM qui sont des logiciels
utilisant des techniques de « Structure from Motion » ainsi que Photoscan et Apéro. Les cinq cas de
figures sont :
 Un cube, avec 24 images. La calibration de la caméra est connue et une mire placée à
proximité sert pour la mise à l'échelle.
 Une sphère avec 67 images. Une mire sert pour la mise à l'échelle.
 Un phare avec 119 images prises par drone ou par photogrammétrie terrestre. Des points de
rattachement au sol sont connus.
 Un temple en ruine avec 212 images et sans autres données.
 Une gare avec 147 images. Des points de rattachement au sol sont connus.
 La place Navone à Rome avec 92 images. La calibration de la caméra est connue.

Les auteurs ont tout d'abord analysé visuellement les résultats de l'orientation externe pour le cas de
la place Navone. Les performances de logiciels SfM sont visuellement bien moins bonnes :

Figure 4 : Résultats de Remondino (2012) concernant les cas de la place Navone et du phare

Les paramètres d'orientation internes des logiciels testés ont été calculés et on note de grandes
variations pour les solutions SfM.

Photogrammétrie et Modélisation 3D par images de drones 15


2 - État de l’art

Pour les cas du cube et de la sphère, les différences sont moins flagrantes et les résultats sont assez
similaires pour tous les logiciels.
Le cas du phare (voir la figure 4, partie de droite « Lighthouse ») combine photogrammétrie
terrestre et par drone. Les solutions Photoscan et Apéro se distinguent par leur nombre beaucoup
plus important de points homologues entre les images. On peut également noter que ce sont les
seuls logiciels étudiés à orienter toutes les images du jeu de données. Le pire résultat est enregistré
par VisualSFM qui oriente à peine la moitié des images du jeu de données (66/118).
Dans la conclusion de cet article, les auteurs notent que l'orientation interne réalisée par les logiciels
de SfM est instable et peu précise. Les résultats finaux sont malgré tout similaires aux logiciels
classiques si le jeu de données est suffisamment important, ce qui n'est pas toujours le cas. On
remarque également la robustesse des logiciels Apéro et Photoscan qui donnent des résultats parmi
les meilleurs dans tous les cas de figure étudiés.

3.4 Expérience de TPLM-3D dans le domaine de l'imagerie


par drones
Avant le début de ce projet de fin d’études, la société TPLM-3D n'était pas novice dans le domaine
de la photogrammétrie par drones. Elle avait notamment réalisé des essais en septembre 2014
autour d'une chapelle située en région
lyonnaise, afin de valider la pertinence de cette
nouvelle technologie. L'article de Houin et al.
[2014], publié dans la revue XYZ, résume cette
expérience.
Les données générées à partir des images prises
par le drone ont été comparées à des données
de référence issues d'un laser-scanner.
Les deux nuages de points ont été maillés dans
le logiciel 3D Reshaper. Des modèles
numériques de la façade et du terrain ont ainsi
été produits.
La comparaison entre les méthodes de scanner
et de photogrammétrie s'est effectuée sur trois
éléments : Figure 5 : Photo de situation de la zone traitée
 La précision des modèles numériques (Houin et al.[2014])
de la façade. Cette comparaison se fait
grâce à la commande « Compare / Inspect » de 3DReshaper qui permet de donner les
distances entre deux maillages.
 La précision des modèles numériques de terrain. Elle est réalisée de la même façon que
pour les façades.
 La confrontation entre les orthophotos issues des modèles scanner laser d'un côté, et
drone de l'autre. Dans les deux cas, les photos utilisées sont celles prises par le drone. Seule
la surface de projection change.
C’est le logiciel IMG Surveyor, propriété de TPLM-3D et développé par David Desbuisson, qui a
été utilisé pour les traitements photogrammétriques.
Les tests effectués ont montrés l’intérêt du drone dans ce genre de chantier, particulièrement pour

Photogrammétrie et Modélisation 3D par images de drones 16


2 - État de l’art

les zones inaccessibles avec le laser-scanner. La rapidité d’acquisition des données et le faible cout
ont été appréciés.
Il a ainsi été décidé de mener des recherches plus poussées sur ces questions. Ceci a mené TPLM-
3D à réaliser l’étude qui a abouti à ce mémoire.

4 - Bilan de l'état de l'art


Au cours de cet état de l'art, nous avons présenté les principales étapes de traitements d'un logiciel
de photogrammétrie. Nous avons en outre défini les différents produits qu'il est possible d'obtenir
avec ce type de solutions.
L'étape suivante est un inventaire des solutions existantes. Celles-ci sont très variées : web,
commercial ou encore open-source. Nous avons évoqué les principales caractéristiques de chacun
des logiciels. Celles-ci sont résumées dans le tableau suivant.
Solutions envisagées
Solutions web Solutions payantes Solutions open source
Photosynth +
Recap 360 123DCatch Correlator3D Pix4D Photomodeler Photoscan Visual SFM PAM
Toolbox
Utilisateur
Système d'exploitation Tous Tous Tous Windows 8 Windows Windows Tous Tous Tous
Langue Fr / Ang Ang / Fr Fr / Ang Anglais Anglais Anglais Ang / Russe Anglais Fr / Ang
Développeur Microsoft Autodesk Autodesk Simactive Pix4D SA Eos System Agisoft C. Wu MATIS IGN
Prix Gratuit 55 €/an Gratuit 5 900 € 2600 $/an 2495 $/an 3500 $ Gratuit Gratuit
Version d'essai - - - Non Oui Oui Oui - -
Interface +/- ++ ++ ++ ++ + ++ +/- +/-
Traitement
Points de calage - Oui - Oui Oui Oui Oui - Oui
Approximation
Orientation externe - Exportable - Exportable Exportable Exportable Exportable Exportable
à fournir
40 photos
Limite de photos 2 Go 5 Go - - - - - -
max
Produits
Export Nuage de points Oui Oui - - Oui Oui Oui Oui Oui
Orthophotos - - - Oui Oui Oui Oui - Oui
Maillage triangulaire 3D 3D 3D 2.5D 3D 3D 3D /2.5D - 3D

Rapport d'erreurs - - - Oui Oui Oui Oui - Oui

Édition des seam lines - - - Oui Oui Masques Masques - Masques

Tableau 2: Résumé des solutions envisagées

Pour les logiciels permettant de créer des mosaïques d’orthophotos nous avons voulu savoir quelle
était la marge de manœuvre de l’opérateur. Si par exemple durant le vol, un véhicule ou une
personne s’est déplacé, il est préférable de l’effacer. Ainsi on ne le verra pas sur l’orthophotographie
finale.
Certaines solutions permettent de créer des masques sur les images. Ainsi certaines parties de
l’image ne seront pas utilisées. Dans d’autres, il est possible de modifier les seamlines, c’est-à-dire
les lignes entre les orthophotos primaires. On peut donc décider à quel endroit on utilise telle ou
telle image.
Nous nous sommes également penchés sur la littérature scientifique. L'apport de photos obliques
peut fortement renforcer le modèle créé, comme nous l'a montré le cas de la Compagnie Nationale
du Rhône. Les études italiennes nous ont également permis de juger des forces et des faiblesses de

Photogrammétrie et Modélisation 3D par images de drones 17


2 - État de l’art

différentes solutions.
Les solutions utilisant des techniques de Structural from Motion ont été éliminées. C’est le cas des
solutions web et de Visual SFM. Nous voulions également un logiciel permettant de créer des
nuages de points 3D.
Considérant toutes ces informations, nous avons choisi de concentrer nos efforts sur les logiciels
commerciaux Pix4D, Photoscan ainsi que sur la suite d'applicatifs PAM. Ils seront comparés avec
les données d’un prestataire drone. Photomodeler a également été testé mais les résultats obtenus ne
seront pas divulgués pour des raisons de licences.
Nous allons maintenant étudier les notions indispensables pour comprendre et évaluer les
performances de ces logiciels.

Photogrammétrie et Modélisation 3D par images de drones 18


3 - Notions théoriques
Le domaine de la photogrammétrie est en constante évolution. Les logiciels se perfectionnent et les
algorithmes utilisés sont de plus en plus puissants. Cependant, les bases théoriques sur lesquelles
s'appuient ces progrès sont connues depuis de nombreuses années et il est important de les avoir en
mémoire. Ce chapitre s'attache à introduire des notions importantes concernant les caractéristiques
des caméras. Nous y détaillerons également le fonctionnement de l'un des algorithmes de recherche
et de mise en correspondance de points homologues les plus utilisés. De plus, nous nous pencherons
sur la question de la comparaison de nuages de points. Nous étudierons le processus de création
d’une orthophotographie.

3 - NOTIONS THEORIQUES .................................................................................... 19


3.1 – GRANDEURS FONDAMENTALES D'UNE CAMERA ............................................................................................. 20
3.1.1- Distance focale et point principal .................................................................................................................. 20
3.1.2 - Ouverture du diaphragme ............................................................................................................................ 20
3.1.3 - Temps d'ouverture et sensibilité de la pellicule ............................................................................................ 20
3.2 – DISTORSIONS .......................................................................................................................................... 21
3.2.1 - Distorsions radiales ...................................................................................................................................... 21
3.2.2 – Distorsions tangentielles.............................................................................................................................. 22
3.2.3 – Distorsions affines ....................................................................................................................................... 22
3.3 - ALGORITHMES DE DETECTION DES POINTS HOMOLOGUES ................................................................................ 23
3.3.1- Détecteurs SIFT et SURF ............................................................................................................................... 23
3.3.2 - Comparaison de ces algorithmes ................................................................................................................. 23
3.3.3 - Fonctionnement de l'algorithme SIFT ........................................................................................................... 24
3.3- COMPARAISON DE NUAGES DE POINTS .......................................................................................................... 26
3.3.1 – Méthodes nuage-maillage........................................................................................................................... 26
3.3.2- Méthodes nuage-nuage ................................................................................................................................ 26
3.4 – ORTHOPHOTOGRAPHIES ........................................................................................................................... 27
3.4.1 - Création d'une orthophotographie............................................................................................................... 27
3.4.2 – Notion d'orthophotographie vraie .............................................................................................................. 28
3.3 – CONCLUSION DE L’ETUDE THEORIQUE ......................................................................................................... 29

Photogrammétrie et Modélisation 3D par images de drones 19


3 - Notions théoriques

3.1 – Grandeurs fondamentales


d'une caméra
Un appareil photographique ne doit pas être choisi au hasard. Plusieurs grandeurs spécifiques,
présentées entre autre par le cours de Pierre Grussenmeyer (Grussenmeyer [2013]) sont à prendre en
compte avant de réaliser un chantier.

3.1.1- Distance focale et point principal


En optique, une distance focale ou distance principale d'une lentille est la distance entre l'un des
plans principaux (image ou objet), et le foyer correspondant. En photographie, le terme distance
focale désigne la distance focale image.
Le point principal est quant à lui situé à l'intersection de l'axe optique et du plan principal image.
Les distorsions radiales et tangentielles sont considérées comme nulles en ce point. Les caméras
sont généralement conçues pour que le point principal soit au centre de l'image finale. Des
exceptions existent cependant.

3.1.2 - Ouverture du diaphragme


Le diaphragme est un dispositif mécanique présent dans les appareils photographiques et régulant la
quantité de lumière entrant dans l'objectif. Une modification de l'ouverture du diaphragme a
également un effet sur la profondeur de champs. En effet soit N l'ouverture du diaphragme, D la
distance de mise au point et c la valeur du cercle de confusion on peut approximer en
photogrammétrie :
𝑓2 𝑓2
𝐻= +𝑓 ≈
𝑁𝑐 𝑁𝑐
𝐻𝐷
𝑃𝑟𝑒𝑚𝑖𝑒𝑟𝑃𝑙𝑎𝑛𝑁𝑒𝑡 =
(𝐻 + 𝐷)
𝐻𝐷
𝐷𝑒𝑟𝑛𝑖𝑒𝑟𝑃𝑙𝑎𝑛𝑁𝑒𝑡 =
(𝐻 − 𝐷)
2NcD2
𝑃𝑟𝑜𝑓𝑜𝑛𝑑𝑒𝑢𝑟𝑑𝑒𝐶ℎ𝑎𝑚𝑝𝑠 ≈
𝑓2
Équation 1 : Hyperfocale et calcul de la profondeur de champs
La distance de mise au point est généralement infinie en photogrammétrie.
De plus, les distorsions ont tendance à s'accentuer sur les bords de l'objectif. En photogrammétrie, il
est donc d'usage de chercher à avoir le diaphragme le moins ouvert possible afin de limiter ces
effets déformants.

3.1.3 - Temps d'ouverture et sensibilité de la pellicule


La sensibilité d'une pellicule ou d'un capteur photographique à la lumière est également une donnée
importante. Elle est généralement mesurée sous la forme d'une sensibilité ISO. Elle tient son nom
de l'Organisation Internationale de Normalisation (International Organisation for Standardisation).
Plus la pellicule ou le capteur est sensible, moins il aura besoin d'être exposée à la lumière pour
réaliser un cliché.

Photogrammétrie et Modélisation 3D par images de drones 20


3 - Notions théoriques

Cependant en photographie, ceci est compensé par une plus grande granularité de l'image et une
baisse de la résolution. En photographie numérique, une sensibilité élevée augmente également le
bruit sur l'image. Il est donc conseillé d'utiliser des sensibilités de capteur faibles pour les
applications photogrammétriques.
Diaphragme peu ouvert, sensibilité basse... Ces deux éléments tendent à nous faire penser que pour
prendre une photo exploitable, le temps d'exposition doit être élevé. Si la photo est prise depuis un
appareil placé sur un trépied, ceci est généralement possible.
Néanmoins cela n'est pas possible dans le cas de la photogrammétrie aérienne, l'appareil étant en
mouvement : une exposition trop longue pouvant causer des phénomènes de flous. Il est donc
nécessaire de faire un compromis entre ces différents paramètres.

3.2 – Distorsions
D'après le lexique de l'Association Française de Topographie (AFT_[2015]), les distorsions d'un
appareil photographique sont des « aberrations caractérisées par la variation des grandissements
angulaires en fonction de leur distance à l'axe optique et indépendante de la pupille. ». Elles
traduisent les imperfections du système optique.
Lors de la modélisation des distorsions d'un système optique, il est possible d'en distinguer 3
principales : radiales, tangentielles et affines. Ces distorsions se cumulent de sorte que :

𝛥𝑥 = 𝛥𝑥′𝑟𝑎𝑑𝑖𝑎𝑙𝑒𝑠 + 𝛥𝑥′𝑡𝑎𝑛𝑔𝑒𝑛𝑡𝑖𝑒𝑙𝑙𝑒𝑠 + 𝛥𝑥′𝑎𝑓𝑓𝑖𝑛𝑒𝑠


𝛥𝑦′ = 𝛥𝑦′𝑟𝑎𝑑𝑖𝑎𝑙𝑒𝑠 + 𝛥𝑦′𝑡𝑎𝑛𝑔𝑒𝑛𝑡𝑖𝑒𝑙𝑙𝑒𝑠 + 𝛥𝑦′𝑎𝑓𝑓𝑖𝑛𝑒𝑠
Équation 2 : Obtention des distorsions totales à partir des différent types de distorsions

Ces notions sont exposées dans le cours Photogrammétrie 3 de Pierre Grussenmeyer


(Grussenmeyer[2014]) ainsi que dans l'ouvrage de Gruen (Gruen [2001]) ou encore l'article de
Wiggenhagen (Wiggenhagen [2002]).

3.2.1 - Distorsions radiales


Les distorsions radiales sont généralement les plus importantes. Elles sont fonction de l'éloignement
par rapport au point principal. Elles sont généralement modélisées sous la forme d'un polynôme.
Plusieurs modèles existent. Les deux principaux sont les modèles balanced et unbalanced.
Soit le point principal de coordonnées (x0,y0). Nous cherchons les distorsions pour un point de
coordonnées (x,y). Les coordonnées de ce point par rapport au point principal sont notées (x',y').
Soit r' la distance entre le point principal et Δr' la valeur des distorsions radiales pour les points
situés à une telle distance. Selon le modèle unbalanced, les distorsions sont modélisées par un
polynôme de la forme :

𝛥𝑟′𝑟𝑎𝑑 = 𝐾1 𝑟′3 + 𝐾2 𝑟′5 …


Équation 3 : Distorsions radiales dans le cas du modèle unbalanced

Le modèle balanced, quant à lui s'exprime sous la forme d'un polynôme de la forme :

Photogrammétrie et Modélisation 3D par images de drones 21


3 - Notions théoriques

𝛥𝑟′𝑟𝑎𝑑 = 𝐴0 𝑟′ + 𝐴1 𝑟′3 + 𝐴2 𝑟′5 …


Équation 4 : Distorsions radiales dans le cas du modèle balanced

Ces distorsions selon r se convertissent en distorsions selon les axes x et y par les formules :
𝛥𝑟 ′
′ ′
𝛥𝑥′𝑟𝑎𝑑 = 𝑥 𝑟
{ 𝛥𝑟′
𝛥𝑦′𝑟𝑎𝑑 = 𝑦′
𝑟′
Équation 5 : Distorsions radiales en fonction des coordonnées x et y d'un pixel

Il est possible de convertir les coefficients d'un modèle à l'autre, avec r0 point d'équilibre du modèle
unbalanced.
𝑠 = 1 − 𝐴0 𝐴0 = −(𝐾1 𝑟02 + 𝐾2 𝑟04 )
𝐾1 = 𝐴1 ⁄𝑠 𝐴1 = 𝐾1 𝑠
𝐾2 = 𝐴2 ⁄𝑠 𝐴2 = 𝐾2 𝑠

Équation 6 : Passage du modèle Équation 7 : Passage du modèle


balanced au modèle unbalanced unbalanced au modèle balanced

Le modèle unbalanced est aujourd'hui utilisé le plus utilisé.

3.2.2 – Distorsions tangentielles


Les distorsions tangentielles traduisent un défaut de centrage de la lentille. Elles sont généralement
définies par deux paramètres P1 et P2 tels que :

𝛥𝑥′tan = 𝐵1 (𝑟′2 + 2𝑥′2 ) + 2𝐵2 𝑥′𝑦′


{
𝛥𝑦′tan = 𝐵2 (𝑟′2 + 2𝑦′2 ) + 2𝐵1 𝑥′𝑦′

Équation 8 : Distorsions tangentielles

3.2.3 – Distorsions affines


Les distorsions affines traduisent quant à elles un défaut d'orthogonalité des axes du capteur. Elles
sont généralement nulles.
L'angle entre les axes x et y est théoriquement droit. Le paramètre « skew », égal au cosinus de cet
angle est généralement utilisé pour modéliser ces distorsions dans des logiciels tels que Matlab ou
Photoscan.
Il est également possible de modéliser ces effets par deux coefficients C1 et C2, liés entre eux, tel
que :

Photogrammétrie et Modélisation 3D par images de drones 22


3 - Notions théoriques

𝛥𝑥′𝑎𝑓𝑓𝑖𝑛𝑒 = 𝐶1 𝑥′ + 𝐶2 𝑦′
{
𝛥𝑦′𝑎𝑓𝑓𝑖𝑛𝑒 = 0
Équation 9 : Distorsions affines

3.3 - Algorithmes de détection des


points homologues
Pour réaliser un projet photogrammétrique, il est nécessaire de détecter des points homologues entre
les différentes images. Originellement, ces points étaient sélectionnés manuellement. Cependant les
avancées de l'informatique ont rendu possible une détection et une mise en correspondance
automatique des points. Les avantages offerts par ces détecteurs sont nombreux : gain de temps,
précision indépendante de l'utilisateur...
Parmi les détecteurs les plus utilisés nous pouvons citer SIFT [Lowe, 2004] et SURF [Bay & al.,
2008].

3.3.1- Détecteurs SIFT et SURF


Le détecteur SIFT (Scale-Invariant Feature Transform) a été créé en 1999 par le chercheur David
Lowe de l'Université de Colombie Britannique. Il est constitué d'un algorithme de détection des
points d’intérêt, du calcul d'un descripteur pour chacun de ces points, puis de la mise en
correspondance proprement dite.
Le détecteur SURF (Speeded Up Robust Feature) est un algorithme de détection développé par les
chercheurs de l'université de Louvain et l'ETH Zurich. Il s'inspire du détecteur SIFT, mais a été
développé pour être plus rapide.

3.3.2 - Comparaison de ces algorithmes


Les performances de ces deux algorithmes ont été comparées par une équipe sud-coréenne de
l'université de Chonbuk. [Juan, 2009]
Cette comparaison est effectuée selon plusieurs critères : temps de traitement, stabilité malgré une
rotation, du flou, un changement d'échelle, une différence de luminosité ou une translation. Ces tests
ont été réalisés avec plusieurs jeux de données.

Figure 6: Cas du changement d'échelle - SIFT à gauche (10 points mis en


correspondance sur 66 détectés), SURF à droite (10 sur 26) [Juan, 2009]

Photogrammétrie et Modélisation 3D par images de drones 23


3 - Notions théoriques

Le temps de traitement de l'algorithme SIFT est plus élevé, mais il détecte un plus grand nombre de
points d’intérêt.
L'étude conclue à de meilleures performances de ce détecteur en cas de changement d'échelle, de
flous ou encore de rotation. Le SURF se comporte mieux en cas de différence de luminosité entre
les images étudiées. Dans le dernier cas de la translation, les performances sont globalement
identiques quel que soit l’algorithme.
Ces performances expliquent qu'aujourd'hui encore, le détecteur SIFT, ou ses dérivés, soient
largement utilisés. C'est notamment le cas dans Photoscan ou MicMac.

3.3.3 - Fonctionnement de l'algorithme SIFT


L'algorithme SIFT fonctionne en plusieurs étapes : détection des points d’intérêt, calcul d'un
descripteur SIFT et mise en correspondance des points entre les différentes images.
La première étape est donc la détection des points d’intérêt. Une convolution de l'image par un filtre
gaussien de paramètre σ est appliquée.
Soit L le résultat de la convolution, G le filtre gaussien et I l'image traitée.
𝐿 (𝑥, 𝑦, 𝜎) = 𝐺 (𝑥, 𝑦, 𝜎) ∗ 𝐼 (𝑥, 𝑦)
Équation 10 : Convolution gaussienne de l'image lors d’une recherche de points SIFT
Cette convolution agit comme un filtre passe-bas. Elle a pour effet de lisser l'image et d'éliminer les
détails d'une taille inférieure à σ. Ce filtre est appliqué à plusieurs reprises sur les photos.
On définit D la différence de gaussiennes telle que, avec k un entier positif constant :
𝐷 (𝑥, 𝑦, 𝜎) = 𝐿 (𝑥, 𝑦, 𝑘𝜎) – 𝐿 (𝑥, 𝑦, 𝜎)
Équation 11 : Différence de gaussiennes lors d'une recherche de points SIFT
Ne subsistent dans cette image que les détails de dimension comprise entre σ et kσ.
Par exemple sur cette image de notre chantier du lac Noir, également prise par un drone, nous avons
appliqué un filtre gaussien de paramètre σ = 10 pixels. Nous avons ensuite effectué la différence
entre l'image floutée par le filtre et l'image originale. Comme on le voit, les arêtes et les points
saillants sont mis en évidence en plus clair :

Figure 7 : Image et sa différence gaussienne de paramètre 10 pixels. Les valeurs numériques de la


différence étant faibles (entre 0 et 40), l'histogramme de celle-ci a été modifié afin de mieux
visualiser les extrémums
Une recherche des extremums, par rapport à leurs 26 voisins immédiats (voisins géométriques

Photogrammétrie et Modélisation 3D par images de drones 24


3 - Notions théoriques

appartenant à la différence de gaussienne du point mais également pour les différences précédentes
et suivantes), est ensuite effectuée.
Un point-clé D (x,y,σ) est donc défini par sa position mais également par son échelle. L'utilisation
d'une pyramide est recommandée pour réduire le temps de calcul pour les images floutées.
Des coordonnées améliorées pour les points-candidats sont ensuite calculées par interpolation. Les
points à faible contraste sont ensuite éliminés, tout comme ceux situés sur des arêtes et donc
instables. Les points clés de l'image sont ainsi définis.
L'étape suivante consiste à calculer un descripteur pour chaque point. A partir de ce descripteur sera
effectuée la mise en correspondance.
Nous commençons par assigner une orientation θ au point, à partir de la direction des gradients à
proximité. Celle-ci est essentielle. En effet le descripteur est calculé en fonction de cette orientation,
ce qui rend la méthode invariante aux rotations. A cette étape les points sont donc définis par (x,y,σ,
θ).
Le descripteur en tant que tel est ensuite calculé. On prend en compte une région de 16x16 pixels
centrée sur le point clé, subdivisée en zones de 4x4.
Différent traitements sont effectués sur les histogrammes de ces 16 zones. Le descripteur final est
donc un vecteur de dimension 128.

Figure 8: Descripteur SIFT (Lowe 2004)

Ces détecteurs sont utilisés pour la mise en correspondance des images.


Pour un point donné, l'homologue le plus probable est celui le plus proche par la distance
euclidienne. Bien évidemment cette opération, ne tenant pas compte de la géométrie des objets
donne lieu à de nombreuses erreurs. Certains points n'ont en effet pas d'homologues dans les autres
images.
Si au moins trois points proches sont détectés comme homologues, ceux-ci sont considérés comme
probablement plus corrects qu'un point seul. De tels groupes sont utilisés pour vérifier la cohérence
du modèle géométrique. La correspondance est ainsi validée ou rejetée.
De nos jours, l'algorithme SIFT ou ses dérivés sont parmi les plus utilisés : il est par exemple
présent dans les logiciels Pix4D, MicMac ou Photoscan.

Photogrammétrie et Modélisation 3D par images de drones 25


3 - Notions théoriques

3.3- Comparaison de nuages de


points
Dans le cadre de notre étude nous avons comparé les nuages de points issus de la photogrammétrie,
créés avec les différents logiciels, à un nuage de points issu du scanner. Nous avons envisagé deux
approches : dans un premier temps la comparaison nuage-maillage, d’autre part la comparaison
nuage-nuage. Nous allons en expliquer les grands principes en nous aidant des travaux réalisés par
Paul Chavant dans le cadre de son projet de fin d’études (Chavant[2013]).

3.3.1 – Méthodes nuage-maillage


Utilisant régulièrement 3DReshaper, nous avons dans un premier temps pensé à réaliser une
comparaison nuage-maillage avec ce logiciel.
Dans cette méthode, un maillage est réalisé à partir du nuage de points issu du scanner, et servira de
référence. De nombreuses méthodes existent pour réaliser cette transformation. Les plus communes
se basent sur l’algorithme de triangulation de Delaunay, du nom du mathématicien russe qui a mis
au point cette méthode en 1934. Le but est de créer des triangles tels qu'aucun point ne soit compris
dans leurs cercles conscrits dans le cas d'un plan ou de leurs sphères circonscrites dans l'espace. Le
plus petit angle dans le réseau est ainsi maximisé.
Une fois la surface de référence obtenue, les distances orthogonales entre chaque point du nuage
issu de la photogrammétrie et la surface de référence sont calculées.
Cette méthode a été envisagée dans un premier temps, mais nous ne l’avons pas retenue. En effet
elle suppose d’appliquer une transformation au nuage de points issu du scanner avant d’effectuer la
comparaison à proprement parler.

3.3.2- Méthodes nuage-nuage


Il nous semblait donc plus judicieux de comparer deux objets d’un même type. Nous avons ainsi
opté pour la méthode de la comparaison nuage-nuage. Celle-ci a été réalisée avec le logiciel
CloudCompare, développé par Daniel Girardeau-Montaut.
Le nuage de point créé avec le scanner est encore une fois considéré comme la référence.
Avec R le nuage de référence, r l’un de ses points, on peut calculer pour chaque point p du nuage
issu de la photogrammétrie la distance au nuage de référence.

𝑟 ∈ 𝑅 , 𝐷𝑖𝑠𝑡𝑝−𝑅 = min‖𝑝 − 𝑟‖
Équation 12 : Distance d'un point du nuage issu de la photogrammétrie au nuage issu du scanner

Nous obtenons ainsi une valeur de distance pour chaque point du nuage comparé. On peut ensuite
calculer la distance moyenne entre le nuage de référence et le nuage comparé en faisant la moyenne
de ces distances. Il est également possible, et CloudCompare le fait, de réaliser un histogramme de
ces valeurs afin d’analyser plus finement les écarts entre les nuages.

Photogrammétrie et Modélisation 3D par images de drones 26


3 - Notions théoriques

En tant que tel, la principale limitation de cette


solution est le temps de traitement. Il est en effet
nécessaire de calculer la distance entre tous les points
des deux nuages.
La subdivision basée sur l’octret est utilisée pour
réduire le temps de calcul. La philosophie de cette
méthode est assez simple à comprendre. On cherche à
affiner la recherche du point le plus proche.
Les nuages de points sont donc divisés en 8 cubes de
taille égale pour une subdivision de niveau 1, en 64
pour une subdivision de niveau 2, et ainsi de suite.
S’il n’y a plus de points dans un cube, celui-ci n’est
plus subdivisé aux niveaux inférieurs. On voit ci-
contre un exemple de ces cubes. Ceux-ci ont les
mêmes positions pour les deux nuages. Pour un point Figure 9 : Subdivision de niveau 4
donné du nuage comparé, le point le plus proche du (Chavant[2013])
nuage de référence est dans le même octret ou dans un
octret limitrophe. Nous pouvons ainsi considérablement réduire le temps de calcul en limitant nos
recherches.
Nous avons donc choisi de comparer nos nuages photogrammétriques avec les données issues du
scanner via la méthode nuage-nuage.

3.4 – Orthophotographies
Une orthophotographie est une image rectifiée de manière géométrique et radiométrique de façon à
être superposable à une carte ou à un plan. Il est possible de créer une telle image à partir de
photographies aériennes ou terrestres. L'image semble donc être prise à la verticale pour le cas
aérien ou de manière orthogonale dans le cas d'une façade, et ceci pour tous les points.
Les différentes étapes de création d'une orthophotographie sont détaillées dans le cours de
Rönnholm (Rönnholm[2014]) ou encore dans le thèse de Nielsen (Nielsen[2004]).

3.4.1 - Création d'une orthophotographie


Plusieurs étapes sont nécessaires pour réaliser une orthophotographie.
Dans un premier temps, les différents pixels de l'image et leurs valeurs numériques sont projetés sur
un modèle numérique représentant la zone photographiée. Les valeurs numériques correspondent
généralement aux composantes colorimétriques (RGB). Cette surface de projection peut être un
modèle numérique de terrain dans le cas de prises de vue aériennes, ou un maillage représentant un
bâtiment pour des prises de vue terrestres.

Photogrammétrie et Modélisation 3D par images de drones 27


3 - Notions théoriques

Figure 10 : Création d'une orthophoto (Rönnholm[2014])

Comme illustré ci-dessus, le résultat de cette projection est un ensemble irrégulièrement espacé de
points projetés sur le plan de l'orthoimage. Les valeurs numériques de ces points sont ensuite
interpolées pour la totalité des pixels de l'orthoimage. L'effet du relief est ainsi corrigé pour l'image.
Plusieurs orthoimages sont utilisées pour créer une orthophotographie sous forme de mosaïque. Les
« seamlines » sont les frontières qui délimitent les zones où chaque image est utilisée. Celles-ci
peuvent être artificielles et régulières ou suivre les lignes du terrain naturel. Pour des raisons
esthétiques, l'objectif de rendre ces limites les moins visibles possible.
Les objets n'étant pas observés depuis le même point de vue, ou encore à des temps différents, il est
nécessaire d'opérer des corrections radiométriques sur les images. L'utilisation d'un modèle
physique correspondant au capteur, à l'objet observé ainsi qu’aux effets atmosphériques est possible
mais nécessite de nombreuses connaissances préalables. On peut citer par exemple le modèle Pepita
de l'IGN. Quand peu d'informations sont disponibles sur les conditions de prises de vue, il est
généralement plus simple de mettre en correspondance les différents histogrammes.

3.4.2 – Notion d'orthophotographie vraie


Comme nous l'avons vu, lors de la création d'une orthophotographie, il est nécessaire d'utiliser une
surface de projection. Il est possible d'utiliser un modèle numérique (MNT) de terrain ou un modèle
numérique de d'élévation (MNE). Dans le premier cas, seule l'élévation du sol sur la zone concernée
est représentée. Dans un modèle numérique d'élévation, les bâtiments sont également pris en
compte.
Lorsqu'une telle surface est utilisée, on parle d'une orthophotographie vraie. Cela permet d'éviter de
déformer de manière aberrante les objets non représentés sur le MNT. Visuellement le résultat est
donc plus esthétique.

Photogrammétrie et Modélisation 3D par images de drones 28


3 - Notions théoriques

Figure 11 : Orthophotographies crées en utilisant un MNT (gauche) ou un MNE (droite)


(Rönnholm[2014]) Celle de droite est donc une vraie orthophoto

Il est important de disposer de photos prises depuis les différents côtés des bâtiments afin de ne pas
avoir de zones cachées qui seront remplies de manière peu esthétique par le logiciel.
Il est également possible de créer des orthophotographies hybrides, avec par exemple les ponts
représentés dans la surface de projection, mais pas les bâtiments...

3.3 – Conclusion de l’étude


théorique
Cette partie nous a permis d’expliquer certaines notions importantes pour la suite de notre étude.
Dans ce chapitre, nous avons parlé des caractéristiques utilisées pour définir une caméra et de leur
influence sur les prises de vues
Nous nous sommes également penchés sur les différents algorithmes de recherche et mise en
correspondance de points homologue. Le processus de création d’une ortho photo a également été
expliqué.
Nous avons également parlé des méthodes de comparaison de nuages de points. Celles-ci seront
essentielles dans la suite de notre étude afin d’évaluer les produits générés par les différentes
solutions.

Photogrammétrie et Modélisation 3D par images de drones 29


3 - Notions théoriques

Photogrammétrie et Modélisation 3D par images de drones 30


4 - Chantier test et
solutions drones
Dans les chapitres précédents, nous avons étudié des logiciels de photogrammétrie. Nous avons
présélectionné ceux dont les modes de fonctionnement et les produits correspondent aux besoins de
TPLM-3D. Ces trois logiciels sont donc les commerciaux PhotoScan, Pix4D et MicMac, issu du
monde de la recherche.
Nous avons ensuite voulu comparer par nous-mêmes ces trois logiciels. Pour cela nous devions leur
fournir les mêmes données en entrée. Les différents produits, tels que les nuages de points et les
orthophotos seront ensuite comparées selon des méthodologies que nous aurons mises au point.
Un site a été choisi pour devenir notre chantier test. Il s’agit d’une chapelle dans la région lyonnaise.
Des données de références sont également acquises sur ce site. Ce sont par exemple des
coordonnées de points au sol, et un nuage de points issu du laser scanner. Elles ont été relevées
suivant les modes opératoires habituels de TPLM-3D. Elles nous permettront d’évaluer la précision
du drone par rapport aux méthodes plus classiques.
Nous avons fait appel à deux prestataires de drones sur ce site test. Les principales caractéristiques
techniques de chaque drone et caméra sont également spécifiées dans cette partie.
Deux vols ont été effectués par chaque drone : l’un nadiral, l’autre selon une façade. Les trajectoires
et les prises de photos diffèrent d’un prestataire à l’autre.
Tous ce chapitre traitera donc de ces questions relatives à la partie effectuée sur le terrain lors de ce
projet de fin d’études.

4 - CHANTIER TEST ET SOLUTIONS DRONES .......................................................... 31


4.1 – LE CHANTIER TEST .................................................................................................................................... 32
4.1.1 - La chapelle Saint Vincent.............................................................................................................................. 32
3.1.2 - Acquisition et précision des valeurs de comparaison ................................................................................... 33
4.2 – LES SOLUTIONS DRONES ............................................................................................................................ 35
4.2.1 - Caractéristiques techniques ......................................................................................................................... 35
4.2.2 -Vols effectués ................................................................................................................................................ 36

Photogrammétrie et Modélisation 3D par images de drones 31


4 - Chantier test et solutions drones

4.1 – Le chantier test


Nous avons choisi la chapelle Saint Vincent à Saint Laurent d’Agny pour être notre chantier test.
Sur ce site, nous avons relevé des points afin d’orienter le projet. Un coté de l’édifice a également
été scanné. Ce scan constituera une valeur de comparaison pour évaluer la qualité des nuages de
points issus de la photogrammétrie.

4.1.1 - La chapelle Saint Vincent

Situation du chantier
La chapelle Saint Vincent est située sur les
hauteurs de Saint Laurent d’Agny, dans le
département du Rhône. Cette commune est
située à 20km au sud-ouest de Lyon, et à
10km au nord-ouest de Givors, où est basé
TPLM-3D. Ce lieu n’est pas totalement
inconnu pour la société car des relevés
lasergrammétriques avaient déjà été effectués
il y a quelques années dans le cadre d’un
projet de fin d’études consacré à la
modélisation 3D.
Ce chantier a été choisi pour plusieurs raisons.
Le voisinage de la chapelle est constitué
d’herbe, d’enrochements, d’escaliers, de
murets… La façade étudiée présente
également de nombreuses ouvertures. Les
terrains étudiés ici sont donc comme on a pu
le voir très variés.
Cet édifice est proche de Givors, ce qui
simplifie grandement la logistique.

Figure 12 : Situation de Saint Laurent d'Agny


Il est toujours plus intéressant d’évaluer les
Source : OpenStreetMap
performances d’un logiciel ou d’une solution
dans un contexte difficile.

Points de calage et points de contrôle


Pour orienter le projet et évaluer la précision de cette orientation, des points ont été relevés en
coordonnées. On peut en distinguer deux catégories :
 les points de calage sont connus en coordonnées et utilisés par le logiciel pendant les calculs.
Ils sont au nombre de 8 pour le vol nadiral et de 13 pour le vol de façade.
 les points de contrôle sont des points connus en coordonnées mais non utilisés pendant les
calculs. Les coordonnées calculées sont comparées avec les coordonnées terrain afin de nous

Photogrammétrie et Modélisation 3D par images de drones 32


4 - Chantier test et solutions drones

donner une précision réelle. Ils sont uniquement présents pour le vol nadiral et sont au
nombre de 5.
L’analyse des erreurs sur les points de contrôle nous renseigne sur la précision de l’orientation
externe. Voici la localisation des points de calage (rouge) et des points de contrôle (bleus) dans le
cas des différents vols.

Les points au sol ou en bas de la façade ont été matérialisés par des cibles autocollantes. Les points
inaccessibles en haut de la façade sont quant à eux des taches sur la pierre relevées au tachéomètre
sans utilisé de prisme.

Figure 14 : Position des points de calage sur la


Figure 13 : Position des points de contrôle et
façade
de calage pour le vol nadiral

3.1.2 - Acquisition et précision des valeurs de comparaison


Levé des points
Les points définis précédemment sont relevés avec une station totale Leica TCRA1205. Quatre
stations ont été effectuées tout autour de la chapelle, reliées entre elles sous la forme d’une
polygonale fermée. Cette polygonale a été calculée, dans un système arbitraire, à l’aide du logiciel
LTOP, développé par SwissTopo. Ce programme nous donne également la précision sur les
coordonnées des stations.
Connaissant la précision angulaire et de distance de l’appareil, nous pouvons estimer l’erreur
moyenne quadratique sur les coordonnées des points relevés (de calage ou de contrôle). Cette
transmission d’erreur a été effectuée en utilisant les valeurs des précisions données par le
constructeur. Le détail des calculs est disponible dans l’annexe A de ce rapport de stage, ainsi que
les résultats obtenus sur les différents points.
Voici ci-dessous le résumé des erreurs moyennes quadratiques obtenues : sont distingués les points
au sol utilisés lors du vol nadiral et les points de façade. La précision de la distance relevée pour les
points de la façade est en général plus faible, car certains points ont été relevés sans prisme.

Photogrammétrie et Modélisation 3D par images de drones 33


4 - Chantier test et solutions drones

Moyenne (mm)

Emq plani Emq alti Emq 3D

Tous points 1,6 0,9 2,0

Façade 1,5 1,2 2,0

Nadiral 1,7 0,5 1,8

Tableau 3 : Erreurs moyennes sur les points relevés avec le Leica TCRA1205

Relevé Scanner
La société TPLM-3D possède une expertise reconnue dans le domaine de la lasergrammétrie depuis
de nombreuses années. Nous avons donc relevé une partie de la chapelle et des alentours en suivant
le mode opératoire habituellement utilisé. Voici ci-dessous les positions de l’appareil lors de
l’acquisition des quatre scans :

Figure 15: Positions du scanner

Le scanner utilisé est un Leica HDS6100. Afin de consolider et d’assembler les différents nuages de
points, nous utilisons Cyclone Register. Ce logiciel nous donne une précision moyenne de 1mm et
de 3mm au maximum. Nous avons utilisé le mode opératoire habituel de TPLM-3D.
Nous considérons donc ces données comme suffisamment précises pour répondre aux besoins de
l’entreprise. La précision de ce nuage n’est pas suffisamment faible par rapport aux nuages issus de
la photogrammétrie pour qu’il soit considéré comme valeur vraie.
Nous allons cependant le considérer comme une valeur de comparaison par rapport à laquelle seront
évalués les performances des solutions et logiciels sélectionnés.

Photogrammétrie et Modélisation 3D par images de drones 34


4 - Chantier test et solutions drones

4.2 – Les solutions drones


4.2.1 - Caractéristiques techniques
Nous avons effectué des vols avec deux prestataires. Ceux-ci disposent de drones, de caméra, mais
également de modes opératoires différents. Ces deux solutions seront dorénavant désignées solution
« A » et solution « B ».
A Solutions B
U830 Novadem Drone DS6 City Dronesys
Sony ILCD-7R Camera Nikon 1V3
35 mm Focale 10 mm
7360x4912 Taille de capteur 5232x3488
Variable Temps d'exposition 1/1250
Fixe Ouverture Variable
100 ISO Sensibilité 400 ISO
15 Mo Taille des images 10 Mo

Tableau 4 : Caractéristiques des différentes solutions

SOLUTION A SOLUTION B

Figure 16: Drones et exemples de photos nadirales prises avec les deux solutions

Comme on peut le constater, la solution A est à priori plus adaptée à la photogrammétrie. En effet
dans la solution B, l’ouverture du diaphragme est variable, selon la luminosité de la photo. Les
distorsions de la caméra sont donc différentes d’une photo à l’autre. Cet effet sera particulièrement
marqué si un rayon de soleil apparait en cours de vol. De plus la sensibilité de la caméra plus élevée
augmente le grain final de la photo. La solution A se rapproche des pratiques courantes de
photogrammétrie.

Photogrammétrie et Modélisation 3D par images de drones 35


4 - Chantier test et solutions drones

4.2.2 -Vols effectués


Comme nous venons de le voir, les deux solutions testées ont leurs propres caractéristiques. Les
vols effectués sont également peu semblables.
Pour le vol nadiral, le cahier des charges demandait une taille de pixel au sol d’un centimètre.
Celui-ci a globalement été respecté par le prestataire « B ». Le prestataire « A » a quant à lui pris
des photos avec une taille de pixels bien inférieure, de l’ordre de 0.4cm.

A Solutions B
79 Nombre d'images de façade 50
82 Nombre d'images nadirales 33
25 m Hauteur de vol 45 m
9 Bandes nadirales 4
Tableau 5 : Caractéristiques des vols effectués avec les deux solutions

Nous pouvons représenter les trajectoires des deux vols dans 3DReshaper. Ceux-ci ont tous les deux
été effectués en plusieurs fois, à cause de problèmes de vent ou de batteries. Le vol effectué avec la
solution « A » était plus bas et plus de photos ont été prises.
Le prestataire a également effectué plus de bandes d’images. Cependant ces bandes ne sont pas
aussi régulièrement espacées que pour un vol aérien traditionnel. Ceci est principalement dû au vent
qui gênait le bon déroulement des prises de vues.

Figure 18 : Représentation des vols nadiraux Figure 17 : Représentation des vols


– Vue de dessus - Solution « A » en rouge, nadiraux - Vue de coté - Solution « A » en
Solution « B » en bleu - Impression d'écran rouge, Solution « B » en bleu - Impression
3DReshaper, sans échelle d'écran 3DReshaper sans échelle

Les positions des deux vols de façade peuvent également être représentées ci-dessous. Il n’y a pas
de bandes de vol à proprement parler. Chaque prestataire a dû faire plusieurs tentatives pour couvrir

Photogrammétrie et Modélisation 3D par images de drones 36


4 - Chantier test et solutions drones

l’ensemble de la façade, principalement à cause du vent. Les vols et les positions de prise de vue
sont donc quelque peu chaotiques. On peut remarquer que la solution « B » couvre moins bien le
haut du clocher.

Position des caméras pour le vol de façade - Position des caméras pour le vol de façade -
Vue de dessus Vue du plan XZ
2014 114
2012
112
2010
2008 110
2006 108
Y(m)

Z(m)
2004 106
2002
2000 104
1998 102
1996 100
1994 98
998 1003 1008 1013 995 1000 1005 1010 1015 1020
X(m) X(m)
Solution A Solution B Points de Calage Solution A Solution B Points de Calage

Figure 20 : Position des caméras pour le vol de


Figure 19: Position des caméras pour le vol de
façade - Vue de dessus
façade - Vue de coté

Les deux prestataires ont donc un matériel ainsi que des modes opératoires très différents. Il est
cependant important de noter que ceux-ci ont tenu compte de nos remarques tout au long de l’étude
afin de réaliser à l’avenir les clichés les plus conformes possibles.

Pendant cette partie, nous avons présenté le chantier test sur lequel les données traitées au cours ce
projet de fin d’études ont été acquises. Nous nous sommes également penchés sur les différentes
solutions drone ainsi que sur les vols effectués par les prestataires.
Nous avons donc maintenant toutes les données nécessaires pour effectuer des comparaisons entre
les différents logiciels et prestataires. Ce sera l’objet des prochains chapitres.

Photogrammétrie et Modélisation 3D par images de drones 37


4 - Chantier test et solutions drones

Photogrammétrie et Modélisation 3D par images de drones 38


5 - Choix du logiciel
Des vols de drone ont été effectués par les deux prestataires au-dessus de la chapelle Saint-Vincent
à Saint Laurent d’Agny, comme expliqué dans la partie précédente.
Nous avons présélectionné trois logiciels, en nous basant sur leurs capacités et la littérature
scientifique : Pix4D, PhotoScan et MicMac. Nous allons d’abord chercher à déterminer le logiciel le
plus adapté aux besoins de TPLM-3D. Les solutions « A » et « B », présentées précédemment,
seront ensuite étudiées avec ce logiciel.
Les données de la solution B vont être utilisées pour réaliser ces tests de logiciels. Deux raisons
expliquent ce choix :
 D’une part ces données ont été acquises un mois et demi plus tôt que les données de la
solution A. C’était donc les premières disponibles pour commencer les traitements.
 D’autre part, le prestataire B nous a fourni un nombre de photos bien moins important que
son homologue. Les temps de traitement sont donc bien plus faibles. Nous pouvons donc
tester plus rapidement les réglages des logiciels.
Plusieurs axes ont été étudiés :
 Les données de calibration calculées de la caméra
 Les positions des caméras calculées par les logiciels.
 La précision sur les points de contrôle
 Le bruit dans le nuage de points
 La qualité des orthophotos

Les différents réglages utilisés pour générer les données sont disponibles dans l’annexe B.

5 - CHOIX DU LOGICIEL ......................................................................................... 39


5.1 – CALIBRATION DES CAMERAS ...................................................................................................................... 40
5.2 - POSITIONS DES CAMERAS .......................................................................................................................... 41
5.3 - PRECISION SUR LES POINTS DE CONTROLE ..................................................................................................... 43
5.4– NUAGES DE FAÇADE .................................................................................................................................. 44
5.5 – BRUIT DANS LE NUAGE DE POINTS............................................................................................................... 46
5.6 – ORTHOPHOTOGRAPHIES ........................................................................................................................... 48
5.7 – AUTRES ASPECTS ET CHOIX FINAL ................................................................................................................ 50

Photogrammétrie et Modélisation 3D par images de drones 39


5 - Choix du logiciel

5.1 – Calibration des caméras


Dans un premier temps, nous allons nous pencher sur les données de calibration calculées par les
différents logiciels.
Aucun des deux prestataires ne nous a fourni le fichier de calibration de sa caméra. Le prestataire A
n’a pas souhaité nous le donner. Le prestataire B quant à lui n’a pas calibré son appareil
Nous ne disposons donc pas de données « vraies ». Nous pouvons néanmoins indiquer les données
du constructeur.

Calibration Vol Nadiral - Solution B


Constructeur Pix 4D PhotoScan MicMac
Focale (mm) 10 mm - - -
Focale (pixels) 4036 4089 4093 4124
2616 2642,431 2618,63 2613,4
Point Principal (pixels)
1744 1764,523 1765,07 1747,38
- -1,57E-01 -1,57E-01 -9,17E-09
Distorsions radiales - 1,38E-01 1,37E-01 5,08E-16
- -5,70E-02 -5,35E-02 -1,31E-16
- 2,00E-03 1,99E-03 -6,24E-07
Distorsions tangentielles
-3,00E-03 -2,09E-03 1,84E-05

Tableau 6 Données de calibration de la caméra pour le vol nadiral effectué par la solution B

Les modèles de calibration utilisés par PhotoScan et Pix4D sont identiques. Les significations des
différents paramètres ont été trouvées dans les manuels d’utilisation. Ceux-ci sont expliqués, ainsi
que les formules pour les calculer, dans l’annexe C de ce rapport.
Ne disposant pas exactement du même modèle de calibration pour MicMac. Nous avons donc dû en
choisir un autre.
Nous avons avec David Desbuisson suivi une formation de 3 jours dans les locaux de l’ENSG
(École Nationale des Sciences Géographiques) pour maitriser les bases de ce programme. Cette
formation nous a été dispensée par des personnes de l’IGN ayant développées le logiciel.
Sans caméra précise et n’ayant pas de fichier de calibration, la préconisation de l’IGN est d’utiliser
le modèle « Fraser ». Les données de MicMac ne sont donc pas comparables avec les deux autres
logiciels.
L’écart, de l’ordre de 0.84% entre les focales calculées par le français et le suisse a été mis sur le
compte de ces modèles de calibration différents.

La même opération a été effectuée pour la calibration du vol de façade :

Photogrammétrie et Modélisation 3D par images de drones 40


5 - Choix du logiciel

Calibration Vol de Façade - Solution B


Constructeur Pix 4D PhotoScan MicMac
Focale (mm) 10 mm - - -
Focale (pixels) 4036 4081 4083 4084
Point Principal 2616 2618,5 2619,4 2618,2
(pixels) 1744 1764,6 1763,3 1765,0
- -1,54E-01 -1,54E-01 -9,25E-09
Distorsions radiales - 1,36E-01 1,39E-01 4,94E-16
- -5,50E-02 -5,74E-02 -1,21E-16
Distorsions - 1,00E-03 1,26E-03 -6,62E-07
tangentielles - -2,00E-03 -2,57E-03 3,40E-05

Tableau 7 : Données de calibration de la caméra pour le vol de façade - Solution B

Là encore, les modèles de calibration utilisés sont différents. Les données de calibration sont
cependant bien plus semblables.
Après avoir calibré les caméras, on peut s’intéresser à la comparaison de leurs positions calculées
par les logiciels.

5.2 - Positions des caméras


Chaque logiciel calcule une position de caméra par image. Ces positions sont dans l’annexe D pour
le vol nadiral, et en annexe E pour le vol de façade.
Il est bien entendu impossible d’avoir les valeurs vraies de ces positions. On compare donc les
valeurs données par les logiciels à la moyenne de tous les logiciels.

Coordonnées des caméras : Écarts moyens en mètres entre le résultat donné par un
logiciel et la moyenne de tous les logiciels - Nadir - Solution B
Σ|ΔX| Σ |ΔY| Σ |ΔZ| Σ |Δ3D| Σ ΔX Σ ΔY Σ ΔZ
Pix4D 0,07 0,03 0,12 0,15 -0,02 -0,01 -0,12
PhotoScan 0,02 0,03 0,09 0,10 0,00 -0,02 -0,09
MicMac 0,09 0,05 0,21 0,24 0,01 0,03 0,21

Tableau 8 : Coordonnées des caméras - Écart entre la moyenne des résultats des logiciels et les
coordonnées données par un seul logiciel – Vol nadiral – Solution B

Photogrammétrie et Modélisation 3D par images de drones 41


5 - Choix du logiciel

La majorité des écarts viennent de la composante en Z. Les


positions calculées par MicMac sont environ 30cm plus élevées
que pour les autres logiciels. Il est évidemment possible de
faire un parallèle avec le résultat trouvé concernant la distance
focale plus élevée avec le logiciel de l’IGN. En effet pour un
même capteur, avec une distance focale plus grande, il faudra
voler plus haut pour obtenir une image avec la même emprise.

C’est une simple application du théorème de Thalès. Dans le


cas normal au-dessus d’un terrain plat, on pourrait résumer cela
par :

taille du capteur distance focale


=
emprise au sol hauteur de vol
Équation 13 : Application du théorème de Thalès dans le cas
ci-contre
Le premier terme restant le même, si la distance focale calculée
par le logiciel augmente, la hauteur de vol le fera également Figure 21: Schéma de deux
mécaniquement. caméras ayant la même emprise
au sol et le même capteur mais
des hauteurs de vol différentes
La focale calculée pour MicMac est 0.84% plus grande que celle
de Pix4D. D’un autre côté, les positions calculées des caméras sont 0.82% plus hautes. Cela semble
confirmer notre intuition, l’écart provenant du fait que les images ne sont pas exactement prises au-
dessus d’un terrain totalement plat et parallèle à celui-ci.
La même chose été effectuée pour le vol de façade. On peut noter une faute de plus de 6m en
altimétrie sur l’une des images traitée par Pix4D.

Celle-ci est vraisemblablement due à la


position des points homologues sur
l’image. En effet, ceux-ci sont
majoritairement situés, comme on peut le
constater sur la figure ci-contre, dans le
bas de l’image.
Idéalement ces points devraient être
répartis de manière homogène partout sur
l’image. Cette configuration est donc très
défavorable pour calculer de manière
précise la position de la caméra.

Figure 22 : Position des points homologues sur l'image


où se situe la faute de Pix4D

Pour le reste des images, les écarts sont beaucoup plus faibles, nuls ou de l’ordre du centimètre.
Ceux-ci sont résumés dans le tableau ci-dessous.

Photogrammétrie et Modélisation 3D par images de drones 42


5 - Choix du logiciel

Coordonnées des caméras : Écarts moyens entre le résultat donné par un logiciel et
la moyenne de tous les logiciels - Façade - Solution B
Σ|ΔX| Σ|ΔY| Σ|ΔZ| Σ|Δ3D| ΣΔX ΣΔY ΣΔZ
Pix4D 0,00 0,00 0,00 0,00 0,00 0,00 0,00
PhotoScan 0,00 0,01 0,00 0,01 0,00 -0,01 0,00
MicMac 0,00 0,00 0,00 0,01 0,00 0,00 0,00

Tableau 9 : Coordonnées des caméras - Écart entre la moyenne des résultats des logiciels et les
coordonnées données par un seul logiciel – Vol nadiral – Solution B

Pour le cas de la façade, les écarts de calibrations étaient plus faibles, ce qui se traduit dans le
positionnement des caméras.

5.3 - Précision sur les points de


contrôle
Nous avons également analysé la qualité de l’orientation. Nous utilisons pour ceci les coordonnées
des points de contrôle. En effet, ceux-ci n’étant pas utilisés lors de la compensation, les écarts entre
leurs coordonnées théoriques et celles calculées par les logiciels peuvent nous donner des
indications sur la précision de l’orientation externe.
Nous avons donc prêté attention aux écarts, calculés comme ceci :

∑ |𝑐𝑜𝑜𝑟𝑑𝑜𝑛𝑛é𝑒𝑠 𝑡ℎé𝑜𝑟𝑖𝑞𝑢𝑒𝑠 − 𝑐𝑜𝑜𝑟𝑑𝑜𝑛𝑛é𝑒𝑠 𝑙𝑜𝑔𝑖𝑐𝑖𝑒𝑙 |


𝐸𝑟𝑟𝑒𝑢𝑟 𝑠𝑢𝑟 𝑙𝑒𝑠 𝑝𝑜𝑖𝑛𝑡𝑠 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟𝑜𝑙𝑒 =
𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑝𝑜𝑖𝑛𝑡𝑠 𝑑𝑒 𝑐𝑜𝑛𝑡𝑟ô𝑙𝑒
Équation 14 : Formule de l'erreur sur les points de contrôle

Les points de contrôle sont toujours sélectionnés sur cinq photos chacun. Nous avons cherché à
privilégier les photos où ils étaient clairement visibles. Nous avons également veillé à ce que les
angles d’intersection entre les rayons provenant des images sélectionnées ne soient pas trop aigus.
Ce paramètre n’a pas été quantifié avec précision, mais nous avons veillé à sélectionner chaque
point sur un jeu de photos aussi éloignées que possible les unes des autres.
Dans un premier temps les points de calage sont cliqués sur deux photos seulement, ce qui est peu
précis. Par la suite, ils sont renseignés dans un nombre de photos de plus en plus important, jusqu’à
être eux aussi cliqués sur cinq photos différentes. Les photos où les points sont cliqués ont été
choisies suivant les mêmes critères que pour les points de contrôle : visibilité et angle d’intersection
élevé entre les faisceaux.
Les résultats obtenus peuvent être représentés dans le graphique présent figure 23.

Photogrammétrie et Modélisation 3D par images de drones 43


5 - Choix du logiciel

Erreur moyenne sur les points de contrôle en fonction du


nombre de photos sur lesquelles les points de calage sont
renseignés - Vol nadiral solution B
0,020

0,018
Erreur moyenne (m)

0,016

0,014

0,012

0,010

0,008
2 photos 3 photos 4 photos 5 photos
PhotoScan 0,019 0,014 0,012 0,011
Pix4D 0,010 0,011 0,010 0,012
MicMac 0,016 0,015 0,015 0,015

Figure 23: Erreur moyenne sur les points de contrôle en fonction du nombre de photos sur
lesquelles les points de calage sont renseignés - Vol Nadiral - Solution B

Dans un premier temps moins précis que les autres, PhotoScan gagne rapidement en précision au
fur et à mesure que l’on ajoute des photos.
La précision des logiciels est de l’ordre de la taille de pixel au sol (1.2cm) dans notre cas. Il faut
toutefois noter que les centres de cible étaient peu visibles. Avec des photos de meilleure qualité et
donc une précision de pointé plus élevée on peut imaginer diminuer encore les erreurs.

5.4– Nuages de façade


Une fois le projet orienté, il est possible de générer un nuage de points densifié. Nous nous sommes
intéressés à la différence entre les nuages générés par les logiciels de photogrammétrie et celui
généré par laser-scanner, avec les techniques habituelles de TPLM-3D.
Nous avons porté notre attention sur le nuage de façade, car il ne présente pas de végétation (herbe),
susceptible de rajouter des erreurs.
Le logiciel Cloud Compare a été utilisé. Celui-ci permet donner la distance entre deux nuages de
points.
On utilise la comparaison nuage-nuage, déjà évoquée dans la partie relative aux notions théoriques.
Les zones du toit ou les extrémités du nuage ont été enlevées de l’étude, car elles n’étaient pas
représentées de façon optimale par le scanner. Nous nous sommes donc concentrés sur la partie
centrale du nuage.
Voici la zone traitée :

Photogrammétrie et Modélisation 3D par images de drones 44


5 - Choix du logiciel

Figure 24 : Zone traitée avec Cloud Compare – Nuage généré avec


MicMac

Cloud Compare nous permet également d’analyser un histogramme des écarts. Il est ainsi possible
de connaitre par exemple, quel est l’écart maximum de 90% des points, de 96% des points ou
encore de 50% des points avec la valeur de comparaison, c’est-à-dire dans notre cas le nuage de
points issu du scanner laser.
Voici le tableau résumé de ces résultats :

Distance entre les points des nuages issus de la


photogrammétrie et ceux du nuage scanné
Façade - Solution B (mm)
Pix4D PhotoScan MicMac
Nombre de points 2 619 305 2 077 578 2 271 321
Moyenne 2,26 3,41 2,83
Écart type 2,19 2,78 2,55
50,00% 1,8 2,9 2,2
Seuils 90,00% 4,0 5,6 5,4
96,00% 5,8 7,6 7,6

Tableau 10 : Distance entre les points issus de la photogrammétrie et du scanner - Étude réalisée
avec CloudCompare

Voici les captures d’écran des histogrammes obtenus avec les logiciels étudiés.

Photogrammétrie et Modélisation 3D par images de drones 45


5 - Choix du logiciel

Figure 26 : Histogramme des écarts du nuage


Pix4D (Capture d'écran) Figure 25 : Histogramme des écarts du nuage
PhotoScan (Capture d'écran)

Figure 27: Histogramme des écarts du nuage MicMac (capture d'écran)

Avec un nombre de points équivalent dans les trois nuages, le logiciel Pix4D est plus précis. Les
écarts ont été majoritairement trouvés à proximité de la porte ou des fenêtres : les zones les plus
difficiles à représenter de la façade.

5.5 – Bruit dans le nuage de points


Nous ne pouvons pas, avec nos données, estimer de manière numérique le bruit dans les nuages de
points. Il aurait fallu pour cela disposer d’une surface parfaitement lisse sur laquelle analyser les
nuages de points.
Nous avons néanmoins cherché un moyen d’estimer la différence de bruit entre les différents
nuages. Nous avons découpé deux zones, quadrilatères d’une vingtaine de centimètres de côté dans
chaque nuage.

Photogrammétrie et Modélisation 3D par images de drones 46


5 - Choix du logiciel

Ces zones, relativement planes, se trouvent sur la plus haute marche de l’escalier et sur le muret.
Nous avons ensuite extrait le plan correspondant le mieux à chaque nuage à l’aide du logiciel Cloud
Compare.

Figure 28: Localisation des deux plans


utilisés pour le test de bruit

Nous portons ensuite attention à l’écart type des distances entre les points des nuages et les plans
créés.
Plus l’erreur est petite, plus les points sont proches de ce plan. Ainsi une grande erreur sera signe
d’un bruit plus élevé.

Solution B
Scanner Pix4D PhotoScan MicMac
Nombre de
428 257 147 138
Zone 1 : Muret points
RMS (mm) 2,9 12,6 4,3 8,4
Nombre de
330 166 107 96
Zone 2 : Escalier points
RMS (mm) 1,4 8,9 3,8 11,3

Tableau 11 : Erreurs lors de la création d'un plan - Test de bruit entre les logiciels

Le nuage issu du logiciel PhotoScan semble moins bruité que les deux autres.
Le choix du plan modélisé est également très important. Nous constatons par exemple que dans le
cas du muret, le nuage de Pix4D semble plus bruité que celui de MicMac, tandis que tout s’inverse
dans le cas de l’escalier.
Il n’est donc pas possible avec nos tests actuels de départager ces deux logiciels.

Photogrammétrie et Modélisation 3D par images de drones 47


5 - Choix du logiciel

5.6 – Orthophotographies
La dernière étape de nos tests est la comparaison des orthophotographies issues des différents
logiciels. Nous considèrerons principalement deux zones, qui ont beaucoup posé problèmes.
De plus, la qualité de la normalisation radiométrique sera un facteur important à prendre en compte.
En effet, cet aspect est, de l’aveu même de ses concepteurs, un point faible de MicMac.

Figure 29 : Zones à comparer dans les différentes orthophotos

D’un point de vue radiométrique, les performances du français sont en effet bien moins bonnes que
celles des autres. On distingue clairement les « seam lines ». De plus il n’est pas possible de régler
simplement la taille du pixel, MicMac choisissant la plus adaptée.
Pix4D et PhotoScan permettent d’ajuster le degré de normalisation. Les seam lines sont ainsi
invisibles sur l’orthophoto finale.

Concernant les zones que nous allons étudier plus spécifiquement, voici ci-dessous un extrait de la
carte de corrélation générée par MicMac.
Ce type de document est assez simple à interpréter. Lors de la création de l’orthophoto, un
coefficient de corrélation est calculé pour chaque pixel à partir des rayons provenants des photos
depuis lesquelles ce point est visible. Pour plus d’informations, le mode opératoire de MicMac est
disponible en annexe.

Photogrammétrie et Modélisation 3D par images de drones 48


5 - Choix du logiciel

Cette carte offre une représentation de ces coefficients


de corrélations calculés. Plus le point est blanc, plus le
coefficient est élévé et donc plus il y a de certitudes.
Plus il est foncé, plus le coefficient est bas. Les zones
noires ont un coefficient inférieur à 0.6.
Les zones étudiées, sur les bordures de la chapelle et
sur le bord du muret, sont donc parmi celles où
MicMac avait le moins de certitudes. On peut
aisément imaginer que c’était également des zones
difficiles à modéliser pour les autres logiciels.

Pour le vol de façade, la carte de corrélation montre


que les abords de la porte et des fenêtres, ainsi que le
toit constituent les zones les plus délicates pour
MicMac. La comparaison avec Cloud Compare des
nuages de points de la façade le confirme : ce sont
dans ces parties que les différences sont les plus
Figure 30: Extrait de la carte de importantes.
corrélation de MicMac pour le vol nadiral

Voici les extraits des orthophotos générées par les différentes solutions. La taille de pixel est d’un
centimètre pour Pix4D et PhotoScan. MicMac a généré une orthophoto avec une taille de pixel
équivalente à la taille de pixel au sol des images d’entrée, soit 1.2 centimètres.

Figure 31: Extraits des orthophotos de la zone A. Dans l'ordre : Pix4D, PhotoScan et MicMac

Pour exclure des images ou des parties d’images de l’orthophoto finale il est possible de créer des
masques dans PhotoScan et MicMac. Le logiciel suisse Pix4D permet quant à lui d’éditer en temps
réel les seamlines. Ceci évite de devoir générer à nouveau l’orthophoto à chaque modification et
permet de gagner du temps.
Des problèmes se sont posés car la surface créée par Pix4D à partir du nuage de points est en 2.5D.
Cependant des solutions existent pour contourner cette difficulté (création de surfaces, édition du
nuage de points). Elles sont détaillées dans le mode opératoire disponible en annexe.

Photogrammétrie et Modélisation 3D par images de drones 49


5 - Choix du logiciel

Figure 32: Extraits des orthophotos de la zone B. Dans l'ordre : Pix4D, PhotoScan et MicMac

5.7 – Autres aspects et choix final


Comme nous venons de le voir, nous avons comparé les logiciels Pix4D, PhotoScan et MicMac
selon plusieurs axes :
 Calibration
 Données d’orientation
 Nuages de points densifiés
 Orthophotos
De plus, nous avons porté attention la facilité d’utilisation.
Pix4D est très ergonomique et simple à prendre en main pour un débutant. PhotoScan est également
aisément utilisable. MicMac quant à lui fonctionne par ligne de commandes, ce qui constitue un
frein pour les gens n’ayant pas l’habitude.
Concernant le temps de calcul, Pix4D était légèrement plus rapide que les autres. Cependant il n’est
pas possible de réellement effectuer de comparaison, chacun des logiciels étant utilisé sur un
ordinateur différent.
Considérant toutes ces informations, le choix final de TPLM-3D se portera sur le logiciel Pix4D.
Un mode opératoire a été rédigé pour le personnel et une formation a été organisée. C’est
également ce logiciel que l’on utilisera pour comparer les deux solutions.
MicMac n’est pas retenu comme solution pour la production. Cependant, nous avons suivi une
formation et réussi à maitriser ce logiciel. Cela aurait été dommage d’abandonner ce savoir-faire
nouvellement acquis. Un mode opératoire a donc également été rédigé.

Photogrammétrie et Modélisation 3D par images de drones 50


6 - Comparaison des
solutions et réflexions
sur les vols de drones

Dans la partie précédente, nous avons décrit les tests qui ont permis de choisir le logiciel qui sera
dès à présent utilisé pour les travaux photogrammétriques de TPLM-3D : calibration et position des
caméras, erreurs sur les points de contrôle, tests sur les nuages de points et les orthophotos… C’est
finalement Pix4D qui a été retenu.
L’étape suivante est la comparaison des deux solutions drone, qui sera effectuée avec le logiciel
suisse. C’est l’objet de ce chapitre.
Dans un premier temps, nous expliquerons en quoi les solutions étudiées sont peu semblables, et
pourquoi cela ne permettra pas de conclure de manière certaine quant à l’origine des différents
résultats qui seront détectées par la suite.
Nous avons ensuite les précisions sur les points de contrôle, les nuages de points issus des logiciels
les ortho photos. Suite à un problème de points de calage sur la façade, il nous est impossible de
réaliser le test de comparaison des nuages de points.
Nous aidant de tous ces éléments, nous avons pu rédiger un cahier des charges à l’attention des
prestataires auxquels TPLM-3D fera appel. Nous avons également mené une réflexion sur les
spécificités liées à l’utilisation du drone en photogrammétrie, par rapport aux relevés aériens
traditionnels.

6 - COMPARAISON DES SOLUTIONS ET REFLEXIONS SUR LES VOLS DE DRONES .... 51


6.1 – DE LA DIFFICULTE DE LA COMPARAISON DES SOLUTIONS ................................................................................. 52
6.2 – PRECISION SUR LES POINTS DE CONTROLE .................................................................................................... 52
6.3 – BRUIT DANS LE NUAGE DE POINTS............................................................................................................... 53
6.4 – ORTHOPHOTOGRAPHIES ........................................................................................................................... 54
6.5 – CAHIER DES CHARGES DRONE..................................................................................................................... 55

Photogrammétrie et Modélisation 3D par images de drones 51


6 - Comparaison des solutions et réflexions sur les vols de drones

6.1 – De la difficulté de la
comparaison des solutions
Les deux solutions que nous avons testées sont très différentes. Comme nous l’avons vu dans le
chapitre précédent, les drones utilisés, ainsi que les caméras et même les plans de vols ne sont pas
semblables.
Nous pouvons nous attendre à de meilleures performances de la part de la solution « A » :
 Les caractéristiques de la caméra sont plus en accord avec les règles de l’art
photogrammétrique. En effet, contrairement à son concurrent, l’ouverture du diaphragme est
constante, la sensibilité du capteur est plus faible.
 Nous avions demandé aux prestataires de réaliser des clichés avec une taille de pixels au sol
de 1cm pour les vols nadiraux. Le prestataire « B » a réalisé des images avec un pixel de 1.2
cm environ, ce qui est plus grossier que demandé. Au contraire, le prestataire « A » a pris
des photos avec une taille de pixel de 0.4cm.
Ceci implique que l’on devra traiter un nombre plus élevé de photos et cela augmente le
temps de calcul. Ce n’est donc pas forcément une bonne chose d’augmenter à ce point la
résolution des images par rapport au cahier des charges. Avec plus de photos ayant une
meilleure résolution, nous nous attendions toutefois à de bien meilleurs résultats de la part
de la solution « « A ».
Pour ces deux raisons, il est donc probable que les données de la solution « A » donnent de
meilleurs résultats à nos tests que celles de la solution « B ».
Il sera cependant difficile d’identifier quel élément altère ou augmente le plus la précision. En effet,
de nombreux éléments changent entre les deux solutions et il nous est impossible d’en isoler un par
rapport à tous les autres.
Nous pouvons tout au plus nous inspirer des modes opératoires et de l’expérience acquise sur le
terrain en travaillant avec les deux prestataires, pour définir un cahier des charges.

6.2 – Précision sur les points de


contrôle
Nous avons dans un premier temps porté notre attention sur les erreurs détectées sur les points de
contrôle.
Le vol avec la solution « A » a été effectué plus d’un mois après le vol avec la solution « B ». Ce ne
sont donc pas exactement les mêmes points, mais les cibles ont été placées aux mêmes endroits et
mesurées avec le même mode opératoire.
Le test effectué est le même que lorsque nous avons comparé les logiciels. Nous avons de nouveau
cliqués les points de calage sur cinq photos. Les points de contrôles ont ensuite été sélectionnés sur
deux, trois, quatre, puis cinq photos différentes.
L’écart entre les coordonnées théoriques et mesurées a été analysé. Les résultats sont résumés dans
la figure suivante :

Photogrammétrie et Modélisation 3D par images de drones 52


6 - Comparaison des solutions et réflexions sur les vols de drones

Erreur moyenne sur les points de contrôle en fonction du


nombre de photos sur lesquelles les points de calage sont
renseignés - Vol Nadiral - Pix4D
0,012

Erreur moyenne (m) 0,010

0,008

0,006

0,004

0,002

0,000
2 photos 3 photos 4 photos 5 photos
Solution B 0,010 0,011 0,010 0,012
Solution A 0,004 0,004 0,004 0,004

Figure 33: Erreur moyenne sur les points de contrôle en fonction du


nombre de photos sur lesquelles les points de calage sont renseignés -
Vol Nadiral

Comme nous pouvions nous y attendre, les erreurs sont plus faibles avec les données acquises à
partir de la solution A. On peut cependant noter que celles-ci sont toujours de l’ordre de la taille de
pixel au sol :
 La taille de pixel au sol est de l’ordre de 0.4 cm pour la solution A, ce qui est la valeur de
l’erreur moyenne trouvée.
 La taille de pixel au sol est d’environ 1.2 cm pour la solution B, ce qui correspond
également à la valeur trouvée ici.

6.3 – Bruit dans le nuage de points


Nous pouvons ensuite effectuer le test
de bruit dans le nuage de points. Nous
suivons la même méthodologie que pour
la comparaison des logiciels.
Des carrés ont été découpés dans le
nuage de point sur deux zones planes.
Des plans ont été créés dans
CloudCompare. Les erreurs lors de la
création de ces plans ont été ensuite
analysées. Figure 34 : Capture d'écran dans CloudCompare

Photogrammétrie et Modélisation 3D par images de drones 53


6 - Comparaison des solutions et réflexions sur les vols de drones

Pix4D
Scanner Solution B Solution A

Nombre de points 428 257 668


Zone 1 : Muret
RMS (mm) 2,9 12,6 2,6
Nombre de points 330 166 408
Zone 2 : Escalier
RMS (mm) 1,4 8,9 2,0

Tableau 12:Erreurs lors de la création d'un plan - Test de bruit entre les solutions

Le nuage de points issu de la solution « B » est plus bruité et moins dense que celui issu de la
solution « A » sur les zones étudiés. Ceci peut être expliqué par les facteurs cités lors du premier
point de ce chapitre.
De plus, les résultats du scanner par rapport à la photogrammétrie, particulièrement par rapport à la
solution « A » peuvent interpeler. Nous les expliquons par le fait que les zones étudiées soient des
plans horizontaux. Elles sont donc rasantes pour le scanner. C’est un cas fortement défavorable. Au
contraire, elles offrent un cas favorable à la photogrammétrie, car les images sont prises de façon
nadirales. Les zones étudiées sont donc photographiées de face.

6.4 – Orthophotographies
Nous avons également porté attention aux orthophotos générées à partir des deux solutions.
Lors du vol du prestataire « B », un rayon de soleil s’est montré. Le temps d’ouverture était constant
et compensé par l’ouverture du diaphragme. Il en a résulté des différences de netteté entre les
images, qui ont été difficiles à corriger.
Ce problème n’est pas à totalement dû à la solution « B », mais confirme également la nécessité
d’effectuer les prises de vue dans les mêmes conditions d’éclairement. Un temps nuageux est idéal
pour voler.
La taille des pixels des orthophotos générées est d’un centimètre.

Figure 35: Extraits des orthophotos de la zone A. Dans l'ordre : Solution A et Solution B

Photogrammétrie et Modélisation 3D par images de drones 54


6 - Comparaison des solutions et réflexions sur les vols de drones

Figure 36 : Extraits des orthophotos de la zone B. Dans l'ordre : Solution A et Solution B

Nos tests montrent donc de meilleurs résultats avec les photos prises par le drone dans la solution
« A ». Qu’est ce qui a permis cette amélioration ? Un paramètre est-il prépondérant par rapport aux
autres ? Dans l’état actuel de nos connaissances, nous ne pouvons pas répondre à ces questions. Il
serait toutefois logique qu’une meilleure résolution de photos donne au final des ortho
photographies de meilleure qualité.

6.5 – Cahier des charges drone


Suite à ces résultats, un cahier des charges a été rédigé pour les futurs chantiers de drones. Le
document complet se trouve en annexe H.
Celui-ci comporte deux aspects principaux : les caractéristiques de la caméra à utiliser et le plan de
vol à suivre.
Concernant la caméra, on retrouve les principes
habituels de la photogrammétrie.
La focale doit être fixe, l’ouverture du diaphragme
également. La sensibilité du capteur doit être la
plus faible possible. Une sensibilité de 100 ISO est
recommandée. Il est aussi nécessaire de s’assurer
que l’objet d’intérêt sera compris entre le premier
et le dernier plan net.
Dans le cadre d’un vol de drone en
photogrammétrie, il est également nécessaire
d’avoir un dispositif anti-vibrations pour
minimiser les phénomènes de flou sur les images.
La partie concernant le plan de vol comporte
quelques spécificités propres aux drones.
Un drone vole généralement bien plus bas qu’un
Figure 37 : Schéma montrant les prises de
avion. On s’aperçoit de l’apport des prises de vues
vues obliques dans le cadre d'un vol nadiral
obliques, ce qui avait déjà été montré dans l’article
par drone.
de la CNR (Faure & Al [2014]). Celles-ci
permettent d’une part de rigidifier le modèle global, de par leur plus grande emprise sur la scène.
Elles sont également utiles lors de la densification du nuage de points. En utilisant uniquement des
photos nadirales, les murs horizontaux sont beaucoup mieux représentés que ceux verticaux. En
effet ces derniers sont vus de manière rasante par la caméra. Les images obliques permettent

Photogrammétrie et Modélisation 3D par images de drones 55


6 - Comparaison des solutions et réflexions sur les vols de drones

d’augmenter le nombre de points et la qualité de la modélisation pour ces zones.


Chez TPLM-3D, après consultation de nos différents prestataires, nous avons décidé d’effectuer des
prises de vues obliques tel que résumé dans la figure ci-dessus.
Des images seront prises à chaque fin de bande, en direction du centre de la bande. Deux images
seront également prises en milieu de bande, en direction des extrémités.
D’autres aspects plus classiques de la photogrammétrie aérienne sont également abordés dans le
cahier des charges tels que les pourcentages de recouvrement entre les photos, la taille du pixel au
sol ou encore le format des images livrées.
Les aspects relatifs à la sécurité sont également évoqués. Une autorisation préfectorale est
nécessaire pour effectuer un vol. Le prestataire devra donc en faire parvenir une copie à TPLM-3D
avant le chantier. De plus, le chantier sera balisé pour éviter toute intrusion de personnes extérieures.

Photogrammétrie et Modélisation 3D par images de drones 56


7 - Conclusions et
Perspectives

Ce projet de fin d’études, intitulé « Photogrammétrie et Modélisation 3D par images de drones »


portait sur deux aspects principaux :

 Le choix d’un nouveau logiciel adapté aux travaux photogrammétriques de la société


TPLM-3D.
Les trois logiciels comparés lors de cette étude sont le suisse Pix4D, le russe PhotoScan ainsi que le
français MicMac.
Nos tests portent sur le fonctionnement des logiciels (calibration de caméra, géolocalisation), et sur
leurs produits (nuages de points, ortho photos). Ceux-ci ont été effectués avec les même données
d’entrée, afin d’obtenir des résultats comparables. C’est le logiciel Pix4D qui fut finalement choisi à
l’issu de cette étape.
En effet, les erreurs calculées sur les points de contrôle sont plus faibles que pour les autres logiciels.
Le nuage de points générés avec les images du vol suivant la façade était le plus proche du nuage
généré par le scanner laser. Les orthophotos générées étaient également de meilleur qualité
esthétique comme radiométrique.
Le nuage de Pix4D n’était cependant pas le moins bruité. C’est le logiciel russe PhotoScan qui a le
mieux réussi ces tests.
Notons également que le suisse est le plus simple d’utilisation. La prise en main de ce logiciel est
très simple, même sans être un spécialiste de la photogrammétrie.
Des modes opératoires pour les logiciels Pix4D et MicMac ont été rédigés. Une formation du
personnel au logiciel suisse est également organisée.

 L’étude des performances et des spécificités d’une technologie en plein essor, la


photogrammétrie avec acquisition des images par drone.
Nous avons fait appel à deux prestataires pour voler sur notre site test. Deux vols ont été effectuées :
l’un nadiral et le deuxième selon la façade du bâtiment. Ces prestataires utilisaient des drones et des
modes opératoires différents.
Nous avons effectué avec les données acquises par les deux solutions les mêmes tests que
précédemment pour la comparaison des logiciels. Ceci nous a permis d’engranger des
connaissances sur ce nouveau mode d’acquisition d’images.
L’aboutissement de cet aspect de l’étude a été la réalisation d’un cahier des charges pour les
prestataires drones.
Nous avons abordé la question des réglages de la caméra. Le plan de vol d’un drone est également
particulier. Il est en effet préférable de prendre également des images obliques, ce qui diffère d’un

Photogrammétrie et Modélisation 3D par images de drones 57


7 - Conclusions et Perspectives

vol aérien classique. Ce cahier des charges permettra à TPLM-3D de gérer aux mieux ses futurs
chantiers nécessitant l’utilisation d’un drone.
Cette étude a permis de comprendre l’intérêt du drone pour les usages photogrammétriques. Elle a
également donné à TPLM-3D de nouveaux moyens pour répondre aux besoins de ces clients.

De plus, nous pouvons imaginer de futurs développements à cette étude :


 L’un des aspects de notre étude concerne les logiciels. Nous avons constaté que ceux-ci
évoluent constamment et que de nouvelles versions sont régulièrement disponibles. Cette
étude compare donc ces solutions à une certaine date. Suivre l’évolution des performances
des logiciels peut être intéressant. En effet les choses ne sont pas figées et la meilleure
solution d’aujourd’hui n’est peut-être pas celle de demain.

 Nous avons pendant notre étude évoqué l’intérêt des images obliques. Il n’y en avait
cependant pas dans nos données test. Il serait intéressant de répéter ces tests avec deux jeux
de données :
 Le premier constitué d’images seulement nadirales, telles que celles que nous avons
testés pendant notre étude.
 le deuxième dans lequel nous aurions rajouté des images obliques, suivant le cahier des
charges rédigé pour TPLM-3D.
Nous pourrons ainsi quantifier les progrès réalisés avec la nouvelle méthodologie de prise de
vues, mise au point lors de ce projet.

Photogrammétrie et Modélisation 3D par images de drones 58


Bibliographie

Thèses et Projets de fin d'études


Chavant P. (2013) Évaluation absolue de méthodes de localisation et de reconstruction
panoramique d’un tunnel à partir d’un nuage de points de référence, Master thesis, INSA de
Strasbourg

Fehrenbach N. (2014) Création de modèles numériques d’élévation pour intégration de


projets architecturaux via l’acquisition de données photogrammétriques par drone, Master
thesis, INSA de Strasbourg

Morten Odegaard Nielsen (2004), True Orthophoto Generation, Master thesis, Technical
University of Denmark, Department of Informatics and Mathematical Modelling.

Trochon M. (2012) Analyse des méthodes photogrammétriques de corrélation d'images pour


l'étude d'un ouvrage rocheux, Master thesis, INSA de Strasbourg

Ouvrage, revues et articles


Bay Herbert, Ess Andreas, Tuytelaars Tinne et Van Gool Luc, [2008], Speeded-Up-Robust-
Features (SURF), Computer Vision and Image Understanding (CVIU), Vol 110, N°3, p 346-
359

Colomina I. & Molina P. (2014), Unmanned aerial systems for photogrammetry and remote
sensing : A review, ISPRS Journal of Photogrammetry and Remote sensing N°92, p 79-97

Faure P., Tournade V., Beilin J. et Pierrot-Deseilligny M., [2014], Métrologie par
photogrammétrie aéroportée légère appliquée aux digues, Revue XYZ N°141, p 47-53/84

Fehrenbach N., [2014], Utilisation et intérêt des drones dans un cabinet de géomètre expert,
Archimed-GE, Revue XYZ N°141, p 30-33/84

Gini R., Pagliari D., Passoni D., Pinto L., Sona G. et Dosso P. (2013), UAV
Photogrammetry : Block triangulation comparaison, International Archives of the
Photogrammetry, Remote Sensing and Spatial Informations Sciences, Vol XL-1/W2

Photogrammétrie et Modélisation 3D par images de drones 59


Bibliographie

Gruen A., Huang T.S, Thomas S, Armin, [2001], Calibration and Orientation of Cameras in
Computer Vision, Vol 34, Springer-Verlag Berlin Heidelberg, ISBN 978-3-662-04567-1,
102-109/239

Grussenmeyer P., Al Khalil O. (2002) Solution for exterior orientation in photogrammetry a


review. The photogrammetric record, an international journal of photogrammetry, pp.615-
634

Houin G, Hopp S. et Debuisson D., [2014], Drones : quels usages pour la topographie ?,
Revue XYZ N°141, p 38-41/84

Juan Luo et Gwon Oubong (2009), A Comparison of SIFT, PCA-SIFT and SURF,
International Journal of Image Processing, IJIP, Vol. 3, No. 4, p 143-152

Karl Kraus (1997) Photogrammetry Volume 1 : Fundamentals and Standard Processes,


Ummler, Bonn, ISBN 3-427-78684-6, 397p

Karl Kraus (1997) Photogrammetry Volume 2 : Advanced Methods and Applications,


Ummler, Bonn, ISBN 3-427-78694-3, 466p

Lowe D. (1999), Object Recognition from Local Scale-Invariant Features, International


Conference of Computer Vision, Corfou, p 1150-1157

Morel J-M. et Yu G. (2009), ASIFT: A new framework for fully affine invariant image
comparison, In SIAM Journal on Imaging Sciences, p 438-469

Remondino F., del Pizzo S., Kersten T. et Troisi S. (2012), Low-cost and open-source
solutions for automated images orientation – a critical overview, Progress in Cultural
Heritage Preservation, 4th International Conference, EuroMed 2012, Limassol, Cyprus,
October 29 – November 3, 2012, p 40-57

Rodriguez-Gonzalvez P., Gonzalez-Aguilera D., Lopez-Jimenez G.,Picon-Cabrela I. (2014),


Image-based modeling of built environment from an unmanned aerial system, Automation
in Construction, Volume 48, Decembre 2014, p 44-52

Wiggenhagen M. (2002) Calibration of Digital Consumer Cameras for Photogrammetric


Applications, The International Archives of the Photogrammetry, Remote Sensing and
Spatial Information Sciences,

Documents et Notices d'utilisation


Agisoft PhotoScan User Manual, Professional Edition Version 1.1 [2014]

MATIS [2014], MicMac, Apero, Pastis and other beverages in a nutshell

IGN [2011], TAPEnADe : Tools and Acquisition Protocols for Enchancing Artefacts
Documentation

Photogrammétrie et Modélisation 3D par images de drones 60


Bibliographie

Supports de cours
Grussenmeyer P. [2013], Photogrammétrie 1, INSA de Strasbourg

Grussenmeyer P. [2013], Photogrammétrie 2, INSA de Strasbourg

Grussenmeyer P. [2014], Photogrammétrie 3, INSA de Strasbourg

MATIS [2015], Formation MicMac Juin 2015, ENSG

Rantala J. [2014], Maa-123.3510 GIS Analysis and Modelling

Rönnholm P. [2014], Maa-57.3100 Käytännön fotogrammetria, Aalto University, School of


Engineering

Sites internet
123DCatch@[2015], Autodesk 123DCatch
http://www.123dapp.com/

AFT@[2015], Association Française de Topographie


http://www.aftopo.org

MicMac@[2015], Forum MicMac


http://forum-micmac.forumprod.com/

Photosynth@[2015], Photosynth
https://photosynth.net/

Pix4D[2015], Support – Pix4D


https://support.pix4d.com/hc/en-us

VisualSFM@[2015], VisualSFM : A Visual Structure from Motion System


http://ccwu.me/vsfm/

Photogrammétrie et Modélisation 3D par images de drones 61


Bibliographie

Photogrammétrie et Modélisation 3D par images de drones 62


Tables
Tables des illustrations
Figure 1 : Logo de TPLM-3D (@TPLM3D[2015]) ................................................................ 5
Figure 2:Erreurs de reprojection moyenne absolue sur les points d'appuis (Faure & al 2014)
........................................................................................................................................... 13
Figure 3 : Distribution des points homologues et multiplicité. En haut Pix4D, en bas
Photoscan. (Gini et al. (2013) ............................................................................................ 14
Figure 4 : Résultats de Remondino (2012) concernant les cas de la place Navone et du
phare.................................................................................................................................. 15
Figure 5 : Photo de situation de la zone traitée ( Houin et al.[2014]) ................................. 16
Figure 6: Cas du changement d'échelle - SIFT à gauche (10 points mis en correspondance
sur 66 détectés), SURF à droite (10 sur 26) [Juan, 2009].................................................. 23
Figure 7 : Image et sa différence gaussienne de paramètre 10 pixels. Les valeurs
numériques de la différence étant faible (entre 0 et 40), l'histogramme de celle-ci a été
modifié. .............................................................................................................................. 24
Figure 8: Descripteur SIFT (Lowe 2004) ............................................................................ 25
Figure 9 : Subdivision de niveau 4 (Chavant[2013]) .......................................................... 27
Figure 10 : Création d'une orthophoto (Rönnholm[2014]) .................................................. 28
Figure 11 : Orthophotographies crées en utilisant un MNT (gauche) ou un MNE (droite)
(Rönnholm[2014]) Celle de droite est donc une vraie orthophoto ...................................... 29
Figure 12 : Situation de Saint Laurent d'Agny Source : OpenStreetMap .......................... 32
Figure 13 : Position des points de calage sur la façade ..................................................... 33
Figure 14 : Position des points de contrôle et de calage pour le vol nadiral ...................... 33
Figure 15: Positions du scanner ........................................................................................ 34
Figure 16: Drones et exemples de photos nadirales prises avec les deux solutions ......... 35
Figure 17 : Représentation des vols nadiraux – Vue de dessus - Solution A en rouge,
Solution B en bleu - Impression d'écran 3DReshaper, sans échelle .................................. 36
Figure 18 : Représentation des vols nadiraux - Vue de coté - Solution A en rouge, Solution
B en bleu - Impression d'écran 3DReshaper sans échelle ................................................ 36
Figure 19: Position des caméras pour le vol de façade - Vue de coté ............................... 37
Figure 20 : Position des caméras pour le vol de façade - Vue de dessus .......................... 37
Figure 21: Schéma de deux caméras ayant la même emprise au sol et le même capteur
mais des hauteurs de vol différentes ................................................................................. 42

Photogrammétrie et Modélisation 3D par images de drones 63


Tables

Figure 22 : Position des points homologues sur l'image où se situe la faute de Pix4D ...... 42
Figure 23: Erreur moyenne sur les points de contrôle en fonction du nombre de photos sur
lesquelles les points de calage sont renseignés - Vol Nadiral - Solution B ........................ 44
Figure 24 : Zone traitée avec Cloud Compare – Nuage généré avec MicMac................... 45
Figure 25 : Histogramme des écarts du nuage PhotoScan (Capture d'écran) ................... 46
Figure 26 : Histogramme des écarts du nuage Pix4D (Capture d'écran) ........................... 46
Figure 27: Histogramme des écarts du nuage MicMac (capture d'écran) .......................... 46
Figure 28: Localisation des deux plans utilisés pour le test de bruit .................................. 47
Figure 29 : Zones à comparer dans les différentes orthophotos ........................................ 48
Figure 30: Extrait de la carte de corrélation de MicMac pour le vol nadiral ........................ 49
Figure 31: Extraits des orthophotos de la zone A. Dans l'ordre : Pix4D, PhotoScan et
MicMac .............................................................................................................................. 49
Figure 32: Extraits des orthophotos de la zone B. Dans l'ordre : Pix4D, PhotoScan et
MicMac .............................................................................................................................. 50
Figure 33: Erreur moyenne sur les points de contrôle en fonction du nombre de photos sur
lesquelles les points de calage sont renseignés - Vol Nadiral............................................ 53
Figure 34 : Capture d'écran dans CloudCompare (Impression d'écran) ............................ 53
Figure 35: Extraits des orthophotos de la zone A. Dans l'ordre : Solution A et Solution B . 54
Figure 36 : Extraits des orthophotos de la zone B. Dans l'ordre : Solution A et Solution B 55
Figure 37 : Schéma montrant les prises de vues obliques dans le cadre d'un vol nadiral
par drone. .......................................................................................................................... 55

Table des Tableaux


Tableau 1:Comparaison des performances des logiciels Pix4D et Photoscan................... 14
Tableau 2: Résumé des solutions envisagées ................................................................... 17
Tableau 3 : Erreurs moyennes sur les points relevés avec le Leica TCRA1200 ................ 34
Tableau 4 : Caractéristiques des différentes solutions ....................................................... 35
Tableau 5 : Caractéristiques des vols effectués avec les deux solutions ........................... 36
Tableau 6 Données de calibration de la caméra pour le vol nadiral effectué par la solution
B ........................................................................................................................................ 40
Tableau 7 : Données de calibration de la caméra pour le vol de façade - Solution B ........ 41
Tableau 8 : Coordonnées des caméras - Écart entre la moyenne des résultats des logiciels
et les coordonnées données par un seul logiciel – Vol nadiral – Solution B ...................... 41
Tableau 9 : Coordonnées des caméras - Écart entre la moyenne des résultats des logiciels
et les coordonnées données par un seul logiciel – Vol nadiral – Solution B ...................... 43
Tableau 10 : Distance entre les points issus de la photogrammétrie et du scanner - Étude

Photogrammétrie et Modélisation 3D par images de drones 64


Tables

réalisée avec CloudCompare ............................................................................................. 45


Tableau 11 : Erreurs lors de la création d'un plan - Test de bruit entre les logiciels ........... 47
Tableau 12:Erreurs lors de la création d'un plan - Test de bruit entre les solutions............ 54

Photogrammétrie et Modélisation 3D par images de drones 65


P ROJET DE F IN D 'E TUDES EN
TOPOGRAPHIE
Auteur : Thibaut Dudka Promotion : Topographie 2015
Titre : Photogrammétrie et Modélisation 3D par images drone au sein de TPLM-3D
Soutenance : 23 Septembre 2015
Structure d'accueil :
TPLM-3D
1 Rue Édouard Prénat
69700 Givors
Nombre de volumes : 1 Nombre de pages : 66
Nombre de références bibliographiques : 35

Résumé : Le drone est une technologie en développement rapide. De nombreuses questions se


posent quant à son utilisation pour l’acquisition d’images lors de projets photogrammétriques. Il peut
représenter un complément au scanner pour certains chantiers.
Ce projet de fin d’études se décompose en deux axes : logiciel et drone. Deux prestataires ont fait
voler leur drone au-dessus et le long de la façade d’une chapelle. Dans un premier temps, les photos
de l’un d’entre eux sont utilisées pour choisir le meilleur logiciel de photogrammétrie. Un mode
opératoire sera rédigé. Dans un deuxième temps, ce logiciel est utilisé pour comparer les solutions
proposées par les deux prestataires. L’expérience acquise nous permet de rédiger un cahier des
charges pour les prestataires adapté aux spécificités de cette nouvelle méthode.

Mots clés : Photogrammétrie, Drone, Logiciel, Méthodes

Summary: Drones are part of a fast growing technology. Many questions exist about their use for
image acquisition and their use in photogrammetry. In some cases, drones could be a complementary
solution for laser scanning.
This master thesis has two aspects: software and drone use. Two providers have flown with their
equipment over a chapel and along a facade. At first, pictures of one of them are used to test
photogrammetric softwares and to choose the best one of them. Then, a modus openrandi about this
is written. Afterwards, we use this software to compare our two providers' methods. We learn about
specificities of UAV flights. This knowledge is usefull when writing the technical specifications for
our futures providers.

Key words : Photogrammetry, UAV, Software, Methods

Photogrammétrie et Modélisation 3D par images de drones 66