Return to search

A versatile and efficient data fusion methodology for heterogeneous airborne LiDAR and optical imagery data acquired under unconstrained conditions

Thèse en cotutelle : Université Laval Québec, Canada et École nationale supérieure des télécommunications de Bretagne Brest, France / La nécessité et l’importance de représenter une scène en 3-D ont été illustrées par de nombreuses applications en télédétection, telles que la planification urbaine, la gestion des catastrophes, etc. Dans ces applications, les données issues du LiDAR et de l’imagerie optique aérienne et satellitaire ont été largement utilisées. Il existe une complémentarité entre les données issues du LiDAR aéroporté et de l’imagerie optique aérienne/satellite, qui motive la fusion de ces données permettant de représenter des scènes observées en 3-D avec une meilleure précision et complétude. Ces dernières années, l’extraction automatique de l’empreinte des bâtiments dans les scènes urbaines et résidentielles est devenue un sujet d’intérêt croissant dans le domaine de la représentation et de la reconstruction de scènes en 3-D. Avec l’augmentation de la disponibilité d’une quantité massive de données capturées par différents capteurs LiDAR et d’imagerie installés sur des plateformes aériennes et spatiales, de nouvelles opportunités se présentent pour effectuer cette tâche à grande échelle. Cependant, les méthodes de fusion existantes considèrent généralement soit des systèmes d’acquisition hybrides composés de LiDAR et de caméras optiques fixés rigidement, soit des jeux de données acquis à partir de la même plateforme à des dates identiques ou très proches, et ayant la même résolution spatiale. Elles n’ont pas été conçues pour traiter des jeux de données acquis avec des plateformes différentes, dans différentes configurations, à des moments différents, ayant des résolutions spatiales et des niveaux de détail différents. Un tel contexte est appelé contexte d’acquisition non-contraint. D’autre part, l’extraction automatique de l’empreinte des bâtiments à grande échelle est une tâche complexe. Des méthodes existantes ont obtenu des résultats relativement significatifs mais en définissant des formes a priori pour les bâtiments, en imposant des contraintes géométriques, ou en se limitant à des zones spécifiques. De telles hypothèses ne sont plus envisageables pour des jeux de données à grande échelle. Ce travail de recherche est consacré au développement d’une méthode versatile de recalage grossier puis fin de jeux de données collectés selon un contexte d’acquisition non-contraint. Il vise à surmonter les défis associés à ce contexte tels que le décalage spatial entre les jeux de données, la différence de résolution spatiale et de niveau de détail, etc. De plus, ce travail de recherche propose une méthode d’extraction efficace des empreintes des bâtiments, offrant un niveau de précision élevé tout en étant une méthode non-supervisée dédiée aux applications à grande échelle. La méthode proposée, appelée “Super-Resolution-based Snake Model” (SRSM), consiste en une adaptation des modèles de snakes—une technique classique de segmentation d’images—pour exploiter des images d’élévation LiDAR à haute résolution générées par un processus de super-résolution. Il se rapporte au contexte d’acquisition de données non-contraint, servant d’exemple d’application de premier ordre. Des résultats pertinents ont été obtenus lors des évaluations rigoureuses des méthodes proposées, à savoir un niveau de précision hautement souhaitable par rapport aux méthodes existantes. Mots-clés : LiDAR aéroporté, imagerie optique satellitaire et aérienne, recalage de données, information mutuelle, super-résolution, scènes urbaines, extraction de bâtiments, grande échelle.

Identiferoai:union.ndltd.org:LAVAL/oai:corpus.ulaval.ca:20.500.11794/67964
Date02 February 2024
CreatorsNguyen, Thanh Huy
ContributorsLe Caillec, Jean-Marc, Daniel, Sylvie
Source SetsUniversité Laval
LanguageEnglish
Detected LanguageFrench
Typethèse de doctorat, COAR1_1::Texte::Thèse::Thèse de doctorat
Format1 ressource en ligne (xi, 156 pages), application/pdf
Rightshttp://purl.org/coar/access_right/c_abf2

Page generated in 0.0026 seconds