• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 424
  • 115
  • 49
  • 4
  • Tagged with
  • 583
  • 250
  • 248
  • 244
  • 109
  • 101
  • 86
  • 72
  • 61
  • 61
  • 58
  • 57
  • 52
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Estimation de l'humidité du sol à l'aide d'images RADARSAT-2 et de réseaux de neurones : application aux bassins versants Trent et Severn, Ontario

Desbiens, Guillaume January 2017 (has links)
L’humidité du sol joue un rôle important dans le partitionnement de l’eau entre l’infiltration et le ruissellement de surface, qui influence directement les débits en rivière et les niveaux des réservoirs. La connaissance de la distribution spatiale de l’humidité du sol permet donc d’optimiser les différents usages de la ressource en eau en périodes sèches et d’aider la prévision et la gestion d’inondations lors de fortes pluies. La grande variabilité spatiale de l’humidité du sol rend toutefois difficile l’utilisation de capteurs in situ pour en faire le suivi sur de grands territoires tels que les bassins versants. La télédétection peut apporter une valeur ajoutée de par son potentiel pour estimer l’humidité du sol à l’échelle du bassin versant. Le présent projet porte sur l’estimation de l’humidité du sol dans les bassins versants Trent et Severn en Ontario qui possèdent une superficie combinée de 18 360 km². L’approche adoptée est basée sur les réseaux de neurones artificiels (RNA). Deux approches ont été évaluées. La première, l’approche polarisation simple et double utilise uniquement des données radar acquises en polarisation HH ou HV. La seconde approche, soit l’approche polarimétrique, utilise des données en polarisation HH, HV et VV en plus de paramètres polarimétriques. Au total, 37 images RADARSAT-2 ont été acquises en différentes polarisations et résolutions spatiales entre les mois de mai 2012 et août 2013. En plus des coefficients de rétrodiffusion radar, des données de pente, de texture du sol et de végétation ainsi que des paramètres obtenus suite à une décomposition polarimétrique de la cible ont été utilisés comme intrants aux RNA. Des cartes d’humidité du sol moyenne et d’incertitude, représentant, dans l’ordre, la moyenne et l’écart-type des estimations faites par les 30 RNA sélectionnés, ont été produites. Les performances et les cartes obtenues ont été analysées afin de déterminer l’approche la plus avantageuse pour cartographier l’humidité du sol à l’échelle du bassin versant. Ce projet de recherche a illustré le potentiel, mais aussi les enjeux, liés à l’estimation de l’humidité du sol à l’échelle du bassin. Il a été démontré que, dans un contexte opérationnel, l’approche polarisation simple et double est la plus avantageuse. Les cartes d’humidité produites avec l’approche polarimétrique, plus coûteuses, n’ont pas montré d’améliorations statistiquement significatives par rapport à l’approche polarisation simple et double. De tous les RNA testés, celui offrant la meilleure performance utilise l’angle d’incidence et les coefficients de rétrodiffusion radar HH et HV comme données d’entraînement. Il a aussi été démontré que l’incertitude sur l’estimation de l’humidité du sol est étroitement liée aux données d’entraînement. Le recours à des variables statiques dans le temps, comme la texture du sol, a affecté négativement et de manière importante les cartes d’humidité du sol, et ce, malgré de bonnes performances selon des critères statistiques comme le coefficient de Pearson et l’erreur quadratique moyenne. L’analyse visuelle des cartes d’humidité du sol demeure donc un moyen privilégié pour évaluer la performance des RNA. Des pistes de recherche sont suggérées en vue d’améliorer la performance des RNA. Une première avenue serait le recours à une plus grande quantité de données pour leur entraînement, qui pourraient être générées à partir de modèles de rétrodiffusion à base physique. On pourrait également corriger les coefficients de rétrodiffusion pour diminuer l’influence de la végétation sur le signal rétrodiffusé avant l’entraînement des réseaux.
12

Analyse du potentiel de la radiométrie infrarouge thermique pour la caractérisation des nuages de glace en Arctique

Blanchard, Yann January 2011 (has links)
An important goal, within the context of improving climate change modelling, is to enhance our understanding of aerosols and their radiative effects (notably their indirect impact as cloud condensation nuclei). The cloud optical depth (COD) and average ice particle size of thin ice clouds (TICs) are two key parameters whose variations could strongly influence radiative effects and climate in the Arctic environment. Our objective was to assess the potential of using multi-band thermal radiance measurements of zenith sky radiance for retrieving COD and effective particle diameter (Deff) of TICs in the Arctic. We analyzed and quantified the sensitivity of thermal radiance on many parameters, such as COD, Deff, water vapor content, cloud bottom altitude and thickness, size distribution and shape. Using the sensitivity of IRT to COD and Deff, the developed retrieval technique is validated in comparison with retrievals from LIDAR and RADAR. Retrievals were applied to ground-based thermal infrared data acquired for 100 TICs at the high-Arctic PEARL observatory in Eureka, Nunavut, Canada and were validated using AHSRL LIDAR and MMCR RADAR data. The results of the retrieval method were used to successfully extract COD up to values of 3 and to separate TICs into two types : TIC1 characterized by small crystals (Deff < 30 [micro]m) and TIC2 by large ice crystals (Deff > 30 [micro]m, up to 300 [micro]m). Inversions were performed across two polar winters. At the end of this research, we proposed different alternatives to apply our methodology in the Arctic.
13

Estimation de la hauteur de la base de la couronne vivante avec lidar scanneur à retours multiples

Laforme, Mathieu 08 1900 (has links) (PDF)
Au cours des dernières années, on a assisté à un virage vers une gestion plus durable de la forêt publique et des ressources forestières. Pour ce faire, il est nécessaire d'acquérir des informations précises sur le statut des forêts. Ceci permettra, d'une part, de mieux évaluer les ressources disponibles et, d'autre part, de faire un meilleur suivi de leur dynamique afin, par exemple, de mieux comprendre et de prévoir les impacts de l'activité sylvicole. Il a été démontré que les capteurs lidars pouvaient être utilisés afin d'obtenir des données pouvant être segmentées afin de décrire assez fidèlement la géométrie de la couronne d'arbres individuels. Parmi les attributs de la forêt pouvant être extraits de ces données, la hauteur de la base de la couronne vivante est probablement un de ceux pour lequel le potentiel du lidar a été le moins étudié et ce, malgré l'importance que la connaissance de ce paramètre peut avoir pour, par exemple, le calcul de la biomasse ou la prévention des feux de forêts. Une nouvelle méthode permettant d'estimer la hauteur de la couronne vivante à partir de données lidar est proposée. Les données utilisées pour la recherche ont été acquises au Québec, sur le territoire de la forêt d'enseignement et de recherche du Lac Duparquet. Les trois espèces à l'étude sont le peuplier faux-tremble, l'épinette blanche et le pin gris. L'appareil lidar utilisé pour acquérir les données est un capteur ALTM3100 de Optech permettant l'enregistrement des premiers et derniers retours, ainsi que jusqu'à deux retours intermédiaires. La méthode présentée a donné un biais de -1.37 mètres et une erreur type de 2.36 mètres. Ces résultats sont comparables à ceux obtenus par d'autres auteurs et semblent confirmer leur observation que le lidar à tendance à surestimer la hauteur de la base de la couronne. Il est noté que cette tendance à surestimer la mesure n'est pas systématique; elle semble se manifester différemment selon l'espèce. Des hypothèses concernant les différentes variables pouvant affecter la précision des mesures sont avancées. Des pistes pour mieux évaluer leur effet respectif ainsi que deux méthodes pouvant être utilisées pour améliorer l'exactitude et la précision des estimés sont proposées. ______________________________________________________________________________
14

Intégration de données satellitaires dans le modèle ISBA pour le suivi des céréales à paille pluviales et l'estimation de la réserve utile en eau du sol / Integration of satellite data into the ISBA model for monitoring rain-fed straw cereals and estimating the soil maximum available water content

Dewaele, Hélène 04 December 2017 (has links)
Le climat, les sols et les ressources en eau sont des facteurs essentiels de la production agricole et conditionnent la disponibilité des ressources alimentaires mondiales. La nécessité de quantifier, d'évaluer et de prédire les pressions exercées sur les ressources en eau et les ressources agricoles dans un contexte de changement climatique représente un enjeu majeur. Pour répondre à ces problématiques, des modèles numériques du fonctionnement des surfaces continentales sont développés. Ils permettent de simuler de nombreux processus naturels tels que le cycle de l'eau, du carbone, la croissance et la sénescence de la végétation, et les flux à l'interface sol-atmosphère. Ces outils puissants sont très largement utilisés par la communauté scientifique mais présentent de nombreuses incertitudes dans la représentation des différents processus biophysiques pris en compte et dans l'estimation des paramètres qui les pilotent. L'absence de données d'observation de variables clefs du cycle hydrologique ou de variables clefs de la végétation à grande échelle spatiale et temporelle est un frein majeur pour la validation de ces modèles. L'objectif général de ce travail de thèse est d'évaluer dans quelle mesure l'intégration de données satellitaires disponibles depuis une trentaine d'années dans un modèle générique des surfaces continentales permet de mieux représenter les sécheresses agricoles à différentes échelles spatiales. Le modèle ISBA-A-gs développé par le CNRM est utilisé. Il représente la variabilité interannuelle de la biomasse végétale en lien avec les ressources en eau du sol. Des études précédentes ont montré que les simulations du système sol-plante en condition de stress hydrique sont très sensibles à la valeur de la réserve utile du sol, et que la représentation par ce type de modèle de la variabilité interannuelle de la production des céréales à paille est difficile. Une méthodologie de calibration/validation du modèle basée sur l'intégration de séries temporelles satellitaires d'indice de surface foliaire (Leaf Area Index ou LAI) observées à 1km de résolution dans ISBA-A-gs a été développée afin d'estimer la réserve utile du sol pour des cultures de céréales à paille pluviales. Le LAI satellitaire est préalablement désagrégé pour les céréales à pailles. La validation de cette méthodologie est fondée sur la comparaison de la biomasse simulée et des rendements agricoles observés. Une méthode simple de modélisation inverse par minimisation d'une fonction coût a été confrontée à une méthode plus complexe : l'assimilation séquentielle de données. Cette dernière permet de combiner de manière optimale les séries temporelles de LAI observées et simulées par ISBA-A-gs afin de fournir une analyse du LAI, de la biomasse aérienne, et de l'humidité du sol. L'assimilation repose sur la chaîne LDAS-Monde développée par le CNRM. Elle donne des résultats plus réalistes que la modélisation inverse en terme de biomasse simulée et de réserve utile estimée. La représentation de l'impact négatif des sécheresses et des années très humides sur les rendements est améliorée grâce à cette méthode. Les réserves utiles obtenues sur les zones céréalières françaises ont permis la construction d'un modèle de régression linéaire simple permettant d'estimer les réserves utiles directement à partir des valeurs annuelles maximales de LAI satellitaires (LAImax). La cartographie de la réserve utile à partir du LAImax est comparée à la carte au millionième de l'INRA sur la France. La possibilité d'utiliser cette méthode à l'échelle locale est évaluée, ainsi que son extension à d'autres zones agricoles en Eurasie et en Amérique du Nord. / Climate, soils and water resources are essential factors of agricultural production and affect the availability of world food resources. The need to quantify, assess and predict pressures on water resources and agricultural resources in the context of climate change is a major issue. To answer these questions, numerical models of the processes at stake over continental surfaces are developed. They simulate many natural processes such as the water cycle, the carbon cycle, vegetation growth and senescence, and the fluxes at the soil-atmosphere interface. These powerful tools are widely used by the scientific community but present many uncertainties in the representation of the various biophysical processes taken into account and in the estimation of the parameters that drive them. The lack of observation data for key hydrological cycle variables or key vegetation variables of large spatial and temporal scales is a major obstacle to the validation of these models. The general objective of this thesis is to evaluate how the integration of satellite data available over the last thirty years in a generic model of continental surfaces allows a better representation of agricultural droughts at different spatial scales. The ISBA-A-gs model developed by CNRM is used. It represents the interannual variability of plant biomass in relation to soil water resources. Previous studies have shown that simulations of the soil-plant system under water stress conditions are very sensitive to the value of the soil maximum available water content, and that the representation by this type of model of the interannual variability of cereal straw is difficult. A model calibration / validation methodology based on the integration of Leaf Area Index (LAI) satellite time series observed at 1 km resolution in ISBA-A-gs was developed. The objective is to estimate the soil maximum available water content for non-irrigated straw cereal crops. The satellite LAI is first disaggregated for straw cereals. The validation of this methodology is based on a comparison of the simulated above-ground biomass with observed agricultural yields. A simple method of inverse modeling by minimizing a cost function is compared with a more complex method: sequential data assimilation. The latter allows optimal combinations of the LAI time series observed and simulated by ISBA-A-gs to provide an analysis of LAI, above-ground biomass, and soil moisture. The assimilation is based on the LDAS-Monde chain developed by CNRM. It gives more realistic results than inverse modeling in terms of simulated biomass and of soil maximum available water content. The representation of the negative impact of droughts and very wet years on yields is improved by this method. It is found that the soil maximum available water content retrieved on the French cereal areas correlates with the maximum annual values ??of satellite LAI (LAImax). A simple linear regression model can be used to estimate the soil maximum available water content directly from LAImax . The mapping of the soil maximum available water content as derived from LAImax is compared with the one millionth map of INRA over France. The possibility of using this method at a local scale is evaluated, as well as its extension to other agricultural areas in Eurasia and North America.
15

Modélisation Numérique de la Réponse du Radar à la Neige pour Mesurer sa Profondeur avec la Technique de la Rétrodiffusion Multiple / Numerical Modeling of Radar Response to Snow for Snow Depth Retrieval using Multiple Backscattering Measurements

Mazeh, Fatme 07 September 2018 (has links)
L'étude de la neige est un domaine important de la recherche en hydrologie et en météorologie. Il a été démontré que les propriétés physiques de la neige peuvent être récupérées en utilisant des capteurs à micro-ondes actifs. Cela nécessite une compréhension de l'interaction entre les ondes électromagnétiques (EM) et les milieux naturels. Dans ce but, le travail est divisé en deux étapes: étudier numériquement tous les modèles physiques de l'interaction onde-neige et développer un algorithme de diffusion inverse afin d’estimer la profondeur de la neige à partir de mesures de rétrodiffusion par un radar à des fréquences et angles d'incidence différents. L’objectif de la première partie consiste à effectuer les calculs de diffusion à l’aide d’un simulateur électromagnétique bien connu Ansoft High Frequency Structure Simulator (HFSS). Les simulations numériques prennent en considération: la permittivité effective de la neige, les phénomènes de diffusion surfacique dans des structures en couche des milieux homogènes (air-neige-sol) avec interfaces rugueuses ainsi que les phénomènes de diffusion volumique en traitant de la neige comme milieu dense. Par suite, le problème critique dans cette partie est de tester la validité des modèles théoriques à travers une configuration numérique adéquate.Dans la deuxième partie de ce travail, l'étude est étendue pour développer une méthode de récupération pour estimer l'épaisseur de la neige au-dessus du sol en utilisant la technique de mesures en rétrodiffusion en bande L et X (1,5 et 10 GHz) à des angles d'incidence différents. Le signal rétrodiffusé par la neige est influencé par: la diffusion surfacique, la diffusion volumique et les effets du bruit du système radar. Pour cela, le coefficient de rétrodiffusion du milieu est modélisé statistiquement en ajoutant un blanc bruit de fond gaussien (WGN) dans la simulation. Cet algorithme de diffusion inverse nécessite deux étapes de calcul. La première étape consiste à estimer la densité de la neige en utilisant le coefficient de rétrodiffusion co-polarisé en bande L à incidence normale. La deuxième étape consiste à estimer l'épaisseur de la neige à partir de coefficients de rétrodiffusion co-polarisés dans la bande X en utilisant deux différents angles d'incidence. Pour une variance de bruit de fond de 0,02, toutes les valeurs récupérées ont une erreur inférieure à 2% pour une gamme de profondeur de la neige de [50-300] cm. Cet algorithme a été vérifié par simulation à l'aide d’un logiciel de conception au niveau système, SystemVue. / Study of snow is an important domain of research in hydrology and meteorology. It has been demonstrated that snow physical properties can be retrieved using active microwave sensors. This requires an understanding of the interaction between electromagnetic (EM) waves with natural media. The objective of this work is two-fold: to study numerically all physical forward models concerning the EM wave interaction with snow and to develop an inverse scattering algorithm to estimate snow depth based on radar backscattering measurements at different frequencies and incidence angles. For the first part, the goal is to solve the scattering calculations by means of the well-known electromagnetic simulator Ansoft High Frequency Structure Simulator (HFSS). The numerical simulations include: the effective permittivity of snow, surface scattering phenomena in layered homogeneous media (air-snow-ground) with rough interfaces, and volume scattering phenomena when treating snow as a dense random media. So, the critical issue for the first part of this thesis is testing the validity of theoretical models through a careful numerical setup.For the second part, the study is extended to develop a retrieval method to estimate snow thickness over ground from backscattering observations at L- and X-band (1.5 and 10 GHz) using multiple incidence angles. The return signal from snow over ground is influenced by: surface scattering, volume scattering, and the noise effects of the radar system. So, the backscattering coefficient from the medium is modelled statistically by including a white Gaussian noise (WGN) into the simulation. This inversion algorithm involves two steps. The first is to estimate snow density using L-band co-polarized backscattering coefficient at normal incidence. The second is to estimate snow depth from X-band co-polarized backscattering coefficients using two different incidence angles. For a 0.02 noise variance, all retrieved values have an error less than 2% for a snow depth range of [50-300] cm. This algorithm was verified by simulating using Agilent’s SystemVue electronic system level design software.
16

Fusion de sources d'information pour l'interprétation d'images de télédétection moyenne et haute résolution : application à l'inventaire forestier / Information sources fusion for the interpretation of medium and high resolution remote sensing images : application to forest inventory

Ben Dhiaf, Zouhour 28 March 2011 (has links)
Ce travail vise à mettre en place un système de fusion de sources d'information basé sur la Théorie des Fonctions de Croyance (TFC) et adapté aux contextes des images forestières. La TFC engendre des temps de calcul importants lorsque la cardinalité du cadre de discernement devient grande. Ainsi, nous avons proposé en premier lieu une méthode de réduction du référentiel de définition permettant d'éviter l'explosion combinatoire en restreignant le calcul sur les hypothèses estimées pertinentes et déterminées à partir des histogrammes des classes issues de la phase d'apprentissage. Ensuite, nous avons proposé des techniques d'estimation de fonctions de masse spectrales, texturales, contextuelles et structurelles. L'information multi-fractale a été utilisée comme signature de texture, ainsi l'image de Hôlder a constitué une source d'information pour l'estimation de la masse texturale. Un autre apport consiste à proposer une approche de transfert de masse basée sur l'information contextuelle, en exploitant l'image des couronnes d'arbres comme une source déduite. L'implémentation d'algorithmes de détection de couronnes d'arbres nous a permis d'extraire des mesures sur les couronnes que nous avons utilisées en tant qu'attributs pour l'estimation des fonctions de masse. Nos expérimentations montrent des taux de classification assez satisfaisants et une adéquation de notre approche de fusion à une classification à l'arbre près / This thesis aims to develop an information source fusion system based on belief functions theory (BFT) and adapted t forest images context (especially high resolution images). Applications of BFT to image classification result in th assignment of each image point to a c1ass or a subset of classes based on the mass functions estimation expressing th belief of an event. BFT leads to significant computation time when the cardinality of the set of definition become large. Thus, we first proposed a method to reduce the frame of discernment in order te avoid the combinatorial explosio by restricting the calculation on the hypotheses of the set of definition deduced from the classes histograms determine from the learning phase. Then, we proposed spectral, texturai, contextual and structural mass functions technique estimation. Multi-fractal information was used as texture signature and Hôlder image has been a source ( information for estimating the texturai mass. Another contribution is the integration of trees crowns image as derive source and the proposai of an approach to mass transfer based on contextual information inside and outside a crown. Th implementation of detection trees crowns algorithms allowed us to extract measurements on trees. These measurement are used as attributes for mass functions estimation. Our experiments and comparisons with other methods show quit satisfactory classification rate with spectral and textural approaches and adequacy of our fusion approach to contextu and structural information for trees classification
17

Déterminants de la structure et de la dynamique des forêts tropicales à l'échelle du paysage / Determinant of the strcuture and dynamics of tropical forests at the landscape scale

Tymen, Blaise 07 December 2015 (has links)
Cette thèse aborde l'étude du fonctionnement des forêts tropicales à travers trois chapitres. Le premier porte sur la dynamique de la biomasse à l'échelle du paysage. Il apporte une amélioration de l'estimation de la biomasse et des erreurs associées à partir de données de terrain et de données de LiDAR aéroporté (ALS) dans une zone à très forte biomasse. L'approche préconisée par Chave (2014) a été adoptée pour calculer la biomasse et sa dynamique sur les parcelles permanents ce qui a permis d'avoir une relation entre biomasse et médiane de la hauteur de la canopée mesurée grâce à l'ALS. Deux relevés ALS à quatre ans d'intervalle ont ensuite permis de quantifier la biomasse à l'échelle du paysage et sa dynamique. Le second chapitre traite de la dynamique et la structure d'une forêt infestée par des lianes. La combinaison des données de suivis de parcelle, des relevés ALS, de l'étude des sols et de suivi de la dynamique de la litière et des plantules a permis de mettre en évidence un fonctionnement particulier. La dynamique et la structure de la forêt de lianes (beaucoup de perturbations, des arbres plus petits) et le fait que sa présence ne semblait pas lié à des facteurs édaphiques nous ont amené à la considérer comme un état de régénération alternative bloquée de la forêt. Enfin, dans le troisième chapitre, des données issues d'une cinquantaine de capteurs micrométéorologiques et des données d'ALS ont été combinée pour étudier l'hétérogénéité spatiotemporelle des microenvironnements forestiers et les relier à la structure forestière. Deux méthodes de prédiction de l'intensité lumineuse reçue, la température ambiante et l'humidité relative à partir des données d'ALS ont été proposée. Elle permettent de décrire a diversité de ces variable dans un sous-bois tropical. / This thesis is structured in three chapters. In the first one, aerial LiDAR scanning (ALS) data were combine to field measurement of the aboveground biomass to allow a quantification of it at the landscapes scale. Two successive ALS survey were used to quantify AGB stocks and their dynamics. In the second chapter the structure and dynamics of a liana-infested forest is studied. Permanent plot data, soil survey and seedling survey were combined to remote sensing (ALS and Landsat). Together, these data suggest the liana-infested forest to be in an arrested succession. In the third chapter ALS data were used to model light availability, temperature and relative humidity in forest understory. We show this data can be used to predict ecological relevant climatic variable at the landscape scale.
18

Cartographie automatisée des surfaces boisées en milieu urbanisé fondée sur la texture d'images IKONOS panchromatiques

Bugnet, Pierre January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
19

A versatile and efficient data fusion methodology for heterogeneous airborne LiDAR and optical imagery data acquired under unconstrained conditions

Nguyen, Thanh Huy 22 February 2021 (has links)
Thèse en cotutelle : Université Laval Québec, Canada et École nationale supérieure des télécommunications de Bretagne Brest, France / La nécessité et l’importance de représenter une scène en 3-D ont été illustrées par de nombreuses applications en télédétection, telles que la planification urbaine, la gestion des catastrophes, etc. Dans ces applications, les données issues du LiDAR et de l’imagerie optique aérienne et satellitaire ont été largement utilisées. Il existe une complémentarité entre les données issues du LiDAR aéroporté et de l’imagerie optique aérienne/satellite, qui motive la fusion de ces données permettant de représenter des scènes observées en 3-D avec une meilleure précision et complétude. Ces dernières années, l’extraction automatique de l’empreinte des bâtiments dans les scènes urbaines et résidentielles est devenue un sujet d’intérêt croissant dans le domaine de la représentation et de la reconstruction de scènes en 3-D. Avec l’augmentation de la disponibilité d’une quantité massive de données capturées par différents capteurs LiDAR et d’imagerie installés sur des plateformes aériennes et spatiales, de nouvelles opportunités se présentent pour effectuer cette tâche à grande échelle. Cependant, les méthodes de fusion existantes considèrent généralement soit des systèmes d’acquisition hybrides composés de LiDAR et de caméras optiques fixés rigidement, soit des jeux de données acquis à partir de la même plateforme à des dates identiques ou très proches, et ayant la même résolution spatiale. Elles n’ont pas été conçues pour traiter des jeux de données acquis avec des plateformes différentes, dans différentes configurations, à des moments différents, ayant des résolutions spatiales et des niveaux de détail différents. Un tel contexte est appelé contexte d’acquisition non-contraint. D’autre part, l’extraction automatique de l’empreinte des bâtiments à grande échelle est une tâche complexe. Des méthodes existantes ont obtenu des résultats relativement significatifs mais en définissant des formes a priori pour les bâtiments, en imposant des contraintes géométriques, ou en se limitant à des zones spécifiques. De telles hypothèses ne sont plus envisageables pour des jeux de données à grande échelle. Ce travail de recherche est consacré au développement d’une méthode versatile de recalage grossier puis fin de jeux de données collectés selon un contexte d’acquisition non-contraint. Il vise à surmonter les défis associés à ce contexte tels que le décalage spatial entre les jeux de données, la différence de résolution spatiale et de niveau de détail, etc. De plus, ce travail de recherche propose une méthode d’extraction efficace des empreintes des bâtiments, offrant un niveau de précision élevé tout en étant une méthode non-supervisée dédiée aux applications à grande échelle. La méthode proposée, appelée “Super-Resolution-based Snake Model” (SRSM), consiste en une adaptation des modèles de snakes—une technique classique de segmentation d’images—pour exploiter des images d’élévation LiDAR à haute résolution générées par un processus de super-résolution. Il se rapporte au contexte d’acquisition de données non-contraint, servant d’exemple d’application de premier ordre. Des résultats pertinents ont été obtenus lors des évaluations rigoureuses des méthodes proposées, à savoir un niveau de précision hautement souhaitable par rapport aux méthodes existantes. Mots-clés : LiDAR aéroporté, imagerie optique satellitaire et aérienne, recalage de données, information mutuelle, super-résolution, scènes urbaines, extraction de bâtiments, grande échelle.
20

Simulation de détection de débris spatiaux depuis l'espace utilisant Matlab

Vernier, Maxime 06 January 2022 (has links)
Le réseau de surveillance spatiale des États-Unis suit en continu environ 23 000 objets spatiaux en orbite (RSO). L'exhaustivité de leur couverture de la population de RSO diminue progressivement avec la taille de l'objet et la réflectivité radar. Alors que la population de débris spatiaux proche du centimètre est mal représentée dans les catalogues, ces projectiles spatiaux peuvent causer de graves dommages aux satellites et aux engins spatiaux en plus d'être probablement beaucoup plus nombreuses que les gros débris. Ce projet de recherche se concentre sur la possibilité d'observation dans cette population de débris, en utilisant un système d'imagerie à champ large de haute sensibilité, avec une fréquence d'images rapide, dans le domaine du visible à partir d'une orbite terrestre basse. Le simulateur développé se concentre sur le scénario d'un satellite en orbite terrestre basse (LEO) et sa capacité à détecter les débris situés en LEO également. Dans le simulateur Matlab, un simple modèle sphérique spéculaire/diffus est utilisé pour les débris afin de calculer la magnitude apparente de l'objet dans toutes situations Soleil-débris-observateur. Les vitesses et orbites relatives des satellites et des débris sont également prises en compte afin de déterminer la longueur de la trace laissée par les débris sur une séquence d'exposition donnée et le nombre de photons par pixel. Le moment exact, la position, la longueur et l'orientation de la séquence contiennent des informations sur l'orbite de l'objet. La génération des étoiles en arrière-plan adaptées à la haute sensibilité du capteur est également une partie importante du simulateur. Les étoiles affectent la limite de détection des débris traversant le champ de vue. Ce simulateur nous permet de modifier divers paramètres du capteur afin d'optimiser la conception de la caméra. La conclusion de ce travail contribue à l'effort global sur la connaissance de la situation spatiale (SSA) en évaluant l'impact de l'inclusion de l'imagerie optique embarquée dans les systèmes de détection. / The United States Space Surveillance Network catalogs around 23 000 resident space objects. The completeness of their coverage of the true RSO population decreases gradually with object size and radar reflectivity. While the population of centimeter level space debris is poorly represented in the catalogs these space bullets can cause severe damage to satellites and space-crafts in addition to being likely much more numerous than larger pieces. This research project focuses on the ability to peek into this debris population using space-based high sensitivity, fast frame rate, wide field visible imaging from low Earth orbit. The developed simulator focuses on the capacity to obtain their orbits trajectories where the satellite and the space debris are in LEO. In the Matlab simulator, a simple specular/diffuse sphere model is used for the debris in order to generate the object's apparent magnitude for any Sun-debris-observer arrangement. Satellite and debris relative velocities and orbits are also considered in order to determine the length of the streak left by the debris on any given exposure sequence and the number of photons per pixel. The exact timing, position, length and orientation of the streak contains information constraining the object's orbit. The generation of representative star backgrounds matched to the sensor high sensitivity is also an important part of the simulator since it affects the effective limiting sensitivity to faint transiting source. This simulator allows us to trade various sensor parameters in order to optimize the camera design. The conclusion from this work contribute to the global effort in SSA by assessing the impact of including space based optical imagery in the detection mix.

Page generated in 0.091 seconds