• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 206
  • 50
  • 18
  • 1
  • 1
  • 1
  • Tagged with
  • 272
  • 272
  • 126
  • 124
  • 91
  • 54
  • 53
  • 47
  • 36
  • 35
  • 35
  • 34
  • 31
  • 31
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

UN MODELE GEOMETRIQUE ET STRATIGRAPHIQUE DES SEQUENCES DE DEPÔTS QUATERNAIRES SUR LA MARGE DU GOLFE DU LION : ENREGISTREMENT DES CYCLES CLIMATIQUES DE 100 000 ANS

Rabineau, Marina 30 March 2001 (has links) (PDF)
Le Golfe du Lion a fait l'objet de nombreuses explorations depuis les débuts de l'Océanographie. Pourtant, plusieurs questions clefs n'ont pas été résolues et sont toujours l'objet de controverses. Quels sont les mécanismes de dépôts ? Quelle est la durée des séquences enregistrées ? Quelle est la relation entre les séquences sédimentaires, les cycles glacioeustatiques quaternaires et la tectonique ? <br />La zone d'étude d'environ 40 x 40 km est située à la charnière de la plate-forme externe et du haut de pente, dans la partie occidentale du Golfe, au large du Languedoc, où la plate-forme atteint 70 km de large. La base de données est constituée 1) d'un levé sismique Très Haute Résolution (Sparker) dense (espacement de 400 à 1000 m) et 2) d'une dizaine de carottages atteignant 10 m de longueur. L'approche retenue comprend un volet analytique des données géologiques (interprétation des profils sismiques et des carottes par Stratigraphie Sismique et Séquentielle) et un volet de modélisation géométrique et stratigraphique permettant de caractériser, de quantifier et de simuler les séquences sédimentaires reconnues. Cette double approche analytique et modélisatrice, menée de façon concomitante, permet des allers-retours entre la donnée d'origine, le modèle géologique, la valeur des paramètres et les simulations stratigraphiques qui testent plusieurs scenarii géologiques. <br />L'analyse des géométries 3D permet de dégager un motif élémentaire de dépôt constitué par un couple de prismes PI (à clinoformes faiblement pentus <1° déposés en amont de la plate-forme) et PII (à clinoformes fortement pentus d'environ 4 ° déposés en aval de la plate-forme). Ce motif de dépôt, fondamentalement horizontal, est récurrent et sert à la hiérarchisation des unités sismiques en grandes séquences de dépôt. Il correspond à l'enregistrement d'un cycle glacioeustatique de 100 000 ans (interglaciaire-glaciaire) : le prisme PI correspond aux dépôts prodeltaïques de « haut à moyen niveau marin » ; le prisme PII, aux dépôts littoraux de plus bas niveau du maximum glaciaire du cycle. Cette interprétation rejoint celle proposée par Aloïsi en 1986. Au total, cinq séquences correspondant aux cinq derniers cycles glacio-eustatiques sont donc enregistrées sur la plate-forme occidentale du Golfe du Lion. La base des séries étudiées remonte à 540 000 ans (stade isotopique 12). Les cycles très courts (20 000 ans ou moins) ne sont pas clairement exprimés dans les géométries de dépôt. Les conditions hydrodynamiques exercent un contrôle sur les géométries des séquences de dépôts qui peut brouiller ou effacer l'empreinte des cycles climatiques dans les séquences sédimentaires. Les canyons de l'Aude et de l'Hérault sont globalement inactifs pendant les hauts niveaux marins. Pendant les bas niveaux, leur fonctionnement est variable (transport, érosion et dépôt). <br />Les simulations stratigraphiques et la restitution des couples de prismes observés et exceptionnellement bien préservés dans cette zone du Golfe du Lion donnent une signification géologique et valident la transformation « simple » des courbes isotopiques O18/O16 en courbes eustatiques. Cette étude donne aussi la première quantification du taux de subsidence moyenne (totale) de la plate-forme du Golfe du Lion pendant le Pléistocène supérieur à moyen (540 ka). La subsidence prend la forme d'un basculement vers le large qui atteint 250 m/Ma à 70 km de la côte actuelle (en bordure de plate-forme). On a calculé, à partir des géométries visibles sur les profils sismiques pétroliers, un taux de subsidence identique sur l'ensemble du Plioquaternaire ; le taux de subsidence est donc constant depuis 5,3 Ma, il ne crée pas de séquence mais permet la préservation, l'empilement et la reconnaissance des séquences glacioeustatiques successives.
242

Première détermination de la constante de Boltzmann par une méthode optique

Guinet, Mickaël 23 November 2006 (has links) (PDF)
Ce manuscrit présente une expérience totalement nouvelle visant à mesurer la constante de Boltzmann par une méthode de spectroscopie laser. Cette constante est déduite de la largeur à mi-hauteur d'un profil d'absorption linéaire d'un gaz d'ammoniac à température contrôlée. Sur le plan théorique, cette expérience nécessite une analyse très poussée de la forme de raie en absorption linéaire.<br />Dans ce mémoire, je décris les solutions apportées pour obtenir un faisceau laser de fréquence parfaitement contrôlée, largement accordable autour de 10 µm et d'intensité constante. Je décris également les options retenues pour le contrôle en température du gaz d'ammoniac.<br />Les résultats obtenus sont très encourageants, nous avons après seulement 2 ans déjà obtenu une première mesure de la constante de Boltzmann avec une incertitude relative de 1,9X10-4: k=1,38065(26)X10-23 J.K-1.<br />Dans ce manuscrit, je présente également plusieurs voies d'amélioration à court et moyen termes.<br />Je présente enfin une expérience de franges de Ramsey-Bordé référencée sur l'étalon primaire de fréquence localisé à Paris (au SYRTE). La chaîne de mesure absolue de fréquence atteint une résolution de 10-14 et l'incertitude pour la mesure de la frange centrale est également de l'ordre de 10-14. A moyen terme, ce système de mesure par rapport à l'étalon primaire pourra être utilisé pour contrôler la fréquence du laser à CO2 dans les futures expériences de mesure de la constante de Boltzmann.
243

Reconnaissance de formes dans des images de télédétection du milieu urbain

Couloigner, Isabelle 21 September 1998 (has links) (PDF)
Cette thèse présente une nouvelle méthode, semi-automatique et hiérarchique, d'extraction du réseau routier urbain à partir d'images de télédétection de très haute résolution spatiale. La méthode est basée sur le modèle de rues développé dans cette thèse, et sur les deux outils mathématiques que sont l'analyse multirésolution et la transformée en ondelettes. Le modèle de rues intègre les propriétés radiométriques, géométriques et topographiques des différents types de rues présents dans les réseaux routiers urbains. Il est explicite et générique. Un modèle de réseau routier a également été élaboré. Il est basé sur des propriétés de connexité simplifiée et de hiérarchie du réseau. L'analyse multiéchelle des images, obtenue par une analyse multirésolution, conduit à l'extraction, hiérarchique, des bords des différentes rues du réseau. La modélisation de l'information à différentes échelles caractéristiques, par la transformée en ondelettes, permet d'en établir la topographie, c'est à dire d'en extraire les terre-pleins. Ces extractions s'effectuent par deux algorithmes multirésolutions et itératifs. Des critères quantitatifs d'évaluation ont été développés en liaison avec des cartographes urbanistes. Ils sont basés sur l'emprise et la localisation des rues, et sur des indices de connexité du réseau routier quadrangulaire. Cette méthode a été appliquée à des images de différentes résolutions spatiales et spectrales. Les rues ainsi extraites sont positionnées avec une erreur moyenne de 2 pixels quelle que soit la résolution des images originales. Cette méthode permet une automatisation partielle des taches de cartographie du milieu urbain.
244

Applications de la transformée en ondelettes et de l'analyse multirésolution au traitement des images de télédétection

Ranchin, Thierry 23 July 1993 (has links) (PDF)
Après une présentation de la transformée en ondelettes et de l'analyse multirésolution ainsi que de leur mise en oeuvre, nous présentons, dans ce mémoire, les apports de ces deux outils à deux problèmes de télédétection : la fusion de données issues de capteurs de résolutions spatiales et spectrales différentes et le traitement du speckle dans l'imagerie radar. Dans le cadre de la fusion de données, nous avons développé une méthode, basée sur ces deux outils et permettant d'obtenir des images ayant la meilleure des résolutions spatiales présentes dans le groupe d'images à fusionner tout en préservant la qualité de l'information spectrale pour les phénomènes qu'ils représentent. L'utilisation de ces deux outils pour le traitement du speckle dans l'imagerie radar a permis l'amélioration des performances d'un filtre du point de vue de la qualité radiométrique. La démarche employée n'est pas limitée à un seul filtre et permettra d'obtenir une réduction importante du speckle dans les zones homogènes tout en préservant l'information géométrique présente dans l'image. Les apports de la transformée en ondelettes et de l'analyse multirésolution et les perspectives de l'utilisation de ces outils dans le cadre de la télédétection sont discutés.
245

Contributions à la description de signaux, d'images et de volumes par l'approche probabiliste et statistique

Alata, Olivier 04 October 2010 (has links) (PDF)
Les éléments principaux apparaissant dans ce document de synthèse sont les suivants : - La mise en exergue de la pertinence du critère d'information $\phi_\beta$ qui offre la possibilité d'être ``réglé'' par apprentissage de $\beta$ et cela quelque soit le problème de sélection de modèles pour lequel il est possible d'écrire un critère d'information, possibilité qui a été illustrée dans divers contextes applicatifs (supports de prédiction linéaire et dimension du modèle utilisé pour les cinétiques de $\dot VO_2$). - Une méthode d'estimation d'histogrammes pour décrire de manière non-paramé-trique la distribution d'échantillons et son utilisation en reconnaissance de lois supervisée dans un contexte de canaux de transmission. \item Une méthode dite ``comparative descendante'' permettant de trouver la meilleure combinaison des paramètres pour décrire les données étudiées sans avoir à tester toutes les combinaisons, illustrée sur l'obtention de supports de prédiction linéaire 1-d et 2-d. - La mise en place de stratégies de choix de modèles par rapport à des contextes variés comme l'imagerie TEP et les lois de mélange de Gauss et de Poisson ou les espaces couleur et les lois de mélange gaussiennes multidimensionnelles. - L'exploration des modèles de prédiction linéaire vectorielle complexe sur les images représentées dans des espaces couleur séparant l'intensité lumineuse de la partie chromatique et l'usage qui peut en être fait en caractérisation de textures afin de les classifier ou de segmenter les images texturées couleur. \item Des apports en segmentation : optimisation d'une méthode de segmentation non-supervisée d'images texturées en niveaux de gris ; une nouvelle méthode supervisée de segmentation d'images texturées couleur exploitant les espaces couleur psychovisuels et les erreurs de prédiction linéaire vectorielle complexe ; prise en compte dans des distributions de Gibbs d'informations géométriques et topologiques sur le champ des régions afin de réaliser de la segmentation 3-d ``haut-niveau'' exploitant le formalisme des processus ponctuels. - L'illustration des méthodes MCMC dans des contextes divers comme l'estimation de paramètres, l'obtention de segmentations 2-d ou 3-d ou la simulation de processus. Et beaucoup d'autres éléments se révèleront à sa lecture ...
246

Optimisation et cophasage d'un dispositif d'imagerie directe à haute résolution et haut contraste : l'hypertélescope temporel

Bouyeron, Laurent 28 November 2013 (has links) (PDF)
Les hypertélescopes, grâce à leur capacité d'imagerie directe à haute résolution, constituent une voie prometteuse pour le développement de nouveaux instruments dédiés à l'astrophysique. Il reste cependant à démontrer expérimentalement leur faisabilité et notamment à trouver une solution au difficile problème du cophasage. C'est dans cette optique qu'ont été réalisés les travaux présentés dans cette thèse. Le banc de test THT, développé au laboratoire XLIM de Limoges, est le prototype entièrement fibré d'une version particulière d'hypertélescope, appelée hypertélescope temporel. L'historique ainsi que le concept de cet instrument constitué d'un réseau de huit télescopes sont présentés dans le premier chapitre de ce manuscrit. Une étude des défauts expérimentaux intrinsèques à l'instrument a été réalisée afin d'évaluer ses capacités théoriques d'imagerie. Dans un second temps, un dispositif de cophasage a été mis en place. Il est basé sur l'utilisation couplée d'un algorithme génétique et de la technique de diversité de phase. Son efficacité a été validé expérimentalement grâce à l'acquisition en laboratoire d'une image d'un système binaire d'étoiles présentant un écart en magnitude de 9,1 nécessitant un contrôle de tous les chemins optiques avec une résolution d'environ 3 nm. Nous avons ensuite testé cette méthode dans le cas d'un fonctionnement en régime de comptage de photons. Les résultats expérimentaux obtenus démontrent que même dans ces conditions difficiles, les qualités d'imagerie du dispositif sont conservées. Finalement, le dernier chapitre de ce document donne différentes pistes de développement et propose une ébauche d'un projet spatial réalisable à moyen terme.
247

Caractérisation de systèmes binaires par imagerie haute dynamique non redondante fibrée

Huby, Elsa 03 December 2013 (has links) (PDF)
Mon travail de thèse s'inscrit dans le cadre de l'imagerie à haute résolution angulaire et à haute dynamique et a porté plus particulièrement sur le développement de l'instrument FIRST, Fibered Imager foR a Single Telescope. Celui-ci repose sur la technique novatrice du réarrangement de pupille, combinant masquage de pupille et filtrage spatial du front d'onde par fibres optiques monomodes. L'objectif de ma thèse était de porter cet instrument sur le ciel, d'améliorer ses performances et de développer un programme de traitement et d'analyse des données. Après l'obtention de la première lumière de FIRST en juillet 2010 sur le télescope de 3 m de l'observatoire Lick, je me suis dans un premier temps attachée à améliorer certains aspects du montage optique et mécanique, en vue d'accroître ses performances lors des observations. La qualité des données nous a ensuite permis de mener une campagne d'observations répartie sur de nombreuses nuits entre juillet 2011 et décembre 2012. Le programme d'observation a été centré sur les systèmes binaires, cibles idéales pour évaluer dynamique et pouvoir de résolution de l'instrument. Dans ce but, j'ai donc développé un programme de réduction des images d'interférences permettant d'estimer les observables interférométriques et de les ajuster par un modèle binaire. J'ai ainsi traité une partie de la grande quantité de données acquises à l'observatoire Lick, et en particulier les données prises sur le système binaire Capella. Les résultats montrent que le compagnon est détecté, à une séparation de l'ordre de la limite de diffraction du télescope. De plus, nos données fournissent une mesure directe du rapport de flux spectral aux longueurs d'onde visibles, ce qui constitue une donnée totalement nouvelle pour ce système par ailleurs très bien connu. L'analyse que nous avons menée de ce spectre, par un ajustement de modèles d'atmosphères stellaires démontre que les données FIRST apportent des informations précieuses pour caractériser un système binaire et notamment contraindre les températures effectives des deux composantes. Enfin, le succès des observations conduites à l'observatoire Lick nous a permis d'initier une collaboration avec l'équipe SCExAO du télescope Subaru et nous avons ainsi eu l'opportunité d'y intégrer FIRST. La première lumière de FIRST sur le télescope Subaru a été obtenue le 25 juillet 2013. En conclusion, j'ai pu montrer la viabilité du projet FIRST sur le ciel et obtenir de premiers résultats originaux, démontrant la capacité de cette technique à restaurer la limite de diffraction aux longueurs d'onde visibles. Bien que la sensibilité de l'instrument soit encore limitée à ce jour, ces résultats sont prometteurs quant à son exploitation à venir sur le télescope Subaru et aux développements futurs de cette technique, notamment dans le contexte de la détection et caractérisation de systèmes exoplanétaires.
248

Caractérisation des colis de déchets radioactifs par activation neutronique / Radioactive waste caracterisation by neutron activation

Nicol, Tangi 19 September 2016 (has links)
Les activités nucléaires génèrent des déchets radioactifs classés selon leur niveau d’activité et la durée de vie des radioéléments présents. La garantie d’un classement et d’une gestion optimale nécessite une caractérisation précise. Les déchets de moyenne et haute activité, contenant des radioéléments à vie très longue, seront stockés en profondeur pendant plusieurs centaines de milliers d’années, à l’issue desquelles il est nécessaire de pouvoir garantir l’absence de risques pour l’homme et l’environnement, non seulement sur le plan radiologique, mais aussi en ce qui concerne des éléments stables, toxiques du point de vue chimique. Cette thèse concerne la caractérisation par activation neutronique de ces éléments toxiques, ainsi que celle des matières nucléaires présentes dans les colis. Elle a été réalisée dans le cadre d’une collaboration entre le Laboratoire de Mesures Nucléaires du CEA Cadarache, en France, et l’institut de Gestion des Déchets Radioactifs et de Sûreté des Réacteurs du centre de recherche FZJ (Forschungszentrum Jülich), en Allemagne. La première étude a consisté à valider le modèle numérique de la cellule d’activation neutronique MEDINA (FZJ) avec le code de transport Monte Carlo MCNP. Les rayonnements gamma prompts de capture radiative d’échantillons contenant des éléments d’intérêt (béryllium, aluminium, chlore, cuivre, sélénium, strontium et tantale) ont été mesurés et comparés aux simulations avec diverses bases de données nucléaires, permettant d’aboutir à un accord satisfaisant et validant le schéma de calcul en vue des études suivantes. Ensuite, la mesure des rayonnements gamma retardés de fissions induites sur les isotopes 235U et 239Pu a été étudiée pour des fûts de 225 L contenant des enrobés bitumineux ou une matrice béton, représentatifs de déchets produits en France et en Allemagne. Les rendements d’émission des rayonnements gamma retardés de fission d’intérêt, cohérents avec ceux publiés dans la littérature, ont été déterminés à partir des mesures d’échantillons métalliques d’uranium et de plutonium dans la cellule d’activation neutronique REGAIN du LMN. Le signal utile a ensuite été extrapolé par simulation MCNP pour une répartition homogène d’isotopes 239Pu ou 235U dans les matrices considérées, en utilisant le modèle numérique de MEDINA. Des signaux faibles, de l’ordre de 100 coups par gramme d’isotope 239Pu ou 235U, ont été obtenus. Pour le colis d’enrobés bitumineux, le niveau d’irradiation gamma très élevé, dû à une activité en 137Cs de l’ordre de 1 TBq par fût, nécessiterait l’utilisation d’une collimation et/ou d’écrans pour éviter la saturation de l’électronique de mesure, rendant indétectables les rayonnements gamma retardés de fission. Les colis de déchets bétonnés produits en Allemagne présentant un niveau d’activité plus faible, il a été possible d’estimer des limites de détection allant de 10 à 290 g d’isotope fissile 235U ou 239Pu, selon la raie gamma considérée, suite à la mesure du bruit de fond actif dans MEDINA avec une matrice béton maquette. Afin d’améliorer ces performances, le blindage du détecteur germanium de MEDINA a été optimisé à l’aide de simulations MCNP, montrant la possibilité de réduire les bruits de fond gamma et neutron d’un facteur 4 et 5, respectivement. La validation expérimentale de l’efficacité du blindage a été effectuée à partir de configuration simples à implémenter dans MEDINA, confirmant les facteurs de réduction attendus. Un blindage du détecteur optimal permettrait d’améliorer les limites de détection et aussi d’utiliser une source de neutrons d’intensité supérieure, comme un générateur de neutron à haut flux ou un accélérateur linéaire d’électrons avec une cible de conversion appropriée. / Nuclear activities produce radioactive wastes classified following their radioactive level and decay time. An accurate characterization is necessary for efficient classification and management. Medium and high level wastes containing long lived radioactive isotopes will be stored in deep geological storage for hundreds of thousands years. At the end of this period, it is essential to ensure that the wastes do not represent any risk for humans and environment, not only from radioactive point of view, but also from stable toxic chemicals. This PhD thesis concerns the characterization of toxic chemicals and nuclear material in radioactive waste, by using neutron activation analysis, in the frame of collaboration between the Nuclear Measurement Laboratory of CEA Cadarache, France, and the Institute of Nuclear Waste Management and Reactor Safety of the research center, FZJ (Forschungszentrum Jülich GmbH), Germany. The first study is about the validation of the numerical model of the neutron activation cell MEDINA (FZJ), using MCNP Monte Carlo transport code. Simulations and measurements of prompt capture gamma rays from small samples measured in MEDINA have been compared for a number of elements of interest (beryllium, aluminum, chlorine, copper, selenium, strontium, and tantalum). The comparison was performed using different nuclear databases, resulting in satisfactory agreement and validating simulation in view of following studies. Then, the feasibility of fission delayed gamma-ray measurements of 239Pu and 235U in 225 L waste drums has been studied, considering bituminized or concrete matrixes representative of wastes produced in France and Germany. The delayed gamma emission yields were first determined from uranium and plutonium metallic samples measurements in REGAIN, the neutron activation cell of LMN, showing satisfactory consistency with published data. The useful delayed gamma signals of 239Pu and 235U, homogeneously distributed in the 225 L matrixes, were then determined by MCNP simulations using MEDINA numerical model. Weak signals of about one hundred counts per gram of 239Pu or 235U after 7200 s irradiation were obtained. Because of the high gamma emission in the bituminized waste produced in France (about 1 TBq of 137Cs per drum), the use of collimator and/or shielding is mandatory to avoid electronic saturation, making fission delayed gamma rays undetectable. However, German concrete drums being of lower activity, their corresponding active background was measured in MEDINA with a concrete mock-up, leading to detection limits between 10 and 290 g of 235U or239Pu, depending on the delayed gamma line. In order to improve these performances, the shielding of MEDINA germanium detector was optimized using MCNP calculations, resulting in gamma and neutron background reduction factors of 4 and 5, respectively. The experimental validation of the shielding efficiency was performed by implementing easy-to-build configurations in MEDINA, which confirmed the expected background reduction factors predicted by MCNP. Thanks to an optimized detector shielding, it will also be possible to use a higher neutron emission source, like a high flux neutron generator or an electron LINAC with appropriate conversion targets, in view to further reduce detection limits.
249

Classification des matériaux urbains en présence de végétation éparse par télédétection hyperspectrale à haute résolution spatiale / Classification of urban materials in presence of sparse vegetation with hyperspectral remote sensing imagery at high spatial resolution

Adeline, Karine 18 December 2014 (has links)
La disponibilité de nouveaux moyens d’acquisition en télédétection, satellitaire (PLEIADES, HYPXIM), aéroportée ou par drone (UAV) à très haute résolution spatiale ouvre la voie à leur utilisation pour l’étude de milieux complexes telles que les villes. En particulier, la connaissance de la ville pour l’étude des îlots de chaleur, la planification urbaine, l’estimation de la biodiversité de la végétation et son état de santé nécessite au préalable une étape de classification des matériaux qui repose sur l’utilisation de l’information spectrale accessible en télédétection hyperspectrale 0,4-2,5μm. Une des principales limitations des méthodes de classification réside dans le non traitement des zones à l’ombre. Des premiers travaux ont montré qu’il était possible d’exploiter l’information radiative dans les ombres des bâtiments. En revanche, les méthodes actuelles ne fonctionnent pas dans les ombres des arbres du fait de la porosité de leur couronne. L’objectif de cette thèse vise à caractériser les propriétés optiques de surface à l’ombre de la végétation arborée urbaine au moyen d’outils de transfert radiatif et de correction atmosphérique. L’originalité de ce travail est d’étudier la porosité d’un arbre via la grandeur de transmittance de la couronne. La problématique a donc été abordée en deux temps. Premièrement, la caractérisation de la transmittance d’un arbre isolé a été menée avec l’utilisation de l’outil DART à travers la mise en œuvre d’un plan d’expériences et d’études de sensibilité qui ont permis de la relier à des paramètres biophysiques et externes. Une campagne de mesures terrain a ensuite été réalisée afin d’évaluer son estimation à partir de différents niveaux de modélisation de l’arbre, dont un modèle réel acquis par mesures lidar terrestre. Deuxièmement, une nouvelle méthode de correction atmosphérique 3D adaptée à la végétation urbaine, ICARE-VEG, a été développée à partir des résultats précédents. Une campagne aéroportée et de mesures terrain UMBRA a été dédiée à sa validation. Ses performances comparées à d’autres outils existants ouvrent de larges perspectives pour l’interprétation globale d’une image par télédétection et pour souligner la complexité de modéliser des processus physiques naturels à une échelle spatiale très fine. / The new advances in remote sensing acquisitions at very high spatial resolution, either spaceborne (PLEIADES, HYPXIM), airborne or unmanned aerial vehicles borne, open the way for the study of complex environments such as urban areas. In particular, the better understanding of urban heat islands, urban planning, vegetation biodiversity, requires the knowledge of detailed material classification mapsbased on the use of spectral information brought by hyperspectral imagery 0.4-2.5μm. However, one of the main limitations of classification methods relies on the absence of shadow processing. Past studies have demonstrated that spectral information was possible to be extracted from shadows cast by buildings. But existing methods fail in shadows cast by trees because of their crown porosity. The objective of this thesis aims to characterize surface optical properties in urban tree shadows by means of radiative transfer and atmospheric correction tools. The originality of this work is to study the tree crown porosity through the analysis of the tree crown transmittance. Therefore, the issue has been divided into two parts. Firstly, an experimental design with the use of DART tool has been carried out in order to examine the relationships between the transmittance of an isolated tree and different biophysical and external variables. Then, the estimation of the tree crown transmittance has been assessed with several tree 3D modelling strategies derived from reference terrestrial lidar acquisitions. Secondly, a new atmospheric correction method appropriate to the processing of tree shadows, ICARE-VEG, was implemented fromthese previous results. An airborne and field campaign UMBRA was dedicated to its validation. Moreover, its performances was compared to other existing tools. Finally, the conclusions open large outlooks to the overall interpretation of remote sensing images and highlight the complexity to model physical natural processes with finer spatial resolutions.
250

Inversion des formes d'ondes électromagnétiques en 2D pour le géoradar : vers une imagerie multi-paramètre à partir des données de surface / 2D Full waveform inversion of ground penetrating radar data : towards multiparameter imaging from surface data

Lavoué, François 09 July 2014 (has links)
Les premiers mètres à centaines de mètres de la proche surface terrestre sont le siège de processus naturels dont la compréhension requiert une caractérisation fine de la subsurface, via une estimation quantifiée de ses paramètres. Le géoradar est un outil de prospection indirecte à même d'ausculter les milieux naturels et d'en estimer les propriétés électriques (permittivité et conductivité). Basé sur la propagation d'ondes électromagnétiques à des fréquences allant du MHz à quelques GHz, le géoradar est utilisé à des échelles et pour des applications variées concernant la géologie, l'hydrologie ou le génie civil. Dans ce travail de thèse, je propose une méthode d'imagerie quantitative des propriétés électriques sur des sections 2D de la subsurface, à partir de données radar acquises à la surface du sol. La technique mise en oeuvre est l'inversion des formes d'ondes, qui utilise l'intégralité du champ d'ondes enregistré.Dans une première partie, je présente les principes physiques et l'outil de modélisation numérique utilisés pour simuler la propagation des ondes électromagnétiques dans les milieux hétérogènes à deux dimensions. Pour cela, un algorithme de différences finies en domaine fréquentiel développé dans le cadre des ondes visco-acoustiques est adapté au problème électromagnétique 2D grâce à une analogie mathématique.Dans une deuxième partie, le problème d'imagerie est formulé sous la forme d'une optimisation multi-paramètre puis résolu avec l'algorithme de quasi-Newton L-BFGS. Cet algorithme permet d'estimer l'effet de la matrice Hessienne, dont le rôle est crucial pour la reconstruction de paramètres de différents types comme la permittivité et la conductivité. Des tests numériques montrent toutefois que l'algorithme reste sensible aux échelles utilisées pour définir ces paramètres. Dans un exemple synthétique représentatif de la proche surface, il est cependant possible d'obtenir des cartes 2D de permittivité et de conductivité à partir de données de surface, en faisant intervenir des facteurs d'échelle et de régularisation visant à contraindre les paramètres auxquelles l'inversion est la moins sensible. Ces facteurs peuvent être déterminés en analysant la qualité de l'ajustement aux données, sans hypothèse a priori autre que la contrainte de lissage introduite par la régularisation.Dans une dernière partie, la méthode d'imagerie est confrontée à deux jeux de données réelles. Dans un premier temps, l'examen de données expérimentales permet de tester la précision des simulations numériques vis-à-vis de mesures effectuées en environnement contrôlé. La connaissance des cibles à imager permet en outre de valider la méthodologie proposée pour l'imagerie multiparamètre dans des conditions très favorables puisqu'il est possible de calibrer le signal source et de considérer l'espace libre environnant les cibles comme modèle initial pour l'inversion.Dans un deuxième temps, j'envisage le traitement d'un jeu de données radar multi-offsets acquises au sein d'un massif calcaire. L'interprétation de ces données est rendue beaucoup plus difficile par la complexité du milieu géologique environnant, ainsi que par la méconnaissance des caractéristiques précises des antennes utilisées. L'application de la méthode d'inversion des formes d'ondes à ces données requiert donc une étape préliminaire impliquant une analyse de vitesse plus classique, basée sur les arrivées directes et réfléchies, et des simulations numériques dans des modèles hypothétiques à même d'expliquer une partie des données. L'estimation du signal source est effectuée à partir d'arrivées sélectionnées, simultanément avec des valeurs moyennes de conductivité et de hauteur d'antennes de façon à reproduire au mieux les amplitudes observées. Un premier essai d'inversion montre que l'algorithme est capable d'expliquer les données dans la gamme de fréquences considérée et de reconstruire une ébauche des principaux réflecteurs. / The quantitative characterization of the shallow subsurface of the Earth is a critical issue for many environmental and societal challenges. Ground penetrating radar (GPR) is a geophysical method based on the propagation of electromagnetic waves for the prospection of the near subsurface. With central frequencies between 10~MHz and a few GHz, GPR covers a wide range of applications in geology, hydrology and civil engineering. GPR data are sensitive to variations in the electrical properties of the medium which can be related, for instance, to its water content and bring valuable information on hydrological processes. In this work, I develop a quantitative imaging method for the reconstruction of 2D distributions of permittivity and conductivity from GPR data acquired from the ground surface. The method makes use of the full waveform inversion technique (FWI), originating from seismic exploration, which exploits the entire recorded radargrams and has been proved successful in crosshole GPR applications.In a first time, I present the numerical forward modelling used to simulate the propagation of electromagnetic waves in 2D heterogeneous media and generate the synthetic GPR data that are compared to the recorded radargrams in the inversion process. A frequency-domain finite-difference algorithm originally developed in the visco-acoustic approximation is adapted to the electromagnetic problem in 2D via an acoustic-electromagnetic mathematical analogy.In a second time, the inversion scheme is formulated as a fully multiparameter optimization problem which is solved with the quasi-Newton L-BFGS algorithm. In this formulation, the effect of an approximate inverse Hessian is expected to mitigate the trade-off between the impact of permittivity and conductivity on the data. However, numerical tests on a synthetic benchmark of the literature display a large sensitivity of the method with respect to parameter scaling, showing the limits of the L-BFGS approximation. On a realistic subsurface benchmark with surface-to-surface configuration, it has been shown possible to ally parameter scaling and regularization to reconstruct 2D images of permittivity and conductivity without a priori assumptions.Finally, the imaging method is confronted to two real data sets. The consideration of laboratory-controlled data validates the proposed workflow for multiparameter imaging, as well as the accuracy of the numerical forward solutions. The application to on-ground GPR data acquired in a limestone massif is more challenging and necessitates a thorough investigation involving classical processing techniques and forward simulations. Starting permittivity models are derived from the velocity analysis of the direct arrivals and of the reflected events. The estimation of the source signature is performed together with an evaluation of an average conductivity value and of the unknown antenna height. In spite of this procedure, synthetic data do not reproduce the observed amplitudes, suggesting an effect of the radiation pattern of the shielded antennae. In preliminary tests, the inversion succeeds in fitting the data in the considered frequency range and can reconstruct reflectors from a smooth starting model.

Page generated in 0.0649 seconds