• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 2
  • 2
  • Tagged with
  • 19
  • 10
  • 9
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Analyse des mécanismes mis en jeu lors de l'élaboration par gravure plasma de structures de dimensions déca-nanométriques : Application au transistor CMOS ultime

Pargon, Erwine 03 December 2004 (has links) (PDF)
Ce travail de thèse vise la compréhension des mécanismes de gravure impliqués dans les procédés de gravure plasma de grilles en poly-silicium pour l'élaboration de transistors MOS de dimension inférieure à 20 nm. La réalisation d'une grille de transistor comprend une étape de lithographie suivie d'étapes de gravure. Actuellement, les techniques lithographiques constituent un frein à la réduction en dimension des grilles, car elles permettent au mieux d'atteindre des résolutions de 80 nm. La stratégie adoptée pour s'affranchir de ces limites lithographiques est l'introduction d'une nouvelle étape de gravure, l'étape de réduction de cote résine (ou resist trimming). Cette étape consiste à éroder latéralement par gravure plasma les motifs de résine préalablement définis par la lithographie. Le premier objectif de ce travail de thèse a donc été la compréhension des mécanismes de gravure mis en jeu lors d'un procédé de réduction de cote résine. Deux chimies de plasma HBr/O2 et Cl2/O2 ont été étudiées et comparées. Pour ces deux chimies, une corrélation a été établie entre les vitesses de gravure latérale (observations MEB), les modifications physico-chimiques des flancs des motifs de résine après exposition à un plasma (obtenues par XPS), et la nature chimique des produits issus de la gravure de la résine (déterminée par spectrométrie de masse). Les autres facteurs freinant le développement des grilles de dimensions inférieures à 20 nm sont les procédés de gravure grille actuels qui sont au mieux contrôlés à 5-10 nm, alors que la réduction d'échelle impose un contrôle des procédés de gravure inférieur à 2-3 nm. Le deuxième volet de ce travail a donc consisté à étudier les facteurs responsables de la perte de contrôle dimensionnel lors des différentes étapes du procédé de gravure grille. Les aspects étudiés sont les modifications physico-chimiques du masque résine pendant la gravure, les couches de passivation qui se forment sur les flancs des motifs gravés, et l'état de surface des parois du réacteur, et ce grâce à la mise au point de deux protocoles expérimentaux utilisant des analyses XPS.
12

REFLECT : logiciel de restitution des réflectances au sol pour l’amélioration de la qualité de l'information extraite des images satellitales à haute résolution spatiale

Bouroubi, Yacine M. 10 1900 (has links)
Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques. / Multi-spectral satellite imagery, especially at high spatial resolution (finer than 30 m on the ground), represents an invaluable source of information for decision making in various domains in connection with natural resources management, environment preservation or urban planning and management. The mapping scales may range from local (finer resolution than 5 m) to regional (resolution coarser than 5m). The images are characterized by objects reflectance in the electromagnetic spectrum witch represents the key information in many applications. However, satellite sensor measurements are also affected by parasite input due to illumination and observation conditions, to the atmosphere, to topography and to sensor properties. Two questions have oriented this research. What is the best approach to retrieve surface reflectance with the measured values while taking into account these parasite factors? Is this retrieval a sine qua non condition for reliable image information extraction for the diverse domains of application for the images (mapping, environmental monitoring, landscape change detection, resources inventory, etc.)? Researches performed in the past 30 years have yielded a series of techniques to correct the parasite factors among which some allow to retrieve ground reflectance. Some questions are still unanswered and others require still more scrutiny to increase precision and to make these methods more versatile by adapting them to larger variety of data acquisition conditions. A few examples may be mentioned: - How to take into account atmospheric characteristics (particularly of aerosols) adapted to local and regional conditions instead of relying on default models indicating long term spatial-temporal trends that are hard to adjust to spatially restricted instantaneous observations; - How to remove noise introduced by surrounding objects. This adjacency effect phenomenon is particularly important for image resolutions smaller than 5m; - What is the effect of the viewing angle of the sensors that are increasingly aiming off-nadir, a choice imposed by the imperatives of a better temporal resolution or the acquisition of stereo pairs? - How to increase the performances of automatic multi-spectral image processing and analysis techniques in mountainous high relief area by taking into account the multiple effects of topography on the remotely sensed signal? Despite many demonstrations by researchers that information extracted from remote sensing may be altered due to the parasite factors, we are forced to note that nowadays radiometric corrections are still seldom applied, unlike geometric corrections for which commercial software possess powerful and versatile user-friendly algorithms. Radiometric correction algorithms, when available, are hard to adapt black boxes and mostly require experts to operate them. The goals we have delineated for this research are as follow: 1) Develop software to retrieve ground reflectance while taking into account the aspects mentioned earlier. This software had to be modular enough to allow improvement and adaptation to diverse remote sensing application problems; and 2) Apply this software in various context (urban, agricultural, forest) and analyse results to evaluate the accuracy gain of extracted information from remote sensing imagery transformed in ground reflectance images to demonstrate the necessity of operating in this way, whatever the type of application. During this research, we have developed a tool to retrieve ground reflectance (the new version of the REFLECT software). This software is based on the formulas (and routines) of the 6S code (Second Simulation of Satellite Signal in the Solar Spectrum) and on the dark targets method to estimated the aerosol optical thickness, representing the most difficult factor to correct. Substantial improvements have been made to the existing models. These improvements essentially concern the aerosols properties (integration of a more recent model, improvement of the dark targets selection to estimate the AOD), the adjacency effect, the adaptation to most used high resolution (Landsat TM and ETM+, all HR SPOT 1 to 5, EO-1 ALI and ASTER) and very high resolution (QuickBird et Ikonos) sensors and the correction of topographic effects with a model that separate direct and diffuse solar radiation components and the adaptation of this model to forest canopy. Validation has shown that ground reflectance estimation with REFLECT is performed with an accuracy of approximately ±0.01 in reflectance units (for in the visible, near-infrared and middle-infrared spectral bands) even for a surface with varying topography. This software has allowed demonstrating, through apparent reflectance simulations, how much parasite factors influencing numerical values of the images may alter the ground reflectance (errors ranging from 10 to 50%). REFLECT has also been used to examine the usefulness of ground reflectance instead of raw data for various common remote sensing applications in domains such as classification, change detection, agriculture and forestry. In most applications (multi-temporal change monitoring, use of vegetation indices, biophysical parameters estimation, etc.) image correction is a crucial step to obtain reliable results. From the computer environment standpoint, REFLECT is organized as a series of menus, corresponding to different steps of: input parameters introducing, gas transmittances calculation, AOD estimation, and finally image correction application, with the possibility of using the fast option witch process an image of 5000 by 5000 pixels in approximately 15 minutes. This research opens many possible pathways for improving methods and models in the realm of radiometric corrections of remotely sensed images. In particular, these include BRDF integration in the formulation, cirrus clouds correction using non selective scattering modelling and improving of the equivalent slopes topographic correction method.
13

Les Effets de site d'origine structurale en sismologie : modélisation et interprétation, application au risque sismique

Bard, Pierre-Yves 17 June 1983 (has links) (PDF)
Ce travail est consacré à une étude numérique des effest produits sur les signaux sismiques par la structure géométrique des formations superficielles, dans une optique essentiellement tournée vers le risque sismique. Pour cela nous avons appliqué la méthode d'Aki et Larner ( milieux viscoélastiques linéaires homogènes isotropes) au calcul de la réponse de reliefs topographiques et de remplissages sédimentaires bidimentionnels ( 2D) à des ondes de volume planes incidentes. Npous nous sommes attachés à faire le lien entre les phénomènes physiques de base, les caractéristiques des spectres de réponse calculés en surface et les observations expérimentales. Le calcul montre clairement l'importance des phénomènes de diffraction et de formation d'ondes de surface sur toute variation latérale de la structure superficielle; de plus, pour les vallées alluviales, les ondes ainsi diffractées sont au moins partiellement piégées dans la couverture, et il en résulte sous certaines conditions géométriques des phénomènes de résonance bidimensionnelle extrêmement prononcés. Quant aux spectres de réponse, une étude paramétrique portant sur les facteurs sismiques, géométriques et mécaniques fait apparaître les résultats généraux suivants: - pour les reliefs topographiques, les effets, relativement large bande, sont maximaux pour des longueurs d'onde comparables à leur dimension horizontale. Les sommets des reliefs subissent alors une amplification, leur base une déamplification, et leurs versants d'importants mouvements différentiels. Cela est conforme aux résultats expérimentaux, bien que les amplifications observées soient souvent plus importantes que celles obtenues ici. - les vallées alluviales sont toujours sujettes à de fortes amplifications et prolongations des signaux sismiques, et leurs bords à d'importants mouvements différentiels. On peut cependant distinguer deux types de comportements: lorsqu'elles sont peu profondes, Ieur fréquence fondamentale est identique à celle prévue par l'approche 1 D, mais les amplificatIons correspondantes peuvent être 2 fois plus importantes, et les ondes de surface donnent lieu à des pics spectraux secondaires nombreux et rapprochés. Au contraire, la résonance 2D dans les vallées alluviales profondes survient à des fréquences reliées tant à leur largeur qu'à leur épaisseur, et l'amplification peut atteindre 4 fois celle prédite par l'approche 1D. La comparaison tant quantitative que qualitative avec les résultats expérimentaux s'avère tres bonne. Enfin, on discute l'applicabilité pratique de l'approche 2D et des resultats présentés ici au domaine du risque sismique. Comme le souligne en particulier un exemple d'étude de micro* zonage du site de Nice, les modèles 1D couramment utilisés en génie sismique peuvent non seulement sous-estimer l'ampleur des effets de site, mais en oublier "une des composantes essentielles, les mouvements différentiels .
14

REFLECT : logiciel de restitution des réflectances au sol pour l’amélioration de la qualité de l'information extraite des images satellitales à haute résolution spatiale

Bouroubi, Yacine M. 10 1900 (has links)
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques. / ABSTRACT - Multi-spectral satellite imagery, especially at high spatial resolution (finer than 30 m on the ground), represents an invaluable source of information for decision making in various domains in connection with natural resources management, environment preservation or urban planning and management. The mapping scales may range from local (finer resolution than 5 m) to regional (resolution coarser than 5m). The images are characterized by objects reflectance in the electromagnetic spectrum witch represents the key information in many applications. However, satellite sensor measurements are also affected by parasite input due to illumination and observation conditions, to the atmosphere, to topography and to sensor properties. Two questions have oriented this research. What is the best approach to retrieve surface reflectance with the measured values while taking into account these parasite factors? Is this retrieval a sine qua non condition for reliable image information extraction for the diverse domains of application for the images (mapping, environmental monitoring, landscape change detection, resources inventory, etc.)? Researches performed in the past 30 years have yielded a series of techniques to correct the parasite factors among which some allow to retrieve ground reflectance. Some questions are still unanswered and others require still more scrutiny to increase precision and to make these methods more versatile by adapting them to larger variety of data acquisition conditions. A few examples may be mentioned: - How to take into account atmospheric characteristics (particularly of aerosols) adapted to local and regional conditions instead of relying on default models indicating long term spatial-temporal trends that are hard to adjust to spatially restricted instantaneous observations; - How to remove noise introduced by surrounding objects. This adjacency effect phenomenon is particularly important for image resolutions smaller than 5m; - What is the effect of the viewing angle of the sensors that are increasingly aiming off-nadir, a choice imposed by the imperatives of a better temporal resolution or the acquisition of stereo pairs? - How to increase the performances of automatic multi-spectral image processing and analysis techniques in mountainous high relief area by taking into account the multiple effects of topography on the remotely sensed signal? Despite many demonstrations by researchers that information extracted from remote sensing may be altered due to the parasite factors, we are forced to note that nowadays radiometric corrections are still seldom applied, unlike geometric corrections for which commercial software possess powerful and versatile user-friendly algorithms. Radiometric correction algorithms, when available, are hard to adapt black boxes and mostly require experts to operate them. The goals we have delineated for this research are as follow: 1) Develop software to retrieve ground reflectance while taking into account the aspects mentioned earlier. This software had to be modular enough to allow improvement and adaptation to diverse remote sensing application problems; and 2) Apply this software in various context (urban, agricultural, forest) and analyse results to evaluate the accuracy gain of extracted information from remote sensing imagery transformed in ground reflectance images to demonstrate the necessity of operating in this way, whatever the type of application. During this research, we have developed a tool to retrieve ground reflectance (the new version of the REFLECT software). This software is based on the formulas (and routines) of the 6S code (Second Simulation of Satellite Signal in the Solar Spectrum) and on the dark targets method to estimated the aerosol optical thickness, representing the most difficult factor to correct. Substantial improvements have been made to the existing models. These improvements essentially concern the aerosols properties (integration of a more recent model, improvement of the dark targets selection to estimate the AOD), the adjacency effect, the adaptation to most used high resolution (Landsat TM and ETM+, all HR SPOT 1 to 5, EO-1 ALI and ASTER) and very high resolution (QuickBird et Ikonos) sensors and the correction of topographic effects with a model that separate direct and diffuse solar radiation components and the adaptation of this model to forest canopy. Validation has shown that ground reflectance estimation with REFLECT is performed with an accuracy of approximately ±0.01 in reflectance units (for in the visible, near-infrared and middle-infrared spectral bands) even for a surface with varying topography. This software has allowed demonstrating, through apparent reflectance simulations, how much parasite factors influencing numerical values of the images may alter the ground reflectance (errors ranging from 10 to 50%). REFLECT has also been used to examine the usefulness of ground reflectance instead of raw data for various common remote sensing applications in domains such as classification, change detection, agriculture and forestry. In most applications (multi-temporal change monitoring, use of vegetation indices, biophysical parameters estimation, etc.) image correction is a crucial step to obtain reliable results. From the computer environment standpoint, REFLECT is organized as a series of menus, corresponding to different steps of: input parameters introducing, gas transmittances calculation, AOD estimation, and finally image correction application, with the possibility of using the fast option witch process an image of 5000 by 5000 pixels in approximately 15 minutes. This research opens many possible pathways for improving methods and models in the realm of radiometric corrections of remotely sensed images. In particular, these include BRDF integration in the formulation, cirrus clouds correction using non selective scattering modelling and improving of the equivalent slopes topographic correction method.
15

Etude de la stabilité et de la précision des modèles utilisés dans la correction des effets de proximité optique en photolithographie

Saied, Mazen 30 September 2011 (has links) (PDF)
À l'heure actuelle, les modèles photochimiques utilisés dans la correction des effets de proximitéoptique (OPC) en photolithographie sont devenus complexes et moins physiques afin de permettre decapturer rapidement le maximum d'effets optiques et chimiques. La question de la stabilité de tels modèlespurement empiriques est devenue d'actualité. Dans ce mémoire, nous avons étudié la stabilité desmodèles photochimiques actuels en examinant les différentes causes d'instabilité vis-à-vis des paramètresdu procédé. Dans la suite, nous avons développé une méthode perturbative permettant d'évaluer le critèrede la stabilité. L'obtention de modèles simples et stables nous conduit à séparer les effets optiques desautres effets chimiques. De plus, les approximations utilisées dans la modélisation des systèmes optiquesopérant à grande ouverture numérique entraînent des erreurs résiduelles pouvant dégrader la précisionet la stabilité des modèles OPC. Ainsi, nous nous sommes intéressés à étudier les limites de validitéde l'approximation de Kirchhoff, méthode qui, jusqu'à présent, est la plus utilisée dans la modélisationdu champ proche d'un masque. D'autres méthodes semi-rigoureuses, permettant de modéliser les effetstopographiques, ont été également évaluées. Ces méthodes approchées permettent de gagner en précisionmais dégradent le temps de calcul. Nous avons ainsi proposé différentes façons de corriger les effetstopographiques du masque, tout en gardant l'approximation de Kirchhoff dans la modélisation de la partieoptique. Parmi les méthodes proposées, nous exploitons celle permettant de réduire les erreurs liéesaux effets topographiques du masque par l'intermédiaire d'un second modèle empirique. Nous montronsque pour garantir une précision adéquate, il est nécessaire d'augmenter la complexité du modèle en rajoutantdes termes additionnels. Enfin, pour garantir la stabilité numérique du modèle empirique, nousintroduirons une nouvelle méthode approchée hybride rapide et précise, la méthode des multi-niveaux,permettant d'inclure les effets topographiques par décomposition multi-niveaux du masque fin et discuteronsses avantages et ses limites.
16

Les flèches de galets de Bretagne : morphodynamiques passée, présente et prévisible

Stéphan, Pierre 09 December 2008 (has links) (PDF)
Dans l'optique d'une meilleure compréhension du fonctionnement des flèches de galets en Bretagne, la morphodynamique de ces formes d'accumulation a été étudiée à différentes échelles spatiales et temporelles. <br /><br />Sur le long terme, l'évolution des flèches au cours de l'Holocène a été reconstituée à partir d'une analyse stratigraphique des dépôts préservés au sein de trois marais maritimes situés en rade de Brest. En parallèle, les variations holocènes du niveau marin ont été reconstituées afin d'appréhender le rôle des mouvements eustatique dans l'évolution à long terme des flèches de galets. Quatre grandes phases dans les courbes des variations eustatiques peuvent toutefois être identifiées. Ainsi, un stationnement relatif du niveau marin à environ 5 m sous son niveau actuel est enregistré entre 5 500 et 4 800 BP. Cette phase de ralentissement important de la transgression holocène aurait favorisé la mise en place de tourbières au niveau de la ligne de rivage actuelle à la fin de l'Atlantique et au début du Subboréal. Un mouvement transgressif important semble s'opérer entre 4 800 et 3 000 BP, amenant la mer a un niveau proche, quoique légèrement inférieur à l'actuel à la fin du Subboréal. En rade de Brest, cette phase de remontée relativement rapide du niveau marin a vraisemblablement entraîné l'inondation des tourbières littorales ou dulçaquicoles par la mer et leur remplacement par des marais maritimes protégés de l'agitation des vagues par la présence de cordons littoraux. Ces cordons auraient progressivement reculé jusqu'à une position assez voisine de l'actuelle vers 3 000 BP. Ensuite, une petite régression marine se serait traduite par une baisse du niveau marin relatif de 2 à 3 m entre 3 000 et 2 700 BP, entraînant l'abandon temporaire des systèmes littoraux (marais maritimes/cordons littoraux) par la mer. Dans le nord du Finistère, cette régression aurait favorisé l'exondation de vastes surfaces sableuses sur lesquelles la déflation éolienne aurait favorisé la construction des grands massifs dunaires de la région (Guilcher et Hallégouët, 1991). Il convient toutefois de préciser que cet épisode régressif datant de la fin de l'âge du Bronze pose question dans la mesure où il n'est enregistré par aucune courbe construite sur les différentes façades maritimes françaises (Lambeck, 1997, Vella et Provansal, 2000), ni même sur les côtes de Belgique (Denys et Beateman, 1995) ou du sud de l'Angleterre (Long et al., 1999). Cette baisse du niveau marin, ne reposant que sur deux points, pourrait simplement être attribuée à un manque de précision des données (mauvaises datations, erreur de positionnement altitudinal). De toute évidence, il apparaît nécessaire de multiplier les études de cas afin de proposer une courbe beaucoup plus fiable des variations eustatiques holocènes dans le nord-ouest de la Bretagne. A partir de 2 700 BP, le mouvement transgressif reprend à un rythme décroissant jusqu'à nos jours. La mer réinvestit peu à peu les milieux littoraux et édifie, en rade de Brest, les principaux cordons et flèches de galets actuels, qui apparaissent comme de véritables héritages morpho-sédimentaires.<br /><br />Sur le moyen terme, la mobilité des flèches de galets de Bretagne a été retracée à partir d'un traitement numérique de cartes anciennes et de photographies aériennes. Une tendance au recul des flèches se dessine à l'échelle régionale au cours des trois derniers siècles. Près de 80% des flèches étudiées montrent des signes de cannibalisation, de recul relativement rapide par rollover, d'ouverture de brèches et de démantèlement. Ces évolutions traduisent un contexte d'érosion liée à une sous-alimentation sédimentaire résultant d'apports insuffisants en matériaux grossiers provenant du recul des falaises meubles quaternaires. Les flèches de galets constituent donc actuellement des héritages en cours de dilapidation. Par ailleurs, l'analyse des forçages météo-marins sur la période récente fait apparaître une différence de fonctionnement morphodynamique opposant les flèches de type SAB (swash-aligned barriers) orientées perpendiculairement aux houles incidentes et dont l'évolution récente est fortement contrôlée par les épisodes de submersion marine, et les flèches de type DAB (drift-aligned barrier) alignées dans le sens des vagues incidentes, peu influencées par les événements météo-marins. <br /><br />Sur le court terme, la mobilité des flèches de galets a été retracée à partir d'un suivi topo-morphologique réalisé entre 2002 et 2008, couplé à une analyse des conditions météo-marines. La mobilité des flèches présente un caractère spasmodique, marquée par des phases de stabilité permettant la consolidation des cordons et de brusques épisodes érosifs liés à l'intervention d'épisodes de submersion marine très morphogènes. Les méthodes d'analyse prévisionnelle utilisées (méthode historique, cartographie de la submersion, modèle de Sallenger (2000)) permettent de prévoir une poursuite du recul de ces édifices sédimentaires et, par endroits, l'exagération des phénomènes d'érosion. Dans ce contexte, se pose la question d'une éventuelle gestion de ces formes d'accumulation puisque ces flèches participent à la protection de marais maritimes à forte valeur écologique. En outre, ces flèches constituent des objets géomorphologiques à forte valeur patrimoniale, comme en témoigne le classement récent du Sillon de Talbert en Espace Remarquable de Bretagne.
17

Vers une approche systémique et multivues pour l'analyse de données et la recherche d'information : un nouveau paradigme

Lamirel, Jean-Charles 06 December 2010 (has links) (PDF)
Le sujet principal de notre travail d'habilitation concerne l'extension de l'approche systémique, initialement implantée dans le Système de Recherche d'Information NOMAD, qui a fait l'objet de notre travail de thèse, pour mettre en place un nouveau paradigme général d'analyse de données basé sur les points de vue multiples, paradigme que nous avons baptisé MVDA (Multi-View Data Analysis). Ce paradigme couvre à la fois le domaine de l'analyse de données et celui de la fouille de données. Selon celui-ci, chaque analyse de données est considérée comme une vue différente sur les données. Le croisement entre les vues s'opère par l'intermédiaire d'un réseau bayésien construit, de manière non supervisée, à partir des données ou des propriétés partagées entre ces dernières. Le paradigme MDVA repose également sur l'exploitation de méthodes spécifiques de visualisation, comme la visualisation topographique ou la visualisation hyperbolique. La mise en place de nouveaux estimateurs de qualité de type Rappel/Précision non supervisés basés sur l'analyse de la distribution des propriétés associées aux classes, et qui à la fois sont indépendants des méthodes de classification et des changements relatifs à leur mode opératoire (initialisation, distances utilisées ...), nous a permis de démontrer objectivement la supériorité de ce paradigme par rapport à l'approche globale, classique en analyse de données. Elle nous a également permis de comparer et d'intégrer dans le paradigme MVDA des méthodes de classification non supervisées (clustering) neuronales qui sont plus particulièrement adaptées à la gestion des données ultra-éparses et fortement multidimensionnelles, à l'image des données documentaires, ainsi que d'optimiser le mode opératoire de telles méthodes. Notre démarche a par ailleurs impliqué de développer la cohabitation entre le raisonnement neuronal et le raisonnement symbolique, ou entre des modèles de nature différente, de manière à couvrir l'ensemble des fonctions de la recherche et de l'analyse de l'information et à éliminer, sinon à réduire, les défauts inhérents à chacun des types d'approche. A travers de nombreuses applications, notamment dans le domaine de l'évaluation des sciences, nous montrons comment l'exploitation d'un tel paradigme peut permettre de résoudre des problèmes complexes d'analyse de données, comme ceux liés l'analyse diachronique à grande échelle des données textuelles polythématiques. Nous montrons également comment l'ensemble des outils développés dans le cadre de ce paradigme nous ont permis mettre en place de nouvelles méthodes très robustes et très performantes pour la classification supervisée et pour le clustering incrémental. Nous montrons finalement comment nous envisageons d'étendre leur application à d'autres domaines très porteurs, comme ceux du traitement automatique des langues ou de la bioinformatique.
18

Etude de la stabilité et de la précision des modèles utilisés dans la correction des effets de proximité optique en photolithographie / Study of the impact of different physical parameters during OPC model creation for 65nm and 45nm technologies

Saied, Mazen 30 September 2011 (has links)
À l’heure actuelle, les modèles photochimiques utilisés dans la correction des effets de proximitéoptique (OPC) en photolithographie sont devenus complexes et moins physiques afin de permettre decapturer rapidement le maximum d’effets optiques et chimiques. La question de la stabilité de tels modèlespurement empiriques est devenue d’actualité. Dans ce mémoire, nous avons étudié la stabilité desmodèles photochimiques actuels en examinant les différentes causes d’instabilité vis-à-vis des paramètresdu procédé. Dans la suite, nous avons développé une méthode perturbative permettant d’évaluer le critèrede la stabilité. L’obtention de modèles simples et stables nous conduit à séparer les effets optiques desautres effets chimiques. De plus, les approximations utilisées dans la modélisation des systèmes optiquesopérant à grande ouverture numérique entraînent des erreurs résiduelles pouvant dégrader la précisionet la stabilité des modèles OPC. Ainsi, nous nous sommes intéressés à étudier les limites de validitéde l’approximation de Kirchhoff, méthode qui, jusqu’à présent, est la plus utilisée dans la modélisationdu champ proche d’un masque. D’autres méthodes semi-rigoureuses, permettant de modéliser les effetstopographiques, ont été également évaluées. Ces méthodes approchées permettent de gagner en précisionmais dégradent le temps de calcul. Nous avons ainsi proposé différentes façons de corriger les effetstopographiques du masque, tout en gardant l’approximation de Kirchhoff dans la modélisation de la partieoptique. Parmi les méthodes proposées, nous exploitons celle permettant de réduire les erreurs liéesaux effets topographiques du masque par l’intermédiaire d’un second modèle empirique. Nous montronsque pour garantir une précision adéquate, il est nécessaire d’augmenter la complexité du modèle en rajoutantdes termes additionnels. Enfin, pour garantir la stabilité numérique du modèle empirique, nousintroduirons une nouvelle méthode approchée hybride rapide et précise, la méthode des multi-niveaux,permettant d’inclure les effets topographiques par décomposition multi-niveaux du masque fin et discuteronsses avantages et ses limites. / At present, common resist models utilized in photolithography to correct for optical proximity effects(OPC) became complex and less physical in order to capture the maximum of optical and chemical effectsin shorter times. The question on the stability of such models, purely empirical, become topical. In thisthesis, we study the stability of existing OPC models by examining the origins of model instability towardsprocess parameters. Thus, we have developed a perturbative method in order to evaluate the stabilitycriterion. However, achieving stable and simple models needs a separation between optical and otherchemical effects. Besides, multiple approximations, widely utilized in the modeling of optical systemsoperating at high numerical aperture, lead to residual errors which can degrade OPC model accuracyand stability. Thus, we were interested to study the limits of validity of the Kirchhoff approximation,a method which, so far, is the most commonly used in mask near-field modeling. Other semi-rigorousmethods for mask topography effect modeling were also evaluated. These approximate methods canimprove the accuracy but degrades the run time. We then suggested different techniques to correct formask topography effects, while keeping the Kirchhoff approximation in the modeling of the optical part.Among them, we showed that errors due to mask topography effects can be partially captured by asecond empirical model. However, in order to ensure a good accuracy, it is necessary to increase themodel complexity by using more additional empirical terms. Finally, in order to achieve a numericalstability of the empirical model, we introduced a new hybrid fast and accurate method, the multi-levelmethod, which allows us to correct for mask topography effects through a multi-level decomposition ofthe thin mask and discussed its advantages and drawbacks.
19

Utilisation des données d'élévation LiDAR à haute résolution pour la cartographie numérique du matériel parental des sols

Prince, Antoine 08 1900 (has links)
Les connaissances sur la morphologie de la Terre sont essentielles à la compréhension d’une variété de processus géomorphologiques et hydrologiques. Des avancées récentes dans le domaine de la télédétection ont significativement fait progresser notre habilité à se représenter la surface de la Terre. Parmi celles-ci, les données d’élévation LiDAR permettent la production de modèles numériques d’altitude (MNA) à haute résolution sur de grands territoires. Le LiDAR est une avancée technologique majeure permettant aux scientifiques de visualiser en détail la morphologie de la Terre et de représenter des reliefs peu prononcés, et ce, même sous la canopée des arbres. Une telle avancée technologique appelle au développement de nouvelles approches innovantes afin d’en réaliser le potentiel scientifique. Dans ce contexte, le présent travail vise à développer deux approches de cartographie numérique utilisant des données d’élévation LiDAR et servant à l’évaluation de la composition du sous-sol. La première approche à être développée utilise la localisation de crêtes de plage identifiées sur des MNA LiDAR afin de modéliser l’étendue maximale de la mer de Champlain, une large paléo-mer régionalement importante. Cette approche nous a permis de cartographier avec précision les 65 000 km2 autrefois inondés par la mer. Ce modèle sert à l’évaluation de la distribution des sédiments marins et littoraux dans les basses-terres du Saint-Laurent. La seconde approche utilise la relation entre des échantillons de matériel parental des sols (MPS) et des attributs topographiques dérivés de données LiDAR afin de cartographier à haute résolution et à une échelle régionale le MPS sur le Bouclier canadien. Pour ce faire, nous utilisons une approche novatrice combinant l’analyse d’image orientée-objet (AIOO) avec une classification par arbre décisionnel. Cette approche nous a permis de produire une carte du MPS à haute résolution sur plus de 185 km2 dans un environnement hétérogène de post-glaciation. Les connaissances issues de la production de ces deux modèles ont permis de conceptualiser la composition du sous-sol dans les régions limitrophes entre les basses-terres du Saint-Laurent et le Bouclier canadien. Ce modèle fournit aux chercheurs et aux gestionnaires de ressources des connaissances détaillées sur la géomorphologie de cette région et contribue à l’amélioration de notre capacité à saisir les services écosystémiques et à prédire les aléas environnementaux liés aux processus du sous-sol. / Knowledge of the earth’s morphology is essential to the understanding of many geomorphic and hydrologic processes. Recent advancements in the field of remote sensing have significantly improved our ability to assess the earth’s surface. From these, LiDAR elevation data permits the production of high-resolution digital elevation models (DEMs) over large areas. LiDAR is a major technological advance as it allows geoscientists to visualize the earth’s morphology in high detail, even allowing us to resolve low-relief landforms in forested areas where the surface is obstructed by vegetation cover. Such a technological advance calls for the development of new and novel approaches to realize the scientific potential of this new spatial data. In this context, the present work aims to develop two digital mapping approaches that use LiDAR elevation data for assessing the earth’s subsurface composition. The first approach to be developed uses the location of low-relief beach ridges observed on LiDAR-derived DEMs to map the extent of a large and regionally important paleo-sea, the Champlain Sea. This approach allowed us to accurately map the 65,000 km2 area once inundated by sea water. The model serves to the assessment of the distribution of marine and littoral sediments in the St. Lawrence Lowlands. The second approach uses the relationship between field-acquired samples of soil parent material (SPM) and LiDAR-derived topographic attributes to map SPM at high-resolution and at a regional scale on the Canadian Shield. To do so, we used a novel approach that combined object-based image analysis (OBIA) with a classification tree algorithm. This approach allowed us to produce a fine-resolution 185 km2 map of SPM in a heterogeneous post-glaciation Precambrian Shield setting. The knowledge obtained from producing these two models allowed us to conceptualize the subsurface composition at the limit between the St. Lawrence Lowlands and the Canadian Shield. This insight provides researchers and resource managers with a more detailed understanding of the geomorphology of this area and contributes to improve our capacity to grasp ecosystem services and predict environmental hazards related to subsurface processes.

Page generated in 0.088 seconds