Spelling suggestions: "subject:"résolution spatiale"" "subject:"ésolution spatiale""
1 |
Cartographie automatisée des surfaces boisées en milieu urbanisé fondée sur la texture d'images IKONOS panchromatiquesBugnet, Pierre January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
2 |
Sensibilité de la précipitation à la résolution horizontale dans le modèle régional canadien du climatPowers, Michael Jr. 09 1900 (has links) (PDF)
À l'aide de la quatrième génération du Modèle Régional Canadien du Climat (MRCC4), deux paires de simulations pilotées à leurs frontières par les réanalyses NCEP NRA-2 ont été créées pour deux régions distinctes du Canada : 1) l'ouest canadien (WEST CAN), et 2) l'est canadien (EAST CAN). Pour ces deux régions, chaque paire de simulations consiste en une simulation dont la résolution horizontale est de 15 km (vrai à 60°N) et une simulation dont la résolution horizontale est de 45 km (vrai à 60°N). En utilisant ces simulations, cette étude tente de déterminer l'impact de l'augmentation de la résolution horizontale sur le champ de précipitation du modèle. Les résultats montrent que l'augmentation de la résolution horizontale permet d'obtenir une représentation plus réaliste de la topographie dans les simulations à 15 km, puisqu'elles illustrent de plus fines caractéristiques du terrain, tels que d'étroites et profondes vallées ainsi que de hauts, mais petits, complexes montagneux. De plus, notre étude révèle que les simulations à 15 km produisent davantage de convergence d'humidité et d'évapotranspiration, menant ainsi à une augmentation de la précipitation. L'augmentation de la résolution permet à la simulation à 15 km de produire de la neige durant toute l'année au sommet des plus hautes montagnes du domaine WEST CAN. Pour le domaine EAST CAN, la précipitation totale et solide plus grande retrouvée dans la simulation à 15 km mène à un ruissellement supérieur à celui retrouvé dans la simulation à 45 km. En comparant la précipitation simulée avec la précipitation observée provenant du réseau de stations d'Environnement Canada mesurant la précipitation horaire, on trouve que les simulations à 15 km produisent une distribution de la fréquence des précipitations horaires et une distribution de l'intensité des précipitations plus réaliste. Contrairement aux simulations à 15 km, les simulations à 45 km produisent moins d'événements horaires d'intensité modérée à très forte (3-10 mm/h) que ce qui est observé. Néanmoins, autant les simulations à 15 km que celles à 45 km produisent un biais positif en termes de fréquence et d'intensité des événements horaires de faibles intensités (0,2-3 mm/h). Conséquemment, une trop grande quantité de précipitation est générée annuellement par ce type d'événements, comparativement aux observations. La précipitation simulée est alors généralement plus grande que celle observée. Notre étude révèle également que pour analyser la fréquence et l'intensité de la précipitation, il est plus approprié d'utiliser une période d'accumulation d'une heure plutôt qu'une période d'accumulation de 24 heures. En effet, cela nous permet de comprendre plus facilement quels types d'événements le modèle est capable de reproduire et quelle est la contribution (en termes de quantité de précipitation) de chacun de ces événements.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : modélisation régionale du climat, haute résolution, précipitation, MRCC
|
3 |
Développement et caractérisation de techniques pour l’amélioration de la sensibilité et de la résolution spatiale des sources MALDI : désolvatation laser et masques / Development and characterization techniques for improving the sensitivity and spatial resolution of MALDI sources : laser desolvation and masksDiologent, Laurent 18 July 2013 (has links)
La spectrométrie de masse MALDI est une technique devenue incontournable pour l’analyse des biomolécules et largement employée dans de nombreuses applications. Bien que les performances de cette source soient notoires, celles-ci restent encore limitées en particulier en termes de sensibilité ou encore de résolution spatiale pour des applications telles que l’imagerie MALDI MS. En effet, les rendements de production d’ions sont très faibles en MALDI et chutent encore lorsque la résolution spatiale est augmentée (diminution de l’aire irradiée). Ainsi, les objectifs de ces travaux de thèse ont été de développer et d’étudier deux systèmes permettant d’augmenter la sensibilité. La première partie de ces travaux a donc portée sur la réalisation d’un système permettant la désolvatation des agrégats formés dans le processus MALDI via l’utilisation d’un second faisceau laser interceptant la plume en expansion. Par utilisation d’un laser pulsé émettant à 1064 nm il a été ainsi possible de démontrer une augmentation d’un facteur 2 à 3 de l’intensité des signaux d’analyte. Dans une seconde partie, un système de masques de silicium permettant de réduire les dimensions de la zone irradiée (sans agir sur la focalisation du faisceau laser) a été développé. Les études réalisées pour différentes géométries de ces masques ont permis de démontrer d’une part l’efficacité de ces systèmes pour réduire l’aire de la zone irradiée en coupant le faisceau laser incident tout en maintenant l’intensité des signaux, et d’autre part que certaines géométries particulières permettaient d’obtenir un effet d’augmentation de la sensibilité et de la résolution spectrale. / MALDI Mass Spectrometry is an essential tool for biomolecules analysis and is largely employed in various applications. Albeit performances of this ion source are well known, there are still clear limitations in terms of sensitivity and spatial resolution for applications such as MALDI MS Imaging. Indeed, ion production yields are very low in MALDI and, moreover drop when spatial resolution is increased (decrease of irradiated area). Thus, objectives of this work were to develop and study two systems for improving sensitivity. First part of this work was dedicated to setup a system allowing desolvation of material clusters formed in the MALDI process by using a second laser to intercept the expanding plume. By using a pulsed laser emitting at 1064 nm, it was possible to demonstrate an increase of signal intensity by 2 to 3 folds. In a second part, Silicon mask systems allowing reduction of irradiated area (without involving any focusing of the laser beam) was developed. Studies of various geometries of the mask showed their efficiency to reduce irradiated area by cutting part of the laser beam while maintaining signal intensity. Moreover, for certain geometries it was demonstrated that masks could lead to an increase in sensitivity and spectral resolution.
|
4 |
Identification des cristaux dans un détecteur Phoswich appliqué à la tomographie d'émission par positronsYousefzadeh, Hoorvash Camilia January 2010 (has links)
La tomographie d'émission par positrons (TEP) occupe une place de choix dans le domaine de l'imagerie moléculaire par sa capacité d'obtenir des informations ultrasensibles et quantitatives sur des processus métaboliques, physiologiques ou cellulaires. De plus, grâce à la similitude des génomes de l'homme et de petits rongeurs comme la souris, elle attire un grand intérêt dans le domaine de la recherche médicale, allant de la détection précoce de différentes formes de cancers jusqu'au développement de nouveaux médicaments. Toutefois, pour tirer profit des images acquises lors d'études animales, des scanners de plus en plus performants sont nécessaires. Le LabPETTM, le scanner TEP petit animal conçu par les efforts unis du Groupe de recherche en appareillage médicale de Sherbrooke (GRAMS) et du Centre d'imagerie moléculaire de Sherbrooke (CIMS) se démarque des autres scanners d'une part par son couplage individuel des photodiodes à avalanche à une paire de cristaux scintillateurs et d'autre part par une numérisation hâtive des signaux et un traitement numérique parallèle. Cela permet d'y implanter des algorithmes de traitement de signaux puissants. Le filtre de Wiener est une des techniques utilisées dans le LabPETTM pour optimiser à la fois le rendement et la capacité d'identification du cristal (IC) excité par le rayonnement émis dans le scanner par les radioisotopes. Les travaux de cette thèse portent, dans une première partie, sur le développement et l'implantation d'une version plus complète et ajustée de la méthode d'IC basée sur le filtre de Wiener. L'amélioration de cette technique porte sur l'utilisation des deux caractéristiques élémentaires des cristaux, soit leur constante de temps et leur rendement lumineux pour une IC plus précise et rapide. Une telle IC peut être réalisée même avec des cristaux possédant des caractéristiques très similaires, et pour des énergies très basses - jusqu'à 100 keV. Dans une deuxième partie, les performances de la méthode d'IC Wiener ont été évaluées en tenant compte de la contribution des différentes sources de bruit de la chaîne d'acquisition d'un scanner TEP. L'influence du bruit de multiplication de la photodiode à avalanche (un bruit non-stationnaire et poissonien), le bruit électronique (un bruit stationnaire et gaussien), ainsi que l'effet de l'utilisation des filtres de mise en forme rapide CR-RC n sur les résultats de l'algorithme d'IC ont été étudiés grâce au développement d'un simulateur de TEP qui imite les signaux de sortie du LabPETTM. Finalement, la possibilité d'utiliser la méthode d'IC Wiener pour discriminer des détecteurs multicouches, composés de trois et quatre cristaux, a été étudiée. L'implantation de cet algorithme dans un scanner TEP permettra à court terme d'améliorer les performances de démultiplexage des détecteurs et, de ce fait, la résolution spatiale axiale du système. Des techniques de modélisations du bruit non-stationnaire sont proposées pour rehausser les résultats de l'algorithme d'IC. En se basant sur les résultats de l'algorithme d'IC, il est possible de développer des techniques pour mesurer l'énergie déposée dans les cristaux et parvenir à une séparation des évènements Compton diffusés entre les cristaux d'un même détecteur comparativement aux autres diffusions Compton. A plus long terme, ceci permettra de bonifier la sensibilité du scanner.
|
5 |
Classification multi-échelle d'images à très haute résolution spatiale basée sur une nouvelle approche texturaleDelahaye, Alexandre January 2016 (has links)
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires.
Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations. / Abstract : Classifying remote sensing images is an increasingly difficult task due to the availability of very high spatial resolution (VHSR) data. The amount of details in such images is a major obstacle to the use of spectral classification methods as well as most textural classification algorithms, including statistical methods. However, structural methods offer an interesting alternative to this issue: these object-oriented approaches focus on analyzing the structure of an image in order to interpret its meaning. In the first part of this thesis, we propose a new algorithm belonging to this category: KPC (KeyPoint-based Classification). KPC is based on keypoint detection and analysis and offers an efficient answer to the issue of classifying VHSR images. Tests led on artificial and real remote sensing images have proven its discriminating power.
Furthermore, many studies have proven that evidential fusion (based on Dempster-Shafer theory) is well-suited to remote sensing images because of its ability to handle abstract concepts such as ambiguity and uncertainty. However, few studies did focus on the application of this theory to complex textural data such as structural data. This issue is dealt with in the second part of this thesis; we focused on fusing multiscale KPC classifications with the help of Dempster-Shafer theory. Tests have shown that this multi-scale approach leads to an increase in classification efficiency when the original image has a low quality. Our study also points out a substantial potential for improvement gained from the estimation of intermediate classifications reliability and provides ideas to get these estimations.
|
6 |
A framework to study the potential benefits of using high-resolution regional climate model simulationsDi Luca, Alejandro 07 1900 (has links) (PDF)
La modélisation du climat à haute résolution est nécessaire aux études d'impact du climat et, de nos jours, les modèles de circulation générale (MCG) n'ont pas encore une résolution suffisante pour satisfaire ces besoins. Les modèles régionaux du climat (MRC) ont été développés dans le but de fournir des détails sur le climat à fine échelle sur des régions spécifiques de la Terre. Les MRC ont démontré leur capacité à produire de la variabilité spatiale à petite échelle qui manque dans les simulations de MCG ; pour cette raison, les MRC sont de plus en plus utilisés dans les études sur le climat actuel et futur. Malgré ce succès, les avantages découlant de la production d'une variabilité climatique de fine échelle - autres que l'effet visuel saisissant des animations réalistes - ont rarement été clairement identifiés. Les tentatives pour quantifier ces avantages, généralement désignés comme étant la valeur ajoutée (VA) des MRC, ont été relativement rares et ont prouvé que la question de la VA est très complexe. Compte tenu de cette complexité, ce projet se concentre sur un aspect particulier de cette question : l'étude des conditions préalables que doivent satisfaire certaines statistiques climatiques pour permettre aux MRC d'ajouter de la valeur aux données utilisées comme pilote. Ces conditions sont basées sur l'idée que la VA des MRC ne peut survenir que si les statistiques climatiques d'intérêt contiennent de l'information à fine échelle qui n'est pas négligeable. Des données observées et simulées par des MRC peuvent ensuite être utilisées pour quantifier l'influence relative des fines échelles dans les statistiques climatiques, comme un proxy, pour estimer la valeur ajoutée potentielle (VAP) des MRC. Deux méthodes différentes ont été utilisées pour étudier la VAP sur l'Amérique du Nord, respectivement pour la température de surface et la précipitation. Les deux méthodes comprennent 3 étapes : l'utilisation d'une technique de décomposition pour séparer les variables atmosphériques en plusieurs échelles temporelles et spatiales, le calcul de statistiques climatiques et la définition d'une quantité pour estimer la VAP. Pour la température, nous constatons que la VAP se dégage presque exclusivement dans des régions caractérisées par des forçages de surface importants, soit la présence de topographie de fine échelle ou de contrastes terre-mer. Par ailleurs, certains des processus qui produisent la variabilité de petite échelle semblent être liés à des mécanismes relativement simples tels que la réponse linéaire aux différentes propriétés physiques de la surface et la variation générale de la température avec l'altitude dans l'atmosphère. Le potentiel des MRC à ajouter de la valeur dans les projections futures de la température moyenne est brièvement étudié. L'analyse montre que la variabilité de fine échelle du signal du changement climatique est généralement très faible par rapport à celle de grande échelle, ce qui suggère que peu de VA est attendue pour cette statistique climatique. Pour les précipitations, les résultats montrent que la VAP est fortement liée à des instabilités hydrodynamiques de fine échelle. La VAP est beaucoup plus élevée sur de courtes échelles temporelles (par exemple, pour des données sur 3 heures) et pour la saison chaude en raison de la proportion plus élevée de précipitations produites par de petits systèmes météorologiques et systèmes convectifs. Dans les régions à topographie complexe, le forçage orographique induit une composante supplémentaire de VAP, peu importe la saison ou l'échelle temporelle considérée. Les résultats montrent aussi que les MRC ont tendance à reproduire relativement bien la VAP par rapport aux observations bien qu'ils montrent une légère surestimation de la VAP en saison chaude et dans des régions montagneuses. Les résultats démontrent l'utilité du cadre utilisé pour étudier la VAP dans le climat actuel et dans des projections futures. Il est souligné que l'étude approfondie de la VA des MRC devrait aider à comprendre comment utiliser le mieux les divers produits climatiques disponibles en appui aux études en impact et adaptation face au climat changeant.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : modèles régionaux du climat, valeur ajouté potentielle, Amérique du Nord, température, précipitation.
|
7 |
Étude des conditions physiques dans les disques protoplanétaires par interférométrie. Théorie, instrumentation et premières observations.Malbet, Fabien 26 October 2007 (has links) (PDF)
Les étoiles se forment lors de l'effondrement de nuages de gaz et de poussière. Dans l'environnement proche de l'étoile naissante la matière se concentre dans un plan équatorial que l'on appelle disque protoplanétaire. Les astronomes pensent que les planètes se forment au sein de cette masse de gaz et de poussière orbitant autour de l'étoile. Pour sonder ces disques à des échelles correspondant aux orbites des futures planètes, il convient d'observer dans l'infrarouge à très haute résolution spatiale. L'interférométrie infrarouge est donc un outil idéal pour étudier les conditions physiques des disques protoplanétaires. Dans ce mémoire, je décris les premiers pas de l'interférométrie infrarouge, depuis la mise au point des petits interféromètres PTI et IOTA jusqu'à la construction de l'instrument AMBER au foyer de l'interféromètre du VLT. Je décris aussi les résultats d'une piste de recherche technologique particulièrement attrayante dans le cas de l'interférométrie infrarouge et issue des technologies des autoroutes de l'information: l'optique intégrée appliquée à la combinaison de plusieurs faisceaux en astronomie. Je montre ensuite comment à partir des observations obtenues à partir de ces instruments, il est possible de contraindre la physique des disques autour des étoiles jeunes. Grâce à la résolution spectrale nouvellement disponible sur ces instruments, pour la première fois nous pouvons séparer des phénomènes physiques aussi différents que l'accrétion de matière sur l'étoile et l'éjection de particules par des vents dont l'origine précise est encore mal connue. Les résultats présentés dans ce mémoire ont été obtenus principalement à partir d'observations sur les systèmes jeunes FU Ori et MWC 297 effectuées par AMBER sur le VLTI, mais aussi par les petits interféromètres infrarouges PTI et IOTA. Je développe aussi les travaux de modélisation de la structure verticale des disques associés afin de montrer la richesse des renseignements obtenus. Finalement je trace les contours d'un programme de recherche qui permettra tout d'abord de maximiser le retour astrophysique sur un instrument comme le VLTI, puis d'obtenir de premières images interférométriques de ces environnements circumstellaires. Je propose aussi la réalisation d'un instrument de seconde génération qui permettra de fournir des images interférométriques détaillées de ces sources compactes par synthèse d'ouverture.
|
8 |
Synthèse de paysages dans l'infrarouge thermique pour la simulation d'images de télédétectionPoglio, Thierry 07 November 2002 (has links) (PDF)
Dans l'infrarouge thermique, des simulateurs de systèmes d'acquisition d'images existent déjà chez les industriels. Leur fonctionnement nécessite la connaissance de nombreux paramètres, dont celle du paysage à observer. Or, ce paysage doit lui-même être simulé. Du fait de la complexité de son comportement, peu de simulateurs de paysages ont été développés. Cette thèse tente de pallier à ce manque, en proposant une méthode de simulation adaptée à l'imagerie à haute résolution spatiale dans l'infrarouge thermique. Un simulateur a été conçu et développé. A l'aide d'une modélisation physique du comportement thermique et spectral du paysage, une classification des contributions des différents phénomènes physiques a pu être établie. Une simulation autorisant un haut degré de détails passe notamment par l'analyse et la prise en compte des phénomènes physiques à petite échelle (conduction, perturbations de l'écoulement du vent, ...) et à trois dimensions (ombrage, réflexions, ...) et implique la modélisation fine de ces phénomènes. L'originalité de la thèse réside dans la création d'une méthode de simulation, basée sur la radiosité, et adaptée à la synthèse d'images dans l'infrarouge thermique. Le paysage est modélisé à l'aide d'entités, les éléments, permettant de prédire précisément le signal provenant du paysage. Ces éléments sont compatibles avec les exigences matérielles informatiques qui imposent des limitations de temps de calcul et de ressources mémoires. Ils résultent de la concaténation des contraintes imposées par la géométrie des objets, par leur constitution (matériaux), et par la prise en compte de l'évolution temporelle des différents phénomènes physiques qui régissent le comportement du paysage. Ces éléments constituent une extension volumique et temporelle des facettes, entités communément utilisées pour la synthèse d'images dans les courtes longueurs d'onde. Des images obtenues en utilisant les éléments et le simulateur développé sont présentées dans la thèse.
|
9 |
Hétérogénéité spatiale des surfaces terrestres en télédétection : caractérisation et influence sur l'estimation des variables biophysiquesGARRIGUES, Sebastien 16 December 2004 (has links) (PDF)
La télédétection permet d'estimer les variables biophysiques révélatrices de l'état et du fonctionnement du couvert végétal. A l'heure actuelle, la répétitivité temporelle nécessaire pour caractériser le fonctionnement des couverts végétaux n'est assurée que par des capteurs à large champ observant la surface à des résolutions spatiales hectométrique ou kilométrique. Toutefois, l'hétérogénéité spatiale intra-pixellaire constitue une source d'incertitude significative lorsque les relations entre les variables biophysiques et les variables radiométriques mesurées par télédétection sont non linéaires. L'hétérogénéité du pixel moyenne résolution est caractérisée à partir du variogramme d'images de variables radiométriques (NDVI, PIR, ROUGE) issues d'un capteur à haute résolution spatiale. L'analyse de différents paysages montre que les échelles de variation expliquant la plus grande part de variabilité de la couverture végétale ont une gamme de valeur comprise entre 60m et 800m. D'autre part, un modèle a été construit pour corriger l'erreur d'estimation des variables biophysiques induite par l'hétérogénéité spatiale du pixel moyenne résolution. L'erreur d'estimation s'exprime de façon multiplicative en fonction du degré d'hétérogénéité et du degré de non linéarité de la relation entre la variable radiométrique et la variable biophysique. La correction est satisfaisante, en particulier à 1000m de résolution. A partir de la caractérisation de l'hétérogénéité spatiale de dix-huit paysages, la résolution spatiale optimale qui permet de capturer le maximum de variabilité de la couverture végétale du paysage pour minimiser l'erreur d'estimation a été estimée à 30m.
|
10 |
Évaluation de quelques sources d’erreur dans un inventaire de l’occupation du sol par terrain agricole à Sainte-Foy (Québec), produit à l’aide d’une image SPOT-1Dugas-Simard, Alain January 1991 (has links)
Un inventaire de l'occupation du sol pour chaque terrain agricole en milieu périurbain peut être produit par le croisement (automatisé) entre une image satellitaire classifiée et une image des terrains, provenant du cadastre numérisé. Trois sources d'erreur sont examinées. L'erreur planimétrique, créée par la ""rasteurisation"" des polygones-terrain, l'erreur dans les proportions des classes d'occupation du sol due à la résolution spatiale, et l'erreur de la classification elle-même. Les résultats démontrent que chacune de ces erreurs varie en fonction des terrains, donnant des inventaires de qualité inégale. Il est difficile de les corréler avec les dimensions des terrains, et de fixer ainsi des dimensions minimales nécessaires au succès de l'inventaire agricole.
|
Page generated in 0.0796 seconds