Spelling suggestions: "subject:"ondelettes."" "subject:"bandelettes.""
161 |
Implémentation et applications d'algorithmes fondés sur la théorie de la fonctionnelle de la densité dépendante du temps dans les logiciels à la base des fonctions gaussiennes et ondelettes / Implementation, Testing, and Application of Time-Dependent Density-Functional Theory Algorithms for Gaussian- and Wavelet-based ProgramsNatarajan, Bhaarathi 19 January 2012 (has links)
L'interaction entre la matière et le rayonnement est un domaine bien établi de la physique. Pour un physico-chimiste, cette interaction peut être utilisée comme une sonde (spectroscopie) ou pour provoquer des réactions chimiques (photo-chimie). Les mécanismes des réactions photochimiques sont difficiles à étudier expérimentalement et même les études les plus sophistiquées de spectroscopies femtosecondes peuvent bénéficier énormément des simulations théoriques.Les résultats spectroscopiques d'ailleurs ont souvent besoin des calculs théoriques pour l'analyse de leurs spectres. Les méthodes théoriques pour décrire les processus photochimiques ont été principalement développées en utilisant le concept de la fonction d'onde à N corps et ont eu des succès remarquables. Cependant de telles approches sont généralement limitées à des petites ou moyennes molécules. Heureusement la théorie de la fonctionnelle de la densité dépendant du temps (TD-DFT) a émergé comme une méthode simple de calcul pouvant être appliquée à des molécules plus grandes, avec une précision qui est souvent, mais pas toujours, semblable à la précision provenant des méthodes basés sur la fonction d'onde à N électrons. Une partie de cette thèse consiste à surmonter les difficultés des approximations utilisées de nos jours en TD-DFT. En particulier, nous avons examiné la qualité des intersections coniques quand l'approche du retournement de spin non collinéaire de Ziegler-Wang est utilisée et nous avons montré que l'approche du retournement de spin, parfois ,améliore dans des cas particuliers, mais que c'est n'est pas une solution générale pour mieux décrire les intersections coniques dans les simulations photochimiques basées sur la TD-DFT. La plupart des parties de cette thèse traite d'améliorations algorithmiques, soit pour améliorer l'analyse des résultats de la TD-DFT, soit pour étendre les calculs de TD-DFT à de grandes molécules. L'implémentation de l'analyse automatique des symétries des orbitales moléculaires dans deMon2k est une contribution pour améliorer l'analyse des résultats de la TD-DFT. Cela a aussi servi comme une introduction au projet de programmation majeur. La contribution méthodologique principale dans cette thèse est l'implémentation des équations de Casida dans le code BigDFT fondé sur le formalisme des ondelettes. Cette implémentation a aussi permis une analyse détaillée des arguments positifs et négatifs de l'utilisation de la TD-DFT fondée sur les ondelettes. On montre qu'il est plus facile d'obtenir des orbitales moléculaires précises qu'avec deMon2k. Par contre, la contribution des orbitales inoccupées est plus problématiques qu'avec un code de gaussienne comme deMon2k. Finalement, les équations de base des gradients analytiques des états excités sont dérivées pour la TD-DFT. La thèse se termine avec quelques perspectives de travaux futurs. / The interaction of light with matter is a well-established domain of physical science. For a chemical physicist, this interaction may be used as a probe (spectroscopy) or to induce chemical reactions (photo- chemistry.) Photochemical reaction mechanisms are difficult to study experimentally and even the most sophisticated modern femtosecond spectroscopic studies can benefit enormously from the light of theoret- ical simulations. Spectroscopic assignments often also require theoreti- cal calculations. Theoretical methods for describing photoprocesses have been developed based upon wave-function theory and show remarkable success when going to sophisticated higher-order approxi- mations. However such approaches are typically limited to small or at best medium-sized molecules. Fortunately time-dependent density- functional theory (TD-DFT) has emerged as a computationally-simpler method which can be applied to larger molecules with an accuracy which is often, but not always, similar to high-quality wave-function calculations. Part of this thesis concerns overcoming difficulties in- volving the approximate functionals used in present-day TD-DFT. In particular, we have examined the quality of conical intersections when the Ziegler-Wang noncollinear spin-flip approach is used and have shown that the spin-flip approach has merit as a particular solution in particular cases but is not a general solution to improving the de- scription of conical intersections in photochemical simulations based upon TD-DFT. Most of this thesis concerns algorithmic improvements aimed at either improving the analysis of TD-DFT results or extending practical TD-DFT calculations to larger molecules. The implementa- tion of automatic molecular orbital symmetry analysis in deMon2k is one contribution to improving the analysis of TD-DFT results. It also served as an introduction to a major programming project. The major methodological contribution in this thesis is the implementation of Casida's equations in the wavelet-based code BigDFT and the subse- quent analysis of the pros and cons of wavelet-based TD-DFT where it is shown that accurate molecular orbitals are more easily obtained in BigDFT than with deMon2k but that handling the contribution of unoccupied orbitals in wavelet-based TD-DFT is potentially more problematic than it is in a gaussian-based TD-DFT code such as de- Mon2k. Finally the basic equations for TD-DFT excited state gradients are derived. The thesis concludes with some perspectives about future work.
|
162 |
Ondelettes analytiques et monogènes pour la représentation des images couleur / Analytic and monogenic wavelets for color image representationSoulard, Raphaël 19 November 2012 (has links)
De nombreux algorithmes de traitement d'image numérique (compression, restauration, analyse) sont basés sur une représentation en ondelettes. Les outils mathématiques disponibles étant souvent pensés pour des signaux 1D à valeurs scalaires (comme le son), ils sont mal adaptés aux signaux 2D vectoriels comme les images couleur. Les méthodes les plus répandues utilisent ces outils indépendamment sur chaque ligne et chaque colonne (méthodes « séparables »), de chaque plan couleur (méthode « marginale ») de l'image. Ces techniques trop simples ne donnent pas accès aux informations visuelles élémentaires, aboutissant à des traitements qui risquent d'introduire des artefacts rectangulaires et de fausses couleurs. Notre axe de recherche se situe autour des représentations analytiques qui utilisent un modèle oscillatoire des signaux. Ces outils de traitement du signal sont connus pour être bien adaptés à la perception humaine (auditive et visuelle), et leur extension à des dimensions supérieures est un sujet encore très actif, qui révèle des propriétés intéressantes pour l'analyse de la géométrie locale. Dans cettethèse, nous faisons une revue des ondelettes analytiques existantes pour l'image en niveaux de gris (dites complexes, quaternioniques et monogènes), et nous proposons des expérimentations qui valident leur intérêt pratique. Nous définissons ensuite une extension vectorielle qui permet de manipuler facilement le contenu géométrique d'une image couleur, ce que nous validons à travers des expérimentations en codage et analyse d'image. / Many digital image processing algorithms (compression, restoration, analysis) are based on a wavelet representation. Available mathematical tools are often designed for 1D and scalar-valued signals (e.g. sound) so ill-adapted for 2D vector signals such as images. Most methods use those tools independently on every row and column (“separable methods”) of each color channel (“marginal methods”) of the image. These too simple techniques cannot give access to elementary visual information, sometimesresulting in rectangular artifacts or false colors. Our topic is about analytic representations using an oscillatory model for signals. These signal processing tools are known to fit well the human perception (auditory and visual), and their extension to higher dimensions is still an active topic revealing interesting properties for local geometry analysis. In this thesis we review existing analytic wavelets for grayscale images (complex, quaternionic and monogenic) and we propose experiments that validate their practical interest. We then define a vector extension that handles well the geometric content of a color image, whatwe further validate through experiments of image coding and analysis.
|
163 |
Asservissement visuel direct fondé sur les ondelettes pour le positionnement automatique d'une sonde de tomographie par cohérence optique / Visual servoing based on the wavelets for automatic positioning of an optical coherence tomography probeOurak, Mouloud 08 December 2016 (has links)
Les avancées technologiques ont ouvert la voie à des approches de biopsie optique innovantes. Elles permettent à l'inverse des méthodes physiques de profiter des avantages d'une procédure mini-invasive, temps réels et répétitive. Le système de tomographie par cohérence optique (OCT) (la technique de biopsie optique utilisée dans cette thèse) propose des approches qui naviguent dans le corps humain grâce à des sondes endoscopiques robotisées. Toutefois, leur contrôle une fois à l’intérieur du corps devient difficile, surtout si l’objectif est de suivre l’évolution d'une zone cible, en faisant un travail de repositionnement dans le temps. L'asservissement visuel est un outil de choix pour le contrôle et le positionnement directement par l'image. Néanmoins, la richesse des informations présentes dans les images autorisent l'utilisation de plusieurs types d'information visuelle. Dans ce contexte, nous proposons l'utilisation de primitives visuelles innovantes fondées sur les ondelettes. Ainsi, deux approches d'asservissements visuels fondées sur les ondelettes ont été développées. La première approche est un asservissement visuel 2D pose fondé sur les ondelettes spectrales continues qui assure une convergence sur un espace plus important avec une bonne robustesse au bruit et une commande découplée. La deuxième est un asservissement visuel 2D direct fondé sur les ondelettes multirésolution, principalement pour faire du positionnement aux petits déplacements. Par ailleurs, la deuxième méthode couvre les 6 DDL quand la première se limite aux 3 DDL dans les images CCD. De plus, ces deux approches ont prouvé leurs aptitudes à faire du positionnement des coupes OCT. Mais encore, nous avons proposé une méthode de positionnement partitionnée que nous pouvons qualifier d'hybride, car elle exploite deux modalités d'images (OCT - CCD) pour assurer un positionnement sur SE(3) d'un échantillon. De même, nous avons proposé une méthode d'étalonnage des images de coupe et de volume OCT, liée aux distorsions générées par le chemin optique parcouru par le faisceau laser OCT. Finalement, ces travaux ouvrent la voie vers des applications dans le positionnement des volumes OCT, la compensation de mouvement physiologique et le suivi d'outils par des images OCT. / The technological advances have facilitated the optical biopsy approaches, unlike physical methods to take advantage of a minimally invasive, real time and repetitive procedure. The optical coherence tomography system is one of the optical biopsy techniques used in this thesis to prospect in the human body with robotized OCT endoscopic probes. Nevertheless, their control once inside the body becomes difficult, especially if the goal is following changes in the target area. The visual servoing is an ideal tool for the control and positioning of the robot. However, the amount of information present in the images allows the use of several types of visual features. In this thesis, we propose to use an innovative visual servoing feature based on wavelets. This representation developed as the evolution of the Fourier transform for non-stationary signals provides a time-frequency representation of the signal with a better extraction of the relevant information. Indeed, two visual servoing approaches based on wavelets were developed. The first approach is a 2D pose visual servoing based on spectral continuous wavelets, which ensures convergence over a larger area and decoupled control. The second is a direct 2D visual servoing based on multiresolution wavelets, mainly for small displacements positioning. However, the latter covers the 6 DOF when the previous one is limited to 3 DDL with a CCD camera. Both approaches have proven their ability to make the positioning of B-Scan OCT images. After that, we have proposed a method of partitioned positioning, that we can qualify by hybrid because it uses two image modalities to ensure SE(3) positioning of a sample. On the other side, we proposed a calibration method of B-Scan and 3D-Scan OCT images, due to the distortions generated by the optical path of the laser beam in OCT. Finally, these thesis is a beginning work for applications in positioning of 3D-Scan OCT, physiological motion compensation and monitoring tools by OCT images.
|
164 |
3D Knowledge-based Segmentation Using Sparse Hierarchical Models : contribution and Applications in Medical Imaging / Segmentation d'images 3D avec des modèles hiérarchiques et parcimonieux : applications et Contributions en Imagerie MédicaleEssafi, Salma 12 May 2010 (has links)
CETTE thèse est consacrée à la conception d’un système d’aide au diagnostic dédiéau muscle squelettique humain. Au cours du premier volet de ce manuscrit nousproposons une nouvelle représentation basée sur les modèles parcimonieux dans le cadrede la segmentation d’Images de Résonances Magnétiques (IRM) T1 du muscle squelettiquedu mollet. Notre méthode Sparse Shape Model/ Modèle de Formes Parcimonieux(MFP), apprend un modèle statistique de formes et de textures locales annoté et réussità en tirer une représentation réduite afin de reconstruire le mécanisme musculaire sur unexemple test. Dans la seconde partie du manuscrit, nous présentons une approche baséesur des ondelettes de diffusion pour la segmentation du muscle squelettique. Contrairementaux méthodes de l’état de l’art, notre approche au cours de la phase d’apprentissagepermet à optimiser les coefficients des ondelettes, ainsi que leur nombres et leur positions.Le modèle prend en charge aussi bien les hiérarchies dans l’espace de recherche,que l’encodage des dépendances géométriques complexes et photométriques de la structured’intérêt. Notre modélisation offre ainsi l’avantage de traiter des topologies arbitraires.L’évaluation expérimentale a été effectué sur un ensemble de mollets acquisespar un scanner IRM, ainsi qu’un ensemble d’images tomodensitométriques du ventriculegauche. / THE thesis is dedicated to three dimensional shape analysis and the segmentation ofhuman skeletal muscles in the context of myopathies and their treatment. In particular,we study the local and global structural characteristics of muscles. The methodologicalfocus of the thesis is to devise methods for the segmentation of muscles, theconsistent localization of positions in the anatomy and the navigation within the muscledata across patients. Currently diagnosis and follow-up examinations during therapy ofmyopathies are typically performed by means of biopsy. This has several disadvantages:it is an invasive method, covers only a small muscle region, is mainly restricted to diagnosticpurpose and is not suitable for follow-up evaluation. We develop the followingmethods to make the use of non-invasive imaging modalities such as MRI for a virtualbiopsy possible: first, a novel approach to model shape variations that encodes sparsity,exploits geometric redundancy, and accounts for the different degrees of local variationand image support in data. It makes the modeling and localization of muscles possible,that exhibit sparsely distributed salient imaging features, and heterogeneous shapevariability. Second, we extend the shape representation of 3D structures using diffusionwavelets. The proposed method can represent shape variation and exploits continuousinter-dependencies of arbitrary topology in the shape data. We then explore several approachesfor the shape model search, and appearance representation based on boostingtechniques and canonical correlation analysis. Last we present a robust diffusion wavelettechnique that covers the integration of our two shape models approaches to finally getan enhanced sparse wavelet based method. We validate the approaches on two medicalimaging data sets that represent the properties tackled by the approaches: T1 weightedMRI data of full calf muscles and computed tomography data of the left heart ventricle.
|
165 |
Faisabilité et intérêt du monitorage de la fatigue ventilatoire en anesthésie et réanimation par la mesure de l'électromyographie diaphragmatique temps réel / Feasibility and advantages of real-time monitoring of diaphragmatic ventilatory fatigue in anesthesiology and in intensive care unitMorel, Guy Louis 04 September 2014 (has links)
L’activité musculaire peut être caractérisée par la performance et un état de fatigue. Le muscle diaphragmatique est caractérisé par sa résistance à la fatigue, en faisant un témoin de capacité à l'autonomie respiratoire. Bien que cliniquement d'intérêt, la mesure de l'état de fatigue de ce muscle est difficile. Nous avons approché cette mesure en analysant les signaux de son activité électrique recueillis par contact. L'obtention des paramètres requière un traitement du signal. Nous avons développé les outils de recueil et de traitement de ce signal et les avons analysé pendant l'anesthésie. Le recueil a fait l'objet du développement d'une sonde multiélectrodes et des logiciels hardware et software de recueil du signal. L'analyse du signal a été l'objet de différentes méthodes mathématiques de débruitage temps réel sur des processeurs RISC-ARM, comparant des algorithmes de deux types d’ondelettes (MuRw, LiFw), et un filtre morphologique (MoFi), le choix portant finalement sur l'ondelette MuRw offrant le meilleur compromis en temps de calcul et en rapport signal sur bruit. L'évaluation clinique de sujets sains et de patients a montré la pertinence des paramètres fréquentiels de l'activité électrique MuRw du diaphragme comme représentants de son état de fatigue, en particulier par le rapport hautes sur basses fréquences obtenu par analyse spectrale / Muscular activity can be described in terms of performance and fatigue. Diaphragmatic muscle is charactarized by its resistance to fatigue, making of it a good representative of ventilatory autonomy. While of clinical interest, its measurement is difficult. We considered this measurement by analyzing the electrical diaphragmatic signal gathered from direct recordings. To be obtained, the parameters have to be filtered. We developped the tools to record as well as to filter the signal and have validated them in clinical settings during anesthesia and intensive care. A multielectrodes probe and the associated hardware and software were developped for the signal recording. The filtering which followed compared using differnt wavelet analysis algorithms (MuRw, LiFw), and a morphological filter (MoFi), through a RISC-ARM processor for a real-time measurement. MuRw was the best compromise for calcul duration and signal noise ratio. Clinical evaluation on patients and healthy volounteers demonstrated the pertinence of frequential parameters extracted from the filtered signal, particularly the High Low ratio obtained after spectral analysis
|
166 |
Restauration d'images de noyaux cellulaires en microscopie 3D par l'introduction de connaissance a priori / Denoising 3D microscopy images of cell nuclei using shape priorsBouyrie, Mathieu 29 November 2016 (has links)
Cette thèse aborde la problématique de la restauration d’images 3D de noyaux cellulaires fluorescents issues de la microscopie 2-photons à balayage laser d’animaux observés in vivo et in toto au cours de leur développement embryonnaire. La dégradation originale de ces images provient des limitations des systèmes optiques, du bruit intrinsèque des systèmes de détection ansi que de l’absorption et la diffusion de la lumière dans la profondeur des tissus. A la différence des propositions de “débruitage” de l’état de l’art, nous proposons ici une méthode qui prend en compte les particularités des données biologiques. Cette méthode, adaptation à la troisième dimension d’un algorithme utilisé dans l’analyse d’image astronomique, tire parti de connaissances a priori sur les images étudiées. Les hypothèses émises portent à la fois sur la détérioration du signal par un bruit supposé Mixe Poisson Gaussien (MPG) et sur la nature des objets observés. Nous traitons ici le cas de noyaux de cellules embryonnaires que nous supposons quasi sphériques.L’implémentation en 3D doit prendre en compte les dimensions de la grille d’échantillonnage de l’image. En effet ces dimensions ne sont pas identiques dans les trois directions de l’espace et un objet sphérique échantillonné sur cette grille perd cette caractéristique. Pour adapter notre méthode à une telle grille, nous avons ré-interprété le processus de filtrage, au coeur de la théorie originale, comme un processus physique de diffusion. / In this this document, we present a method to denoise 3D images acquired by 2-photon microscopy and displaying cell nuclei of animal embryos. The specimens are observed in toto and in vivo during their early development. Image deterioration can be explained by the microscope optical flaws, the acquisition system limitations, and light absorption and diffusion through the tissue depth.The proposed method is a 3D adaptation of a 2D method so far applied to astronomical images and it also differs from state-of the of-the-art methods by the introduction of priors on the biological data. Our hypotheses include assuming that noise statistics are Mixed Poisson Gaussian (MPG) and that cell nuclei are quasi spherical.To implement our method in 3D, we had to take into account the sampling grid dimensions which are different in the x, y or z directions. A spherical object imaged on this grid loses this property. To deal with such a grid, we had to interpret the filtering process, which is a core element of the original theory, as a diffusion process.
|
167 |
Algorithmes d'ordonnancement inter-couches avec adaptation de modulation et de codage dans les réseaux hétérogènes LTE / Cross-layer spectral and energy efficient scheduling algorithms with adaptive modulation and coding in LTE heterogeneous networksHatoum, Rima 26 June 2014 (has links)
Les systèmes de communication sans fil caractérisés par des services à haute vitesse sont en évolution permanentes malgré les restrictions en termes de la capacité du système et les conflits de couverture intérieure. Récemment, les réseaux “SmallCells” basés sur le standard LTE présentent une solution prometteuse en offrant les services demandés avec une meilleure couverture à l’intérieur et augmentant la capacité du système. Cependant, de nombreux défis rencontrent les constructeurs et les opérateurs pour un déploiement efficace de ces systèmes. Dans cette thèse, afin de développer ce type de réseaux et d’apporter des améliorations considérables de Qualité de Service (QoS) et de débits, nous adoptons une stratégie se basant complémentairement sur deux différents niveaux : couche de liaison (MAC) et couche physique. En première partie, au niveau de la couche de liaison, nous proposons deux algorithmes d’ordonnancement et d’allocation conjointes de ressources se basant sur la technique d’Adaptation de Modulation et de Codage (AMC) et sur le contrôle de puissance pour les deux liaisons descendante et montante respectivement. Deux catégories distinctes d’utilisateurs qui diffèrent par la Qualité de Service demandée sont considérées. Ces algorithmes sont nommés respectivement : “Downlink AMC-QRAP” et “Uplink AMC-QRAP”. L’adaptation conjointe de puissance de transmission et de type de Modulation&Codage répond forcement aux variations de la qualité de la liaison sur chaque canal radio destiné à être alloué. Cependant, les deux liaisons, descendante et montante diffèrent par leurs spécificités. En particulier, comme mode de transmission du signal, le système 3GPP LTE utilise la technique OFDMA pour la liaison descendante et la technique SC-FDMA, plus efficace en termes d’énergie, pour la liaison montante. Une modélisation sous forme de problèmes d’optimisation linéaire est ainsi conçue. Comme compromis entre les architectures de réseaux: centralisée et distribuée, nous utilisons l’architecture de groupes ou “clusters” ainsi proposée dans la littérature. Dans la deuxième partie de notre recherche, nous avons abord´e les techniques de la “couche physique” en termes de traitement de signal comme une approche d’amélioration du système LTE. Ainsi, deux contributions basées sur la “transformée en ondelettes” (Wavelet Transform) sont proposées. Premièrement, vu que la technique de modulation multi-porteuse OFDM souffre de plusieurs limitations en termes d’efficacité spectrale et énergétique, de synchronisation et d’interférence entre porteuses, nous proposons une méthode alternative basée sur les ondelettes. Nous avons démontré que la substitution de la transformée de Fourier par la transformée en ondelettes dans la technique OFDM permet de dépasser les différentes limitations de l’OFDM. Enfin, nous avons propos´e une approche pour délimiter et détecter les différents canaux de ressources alloués. Elle est utilisée dans l’algorithme d’ordonnancement de la transmission montante pour améliorer la fiabilité de la transmission et réduire le temps de convergence du problème d’optimisation. Des simulations étendues selon différentes densités de réseau ont été réalisées, en utilisant plusieurs paramètres tels que l’efficacité spectrale, la puissance de transmission, le taux de satisfaction en termes de débits demandés et la capacité du réseau. Nous avons comparé nos méthodes à plusieurs travaux existants dans la littérature et prouvé la surperformance pour les différents paramètres pris en compte. / Responding to the huge demand for high data rates and satisfying Quality of Service (QoS) requirements are the main objectives of the wireless mobile operators. LTE-based small cell system is a promising technology offering the required services, enhanced indoor coverage and increased system capacity. However, many challenges face the constructors and the operators for an effective deployment of these systems. In this thesis, in order to evolve such systems and adduce significant enhancement in terms of QoS and throughput, we adopt a complementary strategy based on both data link layer and physical layer.First, we propose, on the link layer level, two scheduling and joint resource allocation algorithm based on the Adaptive Modulation and Coding (AMC) and the power control mechanism for OFDMA-Downlink and SC-FDMA-Uplink connections respectively. Namely, they refer to: “Downlink AMC-QRAP” and “Uplink AMC-QRAP”. The joint adaptation of the transmission power and the Modulation and Coding Scheme reliably interacts with the link quality on each allocated sub-channel. Two distinct user categories are considered to differentiate between different QoS levels required. Accordingly, a linear optimization model is performed for the problem resolution. A clustering approach proposed in the literature has been used as a tradeoff between centralized and distributed schemes. Particularly, we used the spectrum sensing technique as proposed on the physical layer to detect surrounding transmissions.After that, we tackle the physical layer “signal processing” techniques as an LTE enhancement approach. Thus, two contributions based on the “wavelet transform” (WT) are proposed.The “wavelet-based OFDM” technique is firstly proposed as an alternative transmission mode for both downlink and uplink of the LTE and beyond wireless systems. In fact, theOFDM suffers from several limitations in terms of PAPR, spectral efficiency, synchronization cost and the inter-carrier interference. We proved that with substituting the Fourier transform by the wavelet transform in the OFDM technique, the different OFDM limitations can be significantly overcame. Second, we proposed an enhanced spectrum sensing approach based on WT tool that accurately delimits the occupied resource blocks in the whole spectrum. These physical layer enhancements help improving the scheduling algorithm for the uplink proposed in our second contribution.Extensive network simulations with different network densities have been conducted, using several metrics such as spectral efficiency, throughput satisfaction rate, user outage and transmission power. We have compared our methods to several existing works in the literature and proved the outperformance for the different considered metrics.
|
168 |
Différence d'échelle spatiale entre les mesures satellitaires et in situ d'humidité du sol : analyse par des approches spatio-temporelles / Analysis of the spatial scale mismatch between satellite and ground measurements of soil moisture using spatio-temporal approachesMolero Rodenas, Beatriz Molero 18 December 2017 (has links)
L'humidité du sol est une variable climatique essentielle dont le suivi à l'échelle globale est possible grâce à des instruments micro-ondes à bord des satellites. La précision de ces estimations est validée par comparaison directe aux mesures au sol. Tandis que les estimations satellitaires ont des résolutions allant de 30 à 100 km, les capteurs in situ sont généralement représentatifs d'une zone de quelques centimètres (résolution ponctuelle). Cette différence entre l'échelle spatiale des estimations satellitaires et in situ impacte le processus de validation et les statistiques obtenues à un niveau qui n'est pas connu actuellement. Cette thèse vise à améliorer la connaissance de l'impact du changement d'échelle spatiale, ainsi qu'à fournir des méthodes d'évaluation de celle-ci applicables à toute zone de validation. Pour ce faire, la relation entre les échelles spatiales et temporelles a été étudiée. Des séries modélisées et mesurées sur des régions différentes du globe ont été décomposées en échelles de temps allant de 0,5 et 128 jours, en utilisant des transformées en ondelettes. La représentativité spatiale des mesures à résolution ponctuelle a ensuite été évaluée, par échelle de temps, avec 4 approches différentes : l'analyse de la stabilité temporelle, la triple colocation, le pourcentage de zones corrélées (CArea) et une nouvelle approche utilisant des corrélations basées sur des ondelettes (WCor). De plus, l'incertitude d'échantillonnage a été évaluée séparément avec des approches bootstrap et des simulations de Monte Carlo de séries à résolution ponctuelle. À l'issue de ces expériences, il y a été constaté que la moyenne des valeurs de représentativité spatiale obtenues tend à augmenter avec l'échelle de temps, mais aussi leur dispersion. Cela implique que certaines stations ont de vastes zones de représentativité à des échelles saisonnières, tandis que d'autres ne l'ont pas. Aux échelles sous-hebdomadaires, toutes les stations présentaient de très petites zones de représentativité. Enfin, l'impact de l'incertitude d'échantillonnage s'est avéré assez important dans les métriques de validation satellitaire. / Soil moisture is an essential climate variable that is globally monitored with the help of satellite borne microwave instruments. The accuracy of satellite soil moisture estimations is assessed by direct comparison to in situ measurements. While satellite estimates have a resolution ranging between 30 and 100 km, in situ sensors typically measure over an area of a few centimetres (point resolution). This spatial scale mismatch between satellite and in situ soil moisture estimates impairs the validation process and the respective summary statistics to an extent that is not currently known. This thesis aims at improving the knowledge of the spatial scale mismatch, as well as providing methods for its assessment applicable to any validation area. To this end, the connection between the SM spatial and time scales was investigated. Modelled and measured soil moisture series at different regions of the globe were decomposed into time scales ranging from 0.5 to 128 days, using wavelet transforms. The spatial representativeness of the point measurements was then assessed, on a per time scale basis, with 4 different approaches: temporal stability analysis, triple collocation, the percentage of correlated areas (CArea) and a new approach that uses wavelet- based correlations (WCor). Moreover, one of the components of the mismatch, the sampling uncertainty, has been assessed separately with bootstrap and Monte Carlo simulations of point-support series. It was found that the average of the spatial representativeness values tends to increase with the time scales but so does their dispersion. This implies that some stations had large representativeness areas at seasonal scales, while others do not. At sub-weekly scales, all stations exhibited very small representativeness areas. Finally, the sampling uncertainty has been observed to have a considerable impact on satellite validation statistics.
|
169 |
Impacts des étapes de pré-traitement des données de diffusion sur la tractographie - Imagerie de diffusionBoré, Arnaud January 2012 (has links)
Ce mémoire présente l'ensemble des étapes de pré-traitement appliquées aux images provenant de l'imagerie par résonance magnétique de diffusion afin de conseiller les meilleurs paramètres dans une étude de tractographie. L'imagerie de diffusion nous donne l'information locale des déplacements moyens des molécules d'eau dans le cerveau. Cette information nous permet d'inférer l'architecture de la matière blanche. La reconstruction du signal de diffusion fait appel à différentes méthodes plus ou moins aptes à restituer la complexité des configurations de fibres. Dans ce mémoire, nous proposons une nouvelle méthode de reconstruction du phénomène de diffusion basée sur la décomposition en ondelettes sphériques. Ensuite, en combinant ces informations à tous les points du cerveau nous reconstruisons le réseau de fibres de la matière blanche par un algorithme de tractographie déterministe. Afin d'initier cet algorithme, nous proposons une nouvelle méthode d'initialisation dans le but de mieux gérer la complexité des configurations de fibres au sein d'un seul voxel. Les fibres reconstruites sont très difficiles à évaluer dans le cerveau car nous ne connaissons pas la configuration réelle des fibres. Pour être en mesure d'évaluer nos méthodes de reconstruction, nous utilisons un fantôme calquant la complexité des configurations de fibres trouvées dans le cerveau. Dans ce mémoire, nous proposons un ensemble de métriques et un système de notations permettant d'évaluer automatiquement la qualité des résultats d'une tractographie. Nous concluons l'étude concernant les données synthétiques par un ensemble de conseils sur les paramètres à utiliser afin d'obtenir des résultats de tractographie optimaux. Finalement, nous évaluons qualitativement les résultats de tractographie issus de données réelles afin de confirmer nos choix sur les données fantômes.
|
170 |
Algorithmes numériques en temps réel appliqués à l'identification de cristaux et à la mesure de l'estampe du temps scanner TEP/TDM tout-numérique à base de photodiodes à avalancheSemmaoui, Hichman January 2009 (has links)
La tomographie d'émission par positrons (TEP) est devenue un outil important dans les diagnostics de la médecine nucléaire. Avec le développement et l'utilisation de différents radiotraceurs qui permettent de visualiser les processus métaboliques et les structures organiques par des procédés non invasifs, les caméras TEP cliniques sont largement utilisées et fournissent une résolution spatiale et temporelle suffisante pour les diagnostics humains. De plus, la recherche en pharmacologie et en médecine sont d'autres champs d'applications en développement. En effet, par l'utilisation de la TEP dans les expérimentations avec des petits animaux, l'efficacité de nouveaux médicaments peut être facilement vérifiée. Cependant, le problème avec les tomographes TEP pour petits animaux est la nécessité d'une résolution spatiale et temporelle beaucoup plus grande que celle pour les examens cliniques sur les humains. Ceci requiert de nouveaux concepts de détecteurs et de traitement de signal dans le développement des systèmes TEP dédiés pour les petits animaux. En outre, ces concepts sont complémentés, pour résoudre ce problème, par la fusion d'une image morphologique (tomodensitométrie-TDM) à une image métabolique (TEP). Le LabPET[exposant TM], un scanner TEP dont l'aspect bimodal TEP/TDM est en développement. Ce scanner, dédié aux petits animaux, est développé à l'Université de Sherbrooke. Il utilise des photodiodes à avalanche (PDA) connectées individuellement à des scintillateurs et combinés à de nouveaux algorithmes numériques. Ce scanner vise à répondre aux besoins relatifs à la résolution spatiale et temporelle de l'imagerie TEP pour petits animaux. Dans cette thèse, de nouveaux algorithmes sont développés et testés afin d'augmenter la résolution spatiale et temporelle du LabPET. L'augmentation de la résolution spatiale est basée sur des algorithmes d'identification de cristaux, excités, au sein d'un détecteur multicristaux. Tandis que, l'augmentation de la résolution temporelle est basée sur un concept de déconvolution utilisant le résultat de l'identification de cristaux.
|
Page generated in 0.0441 seconds