• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Méthodes de traitement du signal pour l'analyse quantitative de gaz respiratoires à partir d’un unique capteur MOX / Signal processing for quantitative analysis of exhaled breath using a single MOX sensor

Madrolle, Stéphanie 27 September 2018 (has links)
Prélevés de manière non invasive, les gaz respiratoires sont constitués de nombreux composés organiques volatils (VOCs) dont la quantité dépend de l’état de santé du sujet. L’analyse quantitative de l’air expiré présente alors un fort intérêt médical, que ce soit pour le diagnostic ou le suivi de traitement. Dans le cadre de ma thèse, nous proposons d’étudier un dispositif d’analyse des gaz respiratoires, et notamment de ces VOCs. Cette thèse multidisciplinaire aborde différents aspects, tels que le choix des capteurs, du matériel et des modes d’acquisition, l’acquisition des données à l’aide d’un banc gaz, et ensuite le traitement des signaux obtenus de manière à quantifier un mélange de gaz. Nous étudions la réponse d’un capteur à oxyde métallique (MOX) à des mélanges de deux gaz (acétone et éthanol) dilués dans de l’air synthétique (oxygène et azote). Ensuite, nous utilisons des méthodes de séparation de sources de manière à distinguer les deux gaz, et déterminer leur concentration. Pour donner des résultats satisfaisants, ces méthodes nécessitent d’utiliser plusieurs capteurs dont on connait la forme mathématique du modèle décrivant l’interaction du mélange avec le capteur, et qui présentent une diversité suffisante dans les mesures d’étalonnage pour estimer les coefficients de ce modèle. Dans cette thèse, nous montrons que les capteurs MOX peuvent être décrits par un modèle de mélange linéaire quadratique, et qu’un mode d’acquisition fonctionnant en double température permet de générer deux capteurs virtuels à partir d’un unique capteur physique. Pour quantifier précisément les composants du mélange à partir des mesures sur ces capteurs (virtuels), nous avons conçu des méthodes de séparation de sources, supervisées et non supervisées appliquées à ce modèle non-linéaire : l’analyse en composantes indépendantes, des méthodes de moindres carrés (algorithme de Levenberg-Marquardt), et une méthode bayésienne ont été étudiées. Les résultats expérimentaux montrent que ces méthodes permettent d’estimer les concentrations de VOCs contenus dans un mélange de gaz, de façon précise, en ne nécessitant que très peu de points de calibration. / Non-invasively taken, exhaled breath contains many volatile organic compounds (VOCs) whose amount depends on the health of the subject. Quantitative analysis of exhaled air is of great medical interest, whether for diagnosis or for a treatment follow-up. As part of my thesis, we propose to study a device to analyze exhaled breath, including these VOCs. This multidisciplinary thesis addresses various aspects, such as the choice of sensors, materials and acquisition modes, the acquisition of data using a gas bench, and then the processing of the signals obtained to quantify a gas mixture. We study the response of a metal oxide sensor (MOX) to mixtures of two gases (acetone and ethanol) diluted in synthetic air (oxygen and nitrogen). Then, we use source separation methods in order to distinguish the two gases, and to determine their concentration. To give satisfactory results, these methods require first to use several sensors for which we know the mathematical model describing the interaction of the mixture with the sensor, and which present a sufficient diversity in the calibration measurements to estimate the model coefficients. In this thesis, we show that MOX sensors can be described by a linear-quadratic mixing model, and that a dual temperature acquisition mode can generate two virtual sensors from a single physical sensor. To quantify the components of the mixture from measurements on these (virtual) sensors, we have develop supervised and unsupervised source separation methods, applied to this nonlinear model: independent component analysis, least squares methods (Levenberg Marquardt algorithm), and a Bayesian method were studied. The experimental results show that these methods make it possible to estimate the VOC concentrations of a gas mixture, accurately, while requiring only a few calibration points.
442

Signal decompositions using trans-dimensional Bayesian methods. / Décomposition de signaux dans un cadre bayésien trans-dimensionnel

Roodaki, Alireza 14 May 2012 (has links)
Cette thèse porte sur le problème de la décomposition de signaux contenant un nombre inconnu de composantes, envisagé dans un cadre bayésien. En particulier, nous nous concentrons sur la question de la description des lois a posteriori qui ont la spécificité, pour les problèmes de ce genre, d’être définies sur une union de sous-espaces de dimensions différentes. Ces lois peuvent être échantillonnées à l’aide de techniques de Monte Carlo récentes, telles que l’échantillonneur MCMC à sauts réversibles (RJ-MCMC), mais aucune approche générique n’existe à l’heure actuelle pour décrire les échantillons produits par un tel échantillonneur et en extraire les paramètres spécifiques des composantes. L’un des principaux obstacles est le problème de la commutation des étiquettes (label-switching), causé par l’invariance de la loi a posteriori vis-à-vis de permutations de ses composantes. Nous proposons une nouvelle approche pour résoudre ce problème, qui consiste à approcher la loi a posteriori d’intérêt par une loi paramétrique plus “simple”, mais toujours définie sur un espace de dimension variable. Nous développons des algorithmes de type SEM (Stochastic Expectation-Maximization), s’appuyant sur la sortie d’un échantillonneur RJ-MCMC, afin d’estimer les paramètres du modèle par minimisation d’une divergence entre les deux lois. Deux problèmes de décomposition de signaux illustrent la capacité de la méthode proposée à résoudre le problème de commutation des étiquettes et à produire des résumés de lois a posteriori définies sur des espaces de dimension variable : le problème classique de détection et d’estimation de composantes sinusoïdales dans un bruit blanc d’une part, et un problème de comptage de particules motivé par le projet Pierre Auger en astrophysique d’autre part. / This thesis addresses the challenges encountered when dealing with signal decomposition problems with an unknown number of components in a Bayesian framework. Particularly, we focus on the issue of summarizing the variable-dimensional posterior distributions that typically arise in such problems. Such posterior distributions are defined over union of subspaces of differing dimensionality, and can be sampled from using modern Monte Carlo techniques, for instance the increasingly popular Reversible-Jump MCMC (RJ-MCMC) sampler. No generic approach is available, however, to summarize the resulting variable-dimensional samples and extract from them component-specific parameters. One of the main challenges that needs to be addressed to this end is the label-switching issue, which is caused by the invariance of the posterior distribution to the permutation of the components. We propose a novel approach to this problem, which consists in approximating the complex posterior of interest by a “simple”—but still variable-dimensional parametric distribution. We develop stochastic EM-type algorithms, driven by the RJ-MCMC sampler, to estimate the parameters of the model through the minimization of a divergence measure between the two distributions. Two signal decomposition problems are considered, to show the capability of the proposed approach both for relabeling and for summarizing variable dimensional posterior distributions: the classical problem of detecting and estimating sinusoids in white Gaussian noise on the one hand, and a particle counting problem motivated by the Pierre Auger project in astrophysics on the other hand.
443

Development of tomographic PIV for the study of turbulent flows / Développement de la PIV tomographique pour l'étude d'écoulements turbulents

Cheminet, Adam 19 May 2016 (has links)
Cette thèse porte sur le développement de la PIV tomographique (tomo-PIV) pour la mesure d’écoulements turbulents (Elsinga et al 2006). Cette méthode se fonde sur la reconstruction tomographique d’une distribution volumique d’intensité de particules traceuses, à partir de projections enregistrées par des caméras. Les distributions volumiques sont corrélées, fournissant ainsi un champ de déplacement 3D.Les principales avancées de la recherche sur cette technique sont présentées ainsi que les points bloquants. Les efforts ont principalement été portés sur la reconstruction tomographique. La principale difficulté est le bruit tomographique (particules fantômes) qui croît exponentiellement lorsqu’une forte densité de traceur est requise pour obtenir une résolution spatiale fine de la mesure, particulièrement pour les écoulements turbulents.Afin de mieux appréhender ce bruit de reconstruction, nous avons étudié numériquement les facteurs expérimentaux nuisant à la qualité de la reconstruction. Des considérations géométriques ont permis de quantifier l’impact de «particules ajoutées», qui se trouvent dans le volume de l’union mais pas dans le volume de l’intersection entre la zone laser et les champs de vue des caméras. La diminution du ratio signal-à-bruit dans les images, due à la diffusion de Mie et l’astigmatisme des optiques, a pour principal effet la perte de vraies particules dans la reconstruction.Étudier les conditions optiques de la tomo-PIV nous a permis de proposer une approche alternative à la reconstruction tomographique classique, qui vise à reconstruire une particule presque sur un unique voxel, plutôt que comme un agrégat de voxels de taille étendue, en se fondant sur une représentation particulaire des images. Nous nommons cette méthode Reconstruction Volumique de Particules (PVR). Après avoir été incorporée à un algorithme de reconstruction (SMART), il est possible d’élargir la représentation particulaire de PVR, afin d’obtenir des blobs de 2/3 voxels de diamètre requis par les algorithmes de corrélation de 3D-PIV. Des simulations numériques sur un large spectre de conditions génératrices, ont montré qu’utiliser PVR-SMART permettait des gains de performance par rapport à un algorithme classique comme tomo-SMART (Atkinson 2009).L’aspect vélocimétrie par corrélation de la méthode a aussi été pris en compte avec une extension sur GPU à la 3D (FOLKI-3D) de l’algorithme FOLKI-PIV (Champagnat et al. 2011). Le déplacement y est cherché en minimisant itérativement une fonctionnelle, du type des moindres carrés, par déformation de volume. Les tests synthétiques confirment que la réponse fréquentielle d’espace est semblable à celle d’autres algorithmes classiques itératifs de déformation de volume. Les simulations numériques de reconstruction tomographique ont permis de caractériser la robustesse de l’algorithme au bruit spécifique de la tomographie. Nous avons montré que FOLKI-3D était plus robuste aux particules fantômes cohérentes que les algorithmes classiques de déformation volumique. De plus, des gains de performance ont été observés en utilisant des schémas d’ordre élevé pour différents types de bruit.L’application de PVR-SMART sur des données expérimentales a été effectuée sur un jet d’air turbulent. Différentes densités de particules ont été utilisées pour comparer les performance de PVR-SMART avec tomo-SMART sur la région proche buse du jet. Avec le pré-traitement d’image utilisé, nous avons montré que les champs de vitesse de PVR-SMART étaient près de 50 % moins bruités que ceux de tomo-SMART. L’analyse sur les champs de vitesse comporte l’étude de quantités statistiques, de peak-locking, de divergence, du tenseur des gradients ainsi que de structures cohérentes.Enfin, nous concluons avec une synthèse des résultats obtenus au cours de cette étude, en envisageant de nouvelles perspectives de recherche dans le contexte de la PIV tomographique. / This research dissertation focuses on the developments of tomographic PIV (tomo-PIV) for the measurement of turbulent flows (Elsinga et al. 2006). It is based on the tomographic reconstruction of a volumic intensity distribution of tracer particles from projections recorded on cameras. The corresponding volumic distributions are correlated to obtain 3D displacement fields.The present work surveys the state of advancement of the research conducted on this technique and the main issues it has been confronted with so far. The main research focus was on tomographic reconstruction. Indeed, its main limitation is the appearance of ghost particles, ie reconstruction noise, which occurs when high tracer concentrations are required for high spatial resolution measurements.For a thorough understanding of tomographic noise, we carried out a numerical study of experimental factors impacting the quality of tomographic reconstruction. Geometric considerations quantified the impact of "added particles" lying in the Union volume but not in the Intersection volume, between the camera fields of view and the illumination area. This phenomenon was shown to create ghost particles. The decrease in signal-to-noise ratio in the image was investigated, considering Mie scattering and defocusing effects. Particle image defocusing mainly results in the loss of real particles in reconstruction. Mie scattering’s main impact is also the loss of real particles due to the polydisperse nature of the seeding.This study of imaging conditions for tomo-PIV led us to propose an alternative approach to classical tomographic reconstruction. It seeks to recover nearly single voxel particles rather than blobs of extended size using a particle-based representation of image data. We term this approach Particle Volume Reconstruction (PVR). PVR underlies a more physical, sparse volumic representation of point particles, which lives halfway between infinitely small particles, and voxel blobs commonly used in tomo-PIV. From that representation, it is possible to smooth it to 2 voxel diameter blobs for a 3D-PIV use of PVR incorporated in a SMART algorithm. Numerical simulations showed that PVR-SMART outperforms tomo-SMART (Atkinson et al. 2009) on a variety generating conditions and a variety of metrics on volume reconstruction and displacement estimation, especially in the case of seeding density greater than 0.06 ppp.We introduce a cross-correlation technique for 3D-PIV (FOLKI-3D) as an extension to 3D of the FOLKI-PIV algorithm (Champagnat et al. 2011). The displacement is searched as the minimizer of a sum of squared differences, solved iteratively by using volume deformation. Numerical tests confirmed that spatial frequency response is similar to that of standard iterative deformation algorithms. Numerical simulations of tomographic reconstruction characterized the robustness of the algorithm to specific tomographic noise. FOLKI-3D was found more robust to coherent ghosts than standard deformation algorithms, while gains in accuracy of the high-order deformation scheme were obtained for various signal noises.The application of PVR-SMART on experimental data was performed on a turbulent air jet. Several seeding density conditions were used to compare the performance of tomo-SMART and PVR-SMART on the near field region of the jet. With the given image pre-processing, PVR-SMART was found to yield velocity fields that are about 50 % less noisy than tomo-SMART. The velocity field comparison included velocity field statistical properties, peak-locking study, flow divergence analysis, velocity gradient tensor and coherent structures exploration.Finally, conclusions are drawn from the main results of this dissertation and lead to potential research perspectives of our work with respect to the future of tomographic PIV.
444

Problèmes inverses pour le diagnostic de câbles électriques à partir de mesures de réflectométrie / Inverse problems for diagnosis of electric cables from reflectometry measurement

Berrabah, Nassif 08 November 2017 (has links)
Les câbles électriques sont présents dans de nombreux produits et systèmes où ils sont utilisés pour transmettre des données ou transporter de l'énergie. Ces liaisons sont la plupart du temps installées pour des durées d'exploitation longues au cours desquelles elles doivent subir l'usure du temps, ainsi que celle résultant d'un environnement parfois agressif. Alors que les câbles électriques assurent des fonctions essentielles et dans certains cas critiques, ils sont aussi sujets à des défaillances qui découlent des contraintes qu'ils endurent. Ceci explique la nécessité de surveiller leur état, afin de détecter au plus tôt les défauts naissants et d'intervenir avant qu'ils ne dégénèrent en dommages dont les conséquences peuvent être préjudiciable et économiquement lourdes. L'entreprise EDF est particulièrement concernée par cette problématique dans la mesure ou elle exploite des longueurs considérables de câbles pour le transport et la distribution d'électricité sur tout le territoire bien sûr, mais aussi au sein des centrales qui produisent l'électricité, pour alimenter les différents organes, et acheminer commandes et mesures. L'entreprise, attentive à ce que ces câbles soient en bon état de fonctionnement mène plusieurs travaux, d'une part pour étudier leur vieillissement et modes de dégradation, et d'autre part pour développer des méthodes et outils pour la surveillance et le diagnostic de ces composants essentiels. Le projet EDF CAIMAN (Cable AgIng MANagement) commandé par le SEPTEN (Service Etudes et Projets Thermiques Et Nucléaires) traite de ces questions, et les travaux présentés dans cette thèse ont été conduits dans ce cadre et sont le fruit d'une collaboration avec Inria (Institut National de Recherche en Informatique et Automatique). Partant du constat que les méthodes de diagnostic de câbles existantes à l'heure actuelle ne donnent pas pleine satisfaction, nous nous sommes donné pour objectif de développer des outils nouveaux. En effet, les techniques actuelles reposent sur différents moyens dont des tests destructifs, des prélèvements pour analyse en laboratoire, et des mesures sur site mais qui ne permettent pas de diagnostiquer certains défauts. Parmi les techniques non destructives, la réflectométrie, dont le principe est d'injecter un signal électrique à une extrémité du câble et d'analyser les échos, souffre aussi de certaines de ces limitations. En particulier, les défauts non-francs restent encore difficiles à détecter. Toutefois les travaux qui se multiplient autour de cette technique tentent d'en améliorer les performances, et certains obtiennent des résultats prometteurs. Les chercheurs de l'Inria qui travaillent sur le sujet ont développé des algorithmes pour exploiter des mesures de réflectométrie. En résolvant un problème inverse, les paramètres d'un modèle de câble sont estimés et servent alors d'indicateurs de l'état de dégradation du câble testé. L'objectif de cette thèse est d'étendre ces méthodes pour répondre aux besoins spécifiques d'EDF. Un des principaux défis auquel nous avons apporté une solution est la prise en compte des pertes ohmiques dans la résolution du problème inverse. Plus spécifiquement, notre contribution principale est une méthode d'estimation du profil de résistance linéique d'un câble. Cette estimation permet de révéler les défauts résistifs qui produisent souvent des réflexions faibles dans les réflectogrammes habituels. Une seconde contribution vise à améliorer la qualité des données utilisées par cette méthode d'estimation. Ainsi, nous proposons un pré-traitement des mesures dont le but est de gommer l'effet de la désadaptation des instruments aux câbles ou celui des connecteurs. Ces travaux apportent de nouveaux outils pour l'exploitation des mesures de réflectométrie et des solutions pour le diagnostic de certains défauts encore difficiles à détecter aujourd'hui. / Electric cables are ubiquitous in many devices and systems where they are used for data or power transmission. These connection links are most often installed for long periods of operation during which they are subject to aging and sometimes exposed to harsh environments. While electric cables fulfill important and sometimes even critical functions, they might fail due to the hard constraints they have to endure. This motivates the need for monitoring tools, in order to detect early faults and to intervene as soon as possible, before they mutate into heavier damage whose consequences can be detrimental and expensive. EDF company is very affected by this problematic insofar as it operates significant lengths of cables for energy distribution, but also in power plant for power supply of the diverse apparatus, to route data and to transmit measurement. The company has been leading several studies regarding cable aging, cable faults, and wire diagnosis methods. The CAIMAN project (Cable AgIng MANagement), sponsored by the Engineering Department of Nuclear and Thermal Projects (SEPTEN), deals with these questions. The work presented in this dissertation were led in this context and results from a collaboration with Inria (French National Institute for Research in Applied Mathematics and Computer Sciences). Starting from the observation that existing cable diagnosis methods do not offer full satisfaction, we targeted the goal of developping new tools to improve the state of the art. Existing techniques rely on a range of tests, some of which are destructive or involve in-lab investigations, but these still cannot detect some kind of faults. Among major techniques, reflectometry has the most promising results. This technique consists in the same principle as a radar. One sends a wave down a cable from one end. Then the reflected signal is analysed searching for signs of faults. Yet, this method also suffers some limitations and soft faults remain hard to detect. Researchers and industries multiply the investigations in the domain of reflectometry-based techniques, and some get interesting results. Scientists from Inria developped algorithms for cable parameter estimation from reflectometry measurements, following an inverse-problem approach. The goal of our work was to extend these methods to meet the specific needs of EDF. One of the main challenges we coped with was to take into account electric losses in the resolution of the inverse problem. Our main contribution is a method to estimate the per unit length resistance profile of a cable. This estimation reveals resistive faults that most often only produce weak reflections in reflectometry measurements. Other contributions concerns the improvement of the method based on pre-processing of the data whose role is to erase the effect of impedance mismatches. This work breaks new grounds in the domain of reflectometry-based wire diagnosis techniques.
445

Traitements avancés pour l’augmentation de la disponibilité et de l’intégrité de la mesure de vitesse 3D par LiDAR, dans le domaine aéronautique. / Advanced process to increase availability and integrity of 3D air speed measurement system by LiDAR, in the aviation industry

Baral-Baron, Grégory 16 July 2014 (has links)
Afin de satisfaire les exigences de sécurité requises dans l’aviation civile, la stratégie adoptée consiste à multiplier les chaînes de mesure pour une même information. Il est aujourd’hui recommandé d’introduire une chaîne de mesure dissemblable (reposant sur un principe physique différent) afin d’augmenter le niveau de sécurité. Dans cette optique, Thales mène des travaux sur le développement d’un anémomètre laser Doppler embarqué sur aéronef. Ce capteur, composé de quatre axes LiDAR (Light Detection And Ranging) répartis autour de l’avion, permet d’estimer la vitesse air par l’analyse de la réflexion de l’onde laser émise sur les particules présentes dans l’air.L’objectif de ces travaux est de concevoir une chaîne de traitement du signal LiDAR adaptée à un capteur sur avion. Cette chaîne, basée sur une représentation temps-fréquence, inclut des étapes de détection du signal utile optimisée pour les conditions de faible ensemencement en particules, de sélection des aérosols utiles dans un nuage et d’estimation robuste afin de contrôler la qualité de la mesure. Cette chaîne de traitement, évaluée lors d’une campagne d’essais réalisée à l’observatoire du Pic du Midi, apporte un gain de performances élevé dans les situations critiques. L’architecture du système a été le second axe d’étude. Une méthode d’estimation du vecteur vitesse à partir des estimations effectuées sur chaque axe LiDAR et d’un modèle aérodynamique de l’avion permet de compenser les perturbations observées à proximité de ce dernier. Puis, une procédure d’optimisation de l’architecture est proposée afin d’améliorer les performances du capteur. Les performances de la chaîne de traitement présentée devront être évaluées en conditions réelles, lors d’essais en vol, afin de sonder une grande variété de conditions atmosphériques et d’évaluer le gain apporté et les faiblesses éventuelles du traitement proposé en fonction de ces conditions. / The method use to respect security requirements in civil aviation consists in multiplying measuring chains for the same information. Now, it is recommended to add a dissimilar measuring chain, based on a different physical principle, in order to improve security level. Thus, Thales works on the development of a laser Doppler anemometer embedded on aircraft. This sensor is composed by four LiDAR (Light Detection And Ranging) axis distributed around the aircraft and air speed is estimated by the analysis of the reflection of the emitted laser wave on particles.This thesis objective is to design a LiDAR signal processing chain adapted to an aircraft sensor. The process is based on a time-frequency representation and it includes methods for signal detection in low concentrated air mass, useful particles selection in clouds and robust estimation to control measure reliability. The process has been evaluated during a test campaign realized at the Pic du Midi observatory. Its performances are greatly improved, especially in critical situations.The system architecture has also been studied. An estimation method designed from estimations performed on different LiDAR axis and an aerodynamic model of an aircraft is proposed in order to compensate for air mass perturbations close to the aircraft. Then, an optimization process is presented to improve sensor performances.The signal processing chain will have to be evaluated by flight tests, to explore a large atmospheric conditions variety and to quantify its strengths and weaknesses depending on conditions.
446

Valorisation des données altimétriques de SARAL/AltiKa pour l'étude de la calotte Antarctique / Development of SARAL/AltiKa altimetric data over the Antarctic ice sheet

Michel, Aurélie 28 June 2016 (has links)
L'Antarctique est encore un continent à explorer pour comprendre le climat terrestre, passé, présent et futur. Grâce à l'analyse des carottages, on peut remonter l'histoire du climat terrestre sur plusieurs centaines de milliers d'années. Grâce à l'étude de sa topographie, on peut remonter à la variabilité de son climat, connaître sa dynamique : écoulement de la glace, vêlages d'icebergs. . . Grâce au suivi de la topographie, c'est-à-dire la variation de la hauteur de glace, on peut estimer les pertes et les gains de masses ainsi que la contribution à la hausse du niveau de la mer, pour déduire l'impact sur les océans et les littoraux. Pour explorer ce continent, nous utilisons dans cette thèse l'instrument embarqué sur satellite qu'est l'altimètre. Une onde radar ou laser est envoyée sur le sol et la réflexion de ce signal est enregistrée permettant d'extraire des paramètres pertinents et la hauteur de glace. Les satellites ont pris le relais des expéditions célèbres du XIXème siècle, notamment depuis le lancement du premier altimètre couvrant jusqu'à 82æ S ce continent, embarqué sur la mission ERS-1. Depuis 2013, SARAL marque un changement dans les caractéristiques instrumentales par rapport aux missions précédentes, car elle émet dans une fréquence appartenant à la bande Ka (36.75 Ghz) au lieu des bandes Ku (13.6 Ghz) et S (3.2 Ghz) ce qui implique une interaction avec la surface différente qu'il faut pouvoir comprendre. Avec près de trois ans d'observations, ce manuscrit regroupe les travaux sur le traitement des données altimétriques dans un but de valorisation de la mission SARAL. Nous présentons le contexte géographique et le contexte technique pour montrer les difficultés du traitement des données . En utilisant la méthode des points de croisement que nous expliciterons, nous présentons l'importance de la comparaison de deux missions concomitantes, ENVISAT et ICESat afin d'estimer la profondeur de pénétration en bande Ku de l'onde radar et corriger de cet effet, étude que l'on pourra répéter avec SARAL une fois la mission ICESat-2 lancée. Nous avons adapté une chaîne de calibration et de validation des données sur glace continentale qui nous permet d'établir des diagnostics, des statistiques et des suivis temporels. La pente de la surface joue un rôle prépondérant dans la dégradation de la précision des données. Nous mettons en place un processus de sélection des données altimétriques afin d'augmenter cette précision. Grâce à cette sélection et l'application de la correction de marée océanique, nous quantifions avec des métriques aux points de croisement la performance de la mesure de SARAL sur glace continentale, et nous réduisons l'imprécision de la mesure de plus de 90%. Enfin, grâce aux sorties de notre chaîne de validation, nous décrivons les observations de SARAL sur près de trois ans afin d'apporter une analyse préliminaire cohérente avec la mission précédente qu'est ENVISAT. Nous soulevons les améliorations à apporter pour aller plus loin dans la physique de la mesure. Que ce soit la comparaison avec d'autres missions, l'utilisation de modèles ou des modifications dans l'algorithme d'extraction des paramètres du signal appelé retracking, SARAL apporte de nouvelles perspectives afin que l'évolution de la calotte Antarctique soit connue avec une précision toujours croissante. / Antarctica still remains a fascinating place to be explored. With ice corings, the past Earth climate can be retraced. Studying its surface, its climate variability and its dynamic are better known : ice velocity, iceberg calvings. . . Through the height variations monitoring, ice gains and losses are estimated, leading to the contribution to the sea-level rise, from which is deduced the impact over coastal areas or the oceans. To explore this continent, we use the sensor called altimeter : a radar or laser wave is sent from the satellite to the surface and the reflected signal is recorded. From this signal we extract relevant parameters and the height. The satellites have observed this area, notably since the altimetric mission ERS-1 launching, until 82æ S in 1991, following the still famous explorations from the beginning of the twentieth century. SARAL, launched in February 2013, innovates because of the major change in the frequency used, the Ka-band (36.75 Ghz) instead of the Ku-band (13.6Ghz) and the S-band (3.2 Ghz) implying a different interaction between the radar wave and the snowpack that needs to be investigated. Using almost three years of observations, we focus on the altimetric signal processing and its validation. The geographic and the technical aspects are introduced and we show the limitations in the altimetric data processing. Using the crossover method (explained in greater detail later), we compare two simultaneous missions, ENVISAT and ICESat in order to better constrain the penetration effect of the radar-wave into the snowpack and correct it. The method that is used will be of great interest to compare SARAL with the future mission ICESat- 2. A new calibration and validation tool has been implemented, allowing a long-term survey of the Antarctic area, providing statistics, diagnostics and temporal series. The slope effect is the major limitation in the precision assessment of the mission. Thanks to a new way of selecting the data and the oceanic tide correction, we quantify with metrics computed at crossover points the accuracy of altimetric data over the Antarctic ice sheet. We describe in the last part the SARAL observations to give a preliminary analysis in agreement with the former mission ENVISAT. Other ways of improvement are presented, like future altimetric missions, modifications in the so-called retracking algorithm that extracts the relevant parameters or even the use of models. SARAL raises perspectives to estimate with a growing precision the evolution of the Antarctic continent, and this thesis is a state of the art about the different possible processings needed to do so.
447

Approche physico-statistique de la désagrégation des précipitations satellite dans les Tropiques / A physical-statistical approach for disaggregating satellite precipitation in the tropics

Guilloteau, Clément 07 November 2016 (has links)
Les précipitations sont un phénomène dont la variabilité s'étend sur une très large gamme d'échelles : de l'échelle millimétrique de la goutte d'eau (échelle microphysique) à l'échelle des circulations atmosphériques globales (échelle synoptique). Il n'existe pas de système unique capable de fournir des observations des précipitations couvrant toutes ces échelles. Les observations satellite sont celles qui actuellement résolvent le plus efficacement les grandes échelles spatiales et temporelles : de la méso-échelle à l'échelle synoptique. Dans cette thèse, nous explorons en zone tropicale les capacités des satellites à résoudre les échelles spatiales de l'ordre de 100km, jusqu'aux échelles kilométriques ; et les échelles temporelles comprises entre 24 heures et 15 minutes (afin de résoudre le cycle diurne). L'approche retenue est physico-statistique. Si les grandes échelles peuvent être résolues par des approches déterministes combinant les mesures de multiples instruments spatiaux, plusieurs facteurs limitent la pertinence des approches déterministes à fine échelle : - Les limites instrumentales en terme de résolution spatiale. - Le nombre d'instruments en orbite qui limite la fréquence d'échantillonnage des mesures. - La nature dynamique de la variabilité fine échelle. En particulier, aux fines échelles, c'est la difficulté à parfaitement localiser les structures précipitantes qui entraine les erreurs d'estimation les plus importantes. L'approche physico-statistique est ici synonyme de déterministe (pour les grandes échelles) et probabiliste (pour les fines échelles). Le premier objectif de cette thèse est de déterminer précisément la limite des échelles qui peuvent être résolues de façon déterministe. L'approche physico-statistique de l'estimation des intensités de précipitation est implémentée dans cette thèse à partir d'une méthode multicapteur déterministe pré-existante : l'algorithme TAPEER, développé dans le cadre de la mission Megha-Tropiques, qui fournit une estimation du cumul pluviométrique journalier à une résolution de 1°. C'est la génération d'ensembles désagrégés par une méthode stochastique multi-échelle qui a été retenue ici. Les ensembles sont contraints par une information fine échelle : un masque de détection des aires précipitantes dérivé des images infrarouge metosat-SG à une résolution de 3km (et avec une image toutes les 15 minutes). La génération d'ensemble permet de caractériser l'incertitude sur l'estimation à travers la dispersion des réalisations de l'ensemble. Chaque réalisation de l'ensemble est générée de façon à reproduire le plus fidèlement possible les propriétés statistiques (distribution de fréquence des intensités, autocorrélation spatiale et temporelle) des véritables champs de précipitation. Ces champs et cette technique ont un apport pour les applications hydrologiques, par exemple pour améliorer le ruissellement lié aux précipitations intenses dans les modèles. Considérer plusieurs réalisations permet de plus d'étudier la propagation des incertitudes à travers un modèle. / Rainfall variability involves a wide range of scales: from the millimeter-scale associated with microphysics to the synoptic scale of the global atmospheric circulation. No existing observation system is able to cover all these scales by itself. Satellite-based observation systems are currently the most efficient systems to resolve the large spatial and temporal scales: from mesoscale meteorology to the synoptic scale. This thesis is dedicated to the exploration of satellites ability to resolve spatial scales from 100km to 2km and temporal scales from 24h to 15 min (in order to resolve the diurnal cycle). The chosen approach is both physical and statistical (or deterministic and probabilistic). The idea is that the deterministic approach can resolve the large scales, but several factors limit its relevance when dealing with fine scales: -The limited resolution of the instruments. -The number of orbiting instruments that limits temporal sampling. -The dynamic nature of fine scale variability. At fines scales, most of the errors in rainfall estimation from satellite comes from not perfectly localizing the precipitating cells. The first objective of this thesis is to identify precisely the lowest limit in scale where the deterministic approach is appropriate. The implementation of the physical-statistical approach relies on an existing multisensor estimate of daily precipitation at a 1° resolution: the TAPEER algorithm developed as part of the Megha-Tropiques mission. The chosen method is a hybrid physical disaggregation and stochastic downscaling via a multiscale representation. The result is an ensemble of high-resolution probable realizations of the rain intensity field. The ensemble is constrained by a high resolution rain detection mask derived from meteosat-SG infrared images at 3km resolution (one image every 15 minutes). The uncertainty associated with the final estimation is handled through the ensemble dispersion. Every realization is generated so that its statistical properties (frequency distribution of the intensities, autocorrelation function) mimic those of the true rain field. The generated fields and the proposed technique contribute to hydrological applications for instance by improving the runoff associated to high precipitation rates in models. Using several realizations is a way to study uncertainty propagation through a model.
448

Microscopie tomographique diffractive et profilométrie multivue à haute résolution / Tomographic diffractive microscopy and multiview profilometry with high resolution

Liu, Hui 27 June 2014 (has links)
Nous avons développé un microscope tomographique diffractif en réflexion, qui permet d’observer la surface d’un échantillon avec une résolution latérale améliorée comparée à un microscope holographique conventionnel. À partir des même données expérimentales (les hologrammes acquis sous différents angles d’illumination), des mesures à haute précision longitudinale peuvent être réalisées sur la surface d’un échantillon purement réfléchissant, par reconstruction du profil de hauteur à partir de la phase. Cette méthode d’imagerie multimodale présente plusieurs avantages comparée aux mesures en holographie interférométrique classique : amélioration de la résolution latérale sur la partie diffractive, déroulement de phase facilité, réduction du bruit cohérent, l’ensemble étant associé à la grande précision longitudinale fournie par les mesures de phase. Nous montrons ces possibilités en imageant divers échantillons minces. / We have developed a tomographic diffractive microscope in reflection, which permits observation of sample surfaces with an improved lateral resolution, compared to a conventional holographic microscope. From the same set of data, high-precision measurements can be performed on the shape of the reflective surface by reconstructing the phase of the diffracted field. doing so allows for several advantages compared to classical holographic interferometric measurements: improvement in lateral resolution, easier phase unwrapping, reduction of the coherent noise, combined with the high-longitudinal precision provided by interferometric phase measurements. We demonstrate these capabilities by imaging various test samples.
449

Analyse conjointe de traces oculométriques et d'EEG à l'aide de modèles de Markov cachés couplés / Joint analysis of eye movements and EEGs using coupled hidden Markov

Olivier, Brice 26 June 2019 (has links)
Cette thèse consiste à analyser conjointement des signaux de mouvement des yeux et d’électroencéphalogrammes (EEG) multicanaux acquis simultanément avec des participants effectuant une tâche de lecture de recueil d'informations afin de prendre une décision binaire - le texte est-il lié à un sujet ou non? La recherche d'informations textuelles n'est pas un processus homogène dans le temps - ni d'un point de vue cognitif, ni en termes de mouvement des yeux. Au contraire, ce processus implique plusieurs étapes ou phases, telles que la lecture normale, le balayage, la lecture attentive - en termes d'oculométrie - et la création et le rejet d'hypothèses, la confirmation et la décision - en termes cognitifs.Dans une première contribution, nous discutons d'une méthode d'analyse basée sur des chaînes semi-markoviennes cachées sur les signaux de mouvement des yeux afin de mettre en évidence quatre phases interprétables en termes de stratégie d'acquisition d'informations: lecture normale, lecture rapide, lecture attentive et prise de décision.Dans une deuxième contribution, nous lions ces phases aux changements caractéristiques des signaux EEG et des informations textuelles. En utilisant une représentation en ondelettes des EEG, cette analyse révèle des changements de variance et de corrélation des coefficients inter-canaux, en fonction des phases et de la largeur de bande. En utilisant des méthodes de plongement des mots, nous relions l’évolution de la similarité sémantique au sujet tout au long du texte avec les changements de stratégie.Dans une troisième contribution, nous présentons un nouveau modèle dans lequel les EEG sont directement intégrés en tant que variables de sortie afin de réduire l’incertitude des états. Cette nouvelle approche prend également en compte les aspects asynchrones et hétérogènes des données. / This PhD thesis consists in jointly analyzing eye-tracking signals and multi-channel electroencephalograms (EEGs) acquired concomitantly on participants doing an information collection reading task in order to take a binary decision - is the text related to some topic or not ? Textual information search is not a homogeneous process in time - neither on a cognitive point of view, nor in terms of eye-movement. On the contrary, this process involves several steps or phases, such as normal reading, scanning, careful reading - in terms of oculometry - and creation and rejection of hypotheses, confirmation and decision - in cognitive terms.In a first contribution, we discuss an analysis method based on hidden semi-Markov chains on the eye-tracking signals in order to highlight four interpretable phases in terms of information acquisition strategy: normal reading, fast reading, careful reading, and decision making.In a second contribution, we link these phases with characteristic changes of both EEGs signals and textual information. By using a wavelet representation of EEGs, this analysis reveals variance and correlation changes of the inter-channels coefficients, according to the phases and the bandwidth. And by using word embedding methods, we link the evolution of semantic similarity to the topic throughout the text with strategy changes.In a third contribution, we present a new model where EEGs are directly integrated as output variables in order to reduce the state uncertainty. This novel approach also takes into consideration the asynchronous and heterogeneous aspects of the data.
450

Traitement et analyse des processus stochastiques par EMD et ses extensions / No

Komaty, Ali 28 November 2014 (has links)
L’objectif de cette thèse est d’analyser le comportement de la décomposition modale empirique (EMD) et sa version multivariée (MEMD) dans le cas de processus stochastiques : bruit Gaussien fractionnaire (fGn) et processus symétrique alpha stable (SαS). Le fGn est un bruit large bande généralisant le cas du bruit blanc Gaussien et qui trouve des applications dans de nombreux domaines tels que le trafic internet, l’économie ou le climat. Par ailleurs, la nature «impulsive» d’un certain nombre de signaux (craquement des glaces, bruit des crevettes claqueuses, potentiel de champ local en neurosciences,…) est indéniable et le modèle Gaussien ne convient pas pour leur modélisation. La distribution SαS est une solution pour modéliser cette classe de signaux non-Gaussiens. L’EMD est un outil bien adapté au traitement et à l’analyse de ces signaux réels qui sont, en général, de nature complexe (non stationnaire,non linéaire). En effet, cette technique, pilotée par les données, permet la décomposition d’un signal en une somme réduite de composantes oscillantes, extraites de manière itérative, appelées modes empiriques ou IMFs (Intrinsic Mode Functions). Ainsi, nous avons montré que le MEMD s’organise spontanément en une structure de banc de filtres presque dyadiques. L'auto-similarité en termes de représentation spectrale des modes a aussi été établie. En outre, un estimateur de l’exposant de Hurst, caractérisant le fGn, a été construit et ses performances ont été comparées, en particulier à celles de l’approche ondelettes. Cette propriété de banc de filtres du MEMD a été vérifiée sur des données d'hydrodynamique navale (écoulement turbulent) et leur auto-similarité a été mise en évidence. De plus, l’estimation du coefficient de Hurst a mis en avant l’aspect longue dépendance (corrélation positive) des données. Enfin, l’aspect banc de filtres de l’EMD a été exploité à des fins de filtrage dans le domaine temporel en utilisant une mesure de similarité entre les densités de probabilités des modes extraits et celle du signal d’entrée. Pour éviter le problème du mode mixing de l'EMD standard, une approche de débruitage dans le domaine fréquentiel par une reconstruction complète des IMFs préalablement seuillées a été menée. L’ensemble des résultats a été validé par des simulations intensives (Monte Carlo) et sur des signaux réels. / The main contribution of this thesis is aimed towards understanding the behaviour of the empirical modes decomposition (EMD) and its extended versions in stochastic situations.

Page generated in 0.0815 seconds