• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 6
  • 5
  • Tagged with
  • 39
  • 28
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation probabiliste de classifieurs d’ensemble pour des problèmes à deux classes / Probabilistic modeling of ensemble classifiers for two classes problems

Dong, Yuan 08 July 2013 (has links)
L'objectif de cette thèse est d'améliorer ou de préserver les performances d'un système décisionnel quand l’environnement peut impacter certains attributs de l'espace de représentation à un instant donné ou en fonction de la position géographique de l’observation. S'inspirant des méthodes d'ensemble, notre approche a consisté à prendre les décisions dans des sous-espaces de représentation résultant de projections de l'espace initial, espérant ainsi travailler dans des sous-espaces non impactés. La décision finale est alors prise par fusion des décisions individuelles. Dans ce contexte, trois méthodes de classification (one-class SVM, Kernel PCA et Kernel ECA) ont été testées en segmentation d'images texturées qui constitue un support applicatif parfaitement adéquat en raison des ruptures de modèle de texture aux frontières entre deux régions. Ensuite, nous avons proposé une nouvelle règle de fusion reposant sur un test du rapport de vraisemblance pour un ensemble de classifieurs indépendants. Par rapport au vote majoritaire, cette règle de fusion a montré de meilleures performances face à l'altération de l'espace de représentation. Enfin, nous avons établi un modèle conjoint pour l’ensemble des variables décisionnelles de Bernoulli corrélées associées aux décisions des classifieurs individuels. Cette modélisation doit permettre de lier les performances des classifieurs individuels à la performance de la règle de décision globale et d’étudier et de maîtriser l'impact des changements de l'espace initial sur la performance globale / The objective of this thesis is to improve or maintain the performance of a decision-making system when the environment can impact some attributes of the feature space at a given time or depending on the geographical location of the observation. Inspired by ensemble methods, our approach has been to make decisions in representation sub-spaces resulting of projections of the initial space, expecting that most of the subspaces are not impacted. The final decision is then made by fusing the individual decisions. In this context, three classification methods (one-class SVM, Kernel PCA and Kernel ECA) were tested on a textured images segmentation problem which is a perfectly adequate application support because of texture pattern changes at the border between two regions. Then, we proposed a new fusion rule based on a likelihood ratio test for a set of independent classifiers. Compared to the majority vote, this fusion rule showed better performance against the alteration of the performance space. Finally, we modeled the decision system using a joint model for all decisions based on the assumption that decisions of individual classifiers follow a correlated Bernoulli law. This model is intended to link the performance of individual classifiers to the performance of the overall decision rule and to investigate and control the impact of changes in the original space on the overall performance
22

Diversité spatiale et compensation Doppler en communication sous-marine sur signaux large-bandes / Spatial diversity exploitation and Doppler compensation in underwater acoustic environment for wide band signal

Lyonnet, Bastien 19 December 2011 (has links)
Le milieu sous-marin est doublement dispersif, en temps et en fréquence. L'utilisation récente de signaux de communication multi-porteuses offre une solution pour lutter contre la sélectivité fréquentielle. Mais ce type de signaux reste très sensible à la dispersivité fréquentielle. Cette thèse se concentre sur le problème de la dispersivité fréquentielle qu'est l'effet Doppler. Des méthodes d'estimation du paramètre Doppler sont développées pour des signaux multi-porteuses DMT. Est également abordé le problème de la compensation Doppler dans les cas mono et multitrajets. Une méthode générale et une méthode spéci que au signaux multiporteuses sont présentées et testées sur simulation. Cette thèse se distingue par son modèle du canal sous-marin qui considère un paramètre Doppler différent sur chaque trajet. Ceci résulte de la géométrie du problème et des vitesses émetteur/récepteur considérées. Nous présentons nalement des méthodes pour séparer les différents trajets arrivant sur une antenne a n de pouvoir considérer un paramètre Doppler unique sur chacun. / The underwater channel is doubly dispersive, in time and freqeuncy. In the last decade, multicarrier communication signal , like OFDM signal, has offer a solution in order to struggle aginst multipath propagation. Unfortunatly, these kinds of signal is strongly sensitive to Doppler effect. This thesis focus on frequential dispersivity involved by Doppler effect. Several Doppler estimation methods are developped for multicarrier signals. Doppler compensation for one path and multipath channel is also considered. For this problem, we developped general method but also speci c method for DMT signals. Each of them have been tested on simulations. This thesis uses an underwater channel model presenting different Doppler parameter for each path. This approach is a consequence of the problem geometry, considering emitter/receiver velocity. Finaly, using an antenna, we present several methods in order to separate efficiently each arriving path ; allowing us to consider each separated path with a single Doppler parameter to compensate.
23

Guaranteed Localization and Mapping for Autonomous Vehicles / Localisation et cartographie garanties pour les véhicules autonomes

Wang, Zhan 19 October 2018 (has links)
Avec le développement rapide et les applications étendues de la technologie de robot, la recherche sur le robot mobile intelligent a été programmée dans le plan de développement de haute technologie dans beaucoup de pays. La navigation autonome joue un rôle de plus en plus important dans le domaine de recherche du robot mobile intelligent. La localisation et la construction de cartes sont les principaux problèmes à résoudre par le robot pour réaliser une navigation autonome. Les techniques probabilistes (telles que le filtre étendu de Kalman et le filtre de particules) ont longtemps été utilisées pour résoudre le problème de localisation et de cartographie robotisées. Malgré leurs bonnes performances dans les applications pratiques, ils pourraient souffrir du problème d'incohérence dans les scénarios non linéaires, non gaussiens. Cette thèse se concentre sur l'étude des méthodes basées sur l'analyse par intervalles appliquées pour résoudre le problème de localisation et de cartographie robotisées. Au lieu de faire des hypothèses sur la distribution de probabilité, tous les bruits de capteurs sont supposés être bornés dans des limites connues. Sur la base d'une telle base, cette thèse formule le problème de localisation et de cartographie dans le cadre du problème de satisfaction de contraintes d'intervalle et applique des techniques d'intervalles cohérentes pour les résoudre de manière garantie. Pour traiter le problème du "lacet non corrigé" rencontré par les approches de localisation par ICP (Interval Constraint Propagation), cette thèse propose un nouvel algorithme ICP traitant de la localisation en temps réel du véhicule. L'algorithme proposé utilise un algorithme de cohérence de bas niveau et est capable de diriger la correction d'incertitude. Par la suite, la thèse présente un algorithme SLAM basé sur l'analyse d'intervalle (IA-SLAM) dédié à la caméra monoculaire. Une paramétrisation d'erreur liée et une initialisation non retardée pour un point de repère naturel sont proposées. Le problème SLAM est formé comme ICSP et résolu par des techniques de propagation par contrainte d'intervalle. Une méthode de rasage pour la contraction de l'incertitude historique et une méthode d'optimisation basée sur un graphique ICSP sont proposées pour améliorer le résultat obtenu. L'analyse théorique de la cohérence de la cartographie est également fournie pour illustrer la force de IA-SLAM. De plus, sur la base de l'algorithme IA-SLAM proposé, la thèse présente une approche cohérente et peu coûteuse pour la localisation de véhicules en extérieur. Il fonctionne dans un cadre en deux étapes (enseignement visuel et répétition) et est validé avec un véhicule de type voiture équipé de capteurs de navigation à l'estime et d'une caméra monoculaire. / With the rapid development and extensive applications of robot technology, the research on intelligent mobile robot has been scheduled in high technology development plan in many countries. Autonomous navigation plays a more and more important role in the research field of intelligent mobile robot. Localization and map building are the core problems to be solved by the robot to realize autonomous navigation. Probabilistic techniques (such as Extented Kalman Filter and Particle Filter) have long been used to solve the robotic localization and mapping problem. Despite their good performance in practical applications, they could suffer the inconsistency problem in the non linear, non Gaussian scenarios. This thesis focus on study the interval analysis based methods applied to solve the robotic localization and mapping problem. Instead of making hypothesis on the probability distribution, all the sensor noises are assumed to be bounded within known limits. Based on such foundation, this thesis formulates the localization and mapping problem in the framework of Interval Constraint Satisfaction Problem and applied consistent interval techniques to solve them in a guaranteed way. To deal with the “uncorrected yaw” problem encountered by Interval Constraint Propagation (ICP) based localization approaches, this thesis proposes a new ICP algorithm dealing with the real-time vehicle localization. The proposed algorithm employs a low-level consistency algorithm and is capable of heading uncertainty correction. Afterwards, the thesis presents an interval analysis based SLAM algorithm (IA-SLAM) dedicates for monocular camera. Bound-error parameterization and undelayed initialization for nature landmark are proposed. The SLAM problem is formed as ICSP and solved via interval constraint propagation techniques. A shaving method for landmark uncertainty contraction and an ICSP graph based optimization method are put forward to improve the obtaining result. Theoretical analysis of mapping consistency is also provided to illustrated the strength of IA-SLAM. Moreover, based on the proposed IA-SLAM algorithm, the thesis presents a low cost and consistent approach for outdoor vehicle localization. It works in a two-stage framework (visual teach and repeat) and is validated with a car-like vehicle equipped with dead reckoning sensors and monocular camera.
24

Nouvelle approche de suivi non invasif de l'alcoolémie par perspiration à l'aide de multicapteurs MOX / New approach to non-invasive monitoring of alcohol by perspiration using MOX multi-sensors

Lawson, Bruno Latevi 13 December 2018 (has links)
Nous proposons dans le cadre de ce travail de thèse, une nouvelle approche de la détection non invasive de l’alcoolémie sanguine à l’aide de microcapteurs d’éthanol à base de SnO2. Cette méthodologie se base sur une détection indirecte de l’alcoolémie sanguine par une mesure des vapeurs d’éthanol émises par la perspiration cutanée suite à une consommation d’alcool. Afin de valider cette approche, il a fallu dans un premier temps démontrer la pertinence et la faisabilité de cette méthodologie de détection par la réalisation d’essais cliniques pilotes en collaboration avec une équipe médicale d’étude pharmacologique du CPCET Marseille. Les différentes mesures du taux d’éthanol réalisées dans les fluides biologiques tels que le sang et l’air expiré ont pu être précisément corrélées avec les mesures de vapeurs d’éthanol réalisées à travers la perspiration à l’aide de trois microcapteurs de gaz commerciaux à base d’oxydes métalliques intégrés à un bracelet. Ces dispositifs ont l’avantage d’être sensibles mais pas sélectifs à la nature du gaz détecté. Durant ces travaux, des couches sensibles de SnO2 ont été déposées par pulvérisation cathodique RF magnétron réactive sur un transducteur breveté par notre équipe, intégrant trois capteurs sur une même puce. L’optimisation des paramètres de dépôt et les analyses structurales des couches de SnO2, nous ont permis de réaliser un multicapteur d’éthanol démontrant des performances sous éthanol ; en termes de sensibilité sous atmosphère humide, de répétabilité et de temps de réponses et de recouvrement ainsi que du point de vue sélectivité / A new approach of a noninvasive detection of blood alcohol concentration using ethanol microsensors based on SnO2 Is developed in this work. The methodology is based on an indirect detection of blood alcohol concentration by measuring the ethanol vapor emitted through the skin perspiration after alcohol consumption. In order to validate this approach, first we demonstrated the relevance and the feasibility of this detection method by carrying out pilot clinical trials in collaboration with a medical team of pharmacological study of CPCET Marseille. The different measurements of the ethanol concentration carried out in biological fluids such as blood and exhaled air could be precisely correlated with the measurements of ethanol vapors performed through the perspiration using three commercial gas microsensors based on metal oxides integrated into a bracelet. . These devices have the advantage of being sensitive but not selective to the nature of the gas detected. During this thesis work, sensitive layers of SnO2 were deposited by reactive magnetron RF sputtering on a transducer patented by our team, integrating three sensors on the same chip. The optimization of the deposition parameters and the structural analyzes of the SnO2 layers, allowed us to develop an ethanol multi-sensor demonstrating performances under ethanol; in terms of sensitivity on humidity, repeatability and response and recovery times as well as from the point of selectivity
25

Optimisation des détecteurs de la matrice HERACLES

Gagnon-Moisan, Francis. 11 April 2018 (has links)
Ce mémoire de maîtrise présente différents détecteurs de la matrice HERACLES et les tests qui furent effectués afin de l'adapter aux nouvelles conditions expérimentales imposées au centre de recherche TRIUMF. Depuis sa création, l'ensemble de détecteurs qui composent aujourd'hui la matrice HERACLES a subi plusieurs modifications et devra en subir encore afin d'être à la fine pointe de la recherche moderne. Cet ouvrage est divisé en trois chapitres distincts. Chaque chapitre traite d'une catégorie de détecteurs et des diverses recherches associées. Le premier chapitre traite des détecteurs à neutrons et des corrections à effectuer afin d'améliorer l'efficacité de détection. Le second aborde les modifications sur les détecteurs composés de scintillateurs CsI(Tl). Finalement, le troisième et dernier chapitre porte sur un type de photomultiplicateur à position qui est envisagé dans la composition de la matrice. Ce travail présente une combinaison de simulations effectuées grâce au logiciel GEANT4 et d'expériences en laboratoire. Les résultats des simulations furent utilisés pour obtenir des corrections à des données d'une expérience et à connaître les meilleures corrections potentielles à tester pour les différents détecteurs.
26

Suivi des piétons par fusion d'images infrarouges et visibles en scènes intérieures

Grégoire, Vincent 11 April 2018 (has links)
Ce projet a pour objectif d'étudier les aspects relatifs au suivi de piétons dans le projet MONNET. Pour ce faire, nous adoptons une approche hybride où le suivi est effectué indépendamment pour les images des caméras infrarouge et visible avant d'être combiné. Le suivi se fait à 3 niveaux : au niveau des blobs, au niveau des objets (groupe de blobs) et au niveau des objet fusionnés (détectés dans les deux images). De plus, une méthode robuste de gestion des occultations adaptée à l'environnement intérieur est utilisée pour assurer un suivi adéquat en présence de plusieurs piétons.
27

Conception et réalisation d'un multicapteur de gaz intégré à base de plateformes chauffantes sur silicium et de couches sensibles à oxyde métallique pour le contrôle de la qualité de l'air habitacle

Dufour, Nicolas 26 November 2013 (has links) (PDF)
De nombreuses études récentes ont montré la présence de quantités élevées de polluants à l'intérieur de l'habitacle automobile. La solution proposée pour pallier ce problème est l'élaboration d'un capteur de gaz capable de détecter les polluants pénétrant à l'intérieur du véhicule, engendrant la fermeture des volets d'aération lors de l'observation d'un pic de pollution. Les micro-capteurs chimiques à oxydes métalliques sont les meilleurs candidats pour résoudre cette problématique : ils présentent une grande sensibilité à de nombreux gaz, des temps de réponse rapides, et leur coût de production est faible. Leur principal défaut est un manque de sélectivité. Les travaux de recherches effectués ont consisté à mettre au point un micro-dispositif intégrant un réseau multicapteur de gaz à détection conductimétrique : sur une même puce micro-usinée en silicium sont intégrées plusieurs couches sensibles différentes, visant à détecter sélectivement plusieurs gaz : le monoxyde de carbone (CO), le dioxyde d'azote (NO2), l'ammoniac (NH3), l'acétaldéhyde (C2H4O) et le sulfure d'hydrogène (H2S). Pour se faire, trois axes d'études principaux se sont dégagés. La première partie de cette étude s'est portée sur la conception des micro-plateformes chauffantes à l'aide d'un outil de simulations numériques multiphysiques, pour optimiser, d'une part leur structure et leur géométrie afin d'atteindre les performances thermiques escomptées (optimisation du rendement thermoélectrique et minimisation d'interaction d'une cellule à l'autre), et d'autre part les performances thermomécaniques compte tenu de la possibilité d'utiliser un mode de fonctionnement des capteurs en transitoires thermiques rapides. Le modèle obtenu a été validé par comparaison à des mesures physiques. Celui-ci nous a permis d'améliorer le comportement thermique à la surface de la membrane et de réduire les coûts de fabrication en simplifiant le design. La fabrication en centrale technologique de la plateforme multicapteurs a ensuite été réalisée en tenant compte des améliorations proposées par la modélisation. Une étude spécifique sur l'intégration dans le procédé d'une technique industrielle des dépôts des matériaux sensibles par jet d'encre a été menée. Nous avons ainsi mis au point une méthode permettant de déposer rapidement et à bas coûts plusieurs couches sensibles (ZnO, CuO et SnO2) sur une même structure de détection. Enfin, nous avons procédé à l'élaboration d'un système décisionnel, comprenant deux éléments : la mise au point d'un profil optimisé de contrôle des résistances chauffantes et sensibles permettant d'améliorer la sensibilité, la sélectivité et la stabilité, et une analyse multivariée des données. Il a de ce fait été possible de détecter sélectivement la plupart des gaz ciblés (seuls et mélangés) à de faibles concentrations (0,2 ppm de NO2, 2 ppm de C2H4O, 5 ppm de NH3 et 100 ppm de CO).
28

Analyse statique et dynamique de cartes de profondeurs : application au suivi des personnes à risque sur leur lieu de vie / Static and dynamic analysis of depth maps : application to the monitoring of the elderly at their living place

Cormier, Geoffroy 10 November 2015 (has links)
En France, les chutes constituent la première cause de mortalité chez les plus de 75 ans, et la seconde chez les plus de 65 ans. On estime qu'elle engendre un coût de 1 à 2 milliards d'euros par an pour la société. L'enjeu humain et socio-économique est colossal, sachant que le risque de chute est multiplié par 20 après une première chute, que le risque de décès est multiplié par 4 dans l'année qui suit une chute, que les chutes concernent 30% des personnes de plus de 65 ans et 50% des personnes de plus de 85 ans, et que l'on estime que d'ici 2050, plus de 30% de la population sera âgée de plus de 65 ans. Cette thèse propose un dispositif de détection de présence au sol se basant sur l'analyse de cartes de profondeurs acquises en temps réel, ainsi qu'une amélioration du dispositif proposé utilisant également un capteur thermique. Les cartes de profondeurs et les images thermiques nous permettent de nous affranchir des conditions d'illumination de la scène observée, et garantissent l'anonymat des personnes qui évoluent dans le champ de vision du dispositif. Cette thèse propose également différentes méthodes de détection du plan du sol dans une carte de profondeurs, le plan du sol constituant une référence géométrique nécessaire au dispositif proposé. Une enquête psychosociale a été réalisée, qui nous a permis d'évaluer l'acceptabilité a priori dudit dispositif. Cette enquête a démontré sa bonne acceptabilité, et a fourni des préconisations quant aux points d'amélioration et aux écueils à éviter. Enfin, une méthode de suivi d'objets dans une carte de profondeurs est proposée, un objectif à plus long terme consistant à mesurer l'activité des individus observés. / In France, fall is the first death cause for people aged 75 and more, and the second death cause for people aged 65 and more. It is considered that falls generate about 1 to 2 billion euros health costs per year. The human and social-economical issue is crucial, knowing that for the mentioned populations, fall risk is multiplied by 20 after a first fall; that the death risk is multiplied by 4 in the year following a fall; that per year, 30% of the people aged 65 and more and 50% of the people aged 85 and more are subject to falls; and that it is estimated that more than 30% of the French population whill be older than 65 years old by 2050. This thesis proposes a ground lying event detection device which bases on the real time analysis of depth maps, and also proposes an improvement of the device, which uses an additional thermal sensor. Depth maps and thermal images ensure the device is independent from textures and lighting conditions of the observed scenes, and guarantee that the device respects the privacy of those who pass into its field of view, since nobody can be recognized in such images. This thesis also proposes several methods to detect the ground plane in a depth map, the ground plane being a geometrical reference for the device. A psycho-social inquiry was conducted, and enabled the evaluation of the a priori acceptability of the proposed device. This inquiry demonstrated the good acceptability of the proposed device, and resulted in recommendations on points to be improved and on pitfalls to avoid. Last, a method to separate and track objects detected in a depth map is proposed, the measurement of the activity of observed individuals being a long term objective for the device.
29

Vers une gestion décentralisée des données des réseaux de capteurs dans le contexte des smart grids / Towards decentralized data management of smard grids' sensor networks

Matta, Natalie 20 March 2014 (has links)
Cette thèse s’intéresse à la gestion décentralisée des données récoltées par les réseaux de capteurs dans le contexte des réseaux électriques intelligents (smart grids). Nous proposons une architecture décentralisée basée sur les systèmes multi-agents pour la gestion des données et de l’énergie dans un smart grid. En particulier, nos travaux traitent de la gestion des données des réseaux de capteurs dans le réseau de distribution d’un smart grid et ont pour objectif de lever deux verrous essentiels : (1) l'identification et la détection de défaillances et de changements nécessitant une prise de décision et la mise en œuvre des actions correspondantes ; (2) la gestion des grandes quantités de données qui seront récoltées suite à la prolifération des capteurs et des compteurs communicants. La gestion de ces informations peut faire appel à plusieurs méthodes, dont l'agrégation des paquets de données sur laquelle nous nous focalisons dans cette thèse. Nous proposons d’agréger (PriBaCC) et/ou de corréler (CoDA) le contenu de ces paquets de données de manière décentralisée. Ainsi, le traitement de ces données s'effectuera plus rapidement, ce qui aboutira à une prise de décision rapide et efficace concernant la gestion de l'énergie. La validation par simulation de nos contributions a montré que celles-ci répondent aux enjeux identifiés, notamment en réduisant le volume des données à gérer et le délai de communication des données prioritaires / This thesis focuses on the decentralized management of data collected by wireless sensor networks which are deployed in a smart grid, i.e. the evolved new generation electricity network. It proposes a decentralized architecture based on multi-agent systems for both data and energy management in the smart grid. In particular, our works deal with data management of sensor networks which are deployed in the distribution electric subsystem of a smart grid. They aim at answering two key challenges: (1) detection and identification of failure and disturbances requiring swift reporting and appropriate reactions; (2) efficient management of the growing volume of data caused by the proliferation of sensors and other sensing entities such as smart meters. The management of this data can call upon several methods, including the aggregation of data packets on which we focus in this thesis. To this end, we propose to aggregate (PriBaCC) and/or to correlate (CoDA) the contents of these data packets in a decentralized manner. Data processing will thus be done faster, consequently leading to rapid and efficient decision-making concerning energy management. The validation of our contributions by means of simulation has shown that they meet the identified challenges. It has also put forward their enhancements with respect to other existing approaches, particularly in terms of reducing data volume as well as transmission delay of high priority data
30

Development and evaluation of multisensor methods for EarthCare mission based on A-Train and airborne measurements / Développement et évaluation de méthodes multicapteurs pour la mission EarthCare, à partir des mesures de l’A-Train et des missions aéroportées

Cazenave, Quitterie 14 January 2019 (has links)
L'impact des nuages de glace sur le cycle de l'eau et le bilan radiatif est encore incertain en raison de la complexité des processus nuageux qui rend difficile l'acquisition d'observations adéquates sur les propriétés des nuages de glace et leur représentation dans les modèles de circulation générale. Les instruments de télédétection actifs et passifs, tels que les radiomètres, les radars et les lidars, sont couramment utilisés pour les étudier. La restitution des propriétés microphysiques des nuages (extinction, contenu en glace, rayon effectif, ...) peut être effectuée à partir d'un seul instrument ou de la combinaison de plusieurs instruments. L’intérêt de l’utilisation de synergies instrumentales pour restituer les propriétés nuageuses réside dans le fait que cela permet de réduire les incertitudes dues aux lacunes des différents instruments pris séparément. La constellation de satellites A-Train a considérablement amélioré notre connaissance des nuages. Depuis 2006, le lidar à rétrodiffusion visible CALIOP embarqué à bord du satellite CALIPSO et le radar nuage à 94GHz CPR embarqué à bord du satellite CloudSat ont permis l’acquisition de profils nuageux sur l’ensemble du globe et de nombreuses méthodes synergiques de restitution ont été adaptées à ces instruments. En 2021 sera lancé un nouveau satellite, EarthCARE, embarquant des instruments de télédétection de pointe, notamment ATLID, un lidar à haute résolution spectrale (HSRL) à 355 nm et un radar nuage Doppler à 94 GHz. La mission principale de ce satellite est de quantifier les interactions entre les nuages, les aérosols et le bilan radiatif de la Terre afin d'améliorer les prévisions météorologiques et des modèles climatiques. Grâce à son instrumentation avancée installée sur une plate-forme unique, cette nouvelle mission devrait fournir des observations sans précédent des nuages depuis l'espace. Cependant, pour ce faire, les algorithmes synergiques développés pour les mesures de l'A-Train doivent être adaptés à cette nouvelle configuration instrumentale. Au cours de ma thèse, je me suis concentrée sur l'algorithme Varcloud développé en 2007 par Delanoë et Hogan et basé sur une technique variationnelle. La première partie du travail a consisté à adapter certains paramètres du modèle microphysique de l’algorithme aux études récentes d’une large base de données in situ. En particulier, les questions de la paramétrisation du rapport lidar et du choix de la relation masse-diamètre pour les cristaux de glace ont été abordées. La deuxième partie de mon travail a consisté à adapter l'algorithme de restitution Varcloud aux plates-formes aéroportées. Les plates-formes aéroportées sont idéales pour préparer et valider les missions spatiales, permettant de réaliser des mesures sous-trace, colocalisées avec les instruments spatiaux. En particulier, le HALO allemand et le Falcon 20 français ont des charges utiles très complémentaires et sont parfaitement conçus pour la préparation et la validation de la mission EarthCare. Les deux avions embarquent notamment un lidar à haute résolution spectrale (355 nm sur le Falcon et 532 nm sur le HALO) et un radar Doppler à 36 GHz (HALO) et 95 GHz (Falcon). À l'automne 2016, une campagne aéroportée dans laquelle les deux avions étaient impliqués s'est déroulée en Islande, à Keflavik, dans le cadre du projet NAWDEX. Les mesures recueillies au cours de cette campagne fournissent un ensemble de données intéressant pour caractériser la microphysique et la dynamique des nuages dans l'Atlantique Nord, région qui présent un grand intérêt pour les missions Cloudsat-CALIPSO et EarthCARE. En outre, une série de vols communs avec observation de la même scène nuageuse par les deux plates-formes ont été réalisées, fournissant des données permettant d'étudier l'influence de la configuration instrumentale sur les propriétés des nuages de glace restituées. / The impact of ice clouds on the water cycle and radiative budget is still uncertain due to the complexity of cloud processes that makes it difficult to acquire adequate observations of ice cloud properties and parameterize them into General Circulation Models. Passive and active remote sensing instruments, radiometers, radars and lidars, are commonly used to study ice clouds. Inferring cloud microphysical properties (extinction, ice water content, effective radius, ...) can be done from one instrument only, or from the synergy of several. The interest of using instrumental synergies to retrieve cloud properties is that it can reduce the uncertainties due to the shortcomings of the different instruments taken separately. The A-Train constellation of satellites has considerably improved our knowledge of clouds. Since 2006, the 532nm backscattering lidar CALIOP on board the satellite CALIPSO and the 94GHz cloud radar CPR on board the satellite CloudSat have acquired cloud vertical profiles globally and many lidar-radar synergetic methods have been adapted to CloudSat and CALIPSO data. In 2021 will be launched a new satellite, EarthCARE, boarding state of the art remote sensing instrumentation, in particular ATLID, a High Spectral Resolution Lidar (HSRL) at 355nm and a Doppler cloud radar at 94 GHz. The main mission of this satellite is to quantify interactions between clouds, aerosols and the Earth's radiation budget in order to improve weather prediction and climate models. Thanks to its advanced instrumentation mounted on a single platform, this new mission is expected to provide unprecedented observations of clouds from space. However, to do so, the synergistic algorithms that were developed for A-Train measurements have to be adapted to this new instrumental configuration. During my PhD, I focused on the Varcloud algorithm that was developed in 2007 by Delanoë and Hogan, based on a variational technique. The first part of the work consisted in adapting some parameters of the microphysical model of the algorithm to recent studies of a large dataset of in-situ measurements. In particular, the questions of a parameterization of the lidar extinction-to-backscatter ratio and the choice of the mass-size relationship for ice crystals were addressed. The second part of my work consisted in adapting the Varcloud retrieval algorithm to airborne platforms. Airborne platforms are ideal to prepare and validate space missions, allowing for direct underpasses of spaceborne instruments. Moreover, German and French aircraft, respectively HALO and French Falcon 20 have very complementary payloads and are perfectly designed for the preparation, the calibration and the validation of EarthCare. Both aircraft board a high spectral resolution lidar (355 nm on the French Falcon and 532 nm on the HALO) and a Doppler radar at 36 GHz (HALO) and 95 GHz (Falcon). In fall 2016 a field campaign related to the NAWDEX project took place in Iceland, Keflavik with both aircraft involved. The measurements collected during this campaign provide an interesting dataset to characterize cloud microphysics and dynamics in the North Atlantic, which are of high interest regarding the Cloudsat-CALIPSO and EarthCARE missions. In addition, a series of common legs with the same cloud scene observed by both platforms were performed, providing data to study the influence of the instrumental configuration on the retrieved ice cloud properties.

Page generated in 0.1589 seconds