• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 78
  • 59
  • 12
  • Tagged with
  • 154
  • 82
  • 38
  • 38
  • 33
  • 28
  • 24
  • 22
  • 20
  • 20
  • 16
  • 14
  • 13
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Tromos : a software development kit for virtual storage systems / Tromos : un cadre pour la construction de systèmes de stockage distribués

Nikolaidis, Fotios 22 May 2019 (has links)
Les applications modernes ont des tendances de diverger à la fois le profile I/O et les requiers du stockage. La liaison d'une application scientifique ou commerciale avec un system "general-purpose" produit probablement un résultât sous-optimale. Même sous la présence des systèmes "purpose specific" des application aux classes multiples de workloads ont encore besoin de distribuer du travail de calcul au correct system. Cependant, cette stratégie n'est pas triviale comme des plateformes différentes butent diversifier leur propos et par conséquence elles requièrent que l'application intégrée des chemins multiples de code. Le but de l'implémentation de ces chemins n'est pas trivial, il requiert beaucoup d'effort et des capacités de codage. Le problème devient vaste quand les applications ont besoin de bénéficier de plusieurs data-stores en parallèle. Dans cette dissertation, on va introduire les "storage containers" comme le prochain étape logique, mais révolutionnaire. Un "storage container" est une infrastructure virtuelle qui découple une application de ses data-stores correspondants avec la même manière que Docker découple l'application runtime des servers physiques. En particulier, un "storage container" est un middleware qui sépare des changements fait pour bouts de code des application par des utilisateurs scientifiques, de celui fait pour des actions de I/O par des développeurs ou des administrateurs.Pour faciliter le développement et déploiement d'un "storage container" on va introduire un cadre appelé Tromos. Parmi son filtre, tout qui est nécessaire pour qu'un architecte d'une application construite une solution de stockage est de modéliser l'environnement voulu dans un fichier de définition and laisser le reste au logiciel. Tromos est livré avec un dépôt de plugins parmi les quelles l'architecte peut choisir d'optimiser le conteneur pour l'application activée. Parmi des options disponibles, sont inclus des transformations des données, des politiques de placement des données, des méthodes de reconstruction des données, du management d'espace de noms, et de la gestion de la cohérence à la demande. Comme preuve de concept, on utilisera Tromos pour créer des environnements de stockage personnalisés facilement comparés à Gluster, un système de stockage bien établi et polyvalent. Les résultats vous montrent que les "storage containers" adaptés aux applications, même s'ils sont auto-produits, peuvent surpasser les systèmes "general purpose" les plus sophistiqués en supprimant simplement la surcharge inutile de fonctionnalités factices. / Modern applications tend to diverge both in the I/O profile and storage requirements. Matching a scientific or commercial application with a general-purpose system will most likely yield suboptimal performance. Even in the presence of purpose-specific' systems, applications with multiple classes of workloads are still in need to disseminate the workload to the right system. This strategy, however, is not trivial as different platforms aim at diversified goals and therefore require the application to incorporate multiple codepaths. Implementing such codepaths is non-trivial, requires a lot of effort and programming skills, and is error-prone. The hurdles are getting worse when applications need to leverage multiple data-stores in parallel. In this dissertation, we introduce "storage containers" as the next logical in the storage evolution. A "storage container" is virtual infrastructure that decouples the application from the underlying data-stores in the same way Docker decouples the application runtime from the physical servers. In other words, it is middleware that separate changes made to application codes by science users from changes made to I/O actions by developers or administrators.To facilitate the development and deployment of a "storage container" we introduce a framework called Tromos. Through its lens, all that it takes for an application architect to spin-up a custom storage solution is to model the target environment into a definition file and let the framework handles the rest. Tromos comes with a repository of plugins which the architect can choose as to optimize the container for the application at hand. Available options include data transformations, data placement policies, data reconstruction methods, namespace management, and on-demand consistency handling.As a proof-of-concept we use Tromos to prototype customized storage environments which we compare against Gluster; a well-estalished and versatile storage system. The results have shown that application-tailored "storage containers", even if they are auto-produced, can outperform more mature "general-purpose" systems by merely removing the unnecessary overhead of unused features.
122

Les processus métiers en tant que services - BPaaS : sécurisation des données et des services / Business process as a service - BPaaS : securing data and services

Bentounsi, Mohamed el Mehdi 14 September 2015 (has links)
Malgré les avantages économiques de l’informatique en nuage (ou cloud computing) pour les entreprises et ses multiples applications envisagées, il subsiste encore des obstacles pour son adoption à grande échelle. La sécurité des données sauvegardées et traitées dans le nuage arrive en tête des préoccupations des décideurs des directions des systèmes d'information. De ce fait, l'objectif principal de nos travaux de recherche lors de cette thèse de doctorat est de poser des bases solides pour une utilisation sûre et sécurisée du nuage. Dans un premier lieu, l’externalisation des processus métiers vers le nuage permet aux entreprises de réduire les couts d’investissement et de maitriser les couts d’exploitation de leurs systèmes d’information ; Elle permet aussi de promouvoir la réutilisation des parties (ou fragments) de ses processus métiers en tant que service cloud, éventuellement par des concurrents directs, afin de faciliter le développement de nouvelles applications orientés services ‘SOA’, ainsi la collaboration à l’échelle du nuage. Néanmoins, le fait de révéler la provenance d’un fragment réutilisé est considérée comme une brèche dans la vie privée et risque d’être dommageable pour l’entreprise propriétaire de ce fragment. Les techniques d’anonymisation des données ont fait leurs preuves dans le domaine des bases de données. Notre principale contribution dans cette partie est la proposition d’un protocole basée sur l’anonymisation des fragments de processus métiers afin de garantir à la fois, la vie privée de leurs propriétaires et la disponibilité de ces fragments pouvant être réutilisés dans le nuage. Les systèmes d’authentification biométriques permettent une authentification des individus avec une garantit suffisante. Néanmoins, le besoin en ressources informatiques ‘calcul et stockage’ de ces systèmes et le manque de compétences au sein des organismes freinent considérablement leurs utilisations à grande échelle. Le nuage offre la possibilité d’externaliser à la fois le calcul et le stockage des données biométriques à moindre cout et de proposer une authentification biométrique en tant que service. Aussi, l’élasticité du nuage permet de répondre aux pics des demandes d’authentifications aux heures de pointes. Cependant, des problèmes de sécurité et de confidentialité des données biométriques sensibles se posent, et par conséquent doivent être traité afin de convaincre les institutions et organismes à utiliser des fragments externes d'authentification biométriques dans leurs processus métiers. Notre principale contribution dans cette partie est un protocole léger ‘coté client’ pour une externalisation (sur un server distant) de la comparaison des données biométriques sans révéler des informations qui faciliteraient une usurpation d’identité par des adversaires. Le protocole utilise une cryptographie légère basée sur des algorithmes de hachage et la méthode de 'groupe de tests combinatoires', permettant une comparaison approximative entre deux données biométriques. Dans la dernière partie, nous avons proposé un protocole sécurisé permettant la mutualisation d’un Hyperviseur (Outil permettant la corrélation et la gestion des événements issus du SI) hébergé dans le nuage entre plusieurs utilisateurs. La solution proposée utilise à la fois, le chiffrement homomorphique et la réécriture de règles de corrélation afin de garantir la confidentialité les évènements provenant des SI des différents utilisateurs. Cette thèse a été réalisée à l'Université Paris Descartes (groupe de recherche diNo du LIPADE) avec le soutien de la société SOMONE et l'ANRT dans le cadre d'une convention CIFRE. / Cloud computing has become one of the fastest growing segments of the IT industry. In such open distributed computing environments, security is of paramount concern. This thesis aims at developing protocols and techniques for private and reliable outsourcing of design and compute-intensive tasks on cloud computing infrastructures. The thesis enables clients with limited processing capabilities to use the dynamic, cost-effective and powerful cloud computing resources, while having guarantees that their confidential data and services, and the results of their computations, will not be compromised by untrusted cloud service providers. The thesis contributes to the general area of cloud computing security by working in three directions. First, the design by selection is a new capability that permits the design of business processes by reusing some fragments in the cloud. For this purpose, we propose an anonymization-based protocol to secure the design of business processes by hiding the provenance of reused fragments. Second, we study two di_erent cases of fragments' sharing : biometric authentication and complex event processing. For this purpose, we propose techniques where the client would only do work which is linear in the size of its inputs, and the cloud bears all of the super-linear computational burden. Moreover, the cloud computational burden would have the same time complexity as the best known solution to the problem being outsourced. This prevents achieving secure outsourcing by placing a huge additional overhead on the cloud servers. This thesis has been carried out in Université Paris Descartes (LIPADE - diNo research group) and in collaboration with SOMONE under a Cifre contract. The convergence of the research fields of those teams led to the development of this manuscrit.
123

Méthodes et structures non locales pour la restaurationd'images et de surfaces 3D / Non local methods and structures for images and 3D surfaces restoration

Guillemot, Thierry 03 February 2014 (has links)
Durant ces dernières années, les technologies d’acquisition numériques n’ont cessé de se perfectionner, permettant d’obtenir des données d’une qualité toujours plus fine. Néanmoins, le signal acquis reste corrompu par des défauts qui ne peuvent être corrigés matériellement et nécessitent l’utilisation de méthodes de restauration adaptées. J'usqu’au milieu des années 2000, ces approches s’appuyaient uniquement sur un traitement local du signal détérioré. Avec l’amélioration des performances de calcul, le support du filtre a pu être étendu à l’ensemble des données acquises en exploitant leur caractère autosimilaire. Ces approches non locales ont principalement été utilisées pour restaurer des données régulières et structurées telles que des images. Mais dans le cas extrême de données irrégulières et non structurées comme les nuages de points 3D, leur adaptation est peu étudiée à l’heure actuelle. Avec l’augmentation de la quantité de données échangées sur les réseaux de communication, de nouvelles méthodes non locales ont récemment été proposées. Elles utilisent un modèle a priori extrait à partir de grands ensembles d’échantillons pour améliorer la qualité de la restauration. Néanmoins, ce type de méthode reste actuellement trop coûteux en temps et en mémoire. Dans cette thèse, nous proposons, tout d’abord, d’étendre les méthodes non locales aux nuages de points 3D, en définissant une surface de points capable d’exploiter leur caractère autosimilaire. Nous introduisons ensuite une nouvelle structure de données, le CovTree, flexible et générique, capable d’apprendre les distributions d’un grand ensemble d’échantillons avec une capacité de mémoire limitée. Finalement, nous généralisons les méthodes de restauration collaboratives appliquées aux données 2D et 3D, en utilisant notre CovTree pour apprendre un modèle statistique a priori à partir d’un grand ensemble de données. / In recent years, digital technologies allowing to acquire real world objects or scenes have been significantly improved in order to obtain high quality datasets. However, the acquired signal is corrupted by defects which can not be rectified materially and require the use of adapted restoration methods. Until the middle 2000s, these approaches were only based on a local process applyed on the damaged signal. With the improvement of computing performance, the neighborhood used by the filter has been extended to the entire acquired dataset by exploiting their self-similar nature. These non-local approaches have mainly been used to restore regular and structured data such as images. But in the extreme case of irregular and unstructured data as 3D point sets, their adaptation is few investigated at this time. With the increase amount of exchanged data over the communication networks, new non-local methods have recently been proposed. These can improve the quality of the restoration by using an a priori model extracted from large data sets. However, this kind of method is time and memory consuming. In this thesis, we first propose to extend the non-local methods for 3D point sets by defining a surface of points which exploits their self-similar of the point cloud. We then introduce a new flexible and generic data structure, called the CovTree, allowing to learn the distribution of a large set of samples with a limited memory capacity. Finally, we generalize collaborative restoration methods applied to 2D and 3D data by using our CovTree to learn a statistical a priori model from a large dataset.
124

Acquisition et reconstruction de données 3D denses sous-marines en eau peu profonde par des robots d'exploration / Acquisition and reconstruction of dense underwater 3D data by exploration robots in shallow water

Avanthey, Loïca 03 October 2016 (has links)
Notre planète est pour l’essentiel recouverte par les mers et les océans, or notre connaissance des fonds marins est très inférieure à celle que nous possédons sur les terres émergées. Dans ce mémoire, nous cherchons à concevoir un système dédié à la cartographie thématique à grande échelle pour obtenir à la demande un nuage de points dense représentatif d’une scène sous-marine ou subaquatique par reconstruction tridimensionnelle. Le caractère complexe de ce type de système nous amène à privilégier une approche délibérément transversale. Nous nous intéresserons en particulier aux problématiques posées par l’étude à l’échelle des individus de petites zones en eau peu profonde. Les premières concernent l’acquisition in situ efficace de couples stéréoscopiques avec une logistique adaptée à la taille des zones observées : nous proposons pour cela un microsystème agile, peu coûteux et suffisamment automatisé pour fournir des données reproductibles et comparables. Les secondes portent sur l’extraction fiable de l’information tridimensionnelle à partir des données acquises : nous exposons les algorithmes que nous avons élaborés pour prendre en compte les caractéristiques particulières du milieu aquatique (dynamisme, propagation difficile des ondes électromagnétiques, etc.). Nous abordons donc en détail dans ce mémoire les problèmes d’appariement dense, d’étalonnage, d’acquisition in situ, de recalage et de redondance des données rencontrés dans le milieu sous-marin. / Our planet is mostly covered by seas and oceans. However, our knowledge of the seabed is far more restricted than that of land surface. In this thesis, we seek to develop a system dedicated to precise thematic mapping to obtain a dense point cloud of an underwater area on demand by using three-dimensional reconstruction. The complex nature of this type of system leads us to favor a multidisciplinary approach. We will examine in particular the issues raised by studying small shallow water areas on the scale of individual objects. The first problems concern the effective in situ acquisition of stereo pairs with logistics adapted to the sizes of the observed areas: for this, we propose an agile, affordable microsystem which is sufficiently automated to provide reproducible and comparable data. The second set of problems relates to the reliable extraction of three-dimensional information from the acquired data: we outline the algorithms we have developed to take into account the particular characteristics of the aquatic environment (such as its dynamics or its light absorption). We therefore discuss in detail the issues encountered in the underwater environment concerning dense matching, calibration, in situ acquisition, data registration and redundancy.
125

Acquisition et rendu 3D réaliste à partir de périphériques "grand public" / Capture and Realistic 3D rendering from consumer grade devices

Chakib, Reda 14 December 2018 (has links)
L'imagerie numérique, de la synthèse d'images à la vision par ordinateur est en train de connaître une forte évolution, due entre autres facteurs à la démocratisation et au succès commercial des caméras 3D. Dans le même contexte, l'impression 3D grand public, qui est en train de vivre un essor fulgurant, contribue à la forte demande sur ce type de caméra pour les besoins de la numérisation 3D. L'objectif de cette thèse est d'acquérir et de maîtriser un savoir-faire dans le domaine de la capture/acquisition de modèles 3D en particulier sur l'aspect rendu réaliste. La réalisation d'un scanner 3D à partir d'une caméra RGB-D fait partie de l'objectif. Lors de la phase d'acquisition, en particulier pour un dispositif portable, on est confronté à deux problèmes principaux, le problème lié au référentiel de chaque capture et le rendu final de l'objet reconstruit. / Digital imaging, from the synthesis of images to computer vision isexperiencing a strong evolution, due among other factors to the democratization and commercial success of 3D cameras. In the same context, the consumer 3D printing, which is experiencing a rapid rise, contributes to the strong demand for this type of camera for the needs of 3D scanning. The objective of this thesis is to acquire and master a know-how in the field of the capture / acquisition of 3D models in particular on the rendered aspect. The realization of a 3D scanner from a RGB-D camera is part of the goal. During the acquisition phase, especially for a portable device, there are two main problems, the problem related to the repository of each capture and the final rendering of the reconstructed object.
126

Modélisation 3D automatique d'environnements : une approche éparse à partir d'images prises par une caméra catadioptrique / Automatic 3d modeling of environments : a sparse approach from images taken by a catadioptric camera

Yu, Shuda 03 June 2013 (has links)
La modélisation 3d automatique d'un environnement à partir d'images est un sujet toujours d'actualité en vision par ordinateur. Ce problème se résout en général en trois temps : déplacer une caméra dans la scène pour prendre la séquence d'images, reconstruire la géométrie, et utiliser une méthode de stéréo dense pour obtenir une surface de la scène. La seconde étape met en correspondances des points d'intérêts dans les images puis estime simultanément les poses de la caméra et un nuage épars de points 3d de la scène correspondant aux points d'intérêts. La troisième étape utilise l'information sur l'ensemble des pixels pour reconstruire une surface de la scène, par exemple en estimant un nuage de points dense.Ici nous proposons de traiter le problème en calculant directement une surface à partir du nuage épars de points et de son information de visibilité fournis par l'estimation de la géométrie. Les avantages sont des faibles complexités en temps et en espace, ce qui est utile par exemple pour obtenir des modèles compacts de grands environnements comme une ville. Pour cela, nous présentons une méthode de reconstruction de surface du type sculpture dans une triangulation de Delaunay 3d des points reconstruits. L'information de visibilité est utilisée pour classer les tétraèdres en espace vide ou matière. Puis une surface est extraite de sorte à séparer au mieux ces tétraèdres à l'aide d'une méthode gloutonne et d'une minorité de points de Steiner. On impose sur la surface la contrainte de 2-variété pour permettre des traitements ultérieurs classiques tels que lissage, raffinement par optimisation de photo-consistance ... Cette méthode a ensuite été étendue au cas incrémental : à chaque nouvelle image clef sélectionnée dans une vidéo, de nouveaux points 3d et une nouvelle pose sont estimés, puis la surface est mise à jour. La complexité en temps est étudiée dans les deux cas (incrémental ou non). Dans les expériences, nous utilisons une caméra catadioptrique bas coût et obtenons des modèles 3d texturés pour des environnements complets incluant bâtiments, sol, végétation ... Un inconvénient de nos méthodes est que la reconstruction des éléments fins de la scène n'est pas correcte, par exemple les branches des arbres et les pylônes électriques. / The automatic 3d modeling of an environment using images is still an active topic in Computer Vision. Standard methods have three steps : moving a camera in the environment to take an image sequence, reconstructing the geometry of the environment, and applying a dense stereo method to obtain a surface model of the environment. In the second step, interest points are detected and matched in images, then camera poses and a sparse cloud of 3d points corresponding to the interest points are simultaneously estimated. In the third step, all pixels of images are used to reconstruct a surface of the environment, e.g. by estimating a dense cloud of 3d points. Here we propose to generate a surface directly from the sparse point cloud and its visibility information provided by the geometry reconstruction step. The advantages are low time and space complexities ; this is useful e.g. for obtaining compact models of large and complete environments like a city. To do so, a surface reconstruction method by sculpting 3d Delaunay triangulation of the reconstructed points is proposed.The visibility information is used to classify the tetrahedra in free-space and matter. Then a surface is extracted thanks to a greedy method and a minority of Steiner points. The 2-manifold constraint is enforced on the surface to allow standard surface post-processing such as denoising, refinement by photo-consistency optimization ... This method is also extended to the incremental case : each time a new key-frame is selected in the input video, new 3d points and camera pose are estimated, then the reconstructed surface is updated.We study the time complexity in both cases (incremental or not). In experiments, a low-cost catadioptric camera is used to generate textured 3d models for complete environments including buildings, ground, vegetation ... A drawback of our methods is that thin scene components cannot be correctly reconstructed, e.g. tree branches and electric posts.
127

Analyse des propriétés dimensionnelles et massiques des cristaux de glace pour l’étude des processus microphysiques dans les systèmes convectifs à méso-échelle / Analysis of the size and mass properties of ice particules and study of the microphysical processes occuring in Mesoscale Convective Systems

Coutris, Pierre 18 January 2019 (has links)
L’étude des propriétés et processus microphysiques caractérisant la phase glace permet de mieux définir le rôle des nuages dans le cycle de l’eau et sur bilan radiatif de l’atmosphère. Les modèles atmosphériques et les codes d’inversion des données de télédétection utilisent des paramétrisations établies à partir de mesures in situ. Ces mesures servent également des besoins industriels en lien avec la problématique du givrage en aéronautique. L’étude présentée se base sur les données de deux campagnes aéroportées réalisées dans le cadre de la collaboration internationale HAIC-HIWC, ciblant les zones à fort contenu en glace que l’on peut observe rau sein des systèmes convectifs à méso-échelle (MCS) tropicaux. Sur la question des relations « masse-diamètre » (m - D) d’abord, une nouvelle approche est présentée. Basée sur la résolution d’un problème inverse, elle permet de restituer la masse des cristaux à partir de mesures colocalisées classiques en s’affranchissant de la traditionnelle hypothèse de loi puissance, et montre que cette dernière ne permet pas de représenter correctement les propriétés massiques de populations de cristaux hétérogènes (morphologie et tailles différentes) typiques des MCS. La variabilité horizontale des distributions de tailles permet d’étudier le vieillissement de l’enclume d’un point de vue microphysique et de souligner le rôle essentiel du processus d’agrégation dans l’élimination des petits cristaux apportés dans la haute troposphère par la convection profonde et dans la formation d’agrégats supra-millimétriques, précurseurs glacés des précipitations stratiformes. Les relations m - D restituées permettent d’identifier des régimes microphysiques distincts et ouvre la voie aux développement d’une paramétrisation de la masse volumique des hydrométéores en fonction de critères environnementaux. / The detailed characterization of ice cloud microphysics is key to understand their role in theEarth’s hydrological cycle and radiation budget. The developement of atmospheric models and remote sensingalgorithms relies on parametrisations derived from in situ measurements. These measurements are also usedby the aviation industry to handle the problem of ice crystal icing. This PhD work presents an analysis of themass and size properties of ice crystals observed in high ice water content areas embedded in tropical mesoscaleconvective systems (MCS) during two airborne field campaigns of the HAIC-HIWC international project.A new approach is developped to derive mass-size relationships (m - D) from size distributions and icewater contents. The retrieval is formulated as an inverse problem which waives the power law constraint, aclassical assumption that proves to be an oversimplification when applied to heterogeneous populations of iceparticules typical of MCS anvils.The horizontal variability of size distributions and the aging of MCS anvils is described in terms of microphysicalprocesses. The importance of the aggregation growth process is emphasized as it efficiently removessmall ice particles brought into the upper troposphere by deep convection and significantly contributes to theformation of large agregates, precusor of the stratiform precipitations. The analysis of mass properties revealsthat distinctive microphysical regimes may be identified from the m-D relationship retrieved in various conditions.It paves the way toward a statistical model of the effective density of ice particles as a function of environmentalparameters.
128

Horloge micro-onde à ions : analyse et transport d'un nuage d'ions dans un piège à plusieurs zones / Microwave ion clock : analysis and transport of an ion cloud in a trap with several zones

Kamsap, Marius Romuald 17 December 2015 (has links)
Cette thèse a été effectuée dans le cadre d'un projet qui vise à explorer les facteurs limitants des performances d'une horloge à ions dans le domaine des fréquences micro-onde. Ce travail repose sur l'observation et la manipulation d'un grand nuage d'ions dans des potentiels de géométries différentes. Le but est l'analyse et le transport d'un grand nuage pouvant dépasser 10^6 ions dans un piège radio-fréquence linéaire à plusieurs zones. Notre groupe à construit un piège à trois zones destiné au piégeage d'ions calcium: deux parties quadrupolaires et une partie octupolaire montées en ligne. Les ions sont créés dans la première partie quadrupolaire et refroidis par laser le long de l'axe du piège. Nous avons d'abord étudié la création d'un grand nuage. La limite actuelle des paramètres du système permet de confiner et détecter des nuages de taille maximale 1,2.10^5 ions. Ensuite, grâce à un protocole de transport rapide et optimisé, ces ions sont transportés dans le deuxième et troisième piège avec une efficacité pouvant atteindre 100%. Les résultats en fonction de la durée de transport montrent une asymétrie entre les deux sens de transport que nous exploitons pour ajouter des ions dans le deuxième piège sans perte du nuage initialement présent. Cette technique d'accumulation a permis de piégér 2,5.10^5 ions dans le deuxième et troisième piège. Ce nombre semble limité par les refroidissement. Enfin, dans l'octupole, les observations montrent que, contrairement aux structures creuses attendues par les modèles, les ions froids s'organisent dans trois minima locaux de potentiels. La cause de cette différence est un petit défaut dans la symétrie octupolaire des barreaux. / This thesis is part of a project aiming to explore the performance limiting factors of a microwave ion clock. This work is based on the observation and manipulation of a large ion cloud in potentials with different geometries. The purpose is to analyze and transport a large cloud of more than 10^6 ions in a linear radio-frequency trap with several zones. Our group has build a three-zone trap for calcium ion trapping: two quadrupole parts and an octupole part mounted inline. Ions are created in the first quadrupole part and cooled by lasers along the trap symmetry axis. We study the creation of a large ion cloud. The current trapping and cooling parameters limit the maximum size of the cloud to 1,2.10^5 ions. with a rapid and optimized transport protocol, these ions are transfered in the second part of the trap and then in the octupole trap with an efficiency of up to 100%. The result as function of the transport duration shows an asymmetry between the two transport directions. We exploit this feature to add ions in the second or third trap without loss of the already trapped ions. This accumulation technique has allowed to trap 2,5.10^5 ions in the second and third trap. The cooling laser power seems to be the major limiting factor of this number. Finally the observation of the ions in the octupole shows that the cold ions are localised in three different potential wells. This is in contradiction with the hollow structure predicted by the analytical fluid model and molecular dynamics simulations. The cause of this difference is a tiny defect in the octupole symmetry of the RF-electrodes which leads to local minima in the multipole potential.
129

Modélisation du transfert radiatif dans l'atmosphère martienne pour la détermination des propriétés spectrales de surface et la caractérisation des aérosols martiens à partir des données OMEGA

Vincendon, Mathieu 24 October 2008 (has links) (PDF)
L'atmosphère de Mars contient en permanence des poussières micrométriques en suspension dont la quantité varie dans le temps et dans l'espace. Ces aérosols sont l'un des éléments clés du cycle climatologique de la planète, car ils modifient l'équilibre radiatif de l'atmosphère. La poussière atmosphérique diffuse le rayonnement solaire visible et proche infrarouge qui illumine la planète Mars. En janvier 2004, l'imageur spectral OMEGA a commencé à observer Mars dans ces domaines de longueur d'onde. L'analyse des observations réalisées par OMEGA a rapidement abouti à l'identification de nouveaux minéraux à la surface de Mars. Ces découvertes ont profondément modifié nos conceptions sur l'histoire passée de la planète. Ce travail de thèse est basé sur le développement d'un modèle de transfert radiatif de type Monte-Carlo. Ce modèle permet de séparer dans les données OMEGA la contribution des aérosols de celle de la surface. Il est utilisé pour étudier les propriétés optiques et physiques des aérosols et obtenir une meilleure compréhension des caractéristiques de la surface. Les premières applications concernent les régions polaires de Mars, pour lesquelles la contribution des aérosols est très importante compte tenu des parcours optiques élevés. Les données OMEGA sont utilisées pour caractériser les interactions saisonnières entre la poussière atmosphérique et la glace en surface, qui restaient encore mal comprises. Une méthode de cartographie de la profondeur optique de poussière est présentée au dessus des régions polaires sud recouvertes de glace de CO2. L'utilisation du modèle est ensuite étendue aux régions plus proches de l'équateur. Nous démontrons que la poussière soulevée lors de tempêtes dans ces régions ne se redépose pas de manière uniforme sur toute la planète, et nous présentons les premières applications concernant l'étude quantitative de la minéralogie de surface à partir des données OMEGA puis CRISM/MRO. Cette expérience, complémentaire d'OMEGA par ses observations à très haute résolution, a obtenu ses premières données depuis l'orbite martienne en novembre 2006.
130

Processus de dissolution des aérosols atmosphériques au sein des gouttes d'eau nuageuses

Desboeufs, Karine 12 January 2001 (has links) (PDF)
Les nuages sont des éléments essentiels de notre atmosphère qui agissent à la fois sur le bilan radiatif terrestre et sur sa capacité oxydante en transformant chimiquement une grande variété d'espèces solubles. Ces nuages se forment par la condensation de vapeur d'eau sur des particules d'aérosols, appelés noyaux de condensation. La fraction soluble de ces particules conditionne l'hygroscopie des particules et détermine ainsi la taille des gouttes du nuage. Ce paramètre est déterminant pour définir les propriétés optiques des nuages. De plus, la dissolution des particules est la source primaire en phase aqueuse de différentes espèces dont les métaux de transition. Ces éléments sont impliqués dans divers processus d'oxydoréduction et en particuliers dans les processus responsables de la formation des pluies acides. Il est par conséquent très important de connaître, de manière fiable, les processus aboutissant à la solubilisation de l'aérosol dans les gouttes d'eau nuageuses. Le principal objectif de ce travail a donc été de développer un outil expérimental puis une approche de modélisation afin de comprendre et de simuler la dissolution des particules piégées dans une phase nuageuse liquide. Dans un premier temps, ce travail a consisté à mettre en oeuvre un dispositif expérimental, comportant un réacteur de dissolution en circuit ouvert, qui permet de suivre la cinétique de dissolution dans des conditions proches des conditions nuageuses. Cet outil expérimental a ensuite été utilisé pour une caractérisation systématique des différents facteurs d'influence recensés jusqu'alors sur la dissolution, c'est à dire le pH, la nature des aérosols, leur degré d'altération... mais également sur des facteurs jusqu'alors non expérimentés que sont la force ionique, la nature des acides et les cycles d'évapocondensation nuageuse. Les expériences de dissolution menées sous ces différentes conditions nuageuses ont permis de mettre en avant et de quantifier l'effet important des ions H+ et OH- sur la dissolution, ainsi que du degré de solubilisation de la particule. Ces observations ont ensuite été utilisées pour l'élaboration d'un mécanisme de dissolution des particules en phase aqueuse. Une quantification de ce mécanisme a enfin été réalisée en paramétrisant les principaux facteurs impliqués dans la dissolution. La comparaison des résultats calculés et expérimentaux montre une assez bonne adéquation, validant la paramétrisation effectuée. Finalement ce travail permet d'apporter des informations qualitatives et surtout quantitatives des interactions entre l'eau et les particules d'aérosols qui étaient encore manquantes et montrent notamment l'importance du processus de dissolution pour comprendre le rôle des aérosols dans l'implication climatique et chimique des nuages.

Page generated in 0.0391 seconds