• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 63
  • 16
  • Tagged with
  • 160
  • 42
  • 39
  • 35
  • 33
  • 30
  • 25
  • 22
  • 22
  • 20
  • 18
  • 17
  • 17
  • 16
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Corrections géométriques et colorimétriques automatisées de modèles 3D de grande taille

Schenkel, Arnaud 12 January 2017 (has links)
L’utilisation de scanners 3D permet d’obtenir, en fin de chaîne de traitement, des modèles tridimensionnels de haute résolution d’objets ou de sites. Ces modèles combinent une représentation formée d’un très grand nombre de points, couplée avec des textures photographiques pour simuler au mieux la réalité. Ils peuvent servir de base à de futures recherches, au calcul de diverses informations, à des propositions de restitutions, comme illustration, ou encore à l’archivage.Pour pouvoir être manipulées et exploitées, il est nécessaire de corriger ces données. Différents traitements doivent ainsi être appliqués :la suppression des défauts dus au processus de digitalisation ou à l’environnement de numérisation, la mise en correspondance de balayages partiels, l’élimination des objets parasites ou encore l’homogénéisation de l’aspect des surfaces. Les méthodes actuelles ne permettent pas d’effectuer aisément ces traitements de manière rapide et performante. Elles requièrent de nombreuses interventions manuelles, souvent lourdes et fastidieuses.Cette thèse vise à définir une méthodologie et à fournir les algorithmes et les outils nécessaires au post-traitement de ces acquisitions tridimensionnelles de grande taille, de manière automatisée tout en tenant compte des volumes de données à manipuler. Une structure de données adaptée au problème est proposée ainsi qu’une base d’outils destinée au traitement de volumes importants de points, en considérant la mémoire nécessaire et le temps de calcul requis. Nous proposons sur cette base une chaîne de traitement pour gérer les erreurs géométriques, liées au processus de numérisation, ainsi que les problèmes de colorisation, liés à l’acquisition de photographies dans des conditions variables (éclairage non contrôlé). Nous pouvons identifier quatre types d’erreurs géométriques qui vont ainsi être traitées :le bruit de mesure, la présence de valeurs aberrantes, les trainées de points et les inconsistances dans le modèle. La colorisation se base sur l’utilisation de l’ensemble des photographies effectuées sur le terrain en tenant compte de la variabilité des conditions d’acquisition (éclairage naturel, présence d’ombres, risque de surexposition, ). La solution proposée est compatible avec un calcul en temps réel comparativement à la durée d’acquisition sur le terrain, permettant d’obtenir des informations pertinentes pour guider le travail de terrain. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
52

Coreshine, un phénomène et un outil / Coreshine, a phenomenon and a tool

Lefèvre, Charlène 30 November 2015 (has links)
Bien que les grains de poussières représentent 1% du milieu interstellaire en masse, leur étude est essentielle pour comprendre le contenu et la structure des nuages interstellaires. Les grains de poussière, après avoir quitté leurs lieux de formation, se dispersent dans le milieu diffus avant d’être rassemblés lors de la formation des nuages moléculaires denses. C’est lors de cette étape qu’ils grossissent, notamment par coagulation, et acquièrent des manteaux de glaces. Ces changements morphologiques modifient également leurs propriétés optiques (absorption, diffusion et émission). Cependant, leur composition comme leur taille et leur forme restent difficiles à déterminer à partir des observations et constituent un problème hautement dégénéré. L’utilisation des longueurs d’onde en émission n’est pas suffisante pour lever cette dégénérescence dans les cœurs denses, lieu de formation des futures étoiles et planètes. En revanche la diffusion peut dominer l’absorption à 3.6 et 4.5 μm, ce phénomène appelé coreshine, est particulièrement utile pour sonder les parties les plus denses des nuages. La présence de coreshine dans plus d’une centaine de nuages de notre Galaxie permet d’éliminer bon nombre de modèles de poussières. La modélisation multi–longueurs d’onde en 3 dimensions est une approche nécessaire pour caractériser la balance entre l’absorption du rayonnement et sa diffusion. Alors que la plupart des travaux se concentrent sur l’absorption et la réémission du rayonnement, la diffusion, souvent délaissée, permet d’apporter une vision complète du transfert de rayonnement dans les nuages denses. / Even though dust grains contribute only to 1% of the interstellar medium mass, their study is crucial to understand both the structure and content of interstellar clouds. Dust grains leave their birth places, spread out into the diffuse medium before being gathered together again when dense molecular clouds form. During this last stage, they grow, by coagulation especially, and they acquire ice mantles composed mainly of water. These morphological changes also modify their optical properties (absorption, scattering, and emission). However, it remains a highly degenerate issue to determine their composition, size, and shape from observations. In particular, I will highlight that using wavelengths associated to dust emission is not sufficient to investigate the dense cores, where stars and planets will form. I will show that scattering can dominate the absorption at 3.6 and 4.5 μm, and that this phenomenon called coreshine is a powerful tool to investigate the densest parts of molecular clouds. The coreshine detection in more than one hundred clouds of our Galaxy allows us to eliminate a large number of dust models. Multi–wavelength 3D modeling is mandatory to characterize the balance between the absorption and the scattering of the radiation field. While most of the work about dust focus on absorption and re–emission of the radiation, I will present how scattering, often neglected, brings a complete picture of the radiative transfer inside dense clouds.
53

Cycle de l'eau martien : nuages et vapeur, observables et modèles, vers la haute résolution / The martian water cycle : clouds and vapor, observables and models, towards high resolution

Pottier, Alizée 18 November 2016 (has links)
Le modèle de climat global martien (GCM) du Laboratoire de Météorologie Dynamique est appliqué à l'étude du cycle de l'eau de la planète rouge. Les observations disponibles sont comparées aux simulations pour comprendre les phénomènes physiques influençant le cycle, en se focalisant sur les nuages et la vapeur d'eau. De nouvelles inversions de données de vapeur d'eau sont présentées, pour compléter notre connaissance du cycle et de sa variabilité interannuelle. De telles intercomparaisons ont des limites qu'il faut mettre en évidence pour mieux les surmonter. Les observations contraignent l'épaisseur et l'étendue des nuages ainsi que leur chronologie saisonnière. Pour améliorer la représentation du cycle de l'eau, la piste de la simulation à haute résolution est explorée, avec des simulations de un degré en résolution horizontale. Des phénomènes nouveaux émergent, comme des tempêtes en spirale. Des changements visibles affectent le cycle de l'eau, avec des transitions ondulatoires, des instabilités renforcées, une modification du dépôt de givre et une meilleure représentation du cycle de condensation et sublimation. La circulation est intensifiée, tout comme la variabilité du cycle, et l'on découvre une atmosphère plus humide, nuageuse et changeante. Suite aux découvertes de la haute résolution, on cherche à mieux représenter la couverture nuageuse dans le modèle à résolution standard. La nouvelle paramétrisation de la couverture nuageuse partielle sous maille est décrite et ses conséquences sur le cycle de l'eau analysées. Elle est prometteuse pour améliorer le réalisme du modèle mais semble déstabiliser le cycle. / The global climate model (GCM) of the Laboratoire de Météorologie Dynamique is used to study the Martian water cycle. Available observations are compared to simulations to unravel the physical phenomena affecting the cycle, with a focus on clouds and water vapor. New inversions of water vapor observations are described and analyzed, to further our understanding of the cycle and of its interannual variability. Such comparisons are limited by bias that have to be studied. Observations constrain the timing, thickness and cover of the clouds. To improve the water cycle simulation and understanding, new high-resolution simulations with an horizontal resolution of one degree are shown. New phenomena appear, like spiral storms. The water cycle undergoes visible changes, with wave transitions, strengthened instabilities, shifts in frost deposition and a better simulation of the condensation and sublimation seasonal processes. The circulation is strengthened, as is variability. The atmosphere is wetter, more cloudy and more variable. Following the details discovered in the high-resolution simulations, we try to improve the representation of cloud cover in the standard resolution simulations. The subsequent new subgrid-scale parametrization of partial cloudiness is described, and its consequences on the water cycle are analyzed. Results are promising as the model agrees more with observations in some ways, but the parametrization causes further instability.
54

Développement et mise en oeuvre de LiDAR embarqués sur bouées dérivantes pour l'étude des propriétés des aérosols et des nuages en Arctique et des forçages radiatifs induits / Development and deployment of autonomous LiDAR set on drifting buoys to study aerosols and clouds Arctic properties, and induced radiative forcing

Mariage, Vincent 10 December 2015 (has links)
Afin de mieux comprendre les processus et les interactions entre l'atmosphère, la glace de mer et l'océan en arctique, un financement EQUIPEX a permis de développer et déployer le projet IAOOS (Ice-Atmosphere-Ocean-Observing-System) de réseau de bouées multi-instrumentées. Pour la partie atmosphère un LiDAR rétrodiffusion innovant a été développé pour répondre aux contraintes du projet et de l'environnement arctique. Un modèle analytique du rapport signal sur bruit en air clair a permis de préciser les paramètres clés de la conception. Des simulations numériques ont ensuite permis d'affiner les performances du système. Un prototype évolutif a été réalisé dans le planning serré de cet EQUIPEX, avant la mise en œuvre d'une première bouée complète au Pôle Nord en avril 2014, qui a fonctionné jusqu'en décembre 2014. Un second déploiement de deux bouées a ensuite été réalisé à l'occasion de la campagne N-ICE de janvier à juin 2015, dont l'une était équipée d'une version polarisée du LiDAR. Les deux campagnes ont permis d'obtenir des premières statistiques de la distribution des aérosols et des nuages en arctique central avec un système LiDAR autonome. Les premiers résultats montrent la présence de couches d'aérosols assez fréquentes au printemps dans la moyenne troposphère et des nuages bas très fréquents. Les mesures LiDAR ont été utilisées pour effectuer une estimation des flux infrarouge et visible descendants. Les résultats des deux premiers déploiements et les comparaisons avec des analyses et des sorties du modèle WRF fournissent des premiers éléments sur l'apport que pourra présenter ce réseau de bouées multi-instrumentées en région centrale arctique. / To improve our knowledge of the processes and interactions which occur in Arctic between atmosphere, sea ice and ocean, an EQUIPEX funding was granted to the IAOOS project. This improvement will be reached by deploying a network of multi-instrumented buoys. For the atmospheric analyses an innovative backscattering LiDAR meeting with constraints of the project and arctic environment has been developed. An analytical model of signal to noise ratio in clear sky led to the instrumental key parameters, and numerical simulations helped in improving the system performances. An evolutive prototype has been realized within the tight planning of this EQUIPEX. The first whole equiped buoy was deployed close to the north pole in April 2014 and worked until the beginning of December 2014. A second deployment of two buoys, including a polarized version, was then realized within the N-ICE campaign from January to June 2015. These first campaigns gave first statistics of aerosols and clouds distribution in the central arctic region with an autonomous LiDAR. First results show frequent aerosols layers in mid-troposphere during spring, as well as a high occurence of very low clouds. LiDAR measurements were also used to estimate downwelling longwave and shortwave at surface. Results obtained from these first deployments and comparisons with analysis and outputs from the WRF model show a first overview of what can be expected from this network of multi-instrumented buoys in the central arctic region.
55

Caractérisation des propriétés microphysiques des nuages et de l'interaction aérosol-nuage en Arctique à partir de mesures in-situ au sol pendant la campagne CLIMSLIP-NyA, Svalbard / Characterization of the cloud microphysical and optical properties and aerosol-cloud interaction in Arctic from in situ ground-based measurements during the CLIMSLIP-NyA campaign, Svalbard

Guyot, Gwennolé 01 June 2016 (has links)
La région arctique est particulièrement sensible au changement climatique. Aux latitudes polaires, les nuages arctiques ont un effet important sur le bilan radiatif à la surface. La première partie de ce travail est constitué de l’intercomparaison instrumentale au sol à la station PUY en Mai 2013. Les mesures ont montré une bonne corrélation entre les diamètres effectifs et les distributions en taille des gouttelettes d’eau obtenus par les instruments, mais avec des biais systématiques sur les concentrations. Ces biais ont été reliés à l’estimation du volume d’échantillonnage et nous avons donc proposé une méthode consistant à normaliser les données par rapport à un instrument qui réalise des mesures intégrées. D’autre part, le FSSP et le FM ont fait l’objet d’expériences visant à évaluer l’influence de l’angle de déviation par rapport au vent extérieur et de la vitesse du vent. La seconde partie de ce travail a pour objet la campagne de mesure qui s’est déroulée à la station du Mont-Zeppelin, Ny-Alesund, Svalbard, de Mars à Mai 2012 dans le cadre du projet CLIMSLIP. Une comparaison a été effectuée entre un cas « pollué », avec des masses d’air provenant d’Asie de l’Est et d’Europe, et un cas « propre », dont les sources d’aérosols sont majoritairement locales et ne dépassent pas l’Europe du Nord. Les résultats ont montré que le cas pollué possède des concentrations en BC, aérosols et gouttes plus élevées, un mode accumulation plus important, un diamètre de gouttes plus faible et une fraction d’activation plus élevée. Enfin, le premier et le second effet indirect des aérosols ont pu être quantifiés. / The arctic region is especially sensitive to climate change. At high latitudes, arctic clouds have an important effect on the surface radiative budget. The first part of this work consists in a ground based cloud instrumentation intercomparison in the PUY station in May 2013. The measurements showed a good correlation between the effective diameters and the droplet size distributions obtained by the instruments, but with a systematical bias on the concentrations. These biases have been relied to the assessment of the sampling volume and we thus proposed a methodology to standardize the data according to an ensemble of particles probe. Moreover, the FSSP and the FM have been the subject of experiments to assess the influence of the deflection angle according to exterior wind and the wind speed. The second part of this work is about the measurement campaign at the Mount-Zeppelin station, Ny-Alesund, Svalbard, from March to May 2012 in the frame of the CLIMSLIP project. A comparison has been performed between a « polluted » case, with air masses coming from East Asia and Europe, and a « clean » case, where the aerosol sources are predominantly local and do not exceed the northern Europe. The results showed that the polluted case possessed higher concentrations in BC, aerosols and drops, an accumulation mode more important, weaker droplet diameters and higher activation fraction. Finally, the first and second aerosol indirect effects have been quantified.
56

Performances réseaux et système pour le cloud computing / Joint network and system performance for cloud computing

Belhareth, Sonia 18 December 2014 (has links)
Le cloud computing permet d'offrir un accès à la demande à des ressources de calcul et de stockage. Le succès du cloud computing nécessite la maîtrise d'aspects système et réseau. Dans cette thèse, nous nous sommes intéressés aux performances du protocole TCP Cubic, qui est la version par défaut de TCP sous Linux et donc présent dans de nombreux serveurs opérationnels dans les data centers actuels. Afin de comprendre les performances d'un environnement cloud, qui offre un faible produit bande passante-délai pour le cas intra-data center, et un fort produit dans le cas inter-data center, nous avons développé des modèles analytiques pour les cas d'une ou plusieurs connexions TCP Cubic. Nos modèles se sont révélés précis dans le cas intra-datacenter, mais ne capturaient pas la synchronisation des pertes indiquée par les simulations ns-2 dans le cas inter-datacenter. Nous avons complété les simulations par des tests en environnements réels avec (i) un réseau expérimental à l'I3S ; et (ii) une solution cloud interne à Orange : Cube. Les études dans Cube nous ont démontré la forte corrélation qui pouvait exister entre performances réseau et système, et la complexité d'analyser les performances des applications dans des contextes cloud. Les études dans l'environnement I3S ont confirmé la forte synchronisation qui peut exister entre connexions TCP Cubic et nous ont permis de définir les conditions d'apparition de cette synchronisation. Nous avons étudié deux types de solution pour lutter contre la synchronisation: des solutions niveau client, avec des modifications de TCP Cubic, et des solutions réseau avec l'utilisation de politiques de gestion de tampon, notamment PIE et Codel. / Cloud computing enables a flexible access to computation and storage services. This requires, for the cloud service provider, mastering network and system issues. During this PhD thesis, we focused on the performance of TCP Cubic, which is the default version of TCP in Linux and thus widely used in today's data centers. Cloud environments feature low bandwidth-delay products (BPD) in the case of intra data center communications and high BDP in the case of inter data center communications. We have developed analytical models to study the performance of a Cubic connection in isolation or a set of competing Cubic connections. Our models turn out to be precise in the low BDP case but fail at capturing the synchronization of losses that ns-2 simulations reveal in the high BDP case. We have complemented our simulations studies with tests in real environments: (i) an experimental network at I3S and (ii) a cloud solution available internally at Orange: Cube. Studies performed in Cube have highlighted the high correlation that might exist between network and system performance and the complexity to analyze the performance of applications in a cloud context. Studies in the controlled environment of I3S have confirmed the existence of synchronization and enabled us to identify its condition of appearance. We further investigated two types of solution to combat synchronization: client level solutions that entail modifications of TCP and network level solutions based on queue management solutions, in particular PIE and Codel.
57

Diffuse Interstellar Bands (DIBs) : a new look at an old problem / Les Bandes Interstellaires Diffuses (DIBs) : de nouvelles solutions pour un problème ancien

El Yajouri, Meriem 07 November 2018 (has links)
Les bandes interstellaires diffuses (DIBs) représentent un mystère centenaire : aucune des centaines de bandes n'a pu être identifiée avec certitude avec un porteur spécifique, à l'exception très probable du cation buckminsterfullerène C60+. Il est obligatoire d'identifier et de quantifier la quantité de grosses molécules carbonées interstellaires qui sont très probablement responsables des DIBs : Les porteurs de DIB représentent probablement le plus grand réservoir de matière organique dans le Milieu interstellaire (MIS) et constituent un élément important de la chaîne des processus qui régissent le cycle interstellaire/stellaire. Jusqu'à récemment, la plupart des études liées aux DIBs avaient pour objectif unique l'identification des porteurs et, pour ce faire, se concentraient sur un nombre limité d'étoiles chaudes, distantes et rougies. Mon travail de recherche en thèse marque un tournant dans les méthodes et les objectifs associés aux DIBs, une évolution permise et motivée par le nombre croissant de relevés stellaires avec des instruments de plus en plus puissants à haute résolution spectrale. En effet, il est aujourd'hui possible de recueillir des quantités massives de données, tant du point de vue du nombre d'étoiles cibles que du point de vue du nombre de DIBs observées simultanément. Cela a ouvert la voie à de nouveaux types d'études, à des objectifs plus ambitieux et, surtout, à de nouvelles comparaisons potentielles avec les données de laboratoire. Ma thèse présente un grand nombre d'extractions de DIBs et quatre de ces nouvelles analyses :- Méthodes d'extraction et recherche de nouvelles DIBs.- Lien avec les propriétés physiques des nuages.- Constitution de bases de données pour la cartographie du MIS.- Tomographie des structures individuelles.- Des extractions de profils de DIBs basées sur des lignes de visée soigneusement sélectionnées, des études de leurs sous-structures et de leur variabilité spatiale et des contraintes subséquentes sur leurs porteurs moléculaires potentiels. / Diffuse interstellar bands (DIBs) represent a century-old mystery: none of the hundreds of bands could be identified with certainty with a specific carrier, at the very likely exception of the buckminsterfullerene cation C60+. Identifying and quantifying the amount of the large interstellar carbonaceous molecules that are very likely responsible for the DIBs is mandatory: DIB carriers likely represent the largest amount of organic matter in the Universe and are an important piece of the chain of processes that govern the interstellar/stellar cycle.Up to recently, most of the DIB studies have had as a unique goal the identification of the carriers, and to do so have been focusing on a limited number of hot, distant and reddened stars, using increasingly powerful instruments. This thesis marks a turning point in the methods and goals associated with the DIBs, an evolution allowed and motivated by the increasing number of stellar surveys with high multiplex instruments. As a matter of fact, it is possible today to gather massive amounts of data, both from the point of view of the number of target stars and from the point of view of the number of DIBs simultaneously observed. This has opened the way to new types of studies, more ambitious goals, and, importantly, new potential comparisons with laboratory data. This thesis presents a large number of DIB extractions and four of these novel analyses :- Methods of extraction and search for new DIBs.- Statistical studies of the link between DIB strengths and the physical properties of their hosting clouds.- Tomographic studies of the carriers on large and small spatial scales.- Line profile extractions based on carefully selected sightlines, studies of their substructures and spatial variability and subsequent constraints on their potential molecular carriers.
58

La variabilité des nuages et son rôle sur le climat en Europe : télédétection et simulation régionale / Clouds variability and its role on the European climate : remote-sensing and regional simulation

Chakroun, Meriem 29 September 2016 (has links)
Les nuages sont une composante majeure du système Terre-océan-atmosphère car ils couvrent en moyenne 40% de la surface du globe. Ils contribuent à refroidir la troposphère car ils réfléchissent une part importante du rayonnement solaire (effet d’albédo), mais ils contribuent également à la réchauffer car ils réémettent une partie du rayonnement infrarouge terrestre (effet de serre naturel). La détermination des effets radiatifs des nuages a été identifiée par le GIEC comme l’une des sources principales d’incertitude sur la prévision du climat. Dans ce contexte, la question se pose quant au rôle de la variabilité décennale de ces propriétés nuageuses. Plus particulièrement, on cherche à identifier une possible évolution ou variation des propriétés des nuages et à comprendre l'impact de cette variabilité sur celle du climat régional (température au sol), et inversement : ici, la région d'étude est l'Europe. On sait en effet qu'au 1er ordre le climat régional européen est contrôlé par la circulation atmosphérique de grande échelle (Cattiaux et al., ou Cassou et al., 2005) mais celle-ci ne suffit pas à expliquer certaines anomalies ou extrêmes de température. Des anomalies de propriétés nuageuses sont donc une piste importante à étudier pour expliquer ce type d’événement extrême. Durant cette thèse, nous proposons donc d'appréhender cette question à partir d'observations spatiales et de simulations. Les observations seront celles de l'Aqua-Train : (1) l'instrument MODIS à bord du satellite Aqua permet, à l'aide d'algorithmes développés à la Nasa, de caractériser le forçage radiatif des nuages depuis 9 ans (i.e. leur capacité à refroidir ou à réchauffer); (2) le lidar du satellite CALIPSO couplé au radar du satellite CloudSat nous renseigne sur la structure verticale de ces mêmes couches nuageuses, leurs propriétés précipitantes et microphysiques depuis 7 ans. Les simulations utilisées pour compléter ces observations sont déjà existantes : elles ont été réalisées avec le modèle régional WRF et couvrent l'ensemble de l'Europe sur une période suffisamment longue pour pouvoir travailler sur la variabilité interannuelle à décennale des nuages. L’objet de la thèse est d'analyser à l'échelle régionale les relations entre les anomalies nuageuses et les anomalies de température. On cherchera à comprendre si les propriétés des nuages sont perturbées pour un régime synoptique donné et si ces perturbations peuvent expliquer certaines anomalies de température via leur effet radiatif direct ou plus indirect dans le cas des nuages convectifs. La démarche suivante sera appliquée : (1) Les observations et les simulations seront analysées conjointement pour mieux caractériser les propriétés nuageuses et surtout leur variabilité spatiale et interannuelle. (2) Ce travail de caractérisation des propriétés nuageuses devra se faire pour chaque régime synoptique identifié. Les saisons d'hiver et d'été seront caractérisées grâce aux régimes de l'Oscillation Nord Atlantique (NAO) (en collaboration avec le LSCE), tandis qu'un travail sur les régimes des saisons intermédiaires sera nécessaire. (3) Nous chercherons ensuite à comprendre comment ces propriétés typiques d’un régime sont perturbées. A régime fixé, nous tenterons de relier des anomalies de couverture nuageuse à des anomalies de température, et les périodes identifiées seront étudiées en détail pour comprendre quels sont les mécanismes qui permettent de passer d’une anomalie de l’un à une anomalie de l’autre : en d’autres termes, il s’agira d’estimer si le forçage radiatif de ces « anomalies nuageuses » peut conduire à l’anomalie de température détectée. Les comparaisons entre simulations et observations seront utiles pour analyser ces liens (existent dans les 2, ou uniquement dans l'un et pourquoi). Le travail de thèse pourra alors consister à réaliser de nouvelles simulations afin de mieux comprendre ces relations. / We characterize the seasonal and inter-annual variabilities of the clouds fraction profiles in both observations and simulation since they are critical to better assess the impact of clouds on climate variability. The spaceborne lidar onboard CALIPSO, providing cloud vertical profiles since 2006, is used together with a 23-year WRF simulation at 20 km resolution. A lidar simulator helps to compare consistently model with observations. The bias in observations due to the satellite under-sampling is first estimated. Then we examine the vertical variability of both occurrence and properties of clouds. It results that observations indicate a similar occurrence of low and high clouds over continent, and more high than low clouds over the sea except in summer. The simulation shows an overestimate (underestimate) of high (low) clouds comparing to observations, especially in summer. However the seasonal variability of the cloud vertical profiles is well captured by WRF. Concerning inter-annual variability, observations show that in winter, it is twice more important for high clouds than for low clouds, which is well simulated. In summer, the observed inter-annual variability is vertically more homogeneous while the model still simulates more variability for high clouds than for low clouds. The good behavior of the simulation in winter allows us to use the 23 years of simulation and 8 years of observations to estimate the time period required to characterize the natural variability of the cloud fraction profile in winter, i.e the time period required to detect significant anomalies and trends.
59

Energy efficient resource allocation in cloud computing environments / Allocation des ressources efficaces en énergie dans les environnements Cloud

Ghribi, Chaima 22 December 2014 (has links)
L'informatique en nuage (Cloud Computing) a émergé comme un nouveau paradigme pour offrir des ressources informatiques à la demande et pour externaliser des infrastructures logicielles et matérielles. Le Cloud Computing est rapidement et fondamentalement en train de révolutionner la façon dont les services informatiques sont mis à disposition et gérés. Ces services peuvent être demandés à partir d'un ou plusieurs fournisseurs de Cloud d'où le besoin de la mise en réseau entre les composants des services informatiques distribués dans des emplacements géographiquement répartis. Les utilisateurs du Cloud veulent aussi déployer et instancier facilement leurs ressources entre les différentes plateformes hétérogènes de Cloud Computing. Les fournisseurs de Cloud assurent la mise à disposition des ressources de calcul sous forme des machines virtuelles à leurs utilisateurs. Par contre, ces clients veulent aussi la mise en réseau entre leurs ressources virtuelles. En plus, ils veulent non seulement contrôler et gérer leurs applications, mais aussi contrôler la connectivité réseau et déployer des fonctions et des services de réseaux complexes dans leurs infrastructures virtuelles dédiées. Les besoins des utilisateurs avaient évolué au-delà d'avoir une simple machine virtuelle à l'acquisition de ressources et de services virtuels complexes, flexibles, élastiques et intelligents. L'objectif de cette thèse est de permettre le placement et l'instanciation des ressources complexes dans des infrastructures de Cloud distribués tout en permettant aux utilisateurs le contrôle et la gestion de leurs ressources. En plus, notre objectif est d'assurer la convergence entre les services de cloud et de réseau. Pour atteindre ces objectifs, cette thèse propose des algorithmes de mapping d'infrastructures virtuelles dans les centres de données et dans le réseau tout en respectant les exigences des utilisateurs. Avec l'apparition du Cloud Computing, les réseaux traditionnels sont étendus et renforcés avec des réseaux logiciels reposant sur la virtualisation des ressources et des fonctions réseaux. En plus, le nouveau paradigme d'architecture réseau (SDN : Software Defined Networks) est particulièrement pertinent car il vise à offrir la programmation du réseau et à découpler, dans un équipement réseau, la partie plan de données de la partie plan de contrôle. Dans ce contexte, la première partie de la thèse propose des algorithmes optimaux (exacts) et heuristiques de placement pour trouver le meilleur mapping entre les demandes des utilisateurs et les infrastructures sous-jacentes, tout en respectant les exigences exprimées dans les demandes. Cela inclut des contraintes de localisation permettant de placer une partie des ressources virtuelles dans le même nœud physique. Ces contraintes assurent aussi le placement des ressources dans des nœuds distincts. Les algorithmes proposés assurent le placement simultané des nœuds et des liens virtuels sur l'infrastructure physique. Nous avons proposé aussi un algorithme heuristique afin d'accélérer le temps de résolution et de réduire la complexité du problème. L'approche proposée se base sur la technique de décomposition des graphes et la technique de couplage des graphes bipartis. Dans la troisième partie de la thèse, nous proposons un cadriciel open source (framework) permettant d'assurer la mise en réseau dynamique entre des ressources Cloud distribués et l'instanciation des fonctions réseau dans l'infrastructure virtuelle de l'utilisateur. Ce cadriciel permettra de déployer et d'activer les composants réseaux afin de mettre en place les demandes des utilisateurs. Cette solution se base sur un gestionnaire des ressources réseaux "Cloud Network Gateway Manager" et des passerelles logicielles permettant d'établir la connectivité dynamique et à la demande entre des ressources cloud et réseau [...] / Cloud computing has rapidly emerged as a successful paradigm for providing IT infrastructure, resources and services on a pay-per-use basis over the past few years. As, the wider adoption of Cloud and virtualization technologies has led to the establishment of large scale data centers that consume excessive energy and have significant carbon footprints, energy efficiency is becoming increasingly important for data centers and Cloud. Today data centers energy consumption represents 3 percent of all global electricity production and is estimated to further rise in the future. This thesis presents new models and algorithms for energy efficient resource allocation in Cloud data centers. The first goal of this work is to propose, develop and evaluate optimization algorithms of resource allocation for traditional Infrastructutre as a Service (IaaS) architectures. The approach is Virtual Machine (VM) based and enables on-demand and dynamic resource scheduling while reducing power consumption of the data center. This initial objective is extended to deal with the new trends in Cloud services through a new model and optimization algorithms of energy efficient resource allocation for hybrid IaaS-PaaS Cloud providers. The solution is generic enough to support different type of virtualization technologies, enables both on-demand and advanced resource provisioning to deal with dynamic resource scheduling and fill the gap between IaaS and PaaS services and create a single continuum of services for Cloud users. Consequently, in the thesis, we first present a survey of the state of the art on energy efficient resource allocation in cloud environments. Next, we propose a bin packing based approach for energy efficient resource allocation for classical IaaS. We formulate the problem of energy efficient resource allocation as a bin-packing model and propose an exact energy aware algorithm based on integer linear program (ILP) for initial resource allocation. To deal with dynamic resource consolidation, an exact ILP algorithm for dynamic VM reallocation is also proposed. This algorithm is based on VM migration and aims at constantly optimizing energy efficiency at service departures. A heuristic method based on the best-fit algorithm has also been adapted to the problem. Finally, we present a graph-coloring based approach for energy efficient resource allocation in the hybrid IaaS-PaaS providers context. This approach relies on a new graph coloring based model that supports both VM and container virtualization and provides on-demand as well as advanced resource reservation. We propose and develop an exact Pre-coloring algorithm for initial/static resource allocation while maximizing energy efficiency. A heuristic Pre-coloring algorithm for initial resource allocation is also proposed to scale with problem size. To adapt reservations over time and improve further energy efficiency, we introduce two heuristic Re-coloring algorithms for dynamic resource reallocation. Our solutions are generic, robust and flexible and the experimental evaluation shows that both proposed approaches lead to significant energy savings while meeting the users' requirements
60

Développement d'un modèle microphysique de nuages pour un modèle de climat global vénusien / Development of a microphysical cloud model for the Venus Global Climate Model

Guilbon, Sabrina 27 April 2018 (has links)
Les conditions à la surface de Vénus sont infernales : température de plus de 400 C, pression atmosphérique 90 fois celle sur Terre dans une atmosphère composée à 96 % de dioxyde de carbone. Une particularité de cette planète est la couche opaque nuageuse de 20 km d'épaisseur qui couvre toute la planète. Les nuages ont un rôle crucial pour le transfert de rayonnement, la dynamique atmosphérique, dans le cycle de certaines espèces chimiques comme le soufre et plus généralement pour le climat de Vénus. Malgré de nombreuses missions spatiales consacrées à cet astre depuis 1961, il y a peu de mesures in-situ. Les couches basses des nuages sont diciles à étudier par satellite, par conséquent il existe encore de nombreuses questions au sujet des nuages : leurs propriétés et leurs impacts radiatifs, dynamiques et chimiques sont mal contraints. Composées majoritairement d'acide sulfurique en solution, les particules sont supposées sphériques et liquides et composent des nuages étalés verticalement entre 50 et 70 km d'altitude environ, entourés par des brumes entre 30 et 50 km et au-dessus de 70 km. Les gouttelettes ont été classées, d'après des observations, en trois modes en fonction de leur taille et de leur composition : les modes 1 et 2 respectivement pour les petites (r = 0.2 μm) et moyennes particules (r = 1.0 μm), et un troisième mode qui contiendrait les plus grandes particules (r = 3.5 μm). Ce dernier mode, qui a été détecté par la sonde Pioneer Venus, demeure de composition et d'existence incertaines, et il n'est pas pris en compte dans notre étude. Afin de compléter et de mieux comprendre les données obtenues par l'observation spatiale, un modèle modal de microphysique, nommé MADMuphy (Modal Aerosol Dynamics with Microphysics), a été développé. L'objectif est d'intégrer MAD-Muphy dans le modèle de climat global vénusien (IPSL-VGCM), il faut donc limiter le nombre de variables que le VGCM doit suivre dans le temps et l'espace (également appelé traceurs). La méthode des moments est déjà utilisée dans les GCM de Titan et de Mars et constitue un bon compromis entre la précision des résultats et le temps de calcul. MAD-Muphy est donc basé sur cette représentation pour une pression et une température dé nies pour une couche de l'atmosphère (ou 0D). La thèse présentée ici détaille le développement des expressions mathématiques des équations de la microphysique avec les moments, présente le nouveau modèle MAD-Muphy ainsi que les hypothèses qui ont été nécessaires pour son développement. Tout d'abord, nous déterminerons le temps caractéristique de chaque processus microphysique et nous étudierons leur comportement en 0D. Ensuite, nos résultats seront comparés avec ceux du modèle sectionné SALSA en 0D. / The conditions on the surface of Venus are infernal: temperature of more than 400 C, 90 times the Earth's atmospheric pressure in an atmosphere composed of 96 % of carbon dioxide. A distinctive characteristic of this planet is the 20 km thick opaque cloud layer, which enshrouds the planet. Clouds have a crucial role in radiative transfer, atmospheric dynamics, in the cycle of some chemical species like sulphur and more generally in the climate of Venus. Despite the numerous space missions devoted to this object since 1961, there are few in-situ measurements. The lower cloud layers are di cult to study by satellite, so there are still many questions about clouds: their properties and their radiative, dynamic and chemical impacts are poorly constrained. Predominantly composed of sulphuric acid solution, the particles are supposed to be spherical and liquid and compose the clouds that are vertically spread between approximately 50 and 70 km of altitude, surrounded by hazes between approximately 30 and 50 km and above 70 km. Based on observations the droplets have been classied into three modes according to their size and composition: modes 1 and 2 respectively for small (r = 0.2 μm) and medium particles (r = 1.0 μm), and a third mode that would contain the largest particles (r = 3.5 μm). The latter mode, which has been detected by the Pioneer Venus probe, remains uncertain in composition and existence, and is not taken into account in our study. To complete and better understand the observational data, a modal microphysical model, called MAD-Muphy (Modal Aerosol Dynamics with Microphysics), has been developed. The goal is to integrate MAD-Muphy into the venusian global climate model (IPSL-VGCM), so we must limit the number of variables that the VGCM must follow in time and space (also called tracers). The moment method is already used in the Titan and Mars GCMs and is a good compromise between the accuracy of the results and the computation time. MAD-Muphy is the refore based on this representation for a pressure and a temperature of one atmospheric layer (or 0D). The thesis presented here details the derivation of the mathematical expressions of the microphysical equations with moments, presents the new MAD-Muphy model as well as the hypotheses that were necessary for its development. We will first determine the characteristic timescale of each microphysical process and we will study their behaviour in 0D. Then, our results will be compared with those of the SALSA sectional model in 0D.

Page generated in 0.0228 seconds