• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 63
  • 16
  • Tagged with
  • 160
  • 42
  • 39
  • 35
  • 33
  • 30
  • 25
  • 22
  • 22
  • 20
  • 18
  • 17
  • 17
  • 16
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modeling, evaluation and provisioning of elastic service-based business processes in the cloud / Modélisation, évaluation et mise en oeuvre de l'élasticité des applications à base de services dans le cloud

Amziani, Mourad 12 June 2015 (has links)
Le Cloud Computing est de plus en plus utilisé pour le déploiement et l'exécution des applications métiers et plus particulièrement des applications à base de services (AbSs). L'élasticité à différents niveaux est l'une des propriétés fournies par le Cloud. Son principe est de garantir la fourniture des ressources nécessaires et suffisantes pour la continuité de l'exécution optimale des services Cloud. La fourniture des ressources doit considérer la variation de la demande pour éviter la sous-utilisation et la surutilisation de ces dernières. Il est évident que la fourniture d'infrastructures et/ou de plateformes élastiques n'est pas suffisante pour assurer l'élasticité des applications métiers déployées. En effet, il est aussi nécessaire de considérer l'élasticité au niveau des applications. Ceci permet l'adaptation dynamique des applications déployées selon la variation des demandes. Par conséquent, les applications métiers doivent être fournies avec des mécanismes d'élasticité permettant leur adaptation tout en assurant les propriétés fonctionnelles et non-fonctionnelles désirées. Dans nos travaux, nous nous sommes intéressés à la fourniture d'une approche holistique pour la modélisation, l'évaluation et la mise en oeuvre des mécanismes d'élasticité des AbSs dans le Cloud. En premier lieu, nous avons proposé un modèle formel pour l'élasticité des AbSs. Pour cela, nous avons modélisé les AbSs en utilisant les réseaux de Petri et défini deux opérations d'élasticité (la duplication et la consolidation). En outre, nous avons proposé de coupler ces deux opérations avec un contrôleur d'élasticité. Pour assurer l'élasticité des AbSs, le contrôleur analyse l'exécution des AbSs et prend des décisions sur les opérations d'élasticité (duplication/consolidation). Après la définition de notre modèle pour l'élasticité des AbSs, nous nous sommes intéressés à l'évaluation de l'élasticité avant de l'implémenter dans des environnements Cloud réels. Pour cela, nous avons proposé d'utiliser notre contrôleur d'élasticité comme un Framework pour la validation et l'évaluation de l'élasticité en utilisant des techniques de vérification et de simulation. Enfin, nous avons mis en oeuvre l'élasticité des AbSs dans des environnements Cloud réels. Pour cela, nous avons proposé deux approches. La première approche encapsule les AbSs non-élastiques dans des micro-conteneurs, étendus avec nos mécanismes d'élasticité, avant de les déployer sur des infrastructures Cloud. La seconde approche intègre notre contrôleur d'élasticité dans une infrastructure autonomique afin de permettre l'ajout dynamique des fonctionnalités d'élasticité aux AbSs déployées sur des plateformes Cloud / Cloud computing is being increasingly used for deploying and executing business processes and particularly Service-based Business Processes (SBPs). Among other properties, Cloud environments provide elasticity at different scopes. The principle of elasticity is to ensure the provisioning of necessary and sufficient resources such that a Cloud service continues running smoothly even when the number or quantity of its utilization scales up or down, thereby avoiding under-utilization and over-utilization of resources. It is obvious that provisioning of elastic infrastructures and/or platforms is not sufficient to provide elasticity of deployed business processes. In fact, it is also necessary to consider the elasticity at the application scope. This allows the adaptation of deployed applications during their execution according to demands variation. Therefore, business processes should be provided with elasticity mechanisms allowing their adaptation to the workload changes while ensuring the desired functional and non-functional properties. In our work, we were interested in providing a holistic approach for modeling, evaluating and provisioning of elastic SBPs in the Cloud. We started by proposing a formal model for SBPs elasticity. To do this, we modeled SBPs using Petri nets and defined two elasticity operations (duplication / consolidation). In addition, we proposed to intertwine these elasticity operations with an elasticity controller that monitors SBPs execution, analyzes monitoring information and executes the appropriate elasticity operation (duplication/consolidation) in order to enforce the elasticity of SBPs. After facing the challenge of defining a model and mechanisms for SBPs elasticity, we were interested in the evaluation of elasticity before implementing it in real environments. To this end, we proposed to use our elasticity controller as a framework for the validation and evaluation of elasticity using verification and simulation techniques. Finally, we were interested in the provisioning of elasticity mechanisms for SBPs in real Cloud environments. For this aim, we proposed two approaches. The first approach packages non-elastic SBPs in micro-containers, extended with our elasticity mechanisms, before deploying them in Cloud infrastructures. The second approach integrates our elasticity controller in an autonomic infrastructure to dynamically add elasticity facilities to SBPs deployed on Cloud platforms
72

Software Datapaths for Multi-Tenant Packet Processing / Plans de données logiciels pour les traitements réseaux en environnements partagés

Chaignon, Paul 07 May 2019 (has links)
En environnement multi-tenant, les réseaux s'appuient sur un ensemble de ressources matérielles partagées pour permettre à des applications isolés de communiquer avec leurs clients. Cette isolation est garantie par un ensemble de mécanismes à la bordure des réseaux: les mêmes serveurs hébergeant les machines virtuelles doivent notamment déterminer le destinataire approprié pour chaque paquet réseau, copier ces derniers entre zones mémoires isolées et supporter les tunnels permettant l'isolation du trafic lors de son transit sur le coeur de réseau. Ces différentes tâches doivent être accomplies avec aussi peu de ressources matérielles que possible, ces dernières étant tout d'abord destinées aux machines virtuelles. Dans un contexte d'intensification de la demande en haute performance sur les réseaux, les acteurs de l'informatique en nuage ont souvent recours à des équipements matériels spécialisés mais inflexibles, leur permettant d'atteindre les performances requises. Néanmoins, dans cette thèse, nous défendons la possibilité d'améliorer les performances significativement sans avoir recours à de tels équipements. Nous prônons, d'une part, une consolidation des fonctions réseaux au niveau de la couche de virtualisation et, d'autre part, une relocalisation de certaines fonctions réseaux hors des machines virtuelles. À cette fin, nous proposons Oko, un commutateur logiciel extensible qui facilite la consolidation des fonctions réseaux dans la couche de virtualisation. Oko étend les mécanismes de l'état de l'art permettant une mise en cache des règles de commutateurs, ceci afin de permettre une exécution des fonctions réseaux sous forme d'extensions au commutateur. De plus, les extensions sont isolées du coeur du commutateur afin d'empêcher des fautes dans les extensions d'impacter le reste du réseau et de faciliter une mise en place rapide et sûre de nouvelles fonctions réseaux. En permettant aux fonctions réseaux de s'exécuter au sein du commutateur logiciel, sans redirections vers des processus distincts, Oko diminue de moitié le coût lié à l'exécution des fonctions réseaux en moyenne. Notre seconde contribution vise à permettre une exécution de certaines fonctions réseaux en amont des machines virtuelles, au sein de la couche de virtualisation. L'exécution de ces fonctions réseaux hors des machines virtuelles permet d'importants gains de performance, mais lèvent des problématiques d'isolation. Nous réutilisons et améliorons la technique utilisé dans Oko pour isoler les fonctions réseaux et l'étendons avec un mécanisme de partage équitable du temps CPU entre les différentes fonctions réseaux relocalisées. / Multi-tenant networks enable applications from multiple, isolated tenants to communicate over a shared set of underlying hardware resources. The isolation provided by these networks is enforced at the edge: end hosts demultiplex packets to the appropriate virtual machine, copy data across memory isolation boundaries, and encapsulate packets in tunnels to isolate traffic over the datacenter's physical network. Over the last few years, the growing demand for high performance network interfaces has pressured cloud providers to build more efficient multi-tenant networks. While many turn to specialized, hard-to-upgrade hardware devices to achieve high performance, in this thesis, we argue that significant performance improvements are attainable in end-host multi-tenant networks, using commodity hardware. We advocate for a consolidation of network functions on the host and an offload of specific tenant network functions to the host. To that end, we design Oko, an extensible software switch that eases the consolidation of network functions. Oko includes an extended flow caching algorithm to support its runtime extension with limited overhead. Extensions are isolated from the software switch to prevent failures on the path of packets. By avoiding costly redirections to separate processes and virtual machines, Oko halves the running cost of network functions on average. We then design a framework to enable tenants to offload network functions to the host. Executing tenant network functions on the host promises large performance improvements, but raises evident isolation concerns. We extend the technique used in Oko to provide memory isolation and devise a mechanism to fairly share the CPU among offloaded network functions with limited interruptions.
73

Etalonnage de Herschel/HIFI : approche système et expérimentale d'un instrument scientifique spatial. Etude observationnelle de coeurs denses galactiques.

Teyssier, David 27 September 2002 (has links) (PDF)
L'étalonnage des instruments dédiés à l'observation de la Terre et du Cosmos est l'une des clefs d'un retour scientifique maximal de ces missions. <br> La première partie de cette thèse est consacrée à la préparation des outils et méthodes d'étalonnage du spectromètre submillimétrique HIFI embarqué à bord du satellite Herschel en 2007. Le premier aspect traite de l'étalonnage des données et de leur conversion en une échelle scientifique. Nous recensons dans un premier temps les besoins de l'étalonnage en vol et identifions les étalons primaires et secondaires. Nous établissons alors une liste de candidats potentiels, complétée par une campagne d'observations préparatoires au sol. Un schéma d'étalonnage interne fondé sur deux charges embarquées est étudié et nous présentons un premier bilan d'erreur. Nous montrons que cette approche n'est a priori pas adaptée aux conditions spatiales et donnons les premiers éléments d'une technique plus adéquate. Le second aspect s'intéresse à l'étalonnage de l'instrument proprement dit. Nous analysons les besoins de la campagne de mesures en laboratoire du premier prototype de HIFI, et proposons un système original afin d'étalonner divers paramètres au sol. Nous montrons également l'importance d'une modélisation instrumentale et présentons une description des systèmes d'ondes stationnaires susceptibles d'affecter les données de HIFI. <br> La seconde partie de cette thèse est dédiée à l'étude de coeurs denses galactiques détectés dans l'infrarouge moyen par le satellite ISO. Nous montrons que ces objets appartiennent à une population nouvelle de condensations massives (M > 1000 Masses solaires) et froides (8 < T < 25 K) associées à des nuages moléculaires géants. L'analyse indique des extinctions dans le visible supérieures à 50, et suggère que des phénomènes de collage sur les grain affectent la plupart des espèces moléculaires. Nous montrons que ces objets sont probablement fragementés, et qu'ils sont susceptibles, ou ont déjà initié la formation d'étoiles massives en leur sein.
74

Etude des nuages moléculaires : observation de trois nuages sombres du Taureau ; anomalies hyperfines de HNN⁺ et HCN

Duvert, Gilles 17 December 1984 (has links) (PDF)
Les anomalies des rapports R₁₂ = I(F =1-1)/I(F =2-1) et R₀₂ = I(F =0-1)/I(F =2-1) des raies de HCN et HNN⁺ sont : modélisées par un modèle de transfert du rayonnement dans un nuage moléculaire sphérique ou plan - parallèle en tenant compte du recouvrement des raies; observées a grande échelle dans un nuage sombre du complexe Taureau-Persée, HCL2, ou l'on constate l'importance des phénomènes de diffusion dans une enveloppe de faible densité. Trois nuages sombres du complexe du Taureau, couvrant une dizaine de degrés carrés, ont été observes avec les 5' de résolution spatiale du radiotélescope millimétrique de Bordeaux dans les raies J = 1-0 de ¹²CO, ¹³CO, C¹⁸O. Ces observations permettent d'établir l'abondance de ¹³CO et C¹⁸O dans le Taureau et d'étudier la cinétique de ces nuages. L'abondance de ¹³CO présente un gradient en direction de Persée, tandis que C¹⁸O a une abondance constante sur toute la région. Une étude de la structure en densité des nuages sombres est présentée en annexe.
75

Co-recalage de données hétérogènes 3D géo-référencées : contributions à la correction des relevés laser mobiles

Ridene, Taha 09 July 2010 (has links) (PDF)
Un développement considérable des bases de données cartographiques 3D à différentes échelles s'est produit ces dernières années. Il a été stimulé par de nombreux besoins et soutenu par de véritables progrès technologiques, et par une diversité d'approches en numérisation 3D. Nous considérons dans cette thèse un contexte de production de cartographie numérique basée sur la fusion de données hétérogènes 3D. Nous intégrons trois types de données : relevés avec laser fixe, relevés avec laser mobile issus d'un Système de Cartographie Mobile (MMS) et un Modèle Numérique de Surface (MNS). Les caractéristiques différentes de ces données muti-sources se traduisent par des incohérences et des déformations. Nous nous focalisons essentiellement sur les erreurs affectant les données du MMS. Nous décrivons une démarche innovante de correction de relevés laser terrestres en nous basant sur des données externes au système d'acquisition (MNS, BD ORTHO®...). Notre démarche est basée sur un recalage hétérogène de données 3D. Nous proposons trois variantes de recalage rigide de la famille des ICP. Nous proposons également une nouvelle méthode d'évaluation qualitative du recalage, ayant deux variantes. Celle-ci est basée sur l'extraction et la comparaison de primitives géométriques. Elle a été utilisée pour la comparaison des précisions des algorithmes de recalage développés. Les résultats expérimentaux issus de nos implémentations montrent des temps raisonnables pour une exploitation sur de grandes bases de données.
76

L'interpolation de formes

Da, Tran Kai Frank 21 January 2002 (has links) (PDF)
Pour de nombreuses applications informatiques, il est nécessaire d'interpréter des données échantillonnées et de fournir une représentation aussi correcte que possible des objets dont elles proviennent. Entre autres, on peut penser à l'imagerie médicale, au reverse engineering, à des applications de réalité virtuelle ou encore aux effets spéciaux pour le cinéma. Le problème étudié dans le cadre de cette thèse peut être formulé ainsi : à partir d'un ensemble S de points 3D échantillonnés sur un objet O, il s'agit de fournir un modèle géométrique de la surface délimitant O. Dans un premier temps, on détaille l'implantation d'une solution classique en Géométrie algorithmique dans le cadre du progiciel CGAL (http://www.cgal.org/). Les modules développés, Alpha-formes en dimensions 2 et 3, sont dorénavant partie intégrante de la libraire et distribués avec la version 2.3. Ensuite, on présente une nouvelle approche pour la reconstruction 3D à partir de nuages de points, dont le principe est de déployer une surface orientable sur les données. Cette méthode se révèle être très efficace, et surtout capable de fournir des réponses dans des cas difficiles. Elle offre, en outre, d'excellentes performances et permet de traiter de gros jeux de données. Enfin, on décrit une nouvelle méthode de reconstruction 3D pour des points organisés en sections. Il s'agit d'une méthode d'interpolation reposant sur les voisins naturels, un système de coordonnées barycentriques locales. Elle réunit deux grandes tendances: elle propose une définition fonctionnelle, C^1 presque partout, de l'objet reconstruit tout en ne considérant que des structures géométriques discrètes de type triangulation de Delaunay. L'interpolation de coupes parallèles permet, de surcroît, une solution efficace, grâce à des calculs uniquement réalisés en dimension 2.
77

Gestion autonome des ressources et des applications dans un nuage informatique selon une approche fondée sur un marché

Costache, Stefania 03 July 2013 (has links) (PDF)
Les organisations qui possèdent des infrastructures de calcul à haute performance (HPC) font souvent face à certaines difficultés dans la gestion de leurs ressources. En particulier, ces difficultés peuvent provenir du fait que des applications de différents types doivent pouvoir accéder concurremment aux ressources tandis que les utilisateurs peuvent avoir des objectifs de performance (SLOs) variés. Pour atteindre ces difficultés, cette thèse propose un cadre générique et extensible pour la gestion autonome des applications et l'allocation dynamique des ressources. L'allocation des ressources et l'exécution des applications est régie par une économie de marché observant au mieux des objectifs de niveau de service (SLO) tout en tirant avantage de la flexibilité d'une nuage informatique et en maximisant l'utilisation de des ressources. Le marché fixe dynamiquement un prix aux ressources, ce qui, combiné avec une politique de distribution de monnaie entre les utilisateurs, en garantit une utilisation équitable. Simultanément, des contrôleurs autonomes mettent en oeuvre des politiques d'adaptation pour faire évoluer la demande en ressource de leur application en accord avec la SLO requise par l'utilisateur. Les politiques d'adaptation peuvent : (i) adapter dynamiquement leur demande en terme de CPU et de mémoire demandés en période de contention de ressource aux machines virtuelles (ii) et changer dynamiquement le nombre de machines virtuelle. Nous avons évalué cette plateforme au moyen de la simulation et sur l'infrastructure Grid'5000. Nos résultats ont montré que cette solution: (i) offre un support plus flexible aux applications de type différent demandant divers niveaux de service; (ii) conduit à une bonne satisfaction des utilisateurs moyennant une dégradation acceptable des performances comparées aux solutions centralisées existantes.
78

Les communautés microbiennes des nuages : implication dans la chimie atmosphérique

Amato, Pierre 11 December 2006 (has links) (PDF)
La concentration microbienne des nuages collectés depuis le sommet du puy de Dôme se situe, en bruit de fond, autour de 5x10puissance 4 cell.mL-1 pour les bactéries, et 5x10puissance3 cell.mL-1 pour les champignons. La plus grande partie d'entres elles est viable, comme le montrent les mesures de concentration en ATP. Les souches isolées présentent des propriétés physiologiques d'intérêt pour la survie dans le nuage (pigments, capacité de se développer à basse température). Ils sont capables de dégrader, même à basse température, des composés organiques présents en quantité importante dans l'eau des nuages , comme le formiate, l'acétate, le lactate, le succinate, le méthanol et le formaldéhyde. Enfin, plusieurs souches ont une capacité élevée à agir comme noyau glaçogène. Cette étude suggère que les microorganismes pourraient être impliqués dans les processus chimiques et physiques qui se déroulent dans les nuages, et leur importance est à ce titre, à reconsidérer de façon globale.
79

Ionisation des nuages moléculaires par les rayons cosmiques / Cosmic-ray ionisation of dense molecular clouds

Vaupré, Solenn 10 July 2015 (has links)
Les rayons cosmiques (RC) ont un rôle fondamental sur la dynamique et l'évolution chimique des nuages moléculaires interstellaires, qui sont le lieu de formation stellaire et planétaire. Les RC sont probablement accélérés dans les enveloppes en expansion des rémanents de supernova (SNR), ainsi les nuages moléculaires situés à proximité peuvent être soumis à d'intenses flux de RC. Les protons relativistes ont principalement deux effets sur les nuages moléculaires : 1) en rencontrant le milieu dense, les protons de haute énergie (>280 MeV) induisent via la désintégration des pions l'émission de photons gamma. à cause de ce processus, les associations SNR-nuages moléculaires sont des sources intenses d'émission GeV et/ou TeV présentant des spectres similaires à celui des protons incidents. 2) à plus basse énergie, les RC pénètrent le nuage et ionisent le gaz, induisant la formation d'espèces moléculaires caractéristiques appelées traceurs de l'ionisation. L'étude de ces traceurs permet de déduire des informations sur les RC de basse énergie inaccessibles aux autres méthodes d'observation. J'ai étudié l'ionisation des nuages moléculaires par les RC près de trois SNR : W28, W51C et W44. Il existe des preuves observationnelles d'interaction avec le nuage voisin pour chaque SNR (présence de gaz choqué, masers OH, émission gamma). Mon travail repose sur la comparaison d'observations millimétriques des traceurs de l'ionisation à des modèles de chimie appliqués à ces nuages denses. Dans chaque région, nous avons déterminé un taux d'ionisation supérieur à la valeur standard, confortant l'hypothèse d'une origine des RC dans l'enveloppe du SNR voisin. L'existence d'un gradient d'ionisation en s'éloignant de l'onde de choc du SNR apporte des contraintes précieuses sur les propriétés de propagation des RC de basse énergie. La méthode utilisée repose sur l'observation des ions moléculaires HCO+ et DCO+, qui montre des limitations importantes à haute ionisation. C'est pourquoi j'ai également cherché à identifier des traceurs alternatifs de l'ionisation, par un effort croisé de modélisation et d'observation. En particulier, dans la région W44, les observations de N2H+ ont permis de mieux contraindre les conditions physiques, les abondances volatiles dans le nuage et l'état d'ionisation du gaz. Ce projet de recherche a amené une meilleure compréhension de la chimie induite par les RC dans les nuages moléculaires. Il a également ouvert de nouvelles perspectives de recherche interdisciplinaire vers la compréhension des RC, des observations millimétriques aux observations gamma. / Cosmic rays (CR) are of tremendous importance in the dynamical and chemical evolution of interstellar molecular clouds, where stars and planets form. CRs are likely accelerated in the shells of supernova remnants (SNR), thus molecular clouds nearby can be irradiated by intense fluxes of CRs. CR protons have two major effects on dense molecular clouds: 1) when they encounter the dense medium, high-energy protons (>280 MeV) create pions that decay into gamma-rays. This process makes SNR-molecular cloud associations intense GeV and/or TeV sources whose spectra mimic the CR spectrum. 2) at lower energies, CRs penetrate the cloud and ionise the gas, leading to the formation of molecular species characteristic of the presence of CRs, called tracers of the ionisation. Studying these tracers gives information on low-energy CRs that are unaccessible to any other observations. I studied the CR ionisation of molecular clouds next to three SNRs: W28, W51C and W44. These SNRs are known to be interacting with the nearby clouds, from the presence of shocked gas, OH masers and pion-decay induced gamma-ray emission. My work includes millimeter observations and chemical modeling of tracers of the ionisation in these dense molecular clouds. In these three regions, we determined an enhanced CR ionisation rate, supporting the hypothesis of an origin of the CRs in the SNR nearby. The evolution of the CR ionisation rate with the distance to the SNR brings valuable constraints on the propagation properties of low-energy CRs. The method used relies on observations of the molecular ions HCO+ and DCO+, which shows crucial limitations at high ionisation. Therefore, I investigated, both through modeling and observations, the chemical abundances of several other species to try and identity alternative tracers of the ionisation. In particular, in the W44 region, observations of N2H+ bring additional constraints on the physical conditions, volatile abundances in the cloud, and the ionisation state. This research brought valuable insight into the CR induced chemistry in the interstellar medium. It also brought new perspectives of interdisciplinary research towards the understanding of CRs, from millimeter to gamma-ray observations.
80

Impact of radiative transfer and chemistry on the formation of molecular clouds / Impact du transfert radiatif et de la chimie sur la formation des nuages moléculaires

Valdivia, Valeska 24 September 2015 (has links)
Le milieu interstellaire (MIS) est un système extrêmement complexe. Il correspond à une échelle intermédiaire entre les étoiles et les galaxies. Le gaz interstellaire est présent dans toute la galaxie, remplissant l’espace entre les étoiles. Une grande diversité de processus couplés, comme la gravité, le champs magnétiques, la turbulence et la chimie, participe à son évolution, faisant de la modélisation du MIS un problème ardu. Une description correcte du MIS nécessite un bon traitement des équations de la magnetohydrodynamique (MHD), de la gravité, du bilan thermique et de l’évolution chimique à l’intérieur du nuage moléculaire.L’objectif de ce travail de thèse est une meilleure compréhension de la formation et de l’évolution des nuages moléculaires, et plus particulièrement de la transition du gaz atomique en gaz moléculaire. Nous avons réalisé des simulations numériques de la formation des nuages moléculaires et de la formation de l’hydrogène moléculaire sous l’influence de la gravité et de la turbulence MHD, en utilisant des estimations précises de l’écrantage par les poussières et de l’auto-écrantage par la molécule H2. Ceci a été calculé grâce à une méthode en arbre, à même de fournir une rapide estimation des densités de colonne.Nous avons trouvé que l’hydrogène moléculaire se forme plus rapidement que prévu par les estimations classiques du fait de l’augmentation de densité locale provoquée par les fluctuations turbulentes du gaz. L’hydrogène moléculaire, formé à des densités plus élevées, peut alors migrer vers les régions plus chaudes et moins denses.Les densités de colonne totale d’hydrogène moléculaire montrent que la transition HI-H2 se produit à des densités de colonne de quelques 10^20 cm−2. Nous avons calculé les populations des niveaux rotationnels de H2 à l’équilibre thermique et intégré le long de plusieurs lignes de visée. Ces résultats reproduisent bien les valeurs observées par Copernicus et FUSE, suggérant que la transition observée et les populations excitées pourraient être une conséquence de la structure multi-phasique des nuages moléculaires. Comme la formation de H2 précède la formation des autres molécules, le H2 chaud pourrait permettre le développement d’espèces endothermiques et éventuellement expliquer certains aspects de la richesse moléculaire observée dans l’ISM. / The interstellar medium (ISM) is a highly complex system. It corresponds to an intermediate scale between stars and galaxies. The interstellar gas is present throughout the galaxy, filling the volume between stars. A wide variety of coupled processes, such as gravity, magnetic fields, turbulence and chemistry, participate in its evolution, making the modeling of the ISM a challenging problem. A correct description of the ISM requires a good treatment of the magnetohydrodynamics (MHD) equations, gravity, thermal balance, and chemical evolution within the molecular clouds.This thesis work aims at a better understanding of the formation and evolution of molecular clouds, specially how they become "molecular", paying particular attention to the transition HI-to-H2. We have performed ideal MHD simulations of the formation of molecular clouds and the formation of molecular hydrogen under the influence of gravity and turbulence, using accurate estimates for the shielding effects from dust and the self-shielding for H2, calculated with a Tree-based method, able to provide fast estimates of column densities.We find that H2 is formed faster than predicted by the usual estimates due to local density enhancements created by the gas turbulent motions. Molecular hydrogen, formed at higher densities, could then migrate toward low density warmer regions.Total H2 column densities show that the HI-to-H2 transition occurs at total column densities of a few 10^20 cm−2. We have calculated the populations of rotational levels of H2 at thermal equilibrium, and integrated along several lines of sight. These two results reproduce quite well the values observed by Copernicus and FUSE, suggesting that the observed transition and the excited populations could arise as a consequence of the multi-phase structure of molecular clouds. As H2 formation is prior to further molecule formation, warm H2 could possibly allow the development of a warm chemistry, and eventually explain some aspects of the molecular richness observed in the ISM.

Page generated in 0.0561 seconds