Spelling suggestions: "subject:"matière."" "subject:"latière.""
331 |
Contribution to risk analysis related to the transport of hazardous materials by agent-based simulation / Contribution à l'analyse de risque lié au transport de matière dangereuse par simulation à base d'agentsKanj, Hassan 19 September 2016 (has links)
Le transport de matières dangereuses (TMD) représente une source de danger pour les zones traversées. Ce danger peut produire des conséquences graves pour l’environnement, les biens ou les humains surtout si un accident aura lieu lors du transport. Due à l’importance de ces produits (essence, matières premières, médicaments) dans la vie quotidienne et à l’augmentation de la demande sur ces matières, il est utile d’analyser et d’évaluer le niveau de risque lié au TMD pour le minimiser. Ce risque dépend de la route suivie, de la quantité transportée, du moment de la journée, du trafic, des conditions météorologiques ainsi que de la densité de population des zones traversées. Il est caractérisé par les cibles qui sont exposées pour un temps donné et son niveau qui varie selon le temps et l'espace. L’objectif de cette thèse est d’évaluer et d’estimer le niveau de risque lié à un accident, et plus précisément le risque lié à l’expédition de marchandises dangereuses. Diverses méthodes sont élaborées pour proposer des modèles permettant de résoudre ce problème tout en tenant compte de différents paramètres tels que, le trafic, les conditions météorologiques, le coût et le temps du transport, ainsi que de leurs changements au cours du temps afin de détecter la meilleure route à suivre. La première partie de cette thèse représente l’état de l’art sur les différentes techniques d’analyse de risque pour le transport de matières dangereuses. Ensuite, deux approches sont proposées et étudiées en détail : une approche basée sur la simulation de Monte Carlo qui sert à évaluer le niveau de risque lié à un accident, et une autre qui estime le niveau de risque lié à une expédition de MD. La deuxième partie traite le problème de l’aspect temporel dans l’analyse de risque. En effet, l’importance du trafic, le taux d’occupation des bâtiments et les conditions météorologiques changent fortement selon le moment de la journée. À cause de la complexité de notre système (plusieurs entités, systèmes distribués, entités avec plusieurs niveaux d'abstraction, etc.), nous sommes tournés vers une approche de simulation multi-agents et nous proposons et implémentons un méta modèle d’agents avec une facette « risque ». Cette facette nous permet de représenter l’analyse de risque et la propagation de défaillance dans un modèle multi-agents. La troisième partie de cette thèse porte sur l’évaluation du niveau de risque lié au TMD. Dans un premier temps, nous proposons une approche d’évaluation basée sur l’évaluation de la fréquence d’un accident et de sa gravité. Ensuite, nous implémentons un simulateur en proposant le couplage de chacune de deux approches présentées dans la première partie avec le méta modèle d’agents présenté dans la seconde partie. Dans un second temps, comme la prise de décision est affectée par l’aspect économique et temporel (coût d’une expédition et durée du trajet), nous sommes face à un problème de décision multicritère (MCDM). Pour prendre en compte le fait que plusieurs paramètres utilisés dans l’analyse de risque sont incertains, nous avons utilisé une approche à base de nombres flous avec une extension de méthodes MCDM pour traiter ces incertitudes. Toutes ces méthodes sont implémentées sous Eclipse. Ensuite, un outil de simulation est développé. Il permet d’analyser le niveau de risque et de réaliser des cartographies qui illustrent la position instantanée du camion avec les zones impactées au cas d’accident. Ce travail est inscrit dans le cadre du projet GEOTRANS-MD. / Dangerous Goods Transport (DGT) represents a source of danger to the crossed areas. This danger can produce serious consequences for the environment, property or human beings. Due to the importance of these products (gasoline, first material, medicines) in everyday life and the increasing demand on these products, it is important to analyze and assess the level of risk related to DGT in order to minimize it. This risk depends on the followed route, the quantity of transported products, the time of day, the weather conditions and the population density of crossed areas. It is characterized by the targets that are exposed for a given time, and by the risk level that varies with time and space.The purpose of this thesis is to evaluate and assess the risk level related to an accident and especially risk related to DGT. Several methods to calculate the risk level, related to DGT, have been proposed in the literature. In most of these methods, the temporal aspect has not been taken explicitly into account in spite of its importance. Indeed, the volume of traffic, the building occupancy rates or weather conditions could greatly change depending on the time of day.The first part of this thesis summarizes the state of the art on risk analysis. Next, we present two approaches for assessing risk related to DGT systems: the former serves to evaluate the risk level of an accident and it is based on Monte Carlo Simulation, while the latter aims at assessing the risk level along a trajectory.The second part focuses on the temporal aspect and due to the complexity of our system (several entities, distributed systems, entities with multiple levels of abstraction, etc.), we are turned to a multi-agent simulation approach and we define a meta-model agent with a risk facet, a generic facet. This facet allows us to represent the risk analysis and failure propagation in an agent model.The third part of this thesis illustrates a proposed approach to assess the risk level related to DGT. Firstly, we propose formulas to assess the accident frequency and severity. Then, we present the implementation of both simulation approaches proposed in the first part using the agent based model proposed in the second part. Secondly, as decision-making is affected by the economic and temporal aspects (cost of shipping and travel time), we are facing a multi-criteria decision making problem (MCDM). In addition, to take into account the fact that several parameters used in risk analysis are uncertain, we have used fuzzy numbers. Next, we have proposed an approach, which integrates MCDM methods with fuzzy numbers, to identify the best route for DGT among a set of alternatives. The purpose of this approach is to provide decision support for decision makers such as, public authorities and emergency services in case of emergency.A simulation tool is developed in Eclipse, which allows us to analyze the level of risk and realizes maps that show the instantaneous position of the truck with the impacted areas in the case of accident. This work is a part of the GEOTRANS-MD project.
|
332 |
Rayonnement cosmique : révèler la matière noire au-delà des sources astrophysiques / Cosmic radiation : unveiling dark matter components beyond the contribution of astrophysical sourcesDi Mauro, Mattia 27 February 2015 (has links)
Les preuves d'une composante de matière invisible dans l'Univers sont présents à de nombreuses échelles. Cette composante, appelée matière noire (MN), à interaction faible, stable sur des temps cosmologiques, non-relativiste et non-baryonique représente environ 28% du budget d' énergie de l'Univers. L' une des principales stratégies pour identifier la MN est la détection indirecte des produits de son annihilation.Les rayons gamma sont très prometteurs. Le télescope spatiale Fermi-LAT (FL) a mesuré un flux diffus isotrope de gamma, nommé IGRB, qui est généralement associé à l'émission de sources non résolues, mais peut aussi contenir une contribution due à la MN. Les sources gamma les plus nombreuses sont les noyaux actifs de galaxies (NAG) divisés en blazars et NAG non-alignés (NAGna) selon l'orientation de leur jet. Nous avons calculé le flux gamma des NAGna à l'aide de la corrélation entre luminosité radio et gamma pour un échantillon de sources détectées dans les deux bandes. Nous avons ainsi démontré que les très nombreux NAGna peuvent contribuer de 10% à 100% du IGRB mesuré par FL.Nous avons étudié les blazars et, pour la première fois, nous avons utilisé les données de FL et des télescopes TeV au sol en synergie pour dériver leur fonction de luminosité et leur distribution spectrale d'énergie. Nous avons démontré que cette population représente environ 10% du IGRB à 100MeV, jusqu'à sa totalité à des énergies plus élevées, expliquant en détail le ramollissement de l'émission IGRB aux énergies supérieures à 100GeV.Les pulsars sont les sources galactiques le plus nombreuses de gamma et radio. Nous avons calculé que leur contribution maximale au IGRB est de 1% et qu' elles contribuent à hauteur de 8% à l' excès au centre galactique. Compte tenu des résultats précédents, nous avons déduit que l'émission des NAG et des galaxies à sursaut de formation d'étoiles peut expliquer très bien et au même temps l'anisotropie et l'intensité du IGRB. Nous avons calculé les limites supérieures à la section efficace d' annihilation de MN, si on rajoute ce mécanisme d'émission aux contributions astrophysiques. Ces limites sont très strictes, autour de la valeur thermique canonique, pour une large gamme de masses de MN. Nous avons également identifié des régions dans l' espace des paramètres masse MN-section efficace d' annihilation peut améliorer l'ajustement aux données.Les flux de positons (e+) et électrons (e-) pourraient eux aussi cacher un signal de MN. La fraction de e+ (FP) devrait diminuer avec l' énergie si le mécanisme principal de production de e+ était secondaire, à savoir dû à l'interaction des rayons cosmiques avec le milieu interstellaire. Cependant AMS-02 mesure une augmentation de la FP aux énergies supérieures à 10 GeV. Nous avons calculé l'émission de e+ et de e- de rémanent de Supernovae, de nébuleuse de vent de pulsars (NVP) et de production secondaire, montrant que les flux leptoniques peuvent être entièrement expliquée par ces émissions astrophysiques et que la hausse de la FP est compatible avec une émission de paires par les NVP.Enfin, nous avons construit une section efficace phénoménologique pour la production secondaire d'antiprotons, en utilisant les données existantes. Nous avons dérivé que l'incertitude sur la production d'antiprotons totale est d' au moins 20%. Ainsi, à moins que les incertitudes soient réduites grâce à de nouvelles mesures, il sera difficile de dévoiler une contribution de MN au flux d' antiprotons au-delà de la production secondaire avec les prochaines données de AMS-02, à moins que le composant de MN soit dominante dans une certaine gamme d'énergie.Les prochaines années seront très excitantes pour la chasse à la MN: de nouvelles mesures gamma et de particules chargées vont atteindre une précision incroyable; un grand effort devrait être fait dans la modélisation de l' émission de ces flux par des sources astrophysiques afin de démêler un signal de MN des inévitables bruits de fonds / Evidences of an invisible matter component in the Universe are present at many scales. This component, called dark matter (DM), is weakly interacting, stable on cosmological scales, non-relativistic, not made of baryonic particles and costitutes about the 28% of the Universe. One of the main strategies to identify DM is the indirect detection of particles produced via DM annihilation. gamma rays are one of the most promising channels. The Fermi-LAT has measured an isotropic gamma-ray backgound (IGRB) which is associated to the emission from unresolved sources, but could also contain an exotic component from DM. The most numerous gamma-ray sources are the Active Galactic Nuclei (AGN) divided in blazars and misaligned AGN (MAGN) according to the orientation of their jet. We have derived the gamma-ray emission from MAGN using the correlation between the radio and gamma-ray luminosities of a sample of detected sources. The unresolved MAGN are very numerous and we have demonstrated that they can account from 10% up to 100% of the IGRB measured by the Fermi-LAT.We have also studied the blazars and, for the first time, we used the Fermi-LAT data and the IACTs measure- ments in synergy to have a better understanding of their spectral energy distribution (SED). Considering these sets of catalogs, we have derived their SED and gamma-ray luminosity function demonstrating that this population accounts for about 10% of the IGRB at 100 MeV up to its totality at higher energies, fully explaining the softening of the IGRB emission at energy larger than 100 GeV.The most numerous Galactic gamma-ray and radio emitting population is the pulsar class. We have calculated that the maximal contribution of pulsars to the IGRB is 1% and that they contribute up to 8% to the putative gamma-ray excess found in the Galactic center.Using the previous results we have derived that the emission from AGN and Star Forming Galax- ies can provide very good fits to the anisotropy and intensity of the Fermi-LAT IGRB. We have also calculated upper limits to the annihilation cross section of DM adding this exotic emission mechanism to the astrophysical source populations. These limits are quite stringent, around the canonical thermal relic value for a wide range of DM masses. We have also identified regions in the DM mass and annihilation cross section parameter space which can significantly improve the fit to data.Positrons and electrons spectra could also hide a DM signal. The positron fraction (PF) is expected to have a decreasing shape if the main mechanism of positron production is ”secondary”, namely due to the interaction of cosmic rays with the interstellar medium. However AMS-02 measured an increased PF at energy larger than 10 GeV. We have calculated the electron and positron emission from Supernovae Remnants, Pulsar Wind Nebulae and secondary production showing that the electron, positron, PF and the inclusive spectra can be fully explained by these astrophysical emissions and that the rising of the PF is consistent with the Pulsar Wind Nebulae emission of positrons.Finally we have built a phenomenological cross section for the secondary production of antiprotons. We have used the most up-to-date data sets and derived that the uncertainty on the total antiproton production is at least 20%. Thus, unless cross section uncertainties will be reduced thanks to new measurements, it will be difficult to unveil a DM contribution to antiprotons above the secondary production with the upcoming AMS-02 antiproton data, unless the DM component is really dominant in some energy range.The next years will be exciting for the hunting of DM. New measurements on gamma-rays and charged parti- cles are going to reach incredible precision and a strong effort should be done in the modeling of the gamma-ray and charged particles emission from galactic and extragalactic sources in order to disentangle a signal of DM above this unavoidable astrophysical background
|
333 |
Bio-methanation tests and mathematical modelling to assess the role of moisture content on anaerobic digestion of organic waste / Bio-méthanation essais et modélisation mathématique pour évaluer le rôle de l'humidité sur la digestion anaérobie des déchets organiquesLiotta, Flavia 12 December 2013 (has links)
La méthanisation par voie sèche possède différents avantages par rapport à la méthanisation par voie humide. Les réacteurs sont plus petits, les besoins en eau sont moindres, la production de digestat et le prétraitement nécessaire sont également moins importants. Cependant, plusieurs études ont démontré que l'eau favorise l'hydrolyse du substrat et permet le transport des sous-produits d'hydrolyse et des nutriments vers les bactéries. Pour mieux comprendre le rôle de l'eau lors de la méthanisation, des tests de digestion sèche et semi-sèche à partir de substrats organiques complexes (déchets alimentaires, paille de riz, déchets de carotte), avec différentes teneurs en matière sèche de substrat traité ont été réalisées. Les résultats confirment que l'eau joue un rôle essentiel sur le taux de production spécifique de méthane, le rendement final de méthane généré et la dégradation de la matière volatile sèche (MVS). Le rendement final de méthane produit dans des conditions semi-sèches et sèches est respectivement de 51% et de 59% inférieur avec la paille de riz et 4% et 41% de moins pour les déchets alimentaires en comparaison avec des conditions humides. Des tests d'inhibition basés sur l'analyse des acides gras volatils (AGV) ont été menées pour étudier les processus d'inhibition spécifiques qui ont lieu avec les substrats sélectionnés à différentes teneurs en matière sèche. Pour le cas de la méthanisation par voie humide des déchets de carotte, aucune accumulation d'AGV a été trouvé, et toutes les concentrations d'AGV étaient inférieurs aux seuils d'inhibition. Une corrélation directe entre la teneur en matière sèche et la concentration totale d'AGV (AGVtot) a été mise en évidence pour la paille de riz et les déchets alimentaires. Pour la paille de riz, une concentration d'AGVtot maximale de 2,1 g / kg a été trouvé pour la voie sèche, 1 g / kg dans les conditions semi-sèche et 0,2 g / kg dans les conditions humides, alors que pour les déchets alimentaires la concentration d'AGVtot était de 10 g / kg à l'état sec, 9 g / kg dans les conditions semi-sèche et 3 g / kg dans les conditions humides. Un modèle mathématique de la méthanisation de substrats organiques complexes dans des conditions sèches et semi-sèche a été proposé pour simuler l'effet de la teneur en matière sèche sur le processus. Les données obtenues à partir d'expériences en mode batch, en termes de production de méthane et de concentration d'AGV, ont été utilisées pour calibrer le modèle proposé. Les paramètres cinétiques de production et d'élimination d'AGV ont été calibrés à l'aide des données expérimentales, et il a été montré qu'ils sont fortement dépendants de la teneur en matière sèche et différent des valeurs de la littérature concernant la méthanisation par voie humide. Cela est dû à l'accumulation d'AGV dans les conditions sèches, ce qui implique d'utiliser des valeurs plus élevées concernant les constantes d'inhibition introduites dans le modèle. Enfin, comme la méthanisation par voie sèche a généralement lieu dans des réacteurs à écoulement piston, une étude historique et critique de la littérature concernant la compréhension du rôle de l'hydrodynamique dans des bioréacteurs à écoulement piston a été réalisée / Dry Anaerobic Digestion (AD) presents different advantages if compared to wet AD, i.e. smaller reactor size, lesser water addition, digestate production and pretreatment needed, although several studies have demonstrated that water promotes substrate hydrolysis and enables the transfer of process intermediates and nutrients to bacterial sites. To better understand the role of water on AD, dry and semidry digestion tests of selected complex organic substrates (food waste, rice straw, carrot waste), with various TS contents of the treated biomass have been carried out in the present study. The results confirm that water plays an essential role on the specific methane production rate, final methane yield and Volatile Solids (VS) degradation. The final methane yield in semi-dry and dry conditions was 51% and 59% lower for rice straw and 4% and 41% lower for food waste, respectively, if compared with wet conditions. Inhibition tests, based on Volatile Fatty Acid (VFA) analysis, were carried out to investigate the specific inhibition processes that take place with the selected substrates at different TS contents. In wet AD of carrot waste no VFA accumulation was found, and all VFA concentrations were lower than the inhibition limits. A direct correlation between TS content and total VFA (TVFA) concentration was noticed for rice straw and food waste AD. For rice straw a maximum TVFA concentration of 2.1 g/kg was found in dry condition, 1 g/kg in semidry conditions and 0.2 g/kg in wet conditions, whereas for food waste the TVFA concentration was 10 g/kg in dry condition, 9 g/kg in semidry conditions and 3 g/kg in wet conditions. A Mathematical model of complex organic substrate AD in dry and semidry conditions has been proposed to simulate the effect of TS content on the process. The data obtained from batch experiments, in terms of methane production and VFA concentrations, were used to calibrate the proposed model. The kinetic parameters of VFA production and degradation, calibrated using the experimental data, resulted highly dependent on the TS content and different from wet AD literature values. This is due to VFA accumulation in dry conditions, which implies higher values of the inhibition factors introduced in the model. Finally, as dry AD takes usually place in Plug Flow (PF) reactors, an historical and critical review on the role of hydrodynamics in PF bioreactors has been carried out
|
334 |
Computer simulations of supercooled liquids near the experimental glass transition / Simulations numériques des liquides surfondus près de la transition vitreuse expérimentaleNinarello, Andrea Saverio 02 October 2017 (has links)
La compréhension du mécanisme de la formation du verre est l'un des importants problèmes ouverts en recherche sur la matière condensée. De nombreuses questions restent sans réponse, en raison d'une énorme augmentation des temps de relaxation pendant le processus de refroidissement qui ne permet pas l'exploration des propriétés d'équilibre des liquides surfondus à très basses températures. Les simulations numériques des liquides surfondus sont actuellement en mesure d'atteindre l'équilibre à des températures comparables à la température du crossover de la théorie de couplages de modes, qui est bien supérieure à la température de transition vitreuse expérimentale. En conséquence, les simulations plus lentes que les expériences pour équilibrer un liquide surfondu par un facteur d'environ huit ordres de grandeur. Les progrès réalisés pour combler cet écart ont été lents et résultent essentiellement d'améliorations de l'architecture des ordinateurs. Dans cette thèse, nous résolvons en partie le problème de la thermalisation à basse température de liquides surfondus dans des simulations numériques. Nous combinons l'utilisation d'un algorithme Monte Carlo, connu sous le nom d'algorithme de swap, avec la conception de nouveaux modèles de formateurs de verre. Nous examinons systématiquement des nombreux systèmes, à la fois des mélanges discrets de particules, ainsi que des systèmes a polydispersité continue. Nous discutons le rôle que la polydispersité et la forme du potentiel entre particules jouent pour éviter la cristallisation et parvenir efficacement à des régimes de température inexplorés. De plus, nous étudions les processus dynamiques à l’œuvre pendant une simulation de swap Monte Carlo. Nous démontrons que, dans certains cas, notre technique permet de produire des configurations équilibrées à des températures inaccessibles même dans des expériences. Dans ce régime de température complètement nouveau, nous examinons plusieurs questions ouvertes concernant la physique de la transition vitreuse. Nous montrons qu'un fluide de sphères dures peut être équilibré jusqu'à la densité critique du jamming, et même au-delà. Nous mesurons l'entropie configurationelle dans un liquide refroidi à très basse température. Nous mettons en évidence une forte dépendance dimensionnelle, qui suggère l'existence d'une transition vitreuse idéale à une température finie en trois dimensions et à son absence en deux dimensions. Nous détectons l'augmentation de l'ordre amorphe quantifié par une longueur statique point-to-set pendant la formation du verre. Nous mesurons les exposants critiques introduits dans la théorie de champ moyen des verres beaucoup plus proche de la température critique prédite dans la théorie. Enfin, nous révélons l'absence de transition géométrique caractérisant le paysage d’énergie potentiel au travers de la température du crossover de la théorie de couplages de modes.Les modèles et les algorithmes développés dans cette thèse déplacent les études des liquides surfoundus vers un territoire entièrement nouveau, en réduisant l'écart entre la théorie et les expériences, ce qui nous amène plus proche de la solution du problème de la transition vitreuse. / Understanding the mechanisms that lead to glass formation is one of the open problems for the condensed matter research. Numerous questions remain unanswered, because the tremendous increase of relaxation times during the cooling process prevents the exploration of equilibrium properties of supercooled liquids at very low temperature. Computer simulations of glass-forming liquids are nowadays able to reach equilibrium at temperatures comparable to the Mode-Coupling crossover temperature, which is well above the experimental glass transition temperature. As a consequence, simulations lag eight orders of magnitude behind experiments in terms of equilibration times. Progress to close this gap has been slow, and stems mostly from hardware improvements.In this thesis we make an important step to close this gap. We combine the use of a Monte Carlo algorithm, known as the swap algorithm, with the design of novel glass-forming models. We systematically test numerous models using both discrete mixtures and polydisperse systems. We discuss the role that polydispersity and particle softness play in avoiding crystallization and in efficiently reaching previously unexplored regimes. We study the dynamical processes taking place during swap Monte Carlo simulations. We demonstrate that in some cases our technique is able to produce thermalized configurations at temperatures inaccessible even by experiments.In this newly accessible regime, we investigate some open questions concerning the glass transition. We show that a hard sphere fluid can be equilibrated at, and even beyond, the jamming packing fraction. We measure the configurational entropy in extremely supercooled liquid, finding a strong dimensional dependence that supports, on the one hand, the existence of an ideal glass transition at a finite temperature in three dimensions and, on the other hand, its absence in two dimensions. We detect the increase of amorphous order quantified through a static point-to-set length throughout the glass formation. We measure the critical exponents introduced in the mean-field theory of glasses much closer to the supposed ideal glass transition. Finally, we reveal the absence of a sharp geometric transition in the potential energy landscape across the Mode-Coupling crossover.The models and the algorithms developed in this thesis shift the computational studies of glass-forming liquids to an entirely new territory, which should help to close the gap between theory and experiments, and get us closer to solve the long-standing problem of the glass transition.
|
335 |
Influence de la matière organique sur la mobilité et la biodisponibilité de l'arsenic liées aux activités bactériennes dans la zone non saturée des sols pollués / Influence of organic matter on the mobility and bioavailability of arsenic related to bacterial activity in the unsaturated zone of contaminated soilLescure, Tiffanie 03 July 2015 (has links)
La microflore joue un rôle majeur dans la mobilité des éléments métalliques et métalloïdes dans les sols. L’activité bactérienne globale d’oxydation de l’AsIII en AsV tend à diminuer la toxicité et la mobilité de l’arsenic (As) dans les sols, cependant l’effet de la matière organique (MO) sur cette activité n’a pas été déterminé jusqu’à présent. Il est important de répondre à cette question car sur des sites pollués, un apport de MO peut être préconisé dans le cadre d’opérations de phyto-stabilisation. Par ailleurs, dans un contexte de pollution diffuse, les pratiques agricoles d’amendement des sols pourraient avoir un impact sur le transfert d’As. L’objectif de ce projet de thèse était donc de quantifier l’influence de la MO sur la spéciation de l’As par la microflore de sols pollués, et les conséquences de ce processus sur la mobilité du métalloïde. L’influence de la MO sur la spéciation de l’As a été évaluée (1) au niveau physiologique et moléculaire, sur l’activité de deux souches pures et (2) au niveau global, par l’évaluation de l’activité d’oxydation de l’AsIII par les communautés microbiennes de sols pollués et des incubations de sols. L’effet de la nature même de la MO a été examiné à travers la comparaison de substrats simples et complexes. Les expériences réalisées avec les souches de Thiomonas delicata et Herminiimonas arsenicoxydans ont montré un effet négatif de la MO sur la vitesse spécifique d’oxydation de l’AsIII. L’extrait de levure (EdL) induit une diminution de l’expression du gène aioA codant pour la grande sous-unité de l’arsénite-oxydase permettant l’oxydation de l’arsenic, avec les deux souches pures. Au niveau plus global des communautés microbiennes de sols, l’activité AsIII-oxydantes a été évaluée sur 8 sols pollués par de l’As. Les mesures ont été effectuées dans des milieux de cultures contenant différentes concentrations de MO. Deux MO complexes ont été comparées : l’EdL et une mixture synthétique de molécules organiques (SMOM) dont la composition a été inspirée par les caractéristiques de la MO de sols réels (rapport C/N, contenu en groupes fonctionnels). Des corrélations ont été recherchées entre les caractéristiques des sols et la constante de vitesse d’oxydation de l’AsIII par la microflore, avec et sans ajout de MO. La vitesse d’oxydation de l’AsIII par la microflore des sols semble limitée par la MO disponible, et cette limitation est levée par un apport de 0,08 g.L-1 de C apporté sous forme d’EdL ou de SMOM. Lorsque l’apport de MO s’élève à 0,4 g.L-1 de C, des résultats divergents sont observés : l’EdL est moins inhibiteur que la SMOM. Enfin, une expérience a été réalisée dans le but d’évaluer l’influence combinée de l’activité microbienne et de l’apport de SMOM sur la mobilisation de l’As présent dans quatre sols pollués, incubés au laboratoire en suspension. Une mobilisation dans la phase aqueuse de l’As présent dans les sols pollués est observée en présence de SMOM et de microorganismes actifs. Ce travail de thèse apporte un éclairage sur le rôle important joué par le métabolisme de la MO au sein du cycle biogéochimique de l’As, phénomène devant être pris en compte lors des études visant à optimiser la remédiation des sites pollués / The soil microflora plays a major role in the mobilization of metals and metalloids in soils. The global bacterial oxidation of AsIII to AsV tends to decrease the toxicity and mobility of arsenic in soils. The effect of organic matter (OM) on bacterial AsIII oxidation in presence of oxygen and its potential impact on the behavior of arsenic in non-saturated soils has not been determined up to date. However, supply of OM on polluted sites can be proposed in the context of a phytostabilization operation. Furthermore, agricultural soils affected by diffuse As pollution may be fertilized by organic amendments that could impact arsenic transfer. The objective of the present PhD thesis was to quantify the influence of OM on the speciation of As by the polluted soil microflora and the consequences of this process on arsenic mobility. The influence of OM on the speciation of As was evaluated (1) at the physiological and molecular levels on two pure strains and (2) at global level by AsIII oxidation measurements by microbial communities from polluted soils and on soils incubations. The effect of the nature of OM was considered through the comparison of simple and complex substrates. The experiments with Thiomonas delicata and Herminiimonas arsenicoxydans showed a negative effect of OM on the specific AsIII oxidation rate. Yeast extract (YE) induced a decrease of aioA gene (encoding for the big subunit of arsenite oxidase responsible for AsIII oxidation) expression with both pure strains. At the level of soils microbial communities, AsIII oxidizing activity were measured on 8 As-polluted soils. Measurements were realized in culture media containing different concentrations of OM. Two complex OMs were compared: YE and a synthetic mixture of organic matters (SMOM) whose composition was inspired from soils OM characteristics (C/N ratio and proportion of functional groups). Correlations were searched between soils characteristics and AsIII bio-oxidation rate constants with and without added OM. Results indicate that AsIII oxidation rate by the soil microflora was limited by available OM and this limitation was removed by the addition of 0.08 g L-1 of organic C as YE or SMOM. When the addition of OM reached 0.4 g L-1 of C, divergent results were observed: YE was less inhibiting than SMOM. Finally, an experiment was carried out to evaluate the combined influence of microbial activity and SMOM addition on As mobilization from polluted soils incubated as slurries at laboratory scale. A mobilization of As present in the polluted soils was observed in presence of both SMOM and active microorganisms. This PhD thesis enlightens the important role played by OM metabolism within the biogeochemical cycle of As, which should be given consideration in the context of polluted site remediation
|
336 |
Flux et anisotropie du rayonnement cosmique galactique : au-delà des modèles continus / Flux and anisotropy of galactic cosmic rays : beyond homogeneous modelsBernard, Guilhem 29 October 2013 (has links)
Cette thèse explore les conséquences du fait que les sources de rayons cosmiques sont distribuées de façon non homogène dans notre Galaxie. Elle débute par plusieurs synthèses théoriques et expérimentales. Dans un premier temps la présentation du milieu interstellaire permet de comprendre les mécanismes en jeu dans la propagation et l'accélération des rayons cosmiques. Puis l'étude du mécanisme détaillé de la diffusion des rayons cosmiques sur le champ magnétique conduit à l'équation de propagation utilisée communément. Les solutions stationnaires de cette équation seront rappelées, puis la thèse s'articule autour de l'étude des solutions non stationnaires dans le cadre de sources ponctuelles dépendantes du temps. Une étude statistique permet d'évaluer la dispersion du flux de rayons cosmiques autour de sa valeur moyenne. Le calcul de cette dispersion conduite à des divergences mathématiques et des outils statistiques sont développés pour contourner ce problème. Ainsi l'effet de la granularité des sources est discuté et l'impact sur le spectre du rayonnement cosmique permet d'expliquer les récentes mesures de flux de protons et d'héliums de expériences CREAM et PAMELA.D'autre part la thèse porte sur l'étude de l'anisotropie du rayonnement cosmique. Les méthodes de mesures expérimentales seront rappelées, et une partie du manuscrit est consacrée à relier les calculs théoriques, menés dans le cadre des modèles de propagation, aux expériences. S'en suit d'une part le calcul de l'effet de l'environnement local sur la mesure d'anisotropie, comme l'influence d'un coefficient de diffusion local. Puis, l'anisotropie et sa variance sont calculées dans le cadre de sources ponctuelles avec l'aide des outils développés dans la première partie. Enfin, la possible influence des sources locales sur l'anisotropie est discutée à la lumière des derniers résultats expérimentaux. / In this thesis I study the consequence of non homogeneously distributed cosmic ray sources in the Milky way. The document starts with theoretical and experimental synthesis. Firstly, I will describe the interstellar medium to understand the mechanism of propagation and acceleration of cosmic rays. Then, the detailed study of cosmic rays diffusion on the galactic magnetic field allows to write a commonly used propagation equation. I will recall the Steady-state solutions of this equation, then I will focus on the time dependant solutions with point-like sources. A statistical study is performed in order to estimate the standard deviation of the flux around its mean value. The computation of this standard deviation leads to mathematical divergences. Thus, I will develop statistical tools to bypass this issue. So i will discuss the effect of the granularity of cosmic ray sources. Its impact on cosmic ray spectrum can explain some recent features observed by the experiments CREAM and PAMELA.Besides, this thesis is focused on the study of the anisotropy of cosmic rays. I will recap experimental methods of measurements, and I will show how to connect theoretical calculation from propagation theories to experimental measurements. Then, the influence of the local environment on the anisotropy measurements will be discussed, particularly the effect of a local diffusion coefficient. Then, I will compute anisotropy and its variance in a framework of point-like local sources with the tools developed in the first part. Finally, the possible influence of local sources on the anisotropy is discussed in the light of the last experimental results.
|
337 |
Higgs, supersymmetry and dark matter after Run I of the LHC / Higgs, supersymétrie et matière noire après le run I du LHCDumont, Béranger 24 September 2014 (has links)
Deux problèmes majeurs requièrent une extension du Modèle Standard (MS) : le problème de hiérarchie dans le secteur de Higgs, et la matière noire de notre Univers. La découverte d'un boson de Higgs avec une masse d'environ 125 GeV est clairement l'événement majeur en provenance du Large Hadron Collider (LHC) du CERN. Cela représente le triomphe définitif du MS, mais cela met également en lumière le problème de hiérarchie et ouvre de nouvelles voies pour sonder la nouvelle physique. Les différentes mesures effectuées pendant le run I du LHC contraignent les couplages du Higgs aux particules du MS ainsi que les désintégrations invisibles et non-détectées. Dans cette thèse, l'impact des résultats sur le boson de Higgs au LHC est étudié dans le cadre de différents modèles de nouvelle physique, en prenant soigneusement en compte les incertitudes et leurs corrélations. Des modifications génériques à la force des couplages du Higgs (pouvant provenir de secteurs de Higgs étendus ou d'opérateurs de dimension supérieure) sont étudiées. De plus, des modèles de nouvelle physique spécifiques sont testés, notamment, mais pas seulement, le Modèle Standard Supersymétrique Minimal phénoménologique.Alors qu'un boson de Higgs a été trouvé, il n'y a toutefois nulle trace de physique au-delà du MS au run I du LHC en dépit du grand nombre de recherches effectuées par les collaborations ATLAS et CMS. Les conséquences des résultats négatifs obtenus lors de ces recherches constituent un autre volet important de cette thèse. Tout d'abord, des modèles supersymétriques avec un candidat à la matière noire sont étudiés à la lumière des résultats négatifs dans les recherches de supersymétrie au LHC, en utilisant une approche basée sur les "modèles simplifiés". Ensuite, des outils pour contraindre un modèle de nouvelle physique quelconque à partir des résultats du LHC et d'événements simulés sont présentés. De plus, au cours de cette thèse, les critères de sélection de plusieurs analyses au-delà du MS ont été réimplémentés dans le cadre de MadAnalysis 5 et ont été intégrés à une base de données publique. / Two major problems call for an extension of the Standard Model (SM): the hierarchy problem in the Higgs sector and the dark matter in the Universe. The discovery of a Higgs boson with mass of about 125 GeV was clearly the most significant piece of news from CERN's Large Hadron Collider (LHC). In addition to representing the ultimate triumph of the SM, it shed new light on the hierarchy problem and opened up new ways of probing new physics. The various measurements performed at Run I of the LHC constrain the Higgs couplings to SM particles as well as invisible and undetected decays. In this thesis, the impact of the LHC Higgs results on various new physics scenarios is assessed, carefully taking into account uncertainties and correlations between them. Generic modifications of the Higgs coupling strengths, possibly arising from extended Higgs sectors or higher-dimensional operators, are considered. Furthermore, specific new physics models are tested. This includes, in particular, the phenomenological Minimal Supersymmetric Standard Model.While a Higgs boson has been found, no sign of beyond the SM physics was observed at Run I of the LHC in spite of the large number of searches performed by the ATLAS and CMS collaborations. The implications of the negative results obtained in these searches constitute another important part of this thesis. First, supersymmetric models with a dark matter candidate are investigated in light of the negative searches for supersymmetry at the LHC using a so-called "simplified model" approach. Second, tools using simulated events to constrain any new physics scenario from the LHC results are presented. Moreover, during this thesis the selection criteria of several beyond the SM analyses have been reimplemented in the MadAnalysis 5 framework and made available in a public database.
|
338 |
Empreinte moléculaire des processus post-accrétionnels dans la matière organique des chondrites carbonées / Primordial history of the chondritic organic matterOrthous-Daunay, François-Régis 19 April 2011 (has links)
Les chondrites carbonées de type 1 et 2 comprennent les météorites les plus primitives d’un point de vue chimique et pétrologique. Ce caractère primitif est associé à l’abondance de matière organique qui est une phase privilégiée pour l’étude des phénomènes concernant l’héritage du matériel présolaire et sa transformation dans la nébuleuse puis sur les premiers corps. L’objet de cette thèse est l’étude de l’influence des processus post-accrétionnels sur les caractéristiques moléculaires de la matière organique et en particulier la mesure des effets d’oxydation dus à l’altération aqueuse. Nous avons mené une étude comparative basée sur la structure carbonée et l’analyse des fonctions oxygénées et soufrées d’une dizaine de météorites dont les histoires géologiques ont été déterminées par ailleurs. Le degré d’oxydation du soufre, hétéroatome mineur dans la fraction insoluble, a été mesuré par micro-spectrométrie SK-Xanes. La spectroscopie FT-IR a permis la description des structures fines des chaines carbonées et des fonctions riches en oxygène, hétéroatome majeur. La spectrométrie de masse à très haute résolution Orbitrap a été utilisée pour décrire la diversité hétéroatomique des molécules solubles de la chondrite Renazzo (CR2). Les chaines carbonées des chondrites de classe CI et Murchison se différencient de celle des autres météorites par une abondance en groupements terminaux méthyles à la fois supérieure et invariable. Les chondrites de type 1 sont les seules porteuses de fonctions soufrées oxydées acides alors que la spéciation du soufre dans les chondrites de type 2 est invariable. De la même façon, et cette fois pour l’ensemble des chondrites étudiées, les groupements carbonyles sont majoritairement dans les fonctions cétones, en proportion indépendante du degré d’altération aqueuse. Tous les paramètres mesurés dans cette étude nous poussent à conclure que la variabilité moléculaire au sein des chondrites carbonées de type 1 et 2 trouve moins son origine dans l’empreinte de l’hydrothermalisme que dans une hétérogénéité du précurseur organique accrété par chaque corps parent. En particulier, nos mesures invalident l’hypothèse selon laquelle l’altération serait à l’origine d’une conversion oxydative des chaines carbonées en fonctions acides carboxyliques. / Type 1 and 2 carbonaceous chondrites include the most chemically and petrologically pristine meteorites. This intactness goes along with the abundance of organic matter which is a phase of choice to investigate the presolar material processing in the nebula and then on the first bodies. The purpose of this thesis is to study the influence of post-accretional processes on the molecular characteristics of organic matter and in particular the extent of oxidation effects due to aqueous alteration. We have carried out a comparative study based on the carbon structure and functional analysis of more than ten meteorites whose geologic histories were independently determined. The redox degree of sulfur in the insoluble fraction was measured by SK-Xanes spectroscopy. FT-IR spectroscopy gave access to the fine structures of aliphatic chains and oxygen-rich functions. Orbitrap very high resolution mass spectrometry was used to describe the heteroatomic diversity of soluble molecules in the Renazzo (CR2) chondrite. The aliphatic chains of CI chondrites and Murchison differ from others by a higher and unchanging abundance of methyl groups. Type 1 chondrites are the only carriers of oxidized sulfur functions whereas the sulfur speciation in type 2 chondrites is invariable. For all studied chondrites, the carbonyl groups are mainly under the form of ketones and their abundance can’t be related to the degree of aqueous alteration. Any parameters we have measured in this study lead us to conclude that the molecular variability among type 1 and 2 carbonaceous chondrites are less due to the footprint left by the hydrothermal activity than due to the heterogeneity of an organic precursor accreted by each parent body. In particular, our measurements invalidate the hypothesis that the alteration would cause an oxidative conversion of aliphatic chains to carboxylic acid functions.
|
339 |
Recherche de variations temporelles de l’extinction interstellaire : intérêt pour la détection de matière sombre baryonique dans notre Galaxie / Search for time-variation of the interstellar extinction : Interests in baryonic dark matter detection in our GalaxyItam-Pasquet, Johanna 10 November 2016 (has links)
La structure du milieu interstellaire est très hétérogène dans notre Galaxie. Les observations, ainsi que les lois d'échelle, suggèrent que sa structure pourrait être fractale. Les plus petites structures de gaz ou clumps auraient un rayon de quelques unités astronomiques et une température de quelques kelvins, les rendant très difficilement détectables. Ces nuages de gaz moléculaires froids et denses peuvent donc être des candidats peu lumineux à une matière noire baryonique.L'objectif de cette thèse est de trouver des indices observationnels de l'existence de ces sous-structures gazeuses. La méthodologie consiste à comparer les magnitudes apparentes d'étoiles à différents intervalles de temps et vers plusieurs directions dans la Galaxie; afin de détecter des variations photométriques temporelles compatibles avec un événement d'obscurcissement. En effet, si un nuage moléculaire se trouve en amont d'une étoile, celle-ci sera obscurcie ou occultée par les sous-structures composant le nuage moléculaire, pendant une certaine durée de temps (dépendant de la vitesse de chaque objet et du temps d'observation considéré). Dans un premier temps, nous avons effectué un traitement photométrique complet pour chercher de tels événements dans l'amas globulaire NGC 4833 en comparant des observations photométriques séparées de six mois. Cet amas fut observé par D. Puy et D. Pfenniger en janvier et juillet 2006. Puis, nous avons utilisé des observations de plusieurs amas globulaires observés par le télescope Hubble, dont la photométrie est connue et rendue publique.Finalement, nous avons développé des méthodes d'apprentissage automatique afin de détecter des événements d'obscurcissement dans le Sloan Digital Sky Survey, Stripe 82.Aucun événement d’obscurcissement d'étoiles n'a pu être détecté ni dans la direction des amas globulaires considérés ni dans la région de Stripe 82. Néanmoins, des simulations d'un nuage fractal ont été réalisées pour estimer la probabilité d’occurrence du phénomène d'obscurcissement d'étoiles. Elles montrent que l’événement est extrêmement rare, ce qui permet d'émettre une nouvelle stratégie d'observation pour augmenter les chances de détecter de tels événements. De plus, les méthodes d'apprentissage automatique utilisées pour cette étude sont appliquées à d'autres objets variables tel que les quasars, très nombreux dans Stripe 82, et peuvent être utilisées pour d'autres objets variables tels que les supernovae. / The scaling laws and the very appearance of the interstellar medium suggest that this medium might have a fractal structure. The smallest structure of gas called clumps might have a radius about few astronomical units and a very low temperature of few kelvins, making them very difficult to detect. That is why, cold, dense, molecular clouds could be ideal candidates for baryonic dark matter. Because of their low temperature, they do not radiate, and seem to be dark.The aim of this thesis is to highlight observational clues on the existence of clumps by comparing apparent magnitudes of stars at different times, and towards different directions in the Galaxy. If a molecular fractal cloud lies behind a star, it will be obscured or occulted within a certain time (depending on the velocity of each object and on observational time). Therefore the goal of this thesis is to detect magnitude-time variations of stars compatible with an obscuration event.First, we did a complete photometric data reduction of observations of a globular cluster, NGC 4833, carried out by D. Puy and D. Pfenniger in January and July 2006. We wanted to detect obscuration events of stars in NGC 4833, in a six-month period. Then, we used public data of several globular clusters observed by the Hubble Space telescope.Finally, we developed machine learning methods to detect obscuration events in the Sloan Digital Sky Survey, Stripe 82.No obscuration events were detected either in several globular clusters, or in the Stripe 82 survey. However, we performed simulations of a fractal cloud to estimate probabilities of obscuration events. They show that such events are very rare, allowing us to develop a new observational strategy for increasing the probability of detecting obscuration events. Moreover, machine learning methods used in this study are applied to other variable objects, such as quasars which are numerous inside Stripe 82 survey, and could be used to other variables objects such as supernovae for example.
|
340 |
From two Algebraic Bethe Ansätze to the dynamics of Dicke-Jaynes-Cummings-Gaudin quantum integrable models through eigenvalue-based determinants / De deux Ansätze de Bethe Algébriques à la dynamique des modèles intégrables quantiques de Dicke-Jaynes-Cummings-Gaudin via des déterminants reposant sur les valeurs propresTschirhart, Hugo 12 July 2017 (has links)
Le travail présenté dans cette thèse est inspiré de précédents résultats sur les modèles de Gaudin ne contenant que des spins-1/2 (ces modèles sont intégrables) qui, par un changement de variable dans les équations de Bethe algébriques, parviennent à simplifier le traitement numérique de ces modèles. Cette optimisation numérique s'effectue par l'intermédiaire d'une construction en déterminant, ne dépendant que des variables précédemment mentionnées, pour chaque produit scalaire intervenant dans l'expression de la moyenne d'une observable à un temps donné. En montrant qu'il est possible d'utiliser la méthode du Quantum Inverse Scattering Method (QISM), même dans un cas où l'état du vide n'est pas état propre de la matrice de transfert, les résultats précédents concernant uniquement des spins-1/2 sont généralisés à des modèles contenant en plus une interaction spin-boson. De fait, cette généralisation a ouvert plusieurs voies de recherche possibles. Premièrement, il est montré qu'il est possible de continuer à généraliser l'utilisation de déterminants pour des modèles de spins décrivant l'interaction d'un spin de norme arbitraire avec des spins-1/2. La méthode permettant d'obtenir la construction des expressions explicites de ces déterminants est donnée. On peut également pousser la généralisation à d'autres modèles de Gaudin dont l'état du vide n'est pas état propre de la matrice de transfert. C'est ce que nous avons fait pour des spins-1/2 en interaction avec un champ magnétique dont l'orientation est arbitraire. Enfin, un traitement numérique de ces systèmes de spins-1/2 interagissant avec un mode bosonique est présenté. L'évolution temporelle de l'occupation bosonique et de l'aimantation locale des spins est ainsi étudiée selon deux Hamiltoniens différents, l'Hamiltonien de Tavis-Cummings et un Hamiltonien type spin central. Cette étude nous apprend que la dynamique de ces systèmes, qui relaxent d'un état initial vers un état stationnaire, conduit à un état superradiant lorsque l'état initial choisi y est favorable / The work presented in this thesis was inspired by precedent results on the Gaudin models (which are integrable) for spins-1/2 only which, by a change of variables in the algebraic Bethe equations, manage to considerably simplify the numerical treatment of such models. This numerical optimisation is carried out by the construction of determinants, only depending on the previously mentioned variables, for every scalar products appearing in the expression of the mean value of an observable of interest at a given time. By showing it is possible to use the Quantum Inverse Scattering Method (QISM), even when the vacuum state is not eigenstate of the transfer matrix, the previous results concerning spins-1/2 only are generalised to models including an additional spin-boson interaction. De facto, this generalisation opened different possible paths of research. First of all, we show that it is possible to further generalise the use of determinants for spin models describing the interaction of one spin of arbitrary norm with many spins-1/2. We give the method leading to the explicit construction of determinants’ expressions. Moreover, we can extend this work to other Gaudin models where the vacuum state is not an eigenstate of the transfer matrix. We did this work for spins-1/2 interacting with an arbitrarily oriented magnetic field. Finally, a numerical treatment of systems describing the interaction of many spins-1/2 with a single bosonic mode is presented. We study the time evolution of bosonic occupation and of local magnetisation for two different Hamiltonians, the Tavis-Cummings Hamiltonian and a central spin Hamiltonian. We learn that the dynamics of these systems, relaxing from an initial state to a stationary state, leads to a superradiant-like state for certain initial states
|
Page generated in 0.0566 seconds