531 |
Modélisation du comportement mécanique des engrenages en polymère / Mechanical behaviour model in the case of polymer cylindrical gearsLetzelter, Eric 10 February 2011 (has links)
Les engrenages en matériau polymère sont de plus en plus utilisés dans des domaines variés, notamment dans des applications automobiles, où il est courant de trouver des engrènements polymère / métal ou polymère / polymère. Pour bon nombre d’applications, les polymères choisis pour réaliser des engrenages moulés ou taillés sont des semi-cristallins de type polyamides (nylon). Néanmoins, leur caractère viscoélastique introduit une difficulté supplémentaire dans la modélisation. En effet, le comportement viscoélastique des polymères dépend de la température et de la vitesse de rotation. Pour les Polyamides, il dépend également de l’humidité. Par conséquent, la viscoélasticité peut influencer la répartition des charges, l’erreur de transmission sous charge, la raideur d’engrènement… Dans cette thèse, une méthode numérique originale modélisant le comportement mécanique des engrenages en Polyamide 6,6 est proposée. L’approche développée utilise le modèle rhéologique linéaire de Kelvin généralisé pour simuler le comportement viscoélastique du matériau et prendre en compte la température, la vitesse de rotation et l’humidité. Ensuite ce modèle rhéologique est intégré dans le modèle quasi-statique du partage des charges développé par le LaMCoS. Ce processus de calcul permet d’obtenir les résultats essentiels pour les engrenages (répartition des charges, pressions de contact, erreur de transmission sous charge, raideur d’engrènement) avec un temps de calcul assez court. Enfin, un banc expérimental avec des engrenages en Polyamide 6,6 est développé et fabriqué dans le cadre de cette thèse. Il permet d’obtenir deux résultats : la température de l’engrenage pendant son fonctionnement et l’erreur de transmission sous charge. Cette dernière permet de valider le modèle quasi-statique du partage des charges. / Polymer gears are increasingly used, especially in automotive applications, where it is common to find meshing polymer / metal or polymer / polymer.For many applications, the polymer selected to produce gears by cutting or by injection moulding is polyamide (nylon) which has semi-crystalline structure. However, the viscoelastic character of Polyamide material introduces an additional difficulty in modeling. Indeed, the viscoelastic behavior of polymers is temperature and rotation speed dependent. In addition for polyamides, it also humidity dependent. Therefore, viscoelasticity influences the load sharing, the load transmission error, the meshing stiffness... In this thesis, an original numerical method modeling the mechanical behavior of polyamide 6.6 gears is proposed. This approach uses the linear rheological model of generalized Kelvin to simulate the viscoelastic behavior of the material and take into account the temperature, speed and humidity. The rheological model is integrated into the quasi-static load sharing model developed by the LaMCoS. This process provides the essential results for gears (load sharing, contact pressure, load transmission error, meshing stiffness) with short computation time. Finally, an experimental test bench with Polyamide 6.6 gears is developed. It provides two experimental results: the temperature of the gear during operation and the load transmission error which validates the quasi-static load sharing model
|
532 |
On a PGD model order reduction technique for mid-frequency acoustic / Technique de réduction de modèle PGD en acoustique en moyennes fréquencesBarbarulo, Andrea 30 November 2012 (has links)
Aujourd'hui, les outils de simulations numériques sont omniprésents dans l'industrie, que ce soit dans l'industrie aéronautique, aérospatiale, ferroviaire ou automobile.En effet leur utilisation limite la fabrication (souvent très couteuse) de prototype, et permettent ainsi de réduire les couts et d'accélérer la phase de conception d'un nouveau produit.Dans le cadre des applications acoustiques, il est souvent recommandé de calculer la réponse sur l'ensemble de la bande de fréquences d'intérêt.Les outils de simulation numérique sur une bande de fréquences impliquent généralement plusieurs calculs à fréquences fixes.Même si c'est un moyen simple et naturel pour répondre au problème posé, une telle stratégie peut facilement conduire à des calculs énormes. Cela est particulièrement vrai dans la gamme des moyennes fréquences, où la réponse est particulièrement sensible à la fréquence.Dans cette thèse, la PGD (Proper Generalized Decomposition), est appliqué pour trouver une représentation fonctionnelle distincte de la fréquence et de l'amplitude des inconnues de la TVRC (théorie variationnelle des rayons complexes) sur une bande de fréquences donnée.Ceci permet d'obtenir une réponse de haute qualité sur une large bande en moyennes fréquences, sans nécessité de discrétisation fine de la plage de fréquences considérées. En outre, la représentation PGD de la solution permet d'économiser une grande quantité d'espace en terme de stockage de données. Dans un second temps, la technique PGD a été étendue à la stochastique. / In many industrial contexts, such as aerospace applications or cars design, numerical prediction techniquesbecome more and more useful. They restrict the use of real prototypes to a minimum and make easier thedesign phase. In such industries and in the specific for acoustic, engineers are interested in computing theresponses of systems on frequency bands. In order to predict the vibration behavior of systems overfrequency bands, standard numerical techniques usually involve many frequency-fixed computations, atmany different frequencies. Although it is a straightforward and natural mean to answer to the posed problem,such a strategy can easily lead to huge computations, and the amount of data to store often increasessignificantly. This is particularly true in the context of medium frequency bands, where these responses havea strong sensitivity to the frequency. In this work PGD (Proper Generalized Decomposition), in a first time, isapplied to found a separate functional representation over frequency and space of the unknown amplitude ofVTCR (Variational Theory of Complex Rays) formulation on a reduced frequency space. This allows tocalculate an high quality mid-frequency response over a wide band without a fine frequency discretization,saving computational resources. Moreover the PGD representation of the solution allows to save a hugeamount of space in term of stored data. In a second time, PGD technique as been applied to extend itspeculiarity to mid-frequency wide band with uncertainty.
|
533 |
Development of quantitative methods for the following of tumoral angiogenesis with dynamic contrast-enhanced ultrasound / Développement de methodes quantitatives pour le suivi de l'angiogenese tumorale par échographie de contraste ultrasonoreBarrois, Guillaume 30 September 2014 (has links)
L'objectif de ce travail était de développer des méthodes pour permettre une évaluation in vivo plus robuste du réseau vasculaire dans la tumeur par imagerie de contraste ultrasonore. Trois aspects de l'analyse de donnée ont été abordé: 1) la régression des modèles paramétriques de flux sur les données de puissance linéaire, 2) la compensation du mouvement 3) l’évaluation d’une méthode de clustering pour identifier les hétérogénéités dans les tumeurs. Un modèle multiplicatif est proposé pour décrire le signal DCE-US. Une méthode de régression en est dérivée. La caractérisation du signal permet la mise au point d’une méthode de simulation de séquences 2D+T. La méthode de régression permet une diminution de la variabilité des paramètres de flux fonctionnels extraits, sur données simulées expérimentales. La méthode de simulation est appliquée pour évaluer une méthode combinant estimation du mouvement et estimations des paramètres micro-vasculaires dans un unique problème mathématique d'optimisation. Cette nouvelle méthode présente en plus l'avantage d'être indépendante de l'opérateur. Il est montré que dans une large majorité des cas l'estimation du mouvement est meilleure avec la nouvelle méthode qu'avec une méthode de références. Une méthode de clustering est adaptée et évaluée sur données DCE-US simulées et in-vivo. Elle permet de détecter des hétérogénéités dans la structure vasculaire des tumeurs. Les méthodes développées permettent d'améliorer l’évaluation du réseau microvasculaire par DCE-US grâce à une description rigoureuse du signal, à la mise au point d'outil diminuant l'intervention de l'opérateur et la prise en compte de l'hétérogénéité du réseau vasculaire. / This work aimed to develop methods to robustly evaluate in vivo functional flow within the tumor vascular network with Dynamic contrast-enhanced ultrasound (DCE-US). Three aspects of data analysis were addressed: 1) insuring best fit between parametric flow models and the experimentally acquired echo-power curves, 2) compensating sequences for motion and 3) evaluating a method to discriminate between tissues with different functional flow. A multiplicative model is proposed to describe the DCE-US signal. Based on this model, a new parametric regression method of the signal is derived. Characterization of the statistical properties of the noise and signal is also used to develop a new method simulating contrast-enhanced ultrasound 2D+t sequences. A significant decrease in the variability of the functional flow parameters extracted according to the new multiplicative-noise fitting method is demonstrated using both simulated and experimentally-acquired sequences. The new sequence simulations are applied to test a method combining motion estimation and flow-parameter estimation within a single mathematical framework. Because this new method does not require the selection of a reference image, it reduces operator intervention. Tests of the method on both simulations and clinical data and demonstrate in a majority of sequences a more accurate motion estimation than the commonly used image registration method. Finally, a non-parametric method for perfusion curve clustering is evaluated on 2D+t sequences. The aim of this method is to regroup similar filling patterns without a priori knowledge about the patterns. The method is tested on simulated and on pre-clinical data.
|
534 |
Le soleil comme laboratoire des pratiques scientifiques / The Sun as laboratory of scientific practicesBeaubois, Francis 27 June 2014 (has links)
Cette thèse analyse la manière dont l'émergence d'un nouvel objet de science, le Soleil, entraîne une réorganisation des champs disciplinaires ainsi que la transformation des pratiques scientifiques et leurs interactions. Ce travail couvre une période suffisamment longue afin de mieux restituer cette évolution complexe, allant de 1820 à 1930. Il ressort qu'une véritable physique du Soleil n'a pu émerger qu'avec la constitution de la thermodynamique. Elle rend ainsi possible de penser physiquement le Soleil. Avant cela, les sciences étaient encore séparés selon leurs objets et leur méthode. Mais ce nouvel objet se trouve avec un statut hybride, suspendu entre le domaine des sciences d'observation et des sciences d'expérimentation. La physique solaire se développe néanmoins à partir du milieu du XIXe siècle selon le rythme des découvertes et des innovations techniques. Dans les années 1860, Hervé Faye et Angelo Secchi proposent de vastes synthèses, représentatives d'un style typiquement humboldtien. Cependant, ces théories globales et qualitatives montrent leur limite au début du XXe siècle. Les progrès théoriques et instrumentaux, notamment avec la mise au point du bolomètre de Samuel Langley, aboutissent à l'apparition de la notion de modèle mathématique chez Eddington, et signe l'émergence d'une nouvelle approche théorique en astrophysique, et conjointement dans d'autres secteurs comme la cosmologie. Cette nouvelle approche fait plus que légitimer l'extrapolation des lois physiques aux astres, elle en fait de véritables laboratoires naturelles. Ainsi, au terme de cette période, nous passons du Soleil hors du laboratoire au Soleil comme laboratoire. / This thesis provides an analysis of the processes that led to the emergence of a new scientific object, the Sun. It underscores, over a long period from 1820 to 1930, how these processes led to a reorganization of scientific disciplines and to the corresponding transformation of scientific practices. We argue that thermodynamics provided the first theoretical framework in which a genuine solar physics could be developed. Before that, the status of this new scientific object remained ill-defined, suspended between experimental sciences and observational sciences, due to the division of scientific disciplines according to their objects and their method. On the basis of many observational and experimental techniques developed in the first part of the century, Hervé Faye and Angelo Secchi respectively offered, in the 1860s, the first rational syntheses about the physical constitution of the Sun. These holist and qualitative theories, representative of a Humboldtian style, soon appeared to lead to a dead-end. Progress in instrumentation, especially with the work of Samuel Langley and his bolometer, pursued in the laboratory through the physics of black body, led Arthur Eddington to a new approach based on mathematical model. His work gave the impetus to a new branch of theoretical astrophysics. At this time, this new approach not only legitimated the extrapolation of the laws of physics to the stars, but also transformed the stars into genuine natural laboratories. Thus, through the complex history, we follow how the Sun, once thought as being outside of the laboratory's reach, became itself construed as a laboratory.
|
535 |
Optimisation de modèles comportementaux de composants pour la prédiction de défaillances fonctionnelles et matérielles liées aux décharges électrostatiques (ESD) / Behavioral model optimization of components for the prediction of soft and hard failures caused by electrostatic discharge (ESD)Escudié, Fabien 11 December 2018 (has links)
Les événements transitoires de forte puissance (EFT - Electrical Fast Transient) sont l'une des préoccupations des concepteurs de systèmes embarqués. Ils peuvent conduire au dysfonctionnement du système et sont à l'origine d'un grand nombre de défaillances matérielles et fonctionnelles. Notre étude est principalement portée sur l'impact des décharges électrostatique (ESD - Electro Static Discharge) sur l'électronique embarquée dans un véhicule. D'après une étude de Renault, un véhicule peut subir deux décharges par jour durant sa vie. Les ingénieurs systèmes ne disposent pas de moyen pour prédire l'impact de ces décharges dans les systèmes, et les solutions actuelles sont essentiellement basées sur l'expérience. Afin de prédire le chemin d'un ESD dans tout le système électronique et la stratégie de protection à adopter pour protéger les composants les plus sensibles, des recherches dans le monde entier sont en cours. Les travaux de recherche du groupe ESE du LAAS-CNRS ont mené à des méthodologies de modélisation de composant passif, de circuit intégré et de carte électronique en VHDL-AMS. Les circuits intégrés sont dotés d'un réseau de protection ESD interne qui permet de détourner le stress des zones critiques. La méthodologie développée au cours des précédentes années permet de modéliser le comportement de ce réseau de protection. Cependant, ces modèles sont rudimentaires, ils décrivent uniquement le niveau de déclenchement de la protection et son impédance quasi-statique en fonction du niveau de stress ESD. Aucune information sur le comportement transitoire de la protection n'est décrite dans le modèle. Il est donc difficile de prévoir certaines défaillances liées aux phénomènes transitoires de déclenchement des protections faisant apparaitre de très fortes surtensions ou des niveaux de courant mal évalués. Les différents aspects abordés durant cette thèse permettent de résoudre ces problèmes en proposant des modèles dynamiques, et différentes méthodes pour pouvoir extraire les paramètres des modèles.[...] / Electrical Fast Transient (EFT) are one of the concerns of embedded system engineers. They can lead to system malfunction. EFT are the cause of a large number of hardware and software failures. Our study is mainly focused on the impact of Electro Static Discharge (ESD) on embedded electronic systems, focusing on car's applications. According to a Renault's study, a car can suffer two discharges per day during its entire life. System engineers do not have any tools to predict the ESD impact on the systems. In order to predict the ESD path throughout the electronic system and adjust the ESD protection strategy to provide proper protection for all critical components, some researches around the world are in process. The research results from ESE working group from the LAAS-CNRS laboratory, were mainly on passive components, integrated circuits and electronics boards modeling methods, implemented in VHDL-AMS language. Integrated circuits have an internal ESD protection network that helps to deflect the stress from critical areas. The methodology developed in the last few years allows to model the behavior of this protection network. However, these models are basically made, they are made of the triggering level of the protection and the impedance value of the component depending on the ESD stress amplitude. No information on the transient behavior of the protections is included in this model. It is not possible to predict some failures related to the transient phenomenon of the protection like triggering and turning on time that induce very high overvoltage or mismatch on the current levels estimation. The various topics covered during this thesis allows to solve these problems by using a, proposed dynamic model. Different methods are proposed to extract the parameters used into the dynamic model. One important point also aborted into this document is that the model have to be able to predict the soft failure which can appear in the system during an ESD stress.[...]
|
536 |
Modélisation et simulation informatique de la transmission nerveuse / Modelisation and simulation of synaptic transmissionGreget, Renaud 25 November 2011 (has links)
Au cours des dernières années, la biologie et plus généralement la recherche médicale, a connu des avancées majeures grâce aux nombreux progrès de la microscopie, de la génétique, de la biologie moléculaire, de la protéomique, et du séquençage à haut débit. Il s’agit maintenant d’identifier à partir de toutes ces données gigantesques, les grandes lois de la biologie. Le principe de la biologie intégrative ou systémique est de poser les bases d'une véritable théorie de l'organisation fonctionnelle du vivant à partir des différents mécanismes découverts expérimentalement. De la même manière que l'on décrit la matière par les théories des mathématiques, de la physique, et de la chimie, on veut pouvoir comprendre, formaliser et modéliser le fonctionnement des mécanismes du vivant. Cette thèse a consisté à réaliser une bibliothèque de modèles fonctionnels des réactions chimiques qui prennent place dans les cellules nerveuses aussi appelés modèles élémentaires et de les assembler afin d’obtenir un système mimant le plus finement possible les mécanismes de la propagation du signal électrique au sein d’une synapse. Les travaux réalisés jusqu'alors ont permis de modéliser les mécanismes essentiels et de reconstituer le comportement d’une synapse glutamatergique. En particulier, l’utilisation de cette nouvelle méthode de recherche et de développement de médicaments a pour objectif de proposer des molécules innovantes, en optimisant leurs propriétés biochimiques. Cette technique permettra, dans un futur proche, l'avènement d'une nouvelle génération de pharmaceutiques, dit multi-cibles, c'est-à-dire permettant d'intervenir sur les différents mécanismes d'une pathologie. / In recent years, biology and medical research more generally, has seen major advances in microscopy, genetics, molecular biology, proteomics, and high-throughput sequencing. We now identify from these huge data, the great laws of biology. The principle of integrative biology or systemic is to defined the basis of the foundations for a theory of the functional organization of living from different mechanisms discovered experimentally. In the same way that matter is described by the theories of mathematics, physics, and chemistry, we want to understand, formalize and model the functioning of living mechanisms. This thesis has been to achieve a library of functional models of chemical reactions that take place in nerve cells also called elementary models and assemble them to obtain a system mimicking the finest possible mechanisms of electrical signal propagation within of a synapse. The work done so far allow us to model the essential mechanisms and reconstruct the behavior of a glutamatergic synapse. In particular, the use of this new method of research and drug development aims to offer innovative molecules by optimizing their biochemical properties. This technique will, in the near future, the advent of a new generation of pharmaceuticals, said multi-target, able to intervene on the different mechanisms of disease.
|
537 |
Diagnostic et quantification des flux nappe - rivière : modélisations hydrodynamique et géochimique du bassin versant de l'Yvette amont (France) / Diagnostic and quantification of groundwater inflows to small stream : Hydrological and Geochemical modeling approaches on the Yvette amont catchment (France)Lefebvre, Karine 10 December 2015 (has links)
Dans le contexte péri-urbain à dominance agricole de l’Ile de France, les pressions anthropiques exercées sur les rivières jouent autant sur la qualité que sur le débit des cours d'eau. Située au sud-ouest de Paris, l’Yvette draine un bassin versant de 202 km²et à la géologie homogène. Elle est alimentée directement par des stations d'épuration (STEP) et par la nappe des sables de Fontainebleau qui représente la principale source d’eau. Sur ce type de bassin, la gestion durable du système riverain repose sur la connaissance de la distribution des flux nappe – rivière et sur l’impact de cette répartition sur la qualité des cours d’eau.La dynamique des flux d’eau a été suivie grâce à l’implantation de stations hydrométriques aux points clés du réseau hydrographique (i.e. exutoires des principaux affluents, aval des confluences sur l’Yvette). Les flux chimiques ont été étudiés par analyses d’échantillons d’eau recueillis lors de campagnes de terrain effectuées en période d’étiage sur les cours d’eau. Un modèle conceptuel global, calibré à partir des chroniques de débit, a permis (i) d’estimer des variations spatiales de la recharge de la nappe (60 – 160 mm.an-1), et (ii) d’établir une répartition journalière des parts d’eau de nappe, de STEP et de ruissellement en rivière, pour la période 2001-2014. Par ailleurs, l’analyse des traceurs géochimiques (e.g. Cl-, NO3-, SO42-) et isotopiques (222Rn, δ18Oeau, δ2Heau) soutient la prédominance, aussi bien quantitative que qualitative, de la nappe sur les rivières.D’un point de vue hydrodynamique, le contexte géomorphologique homogène procure aux rivières une dynamique similaire avec des épisodes de crues très courts (de l’ordre de quelques heures) et des périodes d’étiages marqués, quelle que soit la saison. L’étude par sous-bassin a mis à jour une différence entre les bassins topographiques et les bassins d’écoulement souterrains, créant des déficits hydriques sur l’amont de certains cours d’eau (e.g. Mérantaise, Ru des Vaux) au profit d’autres (e.g. Rhodon). Le parallèle entre bassins topographique et souterrain n’a pu se faire qu’au niveau du cours principal de l’Yvette. Sur la période 2001-2014, le débit de l’Yvette provient en moyenne à 55 % de la nappe, à 38 % du ruissellement et à 8 % des STEP. En période de basses eaux, la contribution des STEP reste sensiblement identique tandis que la nappe constitue la principale alimentation des rivières (90 %), contrôlant donc leur qualité. Mais la composition chimique de ce soutien souterrain n’est pas homogène. Pour déterminer l’origine de ces disparités, un travail à plus petite échelle a été conduit sur un affluent majeur de l’Yvette (le Rhodon). La décharge de la nappe en rivière y est bimodale : 15 % arrive par voie souterraine et 85 % transite par les milieux humides en surface. Au sein des zones humides sont observées de fortes hétérogénéités dans les écoulements et leur chimie, avec des flux de subsurface totalement épurés en nitrates et du ruissellement riche en nutriments. La prédominance de des flux de surface réduit fortement le pouvoir épurateur des milieux humides, avec seulement 6 % des eaux de nappe épurées avant leur décharge en rivière. Cette faible efficacité renforce l’impact direct de la qualité de la nappe sur les rivières. Sur le bassin, la nappe est stratifiée par l’intervention de nombreux processus de recharge (infiltrations d’eau d’étang, de STEP, de zones humides de plateau). Les petits sous-bassins (< 50 km²) semblent dominés par cette stratification, ainsi que par les apports de STEP qui contribuent aux flux chimiques des rivières à hauteur de 30 à 50 %. Le cours principal de l’Yvette, dans sa partie aval, dépend des mélanges issus des confluences avec ses affluents. Les outils utilisés ici ont donc mis en avant les différences de fonctionnement des bassins selon l’échelle concernée, tout en reliant l’importance de la compréhension du système à petite échelle pour la gestion à grande échelle. / In the peri-urban context with large farm practices of the Paris region, anthropogenic pressures on streams and rivers impact both their flow and quality. Located in the southwestern of Paris, the Yvette stream drains a watershed of 202 km², in a homogeneous geological context. The stream is sustained by waste water treatment plant (WWTP) and by the Fontainebleau sands aquifer which represents the main source of water.In this context, the sustainable management of the stream and its riparian zones needs the assessment of groundwater discharge locations and chemistry, and their impact on the stream water quality.Water fluxes in the stream and in its main tributaries have been recorded at 11 stations. Dissolved elements distributions have been studied by field works in low-flows conditions. A lumped model, calibrated with stream flow hydrographs, has allowed (i) the estimation of groundwater recharge rates (60 – 160 mm.y-1) and (ii) the distribution of stream flow contributions between 2001 and 2014 (i.e. 55 % from groundwater, 38 % from runoff and 8 % from WWTP). Moreover, the use of geochemical and isotopic tracers (e.g. Cl-, NO3-, SO42-, 222Rn, δ18Owater, δ2Hwater) confirmed the large impact of groundwater on stream flow and quality.The hydrological dynamics of the Yvette stream and its tributaries are similar because of the homogeneity of the geomorphological context of the catchment. The flood events are really fast (on the order of hours) and low-flow conditions can be observed in every season. The discretization of the Yvette catchment in 11 sub-watersheds highlighted a divergence between the topographical and hydrogeological catchments. This generates a water deficit in some tributaries heads (e.g. Mérantaise, Ru des Vaux) in favor of some others (e.g. Rhodon). The matching limits of these catchments can only be made on the Yvette channel. During the 2001 – 2014 period, considering a fairly constant WWTP contribution, the groundwater discharge provides more than 90 % of the stream flow during low-flow conditions. This highlights a stream quality dominated by groundwater discharge. However, groundwater chemistry largely varies over the catchment. To study this phenomenon, a small-scale field work has been directed on the Rhodon stream, a main tributary of the Yvette River. At this scale, the groundwater discharge appeared to have two main pathways: 15 % come from the streambed while 85 % transit in wetlands before going to the stream. Within these wetlands, a large part of groundwater flows at the surface and has high levels of nutrients, whereas a small part (6 %) goes through sediments and is nutrients free. reduces The purifying power of these wetlands, significantly reduced by this distribution, is likely related to historical drainage and reinforces the direct connection between the stream and groundwater quality. On the Yvette catchment, the stratification of groundwater chemistry is due to several recharge processes (e.g. pond water infiltration, WWTP effluents infiltration, wetlands water infiltration). Small sub-watersheds (< 50 km²) seem to be dominated by (i) this stratification, and (ii) the WWTP discharges which can contribute from 30 % to 50 % to dissolved fluxes in the streams. The main channel of the Yvette stream primarily depends of the mixing of its tributaries waters. The methods developed here allowed highlighting (i) differences of catchment functioning according to the scale used, and (ii) the utmost importance of the small-scale assessment to understand/decipher and manage streams at larger scales.
|
538 |
Fate and transport of quinolones at iron oxides/water interface / Devenir et transport des quinolones à l'interface oxydes de fer/eauCheng, Wei 18 November 2019 (has links)
En raison de leur utilisation accrue, de nombreux contaminants émergents, comme les antibiotiques de type quinolone sont retrouvés dans l’environnement. Leur devenir étant fortement contrôlé par leur interaction avec surfaces minérales, cette thèse a eu pour objectif de comprendre et prédire l’adsorption de quinolones sur des minéraux dans des conditions environnementales variées (pH, salinité, présence de cations et d’anions naturels, etc…) et de développer des modèles de transport réactif. Une approche innovante a alors été développée, combinant des données cinétiques et thermodynamiques, des mesures spectroscopiques in situ et de la modélisation de la complexation de surface. Cette thèse est divisée en deux sections. La première a eu pour but de déterminer les mécanismes de complexation de quinolones sur des oxydes de fer (goethite et magnétite) dans des conditions réduites et dans l’eau de mer. La stœchiométrie de la magnétite (Fe(II)/Fe(III)) s’est avéré être un facteur majeur de contrôle de l’adsorption de l’acide nalidixique (NA). Les effets compétitifs et coopératifs de différents ions présents dans l’eau de mer ont pu être prédits avec précision en réacteur fermé et en colonne (conditions de flux). La deuxième partie de la thèse s’est penchée sur les interactions entre goethite avec des ligands ubiquistes dans l’environnement, comme la matière organique naturelle (MON), et leur impact sur le transport de quinolones. L’adsorption de NA sur la goethite en présence et en l’absence de MON, ainsi que le fractionnement de la MON, ont été étudiés en colonne. Ces résultats pourraient permettre de mieux comprendre et prédire le devenir des quinolones dans l’environnement. / Due to their extensive use, many emerging contaminants, such as quinolone antibiotics, are released to the environment. Because their environmental fate is largely controlled by their interaction with mineral surfaces, such as iron oxides, this thesis aimed to assess quinolones adsorption onto minerals under environmental relevant conditions (pH, ionic strength, presence of ubiquitous cations and anions, etc.) and develop reactive transport models. To address these issues, an innovative approach combining kinetic and thermodynamic data, in situ spectroscopic measurements and surface complexation modeling, was proposed. This thesis manuscript consists of two parts. The first part investigated the binding mechanisms of quinolones onto iron oxides (goethite and magnetite) under reducing or seawater conditions. Considerable impact of the magnetite stoichiometry (Fe(II)/Fe(III)) on its sorption capability towards nalidixic acid has been demonstrated. Competitive and synergetic effects of different seawater ions on quinolone adsorption to goethite were accurately predicted under static and water saturated flow-through conditions. The second part investigated the interactions of goethite with naturally occurring ligands such as natural organic matter (NOM) and their impacts on the mobility/transport of quinolones. Interactions of NOM and goethite and effects on the surface hydrophilicity were first investigated. Then, nalidixic acid adsorption to goethite and to NOM-covered goethite and NOM fractionation were examined under flow-through conditions. These results may have important implications for assessment and prediction of the fate of quinolones antibiotics in the environment.
|
539 |
Optimisation de dépôts de LIPON par pulvérisation magnétron RadioFréquence pour la fabrication de micro-batteries. Modélisation de l'interaction plasma-surface / Optimisation of LIPON deposit by RadioFrequency magnetron sputtering for micro-batteries production. Plasma-surface interaction modelingArbeltier, Steven 05 June 2018 (has links)
La miniaturisation des batteries est devenue un défi technologique pour certaines industries. Ces micro-batteries, d’une dizaine de micromètres d’épaisseur, ont pour objectif d’alimenter des systèmes de taille réduite. Le LIPON est un des électrolytes envisagés pour leur fabrication. Il est déposé en couche-mince par pulvérisation magnétron radiofréquence de Li₃PO₄ sous plasma d’azote. Cette thèse étudie le comportement des particules au sein du plasma et formant le dépôt. Des mesures expérimentales d’émission optique et de densité électronique ont été mises en place, afin de fournir des données d’entrée et de validation pour différents modèles numériques. Le premier modèle décrit la cinétique réactionnelle au coeur du plasma, en 0D, afin d’identifier les espèces chimiques majoritaires et les réactions dominantes. Ceci a permis de concevoir une cinétique simplifiée pour le second modèle, 2D, traitant le déplacement des espèces chargées dans le plasma et permettant de caractériser la pulvérisation de la cible par les ions, tant au niveau des zones de pulvérisation de leur énergie et angle d’incidence. Les résultats obtenus ont été employés dans un modèle 3D simulant les trajectoires des atomes pulvérisés, afin d’étudier la répartition atomique sur le substrat et de déduire la composition de la couche mince déposée. Des caractéristiques propres à la cible lors de la pulvérisation ont été mises en évidence et confirmées par la comparaison entre les résultats numériques et expérimentaux. / The scale reduction of batteries is a real technological challenge for the near future. These micro-batteries, about ten micrometers thick, are used to supply the power for small sized systems. LIPON is one of the most suitable electrolytes considered for industrial scale production. It is deposited in thin-film by radiofrequency magnetron sputtering of Li₃PO₄ in nitrogen plasma. This thesis is focused on particles behavior in plasma and during deposition. Optical emission spectroscopy and electron density measurements have been performed, to provide data used as input or validation for several numerical models. The first model describes plasma kinetics in the magnetron reactor, as 0D global model, and helps to identify the main chemical species and important reactions. This information has been useful to define a simplified kinetics for the second model, 2D, dealing with the charged species behavior in the plasma and describing target sputtering by ion bombardment. It provides the sputtered areas, ion energy and impinging angle onto the target. These obtained results have been employed in a 3D model that simulates sputtered atoms transport from the target to the substrate and predicting the thin-film features. Some characteristics of the target during sputtering have been highlighted and confirmed by the direct comparison between numerical and experimental results.
|
540 |
Sensibilité et incertitude de modélisation sur les bassins méditerranéens à forte composante karstique / Sensitivity and uncertainty associated with the numerical modelling of groundwater flow within karst systemsMazzilli, Naomi 09 November 2011 (has links)
Les aquifères karstiques sont associés à des enjeux importants en termes à la fois de gestion de la ressource en eau et de gestion du risque d'inondation. Ces systèmes sont caractérisés par une structure fortement hétérogène et un fonctionnement non-linéaire. Cette thèse est consacrée à l'étude de la sensibilité et de l'incertitude associés à la modélisation numérique des écoulements en milieu karstique. De façon systématique, l'analyse de sensibilité est utilisée comme outil afin de répondre aux questions suivantes: (i) la calibration est-elle possible ? (ii) la calibration est-elle robuste ? (iii) est-il possible de réduire l'équifinalité via une calibration multi-objectif ou multi-variable ?Cette contribution met en évidence le potentiel des méthodes locales d'analyse de sensibilité. En dépit des limitations inhérentes à cette approche (approximation locale et perturbation d'un facteur à la fois), l'analyse locale permet une compréhension fine du fonctionnement du modèle, pour un coût de calcul réduit.Par ailleurs, cet travail souligne l'intérêt d'une calibration multi-variable par rapport à une calibration multi-objectif, dans une optique de réduction de l'équifinalité / Karst aquifers are associated with key issues for water resource management and also for flood risk mitigation. These systems are characterized by a highly heterogeneous structure and non-linear functioning. This thesis addresses the sensitivity and uncertainty associated with the numerical modelling of groundwater flow in karst systems. As a systematic approach, sensitivity analysis has been used to answer the following questions:(i) is it possible to calibrate the model ? (ii) is the calibration robust ? (iii) is it possible to reduce equifinality, through multi-objective calibration or through multi-variable calibration ? This contribution stresses the potentialities of local sensitivity analyses. Despite their inherent limitations (local approximation), local analyses have proved to bring valuable insights into the general behaviour of complex, non-linear flow models, at little computational cost. Besides, this contribution also stresses the interest of multi-variable calibration as compared to multi-objective calibration, as regards equifinality reduction.
|
Page generated in 0.1118 seconds