Spelling suggestions: "subject:"particule a"" "subject:"articule a""
161 |
Discrimination d'événements par analyse des signaux enregistrés par le projet PICASSOArchambault, Simon 07 1900 (has links)
La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle
totale de l’univers serait composée de cette matière de nature inconnue.
Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting
Massive Particles), particules stables, non chargées, prédites par des extensions
du modèle standard, comme candidats.
Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la
matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet
utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un
WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de
phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors
capté par des senseurs piézoélectriques montés sur les parois des détecteurs.
Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition
de phase. D’autres particules environnantes peuvent former des bulles, telles les particules
alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi
en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit
acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient
les gouttelettes en place peut également causer des transitions de phase spontanées.
Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du
matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait
aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination
développées dans le but d’améliorer les limites d’exclusion de détection du WIMP. / Dark matter has been a mystery for astrophysicists for years now. Numerous observations
have shown that up to 85 % of the gravitation mass of the universe is made of this
unknown type of matter. One of the theories explaining this missing mass problem considers
WIMPs (Weakly Interacting Massive Particles), neutral stable particles predicted
by extensions of the standard model, as possible candidates.
The PICASSO experiment (Project In Canada to Search for Supersymetric Objects)
tries to detect this particle directly. The technique uses superheated droplet detectors,
with freon (C4F10) as the active medium. When a WIMP hits the fluorine nucleus, it
creates a nuclear recoil, which in turn triggers a phase transition from a liquid droplet
to a gaseous bubble. The acoustic noise of this event is then recorded by piezoelectric
transducers mounted on the walls of the detector.
There are however other particles than the WIMPs that can trigger this phase transition.
Alpha particles, or even gamma rays can create bubbles. The Data Acquisition System (DAQ)
is also subject to electronic noise that can be picked up, and to acoustic noise coming
from an exterior source. Fractures in the polymer holding the droplets in place can also
trigger spontaneous phase transitions.
There is therefore a need to minimize the impact of these background noises. The
level of purity of the ingredients used in detector fabrication then becomes very important.
Digital processing methods are also used to develop discrimination variables that
improve the limits of detection of the WIMP.
|
162 |
Synthèse du LiXFePO4 par voie fondue et l’étude de la couche de carbone sur LiFePO4Dahéron, Benjamin 03 1900 (has links)
Le LiFePO4 est un matériau prometteur pour les cathodes des batteries au lithium. Il possède une bonne stabilité à haute température et les précurseurs utilisés pour la synthèse sont peu couteux. Malheureusement, sa faible conductivité nuit aux performances électrochimiques. Le fait de diminuer la taille des particules ou d’enrober les particules d’une couche de carbone permet d’augmenter la conductivité. Nous avons utilisé une nouvelle méthode appelée « synthèse par voie fondue » pour synthétiser le LiFePO4. Cette synthèse donne des gros cristaux et aucune impureté n’est détectée par analyse Rayon-X. En revanche, la synthèse de LiXFePO4 donne un mélange de LiFePO4 pur et d’impureté à base de lithium ou de fer selon l’excès de fer ou de lithium utilisé. La taille des particules de LiFePO4 est réduite à l’aide d’un broyeur planétaire et plusieurs paramètres de broyage sont étudiés. Une couche de carbone est ensuite déposée sur la surface des particules broyées par un traitement thermique sur le LiFePO4 avec du -lactose. L’influence de plusieurs paramètres comme la température du traitement thermique ou la durée du chauffage sont étudiés. Ces expériences sont réalisées avec un appareil d’analyse thermogravimétrique (ATG) qui donne la quantité de chaleur ainsi que la variation de masse durant le chauffage de l’échantillon. Ce nouveau chauffage pour la couche de carbone donne des échantillons dont les performances électrochimiques sont similaires à celles obtenues précédemment avec la méthode de chauffage pour la couche de carbone utilisant le four tubulaire. / LiFePO4 is a promising cathode material for Lithium-ion batteries. It
provides high thermal stability and is synthesized using low cost materials.
Unfortunately LiFePO4 suffers from a low electrical conductivity, which is harmful
to its electrochemical performance. Decreasing the particle size or coating the
particles with carbon increases the conductivity of the material. We have used a
new synthetic method called molten synthesis to synthesize LiFePO4. The molten
synthesis produces large crystals of LiFePO4 with no impurity detected via X-ray
diffraction analysis. Moreover, the synthesis of LiXFePO4 gives a mixture of pure
LiFePO4 and Li-based impurities or LiFePO4 and Fe-based impurities whenever
there is an excess of lithium or iron used. The particle size of the synthesized
material is reduced via a Planetary Mill and numerous milling parameters were
investigated. A carbon coating was then deposited on the surface of the milled
material by thermally treating LiFePO4 with β-lactose. The influences of several
parameters such as heat treatment temperature and/or heating duration were
studied. These experiments were performed using a thermogravimetric analysis
(TGA), which provides the amount of heat and weight change during the heating
of the sample. This new heating method for carbon coating gave rise to samples
with similar electrochemical performance data as to the previously established
heating method involving a tubular furnace.
|
163 |
Étude de la pré-formation de particules α dans les noyaux de 40Ca et d'40Ar par cassure nucléaireLefebvre, Laurent 20 September 2013 (has links) (PDF)
Le noyau est un objet quantique complexe formé de protons et neutrons. Dans l'approche champ moyen, les nucléons sont considérés comme des particules indépendantes évoluant dans un potentiel moyen. Cependant dans certaines conditions, des nucléons peuvent se regrouper pour former des amas ou " clusters ".Pour comprendre ce phénomène de " clusters " dans les noyaux, nous avons étudié la structure dans l'état fondamental du 40Ca et de l'40Ar. En effet, des calculs théoriques tendent à montrer que les noyaux N = Z pourraient plus facilement adopter une structure en " clusters " que les noyaux N ≠ Z en raison d'un plus grand recouvrement des fonctions d'onde des neutrons et protons. Dans ce cas, l'émission de particules α par les noyaux N = Z sous l'effet du potentiel nucléaire attractif d'un noyau projectile, appelée " Towing-Mode " sera plus important que pour un noyau N ≠ Z. Dans ce but, nous avons réalisé une expérience au GANIL utilisant un faisceau d'40Ar à 35 MeV/A et une cible de 40Ca. Le spectromètre SPEG a permis d'identifier avec une très bonne résolution les ions lourds produits durant la réaction. Les détecteurs silicium MUST2 furent placés tout autour de la cible pour mesurer les particules α émises par la cible et le projectile et le prototype de calorimètre EXL fut utilisé pour la détection des photons de décroissance des noyaux résiduels d'36Ar et de 36S.Un modèle théorique basé sur la résolution de l'équation de Schrödinger dépendante du temps (TDSE) a été utilisé pour reproduire certains résultats expérimentaux comme les distributions angulaires. L'analyse des données a permis de reconstruire des spectres d'énergies d'excitation et des sections efficaces différentielles. De la comparaison entre ces distributions expérimentales et celles calculées par le modèle théorique, nous avons pu extraire des facteurs spectroscopiques Sα pour les deux noyaux d'intérêt. Les taux de " clusterisation " observés pour ces deux noyaux semblent indiquer que la structure en " clusters " n'est pas plus favorisée dans le 40Ca que dans l'40Ar.
|
164 |
Contrôle d'écoulement interne au moyen d'actionneur ElectroHydroDynamique / Flow control using ElectroHydroDynamic actuators in a dielectric liquidGouriou, Clément 15 December 2017 (has links)
Ce travail présente les résultats de recherches sur le contrôle d'écoulement dans les liquides diélectriques. L'objectif est d'étudier les potentialités du contrôle d'écoulement au moyen d'actionneurs ElectroHydroDynamiques. La 1re partie de cette thèse est notamment consacrée à l'étude bibliographique générale du contrôle d'écoulement et des techniques disponibles pour la mesure de vitesse de fluide. La méthode PIV est choisie pour caractériser l'écoulement de panache chargé. Cependant la présence d'un champ électrique intense dans un liquide diélectrique remet potentiellement en question l'hypothèse selon laquelle les traceurs suivent fidèlement les mouvements du liquide. Des études théorique et expérimentale permettent de préciser les conditions d'un traceur idéal et de choisir le meilleur type d'ensemencement pour l'huile de silicone. La 2nde partie de ce travail est consacrée à l'étude du contrôle d'écoulement sur un profil d'aile NACA0015 à ultra-bas Reynolds (Re < 5000). Une étude bibliographique présente les stratégies de contrôle d'écoulement autour de profil d'aile ainsi que les types d'actionneurs EHD appliqués aux liquides diélectriques. L'écoulement naturel en champ de vitesse moyen puis instationnaire est caractérisé et comparé à l'écoulement contrôlé. Le calcul de la force à partir d'un bilan de quantité de mouvement (Navier-Stokes), permet d'estimer les efforts hydrodynamiques appliqués par le fluide sur le profil immergé. Des polaires de portance et de traînée sont obtenues et permettent de quantifier l'efficacité de l'actionneur EHD. Enfin, les mécanismes de contrôle sont précisés et mettent en lumière les potentiels et les limites de l'actionneur. / This work presents results of research on flow control in a dielectric liquid. The aim is to demonstrate our ability to control flow by means of ElectroHydroDynamic actuation. The first part of this PhD thesis is dedicated to a general overview of flow control and the methods available for measuring fluid velocity. The PIV method is selected to charaterize the flow of a charged plume. However, the presence of a high electric field in the dielectric liquid might bring into question the validity of using PIV, which is based on the fact that tracers accurately follow fluid movement. Theoretical and experimental studies were performed to find the proper conditions for using an ideal tracer that guarantees the accuracy of velocity measurements. This part enables us to choose the best seeding particle in silicone oil. The second part of this work is devoted to the study of flow control on a NACA0015 wing profile at ultra-low Reynolds numbers (Re < 5000). A bibliographic study presents strategies of flow control around wing profiles and in addition deals with different EHD actuators for dielectric liquids. Mean velocity fields and unsteady velocity fields of baseline flow are characterized and compared to controlled flow. The calculation of force based on the conservation of momentum (Navier-Stokes equations) enables us to estimate the hydrodynamic stresses applied by the fluid to the immersed profile. Lift and drag polarities are obtained to quantify the efficiency of the EHD actuator. Finally, the mechanisms of control are clarified and highlight the potential and limits of the EHD actuator for flow control applications.
|
165 |
Modélisation numérique de l’abattage humide comme procédé d’assainissement de l’air / Numerical modeling of aerosol particles scavenging by drops as a process of air depollutionCherrier, Gaël 01 December 2017 (has links)
Ce doctorat est consacré à la modélisation de l’abattage humide comme procédé d’assainissement de l’air. Les situations d’abattage humide étudiées concernent des particules d’aérosol de diamètre aérodynamique variant entre 1 nm et 100 µm capturées dans l’air par des gouttes d’eau de diamètre compris entre 80 µm et 600 µm (nombre de Reynolds de goutte dans la gamme [1 ; 100]). La modélisation de l’assainissement de l’air par abattage humide nécessite deux phases complémentaires. La première étape consiste à définir un noyau de capture calculant le débit d’aérosols capturés par une goutte dans une situation qui peut être complexe de par la grande variété de collectes différentes (brownienne, phorétique, électrostatique et inertielle). La deuxième étape repose sur la définition d’une approche de simulation numérique des phénomènes prenant place dans l’abattage humide. À cet effet, l’approche de simulation de l’abattage humide proposée comporte une modélisation RANS pour simuler l’écoulement de l’air, une approche lagrangienne donnant la trajectoire des gouttes d’eau et une méthode eulérienne permettant de suivre l’évolution du champ de concentration en particules d’aérosol. Ainsi, la capture de particules d’aérosol par des gouttes d’eau est modélisée via l’implémentation du noyau de capture précédemment défini dans un terme puits au sein du modèle Diffusion-Inertia de Zaichik et al., (2004) / This PhD-Thesis is dedicated to the numerical modeling of aerosol particles scavenging by drops. Investigated situations are about aerosol particles of aerodynamic diameter ranging from 1 nm to 100 µm captured in the air by water drops of diameter varying between 80 µm and 600 µm, with corresponding droplet Reynolds number ranging between 1 and 100. This air depollution modeling is achieved in two steps. The first step consists in obtaining a scavenging kernel predicting the flow rate of aerosol particles captured by a drop in a situation where several collection mechanisms may take place (Brownian, phoretic, electrostatic and inertial scavenging). The aim of the second step is to propose a numerical simulation modeling the scavenging phenomenon. To do so, the scavenging simulation includes a RANS modeling for the air flow, a Lagrangian approach for the drops and an Eulerian approach for the aerosol particles. Thus, aerosol scavenging by drops is modeled by implementing the collection kernel defined previously into a sink term in the Diffusion-Inertia model of Zaichik et al., (2004)
|
166 |
Conception d'un ADC de résolution 8 bits basse consommation et 2 GHz de fréquence d'échantillonnage en technologie CMOS 180 nm / Design of an 8 bit low power 2 GHz sampling rate ADC on 180 nm CMOS processPuech, Gabriel 20 December 2017 (has links)
Après un rappel du contexte dans lequel ce travail de recherche a été conduit, le 1er chapitre présente les caractéristiques communes aux convertisseurs analogiques numériques (ADC) avec leurs figures de mérites. Un état de l’art exhaustif sur les ADC réalisés et plus particulièrement avec le nœud technologique CMOS 1 180 nm y est présenté. Ce travail préliminaire permet de donner un aperçu du défi relevé. Les architectures multi-étapes à échantillonnage analogique ont été éliminées de l’étude du fait des limitations de la technologie pour les contraintes de performances de l’ADC. Le chapitre 2 présente plus en détail les différentes implémentations possibles d’une famille d’ADC à échantillonnage numérique, les flash. Le portage de l’architecture TIQ est détaillé dans ce chapitre. Le chapitre 3 détaille l’étude et le portage en CMOS 180 nm des ADC à échantillonnage numérique à repliement de signal. Cette première partie conclut par le choix de l’architecture flash. La conception des briques de bases de l’ADC flash est détaillée dans les chapitres constituant la partie II du document. Le chapitre 4 est dédié à l’étude et au portage en CMOS 180 nm des étages de comparateurs latchés responsables de l’échantillonnage à 2 GHz de l’ADC flash. La non linéarité ramenée en entrée de l’architecture retenue ayant défini les contraintes sur l’étage de pré-amplification, celui ci est présenté dans le chapitre 5. Le chapitre 5, présente les différentes charges actives étudiées pour l’étage de pré-amplification. Le passage en différentiel passif avec le comparateur full différentiel et l’architecture retenue y sont détaillés. La technique du QV et son portage sur l’architecture de préamplificateur retenu sont présentés. Le décodeur thermométrique 2 binaire est présenté dans le chapitre 6. Deux implémentations de cette logique de décodage sont étudiées et portées. L’une est réalisée à partir d’un code de description matériel (VHDL) et la synthèse de cellules numériques en logique CMOS pull-up pull-down 3 . L’autre est réalisé à partir de multiplexeurs 1 bit et des flip flop à verrou en logique Pass gates complémentaire. Le chapitre 7 présente les limitations et l’implémentation de l’interpolation avec l’emploi des pré-amplificateurs et du comparateur latché retenus. L’étude de l’insertion de paires de suiveurs en drain commun, nécessaire à la polarisation des étages de pré-amplification y est présentée. Enfin, les analyses de tirage de Monte Carlo en mismatch 4 des résistances comme échelle de références sont comparées pour différents dimensionnements et topologies. Le synoptique global de l’ADC est présenté avec les cellules et techniques retenues. L’approche bottom-up incontournable pour la conception de circuits analogiques ou full custom présentée dans cette deuxième partie conclut sur le choix de concevoir un ASIC de preuve de concept. Ce dernier contient ainsi les briques de bases ayant une valeur ajoutée et potentiellement critiques pour la conversion de signaux. L’approche Top-down pour la conception est ainsi détaillée dans la 3e partie en partant du synoptique global de l’ASIC de preuve de concept envoyé en fonderie de circuit multi projet BuBlC1. contenant les cellules critiques à tester. La conception front-end de l’ASIC BuBlC1 avec notamment l’arbre d’horloge et les pads d’entrées sorties est présentée dans le chapitre 8. La phase de back-end avec les layouts des cellules retenues dans la partie II ainsi que leur intégration dans des ensembles (clusters) est présentée dans le chapitre 9 avec le padring et l’intégration finale des macro-ensembles (Cores analogiques et numériques). / After a a brief recall of the context this research work have been carried, the 1st chapter present the common analog to digital converters (ADC) characteristics with their figures of merit (FoM). A relevant state of the art on realized ADC architectures is presented. A particular emphasis has been done on 180 nm CMOS process node. This preliminary work gives a pertinent overview of the faced challenge. Multi step analog sampling architectures have been avoided from the study because of the transistors limited frequency performances. Chapter 2 presents the different implementations of the Flash digital sampling ADC family architecture. The TIQ architecture embedding in the 180 nm CMOS process are detailed in this chapter. Chapter 3 details the study and the design of an other digital sampling ADC family architecture on 180 nm CMOS process i.e. the signal folding architecture. This 1st part of the document conclude with the choice of the Flash ADC architecture. The building bloc design for this ADC are detailed in the following chapters constituting the part II. Chapter 4 is dedicated to the study and the design on 180 nm CMOS process of the latch comparator responsible of the 2 GHz sampling constraint of the overall ADC. As the retained comparator architecture input refereed non linearity defined the gain constraints of the preamplifier stage, the preamplifier is presented in the next chapter. Chapter 5 present the different characteristics and techniques of the quantifier stage. The comparator preamplifier stage with its different actives loads, its passive full differential transposition and the retained architecture are detailed. The QV technique and its embedding in the retained preamplifier architecture are presented. The thermometric 1 to binary encoder tree is presented in chapter 6. Two implementations of this encoding are studied and design on the Front-End (FE) level. The 1st one is a pipelined Wallace tree realized with a register transfer level (RTL) code on VHDL hardware description language. The synthesis flow on CMOS pull-up pull-down 2 combinatorial logic and rising edge flip flops are used for this architecture. The other architecture is designed using 1 bits multiplexers combinatorial pipelined with pass gated D latches with a full custom schematic implementation. Chapter 7 presents the limitations and the embedding of the interpolation with the retained preamplifier and comparator latch. The study of common drain source follower (CDSF) pairs insertion, mandatory for the biasing of the preamplifier input stage to reach the 8 bits resolution is studied with details. Finally, Monte Carlo sampling mismatch 3 analysis on the resistor references are studied by comparing different topologies and sizing. The overall ADC synoptic is presented with the retained cells and techniques. The bottom-up design approach, mandatory for analog and full-custom design, exposed in this 2nd part conclude on the choice to design a proof of concept ASIC (BuBlC1) including all the critical piece of circuits of the overall ADC with added value and potentially critical for signal conversion. The top-down approach for this ASIC design is detailed in the IIIrd part with the overall ASIC synoptic of the BuBlC1 ASIC sent to multi project wafer (MPW) foundry run integrating all the critical cells.The FE design of this ASIC with its clock tree and its input/output PAD are presented in chapter 8. The Back-End design with the retained cells layout in part II with the cells integration in clusters are presented in chapter 9 with the pad-ring and final integration in digital and analog macro-cells cores.
|
167 |
Etude des propriétés interfaciales et luminescentes de microgels stimulables. / Study of interfacial and luminescent properties of stimuli-sensitive microgelsPinaud, Florent 09 June 2015 (has links)
Les microgels sont des particules colloïdales de polymère réticulé gonflées par un solvant. Déformables et poreuses, elles peuvent changer d’état de gonflement lors de l’application d’un stimulus. Ce travail de thèse a pour but de développer de nouveaux concepts tirant profit des propriétés stimulables et de la déformabilité intrinsèque des microgels tout en approfondissant les connaissances sur le comportement de ces objets en solution et aux interfaces. Les microgels de poly(N-alkylacrylamide) sont utilisés comme modèles. Dans un premier temps, notre travail a porté sur l’étude d’un nouveau type de microgels électrochimiluminescents grâce à l’incorporation d’un complexe métallique de ruthénium dans la matrice polymère. A la transition de phase, ces microgels présentent une exaltation de l’intensité ECL jusqu’à 2 ordres de grandeur, en lien avec la distance entre les sites redox. Le concept est ensuite transposé à des microgels sensibles aux saccharides et à des systèmes comportant deux luminophores, un donneur ECL et un accepteur d’énergie pouvant donner lieu à un transfert d’énergie par résonance. La deuxième partie de la thèse est consacrée à l’adsorption de microgels à une interface liquide-liquide plane, en vue de mieux comprendre l’origine de la stabilité des émulsions stabilisées par ce genre d’objets. De façon analogue aux protéines flexibles, les microgels changent de conformation à l’interface, passant d’un état étendu à un état comprimé, à l’origine de variations de l’élasticité interfaciale. Les microgels ainsi adsorbés sont fonctionnalisés de façon régiosélective dans l’eau et permettent de produire des microgels non symétriques, dits Janus, susceptibles de s’auto-assembler. / Microgels are colloidal particles made of cross-linked polymer swollen by a solvent. Soft and porous, they can adapt their swelling degree in response to a stimulus. The main objective of this work is to develop new concepts taking advantage of microgels’ stimuli-responsive properties and intrinsicsoftness while deepening understanding of their properties in solution and at interfaces. Poly(Nalkylacrylamide) microgels are used as a model. Initially our work focused on the study of a new type of electrochemiluminescent (ECL) microgels thanks to the incorporation of a ruthenium complex in the polymer matrix. At the volume phase transition, these microgels exhibit an amplification of the ECL intensity up to 2 orders of magnitude, related to the decrease of the distance between redox sites. This concept is then transposed to saccharides-sensitive microgels and systems bearing two luminophores, an ECL donor and an energy acceptor in order to give rise to resonance energy transfer. The second part of this manuscript is devoted to adsorption of microgels at a planar liquid-liquid interface, to improve knowledge on the origin of the stability of emulsions stabilized by such objects. Such as flexible proteins, microgels can change their conformation at the interface, from an extended to a compressed state, causing variation in the interfacial elasticity. When microgels are adsorbed they can also be functionalized regioselectively in water to produce non-symmetrical microgels, called Janus, able to self-assemble.
|
168 |
Rôle des antigènes tissulaires de groupes sanguins humains A, B, H et Lewis dans l'évolution des Norovirus GII.4 / Role of the A, B, H and Lewis histo-blood group antigens in the evolution of GII.4 norovirusesRougemont, Alexis, de 07 April 2011 (has links)
Les norovirus sont l'une des causes principales de gastroentérite. Depuis 2002, des variants de norovirus GII.4 successifs ont circulé dans la population par cycle de 2-3 ans, ce qui suscite des interrogations quant au rôle de leurs ligands, les antigènes tissulaires de groupes sanguins (HBGA), dans leur évolution. Nous avons analysé l'interaction entre des variants de GII.4 représentatifs et des HBGA, et déterminé le rôle d’acides aminés (aa) clés. Par mutagénèse dirigée, nous avons montré qu’une configuration stricte des aa directement impliqués dans l’accroche est indispensable. La suppression de la thréonine 395, caractéristique des variants après 2002, confère la capacité de se lier à Lex et Si-Lex, démontrant que les aa en dehors du site de liaison peuvent modifier les propriétés d’attachement. L'analyse de l'accroche de VLP de 6 variants isolés de 1987 à 2007 à des échantillons de salive phénotypés et des HBGA synthétiques montre que tous les variants sont capables de s’attacher à la salive des sécréteurs indépendamment du phénotype ABO et aux oligosaccharides propres au phénotype sécréteur. Deux variants récents ont pu également s’accrocher aux sucres présents dans la salive des nonsécréteurs Le(+). Nos données suggèrent que la capacité de se lier à Lex et Si-Lex serait une conséquence de la variation génétique des aa situés à proximité du site de liaison. L'analyse des propriétés d’attachement par résonance plasmonique de surface a montré que seuls les variants après 2002 présentent une affinité forte pour les antigènes A et B, suggérant que l’accélération évolutive des GII.4 pourrait être liée à une affinité accrue des variants pour les HBGA après 2002. / Noroviruses are one of the leading causes of gastroenteritis worldwide. Since 2002 successive GII.4 variants have circulated in the population before being replaced every 2-3 years, which raises questions about the role of their histo-blood group antigen (HBGAs) receptors in their evolution. We analyzed the interaction between representative GII.4 variants and HBGAs and determined the role of selected amino acids (aa) in the binding profiles. By mutagenesis, we showed that there was a strict structural requirement for the aa directly implicated in HBGA bindings. The ablation of the threonine 395 residue, an epidemiological feature of the post 2002 variants, allowed to gain the capacity to bind to the Lewis x and sialyl-Lewis x antigens, demonstrating that aa residues outside the HBGA binding site can modify the binding properties. The analysis of the attachment of VLPs from 6 variants isolated from 1987 to 2007 to phenotyped saliva samples and synthetic HBGAs shows that all variants could attach to saliva of secretors irrespective of the ABO phenotype and to oligosaccharides characteristic of the secretor phenotype. Interestingly, two recent variants additionally bound to carbohydrates present in the saliva of Lewis-positive non-secretors. Our data suggest that GII.4 binding to Lex and Si-Lex antigens might be a by-product of the genetic variation of the aa located in the vicinity of the binding site. Analysis of the binding properties by surface plasmon resonance showed that only post 2002 variants presented a strong affinity for A and B antigens, suggesting that the GII.4 evolution could be related to an increased affinity for HBGAs for the post 2002 variants.
|
169 |
Étude de l'impact de goutte sur une paroi chaude en régime de Leidenfrost / Study of the droplet impact onto a heated wall in the Leidenfrost regimeDunand, Pierre 09 November 2012 (has links)
Les impacts de gouttes sur paroi chaude sont présents dans de multiples domaines, tels que l'injection de diesel sous forme de spray dans des moteurs à combustions internes, ou le traitement thermiques de l'acier dans le domaine de la sidérurgie. L'étude de l'interactions goutte/paroi permet de mieux comprendre les phénomènes thermiques mis en jeu, et ainsi d'aboutir à des économies d'énergies et d'eau. De nombreux travaux portent sur cette thématique, mais ils présentent des résultats divergents et uniquement basés sur l'étude de la paroi chaude. Cette thèse a pour but d'apporter des mesures expérimentales sur les caractéristiques inconnues en étudiant les gouttes. Pour cela, un dispositif expérimental a été mis au point afin de mener à bien l'ensemble des mesures souhaitées. Les diverses techniques de mesures de température utilisées sont présentées, et une attention plus particulière a été portée sur le développement de la technique de fluorescence induite par plan laser qui permet d'accéder au champ de température des gouttes durant leur impact. Cette méthode, combinée à une technique de thermographie par caméra infrarouge couplée à un modèle de conduction inverse, permet d'extraire les paramètres concernant l'aspect thermique, et de déterminer de nouvelles caractéristiques inédites, telles que l'échauffement des gouttes, l'évaporation relative de celles-ci ou encore l'efficacité de refroidissement. Les parts respectives jouées par la chaleur sensible et l'évaporation des gouttes sont tirées de cette dernière. Enfin, l'aspect dynamique est également abordé aboutissant au développement d'une technique d'ombroscopie rapide. Cette dernière a permis, grâce à la combinaison de mesures de diamètres précises et d'une fréquence d'acquisition élevée, d'extraire les paramètres dynamiques de l'impact tels que la vitesse et taille des gouttes, ou d'autres paramètres relatif au type d'impact rencontrés à l'aide d'un algorithme de suivi de particules développé durant la thèse / The droplet impact onto a heated wall interaction can be found in mutiples fields, such as internal combustion engines or the steel industry, specially in the thermal treatment of the steel where high energy dissipation rate is required. The study of this interaction should grant a better understanding of this phenomena, and thus, allow the enhancement of these processes and reduce the energy and water consumption. Several studies have already been carried out on this subjet but a great majority of them, whose results present great divergence, only consider the heated wall, neglecting the outgoing of the droplet. This thesis put the emphasis on the liquid phase where currently no data exist to our knowledge, with the help of multiples experimental technics that have been developped. A general experimental setup has been made in order to make all the wanted measurements. The measurement techniques used in this study are first presented, to begin with the planar laser induced fluorescence, which allow us to know the droplet temperature during the impact. Used with an infrared thermography technique coupled with an inverse conduction model, it is possible to extract some important parameter regarding the thermal aspect, such as the droplet heating, the relative evaporation ratio or the cooling efficiency. This latter can be written as the sum of the two major contributions of the cooling: the sensible heat and the evaporation of the droplet. Finally, a high speed shadow imagery technique is presented. It has been developped in order to study the dynamic aspect of the droplet impact. This technique can determine several dynamic parameters such as the droplet speed and diameter, or other parameter regarding the type of impact encountered
|
170 |
Development of a numerical model of single particle impact with adhesion for simulation of the Cold Spray process / Développement d'un modèle numérique d'impact à une seule particule avec adhérence pour la simulation du processus de pulvérisation à froidProfizi, Paul 20 September 2016 (has links)
Dans le cadre du procédé de revêtement de surface Cold Spray, un modèle numérique d’impact de particule sur substrat à haute vitesse est créé, ainsi qu’une nouvelle interaction adhésive, dans le logiciel de dynamique explicite du CEA Europlexus. Le modèle utilise des Éléments Finis et la méthode sans maillage SPH (Smoothed Particle Hydrodynamics) avec la loi matériau de Johnson-Cook, couramment utilisée pour modéliser les métaux à des vitesses de déformation élevées et prenant en compte le durcissement plastique, le durcissement en vitesse de déformation, et l’assouplissement thermique. L’interaction adhésive est basée sur les modèles de zone cohésive de Dugdale-Barenblatt et Griffith, avec une limite sur la contrainte cohésive et la rupture de l’adhésion dictée par l’énergie dissipée. L’étude de cette interaction dans le cas des corps déformables à haute vitesse de déformation montre que le type de modèle cohésif utilisé impacte directement et de façon très prononcée les résultats du calcul. L’interaction adhésive est ensuite liée à un mécanisme physique connu pour être la raison majeure de l’adhésion entre métaux lors du procédé Cold Spray : l’instabilité en cisaillement à l’interface de contact (présente dans la simulation grâce à une loi d’endommagement). Pour ce faire, un critère d’activation de l’adhésion est créé, basé sur une chute de la valeur locale de limite élastique du matériau. Ce critère permet de retrouver le phénomène de vitesse critique nécessaire pour l’adhésion de la particule lors du procédé. Un critère de rupture de l’adhésion supplémentaire est ajouté, basé sur la valeur de l’endommagement dans les éléments collés, et permet de retrouver le phénomène de vitesse maximale pour l’adhésion de la particule. Le modèle complet, construit sur des principes physiques, est ainsi capable de simuler le phénomène d’adhésion Cold Spray. Des tests de dureté et images EBSD sont aussi présentés et comparés aux résultats numériques. / In the context of the Cold Spray process, a numerical model of a single particle impact is developed. The point of interest is the adhesion of the particle to the substrate, thus an adhesive interaction model is also created. The impact model uses the Smooth Particle Hydrodynamics and/or the Finite Elements methods, with a Johnson-Cook material law, commonly used for metals at high strain rates, which takes into account strain hardening, strain rate hardening and thermal softening. The adhesive interaction is a Griffith and Dugdale-Barenblatt cohesive model with energy dissipation and a limit on the cohesive stress. Using this model it is shown that in the case of fast dynamics and deformable bodies, not only the adhesion parameters but also the type of model has an influence on the results. The adhesion model is also, contrary to previous works, linked with an actual physical mechanism known to induce adhesion in Cold Spray: a shear stress instability at the interface. This is done by adding an activation criterion to the cohesive model. This criterion is defined as a local drop in yield strength on either element in contact. Only when this criterion is locally met are the cohesive stresses applied and cohesive energy dissipated. The result is the apparition of a critical velocity, under which adhesion cannot occur due to either not enough initial kinetic energy to create an instability at the interface, or not enough adhesive surface created to keep the particle from rebounding. For the model to localize and undergo shear banding/shear instability, a damage value is added to the material law. An erosion criterion is then implemented in the cohesive model to remove the cohesive stresses from highly damaged parts of the adhesive surface. This results at high impact speeds in a maximal velocity above which the interfacial material is too damaged to sustain adhesion and prevent the particle from rebounding. A deposition behavior similar to the Cold Spray process is then observed, with a range of low velocities without any adhesion of the particle, then a critical speed initiating a velocity range of adhesion of the particle, and finally a maximum speed above which the interface is too damaged to sustain the adhesion. A set of experimental observations is also carried out to better understand the actual microstructural dynamics and changes at the interface of 1 mm copper particles impacted on copper. The results are compared to simulations and the use of the macroscopic Johnson-Cook law at a microscopic level is validated.
|
Page generated in 0.0646 seconds