Spelling suggestions: "subject:"particule a"" "subject:"articule a""
131 |
Effet de l'encombrement des protéines sur la diffusion des lipides et des protéines membranaires / Effect of protein crowding on lipids and membrane proteins diffusionMawoussi, Kodjo 18 December 2017 (has links)
La diffusion latérale des lipides et des protéines transmembranaires est essentielle pour les fonctions biologiques. Dans le contexte cellulaire, la fraction surfacique des protéines membranaires est élevée, atteignant environ de 50 à 70% selon le type de membrane. La diffusion se fait donc dans un milieu très encombré. Le but de ce travail est d'étudier in vitro l'effet de l'encombrement des protéines sur la diffusion des protéines et des lipides. Jusqu'à présent, les mesures de diffusion latérale ont généralement été réalisées à faible densité de protéines, et l'effet de l'encombrement des inclusions membranaires ou des protéines membranaires a été peu étudié expérimentalement. Nous avons utilisé une méthode de suivi de particules uniques (SPT) pour suivre les trajectoires de la pompe à protons Bactériorhodopsine (BR) et de lipides marqués avec des quantum dots au bas de vésicules unilamellaires géantes (GUVs) en fonction de la fraction de surface totale (Ф) de BR reconstituée dans la membrane constituée par ailleurs de 1,2-Dioleoyl-sn-glycéro-3-phosphocholine (DOPC). / Lateral diffusion of lipids and transmembrane proteins is essential for biological functions. In the cellular context, the surface fraction of membrane proteins is high, reaching approximately 50 to 70% depending on the membrane type. Therefore, diffusion occurs in a very crowded environment. The aim of this work is to study in vitro the effect of protein crowding on their own diffusion and on those of the surrounding lipids. So far, lateral diffusion measurements generally have been carried out at low protein density, and the effect of proteins crowding has not been much studied experimentally. We used a single particle tracking (SPT) method to track the trajectories of the Bacterorhodopsin (BR) proton pump and of lipids labeled with quantum dots at the bottom of giant unilamellar vesicles (GUVs) as a function of the total surface fraction (Ф) of BR reconstituted in 1,2-Dioleoyl-sn-glycero-3-phosphocholine (DOPC) membrane.
|
132 |
Encapsulation de molécules hydrophobes par des structures bi-gels générées par prilling : relation structure-propriétés / Encapsulation of hydrophobic molecules by bi-gels structures managed by prilling : structure-propertiesPereira Camelo, Sarah Regina 28 April 2015 (has links)
Ce travail de thèse s’articule autour de la génération et de la caractérisation de capsules d’organo-hydrogel ou simplement bi-gels, obtenues par la technologie du prilling et destinées à la délivrance contrôlée d’un principe actif (P.A), après administration par voie orale. L’Efavirenz (EFV), un antirétroviral utilisé dans le traitement du VIH/Sida, a été le P.A utilisé comme modèle de molécule de faible solubilité dans l’eau. Il a été dissous dans l’organogel composé d’huile de tournesol et d’acide 12-hydroxystéarique (12-HSA). L’organogel a été caractérisé par sa température de transition de phase sol-gel-sol. Et la thermoréversibilité caractéristique de cet organogel n’a pas changé avec l’introduction de l’EFV. Pour la caractérisation des organogels comme véhicule de P.A, ils ont été produits à deux températures (5°C et 25 °C) et avec deux concentrations de 12-HSA (5% et 20%). Pour les essais de libération de l’EFV deux milieux de dissolution ont été utilisés (pH 1,2 et 6,8) avec et sans enzymes. Le profil de libération de l’EFV à partir de capsules bi-gels (2500 à3000 μm de diamètre) est essentiellement lié à la quantité d’organogélifiant dans le coeur, à la présence de la membrane d’alginate et à l’état physique de cette membrane (hydratée ou sèche). Une réduction de 50% a pu être observée à pH acide en présence de la membrane externe. A pH acide la libération est plus lente qu’à pH 6,8, quand la membrane perd sa fonction protectrice et le coeur organogel passe à régler la libération. Deux mécanismes de relargage sont observés : l’érosion et la diffusion, expliqués par le modèle de Korsmeyer-Peppas. / This thesis focuses on the generation and characterization of organo-hydrogel capsules (bigels), manufactured by prilling technology for controlled drug delivery after oral administration. Efavirenz (EFV), an antiretroviral medications used to treat HIV/AIDS, is the active pharmaceutical ingredient (API) used as a model molecule of low solubility in water. It was dissolved in the organogel, which is compound of sunflower oil and 12-hydroxystearic acid (12-HSA). The organogel was characterized by its phase transition temperature sol-gel-sol. The typical thermoreversibility of this organogel has not changed with introduction of EFV. The organogels were produced at two temperatures (5 °C and 25 °C) and with two concentrations of 12-HSA (5% and 20%) for being characterized as an API vehicle. Two dissolution media were used with and without enzymes (pH 1.2 and 6.8), for EFV release quantification. The EFV release profile from bi-gels capsules (diameter from 2500 to 3000 μm) is essentially related to the amount of organogelator in their core, to the presence of the alginate membrane and to the state physics of this membrane (hydrated or dry). The release of EFV has reduced 50% at acid pH in the presence of the external membrane. In simulated gastric fluid, the release is slower than at pH 6.8 (simulated intestinal fluid). In the intestine, the membrane loses its protective function and the organogel’s core begins to control the release of EFV. Two release mechanisms are observed: erosion and diffusion, which can be explained by the Korsmeyer-Peppas model.
|
133 |
Gazéification de la biomasse en réacteur à flux entrainé : études expérimentales et modélisation / Biomass gasification in entrained flow reactor : experiments and modelingBillaud, Joseph 02 December 2015 (has links)
Ce travail porte sur l'étude de la gazéification de biomasse en Réacteur à Flux Entrainé (RFE), dans le contexte du développement de procédés pour la production de biocarburants de deuxième génération. L'objectif de cette thèse est de modéliser les différents phénomènes qui régissent la conversion de la biomasse dans des conditions représentatives d'un RFE. La pyrolyse et la gazéification de particules de hêtre de taille comprise entre 315 et 415 µm ont été étudiées entre 800 et 1400°C en four à chute de laboratoire. L'influence de l'ajout de H2O, de CO2 et de O2 sur les produits de gazéification a été explorée, et les essais ont été simulés à partir d'un modèle 1D. L'ajout de H2O ou de CO2 permet de diminuer les rendements en char de manière significative. En phase gaz, l'influence principale de ces deux espèces est la modification de la composition en espèces majoritaires avec la réaction de gaz à l'eau. L'ajout de O2 a pour effet d'améliorer la conversion du carbone de la biomasse en gaz, et de réduire de manière significative la production de suies et de char. Le modèle, basé sur une chimie détaillée, permet de simuler ces essais de façon très satisfaisante sur toute la gamme de variation des conditions opératoires. La pyrolyse et la gazéification de particules de hêtre tamisées entre 1,12 et 1,25 mm a été étudiée en présence de O2. À 800, 1000 et 1200°C, la conversion de ces « grosses » particules est plus faible que celles des petites particules, mais à 1400°C la taille de particule n'a pas d'influence. Enfin, une étude expérimentale a été menée dans un RFE pilote pour étudier l'influence de la quantité de O2, de la taille de particule et de la pression sur la gazéification de particules de bois. Ces essais ont été simulés de façon satisfaisante en adaptant le modèle 1D. / The present work deals with biomass gasification in Entrained Flow Reactor (EFR) in the context of the development of new Biomass-to-Liquid processes. The objective of this study is to develop a comprehensive model to better understand the phenomena controlling biomass gasification in conditions representative of an EFR. Biomass pyrolysis and gasification of beech particles sieved between 315 and 450 µm have been studied between 800 and 1400°C in a drop tube furnace. The influence of H2O, CO2 and O2 addition on gasification products has been investigated and the tests have been simulated with a 1D model. The addition of H2O or CO2 leads to a significantly lower char yield. The main influence of these two oxidants in gas phase is the modification of major species composition with water gas shift reaction. With the addition of O2, the carbon conversion into gas is improved and the char and soot yields are significantly lower. The simulations are in very good agreement with the experimental results. Biomass pyrolysis and gasification of beech particles sieved between 1.12 and 1.25 mm have been studied in presence of O2. Between 800 and 1200°C the carbon conversion into gas is lower than with the smaller particles but at 1400°C the particle size has no influence. At last, the influence of O2 addition, particle size and pressure on biomass gasification has been studied in a pilot scale EFR. These experimental results have been satisfactorily simulated by adapting the 1D model.
|
134 |
Outils pour l'étude conjointe par simulation et traitement d'images expérimentales de la combustion de particules d'aluminium utilisées dans les propergols solides / Tools to study the combustion of aluminum particles used in solid propellants via numerical simulation and experimental-image analysisNugue, Matthieu 11 October 2019 (has links)
L’ajout de particules d’aluminium dans le chargement des moteurs à propergol solide améliore les performances propulsives, mais peut aussi entraîner différents phénomènes néfastes, dont des oscillations de pression. Des travaux de recherche sont réalisés depuis de nombreuses années afin d’améliorer la compréhension de ces phénomènes, notamment par l’utilisation de la simulation numérique. Cependant les données d’entrée de la simulation numérique, en particulier la taille et la vitesse initiale des particules d’aluminium dans l’écoulement, sont souvent difficiles à obtenir pour des propulseurs réels. L’ONERA développe depuis plusieurs années un montage d’ombroscopie permettant de visualiser les particules d’aluminium proches de la surface de petits échantillons en combustion. La présente étude porte sur le développement d’outils pour analyser les images expérimentales du montage d’ombroscopie et améliorer l’interaction avec la simulation numérique diphasique. Une première partie concerne des échantillons de propergol contenant des particules inertes, dont l’intérêt est de permettre de valider les méthodes de mesure sur des images relativement simple et avec des données de référence. Les outils mis en œuvre portent sur la détection et le suivi des particules dans des séquences d’image, ainsi que sur la localisation de la surface du propergol. Une bonne correspondance des distributions de taille a été obtenu avec les distributions de référence. La mise en vitesse des particules quittant la surface a été confrontée à un modèle simplifié de transport de particules dans un écoulement constant. L'utilisation de ce modèle a permis de souligner l'importance de la population de pistes détectées pour bien exploiter un profil de vitesse moyen, en particulier en termes de diamètre moyen. Une simulation numérique diphasique a ensuite été réalisée pour l’expérience d’ombroscopie. Différents paramètres ont été étudiées (type et taille de maillage, paramètres thermodynamiques...) afin d'obtenir un champ stationnaire simulé pour les gaz du propergol. Le mouvement des particules inertes simulées a pu être comparé aux profils expérimentaux pour différentes stratégies d'injection, soit en utilisant un diamètre moyen, soit à partir d’une distribution lognormale. L’autre partie de l'étude est consacrée à l’analyse des images expérimentales de la combustion de particules d’aluminium. La complexité des images dans ces conditions a conduit à utiliser une approche de segmentation sémantique par apprentissage profond, visant à classer tous les pixels de l'image en différentes classes, en particulier goutte d'aluminium et flamme d'aluminium. L’apprentissage a été mené avec une base restreinte d’images annotées en utilisant le réseau U-Net, diverses adaptations pour le traitement des images d’ombroscopie ont été étudiées. Les résultats sont comparés à une technique de référence basée sur une détection d’objets MSER. Ils montrent un net gain à l’utilisation de techniques neuronales pour la ségrégation des gouttes d'aluminium de la flamme. Cette première démonstration de l'utilisation de réseau de neurones convolutifs sur des images d'ombroscopie propergol est très prometteuse. Enfin nous traçons des perspectives côté analyse d’image expérimentales et simulation numériques pour améliorer l’utilisation conjointe de ces deux outils dans l’étude des propergols solides. / The addition of aluminum particles in the solid propellant loading improves propulsive performance, but can also lead to various adverse phenomena, including pressure oscillations. Research has been carried out for many years to improve the understanding of these phenomena, particularly through the use of numerical simulation. However, the input data of the numerical simulation, especially the size and the initial velocity of the aluminum particles in the flow, are often difficult to obtain for real rocket motors. ONERA has been developing a shadowgraphy set-up for several years to visualize aluminum particles near the surface of propellant samples in combustion. The present study deals with the development of tools to analyze the experimental images of the shadowgraphy set-up and to improve the interaction with the two-phase digital simulation. A first part concerns propellant samples containing inert particles, which interest is to make it possible to validate the measurement methods on relatively simple images and with reference data. The implemented tools concern the detection and the tracking of particles in image sequences, as well as the location of the surface of the propellant. Good correspondence of size distributions was obtained with reference distributions. The velocity of particles leaving the surface has been confronted with a simplified model of particle transport in a constant flow. The use of this model has made it possible to emphasize the importance of the population of detected tracks in order to make good use of an average velocity profile, particularly in terms of average diameter. A two-phase flow simulation was then carried out for the shadowgraphy experiment. Different parameters were studied (type and size of mesh, thermodynamic parameters ...) in order to obtain a simulated stationary field for propellant flow. The movement of the simulated inert particles could be compared to the experimental profiles for different injection strategies, either using a mean diameter or using a lognormal distribution. The other part of the study is devoted to the analysis of experimental images of the combustion of aluminum particles. The complexity of the images under these conditions has led to the use of a deep learning semantic segmentation approach, aiming to classify all the pixels of the image into different classes, in particular aluminum droplet and flame. The learning was conducted with a restricted base of annotated images using the U-Net neural network, with various adaptations on the processing of the experimental images were studied. The results are compared to a reference technique based on MSER object detection. They show a clear gain in the use of neural techniques for the segregation of aluminum drops of the flame. This first demonstration of the use of convolutional neuronal network on propellant shadowgraphy images is very promising. Finally, we draw perspectives on experimental image analysis and numerical simulation to improve the joint use of these two tools in the study of solid propellants.
|
135 |
Compartimentation du cycle viral du bactériophage SPP1 dans le cytoplasme de la bactérie Gram-positive Bacillus subtilis. / Compartmentalization of bacteriophage SPP1 replication and assembly in the Gram-positive bacterium Bacillus subtilis.Labarde, Audrey 20 June 2019 (has links)
Les virus bactériens (bactériophages), durant leur co-évolution avec les bactéries, ont su trouver de nombreuses voies pour détourner les machineries cellulaires dans le but de se multiplier efficacement. L’infection par le phage dès son entrée dans le cytoplasme est un bouleversement pour la bactérie en termes de ressources monopolisées à ses dépens et probablement de restructuration de l’espace cytoplasmique. Dans ce travail de thèse, l’impact de l’infection de la bactérie Gram-positive Bacillus subtilis par le bactériophage SPP1 a été étudié.La réplication de l’ADN est initiée par des protéines précoces virales. Elle mène au chargement de l’hélicase virale gp40 sur l’origine de réplication de SPP1 dont les brins d’ADN ont été ouverts par la protéine de liaison à l’origine, gp38. Le réplisome bactérien est ensuite recruté de manière massive au sein de l’usine de réplication formant un foyer défini dans le cytoplasme bactérien. L’interaction de gp40 avec les protéines cellulaires DnaX et DnaG assure fort probablement le recrutement du complexe cellulaire au foyer de réplication. La quantité d’ADN viral synthétisée représente presque 500 copies d’ADN viral par bactérie après 30 minutes d’infection, ce qui est équivalent à la taille de 5 génomes de B. subtilis. Des études de FRAP (Fluorescence Recovery After Photobleaching) montrent que l’usine de réplication est très dynamique. Ce comportement est inhibé par la présence de HPUra montrant qu’il dépend de la présence d’un réplisome actif.Les concatémères résultant de la réplication de l’ADN viral sont le substrat pour l’encapsidation du génome de SPP1 dans des procapsides préformées. La maturation de ces procapsides en particules virales infectieuses suit une voie d’assemblage spécifique. Deux protéines rapportrices de différentes étapes de cette voie ont été suivies : la protéine d’échafaudage gp11, présente à l’intérieur de la procapside avant encapsidation de l’ADN, et la protéine auxiliaire gp12, qui se fixe à la surface de la capside pendant l’encapsidation. Les procapsides colocalisent partiellement avec l’usine de réplication du génome viral. Après encapsidation de l’ADN, les capsides vont s’accumuler dans des foyers de stockage qui ont une localisation indépendante du foyer de réplication. Cette organisation est également observée dans des bactéries très allongées où deux régions de stockage sont retrouvées situées de part et d’autre de l’usine de réplication mais éloignées des pôles cellulaires. La microscopie électronique combinée à des immuno-marquages révèlent que cette compartimentation corrèle avec une réorganisation majeure de l’ultrastructure du cytoplasme bactérien.L’assemblage et la dynamique des foyers viraux dans la bactérie ont été suivis pendant toute la durée du cycle viral dans un système de microfluidique. Elle montre que les étapes de réplication de l’ADN viral et la formation de la particule du phage sont des processus compartimentés dans le cytoplasme de la bactérie tant spatialement que temporellement. Bien que la croissance cellulaire soit retardée, les bactéries continuent de s’allonger et de se diviser pendant l’infection par SPP1. Le virus exploite donc de manière efficace les machineries cellulaires et l’architecture de la bactérie pour une multiplication optimale. Ces stratégies sont probablement utilisées par de nombreux phages pour remodeler la cellule bactérienne à leur avantage. / During the co-evolution of viruses and cells, viruses exploited numerous ways to hijack cell machineries for their optimal multiplication and dissemination. Phage infection is a major challenge to bacteria, exploiting extensively cellular biosynthetic ressources and possibly re-organizing the cytoplasm space. The work in this thesis investigated the cellular impact of infection by SPP1, a well-characterized model tailed bacteriophage that infects the Gram-positive bacterium Bacillus subtilis.Viral DNA replication is initiated by early phage proteins whose activity culminates in loading of the SPP1 helicase gp40 at the melted phage origin of replication. The bacterial replisome is then massively recruited to the phage replication factory that is localized at a defined position of the cytoplasm. The interaction of gp40 with its two cellular partners DnaX and DnaG mediates most likely the hijacking of the B. subtilis replication machinery. More than 500 copies of the viral genome are synthesized within 30 minutes after initiation of infection, which is roughly the equivalent to five B. subtilis genomes. FRAP (Fluorescence Recovery After Photobleaching) experiments showed that the viral DNA factory is highly dynamic, a behavior that depends on active DNA replication.The concatemers resulting from DNA replication are the substrate for encapsidation of the SPP1 genome into preformed procapsids. Maturation of procapsids to infectious viral particles follows a defined pathway. The SPP1 scaffolding protein gp11, that occupies the interior of the procapsid before DNA packaging, and gp12, that binds to capsids during DNA packaging, were followed to dissect the steps of this process. Procapsids partially co-localize with DNA replication factories. After packaging the DNA-filled capsids fully segregate to spatially distinct warehouses where viral particles accumulate. Recruitment of SPP1 proteins to these compartments recapitulates the sequential order of their assembly to build the viral particle. The replication factory is most frequently flanked by two warehouses. Such pattern is also observed in very elongated cells where the viral compartments remain localized nearby each others and far from the bacterial poles. Immuno-electron microscopy of cryo-sections from infected cells highlights a complete remodelling of the bacterial cytoplasm dedicated to virus multiplication.The assembly and dynamics of the SPP1 replication factory and virions warehouses were visualized during the complete phage infection cycle in microfluidics experiments. The viral compartments are well individualized in the cytoplasm both in terms of space and time. Although bacterial growth is retarded, cells continue to elongate and to divide during SPP1 infection. Structuration of viral factories appears as a very efficient way for SPP1 to exploit bacterial resources and cytoplasmic space to optimize its multiplication. This strategy might be widely used by phages for remodelling the bacterial cell.
|
136 |
Analyse qualitative et quantitative des nanoparticules d’argent dans des matrices alimentaires à l’aide de l’ICP-MS en mode particule uniqueAmiri, Nesrine 11 1900 (has links)
Les nanoparticules d’argent (Ag NPs) sont considérablement utilisées dans l’industrie alimentaire. Elles sont fortement appliquées comme enrobages d’emballages alimentaires afin d’assurer une meilleure qualité des aliments et une plus longue durée de conservation sur les étagères des supermarchés. En revanche, les risques associés aux Ag NPs sont inquiétants. Leurs effets potentiels sur les humains et sur l’environnement suscitent un grand intérêt scientifique. C’est pourquoi il est important de valider des méthodes analytiques pour détecter, caractériser et quantifier les Ag NPs dans la nourriture mise en contact avec ce type de contenant. Les méthodes permettront de mieux comprendre la migration de l'argent vers les aliments directement ingérés par l’humain. La spectrométrie de masse à plasma à couplage inductif en mode particule unique (SP-ICP-MS) est une technique prometteuse pour caractériser et quantifier de petites particules (de quelques nanomètres) à de faibles concentrations (dans l'ordre du ng L-1). Contrairement aux techniques analytiques conventionnelles, telles que les techniques de microscopie et de diffusion de la lumière, le SP-ICP-MS distingue la forme ionique de la forme particulaire de l'analyte. Cette présente étude valide une méthode pour la caractérisation et la quantification des Ag NPs et de l’argent ionique dans deux boissons et trois simulants: jus d'orange, préparation en poudre pour nourrissons, eau Milli-Q, acide acétique à 3% et éthanol à 10%. De plus, une meilleure compréhension du devenir et de la migration de l’argent provenant d'emballages alimentaires nano-activés a pu être obtenue. En effet, les milieux acides et les traitements thermiques ont engendré de plus grands relargages d’argent, sous forme ionique, contrairement aux milieux dits « lipophiles » tels que la préparation pour nourrissons et l’éthanol. En conclusion, ce mémoire nous démontre que les voies de libération des NPs des contenants nano-activés ne sont pas encore très bien comprises. De plus amples études doivent être entreprises afin de pouvoir établir des modèles de migration clairs et afin de mieux comprendre les risques associés à leurs utilisations. / Silver nanoparticles (Ag NPs) are increasingly used in the food industry. They are integrated into coatings of various food packaging to help ensure longer product shelf life. However, the risks associated with Ag NPs are currently not well known and their potential effects on humans are causing growing concern. Furthermore, it is not clear whether NPs have greater or lesser risk than dissolved silver ions or bulk phase Ag. Consequently, it is necessary to detect and to characterize the release of silver from silver-enhanced containers into real food matrices using sensitive analytical techniques that allow one to distinguish between silver ions and nanoparticles. Single particle ICP-MS is a promising technique to count and size small particles at low concentrations. Compared to other conventional instrumentation, it can distinguish between ionic and particulate forms of the analyte. This thesis focused firstly on the validation of an analytical method for the analysis of Ag NPs and ionic silver in three different food simulants (Milli-Q water, 10% ethanol and 3% acetic acid) and in two drinks (orange juice and infant milk formula). A better understanding of the aging and of the migration of silver has been reached in these matrices. Essentially, acidic media caused significant NP oxidation whereas organic macromolecules like lipids, proteins and polysaccharides appeared to increase the stability of the NPs. Subsequently, a migration study from silver-enhanced containers showed significant release of dissolved Ag in 3% acetic acid and a lower release in milk formula. Also, heating led to a considerable release of silver from the container. To conclude, further studies are needed to obtain clear release models to better understand the risk on humans and on the environment.
|
137 |
Discrimination d'événements par analyse des signaux enregistrés par le projet PICASSOArchambault, Simon 07 1900 (has links)
La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle
totale de l’univers serait composée de cette matière de nature inconnue.
Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting
Massive Particles), particules stables, non chargées, prédites par des extensions
du modèle standard, comme candidats.
Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la
matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet
utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un
WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de
phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors
capté par des senseurs piézoélectriques montés sur les parois des détecteurs.
Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition
de phase. D’autres particules environnantes peuvent former des bulles, telles les particules
alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi
en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit
acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient
les gouttelettes en place peut également causer des transitions de phase spontanées.
Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du
matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait
aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination
développées dans le but d’améliorer les limites d’exclusion de détection du WIMP. / Dark matter has been a mystery for astrophysicists for years now. Numerous observations
have shown that up to 85 % of the gravitation mass of the universe is made of this
unknown type of matter. One of the theories explaining this missing mass problem considers
WIMPs (Weakly Interacting Massive Particles), neutral stable particles predicted
by extensions of the standard model, as possible candidates.
The PICASSO experiment (Project In Canada to Search for Supersymetric Objects)
tries to detect this particle directly. The technique uses superheated droplet detectors,
with freon (C4F10) as the active medium. When a WIMP hits the fluorine nucleus, it
creates a nuclear recoil, which in turn triggers a phase transition from a liquid droplet
to a gaseous bubble. The acoustic noise of this event is then recorded by piezoelectric
transducers mounted on the walls of the detector.
There are however other particles than the WIMPs that can trigger this phase transition.
Alpha particles, or even gamma rays can create bubbles. The Data Acquisition System (DAQ)
is also subject to electronic noise that can be picked up, and to acoustic noise coming
from an exterior source. Fractures in the polymer holding the droplets in place can also
trigger spontaneous phase transitions.
There is therefore a need to minimize the impact of these background noises. The
level of purity of the ingredients used in detector fabrication then becomes very important.
Digital processing methods are also used to develop discrimination variables that
improve the limits of detection of the WIMP.
|
138 |
Synthèse du LiXFePO4 par voie fondue et l’étude de la couche de carbone sur LiFePO4Dahéron, Benjamin 03 1900 (has links)
Le LiFePO4 est un matériau prometteur pour les cathodes des batteries au lithium. Il possède une bonne stabilité à haute température et les précurseurs utilisés pour la synthèse sont peu couteux. Malheureusement, sa faible conductivité nuit aux performances électrochimiques. Le fait de diminuer la taille des particules ou d’enrober les particules d’une couche de carbone permet d’augmenter la conductivité. Nous avons utilisé une nouvelle méthode appelée « synthèse par voie fondue » pour synthétiser le LiFePO4. Cette synthèse donne des gros cristaux et aucune impureté n’est détectée par analyse Rayon-X. En revanche, la synthèse de LiXFePO4 donne un mélange de LiFePO4 pur et d’impureté à base de lithium ou de fer selon l’excès de fer ou de lithium utilisé. La taille des particules de LiFePO4 est réduite à l’aide d’un broyeur planétaire et plusieurs paramètres de broyage sont étudiés. Une couche de carbone est ensuite déposée sur la surface des particules broyées par un traitement thermique sur le LiFePO4 avec du -lactose. L’influence de plusieurs paramètres comme la température du traitement thermique ou la durée du chauffage sont étudiés. Ces expériences sont réalisées avec un appareil d’analyse thermogravimétrique (ATG) qui donne la quantité de chaleur ainsi que la variation de masse durant le chauffage de l’échantillon. Ce nouveau chauffage pour la couche de carbone donne des échantillons dont les performances électrochimiques sont similaires à celles obtenues précédemment avec la méthode de chauffage pour la couche de carbone utilisant le four tubulaire. / LiFePO4 is a promising cathode material for Lithium-ion batteries. It
provides high thermal stability and is synthesized using low cost materials.
Unfortunately LiFePO4 suffers from a low electrical conductivity, which is harmful
to its electrochemical performance. Decreasing the particle size or coating the
particles with carbon increases the conductivity of the material. We have used a
new synthetic method called molten synthesis to synthesize LiFePO4. The molten
synthesis produces large crystals of LiFePO4 with no impurity detected via X-ray
diffraction analysis. Moreover, the synthesis of LiXFePO4 gives a mixture of pure
LiFePO4 and Li-based impurities or LiFePO4 and Fe-based impurities whenever
there is an excess of lithium or iron used. The particle size of the synthesized
material is reduced via a Planetary Mill and numerous milling parameters were
investigated. A carbon coating was then deposited on the surface of the milled
material by thermally treating LiFePO4 with β-lactose. The influences of several
parameters such as heat treatment temperature and/or heating duration were
studied. These experiments were performed using a thermogravimetric analysis
(TGA), which provides the amount of heat and weight change during the heating
of the sample. This new heating method for carbon coating gave rise to samples
with similar electrochemical performance data as to the previously established
heating method involving a tubular furnace.
|
139 |
Séparation, détection et caractérisation de nanoparticules manufacturées dans des eaux naturelles et usées avec la chromatographie hydrodynamique et de multiples détecteursProulx, Kim 10 1900 (has links)
L’utilisation accrue des nanomatériaux manufacturés (NM) fait en sorte que les différents acteurs de réglementation se questionnent de plus en plus par rapport à leur destin et leurs impacts sur les écosystèmes et la santé humaine suite à leur rejet dans l’environnement. Le développement de techniques analytiques permettant de détecter et de caractériser les NM en matrice environnementale est impératif étant donné la nécessité d’évaluer le risque relié à ces polluants émergents.
Une des approches de plus en plus favorisée est d’utiliser une technique chromatographique et un ou plusieurs détecteurs sensibles dans les buts de réduire les effets de matrice, d’identifier des nanoparticules (NP) selon leurs temps de rétention et de les quantifier à des concentrations représentatives de la réalité environnementale. Une technique analytique utilisant la chromatographie hydrodynamique (HDC) et des détecteurs en ligne ou hors ligne (détecteurs de diffusion statique ou dynamique de la lumière, spectromètre de masse par torche à plasma en mode particule unique (SP-ICPMS), l’ultracentrifugation analytique) a donc été développée.
Le couplage de la colonne HDC avec ces détecteurs a permis de caractériser des NP standards et l’optimisation des conditions de séparation de ces nanoparticules de polystyrène, d’or et d’argent a permis de confirmer que les NP y sont bel et bien séparées seulement selon leur taille, tel que la théorie le prédit. De plus, l’utilisation de la colonne HDC couplée au SP-ICPMS a permis de séparer un mélange de nanoparticules d’argent (nAg) et de les détecter à des concentrations représentatives de celles rencontrées dans l’environnement, soit de l’ordre du μg L-1 au ng L-1. Par exemple, dans un échantillon d’eau usée (effluent), un mélange de nAg de 80 et de 40 nm a été séparé et les nAg ont été détectées à l’aide du SP-ICPMS connecté à la colonne HDC (temps de rétention de 25.2 et 25.6 minutes et diamètres déterminés de 71.4 nm et 52.0 nm). Finalement, pour plusieurs échantillons environnementaux auxquels aucun ajout de nanoparticules n’a été fait, les analyses HDC-SP-ICPMS effectuées ont permis de déterminer qu’ils ne contenaient initialement pas de nAg. / Due to the widespread use of engineered nanoparticles (ENP), regulatory agencies are very concerned about their fate and their impacts on the environment and on human health. The development of analytical techniques, which will allow the detection, characterization and quantification of ENP in environmental matrices, is therefore critical in order to properly evaluate the exposure associated with these emerging pollutants.
One promising approach to detect and quantify the nanoparticles is to couple a chromatographic technique to a sensitive detector in order to: (i) reduce matrix effects; (ii) identify nanoparticles from their retention times and (iii) quantify the ENP at environmentally relevant concentrations. Consequently, the coupling of hydrodynamic chromatography (HDC) was performed with both on-line and off-line detectors (light scattering detectors, inductively coupled plasma mass spectrometer in its single particle mode (SP-ICPMS) and an analytical ultracentrifuge).
HDC was first used for the characterization of ENP standards. Separation conditions were optimized for standard nanoparticle suspensions of polystyrene, gold and silver, which allowed us to confirm that the separation was occurring, based on hydrodynamic size, as predicted by theory. By coupling the HDC column to the ICPMS detector in its ‘‘single particle’’ mode, it was possible to separate an ENP mixture and to detect the nanoparticles at environmental concentrations, i.e., in the μg L-1 to ng L-1 range. For example, in a wastewater sample (effluent wastewater), a mixture of two silver nanoparticles (nAg) of 40 and 80 nm were separated and the nAg were detected by SP-ICPMS at retention times of 25.2 and 25.6 minutes. Diameters of 71.4 nm and 52.0 nm were found. HDC-SP-ICPMS analysis carried out on different non-spiked wastewater samples allowed us to conclude that nAg was below the detection limit of 0.1 µg L-1.
|
140 |
Lessivage de l'atmosphère par la pluie : approche microphysique / Below-cloud scavenging by the rain : a microphysical approachQuérel, Arnaud 07 December 2012 (has links)
Les particules d’aérosol sont une composante essentielle de l’atmosphère, et cette importance s’amplifie lors d’une éventuelle libération dans l’atmosphère de matières radioactives sous forme particulaire. En effet, pour améliorer la connaissance autour de la contamination des sols consécutive à une émission de particules, il est important d’étudier le rabattement des particules par la pluie sous le nuage. Dans ce but, des expériences sont menées à l’échelle microphysique (expérience BERGAME) pour quantifier l’efficacité des gouttes de pluie à collecter les particules. Ceci permet au final d’améliorer la modélisation du lessivage des aérosols atmosphériques par la pluie à méso-échelle. Le modèle utilisé est DESCAM qui décrit de manière détaillée les distributions granulométriques en masse et en nombre des particules pour chaque type d’aérosol et des hydrométéores et calcule leur évolution due aux processus microphysiques nuageux. L’expérience BERGAME a été dimensionnée et construite pour mesurer l’efficacité de collecte car les mesures de ce paramètre se sont avérées en désaccord avec les modèles classiques de la littérature pour les gouttes de pluie d’un diamètre supérieur au millimètre. Un montage optique a été imaginé pour tenter de comprendre quels mécanismes de collecte sont négligés dans les modèles standards. Un nouveau modèle d’efficacité de collecte pour les gouttes d’un diamètre de 2 mm est alors proposé prenant en compte pour les grosses gouttes une recirculation turbulente dans le sillage de la goutte capable d’augmenter de façon importante la capture des petites particules. Les nouvelles efficacités de collecte ainsi mesurées et paramétrées sont ajoutées au modèle de nuage DESCAM. Des modifications significatives sur la modélisation du lessivage par DESCAM sont observées, ouvrant ainsi la voie à une amélioration de la modélisation de la contamination des sols par les modèles de dispersion atmosphérique. / Aerosol particles are an important component of the atmosphere and are of great concern in the case of an accidental release of radioactive particles. To better understand ground contamination due to a particle release in the vicinity of an accident, it is important to study the particle scavenging associated with rain. To achieve this objective during this thesis, an experiment at the microphysical scale (BERGAME experiment) was developed and the modelling of the washout was improved at mesoscale. The model used was DESCAM : a microphysics model that describes the bin size distributions for aerosol particles and hydrometeors and calculates their evolution due to microphysical cloud processes. The BERGAME experiment was designed and built to measure the collection efficiencies which disagree with theoretical calculation. Using an optical method, it was shown that those discrepancies were due to rear capture. A new model of collection efficiencies for the 2 mm drops was proposed that takes into account for big raindrops the turbulent circulation occurring downstream increasing significantly the capture of small particles. The corrected collection efficiencies were implemented in the DESCAM model. By this way, significant modifications of the modelling were observed and studied. This is an important step toward an accurate modelling of the ground contamination in atmospheric dispersion models.
|
Page generated in 0.0801 seconds