• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 709
  • 337
  • 59
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 1091
  • 310
  • 295
  • 260
  • 238
  • 203
  • 114
  • 113
  • 111
  • 91
  • 80
  • 71
  • 69
  • 68
  • 66
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Contribution à l'étude probabiliste et numérique d'équations homogènes issues de la physique statistique : coagulation-fragmentation / Contribution to the probabilistic and numerical study of homogeneous equations issued from statistical physics : coagulation-fragmentation

Cepeda Chiluisa, Eduardo 03 June 2013 (has links)
Cette thèse est consacrée à l'étude de systèmes subissant des coagulations et fragmentations successives. Dans le cas déterministe, on travaille avec des solutions mesures de l'équation de coagulation - multifragmentation. On étudie aussi la contrepartie stochastique de ces systèmes : les processus de coalescence - multifragmentation qui sont des processus de Markov à sauts. Dans un premier temps, on étudie le phénomène de coagulation seul. D'un côté, l'équation de Smoluchowski est une équation intégro-différentielle déterministe. D'un autre côté, on considère le processus stochastique connu sous le nom de Marcus-Lushnikov qui peut être regardé comme une approximation de la solution de l'équation de Smoluchowski. Nous étudions la vitesse de convergence par rapport à la distance de type Wassertein $d_{lambda}$ entre les mesures lorsque le nombre de particules tend vers l'infini. Notre étude est basée sur l'homogénéité du noyau de coagulation $K$.On complémente les calculs pour obtenir un résultat qui peut être interprété comme une généralisation de la Loi des Grands Nombres. Des conditions générales et suffisantes sur des mesures discrètes et continues $mu_0$ sont données pour qu'une suite de mesures $mu_0^n$ à support compact existe. On a donc trouvé un taux de convergence satisfaisant du processus Marcus-Lushnikov vers la solution de l'équation de Smoluchowski par rapport à la distance de type Wassertein $d_{lambda}$ égale à $1/sqrt{n}$.Dans un deuxième temps on présente les résultats des simulations ayant pour objectif de vérifier numériquement le taux de convergence déduit précédemment pour les noyaux de coagulation qui y sont étudiés. Finalement, on considère un modèle prenant en compte aussi un phénomène de fragmentation où un nombre infini de fragments à chaque dislocation est permis. Dans la première partie on considère le cas déterministe, dans la deuxième partie on étudie un processus stochastique qui peut être interprété comme la version macroscopique de ce modèle. D'abord, on considère l'équation intégro-partielle différentielle de coagulation - multifragmentation qui décrit l'évolution en temps de la concentration $mu_t(x)$ de particules de masse $x>0$. Le noyau de coagulation $K$ est supposé satisfaire une propriété de $lambda$-homogénéité pour $lambdain(0,1]$, le noyau de fragmentation $F$ est supposé borné et la mesure $beta$ sur l'ensemble de ratios est conservative. Lorsque le moment d'ordre $lambda$ de la condition initial $mu_0$ est fini, on est capable de montrer existence et unicité d'une solution mesure de l'équation de coagulation - multifragmentation. Ensuite, on considère la version stochastique de cette équation, le processus de coalescence - fragmentation est un processus de Markov càdlàg avec espace d'états l'ensemble de suites ordonnées et est défini par un générateur infinitésimal donné. On a utilisé une représentation Poissonienne de ce processus et la distance $delta_{lambda}$ entre deux processus. Grâce à cette méthode on est capable de construire une version finie de ce processus et de coupler deux processus démarrant d'états initiaux différents. Lorsque l'état initial possède un moment d'ordre $lambda$ fini, on prouve existence et unicité de ces processus comme la limite de suites de processus finis. Tout comme dans le cas déterministe, le noyau de coagulation $K$ est supposé satisfaire une propriété d'homogénéité. Les hypothèses concernant la mesure $beta$ sont exactement les mêmes. D'un autre côté, le noyau de fragmentation $F$ est supposé borné sur tout compact dans $(0,infty)$. Ce résultat est meilleur que celui du cas déterministe, cette amélioration est due à la propriété intrinsèque de masse totale non-explosive que possède un système avec un moment fini d'ordre $lambda$ / This thesis is devoted to the study of systems of particles undergoing successive coagulations and fragmentations. In the deterministic case, we deal with measure-valued solutions of the coagulation - multifragmentation equation. We also study, on the other hand, its stochastic counterpart: coalescence - multifragmentation Markov processes. A first chapter is devoted to the presentation of the mathematical tools used in this thesis and to the discussion on some topics treated in the following chapters. n Chapter 1 we only take into account coagulation phenomena. We consider the Smoluchowski equation (which is deterministic) and the Marcus-Lushnikov process (the stochastic version) which can be seen as an approximation of the Smoluchowski equation. We derive a satisfying rate of convergence of the Marcus-Lushnikov process toward the solution to Smoluchowski's coagulation equation. The result applies to a class of homogeneous-like coagulation kernels with homogeneity degree ranging in $(-infty,1]$. It relies on the use of the Wasserstein-type distance $d_{lambda}$, which has shown to be particularly well-adapted to coalescence phenomena. It was introduced and used in preceding works. In Chapter 2 we perform some simulations in order to confirm numerically the rate of convergence deduced in Chapter ref{Chapter1} for the kernels studied in this chapter.medskip Finally, in Chapter 3 we add a fragmentation phenomena and consider a coagulation multiple-fragmentation equation, which describes the concentration $c_t(x)$ of particles of mass $x in (0,infty)$ at the instant $t geq 0$. We study the existence and uniqueness of measured-valued solutions to this equation for homogeneous-like kernels of homogeneity parameter $lambda in (0,1]$ and bounded fragmentation kernels, although a possibly infinite number of fragments is considered. We also study a stochastic counterpart of this equation where a similar result is shown. We prove existence of such a process for a larger set of fragmentation kernels, namely we relax the boundedness hypothesis. In both cases, the initial state has a finite $lambda$-moment
372

Proposition d'une méthode d'alignement de l'accélérateur linéaire CLIC : des réseaux de géodésie au pré-alignement actif / Proposal of an alignment method of the CLIC linear accelerator : from geodetic networks to the active pre-alignment

Touze, Thomas 11 January 2011 (has links)
Le compact linear collider (CLIC) est le projet de collisionneur de particules proposé par l'organisation européenne pour la recherche nucléaire (CERN) visant à succéder au large hadron collider (LHC). Du fait des dimensions nanométriques des faisceaux de leptons de ce projet, les accroissements admissibles de l'émittance sont extrêmement faibles. Cela a pour conséquence des tolérances d'alignement des composants du CLIC jamais atteintes. La dernière étape de l'alignement sera effectuée par rapport au faisceau de particules du CLIC. Elle est du ressort des physiciens du faisceau. Toutefois son implémentation nécessite un pré-alignement qui lui-même représente un défi métrologique et géodésique : atteindre 10 μm à 3σ le long d'une fenêtre coulissante de 200 m. Un tel niveau de précision requiert le développement d'une méthode compatible avec des systèmes de repositionnement qui seront constamment sollicités. Le pré-alignement du CLIC devra être actif. Cette thèse ne démontre pas la faisabilité du pré-alignement actif du CLIC mais montre le chemin des derniers développements à effectuer dans ce but. Il y est proposé une méthode, fondée sur la gestion des similitudes entre systèmes euclidiens de coordonnées, qui, de la géodésie aux mesures métrologiques, est susceptible d'apporter la solution. Des expériences sur de longues distances ont été construites dans le but d'éprouver, en parallèle de simulations de Monte-Carlo, les modèles mathématiques des systèmes de mesure et des références d'alignement ainsi créés. L'extrapolation de ces modèles, une fois validés expérimentalement, sur toute la longueur du CLIC, sera la dernière étape prouvant la faisabilité du pré-alignement / The compact linear collider (CLIC) is the particles accelerator project proposed by the european organization for nuclear research (CERN) for high energy physics after the large hadron collider (LHC). Because of the nanometric scale of the CLIC leptons beams, the emittance growth budgetis very tight. It induces alignment tolerances on the positions of the CLICcomponents that have never been achieved. The last step of the CLIC alignment will be done according to the beam itself. It falls within the competence of the physicists. However, in order to implement the beam-based feedback, a challenging pre-alignment is required: 10 μm at 3σ along a 200 m sliding window. For such a precision, the proposed solution must be compatible with a feedback between the measurement and repositioning systems. The CLIC pre-alignment will have to be active. This thesis does not demonstrate the feasibility of the CLIC active prealignment but shows the way to the last developments that have to be done for that purpose. A method is proposed. Based on the management of the Helmert transformations between Euclidian coordinate systems, from the geodetic networks to the metrological measurements, this method is likely to solve the CLIC pre-alignment problem. Large scale facilities have been built and Monte-Carlo simulations have been made in order to validate the mathematical modelings of the measurement systems and of the alignment references. When this is done, it will be possible to extrapolate the modelings to the entire CLIC length. It will be the last step of the demonstration of the CLIC pre-alignment feasibility
373

Modélisation et simulation numérique de la dynamique des nanoparticules appliquée aux atmosphères libres et confinées / Modeling and numerical simulation of the dynamics of nanoparticles applied to free and confined atmospheres

Devilliers, Marion 23 November 2012 (has links)
Il est probable qu'à terme les émissions de nanoparticules soient réglementées et ce sont donc les concentrations en nombre qui seront considérées. Il convient donc d'adapter les modèles afin de pouvoir simuler correctement les concentrations en nombre, dans les ambiances confinées comme dans l'atmosphère. Un modèle de dynamique des particules capable de suivre avec autant de précision la concentration en nombre que la concentration en masse, avec un temps de calcul optimal, a été développé. La dynamique des particules dépend de divers processus, les plus importants étant la condensation/évaporation, suivie par la nucléation, la coagulation, et les phénomènes de dépôts. Ces processus sont bien connus pour les particules fines et grossières, mais dans le cas des nanoparticules, certains phénomènes additionnels doivent être pris en compte, notamment l'effet Kelvin pour la condensation/ évaporation et les forces de van der Waals pour la coagulation. Le travail a tout d'abord porté sur le processus de condensation/évaporation, qui s'avère être le plus compliqué numériquement. Les particules sont présumées sphériques. L'effet Kelvin est pris en compte car il devient considérable pour les particules de diamètre inférieur à 50 nm. Les schémas numériques utilisés reposent sur une approche sectionnelle : l'échelle granulométrique des particules est discrétisée en sections, caractérisées par un diamètre représentatif. Un algorithme de répartition des particules est utilisé, après condensation/évaporation, afin de conserver les diamètres représentatifs à l'intérieur de leurs sections respectives. Cette redistribution peut se faire en terme de masse ou de nombre. Un des points clé de l'algorithme est de savoir quelle quantité, de la masse ou du nombre, doit être redistribuée. Une approche hybride consistant à répartir la quantité dominante dans la section de taille considérée (le nombre pour les nanoparticules et la masse pour les particules fines et grossières) a été mise en place et a permis d'obtenir une amélioration de la précision du modèle par rapport aux algorithmes existants, pour un large choix de conditions. Le processus de coagulation pour les nanoparticules a aussi été résolu avec une approche sectionnelle. La coagulation est régie par le mouvement brownien des nanoparticules. Pour cette approche, il a été constaté qu'il est plus efficace de calculer le noyau de coagulation en utilisant le diamètre représentatif de la section plutôt que de l'intégrer sur la section entière. Les simulations ont aussi pu montrer que les interactions de van der Waals amplifient fortement le taux de coagulation pour les nanoparticules. La nucléation a été intégrée au modèle nouvellement développé en incorporant un terme source de nanoparticules dans la première section, commençant à un nanomètre. La formulation de ce taux de nucléation correspond à celle de l'acide sulfurique mais le traitement des interactions numériques entre nucléation, coagulation et condensation/évaporation est générique. Différentes stratégies de couplage visant à résoudre séparément ou en même temps les trois processus sont discutées. Afin de pouvoir proposer des recommandations, différentes méthodes numériques de couplage ont été développées puis évaluées par rapport au temps de calcul et à la précision obtenue en terme de concentration massique et numérique / It is necessary to adapt existing models in order to simulate the number concentration, and correctly account for nanoparticles, in both free and confined atmospheres. A model of particle dynamics capable of following accurately the number as well as the mass concentration of particles, with an optimal calculation time, has been developed. The dynamics of particles depends on various processes, the most important ones being condensation/evaporation, followed by nucleation, coagulation, and deposition phenomena. These processes are well-known for fine and coarse particles, but some additional phenomena must be taken into account when applied to nanoparticles, such as the Kelvin effect for condensation/evaporation and the van der Waals forces for coagulation. This work focused first on condensation/evaporation, which is the most numerically challenging process. Particles were assumed to be of spherical shape. The Kelvin effect has been taken into account as it becomes significant for particles with diameter below 50 nm. The numerical schemes are based on a sectional approach : the particle size range is discretized in sections characterized by a representative diameter. A redistribution algorithm is used, after condensation/ evaporation occurred, in order to keep the representative diameter between the boundaries of the section. The redistribution can be conducted in terms of mass or number. The key point in such algorithms is to choose which quantity has to be redistributed over the fixed sections. We have developed a hybrid algorithm that redistributes the relevant quantity for each section. This new approach has been tested and shows significant improvements with respect to most existing models over a wide range of conditions. The process of coagulation for nanoparticles has also been solved with a sectional approach. Coagulation is monitored by the brownian motion of nanoparticles. This approach is shown to be more efficient if the coagulation rate is evaluated using the representative diameter of the section, rather than being integrated over the whole section. Simulations also reveal that the van derWaals interactions greatly enhance coagulation of nanoparticles. Nucleation has been incorporated into the newly developed model through a direct source of nanoparticles in the first size section, beginning at one nanometer. The formulation of this rate of nucleation corresponds to that of sulfuric acid but the treatment of the numerical interactions between nucleation, coagulation and condensation/evaporation is generic. Various strategies aiming to solve separately or jointly these three processes are discussed. In order to provide recommendations, several numerical splitting methods have been implemented and evaluated regarding their CPU times and their accuracy in terms of number and mass concentrations
374

Nonpertubative quantum chromodynamics and isospin symmetry breaking / Chromodynamique quantique non perturbative et brisures de la symétrie d'Isospin

Portelli, Antonin 14 December 2012 (has links)
Depuis les années 1930, on sait que le noyau des atomes est composé de deux types de particules: les protons et les neutrons. Ces deux particules sont très similaires: d'une part le neutron est subtilement plus lourd (un pour mille) que le proton et d'autre part le proton porte une charge électrique positive tandis que le neutron est neutre. La petite différence de masse entre le neutron et le proton fourni l'énergie suffisante pour autoriser désintégration où un neutron se désintègre en un proton en émettant un électron et un anti-neutrino électronique. Aussi, le fait que le proton ne se désintègre pas assure la stabilité de l'atome d'hydrogène. De plus, on sait empiriquement que les paramètres de la désintégration déterminent la composition des noyaux d'atomes stables plus lourds que l'hydrogène. Il est donc raisonnable de penser que si la différence de masse entre le neutron et le proton était de signe opposé ou seulement légèrement différente, l'Univers visible serait surement très différent de celui que l'on connait. Il est donc essentiel de comprendre l'origine de cette différence de masse à partir des principes premiers de la physique. C'est à ce problème, et à des problèmes liés à celui-ci, qu'essaye de répondre ce travail. Dans la compréhension actuelle de la physique, les neutrons et les protons sont des particules composées de particules élémentaires appelées quark up (symbole u) et quark down (symbole d). Le proton est un état lié uud et le neutron est un état lié udd. Les quarks up et down sont deux particules similaires: elles sont toutes deux légères (de l'ordre de quelques MeV) et leurs charges électriques sont différentes. / .
375

Influence de l'évolution climatique sur la qualité de l'air en Europe / Influence of climate change on air quality in Europe

Lecoeur, Eve 10 December 2013 (has links)
La pollution atmosphérique est le produit de fortes émissions de polluants (et de leurs précurseurs) et de conditions météorologiques défavorables. Les particules fines (PM2.5) sont l'un des polluants les plus dangereux pour la santé publique. L'exposition répétée ou prolongée à ces particules entraîne chaque année des maladies respiratoires et cardio-vasculaires chez les personnes exposées ainsi que des morts prématurées. L'évolution du climat dans les années à venir aura un impact sur des variables météorologiques (température, vents, précipitations, ...). Ces variables influencent à leur tour divers facteurs, qui affectent la qualité de l'air (émissions, lessivage par les précipitations, équilibre gaz/particule, ...). Si de nombreuses études ont déjà projeté l'effet du changement climatique sur les concentrations d'ozone, peu se sont intéressées à son effet sur les concentrations de particules fines, en particulier à l'échelle du continent européen. C'est ce que cette thèse se propose d'étudier. La circulation atmosphérique de grande échelle est étroitement liée aux variables météorologiques de surface. Par conséquent, il est attendu qu'elle ait également un impact sur les concentrations de PM2.5. Nous utilisons dans cette thèse une approche statistique pour estimer les concentrations futures de PM2.5 à partir d'observations présentes de PM2.5, de quelques variables météorologiques pertinentes et d'outils permettant de représenter cette circulation atmosphérique (régimes et types de temps). Le faible nombre d'observations journalières de PM2.5 et de ses composants en Europe nous a conduit à créer un jeu de données pseudo-observées à l'aide du modèle de qualité de l'air Polyphemus/Polair3D, puis à l'évaluer de façons opérationnelle et dynamique, afin de s'assurer que l'influence des variables météorologiques sur les concentrations de PM2.5 est reproduite de manière satisfaisante par le modèle. Cette évaluation dynamique d'un modèle de qualité de l'air est, à notre connaissance, la première menée à ce jour.Les projections de PM2.5 sur les périodes futures montrent une augmentation systématique des concentrations de PM2.5 au Royaume-Uni, dans le nord de la France, au Benelux et dans les Balkans, et une diminution dans le nord, l'est et le sud-est de l'Europe, en Italie et en Pologne. L'évolution de la fréquence des types de temps ne suffit pas toujours à expliquer l'évolution de ces concentrations entre les périodes historique et futures, car les relations entre circulation atmosphérique de grande échelle et types de temps, entre types de temps et variables météorologiques, et entre variables météorologiques et concentrations de PM2.5 sont amenées à évoluer dans le futur et contribuent à l'évolution des concentrations de PM2.5. L'approche statistique développée dans cette thèse est nouvelle pour l'estimation de l'impact du climat et du changement climatique sur les concentrations de PM2.5 en Europe. Malgré les incertitudes qui y sont associées, cette approche est facilement adaptable à différents modèles et scénarios, ainsi qu'à d'autres régions du monde et d'autres polluants. En utilisant des observations pour définir la relation polluant-météorologie, cette approche serait d'autant plus robuste / Air pollution is the result of high emissions of pollutants (and pollutant precursors) and unfavorable meteorological conditions. Fine particulate matter (PM2.5) is one of the pollutants of great concern for human health. Every year, a repeated or continuous exposure to such particles is responsible for respiratory and cardiovascular diseases among the concerned populations and leads to premature deaths. Climate change is expected to impact meteorological variables (temperature, wind, precipitation,...). Those variables will influence numerous factors, which will affect air quality (emissions, precipitation scavenging, gas/particle equilibrium,...). A large body of studies have already investigated the effects of climate change on ozone, whereas only a few have addressed its effects on PM2.5 concentrations, especially over Europe. This is the subject we investigate in this thesis. Large-scale circulation is closely linked to surface meteorological variables. Therefore, it is expected that it will impact PM2.5 concentrations too. In this thesis, we develop a statistical algorithm to estimate future PM2.5 concentrations from present PM2.5 observations, selected meteorological variables and tools to represent this circulation (weather regimes and weather types). The lack of daily observations of PM2.5 and its components over Europe prevents us to used observations. Consequently, we have created a pseudo-observed PM2.5 data set, by using the Polyphemus/Polair3D air quality Chemical-Transport Model. Both operational and dynamic evaluations were conducted against EMEP measurements, to ensure that the influence of meteorological variables on PM2.5 concentrations is correctly reproduced by the model. As far as we know, this dynamic evaluation of an air quality model with respect to meteorology is the first conducted to date.Future PM2.5 concentrations display an increase over the U.K., northern France, Benelux, and in the Balkans, and a decrease over northern, eastern, and southeastern Europe, Italy, and Poland compared to the historical period. The evolution of weather type frequencies is not sufficient to explain the PM2.5 changes. The relationships between the large-scale circulation and the weather types, between the weather types and meteorological variables, and between meteorological variables and PM2.5 concentrations evolve with future meteorological conditions and also contribute to PM2.5 changes. The statistical method developed in this thesis is a new approach to estimate the impact of climate and climate change on PM2.5 concentrations over Europe. Despite some uncertainties, this approach is easily applicable to different models and scenarios, as well as other geographical regions and other pollutants. Using observations to establish the pollutant-meteorology relationship would make this approach more robust
376

Développement d'un dispositif expérimental pour la mesure des émissions induites par la combustion des parfums d'ambiance

Manoukian, Audrey 13 June 2012 (has links)
La composition de l'air intérieur est complexe et fortement influencée par les activités humaines. Celles-ci engendrent notamment l'émission de composés organiques et de particules. Les inquiétudes grandissantes quant à la qualité de l'air intérieur et à son impact sanitaire ont contraint les pouvoirs publics à prendre des mesures pour mieux assurer son suivi. Parmi les activités humaines fréquemment soupçonnées de contribuer à la contamination de l'air intérieur, on retrouve l'utilisation de parfums d'ambiance de types encens et bougies. De récentes études ont montré que cette pratique pouvait entraîner l'émission de composés organiques volatils (COV) et de particules. Une des carences liées à ces études résulte dans le fait qu'il n'existe pas de protocole de prélèvement et de mesures normalisés pour ce type de pratique, rendant l'exploitation et l'inter comparaison des résultats sujette à beaucoup de controverses. Les industriels français ont dès lors souhaité réagir, par la mise en place d'une méthodologie commune de mesure des émissions induites par la combustion des parfums d'ambiance. Le but de ce travail est de développer et de valider un dispositif expérimental permettant de mieux contrôler la combustion et les paramètres environnementaux qui l'influencent, afin de disposer d'un protocole expérimental calibré et reproductible. Ainsi, après avoir étudié les types de polluants et les possibilités de prélèvements et d'analyses associées, l'étude a été conduite en trois étapes. La première a été réalisée dans une pièce laboratoire simulant en taille réelle la pièce d'un logement. Elle a permis de déterminer le type de composés émis (COV et particules) par la combustion de parfums d'ambiance et les niveaux de concentrations associés. La seconde étape consistait en la réalisation d'un plan d'expériences complet dans une enceinte d'essais d'émissions pour déterminer l'influence de la température, de l'humidité relative et du taux de renouvellement d'air sur les niveaux émissions. Enfin, dans le cadre de la dernière étape, la méthode et les connaissances acquises précédemment ont été transférées à une enceinte d'essai climatique de faible volume, afin de permettre la réalisation d'analyse en routine. / The indoor air composition is complex and widely influenced by human activities. These practices generate organic compound and particles. Growing concerns about indoor air quality and its impact on health have forced the government to make more studies. Among the human practices, recent studies shown that incense and candle combustion could result in the emission of volatile organic compounds (VOC) and particles. However, there is no standard sample protocol for measuring these emissions. The results comparison is then largely controversy. French manufacturers want to develop a methodology for emissions controlling due to the combustion of incense and candle processes. Through this experimental system, they want to learn much more about these processes and emissions control to anticipate the new law. Thus, after studying about the types of pollutants and sampling/analysis protocol associated, three types of studies were conducted. The first study was carried in a room of a house, to determine which kind of compounds were emitted (VOCs and particulate matter) and their concentration levels. The second study was to apply a full factorial design in a chamber emission test, to determine temperature, relative humidity and air exchange rates emissions influences. Finally, in a last study, the method and the knowledge acquired previously were transferred to a climate test chamber of small volume, allowing manufacturers to make routine analysis.
377

Particules imprégnées : mise en œuvre et application aux procédés de séparation de mélanges gazeux en lit fixe / Impregnated particles : preparation and use in gas separation process in fixed bed

Madariaga Calles, Luis Fernando 06 July 2009 (has links)
Ce travail de thèse repose sur l'étude d’un objet original : des particules solides poreuses imprégnées de liquide non volatil. L'objectif principal de cette thèse est de démontrer le potentiel d’un tel système pour des applications innovantes dans le domaine du traitement de gaz en lit fixe en particulier. Le premier axe de recherche de notre travail concerne l’étude détaillée des processus d’imprégnation de particules de silice par un liquide. Une partie importante du travail est dédiée à la caractérisation des particules imprégnées par une méthode innovante basée sur la rhéologie des poudres très sensible aux changements de surface qui permet de décrire de façon précise l’état d’une particule imprégnée et de comprendre la dynamique du processus d'imprégnation. Une évolution en trois étapes est proposée : adsorption du polymère, infiltration dans les pores et enrobage de la particule. Une seconde partie concerne une étude des propriétés thermodynamiques de plusieurs systèmes liquide – gaz pour identifier le type d’application et le type de composés pour lesquels ce système pourrait s'avérer intéressant. Le système N2-CO2 avec une amine polymère a été choisi pour l’étude expérimentale. Dans la dernière partie, un modèle du procédé est présenté pour simuler les performances de nos particules imprégnées en lit fixe. Ce modèle est validé avec nos résultats expérimentaux. L'objectif de ces simulations est d'identifier les conditions opératoires optimales des différents cycles d'absorption-désorption pour lesquelles les pourcentages de récupération et de concentration du CO2, pour notre application expérimentale, sont maximaux / This work is about an original object: porous particles impregnated with a non volatile liquid. The aim of this work is to show the potential of such a system for applications in the area of gas treatment on fixed beds. The first part of our work is dedicated to the impregnation process and the characterization of such particles by an innovative technique based on powder rheology. This technique is very sensitive to changes on the surface of the particles and helps to understand the impregnation process. Three stages of impregnation are proposed: adsorption of the polymer, filling of the pores and coating of the outer surface. The second part is focused on a thermodynamic study of the properties of some gas-absorbent systems in order to identify the systems for which the retention capacity would be important. The absorbents are compared to activated carbon. A system N2-CO2 with a polymer amine was selected to impregnate the particles and carry out the experimental tests. A model of the process is presented in order to simulate and anticipate the performance of the particles for different operating conditions. The goal of this simulation is to identify the optimal conditions for the absorption-desorption cycles in which the values of recuperation and concentration of CO2 would be maximal
378

Fonctionnalisation de substrats nano-structurés pour la conversion et le stockage de l'énergie / Functionalization of nanostructured substrates for energy conversion and storage

Assaud, Loic 27 September 2013 (has links)
Afin de répondre au besoin de la société actuelle qui utilise toujours plus de moyens de transport et de dispositifs portables, les modes de production, de conversion et de stockage de l'énergie, sont en train de connaître de véritables mutations. Afin de créer des systèmes capables de générer une énergie maîtrisée et renouvelable, les nanosciences et nanotechnologies sont des domaines de premier plan. Le travail présenté dans ce manuscrit décrit la fabrication de structures, de taille nanométrique, organisées à grande échelle. La fonctionnalisation se fait par synthèse de films ou de particules par ALD. Des systèmes MIM sont synthétisés sur des structures ordonnées d'alumine poreuse. Les matériaux déposés en couches minces sont TiN, Al2O3 et HfO2. L'objectif est de fabriquer des nano-condensateurs à hautes performances pouvant être utilisés pour des applications de stockage de données, de mémoire ou pour le stockage d'énergie dans des petits dispositifs comme la technologie RFID.Dans une deuxième partie, des catalyseurs métalliques Pd/Ni sont déposés sur des membranes d'alumine pour l'électro-oxydation de l'acide formique. De la même manière, des nano-tubes de TiO2 fabriqués par oxydation anodique sont fonctionnalisés par des nano-particules de Pd pour l'électrooxydation de l'éthanol. Ces deux études systèmes peuvent conduire à leur utilisation comme catalyseurs au niveau de l'anode des piles à combustible liquide à combustion directe. Enfin, la dernière partie de ce travail consiste au dépôt par voie électrochimique de Cu2O, sur des nano-tubes de TiO2 qui servent de support. La jonction p/n ainsi fabriquée pourra servir pour la photo-conversion de l'énergie solaire. / In order to meet the growing needs in today's society that requests more transportation and portable devices, energy production, conversion and storage systems are now experiencing real changes. To fabricate systems able to generate a controlled and renewable energy, nanoscience and nanotechnology are leading research fields. The work presented in this manuscript describes the fabrication of nanosized, large-scale organized structures. These nanostructures have been functionalized through film and particle synthesis using a chemical vapor deposition method: the Atomic Layer Deposition (ALD).Thus, metal/insulator/metal (MIM) systems are fabricated on highly-ordered high-aspect ratio porous alumina. The materials that have been deposited are TiN, Al2O3 and HfO2. The aim is to produce high performance nanocapacitors that can be used for data storage (DRAM) application or for energy storage in small devices such as RFID.In a second part, metallic catalysts such as Pd/Ni have been deposited on alumina membranes for formic acid electro-oxidation. Similarly, TiO2 nanotubes have been fabricated by anodic oxidation and they have been functionalized with Pd nanoparticles for ethanol electro-oxidation. Both studied systems can be used as anode catalysts in direct liquid fuel cells.Finally, the last part of this work has consisted in the study of Cu2O, as a p-type semiconductor, that has been electrochemically deposited onto TiO2 nanotubes (n-type semiconductor). The resulting p/n junction can be interesting for solar energy photoconversion.
379

Numerical study of particle transport and deposition in porous media / Etude numérique du transport et du dépôt de particules dans les milieux poreux

Fan, Jianhua 29 March 2018 (has links)
L'objectif de ce travail de recherche est d'étudier numériquement le transport et le dépôt de particules dans des milieux poreux à l'échelle des pores.Premièrement, un couplage entre la méthode de Boltzmann sur réseau (LBM) et la méthode des éléments discrets (DEM) est réalisé et utilisé pour simuler l'écoulement d'un fluide chargé en particules. La LBM est utilisée pour décrire l'écoulement du fluide autour des fibres tandis que la DEM est utilisée pour traiter la dynamique des particules. Ce couplage est bidirectionnel dans le sens où le mouvement des particules affecte le flux de fluide et réciproquement. Ce modèle nous a permis de prédire l'efficacité de capture et la chute de pression à l'étape initiale du processus de filtration. Le facteur de qualité est également calculé pour déterminer la qualité de filtration.Ensuite, on se focalise sur l'étude de l'efficacité de la capture de fibres de formes de section transversale différentes (circulaire, losange et carrée). Les résultats issus de nos simulations du processus de filtration de la fibre circulaire concordent bien avec les corrélations empiriques. L'impaction des particules sur la face avant de la fibre de forme carrée est plus importante que dans les cas de fibre de formes circulaire et losange. Cependant, en raison d'une chute de pression plus faible, la fibre de section losange présente une meilleure qualité de filtration. Ensuite, les variations du facteur de qualité dues à l'angle d'orientation et au rapport d'aspect des fibres ont été étudiées numériquement pour la forme rectangulaire. Pour chaque cas, on a déterminé la valeur optimale de la zone au vent pour laquelle le facteur de qualité est maximal. La comparaison des valeurs du facteur de qualité obtenues pour les différentes formes de fibre monte une meilleure performance pour la fibre de section carrée orientée avec un angle de π/4.Enfin, l'influence de l'arrangement des fibres sur la qualité de la filtration est analysée en considérant la configuration en quinconce pour les différentes formes. Les simulations conduites pour différentes tailles de particules et différentes valeurs de la densité (particule/air) montent que la fibre de section losange est plus performante en termes de facteur de qualité pour les particules de grande taille et pour les valeurs de densité élevée. La présente étude fournit des pistes pour optimiser le processus de filtration et prédire la qualité de filtration. / The objective of the present research was to numerically investigate the transport and deposition of particles in porous media at the pore scale. Firstly, a developed coupled lattice Boltzmann method (LBM) and discrete element method (DEM) is used to simulate the fluid-particle flow. LBM is employed to describe the fluid flow around fibers whereas DEM is used to deal with the particle dynamics. The corresponding method is two-way coupling in the sense that particle motion affects the fluid flow and reciprocally. It allowed us to predict the capture efficiency and pressure drop at the initial stage of filtration process. The quality factor is also calculated for determining the filtration performance. Secondly, we focus on the study the capture efficiency of single fiber with circular, diamond and square cross-section, respectively. The results of LBM-DEM for filtration process of single circular fiber agree well with the empirical correlation. The impaction of particles on the front side of square-shaped fiber is more favorable than those on circular and diamond cases. However, diamond fiber exhibits a good filtration performance. Then the variations of quality factor due to the different orientation angle and aspect ratio of rectangular fiber were studied using LBM-DEM. For each case, we have found the optimal value of the windward area to which corresponds a maximum value of the quality factor. The comparison of the performance of the different forms of fibers shows that the largest quality factor is obtained for square fiber oriented with angle π/4.Finally, the influence of the arrangement of fiber on filtration performance is analyzed by considering the staggered configuration. Simulations conducted for several particle size and density show that the diamond with staggered array performs better for large particles and high particle-to-fluid density ratio in terms of quality factor. The present study provide an insight to optimize the filtration process and predict filtration performance.
380

Propriétés optiques effectives de films composites de polymère et de nanoparticules d’or / Effective optical properties of polymer - gold nanoparticle composite films

Vieaud, Julien 14 November 2011 (has links)
Nous étudions, par ellipsométrie spectroscopique, les propriétés optiques dans le domaine de l'UV-Visible-Infrarouge de films composites constitués de polymère et de nanoparticules d'or. Nous étudions la relation entre ces mesures et la structure des nanocomposites, que nous étudions par microscopie à force atomique en particulier. Nous distinguons l’analyse de films épais (tri-dimensionnels) et minces (quasi-bidimensionnels). Dans les deux cas, nous confrontons les résultats expérimentaux à des modèles théoriques de milieux effectifs dérivés de Maxwell-Garnett, en particulier. / By spectroscopic ellipsometry, we study the optical properties in the range of UV-Visible-Infrared of composites films made of polymer and gold nanoparticles. We study the relation between these measurement and the structure of the nanocomposites, that we study by atomic force microscopy in particular. We distinguish the analysis of thicks films (tridimensionals) and thins (quasi-bidimensionals). In both of case, we confronte these experimentals results to the theoric models of effectives medium derivated for Maxwell-Garnett in particular.

Page generated in 0.0234 seconds