• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 567
  • 320
  • 160
  • 42
  • 35
  • 28
  • 26
  • 16
  • 16
  • 14
  • 11
  • 10
  • 9
  • 5
  • 3
  • Tagged with
  • 1454
  • 140
  • 112
  • 110
  • 106
  • 104
  • 98
  • 96
  • 92
  • 85
  • 83
  • 78
  • 68
  • 64
  • 63
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Quasi-brittle failure of heterogeneous materials : damage statistics and localization / Rupture quasi-fragile des matériaux hétérogènes : statistique de l'endommagement et localisation

Berthier, Estelle 21 December 2015 (has links)
Nous proposons une nouvelle approche inspirée des modèles d'endommagement non-locaux pour décrire la ruine des matériaux quasi-fragiles désordonnés. Les hétérogénéités matériaux sont introduites à une échelle continue mésoscopique via des variations spatiales de la résistance à l'endommagement alors que le mécanisme de redistribution des contraintes est décrit à travers une fonction d'interaction que l'on peut faire varier. L'évolution spatio-temporelle de l'endommagement est déterminée à partir du principe de conservation d'énergie et caractérisée via une étude statistique des précurseurs à la rupture. Cette approche nous permet de prédire la valeur des seuils de localisation et de rupture en fonction de la nature des redistributions. A l'approche de la rupture, nous mettons également en évidence une augmentation en loi de puissance du taux d'énergie dissipée ainsi qu'une longueur de corrélation, supportant l'interprétation de la rupture quasi-fragile comme un phénomène critique. En effet, nous démontrons que notre model d'endommagement s'apparente à la loi d'évolution d'une interface élastique évoluant dans un milieu désordonné. Cette analogie nous permet d'identifier les paramètres d'ordre et de contrôle de cette transition critique et d'expliquer les invariances d'échelle des fluctuations dans la limite champ moyen. Enfin, nous appliquons ces concepts théoriques à travers l'étude expérimentale de la compression d'un empilement bidimensionnel de cylindres élastiques. Notre approche permet de décrire de façon quantitative la réponse mécanique non-linéaire du matériau, et en particulier la statistique des précurseurs ainsi que la localisation des déformations. / We propose a novel approach inspired from non-local damage continuum mechanics to describe damage evolution and quasi-brittle failure of disordered solids. Heterogeneities are introduced at a mesoscopic continuous scale through spatial variations of the material resistance to damage. The central role played by the load redistribution during damage growth is analyzed by varying the interaction function used in the non-local model formulation. The spatio-temporal evolution of the damage field is obtained from energy conservation arguments, so that the formulation is thermodynamically consistent. We analytically determine the onsets of localization and failure that appear controlled by the redistribution function. Damage spreading is characterized through a complete statistical analysis of the spatio-temporal organization of the precursors to failure. The power law increase of the rate of energy dissipated by damage and an extracted correlation length close to failure supports the interpretation of quasi-brittle failure as a critical phenomena. Indeed, we establish a connection between our damage model and the evolution law of an elastic interface driven in a disordered medium. It allows to identify the order and control parameters of the critical transition, and capture the scale-free statistical properties of the precursors within the mean field limit. Finally, we experimentally investigate the coaction of localized dissipative events and elastic redistributions in disordered media via compression experiments of two-dimensional arrays of hollow soft cylinders. Our experimental observations show a quantitative agreement with the predictions derived following our approach.
192

Étude des performances de variants du virus de l’hépatite B / Fitness study of hepatitis B virus variants

Billioud, Gaëtan 05 May 2011 (has links)
Les traitements actuels contre le virus de l’hépatite B (VHB) combinent un ou plusieurs analogues de nucléos(t)ides qui inhibent directement la réplication virale en bloquant l’étape de transcription inverse. Ces traitements très efficaces sont pourtant confrontés à l’émergence de virus résistants à ces traitements. Ces résistances sont la conséquence de l’émergence et la sélection de mutants parfois complexes présentant des mutations à la fois dans le gène de la polymérase (pol) et de l’enveloppe virale. Les objectifs principaux de ce doctorat ont été d’étudier la sensibilité des variants résistants du VHB vis-à-vis d’analogues de nucléos(t)ides et de nouveaux composés nonnucléos(t)idiques agissant contre la nucléocapside, mais également de comparer les performances virales de différents mutants afin de comprendre le processus de sélection des mutants qui s’opère chez le patient sous pression thérapeutique. Ces études ont caractérisé la sensibilité de certaines mutations de résistance aux analogues de nucléos(t)ides, de souligner l’importance des modifications de l’enveloppe dues aux mutations de résistance dans le processus d’émergence et de sélection des variants dans la quasi-espèce virale et d’identifier de nouvelles molécules antivirales efficaces permettant, en combinaison avec les analogues de nucléos(t)ide, de diminuer fortement les phénomènes de résistance du VHB. Mieux comprendre les phénomènes de résistance, les procédés d’émergence, de sélection et de transmission des mutants du VHB pour élaborer les meilleures stratégies cliniques de combinaisons thérapeutiques peut réduire considérablement le nombre de personnes touchées par ce virus / Current therapies against the hepatitis B virus (HBV) combine one or more nucleoside analogues that directly inhibit viral replication by blocking reverse transcription step. These treatments are very effective, however, faced with the emergence of viruses resistant to these treatments. These resistances are the result of the emergence and selection of mutants with mutations can be complex in both the polymerase gene (pol) and the viral envelope. The main objectives of this PhD was to study the sensitivity of resistant HBV variants vis-à-vis similar nucleos(t)ides and new compounds non-nucleos(t)idic acting against the nucleocapsid, but also compare the performance of different viral mutants to understand the process of selection of mutants that occurs in patients under therapeutic pressure. These studies have characterized the sensitivity of some resistance mutations to nucleoside analogues, to highlight the importance of the envelope changes due to resistance mutations in the process of emergence and selection of variants in the quasispecies virus and to identify new effective antiviral drugs may allow, in combination with nucleoside analogues, to greatly reduce the phenomenon of HBV resistance. Better understanding the phenomenon of resistance, the processes of emergence, selection and transmission of HBV mutants to develop the best clinical strategies of combination therapy can significantly reduce the number of people affected by this virus
193

Analýza vývoje mandatorních výdajů v České republice od roku 1993 do roku 2013 / The analysis of mandatory expenditures in the Czech Republic in the period od 1993-2013

Svoboda, Radek January 2015 (has links)
The goal of the thesis is to analyze structure and development of the mandatory expenditures in the Czech Republic in the period 1993-2013. The theoretical part deals with theories of public expenditures and public revenues in order to explain the importance of the mandatory expenditures in the scheme of Czech public finance. The second section of the theoretical part describes the features and legal framework with regard to the methodology of the Ministry of finance of the Czech Republic. The practical part of the thesis adopts the framework built in the theoretical part of the thesis. The most important expenditures are expenditures arising from law, which represent over 90 % of mandatory expenditures. The social transfers came into scrutiny because of special importance within this group of expenditures. The fastest growing expenditures within non-social transfers were debt-service expenditures caused by irresponsible fiscal policy of the government within the period. The other mandatory expenditures are divided into expenditures arising from other legal regulations, which are negligible, and into expenditures arising from treaties, which are very hard to cut down. The quasi-mandatory expenditures, involing defence spending and wages of employees of the public sector, were analysed in order to build up definition of mandatory expenditures in the broad sense, meaning sum of mandatory and quasi-mandatory expenditures. The last section of practical part of the thesis is devoted to comparing the development of the mandatory expenditures and mandatory expenditures in the broad sense with the development of important macroeconomic indicators, as GDP and inflation and total expenditures and revenues of the government budget. Mandatory expenditures and also mandatory expenditures in broad sense has grown during the whole period, the ratio to public revenues and public expenditures has grown, resulting in decrease of the fiscal democracy of the government and increase of the government debt.
194

Caractéristiques virologiques et pathogéniques du virus H5N1 et son rôle à l'interface hôte-environnement / Virological and pathogenic characteristics of the H5N1 virus and its role at the host-environment interface

Gutierrez, Ramona 05 December 2011 (has links)
Le virus de l'influenza aviaire hautement pathogène (IAHP) de sous-type H5N1 a causé de nombreuses pertes humaines, animales et économiques à travers le monde, notamment en Asie du Sud-Est. Son potentiel pandémique est une source d'inquiétude majeure en santé publique. Au Cambodge, l'infection est enzootique, et a causé la mort de 16 personnes depuis sa première détection en 2004 dans le pays, dont 8 pour la seule année 2011. Bien que l'hypothèse de la transmission directe hôte-hôte (animal-animal ou animal-homme) soit privilégiée, de récentes études semblent clairement incriminer certains éléments constitutifs de l'environnement dans le cycle de transmission du virus. Cependant, peu de données sont actuellement disponibles sur le sujet. Le travail de cette thèse a consisté en grande partie à apporter quelques réponses aux nombreuses questions soulevées. Des méthodes de détection du virus H5N1 dans l'environnement ont été mises au point, validées, et utilisées pour la détection de virus dans des prélèvements environnementaux collectés sur des sites d'épizooties au Cambodge. Le rôle de passereaux, capturés pour la réalisation de certains rituels bouddhistes en Asie, dans la dissémination du virus aux populations aviaires et humaines, a également été étudié. En parallèle, des données importantes du mode d'évolution du virus H5N1 au sein d'hôtes aviaires, jusqu'alors inexistantes, ont été apportées par l'étude des quasi-espèces du virus. L'ensemble des résultats rassemblés dans cette thèse souligne l'importance du rôle de l'environnement dans la dissémination et la transmission du virus IAHP H5N1. / The Highly Pathogenic Avian Influenza (HPAI) virus, subtype H5N1, has caused important human, animal and economical and losses in all countries affected, especially in Southeast Asia. Its pandemic potential is a major public health concern. In Cambodia, the infection is enzootic, and has caused 16 human fatalities since its first detection in the country in 2004, out of which 8 occurred in 2011. Although the hypothesis of direct host-to-host (animal-to-animal or animal-to-human) transmission is commonly accepted, recent studies clearly identified some environmental components as sources for avian and/or human contamination with H5N1 virus. Nonetheless, only few data are currently available on this topic. The work presented in this thesis aimed at better describing the role of the environment in the transmission cycle of the H5N1 virus. H5N1 virus detection methods in the environment were designed, validated and used for the detection of virus in environmental samples collected during epizootic outbreaks in Cambodia. The role of the Merit Release Birds, used during some common Buddhist rituals in Asia, in the dissemination of the virus to avian and human populations was also studied. In parallel, important and novel data regarding the evolution of the H5N1 virus within avian hosts were provided by quasi-species studies. The findings described in this thesis emphasize the relevance of the role of the environment in the dissemination and transmission of the HPAI H5N1 virus.
195

GLS detrending, efficient unit root tests and structural change / GLS para eliminar los componentes determinísticos, estadísticos de raíz unitaria eficientes y cambio estructural

Perron, Pierre, Rodríguez, Gabriel 10 April 2018 (has links)
We extend the class of M-tests for a unit root analyzed by Perron and Ng (1996) and Ng and Perron (1997) to the case where a change in the trend function is allowed to occur at an unknown time. These tests M(GLS) adopt the GLS detrending approach of Dufour and King (1991) and Elliott, Rothenberg and Stock (1996) (ERS). Following Perron (1989), we consider two models: one allowing for a change in slope and the other for both a change in intercept and slope. We derive the asymptotic distribution of the tests as well as that of the feasible point optimal tests PT(GLS) suggested by ERS. The asymptotic critical values of the tests aretabulated. Also, we compute the non-centrality parameter used for the local GLS detrending that permits the tests to have 50% asymptotic power at that value. We show that the M(GLS) and PT(GLS) tests have an asymptotic power function close to the power envelope. An extensive simulation study analyzes the size and power in finite samples under various methods to select the truncation lag for the autoregressive spectral density estimator. An empirical application is also provided. / Extendemos los estadísticos tipo M para una raíz unitaria analizados por Perron y Ng (1996) y Ng y Perron (2001) al caso donde se permite que el cambio en la función de tendencia ocurra en un punto desconocido. Estos estadísticos (MGLS) adoptan el enfoque GLS para eliminar la tendencia desarrollado por Elliott et al. (1996) (ERS) siguiendo los resultados de Dufour y King (1991). Siguiendo a Perron (1989), consideramos dos modelos: uno que permite un cambio en la pendiente y otro que permite tanto un cambio en el intercepto como en la pendiente. Derivamos las distribuciones asintóticas así como el estadístico óptimo factible en un punto de la hipótesis alternativa (PT GLS) sugerido por ERS. También computamos el parámetro de no centralidad utilizado por el enfoque GLS local a la unidad con el fin de eliminar la tendencia que permite que el estadístico PT GLS tenga 50% de potencia asintótica en ese valor. Asimismo, se han tabulado los valores críticos asintóticos de los estadísticos. Mostramos que los estadísticos MGLS y PT GLS tienen una función de potencia asintótica cercana a la envolvente de potencia. Un estudio de simulación analiza el tamaño y potencia en muestras finitas bajo varios métodos para seleccionar la truncación para estimar la densidad espectral autorregresiva. Finalmente, también se presenta una aplicación empírica.
196

Studies on Stochastic Optimisation and applications to the Real-World / Contributions à l'Optimisation Stochastique et Applications au Monde-Réel

Berthier, Vincent 29 September 2017 (has links)
Un grand nombre d'études ont été faites dans le domaine de l'Optimisation Stochastique en général et les Algorithmes Génétiques en particulier. L'essentiel des nouveaux développements ou des améliorations faites sont alors testés sur des jeux de tests très connus tels que BBOB, CEC, etc. conçus de telle manière que soient présents les principaux défis que les optimiseurs doivent relever : non séparabilité, multimodalité, des vallées où le gradient est quasi-nul, et ainsi de suite. La plupart des études ainsi faites se déroulent via une application directe sur le jeu de test, optimisant un nombre donné de variables pour atteindre un critère précis. La première contribution de ce travail consiste à étudier l'impact de la remise en cause de ce fonctionnement par deux moyens : le premier repose sur l'introduction d'un grand nombre de variables qui n'ont pas d'impact sur la valeur de la fonction optimisée ; le second quant à lui relève de l'étude des conséquences du mauvais conditionnement d'une fonction en grande dimension sur les performances des algorithmes d'optimisation stochastique. Une deuxième contribution se situe dans l'étude de l'impact de la modification des mutations de l'algorithme CMA-ES,où, au lieu d'utiliser des mutations purement aléatoires, nous allons utiliser des mutations quasi-aléatoires. Ce travail introduit également la ``Sieves Method'', bien connue des statisticiens. Avec cette méthode, nous commençons par optimiser un faible nombre de variables, nombre qui est ensuite graduellement incrémenté au fil de l'optimisation.Bien que les jeux de tests existants sont bien sûr très utiles, ils ne peuvent constituer que la première étape : dans la plupart des cas, les jeux de tests sont constitués d'un ensemble de fonctions purement mathématiques, des plus simples comme la sphère, aux plus complexes. Le but de la conception d'un nouvel optimiseur, ou l'amélioration d'un optimiseur existant, doit pourtant in fine être de répondre à des problèmes du monde réel. Ce peut-être par exemple la conception d'un moteur plus efficace, d'identifier les bons paramètres d'un modèle physique ou encore d'organiser des données en groupes.Les optimiseurs stochastiques sont bien évidemment utilisés sur de tels problèmes, mais dans la plupart des cas, un optimiseur est choisi arbitrairement puis appliqué au problème considéré. Nous savons comment les optimiseurs se comparent les uns par rapport aux autres sur des fonctions artificielles, mais peu de travaux portent sur leur efficacité sur des problèmes réels. L'un des principaux aspects de des travaux présentés ici consiste à étudier le comportement des optimiseurs les plus utilisés dans la littérature sur des problèmes inspirés du monde réel, voire des problèmes qui en viennent directement. Sur ces problèmes, les effets des mutations quasi-aléatoires de CMA-ES et de la``Sieves Method'' sont en outre étudiés. / A lot of research is being done on Stochastic Optimisation in general and Genetic Algorithms in particular. Most of the new developments are then tested on well know testbeds like BBOB, CEC, etc. conceived to exhibit as many pitfalls as possible such as non-separability, multi-modality, valleys with an almost null gradient and so on. Most studies done on such testbeds are pretty straightforward, optimising a given number of variables for there cognized criterion on the testbed. The first contribution made here is to study the impact of some changes in those assumptions, namely the effect of supernumerary variables that don't change anything to a function evaluation on the one hand, and the effect of a change of the studied criterion on the other hand. A second contribution is in the modification of the mutation design for the algorithm CMA-ES, where we will use Quasi-Random mutations instead of purely random ones. This will almost always result in a very clear improvement ofthe observed results. This research also introduces the Sieves Method well known in statistics, to stochastic optimisers: by first optimising a small subset of the variables and gradually increasing the number of variables during the optimization process, we observe on some problems a very clear improvement. While artificial testbeds are of course really useful, they can only be the first step: in almost every case, the testbeds are a collection of purely mathematical functions, from the simplest one like the sphere, to some really complex functions. The goal of the design of new optimisers or the improvement of an existing one is however, in fine, to answer some real world question. It can be the design of a more efficient engine, finding the correct parameters of a physical model or even to organize data in clusters. Stochastic optimisers are used on those problems, in research or industry, but in most instances, an optimiser ischosen almost arbitrarily. We know how optimisers compare on artificial functions, but almost nothing is known abouttheir performances on real world problems. One of the main aspect of the research exposed here will be to compare someof the most used optimisers in the literature on problems inspired or directly coming from the real-world. On those problems, we will additionally test the efficiency of quasi-random mutations in CMA-ES and the Sieves-Method.
197

Prédiction du transfert radiatif au sein d’une flamme prémélangée swirlée à l’aide d’une méthode Quasi-Monte Carlo couplée à la simulation aux grandes échelles / Quasi-Monte Carlo computation of radiative heat transfer in coupled Large Eddy Simulation of a swirled premixed flame

Palluotto, Lorella 04 July 2019 (has links)
La prédiction des flux aux parois joue un rôle déterminant dans le cycle de vie des chambres de combustion. Le transfert de chaleur de la flamme aux parois est entraîné, outre la convection, également par le rayonnement des gaz chauds au sein de la chambre. Afin d’intégrer les contributions convectives et radiatives au flux pariétal il est nécessaire de résoudre simultanément l’équation de transfert radiatif et les équations régissant l’écoulement réactif. Quand les méthodes de Monte Carlo sont couplées aux simulations aux grandes échelles (LES), de telles simulations deviennent très coûteuses. L’objectif de cette thèse est donc d’investiguer une technique pour améliorer l’efficacité de la méthode MC, basée sur un mécanisme alternatif d’échantillonnage appelée intégration Quasi-Monte Carlo (QMC). Au cours de cette thèse, la méthode QMC a été couplée à une simulation LES dans une configuration où le rayonnement joue un rôle très important : la flamme méthane-air de la chambre Oxytec. La comparaison entre les simulations couplées et non couplées avec les données expérimentales montre que le rayonnement thermique a un impact sur la topologie de l’écoulement et de la flamme. Enfin, un bon accord est trouvé entre le flux de chaleur pariétal prédit par la simulation et les données expérimentales. / The prediction of wall fluxes is a significant aspect in the life cycle of combustors, since it allows to prevent eventual wall damages. Heat transfer from flame to the walls is driven, apart from convection, also by radiation of burnt gases inside the chamber. In order to correctly account for both convective and radiative contributions to wall fluxes, the simultaneous solution of the radiative transfer equation (RTE) and the governing equations for reactive flows is required. However, multi-physics simulations where MC methods are coupled to Large Eddy Simulation (LES), remain very costly. The purpose of this study is then to investigate improvements of MC methods, by using an alternative sampling mechanism for numerical integration usually referred to as Quasi-Monte Carlo (QMC) integration. In this study, QMC method is coupled to Large Eddy Simulation (LES) of a configuration where the radiation plays an important role: the methane-air flame investigated during the experimental campaign Oxytec. Coupled and non-coupled simulations are compared and their comparison with experimental data shows that thermal radiation has an impact on both flow and flame topology. Finally a good agreement is found between numerical wall fluxes and experimental conductive fluxes.
198

Di-pion and di-electron production in quasi-free np reactions with HADES / Emission de di-pions et de di-electrons dans les réactions quasi-libre np avec HADES

Kuc, Hubert 18 December 2014 (has links)
Cette thèse consiste en une étude de la production exclusive de di-pions (π+π-) et di-électrons (e+e-) associée avec la formation d’un deuton dans la réaction quasi-libre neutron+proton aux moyens de faisceaux de deutons à une énergie cinétique de 2.5 GeV. La mesure a été effectuée à GSI (Darmstadt) en utilisant le spectromètre HADES installé sur le synchroton SIS18. L’étude est motivée par l’observation par HADES d’un excès dans la production inclusive de di-électrons dans les réactions neutron-proton par rapport à la réaction proton-proton à la même énergie nominale. Ce résultat a mis fin au problème de longue date de la production inexpliquée de di-électrons mesurée dans les collisions d’ions lourds. L’ analyse combinée des deux canaux est justifiée par les prédictions de modèles qui suggèrent que la production de ρ « hors-couche » est une source significative de paires e+e-.Les composants du détecteur, l’identification de particules, la reconstruction de l’impulsion et la sélection du canal sont décrits et expliqués en détail. Les sections efficaces différentielles pour la production de di-pions et di-électrons mesurées dans l’acceptance d’HADES sont présentées et comparées aux prédictions des modèles. En particulier, pour le canal de di-pions, les masses invariantes des systèmes de di-pions et deuteron-di-pions sont comparées au modèle décrivant les données de l’expérience WASA. Les sources conventionnelles de production de di-pions, comme la décroissance de deux résonances Δ(1232) ou d’une résonance N(1440), ne décrivent pas les données d’HADES et réclament d’autres contributions, comme par exemple la formation d’un di-baryon. Cependant, l’existence de ce processus, bien qu’en bon accord quantitatif avec nos données, n’a pas pu être prouvée sans ambiguité dans le cadre de cette analyse. Dans le canal de di-électrons, une valeur limite de 49 nb a pu être extraite pour la réaction : np→pd→γ* d→ e⁺e⁻d. De plus, il est montré que la prise en compte du canal pn→ ΔΔ→ ppn→e⁺e⁻pn améliore de façon significative la description des données d’HADES. / The main subject of this work is a study of the exclusive di-pion (π+π-) and di-electron (e+e-) production associated with deuteron formation in a quasi-free neutron+proton reaction by means of deuteron beams with kinetic energy of 2.5 GeV. The measurement was conducted at GSI, Darmstadt exploiting the HADES spectrometer operating on SIS18 synchrotron. The study was motivated by the observation of the yield excess in the inclusive di-electron production in neutron-proton over the proton-proton collisions at the same nominal energy measured by the HADES and solving the long standing puzzle of the unexplained di-electron yield measured in heavy ion collisions. The relevance of the combined analysis of the two channels follows from predictions of model calculations suggesting a significant contribution to the e+e- yield from off-shell ρ meson production. Furthermore, the results on di-pion production provide valuable verification of the di-baryon formation, recently reported by WASA collaboration, in the complementary phase space region covered by the HADES.Detector components, particle identification, momentum reconstruction and the channel selection are described and explained in details. Differential cross sections for the di-pion and dielectron production, within the HADES acceptance, are presented and compared to model predictions. In particular, for the di-pion channel, the di-pion and deuteron-di-pion invariant mass distributions are compared to the model describing data from the WASA experiment. It is shown that conventional sources of di-pion production, like double Δ(1232) and N*(1440) decays do not describe HADES data and call for additional contributions, like for example di-baryon formation. However, the production of the latter one, though in quantitative agreement with our data, could not be unambiguously proven by the presented analysis. In the dielectron channel, an upper limit of 49 nb has been extracted for the np→pd→γ* d→ e⁺e⁻d reaction. Furthermore, it has been shown that inclusion of the recently suggested: pn→ ΔΔ→ ppn→e⁺e⁻pn improves significantly the description of the HADES dielectron data.
199

Modélisation de l'influence de la structure des joints de grains sur les phénomènes de ségrégation. / Modelisation of the influence of grain boundaries structure on segregation phenomena

Vaugeois, Antoine 15 December 2017 (has links)
La présente étude porte sur la modélisation de la structure des joints de grains (JG) et sur les phénomènes de ségrégation. Dans les matériaux polycristallins, la ségrégation aux joints de grains a des conséquences importantes sur leurs propriétés structurelles et fonctionnelles : glissement intergranulaire, corrosion intergranulaire et modification des propriétés mécaniques. Ce phénomène devient particulièrement important pour les matériaux irradiés où la ségrégation intergranulaire induite par irradiation peut conduire à une modification locale de la composition des joints de grains et par conséquent, à une évolution parfois néfaste des propriétés macroscopiques de ces matériaux. Dans ce manuscrit, nous nous sommes focalisés sur le développement de la méthode des quasiparticules pour pouvoir modéliser ce phénomène dans des systèmes binaires. La méthode des quasi-particules est un modèle continu qui permet de modéliser les phénomènes physiques à l’échelle atomique. Un des avantages est lié à la possibilité de modéliser les déplacements des atomes dans l’espace continu, tout en permettant de modéliser des transitions diffusives s’étalant sur des temps longs. Dans ce travail la méthode des quasi-particules a été appliquée pour étudier la ségrégation du phosphore aux JG. Le lien entre les différentes structures des JG et la concentration du phosphore aux JG a été établi. Pour modéliser les phénomènes qui ont lieu aux JG dans les matériaux irradiés le modèle des quasi-particules a été développé pour pouvoir inclure des lacunes ou des auto-interstitiels puis décrire leurs cinétiques. Ensuite la diffusion et l’annihilation des lacunes (ou des auto-interstitiels) aux JG ont été modélisées. Il a été montré que lorsque la force de puits du JG est assez importante, les lacunes diffusent vers les JG et des cavités se forment aux JG en ayant une forme allongée, ce qui concorde avec les données expérimentales. Le modèle des quasi-particules a été également appliqué pour étudier la croissance des grains dans un polycristal. / This thesis focuses on the modeling of grain boundaries (GB) structure and segregation phenomena. Segregation at GB in polycrystalline materials can have profound consequences on structural and functional properties : intergranular slipping, intergranular corrosion and mechanical properties. Segregation becomes really important in irradiated materials where radiation-induced segregation can change th local composition of GB and sometimes impact the macroscopic properties of materials. In this work, the quasi-particles approach is developed to model these phenomena in binary systems. The quasi-particles approach is a continuous model able to model physical phenomena at atomic scale. One of the insight of this model is the capability to simulate atomic displacement in continuum space and diffusive transitions at mesoscale. In this work, the quasi-particles approach is used to study phosphorus segregation at GB. The link between GB structure and phosphorus concentration is highlighted. Next, vacancies or self-interstitial are introduced into the quasi-particles approach to model some specific phenomena which occur in irradiated materials. In particular, the diffusion and annihilation of vacancies (or self-interstitials) at GB could be modeled. When sink strength of GB is large enough, vacancies diffuse to GB and create voids with elongated shape, consistantly with experimental observation. Finally, the quasi-particles approach is used to study grain growth in polycrystalline materials.
200

Interaction of the quasi two-day wave with other planetary waves in the middle atmosphere

Fröhlich, Kristina 21 March 2017 (has links)
Die nichtlineare Wechselwirkung der Quasi Zwei-Tage-Welle (QZTW) mit anderen planetaren Wellen führt zu wesentlichen Amplitudenmodulationen der Zwei-Tage Welle und zu einer Reihe auftretender sekundärer Wellen. die Ergebnisse der verschiedenen Experimte zur Wechselwirkung der Quasi Zwei-Tage Welle mit jeweils der 10-Tage Welle, der 16-Tage Welle und der 5-Tage Welle zeigen, dass die Amplitude der QZTW unter der Wechselwirkung mit der der 16-Tage Welle und der 10-Tage Welle um bis zu 20 % reduziert wird. Die stationäre planetare Welle mit der zonalen Wellenzahl 1 (SPW1) scheint die wichtigste Rolle bei den nichtlinearen Wechselwirkungen mit der QZTW zu spielen, da die daraus entstehenden sekundären Wellen mit den Wellenzahlen 2 und 4 dieselbe Periode wie die QZTW haben. Die Überlagerung der Quasi Zwei-Tage Welle und ihrer sekundären Wellen verstärkt die Amplitude um bis zu 60 %. / The non-linear interaction of the quasi two-day wave (QTDW) with other planetary waves leads to remarkable amplitude modulations of the QTDW and to arising secondary waves. Results of several numerical experiments considering the behaviour of the QTDW in connection with the 16-, 10-, and 5-day wave have shown that the amplitude of the QTDW reduces under interaction with the 16DW and 10DW. The stationary planetary wave with zonal wave number 1 (SPW1) seems to play the most important role, because resulting secondary waves exhibit the same period as the QTDW. The superposition of these waves leads to an enhancement of the QTDW-amplitude up to 60 %. This means, that a strong amplification of the QTDW measured by RADAR instruments can be due to interaction between the QTDW and a strong SPW1.

Page generated in 0.0419 seconds