• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 67
  • 18
  • 2
  • 2
  • Tagged with
  • 285
  • 105
  • 93
  • 55
  • 53
  • 44
  • 34
  • 33
  • 31
  • 24
  • 22
  • 22
  • 21
  • 21
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

Generation of high drug loading amorphous solid dispersions by different manufacturing processes / Génération de dispersions solides amorphes à forte charge en principe actif par différents procédés de fabrication

Lins de Azevedo Costa, Bhianca 13 December 2018 (has links)
La principale difficulté lors de l'administration orale d'un ingrédient pharmaceutique actif (API) est de garantir que la dose clinique de l’API sera dissoute dans le volume disponible de liquides gastro-intestinaux. Toutefois, environ 40% des API sur le marché et près de 90% des molécules en cours de développement sont peu solubles dans l’eau et présentent une faible absorption par voie orale, ce qui entraîne une faible biodisponibilité. Les dispersions solides amorphes (ASD) sont considérées comme l’une des stratégies plus efficaces pour résoudre des problèmes de solubilité des principes actifs peu solubles dans l’eau et, ainsi, améliorer leur biodisponibilité orale. En dépit de leur introduction il y a plus de 50 ans comme stratégie pour améliorer l’administration orale des API, la formation et la stabilité physique des ASD font toujours l'objet de recherches approfondies. En effet, plusieurs facteurs peuvent influer sur la stabilité physique des ASD pendant le stockage, parmi lesquels la température de transition vitreuse du mélange binaire API-polymère, la solubilité apparente de l'API dans le polymère, les interactions entre l'API et le polymère et le procédé de fabrication. Cette thèse consistait en deux parties qui avaient pour objectif le développement de nouvelles formulations sous forme d’ASD d'un antirétroviral, l'Efavirenz (EFV), dispersé dans un polymère amphiphile, le Soluplus, en utilisant deux procédés différents, le séchage par atomisation (SD) et l'extrusion à chaud (HME). EFV est l’API BCS de classe II de notre choix car c’est un API qui représente un défi pour les nouvelles formulations. En effet, il a besoin d’ASD plus fortement concentrées, pour lesquelles la stabilité chimique et physique pendant le stockage et la dissolution seront essentielles. Dans le but de développer de manière rationnelle les ASDs EFV- Soluplus à forte concentration, la première partie s'est concentrée sur la construction d'un diagramme de phases EFV-Soluplus en fonction de la composition et de la température. Le diagramme de phases a été construit à partir d'une étude thermique de recristallisation d'un ASD sursaturé (85 %m EFV), générée par séchage par atomisation. À notre connaissance, il s'agit de la première étude à présenter un diagramme de phase pour ce système binaire. Ce diagramme de phases est très utile et démontre que la solubilité de l'EFV dans les solutions varie de 20 %m (25 °C) à 30 %m (40 °C). Les ASD de EFV dans le Soluplus contenant plus de 30 %m d'EFV doivent être surveillées pendant le stockage dans des conditions typiques de température. Ce diagramme de phases peut être considéré comme un outil de pré-formulation pour les chercheurs qui étudient de nouvelles ASD d'EFV dans le Soluplus afin de prédire la stabilité (thermodynamique et cinétique). Les ASD préparées par différentes techniques peuvent afficher des différences dans leurs propriétés physicochimiques. La deuxième partie de cette thèse portait sur la fabrication d’ASD par des procédés HME et SD. Cette étude montre clairement que la formation d’ASD est une stratégie de formulation utile pour améliorer la solubilité dans l'eau et la vitesse de dissolution de l'EFV à partir de mélanges binaires EFV-Soluplus. Les procédés de fabrication (HME et SD) se sont révélés efficaces pour générer des ASD dans une large gamme de compositions en EFV. L'optimisation du ratio EFV-Soluplus peut être utilisée pour adapter la libération cinétique des ASD. Le choix d’une charge EFV élevée dépassant la solubilité thermodynamique de l’EFV dans le Soluplus est possible, mais il convient de prendre en compte sa stabilité cinétique dans le temps. / The main difficulty when an Active Pharmaceutical Ingredient (API) is orally administered is to guarantee that the clinical dose of the API will be dissolved in the available volume of gastrointestinal fluids. However, about 40% of APIs with market approval and nearly 90% of molecules in the discovery pipeline are poorly water-soluble and exhibits a poor oral absorption, which leads to a weak bioavailability. Amorphous solid dispersions (ASD) are considered as one of the most effective strategies to solve solubility limitations of poorly-water soluble compounds and hence, enhance their oral bioavailability. Despite their introduction as technical strategy to enhance oral APIs bioavailability more than 50 years ago, ASD formation and physical stability remains a subject of intense research. Indeed, several factors can influence the physical storage stability of ASD, among them, the glass transition temperature of the API-carrier binary mixture, the apparent solubility of the API in the carrier, interactions between API and carrier, and the manufacturing process. This thesis consisted of two parts that aim on developing new formulations of ASD of an antiretroviral API, Efavirenz (EFV), dispersed in an amphiphilic polymer, Soluplus, by using two different processes, Spray-drying (SD) and Hot-melt extrusion (HME). EFV is the class II BCS API of our choice because it is a challenging API for new formulations. It needs higher-dosed ASDs, for which chemical and physical stability during storage and dissolution will be critical. Aiming a rational development of high-loaded EFV-Soluplus ASDs, the first part focused on the construction of a temperature- composition EFV-Soluplus phase diagram. The phase-diagram was constructed from a thermal study of recrystallization of a supersaturated ASD (85 wt% in EFV), generated by spray drying. To our knowledge, this is the first study reporting a phase-diagram for this binary system. This phase-diagram is very useful and demonstrated that the EFV solubility in Soluplus ranges from 20 wt% (25 °C) to 30 wt% (40 °C). ASD of EFV in Soluplus containing more than 30 wt% of EFV should be monitored over storage under typical temperature conditions. This phase-diagram might be considered as a preformulation tool for researchers studying novel ASD of EFV in Soluplus, to predict (thermodynamic and kinetic) stability. ASD prepared by different techniques can display differences in their physicochemical properties. The second part of this thesis focused on the manufacturing of ASD by HME or SD processes. This study clearly shows that ASD is a useful formulation strategy to improve the aqueous solubility and the dissolution rate of EFV from EFV-Soluplus binary mixtures. HME and SD manufacturing processes demonstrated to be efficient to generate ASDs in a large range of compositions and loads of EFV. The optimization of EFV to Soluplus ratio can be used to tailor the release kinetics from ASD. The choice of a high EFV load exceeding the thermodynamic solid solubility in Soluplus is possible but it needs the consideration of its kinetic stability over time.
262

New attempts for error reduction in lattice field theory calculations

Volmer, Julia Louisa 23 August 2018 (has links)
Gitter QCD ist ein erfolgreiches Instrument zur nicht-perturbativen Berechnung von QCD Observablen. Die hierfür notwendige Auswertung des QCD Pfadintegrals besteht aus zwei Teilen: Zuerst werden Stützstellen generiert, an denen danach das Pfadintegral ausgewertet wird. In der Regel werden für den ersten Teil Markov-chain Monte Carlo (MCMC) Methoden verwendet, die für die meisten Anwendungen sehr gute Ergebnisse liefern, aber auch Probleme wie eine langsame Fehlerskalierung und das numerische Vorzeichenproblem bergen. Der zweite Teil beinhaltet die Berechnung von Quark zusammenhängenden und unzusammenhängenden Diagrammen. Letztere tragen maßgeblich zu physikalischen Observablen bei, jedoch leidet deren Berechnung an großen Fehlerabschätzungen. In dieser Arbeit werden Methoden präsentiert, um die beschriebenen Schwierigkeiten in beiden Auswertungsteilen des QCD Pfadintegrals anzugehen und somit Observablen effizienter beziehungsweise genauer abschätzen zu können. Für die Berechnung der unzusammenhängenden Diagramme haben wir die Methode der exakten Eigenmodenrekonstruktion mit Deflation getestet und konnten eine 5.5 fache Verbesserung der Laufzeit erreichen. Um die Probleme von MCMC Methoden zu adressieren haben wir die rekursive numerische Integration zur Vereinfachung von Integralauswertungen getestet. Wir haben diese Methode, kominiert mit einer Gauß-Quadraturregel, auf den eindimensionalen quantenmechanischen Rotor angewandt und konnten exponentiell skalierende Fehlerabschätzungen erreichen. Der nächste Schritt ist eine Verallgemeinerung zu höheren Raumzeit Dimensionen. Außerdem haben wir symmetrisierte Quadraturregeln entwickelt, um das Vorzeichenproblem zu umgehen. Wir haben diese Regeln auf die eindimensionale QCD mit chemischem Potential angewandt und konnten zeigen, dass sie das Vorzeichenproblem beseitigen und sehr effizient auf Modelle mit einer Variablen angewendet werden können. Zukünftig kann die Effizienz für mehr Variablen verbessert werden. / Lattice QCD is a very successful tool to compute QCD observables non-perturbatively from first principles. The therefore needed evaluation of the QCD path integral consists of two parts: first, sampling points are generated at which second, the path integral is evaluated. The first part is typically achieved by Markov-chain Monte Carlo (MCMC) methods which work very well for most applications but also have some issues as their slow error scaling and the numerical sign-problem. The second part includes the computation of quark connected and disconnected diagrams. Improvements of the signal-to-noise ratio have to be found since the disconnected diagrams, though their estimation being very noisy, contribute significantly to physical observables. Methods are proposed to overcome the aforementioned difficulties in both parts of the evaluation of the lattice QCD path integral and therefore to estimate observables more efficiently and more accurately. For the computation of quark disconnected diagrams we tested the exact eigenmode reconstruction with deflation method and found that this method resulted in a 5.5-fold reduction of runtime. To address the difficulties of MCMC methods, we tested the recursive numerical integration method, which simplifies the evaluation of the integral. We applied the method in combination with a Gauss quadrature rule to the one-dimensional quantum-mechanical rotor and found that we can compute error estimates that scale exponentially to the correct result. A generalization to higher space-time dimensions can be done in the future. Additionally, we developed the symmetrized quadrature rules to address the sign-problem. We applied them to the one-dimensional QCD with a chemical potential and found that this method is capable of overcoming the sign-problem completely and is very efficient for models with one variable. Improvements of the efficiency for multi-variable scenarios can be made in the future.
263

Extending Artemis With a Rule-Based Approach for Automatically Assessing Modeling Tasks

Rodestock, Franz 27 September 2022 (has links)
The Technische Universität Dresden has multiple e-learning projects in use. The Chair of Software Technology uses Inloop to teach students object-oriented programming through automatic feedback. In the last years, interest has grown in giving students automated feedback on modeling tasks. This is why there was an extension developed by Hamann to automate the assessment of modeling tasks in 2020. The TU Dresden currently has plans to replace Inloop with Artemis, a comparable system. Artemis currently supports the semi-automatic assessment of modeling exercises. In contrast, the system proposed by Hamann, called Inloom, is based on a rule-based approach and provides instant feedback. A rule-based system has certain advantages over a similarity-based system. One advantage is the mostly better feedback that these systems generate. To give instructors more flexibility and choice, this work tries to identify possible ways of extending Artemis with the rule-based approach Inloom. In the second step, this thesis will provide a proof of concept implementation. Furthermore, a comparison between different systems is developed to help instructors choose the best suitable system for their usecase.:Introduction, Background, Related Work, Analysis, System Design, Implementation, Evaluation, Conclusion and Future Work, Bibliography, Appendix
264

Caractérisation physique et chimique des substances à activité thérapeutique : application aux études de profil de stabilité et de préformulation / Physical and chemical characterization of active pharmaceutical ingredients in the framework of preformulation and stability studies

Gana, Inès 21 May 2015 (has links)
Le développement d’un médicament pour une cible thérapeutique donnée passe par plusieurs étapes qui se résument en une étape de criblage, une phase préclinique et plusieurs phases cliniques. Ces étapes permettent de sélectionner une substance active et de démontrer son efficacité thérapeutique et sa sécurité toxicologique. Ces deux critères définissent la qualité du médicament qui, une fois démontrée, doit être garantie pendant toute sa durée de validité. La qualité est évaluée au moyen d’études de stabilité qui sont réalisées d’abord sur la matière première de la substance active au cours de la phase de pré-développement du médicament, ensuite sur le produit fini. La stabilité intrinsèque de la substance active concerne à la fois ses propriétés chimiques et ses propriétés physiques qui sont liées à la nature de la substance. L’étude de stabilité repose d’abord sur la caractérisation de ces propriétés, et ensuite sur l’étude de la sensibilité de la substance à l’égard des facteurs environnementaux pouvant modifier les propriétés intrinsèques de la substance. L’approche adoptée dans ce travail repose d’une part sur l’évaluation de la stabilité chimique c’est à dire de la réactivité chimique des substances à usage pharmaceutique au travers des études de pureté chimique et des études de dégradation forcée de ces substances en solution, et d’autre part, sur l’évaluation de la stabilité physique. Dans ce cadre, l’étude du polymorphisme cristallin revêt une grande importance, tout comme l’aptitude à la formation d’hydrates ou de solvates. Cette étude, basée sur la thermodynamique, consiste pour l’essentiel à construire un diagramme de phases pression-température permettant de définir les domaines de stabilité relative des différentes formes cristallines. Cinq substances actives, existant à l’état solide et entrant dans la composition de médicaments administrés par voie orale, ont été étudiées dans le cadre de ce travail. L’analyse chimique du tienoxolol, présentant un effet anti-hypertenseur, a montré qu’il est très sensible à l’hydrolyse et à l’oxydation. Sept produits de dégradation ont été identifiés pour ce produit dont un schéma probable de fragmentation a été établi. Des diagrammes de phases pression-température ont été construits pour le bicalutamide et le finastéride, médicaments du cancer de prostate, en utilisant une approche topologique basée simplement sur les données disponibles dans la littérature. Cette étude a montré que la relation thermodynamique (énantiotropie ou monotropie) entre les formes cristallines sous conditions ordinaires peut être modifiée en fonction de la température et de la pression. Ce résultat est important pour la production des médicaments car il montre comment une telle information peut être obtenue par des mesures simples et accessibles aux laboratoires de recherche industrielle, sans que ces derniers soient contraints d’expérimenter sous pression. La méthode topologique de construction de diagramme de phases a été validée ensuite en la comparant à une méthode expérimentale consistant à suivre, par analyse thermique, des transitions de phases en fonction de la pression. La méthode expérimentale a été appliquée à deux composés, la benzocaine, anesthésique local, et le chlorhydrate de cystéamine, médicament utilisé pour les cystinoses. Les deux formes étudiées de benzocaine présentent une relation énantiotrope qui se transforme en relation monotrope à haute pression. Une nouvelle forme cristalline (forme III) du chlorhydrate de cystéamine a été découverte au cours de ce travail. La relation thermodynamique entre cette forme III et la forme I est énantiotrope dans tout le domaine de température et de pression. De plus, le chlorhydrate de cystéamine, classé hygroscopique, a fait l’objet d’une étude quantitative de sa sensibilité à l’eau, montrant qu’il devient déliquescent sans formation préalable d’hydrate (...) / The development of a drug for a given therapeutic target requires several steps, which can be summarized by drug screening, a preclinical phase and a number of clinical phases. These steps allow the selection of an active substance and a verification of its therapeutic efficacy and toxicological safety. The latter two criteria define the quality of the drug, which once demonstrated, must be guaranteed throughout its shelf life. Quality is assessed through stability studies that are carried out with the raw material of the active substance (preformulation phase) and with the final product. The intrinsic stability of the active substance depends on its chemical and physical properties and their characterization is the core of the stability studies, which in addition consists of sensitivity studies of the active pharmaceutical ingredient (API) for environmental factors that can modify the intrinsic properties of the substance. The approach presented in this work is based on the one hand on the assessment of the chemical stability, i.e. the reactivity of APIs through chemical purity studies and forced degradation in solution, and on the other hand on the assessment of the physical stability. For the latter, crystalline polymorphism is of great importance, as is the ability of the API to form hydrates or solvates. The study of crystalline polymorphism is based on the construction of pressure-temperature phase diagrams in accordance with thermodynamic requirements leading to the stability condition domains of the different crystalline forms. The stability behavior of five APIs used or meant for oral applications has been studied as part of this work. The chemical analysis of tienoxolol, an antihypertensive drug, has demonstrated its sensitivity for hydrolysis and oxidation. Seven degradation products were identified and patterns of fragmentation have been established. Pressure-temperature phase diagrams have been constructed for bicalutamide and finasteride, drugs against prostate cancer, using a topological approach based on data available in the literature. The study demonstrates that the thermodynamic relationship (enantiotropy or monotropy) between crystalline forms under ordinary conditions can change depending on the pressure. This is important for drug development as it demonstrates how stability information can be obtained by standard laboratory measurements accessible to industrial research laboratories without the necessity to carry out experiments under pressure. The topological approach for the construction of phase diagrams has subsequently been validated by measuring transition temperatures as a function of pressure. Experiments have been carried out with benzocaine, a local anesthetic, and with cysteamine hydrochloride, a drug used against cystinosis. Two crystalline forms were observed in the case of benzocaine. They exhibit an enantiotropic relationship that becomes monotropic at high pressure. For cysteamine hydrochloride, a new crystalline form (form III) was discovered. The thermodynamic relationship between the new form III and the known form I is enantiotropic for the entire temperature and pressure range. Cysteamine hydrochloride’s sensitivity to water has been studied, as it is hygroscopic. It has been demonstrated that it becomes deliquescent in the presence of water and no trace of a hydrate has been found. Finally, a study combining thermal and chromatographic methods showed that, under the effect of temperature, cysteamine hydrochloride turns into cystamine in the solid as well as in the liquid state, The latter is known to be an important impurity of cysteamine hydrochloride. In conclusion, the approach developed in this work allowed to characterize the stability properties of a number of APIs and to determine the factors that may change these properties and influence the intrinsic stability (...)
265

Sur un modèle d'érythropoïèse comportant un taux de mortalité dynamique

Paquin-Lefebvre, Frédéric 01 1900 (has links)
Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire. / This thesis addresses erythropoiesis mathematical modeling, which is the process of erythrocytes production and its regulation by erythropeitin. We propose an erythropoiesis model extension which includes aging of mature cells. First, we consider an age-structured model with moving boundary condition, whose dynamics are represented by advection equations. Biologically, the moving boundary condition means that the maximal lifespan varies to account for a constant degraded cells flux. Then, hypotheses are introduced to simplify and transform the model into a system of three delay differential equations for the total population, the hormone concentration and the maximal lifespan. An alternative model composed of two equations with two constant delays is obtained by supposing that the maximal lifespan is constant. Finally, a new model is introduced, which includes an exponential death rate depending on erythrocytes maturity level. A linear stability analysis allows to detect simple and double Hopf bifurcations emerging from variations of the gain in the feedback loop and from parameters associated to the survival function. Numerical simulations also suggest a loss of stability caused by interactions between two linear modes and the existence of a two dimensional torus in the phase space close to the stationary solution.
266

Space and time characterization of laser-induced plasmas for applications in chemical analysis and thin film deposition / Caractérisation spatio-temporelle de plasmas induits par laser pour des applications à la chimie analytique et au dépôt de couches minces

Dawood, Mahmoud 12 1900 (has links)
Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz. / After decades of development, laser ablation has become an important technique for a large number of applications such as thin film deposition, nanoparticle synthesis, micromachining, chemical analysis, etc. Experimental and theoretical studies have been conducted to understand the physical mechanisms of the laser ablation processes and their dependence on the laser wavelength, pulse duration, ambient gas and target material. The present dissertation describes and investigates the relative importance of the physical mechanisms influencing the characteristics of aluminum laser-induced plasmas. The general scope of this research encompasses a thorough study of the interplay between the plasma plume dynamics and the ambient gas in which they expand. This is achieved by imaging and analyzing the temporal and spatial evolution the plume in terms of spectral intensity, electron density and excitation temperature within various environments extending from vacuum (10‾7 Torr) to atmospheric pressure (760 Torr), in an inert gas like Ar and He, as well as in a chemically active gas like N2. Our results show that the plasma emission intensity generally differs with the nature of the ambient gas and it is strongly affected by its pressure. In addition, for a given time delay after the laser pulse, both electron density and plasma temperature increase with the ambient gas pressure, which is attributed to plasma confinement. Moreover, the highest electron density is observed close to the target surface, where the laser is focused and it decreases by moving away (radially and axially) from this position. In contrast with the significant axial variation of plasma temperature, there is no large variation in the radial direction. Furthermore, argon was found to produce the highest plasma density and temperature, and helium the lowest, while nitrogen yields intermediate values. This is mainly due to their physical and chemical properties such as the mass, the excitation and ionization levels, the thermal conductivity and the chemical reactivity. The expansion of the plasma plume is studied by time- and space-resolved imaging. The results show that the ambient gas does not appreciably affect plume dynamics as long as the gas pressure remains below 20 Torr and the time delay below 200 ns. However, for pressures higher than 20 Torr, the effect of the ambient gas becomes important and the shorter plasma plume length corresponds to the highest gas mass species and the lowest thermal conductivity. These results are confirmed by Time-Of-Flight (TOF) measurements of Al+ line emitted at 281.6 nm. Moreover, the velocity of aluminum ions is well defined at the earliest time and close to the target surface. However, at later times, the ions travel through the plume and become thermalized through collisions with plasma species and with surrounding ambient gas.
267

Instrumentation électronique et diagnostic de modules de puissance à semi-conducteur / Electronics instrumentations for the following ageing process and the diagnostic failure of the power semiconductor device

Nguyen, Tien Anh 18 June 2013 (has links)
Les objectifs de la thèse sont d’élaborer des systèmes d’instrumentation électronique qui permettent une analyse et un diagnostic fins de l’état d’intégrité et du processus de vieillissement des composants de puissance à semi-conducteur. Ces travaux visent à évaluer la variation de la conductivité de la métallisation à l’aide de capteurs à Courant Foucault (CF) mais aussi à estimer l’effet du vieillissement des puces et de leur assemblage sur la distribution de courant dans les puces afin de mieux comprendre les mécanismes de défaillance. Des éprouvettes simplifiées mais également des modules de puissance représentatifs ont été vieillis par les cyclages thermique. Les capteurs développés ont été utilisés afin, d’une part de suivre le vieillissement, mais aussi d’autre part afin de comprendre l’effet de ce vieillissement sur le comportement des puces de puissance. Un banc d’instrumentation dédié a été élaboré et exploité pour la mesure locale de la conductivité électrique par le capteur à courants de Foucault, et l’estimation de la distribution de courants à partir de la mesure de cartographies de champ magnétique par capteurs de champ, ou à partir de la cartographie de la distribution de tension sur la métallisation de source. Ce banc a permis en premier lieu d’évaluer la pertinence et les performances de différents types de capteurs exploitables. Le travail s’est également appuyé sur des techniques de traitement de signal, à la fois pour estimer de manière quantitative les informations de conductivité des métallisations issues des capteurs à courant de Foucault, mais aussi pour l’analyse de la distribution de courant à partir des informations fournies par des capteurs de champ magnétiques. Les modèles utilisés exploitent des techniques de modélisation comportementale (le modèle approché de « transformateur analogique » modélisant capteurs à CF ou bien d’inversion de modèle semi-analytique dans le cas l’estimation de la distribution de courant). Les résultats obtenus à partir de ces modèles nous permettrons, d’une part de mieux comprendre certains mécanismes de défaillance, mais également de proposer une implantation et des structures de capteurs pour le suivi « in situ » de l’intégrité des composants. / This thesis is dedicated to develop electronic instrumentation systems that allow to analyse the ageing process and to make a diagnosis the failure mechanisms of power semiconductor device. The research objectives were to evaluate the electrical conductivity variation of metallization layer using the eddy current technique but also to estimate the ageing effect of the semiconductor dies and their module packaging on the current distribution in the die, to better understand the mechanism failures. The specimens simplified and the power semiconductor modules were aged by thermal cycles. The various sensors have been used (eddy current sensor, Hall sensor), to follow the ageing process, and to understand the ageing effect on the power semiconductor die. The experimental instrumentation system has been developed and used, to realize the non destructive evaluation by the eddy current technique on the metallization layer and to measure the map of magnetic field induced above the die by the magnetic sensor, the potential distribution. In the first time, this system allowed to evaluate the relevance and the performance of different type sensors used for the local measure on the electrical conductivity by eddy current sensors and on the currents distribution by Hall sensors or the potential distribution of the source metallization layer. This work was also supported by the signal processing techniques. To estimate quantitatively the electrical conductivity of metallization layer by the eddy current sensors, a model using the two-winding transformer analogy simulate the electromagnetic interaction between the sensor and the conducting plate. And, the current distribution from the measured data is given by inverting a mesh-free modeling of the induced magnetic field. The results obtained from these models can allow us to firstly understand certain failure mechanisms, but also to propose the integrated circuit with the sensors for monitoring "in situ" the state ageing of power semiconductor device.
268

Dynamic Modeling of Large-Scale Urban Transportation Systems / Modélisation dynamique des grands réseaux de transports

Mariotte, Guilhem 14 November 2018 (has links)
La congestion en milieu urbain est un enjeu majeur que ce soit d’un point vue économique, social ou environnemental. À court et moyen terme, l’utilisation de la simulation dynamique du trafic routier peut permettre d’analyser et de guider des politiques d’optimisation des infrastructures existantes. Aujourd’hui, du fait de la complexité des systèmes de transport, les outils de modélisation classiques sont limités à des échelles géographiques peu étendues (de l’ordre du quartier). À grande échelle, le temps de calcul devient rapidement un facteur limitant tout comme le calibrage et la scénarisation. Néanmoins les dernières décennies ont vu l’apparition d’une nouvelle génération de modèles bien adaptés aux métropoles urbaines. Ceux-ci sont basés sur une relation phénoménologique entre la production de déplacements et le nombre de véhicules dans une zone spatiale d’un réseau routier, appelée Diagramme Fondamental de Zone (Macroscopic Fundamental Diagram, MFD). Cette relation, validée empiriquement sur de nombreuses villes, a permis d’étudier différentes méthodes de contrôle du trafic pour une ville entière, mais a été peu utilisée à des fins de prévision de la congestion. L’objectif de cette thèse est de proposer un premier outil opérationnel de simulation et d’analyse des grands réseaux de métropoles, en utilisant et développant les modèles de trafic basés sur la relation MFD. Cet outil doit posséder un cadre théorique cohérent qui puisse convenir à des applications telles que la prévision d’états de trafic, le développement de nouvelles politiques de contrôle, l’estimation de pollutions liées au trafic, etc. Les contributions de la thèse portent sur deux aspects. Le premier est l’analyse des propriétés mathématiques et physiques des modèles existants, en incluant une formalisation complète de la gestion de plusieurs longueurs de parcours au sein d’une même zone urbaine. En particulier, cette formalisation traite de la distinction des trajets internes à la zone et des problèmes de flux convergents et divergents pour les trajets traversant la zone lorsque la congestion se propage d’une zone à l’autre. Le deuxième aspect est la proposition d’un nouveau modèle basé sur la distance individuelle parcourue à l’intérieur d’une zone urbaine (trip-based). Cette approche permet d’individualiser les usagers (auparavant représentés sous forme de flux continus) et donc de définir plus finement leurs caractéristiques, en vue de coupler leurs déplacements à des modèles d’affectations sur différentes routes. Enfin, des exemples d’application illustrant diverses collaborations sont donnés en dernière partie de la thèse. La simulation du trafic sur l’aire urbaine du Grand Lyon (France) y est présentée, ainsi que de nouveaux modules de modélisation de la recherche de parking ou de contrôle périphérique. Cette thèse est partie intégrante d’un projet européen ERC intitulé MAGnUM : Approche multi-échelle et multimodale de la modélisation du trafic pour une gestion durable de la mobilité urbaine. / Congestion in urban areas has become a major issue in terms of economic, social or environmental impact. For short or mid term, using dynamic road traffic simulation can help analyzing and providing guidelines to optimization policies of existing infrastructures. Today, because of the complexity of transport systems, classical modeling tools are limited to small geographical areas (of a district size). Computational time, together with simulation calibration, are notably very constraining at large scales. However, a new generation of models designed for metropolitan areas has arisen over the past decades. These models are based on a phenomenological relationship between travel production and the number of vehicles in a given spatial area of a road network, known as the Macroscopic Fundamental Diagram (MFD). This relationship, supported by empirical evidences from several cities around the world, has allowed the study of different traffic control schemes at a whole city scale, but was rarely used for traffic state forecasting. The aim of this PhD is to propose an efficient modeling tool, based upon the concept of MFD, to simulate and analyze traffic states in large metropolitan areas. The theoretical framework of this tool must be consistent and applicable for traffic state forecasting, development of new control policies, traffic emission estimation, etc. There are two major contributions in this PhD. The first one is analyzing the mathematical and physical properties of existing models, and formalizing the dynamics of several trip lengths inside the same urban zone. In particular, this formalization distinguishes between internal trips and trips crossing the zone. Flow merging and diverging issues are also addressed when congestion propagates from one zone to another. The second contribution is proposing a new trip-based model based on individual traveled distance. This approach allows to treat users independently (previously represented with continuous flows), and thus to define their characteristics more precisely to couple their trips with assignment models on different paths. Finally, examples of application from various collaborations are given in the last part of this thesis. It includes a simulation study of the Grand Lyon urban area (France), as well as new modules to simulate search-for-parking or perimeter control. This PhD is part of a European ERC project entitled MAGnUM: Multiscale and Multimodal Traffic Modeling Approach for Sustainable Management of Urban Mobility.
269

Modélisation du stockage de chaleur par changement de phase d'alliages à composition binaire soumis à un refroidissement contrôlé / Thermal storage modeling in binary alloy phase change materials submitted to a controlled cooling rate

Moreno Reyna, Abraham 09 November 2018 (has links)
La thèse est centrée sur la modélisation de la physique du comportement d’un alliage binaire et l’implémentation du meilleur modèle mathématique pour simuler le changement de phase liquide solide en tenant compte de la vitesse de refroidissement, la vitesse de solidification, la ségrégation, la convection naturelle et la surfusion afin d’optimiser la capacité de stockage de chaleur d'un tel matériau. Dans le présent travail, les températures pour lesquelles le changement de phase s'opère sont estimées grâce aux diagrammes des phases et la méthodologie CALPHAD qui retraduisent les différentes phases d'un alliage binaire, y compris la transformation isotherme. Pour cela, la minimisation de l'énergie de Gibbs est résolue dans un code de calcul développé à cette occasion et aboutit à l'identification des phases stables du matériau. Pour un intervalle de température souhaite le code permet d'estimer rapidement la décharge de chaleur pour la composition de l'alliage sélectionné en équilibre ou hors équilibre. Dans la méthode proposée, la vitesse de refroidissement du système permet de calculer la vitesse de solidification. Puis,celle-ci établit la relation entre la cinétique globale et la macrostructure. Basé sur le modèle de non-équilibre local, qui dépend de la variation du coefficient de partition, le degré de surfusion est prédit à partir de la vitesse de refroidissement appliquée. Une étude bibliographique a été réalisée pour amener une comparaison numérique et assurer la capacité de notre méthode à reproduire le changement de phase, en incluant des phénomènes spécifiques tels que la surfusion et la recalescence. / Latent Heat Thermal Energy Storage (LHTES) shows high storage density compared to sensible thermal systems. For high temperature applications, the use of alloys as phase change materials presents many advantages. Principally, varying alloy composition allows controlling the storage\discharge of thermal energy through an expected temperature range (defined by the heat source), and the high thermal conductivity givessuitable heat transfer properties to the system that receives/supplies the energy. However, some systems need a specific temperature range to correctly operate. In such conditions, subcooling (also known as undercooling) and segregation are undesirable phenomena in alloys when they are used as PCM. In thepresent work, we propose a method to predict the latent heat release during phase transformation of a binaryalloy submitted to a controlled cooling rate, including subcooling, segregation and variation of composition.This thesis describes the physical models that apply when heat is released from such a material. We takeinto consideration the cooling rate applied to the PCM, the solidification velocity, convective phenomena,melting temperature and subcooling. In the present work, phase diagrams and the CALPHAD methodologyare used to determine the temperature range for phase change (or constant temperature value for isothermal transformation) by minimizing the Gibbs equilibrium energy. The Gibbs free energy minimization has been implemented in a homemade numerical code. The material can be screened with different compositions for equilibrium or off-equilibrium solidification allowing quick selection of the optimal material for the specific heatsource. In the proposed method, the solidification velocity is obtained from the cooling rate. Then, variationin microstructure is driven by the solidification velocity using the local non-equilibrium diffusion model. Based on the local nonequilibrium model that depends on the partition coefficient variation, the subcooling degree, wich is derived from the applied cooling rate is predicted. A bibliographic study has been carried out and anumerical comparison has been undertaken to ensure the capacity of our code to reproduce the phase change of various materials that include phenomena such as subcooling and recalescence. The results highlight that the cooling rate is one of the most important parameters in the performance of the thermal storage, having a large effect on segregation and subcooling degree. Moreover, we show the influence ofpartition coefficient on the time evolution of solid fraction, considering a constant or a composition-dependent value. We can conclude that the latent heat release can be correctly predicted provided that the method correctly predicts the phase diagram and the variable partition coefficient. This work helps to accelerate the design and development of thermal storage systems and lays the foundation to continue exploring other kinds of materials (e.g. paraffins).
270

Multifragmentation de systèmes lourds : partitions et signaux de transition de phases

Bonnet, Eric 28 September 2006 (has links) (PDF)
Ce travail porte sur l'étude de systèmes mononucléaires produits dans des collisions d'ions lourds à grands (périphériques : Au+Au) et faibles (centrales : Xe+Sn et Gd+U) paramètres d'impact. Ces deux types de collisions nécessitent des sélections spécifiques pour isoler des sources en équilibre thermique. Sur les ensembles statistiques d'événements obtenus après ces sélections, on réalise des analyses mettant en évidence des signaux de transition de phases du premier ordre. Le premier concerne le comportement bimodal de la distribution du plus gros fragment (Z1), dans les collisions périphériques, que l'on relie à celui d'un paramètre d'ordre en appliquant une renormalisation sous la contrainte d'une distribution équiprobable de l'énergie d'excitation (E*). Après une comparaison avec l'ensemble canonique, nous en déduisons des informations sur la localisation de la zone de coexistence. Nous comparons ensuite les propriétés statiques et dynamiques des fragments produits par ces sources, en collisions centrales et périphériques. Les différences observées sur le nombre de fragments et l'asymétrie en charge des partitions trouvent une explication dans la présence ou non, lors de la formation des fragments, d'un champ de vitesse principalement lié à une expansion collective radiale. Nous effectuons une analyse du signal de fluctuations anormales d'énergies configurationelles et une recherche d'un signal fossile de décomposition spinodale sur les quasi-projectiles d'Au, pour ensuite établir une cohérence avec les signaux déjà observés pour le système Xe+Sn. Nous relions finalement le peuplement du diagramme E*- Z1 par les deux systèmes, à celui d'un diagramme de phases avec une délimitation de la zone de coexistence.

Page generated in 0.048 seconds