• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 44
  • 9
  • 4
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 168
  • 168
  • 168
  • 44
  • 25
  • 22
  • 20
  • 20
  • 17
  • 17
  • 16
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Design and implementation of a prompt-gamma camera for real-time monitoring of ion beam therapy / Conception et mise en oeuvre d'une caméra Prompt-Gamma pour la surveillance en temps réel de thérapie par faisceau d'ions

Roellinghoff, Frauke 19 March 2014 (has links)
La protonthérapie est une technique prometteuse pour le traitement du cancer, qui se répend de plus en plus. Le pic prononcé de son profil de dose ainsi que la longueur finie du parcours des particules rendent possible un traitement plus ciblé et permettent de mieux éviter d’endommager des tissus sains. Cependant, la précision de l’irradiation s’avère également être le risque principal lors de l’utilisation de cette technique. En effet, une erreur dans la profondeur de pénétration des particules pourrait engendrer des dégâts considérables. A l’heure actuelle, aucune méthode de contrôle n’est systématiquement utilisée pour s’assurer de la qualité du traitement. Dans ce manuscrit, une méthode indirecte de mesure de la distribution de dose, basé sur la détection de gammas prompts émis le long du parcours du faisceau, est étudiée. Deux concepts de caméra collimatée uni-dimensionnelle sont comparés à l’aune de leur utilisation potentielle : une caméra à fentes parallèles et une caméra “knife-edge”. Les deux systèmes sont optimisés par simulations de Monte Carlo et des mesures sont présentés pour valider ces simulations. La comparaison se base sur la précision avec laquelle un décalage dans la chute du profil prompt gamma peut être détecté, la résolution spatiale, le coût et la taille du système. Des recommandations sont émises pour le choix de la meilleure configuration, selon différentes exigeances. Des résultats similaires sont obtenus pour les deux concepts, atteignant une précision de environ 2 mm pour un seul point de “pencil beam” correspondant à 5e7 protons. L’étude se conclue par un tour d’horizon des pistes de recherche futures qui permettraient d’utiliser un système de détection de gammas prompts dans un contexte clinique futur. / Protontherapy is a promising technique for tumor treatment that is becoming more and more widespread. The sharply peaked profile of the dose and the finite particle range allow for very conformal treatment and better sparing of healthy tissue beyond the tumor, but he precise delivery also proves to be the biggest challenge of the technique. Errors in range are a considerable risk in proton therapy and no range monitoring method is currently systematically used for quality control. In this manuscript, an indirect method of measuring the dose distribution, via the detection of secondary prompt gamma radiation emitted along the beam path, is explored. Two different one-dimensional collimated camera concepts, a multi-parallel-slit camera and a knife-edge slit camera are compared with regards to their potential use. Both systems are optimized via Monte Carlo simulation and measurements are presented for validation. The comparison is made on the basis of the precision with which a shift in the prompt gamma profile falloff edge can be retrieved by comparison with a reference profile as well as the spatial resolution, the cost, weight and bulkiness of the system and guidelines are given for choosing the best configuration for different requirements. Similar values can be obtained for both concepts, reaching a precision for the retrieval of the falloff edge of around 2 mm for a single pencil beam spot of 5×107 protons. This study concludes with an outlook on future developments and areas of investigation with the goal of reaching clinical applicability of a prompt gamma detection system.
142

Modélisation de diagrammes de phase de nanoalliages : application aux systèmes à tendance à l'ordre / Nanolloys modeling of phase diagram : application to systems with ordering tendency

Lopes-Biancarelli, Aurélie 16 December 2015 (has links)
On appelle nanoalliages les nanoparticules d'alliages, leur composition chimique et leur taille en modifient les propriétés physico-chimiques. La relation entre structure et propriétés est intéressante pour la différence existant entre les propriétés du volume et celles du nanoalliage. Comme les alliages volumiques, caractérisés par un diagramme de phase en température et concentration, les nanoalliages sont étudiés pour déterminer un diagramme de phase en fonction de la concentration, la température, la taille et la forme. Les nanoparticules de CoPt ont un intérêt pour le développement du stockage magnétique à haute densité nécessitant une forte anisotropie magnétique telle qu'existant dans la phase volumique L10. L'expérience a montré que pour des nanoparticules de CoPt de 2-3nm la phase L10 existe. Des études théoriques, tenant compte des relaxations du réseau, ont confirmé l'existence d'agrégat de type polyèdre de Wulff présentant un tel ordre sur un réseau cfc.Nous proposons une étude théorique de l'alliage CoPt, utilisant un modèle énergétique simple, le modèle d'Ising en liaisons fortes, reproduisant l'ordre en volume et les trois moteurs de la ségrégation de surface (effets d'alliage, de surface et de relaxation atomique). Les analyses statistiques conduites à partir de simulations Monte Carlo dans les ensembles canonique et semi-grand canonique caractérisent un diagramme de phase de volume et de nanoalliage. Dans l'ensemble semi-grand canonique on s'intéresse à la synergie entre l'ordre au coeur et la ségrégation de surface du système CoPt. L'ordre à courte et longue distance a été caractérisé au cœur de l'agrégat et nous en avons étudié la frustration. / Nano-alloys are commonly the name given to nano-particles of alloys. The size and chemical composition of nano-alloys affect physical and chemical properties. Relation between structure and properties is interesting for the difference of bulk and nano-alloys properties. As bulk alloys which are characterised by phase diagram (in concentration and temperature), nano-alloys can be studie to determine a phase diagram in function of concentration, temperature, size and shape. CoPt nano-particles are interesting for the development of ultra-high density magnetic memories which require strong magnetic anisotropy as it exists in the L10 bulk phase. It has been shown experimentally the CoPt nano-alloys order with the L10 structure exist for the small size (2-3nm). Theoretical studies, using model taking into account the lattice's relaxations have confirmed the ordering of the fcc nano-particles with a Wulff polyhedron (WP) shape. We propose a theoretical study focus on CoPt WP, use a simple energetic model the Tight Binding Ising Model which reproduce the bulk ordering and the three driving surface segregation force (alloying, surface and atomic relaxation effect). Statistical analysis are conducted using a Monte Carlo simulation in the canonical and semi-grand canonical ensemble to characterize a phase diagram for bulk and nano-particles. In the semi-grand canonical ensemble we are interested on the synergy or competition between cluster core ordering and surface segregation of CoPt system. We characterised the order (short and long distance) at the core of the cluster and we studied frustration of the ordering.
143

Etude à l'échelle de la molécule unique des changements conformationnels de la molécule d'ADN : influence de la présence de défauts locaux présents sur l'ADN et de paramètres physico-chimiques de la solution environnante / Study at the single molecule level of conformational changes of the DNA molecule : impact of local defects included in the DNA molecule of a large set of physicochemical conditions

Brunet, Annaël 16 October 2015 (has links)
Les ions jouent un rôle majeur sur les processus biologiques affectant la molécule d'ADN que ce soit en termes d'activité de liaison de protéines à l'ADN ou d'encapsulation de l'ADN dans les capsides virales ou le noyau. L'activité de protéines sur l'ADN est, par ailleurs, fréquemment liée à une courbure locale de l'axe de la double hélice, que ce soit en raison d'une séquence intrinsèquement courbée, ou, via la capacité de protéines à courber la séquence sur laquelle elles se fixent. Être capable de caractériser et comprendre l'effet des ions présents en solution, de la courbure et de la dénaturation locale de la molécule d'ADN sur les conformations de cette dernière est donc crucial pour approfondir la compréhension de nombreux processus biologiques. Des travaux, tant expérimentaux que théoriques, ont déjà été menés sur ces questions mais celles-ci sont encore largement débattues. En effet, pour y répondre, doivent notamment être développées des méthodes expérimentales qui ne perturbent pas significativement la conformation de l'ADN ou le complexe ADN-protéine, ainsi que des modèles théoriques associés permettant une analyse précise des données expérimentales et leur compréhension physique. L'objectif de ce travail est de proposer des outils expérimentaux et théoriques permettant de décrire physiquement l'influence de défauts locaux présents sur la molécule d'ADN et de paramètres physico-chimiques de la solution environnante. A cette fin, des données expérimentales ont été acquises à l'échelle de la molécule unique grâce à la technique haut-débit de "Tethered Particle Motion" (HT-TPM). Le TPM consiste à enregistrer, au cours du temps, les positions d'une particule accrochée à l'extrémité d'une molécule d'ADN, immobilisée par son autre extrémité sur un support en verre. L'utilisation d'une biopuce permettant la parallélisation des complexes ADN/particule et l'acquisition "à haut débit" de données TPM a permis d'obtenir une grande accumulation de statistiques individuelles. Une procédure d'analyse efficace a été élaborée afin de déterminer les amplitudes du mouvement des assemblages ADN-particules valides. En parallèle, ont été effectuées des simulations basées sur un modèle de physique statistique mésoscopique dans lequel la molécule d'ADN est assimilée à une chaîne de billes de rayons variables dont les déplacements sont régis par la diffusion brownienne et une énergie potentielle d'interaction prenant en compte notamment l'énergie de courbure du polymère ADN. Une première étude a porté sur l'effet de la force ionique de la solution environnante sur la longueur de persistance Lp, qui traduit la rigidité du polymère d'ADN. Les valeurs de Lp extraites des données de HT-TPM ont fait apparaître une décroissance de la longueur de persistance de 55 à 30 nm, corrélée à l'augmentation de la force ionique, avec une décroissance plus forte observée pour les ions divalents Mg2+ que pour les ions monovalents Na+. Les valeurs de Lp déterminées sur une plage étendue de force ionique ont permis de valider l'approche théorique proposée par Manning en 2006 dans la cas Na+. Une deuxième étude a conduit à l'élaboration d'une méthode permettant de quantifier l'angle de courbure locale induite par une séquence spécifique ou la liaison d'une protéine sur la molécule d'ADN. L'échantillon modèle a été obtenu en insérant de une à sept séquences CAAAAAACGG en phase. Une description théorique de la chaîne d'ADN appelée "kinked Worm-Like Chain" a été proposée. Elle conduit à une formule simple de la distance bout-à-bout de l'ADN qui permet d'extraire la valeur de l'angle de courbure à partir des mesures de HT-TPM. Ainsi, il a pu être montré que la séquence CAAAAAACGG induit un angle de 19° ± 4° en accord avec les données de la littérature. Une troisième étude concernant la mesure de l'impact de la dénaturation partielle de l'ADN, induite par la température, sur sa rigidité apparente globale a été menée. Des résultats préliminaires sont proposés. / Ions play an important role in many biological processes affecting the DNA molecule, both for binding activities of DNA-protein interaction, and the DNA packaging in viral capsids or in the cell nucleus. Proteins actions on DNA are also often associated to the double helix curvature, be it because of an intrinsic curved sequence, or of the ability of the proteins, to curve the sequence they are trying to bind. Being able to characterize and understand the effects on the DNA conformation of ions present in solution, DNA local curvature, and local denaturation bubble is essential and crucial for the thorough understanding of many biological processes. Many experimental, and theoretical studies have already been conducted to address these questions. However they remain highly debated. To answer then one must notably develop experimental approaches that minimize alteration of the conformation of the DNA molecule or the complex protein-DNA, as well as associated theoretical models that permit a precise analysis of experimental data as well as their physical understanding. The goal of this work is to develop and propose experimental and theoretical tools which would provide a physical description of the influence of DNA local defects on the DNA molecule as well as of physicochemical conditions of the DNA environmental solution. For this purpose, experimental data have been collected, at a single molecule level, using the High-Throughput Tethered Particle Motion" (HT-TPM) technique. TPM consists of recording the location of a particle grafted by one end of a single DNA molecule and immobilized, at the other end, to a glass surface. The use of a biochip that enables the parallelization of DNA/particle complexes and the ensuing high-throughput data acquisition permitted to obtain a large accumulation of individual statistics. A strong analysis procedure has been developed to extract and quantify the amplitude of motion of the valid DNA/particle complexes . Alongside that, simulations have been run, based on a mesoscopic statistical mechanics model in which the DNA molecule is related to a chain of monomers with varying radius and in which the amplitude of motion is governed by both the Brownian motion and by the interaction potential associated to stretching and bending energies of the polymer. A first study was conducted on the effect of the ionic strength induced by surrounding ions in solution on the DNA persistence length (Lp) which characterizes the DNA polymer rigidity. The extracted Lp values of HT-TPM measurement decrease from 55 to 30 nm when the ionic strength increases. A stronger decrease was observed in presence of divalent ions Mg2+ than with monovalent ions Na+. This quantification of Lp dependence, on a large and strongly prospected range of ionic strengthes, tends to validate the theoretical approach proposed in 2006 by Manning in presence of monovalent ions Na+. A second project allows us to develop a method of evaluation and quantification of local DNA bending angles, induced either by specific intrinsic sequence, or by the binding of proteins on DNA. Constructs made of 575 base-pair DNAs with in-phase assemblies of one to seven sequences CAAAAAACGG was used. A theoretical description of the polymer chain, named "kinked Worm-Like Chain" was proposed which leads to a simple formulation of the end-to-end distance of DNA molecules allowing to extract local bend angles from HT-TPM measurement. As a result, we find that the sequence CAAAAAACGG induces a bend angle of 19° ± 4° in agreement with other value from the literature. A third study concerning the influence of temperature-induced partial denaturation on the global apparent rigidity parameters of the polymer was conducted. Preliminary results are proposed.
144

Simulation d’un accélérateur linéaire d’électrons à l’aide du code Monte-Carlo PENELOPE : métrologie des traitements stéréotaxiques par cônes et évaluation de l’algorithme eMC / Simulation of a linear accelerator with PENELOPE Monte Carlo code : stereotactic treatments metrology by cones and eMC algorithm assessment

Garnier, Nicolas 19 December 2018 (has links)
L’accélérateur linéaire d’électrons du Centre Hospitalier Princesse Grace a été simulé à l’aide du code Monte-Carlo PenEasy. Après avoir validé l’ensemble des techniques permettant d’accélérer le temps de calcul (réduction de variance, parallélisation, …), les caractéristiques des faisceaux initiaux d’électrons ont été déterminées pour une énergie photons et quatre énergies électrons afin d’étudier deux problématiques cliniques. La première concerne l’étude comparative des réponses de huit dosimètres pour la mesure des données de base en mini-faisceaux à l’aide de cônes stéréotaxiques de diamètres compris entre 30 mm et 4 mm. Ces faisceaux de photons sont caractérisés par de forts gradients de dose et un manque important d’équilibre électronique latéral, ce qui rend les techniques dosimétriques conventionnelles inadaptées. Des mesures de facteurs d’ouverture collimateur (FOC), de profil de dose et de rendement en profondeur ont été réalisées avec sept détecteurs actifs (diodes, chambres d’ionisations et MicroDiamond) et un détecteur passif (film radiochromique) et comparées avec les résultats issus de la simulation Monte-Carlo considérée comme notre référence. Pour la mesure du FOC, seul le film radiochromique est en accord avec la simulation avec des écarts inférieurs à 1 %. La MicroDiamond semble être le meilleur détecteur actif avec un écart maximal de 3,7 % pour le cône de 5 mm. Concernant les mesures de profils de dose, les meilleurs résultats ont été obtenus avec le film radiochromique et les diodes blindées ou non (écart de pénombre inférieur à 0,2 mm). Pour les rendements en profondeur, l’ensemble des détecteurs utilisés sont satisfaisants (écart de dose absorbée inférieur à 1 %). La deuxième application concerne l’évaluation de l’algorithme de dépôt de dose électron eMC sur des coupes scanographiques. Pour cela, un programme de « voxélisation » sous MATLAB a été développé afin de transformer les nombres Hounsfield issus du scanner en propriété de matériau (densité et composition chimique) utilisable par le code Monte-Carlo PenEasy. Une triple comparaison entre la mesure avec films radiochromiques, le calcul avec l’algorithme eMC et la simulation Monte-Carlo PenEasy a été réalisée dans différentes configurations : des fantômes hétérogènes simples (superposition de plaques de différentes densités), un fantôme hétérogène complexe (fantôme anthropomorphique) et une comparaison sur patient. Les résultats ont montré qu’une mauvaise affectation d’un matériau du milieu provoque un écart de dose absorbée localement (jusqu’à 16 %) mais aussi en aval de la simulation du fait d’une mauvaise prise en compte de la modification du spectre électronique. La comparaison des distributions de dose absorbée sur le plan patient a montré un très bon accord entre les résultats issus de l’algorithme eMC et ceux obtenus avec le code PenEasy (écart < 3 %). / Using the PenEasy Monte-Carlo code was simulated the linear electron accelerator of Princess Grace Hospital Center. After the validation of all the techniques allowing to accelerate the calculation time (variance reduction technique, parallelization, etc.), the characteristics of the initial electron beams were determined for one photon energy and four electron energies in order to study two clinical issues. The first one concerns the comparative study of the responses of eight dosimeters for the measurement of basic data in small fields using stereotactic cones with a diameter between 30 mm to 4 mm. These photon beams are characterized by strong dose gradients and a significant lack of charged particule equilibrium, making conventional dosimetric techniques unsuitable. Output factor measurment (OF), dose profile and depth dose measurements were performed with seven active detectors (diodes, ionization chambers and MicroDiamond) and a passive detector (radiochromic film) and compared with the results from the Monte Carlo simulation considered as our reference. For the OF measurement, only the radiochromic film is in agreement with the simulation with difference less than 1%. The MicroDiamond seems to be the best active detector with a maximum gap of 3.7% for the 5 mm cone. Concerning the dose profile measurements, the best results were obtained with the radiochromic film and diodes shielded or not (penumbre difference of less than 0,2 mm). For depth dose, all the detectors used have good result (absorbed dose difference less than 1 %). The second application concerns the evaluation of the eMC electron deposition algorithm on CT slices. For this, a « voxelisation » program under MATLAB was developed to transform the Hounsfield numbers from the scanner to material property (density and chemical composition) usable by the PenEasy Monte-Carlo code. A triple comparison between measurement with radiochromic films, calculation with the eMC algorithm and Monte-Carlo PenEasy simulation was carried out in different configurations: simple heterogeneous phantom (superposition of plates of different densities), a complex heterogeneous phantom (anthropomorphic phantom) and a patient comparison. The results showed that a wrong material assignment of the medium causes a difference of dose absorbed locally (up to 16%) but also downstream the simulation due to a wrong taking into account of the modification of the electronic spectrum. The absorbed dose distribution comparison on the patient plane showed a very good agreement between the results from the eMC algorithm and those obtained with the PenEasy code (deviation < 3%).
145

Influence des phases magnétiques désordonnées sur les propriétés d'anisotropie d'échange des nanoplots F/AF : Etude par simulations Monte Carlo et comparaison à l'expérience. / Influence of desorder magnetic phases on the exchange bias properties in nanodots : Monte Carlo simulation

Kanso, Haydar 18 October 2019 (has links)
Notre objectif est d’améliorer la compréhension du phénomène d’anisotropie d’échange dans les nanoplots en comparaison aux films continus et d’étudier les effets du désordre magnétique à l’interface dans la couche AF sur les propriétés d’anisotropie d’échange. Dans un premier temps, nous avons utilisé un modèle granulaire qui prend en compte les phases magnétiques désordonnées à l’interface F/AF et nous modélisé ces phases par la présence de grains moins stables à l’interface dans la couche AF. De plus, dans le cas des nanoplots, nous avons pris en compte des grains moins stables localisés sur les bords de la couche AF pour reproduire les effets dus à la méthode de fabrication. Nous avons trouvé qu’il existe deux mécanismes de retournement de la couche F en dépendant de la valeur du couplage ferromagnétique. Si le couplage ferromagnétique faible, le retournement de la couche F s’amorce sur plusieurs centres de nucléation et s’effectue sans propagation. Alors que si le couplage ferromagnétique fort, le retournement de la couche F s’amorce en un seul centre de nucléation situé à un coin du nanoplot puis se propage à partir de ce coin. Ensuite notre modèle a permis d’expliquer les principales caractéristiques des comportements observés expérimentalement dans les bicouches Co/IrMn et NiFe/IrMn (pour différentes tailles latérales), à différentes températures de mesure et pour différentes épaisseurs de la couche AF. Plus précisément, les valeurs du champ d’échange simulé dans les films continus, à température ambiante, sont plus grandes que dans les nanoplots pour les faibles épaisseurs de la couche IrMn alors que c’est le contraire lorsque cette épaisseur augmente. Dans un deuxième temps, Nous avons utilisé un modèle atomique qui prend en compte la frustration magnétique dans la couche AF et la présence de défauts structuraux tels que les joints de grains et l’interdiffusion. Nous avons trouvé que l’effet combiné de la frustration, des joints de grains et de la surface induit des configurations magnétiques non colinéaires complexes (présence de domaines magnétiques) dans la couche AF à l’interface. Nos résultats montrent que la non-colinéarité des moments AF à l’interface diminue le couplage effectif à l’interface F/AF et diminue la constante d’anisotropie effective de la couche AF. Nos résultats montrent également que la présence de joints de grains lorsqu’il y a de la frustration renforce la stabilité de la couche AF à 0K alors qu’elle la diminue à température non nulle. Enfin, nous avons trouvé que l’interdiffusion diminue fortement le champ d’échange et rend la couche AF plus stable, ce qui correspond à une diminution du couplage effectif à l’interface. Il est important de noter que les valeurs du champ d’échange simulé sont dans ce cas réalistes, ce qui met en évidence que l’interdiffusion est probablement un des facteurs essentiels pour lesquels les champs d’échange mesurés expérimentalement sont nettement plus faibles que ceux prévus par les modèles simples. / Our goal is to improve the comprehension of the exchange bias (EB) in nanodots in comparison with the continuous films and to study the effects of the interfacial magnetic disorder on the EB properties. Firstly, we use a granular model which considers disordered interfacial phases by considering less stable magnetic grains at the interface in the antiferromagnetic (AF) layer. We further model the effect of the nanofabrication process by considering less stable magnetic grains at the edges, due to grain cutting. Our results evidence two different mechanisms of the ferromagnetic (F) layer reversal depending on the magnitude of the coupling between F grains. In the weak coupling regime relative to the anisotropy, the exchange field is independent of the coupling. By contrast, in the strong coupling regime, the exchange field depends on the coupling. Our model also well explain some experimental features observed in NiFe/IrMn and Co/IrMn nanodots (for various lateral sizes) and continuous films, at various measurement temperatures and various AF thicknesses. More precisely, the simulated values of the exchange field in the continuous films, at room temperature, are larger than in the nanodots for small values of the AF thicknesses. However, it is the opposite when this thickness increases. Secondly, we use an atomic model which considers the magnetic frustration inside the AF layer and the presence of structural defects such as grain boundaries and interdiffusion. We found that the combination effect of grain boundaries, frustration and surface can result in complex magnetic configurations in the AF layer at the interface (magnetic domains). Our results show that the non-collinearity of the AF moments at the interface decreases the effective coupling at the interface and decreases the effective anisotropy constant of the AF layer. Our findings indicate that combination effect of grain boundaries and frustration make the AF layer more stable at 0 Kelvin and less stable at non-zero temperature. Our results show that the interdiffusion decrease the simulated values of the exchange field and make the AF more stable which corresponds to a decrease of the effective coupling at the interface. It is important to note that the simulated values of the exchange field are realistic values, which highlights that the interdiffusion is probably one of the essential factors which can give simulated values close to the experimental values.
146

Amélioration de la méthode de mesure de l'activité de dosimètres émetteurs de rayons X irradiés en réacteur nucléaire / Improvement of the activity measurement method of X-ray emitting dosimeters irradiated in nuclear reactor

Riffaud, Jonathan 11 July 2018 (has links)
La dosimétrie en réacteur permet de déterminer la fluence neutronique reçue pendant une irradiation et d’en caractériser le spectre (distribution énergétique des neutrons). Cette technique s’appuie sur la mesure de l’activité de dosimètres irradiés, constitués de métaux purs ou d’alliages. La mesure d’activité de ces échantillons est réalisée par spectrométrie gamma et X sur des rayonnements de faibles énergies (< 100 keV) et s’appuie actuellement sur un dosimètre étalon adapté et validé spécifiquement pour les conditions de mesure. Le but de la thèse est de s’affranchir de cette étape et de pouvoir mesurer directement l’activité des dosimètres. L’étude a concerné spécifiquement les dosimètres en niobium et en rhodium qui sont utilisés pour caractériser la signature des neutrons d’énergie autour de 1 MeV. Ils sont respectivement activés en Nb-93m et 1Rh-103m. Ces deux radionucléides se désintègrent par une transition gamma en émettant principalement des photons XK d’énergie autour de 20 keV, sur lesquels s’appuie la mesure d’activité en spectrométrie. Or, du fait de leur faible énergie, ces rayonnements présentent de nombreuses difficultés pour être analysés avec précision. Les différents paramètres nécessaires à la quantification de l’activité des dosimètres, avec une incertitude relative de l’ordre de 2 %, ont été étudiés en détails. Les travaux ont d’abord porté sur l’étalonnage en rendement des détecteurs au germanium hyper-pur (GeHP) dans la gamme d’énergie comprise entre 11 keV et 150 keV. Ceci constitue une étape cruciale dans la détermination de l’activité et s’avère délicate dans la gamme d’énergie considérée. L’approche expérimentale, utilisant des sources ponctuelles étalons, a été couplée à des modélisations semi-empiriques et à des simulations des interactions rayonnements-matière par des méthodes Monte Carlo (PENELOPE et GEANT4). Ces dernières ont permis d’approfondir l’étude du phénomène de diffusion des photons en basse énergie, aux alentours de 20 keV, qui interfère avec les pics d’absorption totale dans les spectres et perturbe leur analyse. Dans un second temps, les simulations de Monte Carlo ont également été utilisées pour établir les facteurs de corrections nécessaires à la mesure des dosimètres : auto-absorption du rayonnement dans le matériau et changement de géométrie entre les conditions d’étalonnage (source ponctuelle) et les conditions de mesure (échantillon métallique massif). Le phénomène de fluorescence lié à la présence d’impuretés (dans le matériau du dosimètre ou créées lors de l’irradiation en réacteur) a été étudié et les facteurs de corrections à appliquer pour en tenir compte ont été établis. Les données du schéma de désintégration, en particulier les intensités d'émission des rayons X, sont les principales composantes de l'incertitude sur la valeur d'activité des dosimètres. Les intensités d'émission X font rarement l'objet de mesures expérimentales, le plus souvent, leurs valeurs découlent du schéma de désintégration et des données fondamentales nucléaires et atomiques de l'élément tels les coefficients de conversion interne et le rendement de fluorescence. Plusieurs expériences ont été menées pour fournir de nouvelles données expérimentales. Les coefficients d’atténuation massique et les rendements de fluorescence K du niobium et du rhodium ont été déterminés en utilisant un rayonnement photonique monochromatique sur le synchrotron SOLEIL. Les intensités d’émission du Rh-103m ont été mesurées suivant deux approches, l’une à partir de rhodium activé au réacteur ISIS et l’autre à partir d’une solution de palladium-103. Toutes ces nouvelles valeurs sont comparées aux données publiées et le schéma de désintégration du Rh-103m est discuté. / Reactor dosimetry is used to determine the neutron fluence during an irradiation and to characterize its spectrum (neutron energy distribution). This technique is based on the analysis of the activity of irradiated dosimeters, made of pure metals or alloys. The activity measurement of these samples is performed by gamma and/or X-ray spectrometry and is currently based on specific standard dosimeters, validated for the measurement conditions. The goal of the thesis is to avoid this calibration step and to be able to directly measure the activity of the sample. The study focused specifically on niobium and rhodium dosimeters which are used to characterize neutrons in the energy range around 1 MeV. Their activation produces 93mNb and 103mRh, respectively. These two radionuclides decay through an isomeric gamma transition, emitting mainly K X-rays with energies around 20 keV, on which the spectrometric activity measurement is based. However, owing to their low energy, these X-rays are particularly difficult to measure accurately. The various parameters required to determine the activity of the dosimeters, with a relative standard uncertainty of around 2%, were studied in detail. The work initially focused on the calibration of hyper-pure germanium (HPGe) detectors in the energy range between 11 keV and 150 keV. This is a crucial step in determining the activity of a radionuclide sample and is difficult to achieve in the energy range of interest. The experimental approach, using standard point sources, was coupled with semi-empirical modelling and simulations of radiation-matter interactions by Monte Carlo methods (PENELOPE and GEANT4). These methods have made it possible to study in detail the photons scattering at low energy, around 20 keV, which interferes with the full-energy peaks in the spectra and disturbs their analysis. In a second step, Monte Carlo simulations were used to calculate the correction factors needed to derive the dosimeter activity: self-absorption of photons in the dosimeter material and the geometry change between the calibration conditions (point source) and the measurement conditions (solid metal sample). The fluorescence induced by impurities (in the dosimeter material or created during irradiation in the reactor) was studied and the correction factors to be applied were established. Radioactive decay data, particularly photon emission intensities, are the main components of the uncertainty in dosimeter activity results. X-ray emission intensities are rarely measured experimentally and most often their values are calculated from fundamental parameters i.e. internal conversion coefficients and fluorescence yields, and a balanced decay scheme, of the nuclide. Several experiments were designed to provide new experimental data. The mass attenuation coefficients and K fluorescence yields of niobium and rhodium were determined using a monochromatic photon beam at the SOLEIL synchrotron facility. The photon emission intensities of 103mRh were measured using two approaches, one from rhodium activated at the ISIS reactor and the other from a solution of palladium 103. All these new values are compared with previously published data and the decay scheme of 103mRh is discussed.
147

Entwicklung und Verifikation eines kombinierten Kinetic Monte Carlo / Molekulardynamik Modells zur Simulation von Schichtabscheidungen

Lorenz, Erik 09 June 2012 (has links)
Atomlagenabscheidung (ALD, Atomic Layer Deposition) ist als präzise Technik zur Abscheidung dünner Schichten bekannt. Mittels wechselweisen Einleitens von Precursorgasen in einen Reaktor erzeugt der Prozess auch auf strukturierten Substraten gleichmäßige dünne Schichten. Durch die selbstsättigende Natur der zu Grunde liegenden Reaktionen sind sowohl die Wachstumsrate als auch die Zusammensetzung wohldefiniert, weshalb sich Atomlagenabscheidung beispielsweise zur Herstellung nanoskopischer Bauelemente im Bereich der Mikroelektronik eignet. Obwohl Aluminiumoxid vermehrt Aufmerksamkeit für seine hohe Bandlücke (~9 eV) sowie die relativ hohe Dielektrizitätskonstante (k ~ 9) geerntet hat, ist oftmals trotz vielseitiger Untersuchungen der anwendbaren Precursorpaare nur wenig über die strukturellen Eigenschaften sowie die Wachstumskriterien der resultierenden Schichten bekannt. In dieser Arbeit wurde eine kombinierte Simulationsmethode entwickelt, mit der sich Atomlagenabscheidung mittels elementarer Reaktionen auf beliebig strukturierten Substraten simulieren lässt. Molekulardynamische Berechnungen ermöglichen dabei atomare Genauigkeit, wohingegen die Ankunft der individuellen Precursoratome durch Kinetic Monte Carlo-Methoden dargestellt werden. Diese Aufteilung erlaubt die Kopplung der molekulardynamischen Präzision mit den Größenordnungen einer KMC-Simulation, welche prinzipiell die Betrachtung von Milliarden von Atomen zulässt. Durch asynchrone Parallelisierung mit bis zu tausenden Arbeiterprozessen wird zudem die Effizienz gegenüber einer herkömmlichen Molekulardynamiksimulation ausreichend erhöht, um binnen weniger Stunden mehrere Abscheidungszyklen nahezu unabhängig von der Größe des betrachteten Raumes, welche im Bereich von Quadratmikrometern liegen kann, zu simulieren. Zur abschließenden Validierung des Modells und seiner Implementierung werden einerseits Versuche einfacher Schichtwachstumsprozesse unternommen, andererseits wird die Atomlagenabscheidung des wohluntersuchten Precursorpaares Trimethylaluminium (TMA, Al(CH3)3) und Wasser simuliert und die resultierende Schicht auf Übereinstimmung mit bestehenden Daten geprüft.:1 Einführung 1.1 Anwendungen von Atomlagenabscheidung 1.2 Aktueller Stand 1.2.1 Experimentelle Untersuchungen 1.2.2 Kinetic Monte Carlo-Simulationen von Dwivedi 1.2.3 Kinetic Monte Carlo-Simulationen von Mazaleyrat 1.2.4 Molekulardynamik-Simulationen 1.2.5 Dichtefunktionaltheoretische Rechnungen von Musgrave 1.3 Motivation 2 Grundlagen 2.1 Atomlagenabscheidung 2.1.1 Einführung zur Atomlagenabscheidung 2.1.2 ALD von Metalloxiden 2.1.3 ALD von Al2O3 2.2 Kinetic Monte Carlo Methoden 2.2.1 KMC-Formalismus 2.2.2 KMC-Algorithmen 2.3 Molekulardynamik 2.3.1 Grundlagen 2.3.2 Methoden zur Ensembledarstellung 2.3.3 Potentialarten 2.3.4 Numerische Optimierungen 3 Kombiniertes Modell 3.1 Verwendetes Kinetic Monte Carlo-Modell 3.2 Kombiniertes Modell 3.2.1 Abscheidungszyklus 3.2.2 Simulationsraum 3.2.3 Ereignisse 3.2.4 Parallelisierungsmethode 3.2.5 Abhängigkeitsgraph 4 Implementierung 4.1 Existierende Software 4.1.1 LAMMPS 4.1.2 SPPARKS 4.1.3 Sonstige Software 4.2 LibKMC 4.2.1 Modularisierung 4.2.2 Abhängigkeiten 4.3 Implementierung des kombinierten Modells 4.3.1 Vorstellung der Software 4.3.2 Einbindung von LibKMC 4.3.3 Einbindung von LAMMPS 4.3.4 Host-Worker-System 4.3.5 Substratgenerierung 5 Validierung 5.1 Validierung des kombinierten Modelles 5.1.1 Wachstumskriterium 5.1.2 Sättigungskriterium 5.1.3 Parallelisierungseffizienz 5.2 Untersuchungen von Al2O3 5.2.1 Potentialuntersuchungen 5.2.2 Schichtwachstumseigenschaften 5.2.3 Strukturanalyse 6 Zusammenfassung und Ausblick Literaturverzeichnis Danksagung
148

Simulations Monte Carlo de régions d'interaction en corotation dans le vent d'étoiles chaudes

Carlos-Leblanc, Danny 06 1900 (has links)
No description available.
149

Morphology on Reaction Mechanism Dependency for Twin Polymerization

Prehl, Janett, Huster, Constantin 25 June 2019 (has links)
An in-depth knowledge of the structure formation process and the resulting dependency of the morphology on the reaction mechanism is a key requirement in order to design application-oriented materials. For twin polymerization, the basic idea of the reaction process is established, and important structural properties of the final nanoporous hybrid materials are known. However, the effects of changing the reaction mechanism parameters on the final morphology is still an open issue. In this work, the dependence of the morphology on the reaction mechanism is investigated based on a previously introduced lattice-based Monte Carlo method, the reactive bond fluctuation model. We analyze the effects of the model parameters, such as movability, attraction, or reaction probabilities on structural properties, like the specific surface area, the radial distribution function, the local porosity distribution, or the total fraction of percolating elements. From these examinations, we can identify key factors to adapt structural properties to fulfill desired requirements for possible applications. Hereby, we point out which implications theses parameter changes have on the underlying chemical structure.
150

Computer simulations to engineer PDZ-peptide recognition / Simulations numériques pour le dessin des interactions PDZ : peptide

Villa, Francesco 23 October 2018 (has links)
Les interactions protéine-protéine (IPPs) médient la signalisation cellulaire. Leur ingénierie peut fournir des informations et conduire au développement de molécules thérapeutiques. Les domaines PDZ sont des médiateurs importants de IPPs. Elles lient les 4--10 résidus C-terminaux de protéines cibles. Elles lient aussi les peptides correspondants, qui peuvent servir de systèmes modèles ou d'inhibiteurs. Nous avons développé deux approches computationnelles et les avons appliquées au domaine PDZ de la protéine Tiam1, un facteur d'échange pour la protéine Rac, impliqué dans la protrusion neuronale. Sa cible est la protéine Syndecan1. Des affinités expérimentales sont connues pour le peptide C-terminal, noté Sdc1, et plusieurs mutants; elles ont servi pour tester les calculs. Nous avons d'abord développé une méthode de dessin computationnel haut débit. Une simulation Monte Carlo est faite où les chaines latérales de la protéine et du peptide peuvent changer de conformères et certaines positions peuvent muter. Le solvant est implicite. Le paysage énergétique est aplati par la méthode adaptative de Wang-Landau, de sorte qu'un vaste ensemble de variantes est échantillonné. Effectuant des simulations distinctes du complexe et du peptide seul nous avons obtenu les énergies libres relatives d'association de 75,000 variantes en heure CPU sur une machine de bureau. Les valeurs sont compatibles avec les quelques données expérimentales disponibles. Ensuite, nous avons développé une approche beaucoup plus détaillée et réaliste. Soluté et solvant sont décrits par un champ de force atomique, qui représente explicitement la polarisation électronique: le champ de force Drude de Charmm. La polarisabilité peut être importante car les résidus de l'interface PDZ:peptide passent, lors de l'association, d'un environnement riche en solvant à un autre pauvre en solvant. Nous avons fait des simulations alchimiques d'énergie libre pour comparer quatre variantes du peptide qui diffèrent par une ou deux chaines latérales ioniques. Les résultats sont en bon accord avec l'expérience. Les champs de force additifs Charmm et Amber, qui représentent la polarisabilité implicitement, donnent un moins bon accord. Ces calculs sont le premier exemple de simulations alchimiques d'énergies libre d'association relatives protéine: ligand avec un champ de force polarisable. Enfin, pour une modélisation future de peptides phosphorylés, nous avons étendu le champ de force Drude pour inclure le méthyl phosphate et la phospho tyrosine. Il en résulte un excellent accord avec les affinités expérimentales phosphate: magnésium. / Protein-protein interactions (PPIs) regulate complex signaling networks in eukaryotic cells. Many binding events between several protein domains transfer information through communication pathways. Disrupting or altering the equilibrium between PPIs plays an important role inseveral diseases and the inibition of targeted PPIs is a recognized strategy for computational drug design. In the present thesis we focused on PDZ domains, which are among the most widespread signaling domains. PDZs recognize the 4-10 C-terminal amino acids of their target proteins as well as the corresponding peptides in isolation. We studied PDZ:peptide binding for the Tiam1 protein, which is a Rac GTP exchange factor involved in neuronal protrusion and axon guidance. Tiam1 activity modulates signaling for cell proliferation and migration, whose dysregulation increases growth of metastatic cancers. Its natural binder peptide is Syndecan1 (Sdc1), composed of 8 amino acids. Its last 5 Cter residues drive interactions in the binding pocket. Experimental affinities for several mutants of Sdc1 and in the protein domain constitute a complete dataset to study many ionic interactions with molecular simulations. These calculations are still challenging, despite the dramatic improvement of biomolecular modelling in the 1990's and 2000's. Upon binding, residues are transferred from a solvent-exposed environment to a solvent-poor one. This is expected to change the electron distribution within residues and nearby solvent molecules. Comparing ligands that differ by one or more ionic side-chain mutations, more sophisticated force fields where electronic polarizability is treated explicitly may be required. We developed and tested both Computational Protein Design (CPD) models and more precise free energy calculation methods based on polarizable molecular dynamics. We developed a general, high-througtput CPD protocol to optimize protein:peptide binding. The model has been implemented in on our in-house CPD package Proteus ( Simonson et al, 2014) and has been tested computing relative binding affinities for many variants of the Tiam1:Sdc1 complex. Monte Carlo sampling of equilibrium distributions of protein sequences is performed using an adaptive bias potential which flattens the energy landscape in sequence space and allows to estimate binding affinities for thousands of protein variants in limited CPU time (~1hour). We also improved our CPD implicit solvent model, implementing a more realistic description of the solute-solvent dielectric boundary. The new method, called Fluctuating Dielectric Boundary (FDB) showed a systematic improvement in the prediction of acid:base constants of several proteins. Promising results were also obtained for the complete sequence redesign of three PDZ domains. In the second part of this work we studied Tiam1:peptide affinities with more sophisticated models, based on free energy simulations with the Drude Polarizable Force field (DrudeFF). We first computed relative binding free energies for charge mutations in the Tiam1:Sdc1 complex, obtaining a clear improvement respect to equivalent calculations performed using two additive force fields. We applied the well-enstablished Dual Topology Approach: to our knowledge, this was the first example of such a calculation for a protein:peptide complex with uses the DrudeFF. Then we went on, developing the Drude polarizable models for methyl phosphate (MP) and phospho tyrosine (pTyr). We were interested in the change in binding affinity associated with phosphorylation of a Tyrosine residue of Sdc1, but Drude pTyr parameters were not yet developed. We tested our new phosphate parameters studying standard binding free energies between MP and magnesium (Mg2+) in water solution. Results showed a good agreement with experiment, improving previous calculations performed using additive force field

Page generated in 0.0855 seconds