Spelling suggestions: "subject:"simulationlation montecarlo"" "subject:"simulationlation contestarlo""
41 |
Simulation Monte Carlo du transport quantique dans les composants nanométriques. Application à l'étude de lasers à cascade quantique térahertzBonno, Olivier 13 December 2004 (has links) (PDF)
Les sources appelées lasers à cascade quantique (LCQ) présentent des potentialités très intéressantes pour l'émission aux fréquences térahertz. Ce travail vise à mieux comprendre les phénomènes physiques à l'origine du transport quantique dans les LCQ. Dans ce but, nous avons utilisé la simulation Monte Carlo. Le mémoire est divisé en trois parties. Dans une première partie, nous présentons les sources optoélectroniques émettant dans l'infrarouge. Nous précisons le formalisme de l'équation Maîtresse pour modéliser le transport quantique dans ces dispositifs. La deuxième partie est consacrée à la description du modèle en insistant particulièrement sur la modélisation de l'interaction électron-électron. Dans la troisième partie, nous examinons des LCQ émettant dans l'infrarouge lointain. Il ressort de nos études que l'interaction électron-électron joue un rôle prépondérant à ces fréquences. Nous envisageons ensuite deux voies afin de diminuer la fréquence jusqu'à 1 THz.
|
42 |
Etudes expérimentales et modélisations Monte Carlo de l'auto-absorption gamma et de la dosimétrie active par capteurs CMOSNachab, Abdellatif 13 December 2003 (has links) (PDF)
Les travaux de recherche de cette thèse portent sur deux parties: l'évaluation de l'auto-absorption des rayonnements gamma et l'étude de la fonction de réponse des capteurs à pixels actifs pour la dosimétrie en temps réel. Dans le processus d'analyse quantitative de la radioactivité par spectrométrie gamma, l'étalonnage en rendement de détection de la chaîne est une étape essentielle. Outre le problème des interférences, l'atténuation des photons dans l'échantillon et l'effet de sommation en cas de cascade de transitions gamma sont les deux principaux facteurs déterminants dans ce type d'analyse. Dans ce contexte des mesures expérimentales et des calculs de simulation Monte Carlo, ont été réalisés pour étudier le phénomène de la self-absorption et évaluer les effets de matrice dans le cas des échantillons volumineux. Cette étude a permis de corriger les analyses par spectrométrie gamma des phosphates marocains. La deuxième partie de la thèse consiste à appliquer des capteurs CMOS de type MIMOSA, dérivés de ceux développés par l'IReS et le LEPSI pour la physique des particules, à la détection de rayonnements de neutrons et alpha, pour en faire des dosimètres léectroniques impulsionnels personnels. Ces appareils doivent permettre de suivre en temps réel les concentations du radon dans des environnements variés. Des codes ont été élaborés pour l'acquisition et l'analyse des données enregistrées par un système conçu pour cette application. Des tests ont été effectués pour la détection du radon et descendants émanant d'une source de Radium. Les résultats de ces tests ont été comparés aux mesures obtenues par d'autres techniques passives et actives. Des calculs de simulation Monte Carlo de la fonction de réponse du système aux neutrons rapides à l'aide du code MCNP ont été effectués.
|
43 |
Transport de charge dans des matériaux hybrides composés de polymères π-conjugués et de nanocristaux de semi-conducteursCouderc, Elsa 01 December 2012 (has links) (PDF)
Cette thèse a pour but d'étudier le transport de charges photogénérées dans des matériaux hybrides composés de polymères π-conjugués et de nanocristaux de semi-conducteurs, conçus pour des applications en opto-électronique. La synthèse chimique permet d'obtenir des nanocristaux de CdSe à l'échelle du gramme ayant une faible polydispersité et des formes contrôlées (sphériques, branchées). Les ligands de surface des nanocristaux de CdSe sont échangés par de petites molécules (pyridine, éthanedithiol, phénylènediamine, butylamine, benzènedithiol) afin d'augmenter leur conductivité. L'échange de ligands modifie les niveaux énergétiques des nanocristaux, comme le montrent des études optiques et électrochimiques. Le poly(3-hexylthiophène) déposé sous forme de couches minces présente différents degrés de couplage intermoléculaire et de désordre énergétique selon la méthode de dépôt et le solvant utilisé. Dans les films hybrides, des mesures de diffraction de rayons X en incidence rasante montrent que la structuration cristalline de la matrice organique est modifiée par la présence des nanocristaux. Les mesures de Temps-de-Vol dans les couches hybrides montrent que les mobilités des trous et des électrons varient avec le contenu en nanocristaux, ainsi qu'avec leur forme et leurs ligands. De faibles fractions de nanocristaux provoquent une amélioration de la mobilité des trous, tandis que de plus grandes fractions la détériorent. Les mobilités électroniques sont soumises à une fraction-seuil, assimilable à un seuil de percolation. La fraction optimale de nanocristaux, du point de vue des mobilités des trous et des électrons, est de 36% en volume pour les nanocristaux sphériques avec les ligands de synthèse. Enfin, les simulations Monte-Carlo des courants transitoires photogénérés, dans un échantillon de poly(3-hexylthiophène) et dans un hybride, montrent d'une part que la distribution énergétique du poly(3-hexylthiophène) domine l'allure des courants simulés et d'autre part que les nanocristaux peuvent être assimilés à des sites difficilement accessibles du réseau cubique.
|
44 |
Etude par simulations numériques de bicouches FM/AFM à anisotropie d'échangeMaitre, Adeline 04 October 2012 (has links) (PDF)
Ce travail de thèse est consacré à l'étude, par simulations numériques, du phénomène d'anisotropie d'échange présent, notamment, dans les éléments sensibles des MRAMs. La première partie de ce mémoire porte sur l'influence de la rugosité d'interface, combinée à l'effet de la température, sur les propriétés d'anisotropie d'échange, par le biais d'une approche atomique. L'étude a permis de confirmer la forte influence de la configuration interfaciale. Il a notamment été observé que l'interface présentant la plus forte rugosité, donnait lieu à des valeurs plus importantes du champ d'échange. De plus, l'existence de sites FM à fort champ local agissant comme des sites de nucléation lors du retournement d'aimantation a été observée. Nos résultats montrent également que la frustration magnétique, combinée à l'agitation thermique, pouvait induire une annulation du champ d'échange dans le cas d'une interface suffisamment rugueuse, confirmant ainsi que la frustration magnétique à l'interface FM/AFM peut conduire, lorsque la température augmente, à des régions magnétiquement désordonnées qui ne contribuent pas au champ d'échange. La seconde partie de ce mémoire est consacrée à l'effet de la température et de la microstructure sur les propriétés d'anisotropie d'échange, ainsi qu'aux distributions de température de blocage via une approche granulaire. Il en ressort que la température à laquelle l'annulation du champ d'échange est observée, communément définie comme une température de blocage des grains AFM (T AF MB ), correspond, d'après nos simulations, à environ 80% de T AF M B calculée. L'influence de zones "verre de spin", ayant pour origine un affaiblissement du couplage effectif dû à la présence de rugosité, sur la distribution de T AF M B a également été étudiée. L'introduction d'une "certaine quantité" de grains présentant un état "verre de spin" dans la couche AFM, induit bien un pic à basse température comme observé expérimentalement.
|
45 |
Modélisation et analyse des étapes de simulation des émetteurs de positons générés lors des traitements en protonthérapie - du faisceau à la caméra TEP - pour le suivi des irradiationsVan Ngoc Ty, Claire 19 December 2012 (has links) (PDF)
La protonthérapie est une technique innovante de traitement des cancers dans les zones critiques, telles que les yeux ou la base du crâne. Même si le phénomène physique d'interactions des protons dans les tissus est bien connu et présente des avantages pour la protonthérapie, il existe des incertitudes sur le parcours des protons liées aux hétérogénéités des tissus traversés en situation clinique et liées au calcul des paramètres du faisceau dans le planning de traitement qui contrebalancent les avantages théoriques des protons pour la délivrance de la dose. Des méthodes de contrôle de qualité de l'irradiation ont donc été proposées. La plupart reposent sur l'exploitation de la cartographie des émetteurs de positons générés lors de l'irradiation. Ceux-ci peuvent être détectés et quantifiés à l'aide de la tomographie par émission de positons (TEP), une technique d'imagerie médicale utilisée principalement pour établir le bilan d'extension des cancers par imagerie. Des acquisitions TEP ont donc été proposées et validées sur des fantômes et chez des patients après protonthérapie pour le contrôle du parcours des protons. Le contrôle s'effectue en comparant la distribution radioactive mesurée en TEP et la distribution β+ simulée. La simulation de l'activité positronique générée par les protons dans le milieu traversé peut être décomposée en plusieurs étapes : une étape de simulation du faisceau de protons, une étape de modélisation des interactions des protons dans l'objet irradié et une étape d'acquisition TEP. Différentes modélisations de ces étapes sont possibles. Au cours de cette thèse, nous avons proposé plusieurs modélisations pour les 3 étapes et nous avons évalué l'apport pour la qualité du contrôle de l'irradiation. Nous avons restreint notre évaluation à la vérification du parcours des protons. Ce travail de thèse s'appuie sur des irradiations en milieu homogène et inhomogène (dans un modèle de tête) réalisé au centre de protonthérapie d'Orsay. Les objets irradiés ont été transportés dans le Service Hospitalier Frédéric Joliot pour l'acquisition TEP. Nous avons comparé l'incertitude sur le parcours des protons à partir des modélisations de la distribution β+ obtenues : 1) En modélisant l'irradiation par un faisceau de protons sous une forme simplifiée et par simulation Monte Carlo. En modélisant la production des émetteurs β+ dans les tissus par simulation Monte Carlo avec le logiciel GEANT4 en incluant les modèles de physiques des versions 9.2 et 9.4 et en utilisant des sections efficaces ; 2) En modélisant l'acquisition TEP avec une modélisation simplifiée et une modélisation Monte Carlo de l'acquisition par la caméra TEP ; 3) Les résultats montrent qu'une modélisation simplifiée du faisceau n'affecte pas l'estimation du parcours des protons. La modélisation Monte-Carlo de la caméra permet de mieux modéliser le bruit présent dans le signal TEP mesuré en milieu homogène. Des résultats préliminaires de la modélisation de la caméra TEP sont présentés dans un modèle de tête (inhomogène). En conclusion, une modélisation simplifiée de la caméra TEP permet d'évaluer le parcours des protons en milieu homogène à 1 mm près, qui est équivalent à la reproductibilité de la mesure TEP post-irradiation telle qu'elle est mesurée par Knopf et al. (2008).
|
46 |
Etude et modélisation de la précipitation de particules de silicium dans des couches de silice nanométriquesRoussel, Manuel 12 December 2012 (has links) (PDF)
Les propriétés optiques et électriques de nanoparticules de silicium enrobées de silice ont été au centre de nombreuses études ces vingt dernières années en raison de leurs potentielles applications pour les futures générations de cellules photovoltaïques, de mémoires flash et d'amplificateurs optiques. Ces matériaux présentent des propriétés d'émission lumineuse et de piégeage de charges qui dépendent fortement de leurs caractéristiques structurales. La distribution en taille des nanoparticules, leur densité volumique, leur interface ainsi que la qualité de l'oxyde sont des paramètres clés qui gouvernent la longueur d'onde des photons émis, la quantité de charges piégées... L'objectif de cette thèse vise à mieux comprendre la formation des nanoparticules de silicium à l'échelle atomique en fonction des paramètres d'élaboration (excès de Si, épaisseur des couches actives, température et temps de recuit, ...). Une évolution du coefficient de diffusion du Si dans la silice en fonction de l'excès de silicium est mise en évidence. Parallèlement, un changement drastique du mécanisme de décomposition en fonction de l'épaisseur des couches a été observé, pour passer parfois d'un mécanisme de germination / croissance à un processus de décomposition spinodale. De plus, des simulations Monte Carlo ont été mises en place afin d'étudier la décomposition spinodale confinée dans une couche d'épaisseur nanométrique.
|
47 |
Approche du potentiel effectif pour la simulation Monte-Carlo du transport électronique avec effets de quantification dans les dispositifs MOSFETsJaud, Marie-Anne 26 October 2006 (has links) (PDF)
Le transistor MOSFET atteint aujourd'hui des dimensions nanométriques pour lesquelles les effets quantiques ne peuvent plus être négligés. Il convient donc de développer des modèles qui, tout en décrivant précisément les phénomènes physiques du transport électronique, rendent compte de l'impact de ces effets sur les performances des transistors nanométriques. Dans ce contexte, ce travail porte sur l'introduction des effets de quantification dans un code Monte-Carlo semi-classique pour la simulation du transport électronique dans les dispositifs MOSFETs. Pour cela, l'utilisation d'un potentiel de correction quantique s'avère judicieuse puisque cette correction s'applique à différentes architectures de transistor sans augmentation considérable du temps de calcul. Tout d'abord, nous évaluons et identifions les limites de la correction par le potentiel effectif usuel. Cette analyse nous conduit à proposer une formulation originale de potentiel effectif s'appuyant sur l'amélioration de la représentation du paquet d'ondes de l'électron. Nous montrons qu'en l'absence de champ électromoteur dans la direction du transport, cette formulation permet une description réaliste des effets de confinement quantique pour des architectures MOSFETs à double ou simple grille, sur substrat SOI et sur silicium massif. Des comparaisons avec des simulations Monte-Carlo semi-classiques mettent en évidence l'impact de ces effets sur le transport électronique dans un transistor MOSFET à double-grille de taille nanométrique. Enfin, notre formulation originale de potentiel de correction quantique est validée par l'obtention de résultats analogues à ceux d'un couplage Monte-Carlo Schrödinger.
|
48 |
Simulation de l'imagerie à 3γ avec un télescope Compton au xénon liquideMohamad Hadi, Abdul Fattah 17 June 2013 (has links) (PDF)
L'imagerie 3γ est une technique innovante d'imagerie médicale nucléaire qui est étudiée au laboratoire SUBATECH. Elle repose sur la localisation tridimensionnelle d'un radioisotope émetteur (β+, γ), le 44Sc, à l'aide d'un télescope Compton au xénon liquide. Le lieu de désintégration de ce radioisotope est obtenu par l'intersection de la ligne de réponse, construite à partir de la détection des deux photons de 511 keV issus de l'annihilation d'un positron, et du cône déterminé à partir du troisième photon. Un prototype de petite dimension XEMIS1 (XEnon Medical Imaging System) a été développé afin de faire la preuve expérimentale de la faisabilité de l'imagerie à 3γ. Les résultats de ce prototype sont très promoteurs en terme de résolution en énergie, de pureté du xénon liquide et de faible bruit électronique. La simulation Monte Carlo est un outil indispensable pour accompagner la R&D et évaluer les performances de la nouvelle technique d'imagerie proposée. Les travaux rapportés dans cette thèse concernent le développement de la simulation du système d'imagerie 3γ avec GATE (Geant4 Application for Tomographic Emission). De nouvelles fonctionnalités ont été implémentées dans GATE afin de simuler un détecteur de type TPC (Time Projection Chamber). Nous avons effectué une simulation du prototype XEMIS1 et obtenu des résultats en bon accord avec nos données expérimentales. La prochaine étape du projet consiste à construire une caméra cylindrique au xénon liquide pour l'imagerie du petit animal. Les résultats des simulations de cette caméra présentés dans cette thèse montrent la possibilité de localiser chaque désintégration le long de la ligne de réponse avec une très bonne précision et une bonne sensibilité de détection. Des premières images de fantômes simples, réalisées évènements par événements, et après reconstruction tomographiques ont également présentées.
|
49 |
Influence de la composition chimique des tissus humains sur les dépôts de dose en hadronthérapieBatin, E. 23 June 2008 (has links) (PDF)
Les systèmes de planification dosimétrique utilisent pour calculer le dépôt de dose dans l'être humain d'une part une description des tissus basée sur l'imagerie scanographique et d'autre part une description de l'interaction du faisceau reposant sur une équivalence eau des tissus, à laquelle peut s'ajouter un facteur de diffusion. Du fait du type de rayonnement et de l'énergie utilisés en scanographie, les nombres CT doivent être convertis en facteurs d'équivalence eau avant d'être utilisés par le système de planification.<br />Une détermination par simulation GEANT4 du facteur d'équivalence eau en fonction des nombres CT est proposée. Les facteurs de 77 tissus humains ont été déterminés pour un faisceau de protons de 135 MeV et de 12C de 290 MeV/A et comparés à ceux rapportés dans la littérature. Aux erreurs de détermination (<1.5%) s'ajoutent les incertitudes liées à l'acquisition des nombres CT, ces dernières pouvant atteindre 2%.<br />Les facteurs d'équivalence eau ont ensuite été utilisés pour convertir les courbes d'énergie déposée obtenues dans un tissu à celles obtenues dans l'eau et inversement. Ces courbes d'énergie déposée recalées ont été comparées aux courbes d'énergie déposée issues de la simulation. Pour les deux faisceaux, un accord en position inférieur à 0.5 mm est atteint. Des différences selon les tissus apparaissent au niveau de l'énergie maximale déposée. Elles peuvent atteindre 3% pour les tissus osseux et le faisceau de protons et varient entre 1.5% et 3.5% pour le faisceau de 12C, quel que soit le tissu. Une amélioration significative des recalages de l'énergie déposée en deux dimensions est obtenue en introduisant un facteur supplémentaire permettant de corriger de la diffusion.
|
50 |
Exploitation d'infrastructures hétérogènes de calcul distribué pour la simulation Monte-Carlo dans le domaine médicalPop, Sorina 21 October 2013 (has links) (PDF)
Les applications Monte-Carlo sont facilement parallélisables, mais une parallélisation efficace sur des grilles de calcul est difficile à réaliser. Des stratégies avancées d'ordonnancement et de parallélisation sont nécessaires pour faire face aux taux d'erreur élevés et à l'hétérogénéité des ressources sur des architectures distribuées. En outre, la fusion des résultats partiels est également une étape critique. Dans ce contexte, l'objectif principal de notre travail est de proposer de nouvelles stratégies pour une exécution plus rapide et plus fiable des applications Monte-Carlo sur des grilles de calcul. Ces stratégies concernent à la fois le phase de calcul et de fusion des applications Monte-Carlo et visent à être utilisées en production. Dans cette thèse, nous introduisons une approche de parallélisation basée sur l'emploi des tâches pilotes et sur un nouvel algorithme de partitionnement dynamique. Les résultats obtenus en production sur l'infrastructure de grille européenne (EGI) en utilisant l'application GATE montrent que l'utilisation des tâches pilotes apporte une forte amélioration par rapport au système d'ordonnancement classique et que l'algorithme de partitionnement dynamique proposé résout le problème d'équilibrage de charge des applications Monte-Carlo sur des systèmes distribués hétérogènes. Puisque toutes les tâches finissent presque simultanément, notre méthode peut être considérée comme optimale à la fois en termes d'utilisation des ressources et de temps nécessaire pour obtenir le résultat final (makespan). Nous proposons également des stratégies de fusion avancées avec plusieurs tâches de fusion. Une stratégie utilisant des sauvegardes intermédiaires de résultat (checkpointing) est utilisée pour permettre la fusion incrémentale à partir des résultats partiels et pour améliorer la fiabilité. Un modèle est proposé pour analyser le comportement de la plateforme complète et aider à régler ses paramètres. Les résultats expérimentaux montrent que le modèle correspond à la réalité avec une erreur relative de 10% maximum, que l'utilisation de plusieurs tâches de fusion parallèles réduit le temps d'exécution total de 40% en moyenne, que la stratégie utilisant des sauvegardes intermédiaires permet la réalisation de très longues simulations sans pénaliser le makespan. Pour évaluer notre équilibrage de charge et les stratégies de fusion, nous mettons en œuvre une simulation de bout-en-bout de la plateforme décrite ci-dessus. La simulation est réalisée en utilisant l'environnement de simulation SimGrid. Les makespan réels et simulés sont cohérents, et les conclusions tirées en production sur l'influence des paramètres tels que la fréquence des sauvegardes intermédiaires et le nombre de tâches de fusion sont également valables en simulation. La simulation ouvre ainsi la porte à des études paramétriques plus approfondies.
|
Page generated in 0.1141 seconds