Spelling suggestions: "subject:"simulationlation month carlo"" "subject:"simulationlation month sarlo""
31 |
Recherche du neutralino avec les détecteurs ATLAS et PICASSOGenest, Marie-Hélène January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
32 |
Imagerie cérébrale par résonance magnétique du tenseur de diffusion : de la modélisation à l'imagerie 3D haute résolution. Applications et "fibre tracking" dans un modèle de schizophrénie chez la souris / Diffusion tensor magnetic resonance imaging of the brain : from modeling to high resolved 3D imaging. Applications and fibre tracking in a schizophrenia mouse model. Quantitative Diffusion Tensor Imaging by Magnetic Resonance : methodological developments, modeling and fibre tracking imaging. Brain applications in three models : trauma, schizophrenia and tumors.Mauconduit, Franck 16 December 2011 (has links)
Le travail de cette thèse est méthodologique centré autour de l'imagerie du tenseur de diffusion par résonance magnétique (DTI) avec des développements incluant des simula- tion Monte Carlo des signaux RMN de diffusion dans des modèles géométriques du tissu cérébral et des acquisitions de séquence DTI haute résolution 3D pour aboutir à l'imagerie "fibre tracking" dans le cerveau de souris. Différents modèles géométriques de la substance blanche, grise ou encore incluant les deux structures sont proposés. Le principe de leur génération est décrit ainsi que la gestion des contraintes liées à la compartimentation. Il est montré aussi le principe de l'élaboration d'un nouveau “modèle composite” qui per- met de modéliser des géométries complexes comme le mélange de différentes structures ou encore des différentes orientations des axes des fibres de la substance blanche. Un avantage au modèle composite est sa simplicité et le gain en temps de calcul. Les résul- tats des simulations ont été confrontés à des données in vivo et ont permis d'interpréter l'origine des signaux et d'évaluer l'impact de certains paramètres géométriques sur ces signaux. Ils ont permis aussi d'optimiser les conditions d'acquisition. Une application majeure des développements de l'imagerie 3D haute résolution est son application dans un modèle apparenté à la schizophrénie chez la souris. Par comparaison à des souris nor- males, il est montré, pour la première fois en utilisant DTI et l'imagerie fibre tracking, une baisse du volume de la matière blanche et une réduction, voire une absence de la partie post-commissurale du fornix, un tract qui relaie l'hippocampe vers le corps mamillaire. / Le travail de cette thèse est méthodologique centré autour de l'imagerie du tenseur de diffusion par résonance magnétique (DTI) avec des développements incluant des simula- tion Monte Carlo des signaux RMN de diffusion dans des modèles géométriques du tissu cérébral et des acquisitions de séquence DTI haute résolution 3D pour aboutir à l'imagerie "fibre tracking" dans le cerveau de souris. Différents modèles géométriques de la substance blanche, grise ou encore incluant les deux structures sont proposés. Le principe de leur génération est décrit ainsi que la gestion des contraintes liées à la compartimentation. Il est montré aussi le principe de l'élaboration d'un nouveau “modèle composite” qui per- met de modéliser des géométries complexes comme le mélange de différentes structures ou encore des différentes orientations des axes des fibres de la substance blanche. Un avantage au modèle composite est sa simplicité et le gain en temps de calcul. Les résul- tats des simulations ont été confrontés à des données in vivo et ont permis d'interpréter l'origine des signaux et d'évaluer l'impact de certains paramètres géométriques sur ces signaux. Ils ont permis aussi d'optimiser les conditions d'acquisition. Une application majeure des développements de l'imagerie 3D haute résolution est son application dans un modèle apparenté à la schizophrénie chez la souris. Par comparaison à des souris nor- males, il est montré, pour la première fois en utilisant DTI et l'imagerie fibre tracking, une baisse du volume de la matière blanche et une réduction, voire une absence de la partie post-commissurale du fornix, un tract qui relaie l'hippocampe vers le corps mamillaire.
|
33 |
Modélisation, simulation et quantification de lésions athéromateuses en tomographie par émission de positons / Numerical modeling, simulation and quantification of atheromatous lesions in positron emission tomographyHuet, Pauline 06 July 2015 (has links)
Les pathologies cardio-vasculaires d’origine athéroscléreuse, premières causes de mortalité dans les pays occidentaux, sont insuffisamment prises en charge par les outils de dépistage et de suivi thérapeutique actuels. La Tomographie par Emission de Positons (TEP) est susceptible d’apporter au clinicien des outils puissants pour le diagnostic et le suivi thérapeutique des patients, en particulier grâce au traceur Fluorodésoxyglucose marqué au fluor 18 ([18F]-FDG). Cependant, l’Effet de Volume Partiel (EVP), dû notamment à la résolution spatiale limitée dans les images (plusieurs millimètres) en regard des faibles dimensions (de l’ordre du millimètre) des VOlumes d’Intérêt (VOIs), et les fluctuations statistiques du signal mesuré présentent des défis pour une quantification fiable.Un modèle original de lésion athéromateuse, paramétré par ses dimensions et sa concentration d’activité, a été développé et des simulations Monte-Carlo d’acquisitions TEP au [18F]-FDG de 36 lésions ont été produites. A partir des acquisitions simulées, nous avons montré que le nombre d’itérations des reconstructions itératives, le post-filtrage appliqué et le moyennage dans le VOI,paramètres relevés comme hautement variables dans une revue de la littérature dédiée, peuvent induire des variations des valeurs de fixation mesurées d’un facteur 1.5 à 4. Nous avons montré qu’une modélisation de la réponse du tomographe pouvait réduire le biais de mesure d’environ 10% par rapport au biais mesuré sur une image reconstruite avec un algorithme itératif standard et pour un niveau de bruit comparable. Sur les images reconstruites, nous avons montré que la fixation mesurée reste très biaisée (sous-estimation de plus de 50% du SUV réel) et dépend fortement des dimensions de la lésion à cause de l’EVP. Un contraste minimum de 4 par rapport à l’activité sanguine est nécessaire pour qu’une lésion soit détectée. Sans correction d’EVP, la mesure présente une corrélation faible avec la concentration d’activité, mais est très corrélée à l’activité totale dans la lésion. L’application d’une correction d’EVP fournit une mesure moins sensible à la géométrie de la lésion et plus corrélée à la concentration d’activité mais réduit la corrélation à l’activité totale dans la lésion.En conclusion, nous avons montré que l’intégralité de la fixation du [18F]-FDG dans les lésions athéromateuses inflammatoires totale peut être caractérisée sur les images TEP. Cette estimée ne requiert pas de correction de l’EVP. Lorsque la concentration d’activité dans la lésion est estimée, les mesures sont très biaisées à cause de l’EVP. Ce biais peut être réduit en mesurant le voxel d’intensité maximale, dans les images reconstruites sans post-filtrage avec au moins 80 itérations incluant un modèle de réponse du détecteur. La mise en œuvre d’une correction d’EVP facilite la détection des changements d’activité métabolique indépendamment de changements de dimensions de la zone siègede l’inflammation. Une quantification absolue exacte de la concentration d’activité dans les lésions ne sera possible que via une amélioration substantielle de la résolution spatiale des détecteurs TEP. / Cardiovascular disease is the leading cause of death in western countries. New strategies and tools for diagnosis and therapeutic monitoring need to be developed to manage patients with atherosclerosis, which is one major cause of cardiovascular disease. Fluorodeoxyglucose Positron Emission Tomography (FDG-PET) is a powerful imaging technique that can detect at early stages plaques prone to rupture. Yet, Partial Volume Effect (PVE), due to the small lesion dimensions (around 1 mm) with respect to the scanner spatial resolution (around 6 mm full width at half maximum), and statistical variations considerably challenge the precise characterization of plaques from PET images. An original model of atheromatous lesion parameterized by its dimensions and activity concentration, was developed. Thirty six Monte Carlo simulations of FDG-PET acquisitions were produced. Based on the simulations, we showed that the number of iterations in iterative reconstructions, the post filtering of reconstructed images and the quantification method in the Volume Of Interests (VOI) varied sharply in an analysis of the dedicated literature. Changes in one of these parameters only could induce variations by a factor of 1.5 to 4 in the quantitative index. Overall, inflammation remained largely underestimated (> 50% of the real uptake). We demonstrated that modeling the detector response could reduce the bias by 10% of its value in comparison to a standard OSEM recontruction and for an identical level of noise. In reconstructed images, we showed that the measured values depended not only on the real uptake but also on the lesion dimensions because of PVE. A minimum contrast of 4 with respect to blood activity was required for the lesion to be observable. Without PVE correction, the measured values exhibited a correlation with activity concentration but were much more correlated with the total uptake in the lesion. Applying a PVE correction leads to an activity estimate that was less sensitive to the geometry of the lesion. The corrected values were more correlated to the activity concentration and less correlated to the total activity. In conclusion, we showed that the total activity in inflammatory lesions could be assessed in FDG-PET images. This estimate did not require PVE correction. Tracer concentration estimates are largely biased due to PVE, and the bias can be reduced by measuring the maximum voxel in the lesion in images reconstructed with at least 80 iterations and by modeling the detector response. Explicit PVE correction is recommended to detect metabolic changes independent of geometric changes. An accurate estimation of plaque uptake will however require the intrinsic spatial resolution of PET scanners to be improved.
|
34 |
Dosimétrie des faisceaux de photons de petites dimensions utilisés en radiothérapie stéréotaxique : détermination des données dosimétriques de base et évaluation des systèmes de planification de traitement / Dosimetry of small beams used in stereotactic radiotherapy : dosimetric data determination and treatment planning systems evaluationMoignier, Cyril 10 October 2014 (has links)
Les faisceaux de photons de petites dimensions utilisés en radiothérapie stéréotaxique sont caractérisés par de forts gradients de dose et un manque important d’équilibre électronique latéral, ce qui rend les techniques dosimétriques conventionnelles inadaptées. L’objectif de la thèse est de permettre une meilleure évaluation de la dose délivrée aux patients traités par radiothérapie stéréotaxique. D’une part, les données dosimétriques de base utilisées pour l’étalonnage du système de planification de traitement (TPS) ont été déterminées numériquement. Pour cela, deux installations de radiothérapie de type CyberKnife ont été modélisées avec le code Monte Carlo PENELOPE. Des mesures de rapport d’ouverture du collimateur ont également été réalisées à l’aide de plusieurs détecteurs actifs et de deux dosimètres passifs (film radiochromique et micro-LiF) et comparées aux facteurs d’ouverture du collimateur calculés par simulation. Six détecteurs ont été modélisés afin d’étudier les phénomènes physiques impliqués dans la réponse des détecteurs en petits champs. Parmi les détecteurs étudiés, seuls les films radiochromiques sont en accord avec la simulation, ils peuvent être utilisés sans facteur correctif. La perturbation induite par les autres détecteurs a pu être expliquée, soit par l’effet volume dû à la taille trop importante du volume actif par rapport au diamètre du faisceau, soit par la masse volumique des matériaux utilisés dans la conception du détecteur qui est trop éloignée de celle de l’eau. Les facteurs correctifs, permettant de corriger la non-équivalence-eau et/ou la mauvaise résolution spatiale de chaque détecteur, ont été déterminés pour les deux systèmes CyberKnife.D’autre part, un protocole de mesure de distributions de dose 2D pour les mini-faisceaux, basé sur l’utilisation des films radiochromiques, a été établi et un programme sous MatLab permettant l’analyse entre les distributions de doses mesurées et calculées a été développé. Des plans de traitement stéréotaxique en milieu hétérogène ont ensuite été réalisés pour un fantôme afin d’évaluer les algorithmes de calcul de dose implémentés dans le TPS MultiPlan (TPS associé au système CyberKnife). L’analyse des distributions de dose 2D des plans de traitement a montré que l’algorithme de type « Pencil Beam » implémenté dans MultiPlan est performant en milieu homogène équivalent-eau mais n’est pas adapté pour les milieux à faible densité électronique tels que le poumon. En effet, celui-ci surestime la dose dans le champ (jusqu’à 40%) ce qui peut conduire à diminuer l’efficacité du traitement de la tumeur et la sous-estime hors du champ ce qui risque de sous-évaluer la dose reçue par les organes à risques à proximité. En milieu hétérogène, l’algorithme Monte Carlo implémenté dans MultiPlan est globalement en accord avec la mesure et est par conséquent l’algorithme à privilégier pour estimer la dose délivrée au patient lorsque des milieux à faible densité sont présents. / Dosimetry of small beams is challenging given their small size compared to the detectors, high dose gradient and the lack of lateral electronic equilibrium. The Ph.D. thesis aims to improve the accuracy of the dose delivered to the patient in stereotactic radiotherapy.On the one hand, dosimetric data used to calibrate the treatment planning system (TPS) were determined using numerical simulations. To achieve this, two CyberKnife radiotherapy facilities were modelled using the PENELOPE Monte Carlo code. Output ratios measurements were performed with several active detectors and with two passive dosimeters (radiochromic film and micro-LiF) and compared with output factors calculated by simulation. Six detectors were modeled in order to study the detectors response in small beams. Among the detectors studied, only the radiochromic films were in agreement with the simulations, they can be used without correction factors. The disturbance of the detectors response in small beams was explained either by the volume effect induced by the active volume, which is too high compared to the beam size, or by the mass density effect induced by the detector body materials which are too far from water mass density. The correction factors, required to correct the disturbance caused by the non-water-equivalence and/or the low spatial resolution of each detector, were calculated for the two CyberKnife systems.On the other hand, a 2D dose measurement protocol using radiographic films and a MatLab program were developed. Stereotactic treatment plans were then performed for a phantom in order to assess the calculation algorithms implemented in the MultiPlan TPS (associated with the CyberKnife system). The analysis of the 2D dose distributions related to the stereotactic treatment plans has shown that the “Pencil Beam” based algorithm implemented in MultiPlan is suitable for dose calculation in homogeneous water-equivalent media but not in low electronic density media such as the lung. Indeed, the dose is overestimated (up to 40%) inside the field and may lead to reduce the tumor treatment efficiency while it is underestimated outside the field which can underestimate the dose to critical organs within proximity of the tumor. Regarding the Monte Carlo algorithm implemented in MultiPlan, calculated and measured dose distributions are consistent and, as a consequence, it is the most suitable algorithm available in MultiPlan to estimate the dose received by a patient when low density media are involved.
|
35 |
Développement d’un outil d’optimisation de la dose aux organes en fonction de la qualité image pour l’imagerie scanographique / Tool development for organ dose optimization taking into account the image quality in Computed TomographyAdrien, Camille 30 September 2015 (has links)
Ces dernières années, la multiplication du nombre d’actes d’imagerie scanographique a eu pour conséquence l’augmentation de la dose collective due aux examens d’imagerie médicale. La dose au patient en imagerie scanographique est donc devenue un enjeu de santé publique majeur impliquant l’optimisation des protocoles d’examen, ces derniers devant tenir compte de la qualité image, indispensable aux radiologues pour poser leur diagnostic. En pratique clinique, l’optimisation est réalisée à partir d’indicateurs empiriques ne donnant pas accès à la dose aux organes et la qualité image est mesurée sur des fantômes spécifiques, tel que le fantôme CATPHAN®. Sans aucune information sur la dose aux organes et aucun outil pour prendre en compte l’avis du praticien, il est difficile d’optimiser correctement les protocoles. Le but de ce travail de thèse est de développer un outil qui permettra l’optimisation de la dose au patient tout en préservant la qualité image nécessaire au diagnostic. Ce travail est scindé en deux parties : (i) le développement d’un simulateur de dose Monte Carlo (MC) à partir du code PENELOPE, et (ii) l’estimation d’un critère de qualité image objectif. Dans ce but, le scanner GE VCT Lightspeed 64 a été modélisé à partir des informations fournies dans la note technique du constructeur et en adaptant la méthode proposée par Turner et al (Med. Phys. 36:2154-2164). Les mouvements axial et hélicoïdal du tube ont été implémentés dans l’outil MC. Pour améliorer l’efficacité de la simulation, les techniques de réduction de variance dites de splitting circulaire et longitudinal ont été utilisées. Ces deux réductions de variances permettent de reproduire le mouvement uniforme du tube le long de l’axe du scanner de manière discrète. La validation expérimentale de l’outil MC a été réalisée dans un premier temps en conditions homogènes avec un fantôme fabriqué au laboratoire et le fantôme CTDI, habituellement utilisé en routine clinique pour les contrôles qualité. Puis, la distribution de la dose absorbée dans le fantôme anthropomorphe CIRS ATOM, a été mesurée avec des détecteurs OSL et des films Gafchromic® XR-QA2. Ensuite, la dose aux organes a été simulée pour différentes acquisitions dans le fantôme femme de la CIPR 110 afin de créer une base de données utilisable en clinique. En parallèle, la qualité image a été étudiée en utilisant le fantôme CATPHAN® 600. A partir du module CTP 404, le rapport signal sur bruit (SNR pour signal to noise ratio) a été calculé en utilisant le modèle développé par Rose (J. Opt. Soc. Am. A 16:633-645). Un grand nombre d’images, correspondant à différents paramètres d’acquisition et de reconstruction, ont été analysées afin d’étudier les variations du SNR. Les acquisitions avec un SNR proche du critère de Rose ont été sélectionnées pour permettre des nouvelles acquisitions avec un fantôme préclinique contenant des petites structures suspectes en PMMA de différents diamètres. Ces images ont été analysées par deux radiologues expérimentés. Sur chaque image, ils devaient déterminer si une anomalie était présente ou non et indiquer leur niveau de confiance sur leur choix. Deux courbes ROC ont ainsi été obtenues : une pour les anomalies dites « détectables » par le critère de Rose (SNR > 5), et une pour les anomalies dites « non-détectables ». L’analyse des courbes montre que les deux radiologues détectent plus facilement les lésions suspectes lorsque que le critère de Rose est satisfait, démontrant le potentiel du modèle de Rose dans l’évaluation de la qualité image pour les tâches cliniques de détection. En conclusion, à partir des paramètres d’acquisition, la dose aux organes a été corrélée à des valeurs de SNR. Les premiers résultats prouvent qu’il est possible d’optimiser les protocoles en utilisant la dose aux organes et le critère de Rose, avec une réduction de la dose pouvant aller jusqu’à un facteur 6. / Due to the significant rise of computed tomography (CT) exams in the past few years and the increase of the collective dose due to medical exams, dose estimation in CT imaging has become a major public health issue. However dose optimization cannot be considered without taking into account the image quality which has to be good enough for radiologists. In clinical practice, optimization is obtained through empirical index and image quality using measurements performed on specific phantoms like the CATPHAN®. Based on this kind of information, it is thus difficult to correctly optimize protocols regarding organ doses and radiologist criteria. Therefore our goal is to develop a tool allowing the optimization of the patient dose while preserving the image quality needed for diagnosis. The work is divided into two main parts: (i) the development of a Monte Carlo dose simulator based on the PENELOPE code, and (ii) the assessment of an objective image quality criterion. For that purpose, the GE Lightspeed VCT 64 CT tube was modelled with information provided by the manufacturer technical note and by adapting the method proposed by Turner et al (Med. Phys. 36: 2154-2164). The axial and helical movements of the X-ray tube were then implemented into the MC tool. To improve the efficiency of the simulation, two variance reduction techniques were used: a circular and a translational splitting. The splitting algorithms allow a uniform particle distribution along the gantry path to simulate the continuous gantry motion in a discrete way. Validations were performed in homogeneous conditions using a home-made phantom and the well-known CTDI phantoms. Then, dose values were measured in CIRS ATOM anthropomorphic phantom using both optically stimulated luminescence dosimeters for point doses and XR-QA Gafchromic® films for relative dose maps. Comparisons between measured and simulated values enabled us to validate the MC tool used for dosimetric purposes. Finally, organ doses for several acquisition parameters into the ICRP 110 numerical female phantoms were simulated in order to build a dosimetric data base which could be used in clinical practice. In parallel to this work, image quality was first studied using the CATPHAN® 600. From the CTP 404 inserts, the signal-to-noise ratio (SNR) was then computed by using the classical Rose model (J. Opt. Soc. Am. A 16:633-645). An extensive number of images, linked to several acquisitions setups, were analyzed and SNR variations studied. Acquisitions with a SNR closed to the Rose criterion were selected. New acquisitions, based on those selected, were performed with a pre-clinical phantom containing suspect structures in PMMA. These images were presented to two senior radiologists. Both of them reviewed all images and indicated if they were able to locate the structures or not using a 5 confidence levels scale. Two ROC curves were plotted to compare the detection ability if the bead was detectable (SNR > 5) or not. Results revealed a significant difference between the two types of image and thus demonstrated the Rose criterion potential for image quality quantification in CT. Ultimately, organ dose estimations were linked to SNR values through acquisition parameters. Preliminary results proved that an optimization can be performed using the Rose criterion and organ dose estimation, leading to a dose reduction by a factor up to 6.
|
36 |
Macroscopic modelling of chemically reacting and radiating rarefied flowsMark Goldsworthy Unknown Date (has links)
The Direct Simulation Monte Carlo method is a computational tool for modelling rarefied flows. The Macroscopic Chemistry Method was developed to simplify the modelling of dissociation and recombination reactions in DSMC. The ability to understand and predict the behaviour of chemically reacting, rarefied flows is a critical aspect in the development of high altitude, high speed bodies such as re-entry craft, high altitude aircraft, space transport vehicles and missiles. Computational methods are an invaluable source of information when experimental techniques are difficult, costly or time-consuming. However, traditional methods of modelling chemical kinetics using DSMC suffer from a number of drawbacks. The Macroscopic Chemistry Method overcomes a number of these problems, but has previously only been applied to simulations of a single diatomic gas. The Macroscopic Chemistry Method (MCM) is extended to consider multiple species and multiple reaction sets, thermal non-equilibrium effects, trace species modelling, unsteady flows, vibrational state specific chemistry, electronic excitation, relaxation and ionization and coupled nonequilibrium radiation emission. The Macroscopic Method is described as a general DSMC modelling philosophy rather than as a single formulated method. That is, the flexibility and utility of the method are shown through examples of applying a macroscopic approach to a number of problems, and by highlighting instances where a macroscopic approach is useful or even necessary. The problems investigated include reservoir relaxation calculations, 1-D shock, expansion and shock-expansion calculations, two-dimensional flows over a vertical step and through a cavity, and axis-symmetric flow about a sphere. The studies demonstrate that although MCM may often present a simplified approach as compared to traditional 'non-macroscopic' methods, it does not necessarily lead to more approximate solutions. On the contrary, the ability of macroscopic methods to combine different models of physical processes with the most recent (verified) data means that they are particularly suited to simulate high altitude, rarefied flows. It is also shown that, like any model approach, the validity of the approximations employed must be justified for a particular problem. In general, macroscopic methods of varying complexity and accuracy may be implemented to model a specific physical process. Adoption of the Macroscopic Chemistry Method in DSMC has the potential to enhance the modelling of chemical kinetics, charged-particle effects and radiation in rarefied hypersonic flows. This capability may be attributed to the simplicity and flexibility which the macroscopic approach affords over methods which seek to avoid the use of collective information. Macroscopic methods have already been employed to model weakly ionized flows. Their further application to model chemical kinetics and other processes would be useful for modelling and understanding the behaviour of objects in rarefied hypersonic flow-fields.
|
37 |
MODELISATION D'UN PROPULSEUR A PLASMA STATIONNAIRE POUR SATELLITESGarrigues, Laurent 28 October 1998 (has links) (PDF)
Les Propulseurs à Plasma Stationnaire (SPT) sont des moteurs de petites tailles présentant des propriétés intéressantes pour les changements d'orbite basse et les corrections Nord-Sud et Est-Ouest des satellites. Le principe du fonctionnement d'un tel propulseur est basé sur la création d'un plasma hors équilibre stationnaire sous champ magnétique perpendiculaire à l'axe de la décharge qui conduit à la génération d'un faisceau d'ions utilisé pour propulser le satellite. Ce travail est d'autant plus d'actualité qu'un projet français doit permettre le lancement en 2000 du satellite STENTOR avec à son bord des propulseurs de type SPT. Le but de cette thèse est de mieux comprendre les phénomènes physiques se produisant dans les SPT à l'aide de modèles numériques. Un premier aspect a consisté à élaborer un modèle particulaire Monte Carlo capable d'apporter des éclaircissements sur le transport des électrons dans le moteur au travers d'une approche microscopique. Nous avons été conduits, dans un deuxième temps, à nous intéresser aux caractéristiques électriques (oscillations basses fréquences du courant de décharge, évolution du plasma) et aux performances du moteur (poussée, impulsion spécifique et efficacité). Pour cela, nous avons mis au point un modèle unidimensionnel, quasineutre, transitoire, auto-cohérent (approches fluide et hybride) permettant de suivre l'évolution de la décharge dans le canal. En formulant certaines hypothèses simplificatrices, nous avons pu conserver un temps de calcul assez faible pour pouvoir réaliser des études complètes et variées sur l'influence des paramètres extérieurs (débit de gaz injecté, potentiel appliqué, forme et valeur du champ magnétique) sur les caractéristiques du propulseur. Les résultats obtenus sont qualitativement en accord avec les résultats expérimentaux et avec les résultats obtenus à l'aide d'autres modèles.
|
38 |
Evaluation de la sûreté de fonctionnement des réseaux de distribution par la simulation Monte Carlo : application à des stratégies de maintenance optimalesOcnasu, Andreea Bianca 10 October 2008 (has links) (PDF)
Le secteur électrique est confronté aujourd'hui à de nouveaux défis imposés par la dérégulation du marché d'électricité, la volonté de réduire les émissions de gaz à effet de serre, le développement des nouvelles technologies. Nous assistons à un besoin croissant en terme d'analyse de sûreté de fonctionnement des réseaux de distribution, qui se manifeste par une migration des méthodes utilisées auparavant dans les réseaux de transport vers le niveau de la distribution. Dans une thèse précédente, une méthode de calcul basée sur une simulation Monte Carlo séquentielle a été développée. Une première partie de la présente thèse concerne l'étude des méthodes d'accélération de calculs. Les meilleurs résultats ont été obtenus pour une hybridation des méthodes des Variables Antithétiques et de Stratification. Nous avons abordé ensuite l'étude de faisabilité d'une méthode d'optimisation basée sur des critères de sûreté. L'application choisie a été l'optimisation des stratégies de maintenance préventive des équipements du réseau. Nous avons cherché, pour tous les équipements du système, le nombre optimal de maintenances préventives et la valeur du taux de défaillance maximal quand la maintenance est réalisée, en minimisant le coût total (coût de la maintenance préventive, maintenance corrective et coût d'interruption des clients). Au final, un ensemble de réflexions liées au développement futur d'un outil d'analyse de sûreté a été présenté. Une structure modulaire de l'outil est proposée pour faciliter son utilisation, ainsi que des possibilités de parallélisation des calculs pour une meilleure efficacité.
|
39 |
Modélisation à l'échelle atomique des premiers stades de l'oxydation du silicium: théorie de la Fonctionnelle de la Densité et Monte Carlo cinétiqueHemeryck, Anne 22 January 2008 (has links) (PDF)
La tendance permanente à la réduction des dimensions des composants de la microélectronique mène à la fabrication de couches d'oxydes de plus en plus fines. Afin de poursuivre cette miniaturisation, le recours à la caractérisation de ces couches, impliquant la connaissance parfaite de l'interface Si/SiO2, devient incontournable. Des simulations précises et prédictives des procédés aux échelles atomiques et microscopiques peuvent aider à cette caractérisation. Notre étude consiste en la détermination des premiers stades de l'oxydation thermique d'un substrat de silicium grâce à la mise en oeuvre d'une approche multi échelles. L'utilisation des calculs ab initio permet l'identification des propriétés locales des mécanismes élémentaires de l'oxydation à l'échelle atomique en termes de structures atomiques et électroniques, d'énergies d'activation de diffusions& La croissance d'oxyde selon les procédés de fabrication peut être reproduite par le développement d'un simulateur Monte Carlo cinétique à partir des mécanismes réactionnels identifiés. Le recours au Monte Carlo cinétique est nécessaire pour atteindre des échelles de temps et d'espace suffisantes pour simuler les procédés de fabrication. Nous avons réalisé des calculs ab initio à l'échelle atomique et développé un code Monte Carlo cinétique nommé Oxcad afin d'appréhender, de caractériser et de simuler les premières étapes de l'oxydation thermique d'une surface de silicium.
|
40 |
ETUDE PAR SIMULATION MONTE CARLO D'ARCHITECTURES DE MOSFET ULTRACOURTS A GRILLE MULTIPLE SUR SOISaint-Martin, Jérôme 02 December 2005 (has links) (PDF)
Dans les transistors MOS (Métal Oxyde Semiconducteur) fortement submicroniques (<100 nm), l'augmentation de la densité d'intégration des composants s'accompagne d'une dégradation de certaines caractéristiques électriques (effets de canal court), tout particulièrement dans le régime sous le seuil. Parmi les solutions possibles pour atteindre les longueurs de grille de « fin de roadmap », les architectures MOSFET (Transistor à effet de champ de type MOS) à grille multiple sur SOI (Silicium sur Isolant) apparaissent particulièrement séduisantes, surtout en termes de contrôle électrostatique. <br />Grâce au simulateur particulaire MONACO de type Monte Carlo, ce travail commence par analyser la transition apparaissant dans les transistors ultracourts entre un régime de transport diffusif vers un régime de plus en plus balistique. D'après notre étude, les dispositifs ultimes devraient délivrer des courants très proches de la limite balistique.<br />Ensuite, l'optimisation du dimensionnement de tels transistors MOS à grille multiple sur SOI a été étudiée, entre autres pour limiter l'augmentation des impédances parasites. Le meilleur compromis entre comportement sous le seuil acceptable et rapidité est obtenu dans le cas des architectures à double grille.<br />Enfin, une nouvelle version très novatrice du logiciel MONACO développée durant cette thèse est présentée. Par résolution de l'équation de Schrödinger 1D, elle permet la prise en compte des effets de quantification d'énergie qui ont lieu perpendiculairement à la direction du transport de charges 2Dk, c'est à dire selon l'axe des grilles, dans les MOSFET à double grille ultra courts qui sont aussi ultrafins.
|
Page generated in 0.1377 seconds