• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 44
  • 9
  • 4
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 168
  • 168
  • 168
  • 44
  • 25
  • 22
  • 20
  • 20
  • 17
  • 17
  • 16
  • 15
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Optimisation et validation d'un algorithme de reconstruction 3D en tomographie d'émission monophotonique à l'aide de la plate forme de simulation GATE

El Bitar, Z. 05 December 2006 (has links) (PDF)
Les simulations de Monte-Carlo, bien que consommatrices en temps de calcul, restent un outil puissant qui permet d'évaluer les méthodes de correction des effets physiques en imagerie médicale.<br />Nous avons optimisé et validé une méthode de reconstruction baptisée F3DMC (Fully 3D Monte Carlo) dans laquelle les effets physiques perturbant le processus de formation de l'image en tomographie d'émission monophotonique sont modélisés par des méthodes de Monte-Carlo et intégrés dans la matrice-système. Le logiciel de simulation de Monte-Carlo utilisé est GATE. Nous avons validé GATE en SPECT en modélisant la gamma-caméra (Philips AXIS) utilisé en routine clinique. Des techniques de seuillage, filtrage par analyse en composantes principales et de reconstruction ciblée (régions fonctionnelles, régions hybrides) ont été testées pour améliorer la précision de la matrice-système et réduire le nombre de photons ainsi que le temps de calcul nécessaires. Les infrastructures de la grille EGEE ont été utilisées pour déployer les simulations GATE afin de réduire leur temps de calcul. Les résultats obtenus avec F3DMC sont comparés avec les méthodes de reconstruction (FBP, ML-EM, ML-EMC) pour un fantôme simulé et avec la méthode OSEM-C pour un fantôme réel. Les résultats de cette étude montrent que la méthode F3DMC ainsi que ses variantes permettent d'améliorer la restauration des rapports d'activité et le rapport signal sur bruit. L'utilisation de la grille de calcul EGEE a permis d'obtenir un gain de l'ordre de 300 en temps de calcul. Dans la suite, ces résultats doivent être confirmés par des études sur des fantômes complexes et des patients et ouvrent la voie vers une méthode de reconstruction unifiée, pouvant être appliquée aussi bien en SPECT qu'en PET.
92

Développement et validation expérimentale d'un outil de détermination de la dose hors-champ en radiothérapie

Bessières, Igor 15 February 2013 (has links) (PDF)
Depuis deux décennies, les nombreux développements des techniques de radiothérapie par modulation d'intensité (RCMI) ont permis de mieux conformer la dose au volume cible et ainsi, d'augmenter les taux de réussite des traitements des cancers. Ces techniques ont souvent l'avantage de réduire la dose aux organes à risque proches de la zone traitée, mais elles ont l'inconvénient d'apporter un niveau de dose périphérique plus important que les techniques basiques sans modulation d'intensité. Dans ce contexte, l'augmentation du taux de survie des patients qui en résulte, accroît également la probabilité de manifestation d'effets iatrogènes dus aux doses périphériques (tels que les cancers secondaires). Aujourd'hui, la dose périphérique n'est pas considérée lors de la planification du traitement et il n'existe aucun outil numérique fiable pour sa prédiction. Il devient cependant indispensable de prendre en compte le dépôt de dose périphérique lors de la planification du traitement, notamment dans les cas pédiatriques. Cette étude doctorale a permis la réalisation de plusieurs étapes du développement d'un outil numérique, précis et rapide, de prédiction de la dose hors-champ fondé sur le code Monte Carlo PENELOPE. Dans cet objectif, nous avons démontré la capacité du code PENELOPE à estimer la dose périphérique en comparant ses résultats avec des mesures de référence réalisées à partir de deux configurations expérimentales (métrologique et pré-clinique). Ces travaux expérimentaux ont notamment permis la mise en place d'un protocole d'utilisation des dosimètres OSL pour la mesure des faibles doses. En parallèle, nous avons pu mettre en évidence la convergence lente et rédhibitoire du calcul en vue d'une utilisation clinique. Par conséquent nous avons réalisé un travail d'accélération du code en implémentant une nouvelle technique de réduction de variance appelée transport pseudo-déterministe spécifiquement dédiée à l'amélioration de la convergence dans des zones lointaines du faisceau principal. Ces travaux ont permis d'améliorer l'efficacité des estimations dans les deux configurations de validation définies (gain d'un facteur 20) pour atteindre des temps de calcul raisonnables pour une application clinique. Des travaux d'optimisation du code restent à entreprendre de façon à améliorer encore la convergence de l'outil pour ensuite en envisager une utilisation clinique.
93

Imagerie cérébrale par résonance magnétique du tenseur de diffusion : de la modélisation à l'imagerie 3D haute résolution. Applications et "fibre tracking" dans un modèle de schizophrénie chez la souris

Mauconduit, Franck 16 December 2011 (has links) (PDF)
Le travail de cette thèse est méthodologique centré autour de l'imagerie du tenseur de diffusion par résonance magnétique (DTI) avec des développements incluant des simula- tion Monte Carlo des signaux RMN de diffusion dans des modèles géométriques du tissu cérébral et des acquisitions de séquence DTI haute résolution 3D pour aboutir à l'imagerie "fibre tracking" dans le cerveau de souris. Différents modèles géométriques de la substance blanche, grise ou encore incluant les deux structures sont proposés. Le principe de leur génération est décrit ainsi que la gestion des contraintes liées à la compartimentation. Il est montré aussi le principe de l'élaboration d'un nouveau "modèle composite" qui per- met de modéliser des géométries complexes comme le mélange de différentes structures ou encore des différentes orientations des axes des fibres de la substance blanche. Un avantage au modèle composite est sa simplicité et le gain en temps de calcul. Les résul- tats des simulations ont été confrontés à des données in vivo et ont permis d'interpréter l'origine des signaux et d'évaluer l'impact de certains paramètres géométriques sur ces signaux. Ils ont permis aussi d'optimiser les conditions d'acquisition. Une application majeure des développements de l'imagerie 3D haute résolution est son application dans un modèle apparenté à la schizophrénie chez la souris. Par comparaison à des souris nor- males, il est montré, pour la première fois en utilisant DTI et l'imagerie fibre tracking, une baisse du volume de la matière blanche et une réduction, voire une absence de la partie post-commissurale du fornix, un tract qui relaie l'hippocampe vers le corps mamillaire.
94

Transport de charge dans des matériaux hybrides composés de polymères π -conjugués et de nanocristaux de semi-conducteurs

Couderc, Elsa 01 December 2011 (has links) (PDF)
Cette thèse a pour but d'étudier le transport de charges pho- togénérées dans des matériaux hybrides composés de polymères π-conjugués et de nanocristaux de semi- conducteurs, conçus pour des applications en opto-électronique. La synthèse chimique permet d'obtenir des nanocristaux de CdSe à l'échelle du gramme ayant une faible polydispersité et des formes contrôlées (sphériques, branchées). Les ligands de surface des nanocristaux de CdSe sont échangés par de petites molécules (pyridine, éthanedithiol, phénylènediamine, butylamine, benzènedithiol) afin d'augmenter leur conductivité. L'échange de ligands modifie les niveaux énergétiques des nanocristaux, comme le montrent des études optiques et électrochimiques. Le poly(3-hexylthiophène) déposé sous forme de couches minces présente différents degrés de couplage intermoléculaire et de désordre énergétique selon la méthode de dépôt et le solvant utilisé. Dans les films hybrides, des mesures de diffraction de rayons X en incidence rasante montrent que la structuration cristalline de la matrice organique est modifiée par la présence des nanocristaux. Les mesures de Temps-de-Vol dans les couches hybrides montrent que les mobilités des trous et des électrons varient avec le contenu en nanocristaux, ainsi qu'avec leur forme et leurs ligands. De faibles fractions de nanocristaux provoquent une amélioration de la mobilité des trous, tandis que de plus grandes fractions la détériorent. Les mobilités électroniques sont soumises à une fraction-seuil, as- similable à un seuil de percolation. La fraction optimale de nanocristaux, du point de vue des mobilités des trous et des électrons, est de 36% en volume pour les nanocristaux sphériques avec les ligands de synthèse. Enfin, les simulations Monte-Carlo des courants transitoires photo-générés, dans un échantillon de poly(3-hexylthiophène) et dans un hybride, montrent d'une part que la distribution énergétique du poly(3-hexylthiophène) domine l'allure des courants simulés et d'autre part que les nanocristaux peuvent être assimilés à des sites difficilement accessibles du réseau cubique.
95

Etudes expérimentales et simulations Monte Carlo en spectrométrie gamma: Correction des effets de cascade et de matrice pour des mesures environnementales

Dziri, Samir 29 May 2013 (has links) (PDF)
Les mesures fines des faibles radioactivités par la spectrométrie gamma nécessitent l'optimisation de la géométrie de détection et la connaissance du schéma de niveaux des raies gamma. Ainsi, on peut augmenter le taux de comptage et par conséquent, réduire l'incerti- tude statistique des pics spectraux exploités pour le calcul de l'activité des radio-isotopes en rapprochant le plus possible l'échantillon du détecteur. Cependant, l'augmentation du volume de l'échantillon demande une correction de l'auto-absorption des émissions par l'échantillon même, et le rapprochement du détecteur est à l'origine du phénomène de pic-somme. L'utilisation de MCNPX a permis de mettre en évidence les effets séparés de la densité de l'échantillon et le nombre atomique effectif dans l'atténuation des photons d'énergie inférieure à 100 keV. Les facteurs de correction du pic-somme sont obtenus par MCNPX, GESPCOR et ETNA. Ainsi, une base des données pour 244 radionucléides a été établie pour des géométrie SG50 et SG500 au contact d'un détecteur. Dans une application à la radioprotection, des échantillons de mat'eriaux de construction ont été analysés par la spectrométrie gamma. L'Uranium-238, le Thorium-232 et le Potassium-40 ont été identifiés et corrigés des effets sus-cités. La dosimétrie de leurs rayonnements gamma a permis d'évaluer les indices de risque, la dose absorbée et la dose efficace annuelle reçues provenant de ces matériaux. Les simulations par MCNPX corroborent le modèle de calcul de la dose absorbée. Il a permis aussi d'étudier la distribution de la dose dans les habitations de diff'erentes dimensions. Les résultats obtenus sont dans les limites réglementaires.
96

Contamination des logements par le plomb : prévalences des logements à risque et identification des déterminants de la contamination

Lucas, Jean-Paul 30 October 2013 (has links) (PDF)
Ce travail s'inscrit dans le domaine de la contamination des logements par le plomb. Il a consisté à estimer la prévalence des logements possédant un risque plomb et à identifier les déterminants de la contamination des poussières intérieures déposées au sol. Le travail s'est basé sur les données collectées dans 484 logements et 1834 pièces lors de la réalisation de l'enquête Plomb-Habitat (2008-2009). L'échantillon a été obtenu par un plan de sondage complexe à partir duquel un poids de sondage a été associé à chaque logement. La démarche s'est organisée en 4 temps. Elle a consisté tout d'abord à valider les données avant de réaliser les analyses statistiques. Puis elle a consisté dans un second temps à estimer les niveaux en plomb dans l'eau du robinet, dans les revêtements intérieurs, dans les aires de jeu extérieures des enfants ainsi que dans la poussière intérieure déposée au sol. Dans un troisième temps les contributions des sources potentielles pouvant contaminer cette poussière ont été estimées. Ceci a été réalisé par un modèle multi-niveaux sur données d'enquête, sans pondération ; le niveau 1 était constitué des pièces et le niveau 2 constitué des logements. Dans un quatrième temps, une simulation Monte Carlo a été réalisée afin de s'assurer de la pertinence du modèle ajusté à l'étape précédente. Ce travail a permis pour la première fois de réaliser un état de la contamination par le plomb dans les logements français. Il montre que concernant les niveaux en plomb dans l'eau du robinet, les poussières intérieures au sol, la peinture au plomb et les sols des aires de jeu extérieures, respectivement 2,5 %, 0,21 %, 24,5 % et 1,4 % des logements sont à risque dans la mesure où le seuil de référence respectif est dépassé. Ce travail met en évidence que les poussières du palier d'appartement sont le principal contributeur dans la contamination des poussières intérieures. Enfin ce travail a permis de montrer sur des données réelles d'enquête qu'une pondération non adéquate au niveau 2 d'un modèle multi-niveaux pouvait induire des estimateurs biaisés. Il serait intéressant à partir des résultats obtenus de définir le concept de logement à risque plomb et de proposer un diagnostic technique permettant de mettre aisément en évidence le risque plomb global d'un logement. Il serait en outre intéressant d'étudier plus précisément les voies de contamination entre les différents compartiments environnementaux et de généraliser les résultats concernant la pondération à utiliser dans une modélisation multi-niveaux sur données d'enquête.
97

Effects Of Extrapolation Boundary Conditions On Subsonic Mems Flows Over A Flat Plate

Turgut, Ozhan Hulusi 01 January 2006 (has links) (PDF)
In this research, subsonic rarefied flows over a flat-plate at constant pressure are investigated using the direct simulation Monte Carlo (DSMC) technique. An infinitely thin plate (either finite or semi-infinite) with zero angle of attack is considered. Flows with a Mach number of 0.102 and 0.4 and a Reynolds number varying between 0.063 and 246 are considered covering most of the transitional regime between the free-molecule and the continuum limits. A two-dimensional DSMC code of G.A. Bird is used to simulate these flows, and the code is modified to examine the effects of various inflow and outflow boundary conditions. It is observed that simulations of the subsonic rarefied flows are sensitive to the applied boundary conditions. Several extrapolation techniques are considered for the evaluation of the flow properties at the inflow and outflow boundaries. Among various alternatives, four techniques are considered in which the solutions are found to be relatively less sensitive. In addition to the commonly used extrapolation techniques, in which the flow properties are taken from the neighboring boundary cells of the domain, a newly developed extrapolation scheme, based on tracking streamlines, is applied to the outflow boundaries, and the best results are obtained using the new extrapolation technique together with the Neumann boundary conditions. With the new technique, the flow is not distorted even when the computational domain is small. Simulations are performed for various freestream conditions and computational domain configurations, and excellent agreement is obtained with the available experimental data.
98

Evaluation des performances des mémoires CBRAM (Conductive bridge memory) afin d’optimiser les empilements technologiques et les solutions d’intégration / Evaluation of the performances of scaled CBRAM devices to optimize technological solutions and integration flows

Guy, Jérémy 18 December 2015 (has links)
Ces dernières décennies, la constante évolution des besoins de stockage de données a mené à un bouleversement du paysage technologique qui s’est complètement métamorphosé et réinventé. Depuis les débuts du stockage magnétique jusqu’aux plus récents dispositifs fondés sur l’électronique dit d’état solide, la densité de bits stockés continue d’augmenter vers ce qui semble du point de vue du consommateur comme des capacités de stockage et des performances infinies. Cependant, derrière chaque transition et évolution des technologies de stockage se cachent des limitations en termes de densité et performances qui nécessitent de lourds travaux de recherche afin d’être surmontées et repoussées. Ce manuscrit s’articule autour d’une technologie émergeante prometteuse ayant pour vocation de révolutionner le paysage du stockage de données : la mémoire à pont conducteur ou Conductive Bridge Random Access Memory (CBRAM). Cette technologie est fondée sur la formation et dissolution réversible d’un chemin électriquement conducteur dans un électrolyte solide. Elle offre de nombreux avantages face aux technologies actuelles tels qu’une faible consommation électrique, de très bonnes performances d’écriture et de lecture et la capacité d’être intégré aux seins des interconnexions métalliques d’une puce afin d’augmenter la densité de stockage. Malgré tout, pour que cette technologie soit compétitive certaines limitations ont besoin d’être surmontées et particulièrement sa variabilité et sa stabilité thermique qui posent encore problème. Ce manuscrit propose une compréhension physique globale du fonctionnement de la technologie CBRAM fondée sur une étude expérimentale approfondie couplée à un modèle Monte Carlo cinétique spécialement développé. Cette compréhension fait le lien entre les propriétés physiques des matériaux composant la mémoire CBRAM et ses performances (Tension et temps d’écriture et d’effacement, rétention de donnée, endurance et variabilité). Un fort accent est mis la compréhension des limites actuelle de la technologie et comment les repousser. Grâce à une optimisation des conditions d’opérations ainsi qu’à un travail d’ingénierie des dispositifs mémoire, il est démontré dans ce manuscrit une forte amélioration de la stabilité thermique ainsi que de la variabilité des états écrits et effacés. / The constant evolution of the data storage needs over the last decades have led the technological landscape to completely change and reinvent itself. From the early stage of magnetic storage to the most recent solid state devices, the bit density keeps increasing toward what seems from a consumer point of view infinite storage capacity and performances. However, behind each storage technology transition stand density and performances limitations that required strong research work to overcome. This manuscript revolves around one of the promising emerging technology aiming to revolutionize data storage landscape: the Conductive Bridge Random Access Memory (CBRAM). This technology based on the reversible formation and dissolution of a conductive path in a solid electrolyte matrix offers great advantages in term of power consumption, performances, density and the possibility to be integrated in the back end of line. However, for this technology to be competitive some roadblocks still have to be overcome especially regarding the technology variability, reliability and thermal stability. This manuscript proposes a comprehensive understanding of the CBRAM operations based on experimental results and a specially developed Kinetic Monte Carlo model. This understanding creates bridges between the physical properties of the materials involved in the devices and the devices performances (Forming, SET and RESET time and voltage, retention, endurance, variability). A strong emphasis is placed on the current limitations of the technology previously stated and how to overcome these limitations. Improvement of the thermal stability and device reliability are demonstrated with optimized operating conditions and proper devices engineering.
99

Top polarization measurement in single top quark production with the ATLAS detector / Mesure de la polarisation dans la production électrofaible de quark top avec le détecteur ATLAS

Sun, Xiaohu 01 October 2013 (has links)
La polarisation du quark top produit par interaction électrofaible (single-top) en voie-t permet de tester la structure du vertex Wtb: le couplage vecteur gauche prévu dans le cadre du Modèle Standard (MS), ainsi que les couplages anormaux vecteur ou tenseur introduits par plusieurs théories au-delà du Modèle Standard. Le lot de données correspondant à une luminosité integrée de 4,7 fb-1 recolté dans les collisions proton-proton à une énergie de 7 TeV dans le centre de masse offre une chance de mesurer la polarisation du quark top. Cette thèse traite de la mesure de la polarisation du quark top grâce à l'étude des distributions angulaires polarisées dans des bases spécifiques avec les événements single-top produits en voie-t. Au début du document, le contexte théorique de production du quark top par interaction forte et électrofaible au LHC est introduit. Ensuite, le détecteur, les performances de reconstruction ainsi que la sélection d'événements avec une signature single-top en voie-t, sont décrits. Les méthodes d' "unfolding" et de "folding" sont présentées et testées avec différentes configurations afin de mesurer la polarisation du quark top. Les résultats obtenus, ainsi que les incertitudes théorique, expérimentales et statistiques, sont examinées. Il s'agit de la première mesure de polarisation du quark top avec le détecteur ATLAS. Les résultats sont compatibles avec les prédictions MS, et contribuent donc à contraindre de maniére significative les couplages anormaux sur le vertex Wtb. / The top quark polarization in electroweak production for single top t-channel allows to test the structure of the Wtb vertex: the left-handed vector coupling of the Standard Model (SM) as well as the anomalous couplings including the right-handed vector, the left-handed tensor and the right-handed tensor couplings. The 4.7 fb-1 data recorded by the ATLAS detector at the LHC with the center of mass energy at 7 TeV in 2011 provides a chance to measure the top polarization. This thesis discusses the measurement of the top polarization by studying the polarized angular distributions in specific bases with t-channel single top events. In the beginning of the thesis, a theoretical context of the top quark production via the strong interaction and the electroweak interaction at the LHC is introduced. Then the detector, the reconstruction performances as well as the event selections with a single top t-channel event signature are described. To measure the top polarization, the unfolding and folding methods are constructed and tested with different configurations. In the end, the measured results are examined with the estimated uncertainties from the theory, the detector response and modeling as well as the statistics. This is the first measurement of the top polarization with the ATLAS detector. The results are compatible with the SM predictions and contribute signicantly to constrain the anomalous couplings in the Wtb vertex
100

Etude de la mesure en ligne de l'activité β+ induite lors des traitements d'hadronthérapie, en vue de leur contrôle balistique / Study of the online measurement of the β+ activity induced during hadrontherapy treatments, with a view to their ballistic control

Lestand, Loïc 24 September 2012 (has links)
Le cancer est aujourd’hui la première cause de mortalité en France, devant les pathologies cardio-vasculaires, si bien qu’il constitue un enjeu de santé publique majeur. Parmi les alternatives thérapeutiques actuellement pratiquées en milieu clinique, on compte l’ensemble des techniques de radiothérapie externe. L’hadronthérapie est une technique émergente de radiothérapie, caractérisée par des propriétés balistiques et biologiques compatibles avec la définition de protocoles cliniques et thérapeutiques hautement conformationnels. La précision balistique, c’est à dire la capacité à irradier un volume cible avec précision repose sur un ensemble de paramètres pouvant être entachés d’incertitudes et dont la quantification n’est pas toujours possible. Aussi, la mise en place de procédures de contrôles de l’irradiation devient indispensable à l’utilisation de cette technique de manière raisonnée et pertinente. Le contrôle balistique peut être réalisé par une technique d’imagerie biomédicale, la Tomographie par Emission de Positons (TEP), qui permet de mesurer la distribution de la radioactivité β+ induite par le faisceau primaire. Les premiers résultats obtenus, tant sur le plan de la simulation que sur celui de l’instrumentation, ont permis de poser les jalons d’une méthodologie de mesure et d’analyse des données compatibles avec cette problématique de mesure en ligne. Des mesures réalisées auprès du centre protonthérapie d’Orsay, un des deux centres d’hadronthérapie français, et du grand accélérateur national d’ions lourds (GANIL) de Caen, ont permis de fournir une preuve de concept et d’initier un chantier visant à concevoir un détecteur suffisamment grand, qui sera exploité dans le cadre de protocoles cliniques déterminés. / Cancer remains the main cause of death in France which constitutes a major public heathcare issue. Among all therapeutic alternatives currently used in clinical routine there are all external radiation therapy technics. A new type of highly conformational radiation therapy, called hadrontherapy has been developped over almost 50 years. Balistic accuracy relies on a set of parameters which can be affected by different sources of uncertainties that remain hardly predictable. Therefore, this technic requires the definition of quality assurance (QA) procedures to prevent any deleterious health consequences for the patient. Such QA procedures can be achieved by measuring the induced β+ activity by means of Positron Emission Tomography. The first results obtained by simulations and through different experiments performed on proton and carbon ion beams have lead to define a methodology of data acquisition and analysis compatible with in-beam QA of hadrontherapy treatments. Moreover, experiment performed at GANIL (carbon beam) and CPO Orsay (proton beam) have helped to initiate the construction of a larger detector which could be used within different clinical routine treatments.

Page generated in 0.1309 seconds