• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 11
  • 6
  • Tagged with
  • 29
  • 29
  • 28
  • 28
  • 17
  • 17
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Développement d'un nouveau critère pour déterminer les limites d'utilisation des détecteurs en dosimétrie non standard

Kamio, Yuji 12 1900 (has links)
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%. / In recent years, the radiation dosimetry community has shown a keen interest in extending broad beam dosimetry protocols such as AAPM's TG-51 and IAEA's TRS-398 to nonstandard fields which involve the use of an additional correction factor. Yet, these correction factors are difficult to determine precisely in a time frame that is acceptable. For small fields, these factors increase rapidly with field size, whereas for composite IMRT fields, detector positioning uncertainties render a case-by-case correction impractical. In this study, a theoretical criterion based on radiation detectors' dose response functions is used to determine in which situations a given dosimeter can be used without correction. The responses of four ionization chambers, a liquid-filled chamber, a diamond detector, an unshieded diode, an alanine dosimeter and a plastic scintillator detector are characterized at 6 MV and 25 MV. Several strategies are also suggested to reduce/eliminate correction factors such as reporting the absorbed dose to a volume and modifying the non-sensitive components of a detector to compensate for mass density effects. A new method of density compensation based on a perturbation function is presented. Finally, results show that the scintillator detector can measure nonstandard fields used in the clinic with corrections under 1%.
22

Développement d'un nouveau critère pour déterminer les limites d'utilisation des détecteurs en dosimétrie non standard

Kamio, Yuji 12 1900 (has links)
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%. / In recent years, the radiation dosimetry community has shown a keen interest in extending broad beam dosimetry protocols such as AAPM's TG-51 and IAEA's TRS-398 to nonstandard fields which involve the use of an additional correction factor. Yet, these correction factors are difficult to determine precisely in a time frame that is acceptable. For small fields, these factors increase rapidly with field size, whereas for composite IMRT fields, detector positioning uncertainties render a case-by-case correction impractical. In this study, a theoretical criterion based on radiation detectors' dose response functions is used to determine in which situations a given dosimeter can be used without correction. The responses of four ionization chambers, a liquid-filled chamber, a diamond detector, an unshieded diode, an alanine dosimeter and a plastic scintillator detector are characterized at 6 MV and 25 MV. Several strategies are also suggested to reduce/eliminate correction factors such as reporting the absorbed dose to a volume and modifying the non-sensitive components of a detector to compensate for mass density effects. A new method of density compensation based on a perturbation function is presented. Finally, results show that the scintillator detector can measure nonstandard fields used in the clinic with corrections under 1%.
23

Development of a 3D Silicon Coincidence Avalanche Detector (3D-SiCAD) for charged particle tracking / Développement d'un détecteur d'avalanche à coïncidence de silicium 3D (3D-SiCAD) pour le suivi de particules chargées

Vignetti, Matteo Maria 09 March 2017 (has links)
L’objectif de cette thèse est de développer un détecteur innovant de particules chargées, dénommé 3D Silicon Coincidence Avalanche Detector (3D-SiCAD), réalisable en technologie silicium CMOS standard avec des techniques d’intégration 3D. Son principe de fonctionnement est basé sur la détection en "coïncidence" entre deux diodes à avalanche en mode "Geiger" alignées verticalement, avec la finalité d’atteindre un niveau de bruit bien inférieur à celui de capteurs à avalanche standards, tout en gardant les avantages liés à l’utilisation de technologies CMOS; notamment la grande variété d’offres technologiques disponibles sur le marché, la possibilité d’intégrer dans un seul circuit un système complexe de détection, la facilité de migrer et mettre à jour le design vers une technologie CMOS plus moderne, et le faible de coût de fabrication. Le détecteur développé dans ce travail se révèle particulièrement adapté au domaine de la physique des particules de haute énergie ainsi qu’à la physique médicale - hadron thérapie, où des performances exigeantes sont demandées en termes de résistance aux rayonnements ionisants, "material budget", vitesse, bruit et résolution spatiale. Dans ce travail, un prototype a été conçu et fabriqué en technologie HV-CMOS 0,35µm, en utilisant un assemblage 3D de type "flip-chip" avec pour finalité de démontrer la faisabilité d’un tel détecteur. La caractérisation du prototype a finalement montré que le dispositif développé permet de détecter des particules chargées avec une excellente efficacité de détection, et que le mode "coïncidence" réduit considérablement le niveau de bruit. Ces résultats très prometteurs mettent en perspective la réalisation d’un système complet de détection CMOS basé sur ce nouveau concept. / The objective of this work is to develop a novel position sensitive charged particle detector referred to as "3D Silicon Coincidence Avalanche Detector" (3D-SiCAD). The working principle of this novel device relies on a "time-coincidence" mode detection between a pair of vertically aligned Geiger-mode avalanche diodes, with the aim of achieving negligible noise levels with respect to detectors based on conventional avalanche diodes, such as Silicon Photo-Multipliers (SiPM), and, at the same time, providing single charged particle detection capability thanks to the high charge multiplication gain, inherent of the Geiger-mode operation. A 3D-SiCAD could be particularly suitable for nuclear physics applications, in the field of High Energy Physics experiments and emerging Medical Physics applications such as hadron-therapy and Proton Computed Tomography whose future developments demand unprecedented figures in terms of material budget, noise, spatial resolution, radiation hardness, power consumption and cost-effectiveness. In this work, a 3D-SiCAD demonstrator has been successfully developed and fabricated in the Austria Micro-Systems High-Voltage 0.35 μm CMOS technology by adopting a “flip-chip” approach for the 3D-assembling. The characterization results allowed demonstrating the feasibility of this novel device and validating the expected performances in terms of excellent particle detection efficiency and noise rejection capability with respect to background counts.
24

Etude aéroacoustique d'un canal avec obstacle(s) - Application à la production de fricatives

Fujiso, Yo 14 February 2014 (has links) (PDF)
L'air que nous respirons au travers des voies aériennes supérieures est essentiel pour la vie et pour la communication orale. Dans les études de production de parole humaine, l'écoulement d'air est en général extrêmement simplifié. Or cet écoulement est complexe car turbulent et fortement sensible aux conditions limites. Dans le cas de la production de fricatives non voisées, une description plus fine de l'écoulement s'avère nécessaire pour pouvoir modéliser correctement les mécanismes aéroacoustiques sous-jacents. À l'aide d'expériences in-vitro et de simulations numériques, l'objectif de cette thèse est de contribuer à la modélisation et la caractérisation aéroacoustique d'écoulements dans des configurations de type canal avec obstacle(s), avec application à la production de fricatives non voisées. Une attention toute particulière est portée à l'influence des conditions limites et à la turbulence.
25

Élastographie par résonance magnétique et onde de pression guidée

Tardieu, Marion 16 July 2014 (has links) (PDF)
Les propriétés mécaniques des tissus biologiques sont des paramètres importants en médecine : ce sont des biomarqueurs du fonctionnement normal ou pathologique d'un tissu. En effet, ces propriétés peuvent être affectées par certaines conditions mécaniques telles que l'application d'une contrainte externe, comme l'hypertension ou un traumatisme, mais également par la présence de certaines maladies, telles que le cancer, la fibrose, l'inflammation, la maladie d'Alzheimer, ou bien tout simplement avec l'âge. La palpation réalisée par le médecin permet de discerner ces changements mais ce geste est qualitatif et ne peut accéder à des organes profonds. L'élastographie-IRM reste une méthode quantitative, robuste, d'une grande précision, qui permet de sonder l'élasticité et la viscosité des tissus. Elle consiste à mesurer le champ de déplacement d'une onde de cisaillement induite dans l'organe ciblé par une technique IRM en contraste de phase. Les modules viscoélastiques sont alors déduits après inversion de l'équation d'onde. Malgré cela, la justesse de cette technique n'a pas encore été pleinement établie. L'élastographie-IRM est en cours d'implémentation en routine clinique sur des patients atteints de maladies hépatiques chroniques ou bien pour caractériser des tumeurs dans le cas de cancer du sein. L'application aux autres organes protégés, tels que le cerveau ou les poumons, reste encore du domaine de la recherche à cause de la difficulté d'y induire des ondes mécaniques (protection naturelle de la boîte crânienne ou de la cage thoracique). C'est dans ce contexte qu'intervient un volet de mon travail de thèse : la mise en place, la caractérisation et l'optimisation d'un système induisant des ondes mécaniques dans les organes profonds. L'approche originale suivie a été d'utiliser les voies naturelles permettant d'amener l'onde de pression aux poumons ou bien à l'encéphale, différente des approches classiques consistant à traverser les barrières protectrices. Ce générateur d'onde de pression nous a permis d'obtenir des amplitudes d'onde allant de 6 µm à 30 µm dans l'ensemble du cerveau, amplitudes suffisantes afin d'en déduire les modules viscoélastiques du cerveau entier. D'autre part, un travail important s'est attaché à la réalisation d'un schéma original de correction des mouvements du patient en élastographie-IRM. Nous avons mis en évidence comment ces mouvements peuvent entraîner une discordance des composantes du champ de déplacement, nécessitant alors d'être corrigées. La correction proposée est composée d'une première étape dont la finalité est de recaler spatialement l'ensemble des volumes acquis, puis d'une seconde étape permettant de rétablir les composantes du champ de déplacement dans la même base orthonormée. Nous avons évalué numériquement et expérimentalement le biais induit quand aucunes corrections n'étaient appliquées sur ces données ainsi que l'apport de ces deux étapes de correction. Un travail préliminaire sur l'étude de la reproductibilité des acquisitions (phase en particulier) a été nécessaire. Enfin, l'ensemble des résultats de ces deux volets nous ont permis de réaliser des acquisitions d'élastographie du cerveau complet et d'obtenir des cartes du champ de déplacement de qualité. Ainsi, nous avons pu montrer la tendance des ondes mécaniques à suivre les directions privilégiées des fibres du cerveau, résultats que nous avons commencé à confronter aux observations faites en DTI.
26

Brain microstructure mapping using quantitative and diffsusion MRI

Lebois, Alice 23 July 2014 (has links) (PDF)
This thesis is focused on the human brain microstructure mapping using quantitative and diffusion MRI. The T1/T2 quantitative imaging relies on sequences dedicated to the mapping of T1 and T2 relaxation times. Their variations within the tissue are linked to the presence of different water compartments defined by a specific organization of the tissue at the cell scale. Measuring these parameters can help, therefore, to better characterize the brain microstructure. The dMRI, on the other hand, explores the brownian motion of water molecules in the brain tissue, where the water molecules' movement is constrained by natural barriers, such as cell membranes. Thus, the information on their displacement carried by the dMRI signal gives access to the underlying cytoarchitecture. Combination of these two modalities is, therefore, a promising way to probe the brain tissue microstructure. The main goal of the present thesis is to set up the methodology to study the microstructure of the white matter of the human brain in vivo. The first part includes the acquisition of a unique MRI database of 79 healthy subjects (the Archi/CONNECT), which includes anatomical high resolution data, relaxometry data, diffusion-weighted data at high spatio-angular resolution and functional data. This database has allowed us to build the first atlas of the anatomical connectivity of the healthy brain through the automatic segmentation of the major white matter bundles, providing an appropriate anatomical reference for the white matter to study individually the quantitative parameters along each fascicle, characterizing its microstructure organization. Emphasis was placed on the construction of the first atlas of the T1/T2 profiles along the major white matter pathways. The profiles of the T1 and T2 relaxation times were then correlated to the quantitative profiles computed from the diffusion MRI data (fractional anisotropy, radial and longitudinal diffusivities, apparent diffusion coefficient), in order to better understand their relations and to explain the observed variability along the fascicles and the interhemispheric asymmetries. The second part was focused on the brain tissue modeling at the cell scale to extract the quantitative parameters characterizing the geometry of the cellular membranes, such as the axonal diameter and the axonal density. A diffusion MRI sequence was developed on the 3 Teslas and 7 Teslas Siemens clinical systems of NeuroSpin which is able to apply any kind of gradient waveforms to fall within an approach where the gradient waveform results from an optimization under the hypothesis of a geometrical tissue model, hardware and time constraints induced by clinical applications. This sequence was applied in the study of fourteen healthy subjects in order to build the first quantitative atlas of the axonal diameter and the local axonal density at 7T. We also proposed a new geometrical model to model the axon, dividing the axonal compartment, usually modelled using a simple cylinder, into two compartments: one being near the membranes with low diffusivity and one farer from the membranes, less restricted and with higher diffusivity. We conducted a theoretical study showing that under clinical conditions, this new model allows, in part, to overcome the bias induced by the simple cylindrical model leading to a systematic overestimation of the smallest diameters. Finally, in the aim of going further in the physiopathology of the autism, we added to the current 3T imaging protocol the dMRI sequence developed in the framework of this thesis in order to map the axonal diameter and density. This study is ongoing and should validate shortly the contribution of these new quantitative measures of the microstructure in the comprehension of the atrophies of the corpus callosum, initially observed using less specific diffusion parameters such as the generalized fractional anisotropy. There will be other clinical applications in the future.
27

Analyse et traitement d'images multi modales en oncologie

Hatt, Mathieu 27 March 2012 (has links) (PDF)
Avec une formation initiale en sciences de l'informatique et une spécialisation image, mes activités de recherche actuelles concernent le traitement et l'analyse de l'information et de l'image pour des applications en médecine, plus particulièrement l'oncologie et la radiothérapie. Plus spécifiquement, je m'intéresse à la segmentation et la classification automatique pour la définition des contours d'organes et de tumeurs, au filtrage du bruit et à la déconvolution pour l'amélioration qualitative et quantitative, et plus récemment, aux modèles multi observation pour la prise en compte des images multi modales, et la fusion d'informations pour l'aide à la décision dans la prise en charge des patients. Je poursuis ces thématiques spécifiquement dans le cadre de l'utilisation de l'imagerie TEP/TDM (Tomographie par Emission de Positons et scanner X) en oncologie et radiothérapie. Mes activités de recherche ont pris place dans le contexte de l'équipe " imagerie multi modale quantitative pour le diagnostic et la thérapie " du laboratoire INSERM U650 de traitement de l'information médicale (LaTIM). Ce contexte a garantit un travail l'équipe pluridisciplinaire, en collaboration notamment avec des radiothérapeutes, des médecins nucléaires, des physiciens, des ingénieurs, des mathématiciens et des informaticiens. En tant que doctorant, ma principale contribution a été le développement d'une méthode originale de segmentation d'image adaptée à la définition des volumes fonctionnels des tumeurs sur les images TEP. Lors de mon post-doctorat, j'ai poursuivi la validation de la précision, de la robustesse et de la reproductibilité de cette approche dans le cadre d'un projet ANR pour lequel j'ai reçu un financement de deux ans et demi. J'ai également étudié au cours de ces deux dernières années l'impact d'une telle méthode dans de nombreuses applications, telles que la dosimétrie en planification de traitement en radiothérapie, et la prise en charge des patients en oncologie. Au cours de ces six dernières années, j'ai été de plus en plus impliqué dans des travaux de recherche connexes menés par d'autres doctorants et post-doctorants. Ces travaux incluent la fusion d'images TEP pour le suivi temporel quantitatif, les simulations réalistes et l'évaluation dosimétrique, la caractérisation de l'hétérogénéité intra tumorale des traceurs TEP par analyse de texture, et la réduction des effets de volume partiel et du bruit en imagerie d'émission. J'ai assumé la responsabilité de co-encadrant de plusieurs stagiaires et doctorants de l'équipe sous la direction du directeur de recherche D. Visvikis. Cette responsabilité inclus des réunions hebdomadaires et des discussions régulières avec les étudiants, l'aide à la mise en place des expériences et protocoles de validation, à l'analyse des résultats, la correction de rapports de stage, d'articles et de manuscrits de thèse, ainsi que réfléchir à des solutions aux problèmes tant théoriques que techniques. Je travaille actuellement en tant que chercheur associé au département de recherche en imagerie et radiothérapie de Maastricht (MAASTRO) aux Pays-bas. Au cours des prochaines années, mon projet de recherche sera dédié au développement d'un contexte flexible et robuste permettant la modélisation et l'analyse semi-automatique d'ensemble d'images médicales multi modales, multi résolutions et multi temporelles, telles que TEP/TDM, TEMP/TDM, TEP/IRM, multi IRM ou TEP avec différents traceurs, ainsi que des acquisitions dynamiques. Ce développement permettra de déduire de nouveaux modèles prédictifs et des outils de décision adaptés à diverses applications cliniques tels que les cancers de l'oesophage, rectal, pulmonaire ou ORL, par la fusion de toute l'information disponible (imagerie, génétique, phéntypes et rapports cliniques). Ce projet se construira en partie sur les travaux préliminaires réalisés avec des doctorants venant de soutenir et en passe de terminer leur thèse, et sur les thèses de deux nouvelles doctorantes que j'encadrerai à partir d'octobre 2011 et courant 2012, recrutées sur des financements que j'ai contribué à obtenir en 2010-2011.
28

Modélisation et étude histologique de gliomes diffus de bas grade

Gerin, Chloé 24 September 2012 (has links) (PDF)
Les gliomes diffus de bas grade (GBG) sont des tumeurs cérébrales primaires. Après une phase de croissance lente, ils évoluent en gliomes de haut grade, entrainant une issue fatale. Ce sont des tumeurs très diffuses donc difficiles à traiter. Une meilleure connaissance de ces tumeurs pourrait permettre de les guérir ou, à défaut, d'optimiser les traitements. Nous avons étudié la croissance des GBG grâce à un modèle mathématique simple, ce qui nous a amené à spéculer (i) qu'ils surviennent à l'adolescence, (ii) que l'âge de la tumeur au moment du diagnostic peut être calculé facilement et (iii) que la vitesse de croissance est un fac- teur pronostique important. Cette dernière prédiction concorde avec les observations cliniques. Pour vérifier ce modèle spatial, nous avons caractérisé quantitativement des tissus de biopsies étagées de GBG humains, en particulier la présence d'œdème. L'analyse de ces données micro- scopiques étaie l'idée que l'œdème est à l'origine de l'anomalie de signal IRM en séquence T2. Pour prendre en compte ce résultat nouveau, nous avons incorporé l'œdème au modèle initial comme conséquence de la présence de cellules tumorales. Ce modèle permet d'expliquer la longue décroissance du rayon tumoral pendant des dizaines de mois après la radiothérapie : les cellules tumorales désormais moins nombreuses, le drainage de l'œdème devient prédominant. Ce mo- dèle, qui ne comprend que trois paramètres libres, a été validé grâce à des données cliniques sur une vingtaine de patients.
29

Imagerie photoacoustique: application au contrôle de la thérapie ultrasonore et étude de la génération par des nanoparticules d'or

Prost, Amaury 11 April 2014 (has links) (PDF)
Ce travail de thèse s'inscrit dans le domaine de l'imagerie photoacoustique en tant que modalité d'imagerie prometteuse pour la médecine. Il a consisté en l'expérimentation du guidage photoacoustique de la thérapie par ultrasons focalisés de haute intensité (HIFU), et en l'étude de la génération par des agents de contraste spécifiques que sont les nanoparticules d'or. Dans un premier temps lors d'expériences \textit{in vitro}, une sonde conçue à la fois pour l'imagerie photoacoustique et la thérapie ultrasonore a été utilisée pour démontrer la faisabilité du guidage photoacoustique pour traiter par HIFU une zone tissulaire cible. L'usage de la photoacoustique pour le contrôle des HIFU révèle ainsi son caractère prometteur. Dans un second temps la modélisation physique de la génération photoacoustique par des nanoparticules d'or permet de quantifier les mécanismes non-linéaires thermoélastiques impactant le signal émis. Dans le cas d'une nanosphère d'or unique, nous décrivons en fonction des paramètres du problème l'importance de la contribution de ces phénomènes non-linéaires, qui sont causés par la dépendance en température de la dilatation thermique de l'eau. Nous en tirons un ensemble de prédictions quantitatives quant à l'influence et le poids de ces non-linéarités sur le signal photoacoustique. Puis nous généralisons ces résultats théoriques à une collection de nanosphères d'or, et les confrontons à nos résultats expérimentaux. Nous mettons ainsi en évidence une nouvelle forme prometteuse de contraste en imagerie photoacoustique: le contraste de non-linéarité thermoélastique.

Page generated in 0.0711 seconds