• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 123
  • 27
  • 8
  • Tagged with
  • 156
  • 58
  • 31
  • 19
  • 16
  • 14
  • 14
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Profilage système et leviers verts pour les infrastructures distribuées à grande échelle

Tsafack Chetsa, Ghislain Landry 03 December 2013 (has links) (PDF)
De nos jours, réduire la consommation énergétique des infrastructures de calcul à grande échelle est devenu un véritable challenge aussi bien dans le monde académique qu'industriel. Ceci est justifié par les nombreux efforts visant à réduire la consommation énergétique de ceux-ci. Ces efforts peuvent sans nuire à la généralité être divisés en deux groupes : les approches matérielles et les approches logicielles. Contrairement aux approches matérielles, les approches logicielles connaissent très peu de succès à cause de leurs complexités. En effet, elles se focalisent sur les applications et requièrent souvent une très bonne compréhension des solutions proposées et/ou de l'application considérée. Ce fait restreint leur utilisation à un nombre limité d'experts puisqu'en général les utilisateurs n'ont pas les compétences nécessaires à leurs implémentation. Aussi, les solutions actuelles en plus de leurs complexités de déploiement ne prennent en compte que le processeur alors que les composants tel que la mémoire, le stockage et le réseau sont eux aussi de gros consommateurs d'énergie. Cette thèse propose une méthodologie de réduction de la consommation énergétique des infrastructures de calcul à grande échelle. Elaborée en trois étapes à savoir : (i) détection de phases, (ii) caractérisation de phases détectées et (iii) identification de phases et reconfiguration du système ; elle s'abstrait de toute application en se focalisant sur l'infrastructure dont elle analyse le comportement au cours de son fonctionnement afin de prendre des décisions de reconfiguration. La méthodologie proposée est implémentée et évaluée sur des grappes de calcul à haute performance de tailles variées par le biais de MREEF (Multi-Resource Energy Efficient Framework). MREEF implémente la méthodologie de réduction énergétique de manière à permettre aux utilisateurs d'implémenter leurs propres mécanismes de reconfiguration du système en fonction des besoins. Les résultats expérimentaux montrent que la méthodologie proposée réduit la consommation énergétique de 24% pour seulement une perte de performance de moins de 7%. Ils montrent aussi que pour réduire la consommation énergétique des systèmes, on peut s'appuyer sur les sous-systèmes tels que les sous-systèmes de stockage et de communication. Nos validations montrent que notre méthodologie s'étend facilement à un grand nombre de grappes de calcul sensibles à l'énergie (energy aware). L'extension de MREEF dans les environnements virtualisés tel que le cloud montre que la méthodologie proposée peut être utilisée dans beaucoup d'autres environnements de calcul.
142

Spectroscopie EUV résolue temporellement à l'échelle femtoseconde par imagerie de vecteur vitesse et génération d'harmoniques d'ordres élevés

Handschin, Charles 01 July 2013 (has links) (PDF)
Cette thèse fait l'étude expérimentale de dynamiques de relaxations ultrarapides au sein d'atomes et de molécules (Ar, NO2, C2H2). Les méthodes expérimentales qui sont utilisées sont basées sur l'interaction d'un rayonnement laser avec le système atomique ou moléculaire étudié et font intervenir le processus de génération d'harmoniques d'ordres élevés, ainsi que la spectrométrie d'imagerie de vecteur vitesse. Au cours de cette thèse, deux approchesexpérimentales de type pompe-sonde ont été mises en œuvre. Une première approche exploitela sensibilité du processus de génération d'harmoniques à la structure électronique dumilieu pour la sonder. Cette méthode a été utilisée sur la molécule de dioxyde d'azote pourobserver sa relaxation électronique à travers l'intersection conique des états X2A1-A2B2suite à une excitation autour de 400 nm. Une seconde approche utilise le rayonnementharmonique comme source de photons dans le domaine de l'extrême ultraviolet (EUV)pour exciter ou sonder les espèces d'intérêt. Cette approche a été couplée avec l'utilisationd'un spectromètre d'imagerie de vecteur vitesse (VMIS), qui a été développé durant lathèse. Des expériences menées sur un système modèle comme l'argon ont permis de validerle dispositif expérimental, qui a ensuite été mis en application pour étudier la photodissociationde la molécule d'acétylène, après excitation autour de 9,3 eV du complexe deRydberg 3d-4s. Les deux méthodes mises en œuvre permettent toutes-deux de réaliserdes études dynamiques résolues en temps à l'échelle femtoseconde.
143

Processus Physiques Responsables de l'Etablissement et de la Variabilité de la Mousson Africaine

Besson, Lucas 26 March 2009 (has links) (PDF)
La Mousson Ouest Africaine est un système complexe, qui présente des variations interannuelles très importantes. Ces variations se traduisent par les fluctuations considérables des précipitations sur le continent. Avoir une meilleure compréhension du système complexe qu'est la mousson africaine peut permettre de mieux cerner les mécanismes qui influencent la production des précipitations sur le Sahel. La première partie de ce travail de thèse consiste en une comparaison entre deux saisons de mousson aux régimes de précipitations différents afin d'extraire les caractéristiques communes et différentes, pour les appliquer à l'étude de la saison de mousson durant laquelle s'est déroulée la campagne AMMA. Cette étude est complétée par une compréhension des processus dynamiques et thermodynamiques qui sont à l'origine du déclenchement de l'Onset de la mousson, et qui permettent l'installation des conditions favorables au développement des précipitations sur le Sahel. Le second volet est basé sur les mécanismes physiques qui entrent en compte dans le cycle de vie des lignes de grains sur le Sahel. Enfin, la dernière partie traite de l'impact des systèmes de méso - échelle sur leur environnement en terme de bilan de chaleur et d'humidité dans le quadrilatère sud de l'expérience AMMA.
144

Recherche de nouveaux quarks lourds avec l'expérience ATLAS a u LHC - Mise en oeuvre d'algorithmes d'identification de jets issus de quarks b

Bousson, N. 18 December 2012 (has links) (PDF)
L'hypothèse d'une quatrième famille de fermions - les particules de matière décrites au sein du Modèle Standard (MS) de la physique des particules - est un des plus simples modèles de nouvelle physique encore non exclu et accessible au démarrage du Large Hadron Collider (LHC) - le plus puissant collisionneur hadronique au monde depuis 2009. Cette thèse s'intéresse à la production d'une paire de quarks t' se désintégrant chacun en un boson W et un quark b. La recherche se focalise sur le domaine des très hautes masses, où la production peut être distinguée de la production de bruit de fond d'une paire de quark top en exploitant la cinématique des produits de désintégration des collisions proton-proton produites au centre du détecteur ATLAS. Nous présentons une stratégie originale exploitant en particulier la collimation des produits de la désintégration des bosons W de très grande impulsion transverse, permettant leur reconstruction explicite. L'analyse s'appuie sur un travail de mise en oeuvre des algorithmes d'identification des jets résultants de la fragmentation des quarks de saveur b. Ces algorithmes se basent sur la reconstruction très précise de la trajectoire des particules chargées, des vertex d'interactions primaires et des vertex de désintégrations secondaires présents au sein des jets. L'étiquetage-b permet à l'expérience ATLAS d'améliorer la (re)découverte du MS, ainsi que la sensibilité à la nouvelle physique. Il sera ainsi d'une grande importance pour les futures années d'opération du LHC, raison pour laquelle nous présentons une étude de prospective de ses performances attendues avec l'extension du détecteur à pixels d'ATLAS - détecteur clé de l'étiquetage-b - dénommée IBL et actuellement en construction. Notre recherche de quark t' quant à elle a permis d'établir une limite inférieure à la masse du quark t' de 656 GeV à partir des 4.7 fb^−1 de données 7 TeV collectées en 2011, ce qui est la meilleure limite à ce jour en recherche directe, avec également une interprétation dans le cadre du modèle de quarks dits 'vecteurs'.
145

Spectroscopie femtoseconde reésolue en temps dans les systèmes polyatomiques étudieés par l'imagerie de vecteur vitesse et de génération d'harmoniques d'ordre élevé

Staedter, David 20 September 2013 (has links) (PDF)
Dans cette thèse, la dynamique de photodissociation de l'azoture de chlore (ClN3) est étudiée dans le domaine temporel par imagerie de vecteur vitesse des photofragments, spécialement du chlore et de N3. Cette imagerie résolue à l'échelle femtoseconde permet d'extraire les temps de dissociation, l'établissement temporel de la balance d'énergie de la réaction ainsi que la conservation des moments. Cette étude a permis de différencier deux domaines d'énergie: l'un menant à la formation d'un fragment N3 linéaire (étude autour de 4.5 eV d'excitation électronique) et le plus intéressant aboutissant à la formation d'un fragment N3 cyclique (autour de 6 eV). Dans une seconde étude, la dynamique de relaxation électronique du tétrathiafulvalène (C6H4S4-TTF) est étudiée autour de 4 eV par spectroscopie de masse résolue en temps ainsi que par spectroscopie de photoélectron. Les seuils d'ionisation dissociative sont extraits d'une détection en coïncidence entre les photoélectrons de seuil et les fragments ionisés réalisée sur rayonnement synchrotron. Les deux dernières expériences sont basées sur la génération d'harmoniques d'ordre élevé dans l'XUV d'une impulsion femtoseconde à 800 nm ou à 400 nm. Dans la première expérience, les harmoniques sont couplées à un imageur de vecteur vitesse en tant que rayonnement secondaire VUV. Par imagerie de photoélectron résolue en temps, nous avons révélé ainsi les dynamiques de relaxation des états de Rydberg initiée par une impulsion femtoseconde XUV à 15.5 eV dans l'argon et à 9.3 eV dans l'acétylène. Dans la seconde expérience, couramment nommée spectroscopie attoseconde, les harmoniques constituent le signal pompe sonde. Deux types de spectroscopie attoseconde ont été réalisés pour étudier la dynamique vibrationnelle de SF6: une expérience en réseau transitoire créé par deux impulsions pompe Raman avec une impulsion sonde intense générant les harmoniques à partir du réseau d'excitation et une expérience d'interférence de deux rayonnement XUV en champ lointain créés par deux impulsions sonde intenses.
146

Analyse comportementale des filtres à capacités commutées pour les radiocommunications : Conception d'une nouvelle architecture en technologie BiCMOS 0,35 μm

El Oualkadi, Ahmed 08 December 2004 (has links) (PDF)
Le travail de recherche présenté dans ce mémoire s'inscrit dans l'objectif général d'étudier la faisabilité de filtres monolithiques radiofréquences (RF) à capacités commutées pour la radiocommunication mobile, et de pouvoir procéder à l'analyse et à la conception de ces filtres en technologie standard BiCMOS 0,35 μm. L'analyse comportementale de ces filtres a nécessité la mise au point d'un algorithme original basé sur le formalisme des matrices de conversion, dont le principe général consiste à effectuer une linéarisation des éléments non-linéaires autour du point de fonctionnement grand signal. Cette méthode d'analyse, spécialement utilisée pour l'analyse du bruit de phase des oscillateurs, semble à ce jour parmi les plus rigoureuses et les plus efficaces en terme de temps de calcul pour l'analyse de ce type de filtres. Traditionnellement, à basse fréquence la commande de ces filtres est réalisée à l'aide d'un registre à décalage. Cependant, cette technique n'est pas envisageable en RF. Une solution originale qui consiste à commander le filtre à partir d'un oscillateur en anneau contrôlé en tension et de portes logiques " ou exclusif " a été proposée. Grâce à cette solution, il a été montré que l'association d'un tel circuit de commande appliqué à ce type de filtre présente des avantages importants et par conséquent devrait le rendre beaucoup plus attractif pour les concepteurs. Pour répondre aux spécifications de la radiocommunication mobile, la structure classique du filtre a été optimisée pour réduire le facteur du bruit et augmenter la dynamique, ainsi une nouvelle architecture (filtre LC à capacités commutées) a été proposée. Des simulations ont été réalisées sur l'ensemble du circuit afin de prévoir les dégradations éventuelles qui peuvent être générées par ces circuits lors d'une transmission numérique (ex. p/4-DQPSK) et d'étudier ainsi l'impact du bruit de phase (gigue temporelle) généré par le circuit de commande sur le comportement du filtre. Parallèlement, un prototype composé d'un filtre LC à capacités commutées et de son circuit de commande a été fabriqué en technologie standard BiCMOS 0,35 mm, sur une puce de taille de 1,1 x 1,75 mm². Ce premier circuit a permis de prouver la faisabilité de cette architecture dans le domaine des RF. Les résultats expérimentaux confirment les simulations et sont susceptibles de rendre cette architecture originale attractive pour des applications radiofréquences.
147

q-oscillateurs et q-polynômes de Meixner

Gaboriaud, Julien 10 1900 (has links)
No description available.
148

System Profiling and Green Capabilities for Large Scale and Distributed Infrastructures / Profilage système et leviers verts pour les infrastructures distribuées à grande échelle

Tsafack Chetsa, Ghislain Landry 03 December 2013 (has links)
De nos jours, réduire la consommation énergétique des infrastructures de calcul à grande échelle est devenu un véritable challenge aussi bien dans le monde académique qu’industriel. Ceci est justifié par les nombreux efforts visant à réduire la consommation énergétique de ceux-ci. Ces efforts peuvent sans nuire à la généralité être divisés en deux groupes : les approches matérielles et les approches logicielles.Contrairement aux approches matérielles, les approches logicielles connaissent très peu de succès à cause de leurs complexités. En effet, elles se focalisent sur les applications et requièrent souvent une très bonne compréhension des solutions proposées et/ou de l’application considérée. Ce fait restreint leur utilisation à un nombre limité d’experts puisqu’en général les utilisateurs n’ont pas les compétences nécessaires à leurs implémentation. Aussi, les solutions actuelles en plus de leurs complexités de déploiement ne prennent en compte que le processeur alors que les composants tel que la mémoire, le stockage et le réseau sont eux aussi de gros consommateurs d’énergie. Cette thèse propose une méthodologie de réduction de la consommation énergétique des infrastructures de calcul à grande échelle. Elaborée en trois étapes à savoir : (i) détection de phases, (ii) caractérisation de phases détectées et (iii) identification de phases et reconfiguration du système ; elle s’abstrait de toute application en se focalisant sur l’infrastructure dont elle analyse le comportement au cours de son fonctionnement afin de prendre des décisions de reconfiguration.La méthodologie proposée est implémentée et évaluée sur des grappes de calcul à haute performance de tailles variées par le biais de MREEF (Multi-Resource Energy Efficient Framework). MREEF implémente la méthodologie de réduction énergétique de manière à permettre aux utilisateurs d’implémenter leurs propres mécanismes de reconfiguration du système en fonction des besoins. Les résultats expérimentaux montrent que la méthodologie proposée réduit la consommation énergétique de 24% pour seulement une perte de performance de moins de 7%. Ils montrent aussi que pour réduire la consommation énergétique des systèmes, on peut s’appuyer sur les sous-systèmes tels que les sous-systèmes de stockage et de communication. Nos validations montrent que notre méthodologie s’étend facilement à un grand nombre de grappes de calcul sensibles à l’énergie (energy aware). L’extension de MREEF dans les environnements virtualisés tel que le cloud montre que la méthodologie proposée peut être utilisée dans beaucoup d’autres environnements de calcul. / Nowadays, reducing the energy consumption of large scale and distributed infrastructures has truly become a challenge for both industry and academia. This is corroborated by the many efforts aiming to reduce the energy consumption of those systems. Initiatives for reducing the energy consumption of large scale and distributed infrastructures can without loss of generality be broken into hardware and software initiatives.Unlike their hardware counterpart, software solutions to the energy reduction problem in large scale and distributed infrastructures hardly result in real deployments. At the one hand, this can be justified by the fact that they are application oriented. At the other hand, their failure can be attributed to their complex nature which often requires vast technical knowledge behind proposed solutions and/or thorough understanding of applications at hand. This restricts their use to a limited number of experts, because users usually lack adequate skills. In addition, although subsystems including the memory are becoming more and more power hungry, current software energy reduction techniques fail to take them into account. This thesis proposes a methodology for reducing the energy consumption of large scale and distributed infrastructures. Broken into three steps known as (i) phase identification, (ii) phase characterization, and (iii) phase identification and system reconfiguration; our methodology abstracts away from any individual applications as it focuses on the infrastructure, which it analyses the runtime behaviour and takes reconfiguration decisions accordingly.The proposed methodology is implemented and evaluated in high performance computing (HPC) clusters of varied sizes through a Multi-Resource Energy Efficient Framework (MREEF). MREEF implements the proposed energy reduction methodology so as to leave users with the choice of implementing their own system reconfiguration decisions depending on their needs. Experimental results show that our methodology reduces the energy consumption of the overall infrastructure of up to 24% with less than 7% performance degradation. By taking into account all subsystems, our experiments demonstrate that the energy reduction problem in large scale and distributed infrastructures can benefit from more than “the traditional” processor frequency scaling. Experiments in clusters of varied sizes demonstrate that MREEF and therefore our methodology can easily be extended to a large number of energy aware clusters. The extension of MREEF to virtualized environments like cloud shows that the proposed methodology goes beyond HPC systems and can be used in many other computing environments.
149

Etude numérique et expérimentale d'un compresseur aspiré

Godard, Antoine 24 November 2010 (has links)
Afin d’alléger les moteurs d’avions et diminuer la consommation de carburant, les industriels tendent à rendre plus compact le système de compression de leurs moteurs, qui représente environ 40% de la masse totale. Or, à taux de compression global égal, la réduction du nombre d’étages implique une charge aérodynamique plus élevée par étage. Cela augmente d’autant les risques de décollements sur les aubes et la dégradation des performances. L’aspiration de la couche limite sur les aubages s’est révélée très prometteuse pour supprimer ces décollements néfastes et satisfaire aux besoins de charge aérodynamique élevée. Cependant, l’aspiration modifie fortement la distribution de pression statique à la paroi des aubes, rendant les approches de conception traditionnelles inadaptées. L’objectif de ce travail de thèse est donc de proposer une nouvelle méthode et de nouveaux critères de conception d’aubages fortement chargés, intégrant l’aspiration de la couche limite. Cette méthode repose sur une stratégie d’aspiration en deux étapes. Dans un premier temps, un contrôle passif, par courbure et diffusion, de la position du point de décollement est effectué dans le but de la rendre insensible aux conditions de fonctionnement. Dans un second temps, un contrôle actif par aspiration vise à placer la fente d’aspiration par rapport au point de décollement de manière à minimiser le taux d’aspiration nécessaire au recollement de la couche limite. Afin de mettre en pratique cette stratégie, une technique de dessin d’aubages par prescription de la distribution de courbure de l’extrados et de la variation de section du canal inter-aubes, est ainsi développée. Associée à un outil de pré-dimensionnement rapide ainsi qu’une évaluation des pertes de pression totale incluant la présence d’aspiration, cette méthode permet ainsi de concevoir une grille de stator aspirée subsonique réalisant une déflexion fluide de 60 degrés, pour un nombre de Mach amont de 0,5, correspondant à un facteur de diffusion de 0,73. Cette performance au point nominal est obtenue avec un coefficient de pertes de pression totale de 2,5%, en aspirant 1,1% du débit entrant dans la grille. Ces valeurs peuvent néanmoins être réduites respectivement à 2,1% et 0,8% par l’emploi d’une fente d’aspiration à bords arrondis. Cette étude numérique bidimensionnelle est effectuée à l’aide du code de calcul elsA de l’ONERA. Afin de valider expérimentalement cette méthode de conception ainsi que les outils numériques associés, une grille d’aubes plane est construite et testée à basse vitesse au laboratoire de Mécanique de Fluides et d’Acoustique de l’Ecole Centrale de Lyon. A mi-envergure, les résultats issus de l’expérience et de simulations numériques 3D confirment la pertinence de la stratégie d’aspiration et la démarche de conception adoptée. Cette confrontation met alors en évidence l’impact de la distribution du taux d’aspiration suivant l’envergure sur l’efficacité de l’aspiration. Etant donné l’importance des écoulements tridimensionnels rencontrés, une généralisation en trois dimensions de la stratégie d’aspiration est proposée et est appliquée numériquement sur cette même grille d’aubes. En contrôlant simultanément les couches limites se développant sur l’aube et sur les parois latérales du canal de compression, il est alors possible de supprimer presque totalement les décollements de coins présents dans celui-ci. En contrepartie, le taux d’aspiration voit sa valeur augmenter très fortement, tempérant ce bénéfice. L’épaisseur des couches limites entrantes se révèle alors également être un facteur déterminant pour le succès du contrôle des couches limites par aspiration, dans un cadre tridimensionnel. / In order to reduce the mass of aircraft jet engines as well as their fuel consumption, manufacturers tend to make the compression system of their engines more compact, since this component represents approximately 40% of the total mass. However, for a given overall pressure ratio, decreasing the number of stages implies increasing the aerodynamic load per stage. This all the more increases the risk of flow separation on the blades ultimately resulting in a decrease in performance. Boundary layer suction on the blade has proven to be very promising to suppress this deleterious flow separation and meet the needs of high aerodynamic loads. Nevertheless, boundary layer suction significantly modifies the static pressure distribution on the blades, making traditional design approaches unsuitable. Therefore, the objective of this Ph.D. work is to develop a new method and new criteria for the design of highly loaded compressor blades, integrating boundary layer suction into the design process. This design method relies on a two-step aspiration strategy. First, passive control of the separation point location is applied via curvature and diffusion in order to make it insensitive to operating conditions. Second, active control through boundary layer suction aims at placing the suction slot with respect to the separation point location, in order to minimize the necessary suction mass flow rate required to reattach the flow. To put this strategy into practice, a blading technique that consists of prescribing the curvature distribution on the suction side of the blade and the cross-section distribution of the blade passage is developed. In association with a fast pre-design tool, as well as an overall total pressure loss coefficient including aspiration, this method allows the design of a subsonic aspirated stator cascade with flow turning of 60 degrees, for an inlet Mach number of 0.5,giving a Diffusion Factor of 0.73. This performance at the design point is obtained for an overall total pressure loss coefficient of 2.5%, aspirating 1.1% of the inlet mass flow rate. Nevertheless, these two values can be respectively reduced to 2.1% and 0.8% by rounding the edges of the suction slot. This bi-dimensional numerical study has been carried out with the elsA solver from ONERA. To experimentally validate this design method and the associated numerical tools, a planar cascade is built and tested at low speed at the Laboratoire de Mécanique de Fluides et d’Acoustique at the Ecole Centrale de Lyon. At mid-span, results from the experiment and from tri-dimensional numerical simulations confirm the relevance of the design approach. This comparison then discloses the impact of the suction mass flow rate distribution along the span, on the efficiency of aspiration. Given the importance of tri-dimensional flows encountered in the experiment and simulations, a generalization in three dimensions of the aspiration strategy is proposed and numerically applied on the same cascade. By simultaneously controlling the boundary layers developing on the blades and on the endwalls,it is possible to almost entirely suppress the corner separations present in the blade passage. However, one disadvantage is that the suction mass flow rate undergoes a strong increase, moderating this benefit. The thickness of the inlet boundary layers appears to be also a key factor in the success of boundary layer control by aspiration, in a tri-dimensional context.
150

Évaluation de la correction du mouvement respiratoire sur la détection des lésions en oncologie TEP / Motion correction evaluation on the detectability of lesions in PET oncology

Marache-Francisco, Simon 14 February 2012 (has links)
La tomographie par émission de positons (TEP) est une méthode d’imagerie clinique en forte expansion dans le domaine de l’oncologie. De nombreuses études cliniques montrent que la TEP permet, d’une part de diagnostiquer et caractériser les lésions cancéreuses à des stades plus précoces que l’imagerie anatomique conventionnelle, et d’autre part d’évaluer plus rapidement la réponse au traitement. Le raccourcissement du cycle comprenant le diagnostic, la thérapie, le suivi et la réorientation thérapeutiques contribue à augmenter le pronostic vital du patient et maîtriser les coûts de santé. La durée d’un examen TEP ne permet pas de réaliser une acquisition sous apnée. La qualité des images TEP est par conséquent affectée par les mouvements respiratoires du patient qui induisent un flou dans les images. Les effets du mouvement respiratoire sont particulièrement marqués au niveau du thorax et de l’abdomen. Plusieurs types de méthode ont été proposés pour corriger les données de ce phénomène, mais elles demeurent lourdes à mettre en place en routine clinique. Des travaux récemment publiés proposent une évaluation de ces méthodes basée sur des critères de qualité tels que le rapport signal sur bruit ou le biais. Aucune étude à ce jour n’a évalué l’impact de ces corrections sur la qualité du diagnostic clinique. Nous nous sommes focalisés sur la problématique de la détection des lésions du thorax et de l'abdomen de petit diamètre et faible contraste, qui sont les plus susceptibles de bénéficier de la correction du mouvement respiratoire en routine clinique. Nos travaux ont consisté dans un premier temps à construire une base d’images TEP qui modélisent un mouvement respiratoire non-uniforme, une variabilité inter-individuelle et contiennent un échantillonnage de lésions de taille et de contraste variable. Ce cahier des charges nous a orientés vers les méthodes de simulation Monte Carlo qui permettent de contrôler l’ensemble des paramètres influençant la formation et la qualité de l’image. Une base de 15 modèles de patient a été créée en adaptant le modèle anthropomorphique XCAT sur des images tomodensitométriques (TDM) de patients. Nous avons en parallèle développé une stratégie originale d’évaluation des performances de détection. Cette méthode comprend un système de détection des lésions automatisé basé sur l'utilisation de machines à vecteurs de support. Les performances sont mesurées par l’analyse des courbes free-receiver operating characteristics (FROC) que nous avons adaptée aux spécificités de l’imagerie TEP. L’évaluation des performances est réalisée sur deux techniques de correction du mouvement respiratoire, en les comparant avec les performances obtenues sur des images non corrigées ainsi que sur des images sans mouvement respiratoire. Les résultats obtenus sont prometteurs et montrent une réelle amélioration de la détection des lésions après correction, qui approche les performances obtenues sur les images statiques. / Positron emission tomography (PET) is nuclear medicine imaging technique that produces a three-dimensional image of functional processes in the body. The system detects pairs of gamma rays emitted by a tracer, which is introduced into the body. Three-dimensional images of tracer concentration within the body are then constructed by computer analysis. Respiratory motion in emission tomography leads to image blurring especially in the lower thorax and the upper abdomen, influencing this way the quantitative accuracy of PET measurements as well a leading to a loss of sensitivity in lesion detection. Although PET exams are getting shorter thanks to the improvement of scanner sensitivity, the current 2-3 minutes acquisitions per bed position are not yet compatible with patient breath-holding. Performing accurate respiratory motion correction without impairing the standard clinical protocol, ie without increasing the acquisition time, thus remains challenging. Different types of respiratory motion correction approaches have been proposed, mostly based on the use of non-rigid deformation fields either applied to the gated PET images or integrated during an iterative reconstruction algorithm. Evaluation of theses methods has been mainly focusing on the quantification and localization accuracy of small lesions, but their impact on the clinician detection performance during the diagnostic task has not been fully investigated yet. The purpose of this study is to address this question based on a computer assisted detection study. We evaluate the influence of two motion correction methods on the detection of small lesions in human oncology FDG PET images. This study is based on a series of realistic simulated whole-body FDG images based on the XCAT model. Detection performance is evaluated with a computer-aided detection system that we are developing for whole-body PET/CT images. Detection performances achieved with these two correction methods are compared with those achieved without correction, ie. with respiration average PET images as well as with reference images that do not model respiration effects. The use of simulated data makes possible the creation of theses perfectly corrected images and the definition of known lesions locations that serve as a reference.

Page generated in 0.0307 seconds