• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 521
  • 309
  • 129
  • 76
  • 51
  • 7
  • Tagged with
  • 1077
  • 467
  • 251
  • 194
  • 169
  • 149
  • 131
  • 125
  • 119
  • 116
  • 96
  • 90
  • 89
  • 86
  • 85
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Berührungslose Messung von Phasen- und Konzentrationsverteilungen in Blasensäulen mit positronenemittierenden Radionukliden

Zippe, Cornelius, Hampel, Uwe, Zippe, Winfried, Prasser, Horst-Michael, Hoppe, Dietrich, Mäding, Peter, Hensel, Frank, Fietz, Jürgen January 2003 (has links)
Die Positronen-Emissions-Tomographie (PET) ist eine etablierte Methode zur Untersuchung von Stoffwechselvorgängen im Menschen. Sie wird als Werkzeug in der medizinischen Forschung ebenso wie klinisch als Diagnoseverfahren zur Erkennung von Metastasen eingesetzt. Dieses Projekt beschäftigt sich mit einer nichtmedizinischen Anwendung dieses bildgebenden Verfahrens – dem Aufbau und der Anwendung eines PET-Tomographen zur Untersuchung des Verhaltens von Schaum in Blasensäulen, dem Versuchsstand SCHAUMPET. Insbesondere wird auf die technische Realisierung des Projektes und die angewendeten Verfahren zur Bildgewinnung eingegangen. Am Beispiel von Natriumcapronat wird gezeigt, dass sich die Anreicherung eines Tensids in einer Schaumschicht mit Hilfe der Positronen-Emissions-Tomographie nachweisen lässt.
152

Analysis of chronic aortic regurgitation by 2D and 3D echocardiography and cardiac MRI

Stöbe, Stephan 20 February 2019 (has links)
Patienten mit einer chronischen Aortenklappenregurgitation haben - ohne entsprechende Therapie - eine schlechte Langzeit-Prognose56-58. Bei asymptomatischen Patienten mit chronischer hochgradiger Aortenklappenregurgitation, normaler systolischer LV Funktion und einem systolischen LV Durchmesser > 50mm liegt die Wahrscheinlichkeit für das Auftreten von relevanten Symptomen infolge von kardialer Belastungseinschränkung, Arrhythmien, LV-Dysfunktion oder kardiovaskulärem Tod bei ca. 19% pro Jahr56-58. Mit Auftreten von Symptomen wird die Mortalität auf ca. 10-20% pro Jahr geschätzt56. Allerdings sind die Symptome einer relevanten chronischen Aortenklappenregurgitation, mit u.a. einer erst im Spätstadium einsetzenden, langsam progredienten, Belastungsdyspnoe und einer damit verminderten Belastbarkeit, häufig unspezifisch. Es ist daher von entscheidender Bedeutung durch objektive echokardiographische Analysen zu prüfen, ob die Symptomatik der Patienten auf die chronische Aortenklappenregurgitation zurückzuführen ist. Die einsetzende und/oder progrediente Symptomatik sollte mit dem Schweregrad der Aortenklappenregurgitation korrelieren. In der vorliegenden retrospektiven Arbeit wurden die Durchführbarkeit des semi-quantitativen Ansatzes mithilfe der 2D-Echokardiographie sowie die Durchführbarkeit des quantitativen Ansatzes mithilfe der 2D-, 3D-Echokardiographie und kardialen MRT zur Schweregradbeurteilung von Aortenklappenregurgitationen untersucht. Die Korrelationen der quantitativen Parameter (RVol und RF) zwischen den einzelnen Methoden (2D-, 3D-Echokardiographie und kardiale MRT) wurden miteinander verglichen. Es wurden 55 Patienten (mittleres Alter 51  15 Jahre, Männer 76%, Frauen 24%) mit einer chronischen Aortenklappenregurgitation eingeschlossen, wobei diese - durch die mit der 2D-Echokardiographie bestimmte RF - bei 22 Patienten (40%) als leichtgradig, bei 25 Patienten (46%) als mittelgradig und bei 8 Patienten (14%) als hochgradig eingestuft werden konnte. Patienten mit einer akuten oder kardial dekompensierten chronischen Aortenklappenregurgitation, einem begleitenden mittelgradigen oder hochgradigen Vitium, Vorhofflimmern, relevanter ventrikulärer Extrasystolie, vorausgegangenem Myokardinfarkt oder unzureichender Bildqualität wurden ausgeschlossen. Die semi-quantitativen Parameter konnten mithilfe der 2D-Echokardiographie nur bei einer ausgewählten Anzahl der Patienten bestimmt werden, wobei die Pressure-Half-Time-Methode und die Beurteilung des Doppler-Spektrums der A. subclavia am häufigsten angewendet werden konnten. Im Vergleich dazu war die Durchführung des quantitativen Ansatzes mithilfe der 2D-Echokardiographie bei allen Patienten möglich. Die LV Volumenanalyse mit Bestimmung des LVEDV, LVESV und SVtot ergab eine gute Korrelation zwischen den verschiedenen bildgebenden Methoden (2D-, 3D-Echokardiographie, kardiale MRT). Obwohl in einigen früheren Studien keine Unterschiede hinsichtlich der Bestimmung der LV Volumina zwischen den verschiedenen Methoden beschrieben wurden37,38, bestätigt die vorliegenden Arbeit die Ergebnisse aktuellerer Studien, in denen signifikant größere LV Volumina mithilfe der kardialen MRT bestimmt wurden39-41. Für das SVeff, RVol und die RF waren keine zufriedenstellenden Korrelationen zwischen den verschiedenen Methoden zu verzeichnen. Lediglich für das RVol und die RF - bestimmt durch die 3D-Echokardiographie und die kardiale MRT - bestanden keine signifikanten Unterschiede. Als Ursache ist die Komplexität der RF Bestimmung, aber auch die nach wie vor geringere räumliche und zeitliche Auflösung der 3D-Echokardiographie zu sehen. Des Weiteren sind, trotz der aktuell überwiegenden Ansicht die kardiale MRT als Goldstandard anzuerkennen, auch bei der Durchführung der kardialen MRT folgende Aspekte zu berücksichtigen, u.a. die unterschiedlichen Anlotungen des Vorwärts- und Rückwärtsflusses der zentralen Jetformationen, der Abstand der Schnittebene von der Aortenklappe, die Kodierung der maximalen Flussgeschwindigkeiten sowie die Intra- und Interobservervariabilitäten. Im Fall einer fehlenden Standardisierung haben diese Aspekte auch bei der kardialen MRT relevante Einflüsse auf die Reproduzierbarkeit der erhobenen Daten. Die Analyse des RV stellt, aufgrund der Anatomie des RV und der echokardiographisch schwierig zu erfassenden RV Volumina, aktuell immer noch eine wesentliche Limitation dar. Die bisherigen Studien, die sich mit der quantitativen Analyse der RV Volumina durch die 3D-Echokardiograhie beschäftigt haben, wurden überwiegend an Tiermodellen oder gesunden Probanden durchgeführt und nicht bei Patienten mit chronischer Aortenklappenregurgitation43-45. In bisherigen Studien wurde das RVol mithilfe der 3D-Echokardiographie entweder durch die 2D-PISA-Methode oder durch eine 3D-Planimetrie der Vena contracta abgeschätzt59. Eine Bestimmung des SVeff und somit des RVol durch einen direkten quantitativen Ansatz mithilfe der 3D-Echokardiographie bei Patienten mit chronischer Aortenklappenregurgitation - analog zur Bestimmung des LV SVtot - ist in der Literatur nicht beschrieben. Die vorliegende Studie zeigt, dass der quantitative Ansatz zur Beurteilung des Schweregrades der chronischen Aortenklappenregurgitation durchführbar ist und die Klassifizierung des Schweregrades mithilfe quantitativer Analysen dem semi-quantitativen Ansatz, bei korrekter methodischer Durchführung, überlegen ist. In wenigen Fällen war ein Unterschied hinsichtlich der Klassifizierung des Schweregrades der chronischen Aortenklappenregurgitation durch die RF in Abhängigkeit der verwendeten Methode zu verzeichnen. Obwohl die Durchführbarkeit der RF Bestimmung mit der konventionellen 2D-Echokardiographie nachgewiesen werden konnte und eine ausreichende Übereinstimmung der Schweregradbeurteilung der Aortenklappenregurgitation mit den anderen quantitativen Methoden (3D-Echokardiographie und kardiale MRT) zeigte, konnte das höchste Maß an Übereinstimmung für die Beurteilung des Schweregrades anhand der RF zwischen der 3D-Echokardiographie und der kardialen MRT beobachtet werden.:Inhaltsverzeichnis Vorbemerkung 3 Abkürzungsverzeichnis 4 Abbildungsverzeichnis 5 Einleitung 6 Epidemiologie der Aortenklappenregurgitation 6 Anatomie der Aortenklappe, der Aortenwurzel und der Aorta ascendens 6 Echokardiografische Bestimmung der Aortendimensionen 7 Ätiologie und Mechanismen der Aortenklappenregurgitation 8 Pathophysiologie der Aortenklappenregurgitation 10 Echokardiografische Ansätze und Parameter zur Quantifizierung des Schweregrades der Aortenklappenregurgitation 12 Qualitativer Ansatz bzw. qualitative Parameter 12 Semi-quantitativer Ansatz bzw. semi-quantitative Parameter 13 Quantitativer Ansatz bzw. quantitative Parameter 14 Anwendung des quantitativen Ansatzes mithilfe der 2D-, 3D-Echokardiografie und der kardialen Magnetresonanztomografie 16 Empfehlungen der aktuellen Leitlinien zur Beurteilung der Aortenklappenregurgitation 17 Empfehlungen zur transthorakalen Echokardiografie 18 Empfehlungen zur transösophagealen Echokardiografie 19 Empfehlungen zur Stress-Echokardiografie 19 Empfehlungen zur kardialen Magnetresonanztomografie 19 Fragestellungen 20 Publikation 21 Zusammenfassung 34 Literaturverzeichnis 37 Eigenständigkeitserklärung 43 Eigener wissenschaftlicher Beitrag zur Publikationspromotion 44 Lebenslauf 45 Publikationsverzeichnis 46 Danksagung 48
153

Network tomography from an operator perspective / Métrologie du réseau Internet vue d'un opérateur

Plissonneau, Louis 09 July 2012 (has links)
Le domaine de la mesure des caractéristiques du trafic transitant sur un réseau a été largement traité par une vaste communauté de chercheurs, en premier lieu pour répondre aux attentes des opérateurs fournisseurs d'accès à Internet. En effet, leur première préoccupation est de savoir quel type de trafic ils doivent transporter. Une des principales caractéristiques de l'Internet est qu'il évolue très vite, de sorte que le besoin de mesures du trafic grand public ne se tarit jamais. Dans ce travail, nous abordons la question de la mesure du trafic Internet grand public par deux perspectives différentes: les mesures passives et les mesures actives. Dans la première partie de cette thèse, nous capturons et analysons passivement les statistiques des connections d'utilisateurs d'Internet durant plus d'une semaine. Nous utilisons ces données pour réviser et approfondir notre connaissance du trafic Internet résidentiel. Ensuite, nous utilisons des méthodes de regroupement pour créer des ensembles d'utilisateurs en fonctions des applications qu'ils utilisent. Nous apprenons donc qu'une vaste majorité des clients se connectent à Internet principalement pour surfer sur le Web et regarder des vidéos en streaming. Ces données nous servent aussi à évaluer de nouvelles possibilités de contrôler le trafic d'une plateforme ADSL. Comme la principale partie du trafic provient du vidéo streaming, nous prenons plusieurs instantanés de ce trafic avec des captures paquet durant une période de plusieurs années, ceci pour comprendre précisément l'évolution de ce trafic. De plus, nous analysons et relions la performance du vidéo streaming, définie par des indicateurs de qualité de service, au comportement des utilisateurs de ce service. Dans la deuxième partie de cette thèse, nous tirons parti de cette connaissance pour concevoir une sonde active capable de mesurer la qualité d'expérience des sites de vidéo streaming. Nous avons modélisé la lecture des vidéos \emph{streaming} pour pouvoir déterminer leur qualité telle qu'elle est perçue par les utilisateurs. Grâce à cet outil, nous pouvons comprendre l'impact de la sélection du serveur vidéo et du serveur DNS sur la perception de la qualité vidéo par l'utilisateur. De plus, la possibilité de réaliser des mesures depuis divers opérateurs, nous permet de détailler les politiques de distribution vidéo utilisées par les sites de streaming. / Network tomography is the study of a network's traffic characteristics using measures. This subject has already been addressed by a whole community of researchers, especially to answer the need for knowledge of residential Internet traffic that ISPs have to carry. One of the main aspects of the Internet is that it evolves very quickly, so that there is a never ending need for Internet measurements. In this work, we address the issue of residential Internet measure from two different perspectives: passive measurements and active measurements. In the first part of this thesis, we passively collect and analyse statistics of residential users' connections spanning over a whole week. We use this data to update and deepen our knowledge of Internet residential traffic. Then, we use clustering methods to form groups of users according to the application they use. This shows how the vast majority of customers are now using the Internet mainly for Web browsing and watching video Streaming. This data is also used to evaluate new opportunities for managing the traffic of a local ADSL platform. As the main part of the traffic is video streaming, we use multiple snapshots of packet captures of this traffic over a period of many years to accurately understand its evolution. Moreover we analyse and correlate its performance, defined out of quality of service indicators, to the behavior of the users of this service. In the second part of this thesis, we take advantage of this knowledge to design a new tool for actively probing the quality of experience of video streaming sites. We have modeled the playback of streaming videos so that we are able to figure out its quality as perceived by the users. With this tool, we can understand the impact of the video server selection and the DNS servers on the user's perception of the video quality. Moreover the ability to perform the experiments on different ISPs allows us to further dig into the delivery policies of video streaming sites.
154

Vergleich unterschiedlicher Auswertungsverfahren von Hirn-PET- Untersuchungen mit 2-[18F]Fluoro-A-85380 und dessen Bindung an nikotinische Acetylcholinrezeptoren bei Patienten mit idiopathischem Parkinsonsyndrom und gesunden Kontrollen

Ehrler (geb. Schädlich), Dorothea 04 May 2016 (has links) (PDF)
Um Aussagen über die unterschiedliche Verteilung nikotinischer Acetylcholinrezeptoren im menschlichen Gehirn bei Gesunden und bei Parkinsonpatienten zu erhalten, wird unter anderem der Radioligand 2-[18F]FA-85380 und die Positronen-Emissions-Tomographie genutzt. In dieser Arbeit wurden aufwendige und weniger aufwendige Auswerteverfahren dieser Untersuchung miteinander verglichen. Die an der Universität Leipzig aktuell am häufigsten verwendete Auswertung mittels dem Verteilungsvolumens nach Logan (DVLogan), wurde mit vereinfachten Ansätzen wie dem SUV (Standardized Uptake Value), TTP (Tissue-to-Plasma) und verschiedenen Ratio-Verfahren (Referenzregionen) verglichen. Die statistische Auswertung der Daten zeigte, dass dieses bereits etablierte Verfahren DVLogan, im Vergleich mit vereinfachten Verfahren am besten geeignet ist, die unterschiedliche Verteilung nikotinischer Acetylcholinrezeptoren vom Typ α4β2 in vorher festgelegten Hirnregionen bei Parkinsonpatienten und Probanden einer Kontrollgruppe aufzuzeigen.
155

Tomographie électronique analytique : développement de la cartographie chimique 3D à l'échelle du nanomètre et applications aux catalyseurs inhomogènes

Roiban, Lucian 07 October 2010 (has links) (PDF)
Cette thèse a été consacrée au développement de la tomographie analytique pour l'analyse des nanomatériaux, une technique qui combine la tomographie électronique et l'imagerie filtrée en énergie. En enregistrant pour différentes orientations de l'objet une série d'images filtrées en énergie sur les seuils d'ionisation des éléments d'intérêt, plusieurs volumes chimiquement sélectifs peuvent être calculés à travers un algorithme de reconstruction. Grâce à sa double sélectivité, au caractère 3D de l'objet et à sa composition chimique, cette technique présente un fort potentiel pour la caractérisation des nanomatériaux chimiquement inhomogènes. Dans ce contexte, notre but a été de définir une méthodologie de travail pour permettre son application à l'échelle du nanomètre. Pour ceci, une maîtrise parfaite de toutes les étapes à suivre et un ajustement pointu de différents paramètres ont été nécessaires. Validée tout d'abord sur des échantillons modèles, la méthodologie a été ensuite appliquée à l'étude de deux familles de catalyseurs mixtes avec une résolution de quelques nanomètres. L'analyse combinée des volumes chimiques obtenus sur le même échantillon nous a permis de déduire des paramètres crucials pour les applications en catalyse (comme par exemple la proportion relative des composants à la surface du grain). La visualisation en 3D de l'agencement des éléments chimiques constituant le grain analysé a déjà eu un premier impact bénéfique sur le contrôle et l'amélioration de la synthèse de ces catalyseurs.
156

Résultats de l'intervention combinée vitrectomie pelage de membrane épimaculaire et phacoémulsification simultanée du cristallin

Poirson, Angélique Berrod, Jean-Paul January 2006 (has links) (PDF)
Reproduction de : Thèse d'exercice : Médecine : Nancy 1 : 2006. / Titre provenant de l'écran-titre.
157

Tomographie par émission de positons au fluoro-désoxyglucose couplée au scanner (TEP-TDM)

Dellestable, Pierre Schmutz, Jean-Luc January 2007 (has links) (PDF)
Reproduction de : Thèse d'exercice : Médecine : Nancy 1 : 2007. / Titre provenant de l'écran-titre.
158

Tomographie de pente fondée sur l'état adjoint : un outil d'estimation de modèle de vitesse pour l'imagerie sismique / Adjoint slope tomography : a velocity macro-model building tool for seismic imaging

Tavakolifaradonbeh, Borhan 16 November 2017 (has links)
La construction du macro-modèle de vitesse est une étape cruciale de la chaîne d’imagerie sismique afin de produire un modèle adéquat pour la migration ou l'inversion de la formes d’onde complètes (Full Waveform Inversion). Parmi les approches possibles pour construire ce macro-modèle, la tomographie des pentes est fondée sur le pointé d’évènements localement cohérents caractérisés par leur temps de trajet et leurs pentes dans les collections de sismogrammes à source et réflecteur communs. Chaque évènement dans les observables est associé à un petit segment de réflecteur dans le sous-sol caractérisé par sa position et son pendage. Cette thèse propose une reformulation de la tomographie des pentes pour palier aux deux limitations sus-mentionnées. Les temps de trajet sont calculés à l’aide d’un solveur eikonal et la méthode de l’état adjoint est utilisée pour calculer efficacement le gradient de la fonction coût dans le contexte de méthodes d’optimisation locale. Le solveur eikonal est fondé sur une méthode aux différences finies pour la discrétisation des opérateurs différentiels. La méthode est implémentée pour des milieux 2D transverses isotropes avec un axe de symétrie dont l’orientation varie spatialement (milieux TTI). La méthode est évaluée avec différents examples synthétiques comme les cas du modèle isotrope complexe Marmousi et du modèle 2D TTI BP-salt. Dans le cas de milieux TTI, les couplages pouvant exister entre les paramètres de différente nature sont analysés avec un cas synthétique canonique. Cette thèse se conclut par une application à des données de sismique réflexion multitrace large bande (fournie par CGG) afin de reconstruire le modèle de vitesse vertical. / Velocity macro-model building is a crucial step in seismic imaging workflows as it provides the necessary background model for migration or full waveform inversion. Slope tomography, as a reliable alternative for conventional tomography, provides a tool to achieve this purpose where one picks the local coherent events rather than continuous events. These approaches are based on the slopes and traveltimes of the local coherent events which are tied to a reflecting/diffracting point (scatterer) in the subsurface. In this thesis, I introduce an anisotropic slope tomographic approach which aim at macro-model building for subsurface properties in 2D tilted transversely isotropic (TTI) media. In this method, I reformulate the stereotomography, as an slope tomographic tool, such that I replace the ray-based forward engine with a TTI eikonal solver and take advantage of the adjoint state method to calculate the gradients. In result, I can efficiently calculate the traveltimes for complex media and long offset acquisition on a regular grid of the subsurface and formulate a matrix-free framework for the inversion. Different synthetic examples including the isotropic Marmousi and 2D TTI BP-salt model are considered to assess the potential of the method in subsurface parameter estimations. Also, through a simple example, the footprint of parameter cross-talk is investigated for the Thomsen parametrization. As a real data application, the proposed method is applied on a 2D marine BroadSeis data set (provided by CGG) to retrieve the vertical velocity of the subsurface.
159

Tomographie par rayons X : correction des artefacts liés à la chaîne d'acquisition

Wils, Patricia 17 November 2011 (has links) (PDF)
L'imagerie cone-beam computed tomography (CBCT) est une méthodologie de contrôle non destructif permettant l'obtention d'images volumiques d'un objet. Le système d'acquisition se compose d'un tube à rayons X et d'un détecteur plan numérique. La recherche développée dans ce manuscrit se déroule dans le contexte industriel. L'objet est placé sur une platine de rotation et une séquence d'images 2D est acquise. Un algorithme de reconstruction procure des données volumiques de l'atténuation de l'objet. Ces informations permettent de réaliser une étude métrologique et de valider ou non la conformité de la pièce imagée. La qualité de l'image 3D est dégradée par différents artefacts inhérents à la plateforme d'acquisition. L'objectif de cette thèse est de mettre au point une méthode de correction adaptée à une plateforme de micro-tomographie par rayons X d'objets manufacturés poly-matériaux. Le premier chapitre décrit les bases de la physique et de l'algorithmie propres à la technique d'imagerie CBCT par rayons X ainsi que les différents artefacts nuisant à la qualité de l'image finale. Le travail présenté ici se concentre sur deux types d'artefacts en particulier: les rayonnements secondaires issus de l'objet et du détecteur et le durcissement de faisceau. Le second chapitre présente un état de l'art des méthodes visant à corriger le rayonnement secondaire. Afin de quantifier le rayonnement secondaire, un outil de simulation basé sur des techniques de Monte Carlo hybride est développé. Il permet de caractériser le système d'acquisition installé au laboratoire de façon réaliste. Le troisième chapitre détaille la mise en place et la validation de cet outil. Les calculs Monte Carlo étant particulièrement prohibitifs en terme de temps de calcul, des techniques d'optimisation et d'accélération sont décrites. Le comportement du détecteur est étudié avec attention et il s'avère qu'une représentation 2D suffit pour modéliser le rayonnement secondaire. Le modèle de simulation permet une reproduction fidèle des projections acquises avec le système réel. Enfin, le dernier chapitre présente la méthodologie de correction que nous proposons. Une première reconstruction bruitée de l'objet imagé est segmentée afin d'obtenir un modèle voxélisé en densités et en matériaux. L'environnement de simulation fournit alors les projections associées à ce volume. Le volume est corrigé de façon itérative. Des résultats de correction d'images tomographiques expérimentales sont présentés dans le cas d'un objet mono-matériaux et d'un objet poly-matériaux. Notre routine de correction réduit les artefacts de cupping et améliore la description du volume reconstruit.
160

Reconstruction multidimensionnelle de type mouvement cyclique en tomographie d'émission par positions: revue et nouvelle approche

Toussaint, Maxime January 2015 (has links)
La tomographie d’émission par positrons (TEP) est un outil qui permet, grâce à l’injection d’une dose de radiotraceur, de diagnostiquer et caractériser différents problèmes de santé, dont le cancer et les pathologies cardiaques. Pour exploiter cette modalité de l’imagerie médicale à son plein potentiel, plusieurs éléments, dont chacun comporte son lot de défis, doivent être réunis. La conversion des données fournies par la caméra TEP en une image interprétable par un spécialiste, dénommé la reconstruction TEP, est un sous-problème particulièrement intéressant. Ce problème a déjà été abordé à maintes reprises dans la littérature, et ce, dans plusieurs contextes différents. Parmi ceux-ci, la reconstruction d’une acquisition où le sujet, ou une partie de ce dernier, est en mouvement engendre, à cause des caractéristiques inhérentes de cette modalité, des données contaminées par ce même mouvement. Cette contamination peut, si elle n’est pas prise en compte, modifier l’image reconstruite et en fausser l’interprétation. Plusieurs méthodes ont été développées pour atténuer, voire éradiquer, la contamination de l’image reconstruite. Parmi celles-ci, il existe une sous- famille de méthodes spécialement conçues pour s’attaquer aux biais induits par des mouvements cycliques. En effet, les mouvements de type cyclique, i.e. le mouvement cardiaque ou respiratoire, possèdent une propriété particulière qui peut, moyennant certaines hypothèses, être exploitée dans la phase de reconstruction. Différentes approches ont été présentées dans la littérature pour exploiter cette particularité et chacune d’entre-elles offre son lot d’avantages et d’inconvénients. Afin d’obtenir des images de qualité semblable à celle obtenue à partir d’un sujet immobile, toutes ces approches nécessitent d’augmenter la dose de radiotraceur injectée dans le sujet. Cette augmentation sera dénommé le facteur de compensation de dose. L’objectif de cette maîtrise est d’étudier ces approches afin de diminuer le facteur de compensation de dose. Pour y parvenir, un compte-rendu sur l’état de l’art de cette problématique sera présenté. Ce compte-rendu est divisé en trois volets : une étude des propriétés théoriques de chacune de ces approches, une comparaison numérique de leurs performances et une revue des lacunes qui persistent dans ce domaine. L’analyse des propriétés théoriques a débouché sur la création d’une nouvelle variante d’une des approches. L’introduction de cette nouvelle méthode, dont la résolution est explicitée, permet d’établir des parallèles théoriques avec l’approche originelle. La comparaison, en terme de vitesse de convergence, de ces variantes semble indiquer que le nouveau modèle offre un gain en vitesse de reconstruction, et ce, sans perte de qualité. La caractérisation des modèles représentant chaque approche, résultant de leur analyse théorique, a permis de motiver l’utilisation de solveurs généraux. Une méthodologie a été développée pour effectuer la comparaison numérique des per-formances. Les résultats des tests de performance permettent de déceler une lacune commune à certaines approches. Une hypothèse sur la source de cet inconvénient de même que quelques arguments la soutenant sont formulés.

Page generated in 0.0788 seconds