• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 4
  • Tagged with
  • 23
  • 23
  • 11
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Application des techniques adaptatives à l'imagerie par résonance magnétique de perfusion / Application of adaptive techniques to Magnetic Resonance Imaging of perfusion

Filipovic, Marina 06 June 2011 (has links)
L'Imagerie par Résonance Magnétique (IRM) nécessite des outils pour gérer le mouvement physiologique et autre du sujet. La création des images par l'IRM comporte trois étapes: l'acquisition de données avec une séquence d'impulsions, la reconstruction d'images, et le post-traitement. Les techniques adaptatives de reconstruction d'images visent à intégrer des informations liées au mouvement dans le processus de génération d'images à partir de données acquises, ceci dans le but de compenser les artéfacts et problèmes provoqués par le mouvement. L'IRM dynamique avec rehaussement de contraste est une technique destinée à l'estimation de la fonction des organes, en suivant le passage d'un produit de contraste dans le corps. Les problèmes dus au mouvement, surtout dans l'application thoraco-abdominale de cette technique, se présentent sous forme d'artéfacts de mouvement et de décalages. Une nouvelle méthode de reconstruction d'images, DCE-GRICS (Reconstruction généralisée dynamique avec rehaussement de contraste par inversion d'un système couplé), a été développée pour résoudre ces problèmes. Le mouvement est estimé avec un modèle linéaire non rigide basé sur les signaux physiologiques issus de capteurs externes. Les changements d'intensité causés par le passage de l'agent de contraste sont rendus avec un modèle linéaire de changement de contraste basé sur le fonctions B-spline. Cette méthode a été appliquée et validée sur l'imagerie de la perfusion myocardique. Les inexactitudes causées par le mouvement dans les courbes intensité-temps sont compensées, afin de rendre plus fiable le post-tratement des courbes pour l'estimation de la perfusion myocardique. / Magnetic Resonance Imaging (MRI) requires tools for managing physiological and other motion of the patient. The generation of MR images consists of three steps: data acquisition with a pulse sequence, image reconstruction and image post-processing. Adaptive image reconstruction techniques aim at integrating motion information into the process of image generation from the acquired data, in order to compensate for motion-induced artefacts and problems. Dynamic contrast-enhanced (DCE) MRI is a technique designed for assessing the function of organs, by following dynamically the passage of a contrast agent in the body after a bolus injection. Motion-induced problems, especially in abdominal and thoracic DCE-MRI, consist of motion artefacts and misregistration. A new image reconstruction method, DCE-GRICS (Dynamic Contrast-Enhanced Generalized Reconstruction by Inversion of Coupled Systems), has been developed for solving these issues. Motion is estimated with a non rigid linear model based on physiological signals obtained from external sensors. Dynamic intensity changes caused by the passage of the contrast agent are described using a linear contrast change model based on B-splines. The method is applied and validated on myocardial perfusion imaging. Motion-induced inaccuracies in intensity-time curves are compensated, in order to allow for more reliable myocardial perfusion quantification by curve post-processing.
2

Amélioration de la résolution latérale en microscopie SPR/MCWG par reconstruction d'images

Banville, Frédéric Alexandre January 2014 (has links)
Les recherches pharmacologiques nécessitent des outils d'analyse capables de caractériser et d'étudier des structures ou phénomènes biologiques. Une plate-forme de microscopie exploitant la résonance de plasmons de surface permet de faire l'acquisition d'images étudiant des phénomènes au niveau de cellules individuelles. Les images acquises par ce type de plate-forme présentent la variation d'indice de réfraction du milieu observé en couplant une lumière incidente aux plasmons de surface à l'interface d'un métal et d'un diélectrique. La faible résolution latérale de ces images ne permet cependant pas d'en distinguer tous les détails. Cette limite de résolution est associée aux propriétés de l'onde de surface qui entraînent une dégradation de l'image par l'étalement directionnel de l'information sur plusieurs pixels. De nombreux groupes de recherche ont travaillé sur ce problème de résolution en explorant des alternatives matérielles, que ce soit au niveau du montage d'acquisition ou des échantillons. Cependant, ceux-ci ont dû faire certains compromis afin d'améliorer la résolution latérale occasionnant une limitation en résolution temporelle ou en indice de réfraction. L'approche préférée dans ce projet de maîtrise est l'utilisation de techniques de post-traitement des images (déconvolution, algorithme de reconstruction d'images) acquises par le système de microscopie. Cette approche permet de conserver un bon contraste dans les images acquises et une bonne résolution temporelle. Ce projet vise à améliorer la résolution latérale en microscopie de résonance de plasmons de surface (SPR) en utilisant un algorithme de reconstruction d'images. Une méthode comme celle-ci n'a jamais été exploitée pour résoudre ce problème de limitation en résolution. Dans ce projet, une image de meilleure résolution est obtenue en combinant l'information pertinente de plusieurs images où la direction d'excitation des plasmons de surface diffère. Ces images sont acquises à partir d'échantillons de guides d'ondes à gaine métallique (MCWG) dont les matériaux et structures sont connus. Ceux-ci sont composés de quatre couches et ont tout d'abord été fabriqués. Ces échantillons ont permis l'acquisition d'images de structures dont les dimensions et les paramètres sont connus. Un algorithme de restauration d'images a été développé et implémenté pour retirer la dégradation linéaire observée dans les images de microscopie SPR acquises. Celui-ci détermine l'information nécessaire à l'exécution de l'algorithme à partir des images acquises, et améliore la résolution en microscopie SPR par une opération logicielle ne faisant pas de compromis au niveau matériel. L'algorithme a été validé auprès des échantillons MCWG dont la couche diélectrique est composée de structures synthétiques ou de cellules biologiques. Une amélioration de 6 à 1 micromètres sur structures synthétiques a été démontrée, tandis que le traitement permet de distinguer des détails des images cellulaires qui n'étaient pas identifiables avant. Ainsi, grâce à cette amélioration de la résolution, l'application de cet algorithme facilitera l'étude et le développement de nouveaux médicaments pharmacologiques.
3

Tomodensitométrie par comptage de photons avec discrimination en énergie

Thibaudeau, Christian January 2015 (has links)
Depuis l'avènement de la tomodensitométrie (TDM) au début des années 1970, la durée nécessaire à l'acquisition d'un jeu de données nécessaire à la reconstruction d'une image est passée de plusieurs jours à quelques centaines de millisecondes. Mis à part le progrès des composants mécaniques, électriques et électroniques, le principe de base implanté dans le tout premier prototype est toujours utilisé par les scanners d'aujourd'hui. Si le principe est resté le même, l'utilisation de l'imagerie TDM clinique a connu pour sa part une expansion fulgurante. Un nombre d'examens important, atteignant mondialement les centaines de millions par an au début des années 2000, commence alors à inquiéter la communauté scientifique et médicale. Si la dose administrée par examen reste relativement faible, les conséquences de cette exposition globale pourraient s'avérer fâcheuses. Parallèlement, les 15 dernières années ont vu l'apparition d'un nouveau type de détection. Ce détecteur, qui compte individuellement les photons X et mesure leur énergie, pourrait jouer un rôle important dans la quête de réduction de la dose. Même si ce nouveau développement n'a pas été motivé en réponse directe à l'accroissement de la dose, son avènement arrive à un moment très opportun. D'après la théorie, le seul fait d'acquérir la radiation incidente en utilisant cette approche permet une mesure moins bruitée. La nature spectrale de l'information recueillie ouvre aussi la porte à de nouvelles méthodes de traitement et d'analyse des images reconstruites. Dans la pratique, la fabrication de tels détecteurs n'est cependant pas chose facile et de nombreux impondérables ont fait leur apparition. L'influence des différentes caractéristiques de détection sur la qualité des images est aujourd'hui encore méconnue. Ce projet contient diverses contributions apportées au domaine de la TDM polyénergétique, en utilisant le concept de reconstruction d'images pour leitmotiv. Dans un premier temps, un modèle pragmatique et très différent des approches Monte Carlo existantes est proposé afin de reproduire de manière analytique une acquisition TDM spectrale. Un nouvel algorithme de reconstruction itératif adapté spécifiquement aux données polyénergétiques est ensuite présenté. Cet algorithme, unifiant les concepts éprouvés de décomposition en fonctions de base et de reconstruction statistique, permet de tirer pleinement parti de cette mesure particulière. Une approche de reconstruction différente, utilisant une représentation polaire de l'objet image, est aussi présentée. Celle-ci permet de diminuer grandement les exigences logicielles tout en réduisant les durées de reconstruction. L'influence de certaines caractéristiques de détection associées aux détecteurs spectraux est aussi étudiée, en mettant l'emphase sur les conséquences au niveau de la qualité des images reconstruites. Une méthode novatrice, permettant d'estimer le dépôt de dose à partir d'une acquisition polyénergétique, est finalement présentée.
4

Imager les zones de formation des planètes autour des étoiles jeunes dans le cadre de reconstruction d'images pour le VLTI

Renard, Stéphanie 10 November 2010 (has links) (PDF)
Les planètes se forment très probablement dans les disques de gaz et de poussière détectés autour des étoiles jeunes en cours de formation. L'étude de ces disques circumstellaires est donc indispensable pour comprendre la formation des planètes et l'origine de notre système solaire. Au vu des distances des régions de formation stellaires les plus proches, observer la partie des disques situées entre 0.1 et 10 UA correspond à des échelles spatiales de l'ordre de la milli-arcseconde. L'interférométrie infrarouge est un outil adapté pour atteindre de telles échelles spatiales et, par conséquent, pour étudier l'environnement proche des étoiles jeunes. Cependant, un interféromètre ne produit pas une image directe de l'objet observé. Les données obtenues jusqu'à présent sont peu nombreuses et utilisées uniquement pour contraindre des modèles théoriques. Avec l'arrivée de nouveaux instruments, les données interférométriques peuvent être utilisées pour reconstruire des images indépendamment de modèles paramétriques, comme il est habituellement fait dans le domaine radio. Le présent travail vise à appliquer la méthode de reconstruction d'images à des données interférométriques en infrarouge proche d'objets jeunes. Dans un premier temps, une étude systématique de la méthode de reconstruction d'images est réalisée sur l'algorithme MiRA et des règles pratiques pour les utilisateurs en sont extraits. Il est également démontré qu'il vaut mieux augmenter la couverture du plan (u; v), et ce de manière la plus homogène possible, plutôt que de diminuer les barres d'erreur sur les données. Dans un deuxième temps, la méthode est appliquée à une Herbig Ae, MWC275, donnant lieu à la première image de l'environnement proche d'une étoile jeune complexe. Suite à la pauvreté de la couverture (u; v), une image évidente à interpréter n'est pas réalisable malgré l'utilisation de paramètres adéquats. Une méthodologie impliquant l'utilisation d'un modèle de l'objet est donc indispensable afin de ne pas sur-interpréter les structures dans l'image reconstruite. Finalement, la technique est appliquée à d'autres objets jeunes. Ces nouvelles applications renforcent l'intérêt d'utiliser la reconstruction d'images comme technique d'analyse mais confirment également la prudence à avoir lors de l'analyse des images reconstruites.
5

Architecture massivement parallèle : un réseau de cellules intégré pour la reconstruction d'images

Lattard, Didier 08 November 1989 (has links) (PDF)
Depuis quelques années, l'intérêt pour les problèmes de grande complexité tels que le traitement du signal et de l'image, et la limitation de puissance due a la séquentialité des opérations des machines basées sur le modèle de Von Neumann, ont pousse les informaticiens a étudier un nouveau modèle de traitement caractérisé par l'exécution parallèle des opérations. Nous proposons dans cette thèse une architecture massivement parallèle basée sur un réseau régulier de cellules, qui ont la particularité d'être totalement asynchrones et de pouvoir communiquer entre elles grâce a un mécanisme d'acheminement de messages. Chaque cellule comprend une partie de traitement élémentaire réalisant les fonctions nécessitées par l'application et une partie routage permettant d'acheminer les messages. Nous avons valide cette architecture en développant une machine complète dédiée a la reconstruction d'images. Pour cette application particulière, chaque cellule traite une sous-image, et le réseau est utilise pour réaliser des opérations d'épandage et de projection, qui sont essentielles dans les principales méthodes de reconstruction. Les différents paramètres de la cellule sont définis en fonction des contraintes temporelles, de manière a obtenir d'excellentes performances et une bonne activité globale du réseau. L'interface dans un environnement hôte d'une telle machine a été étudiée. Nous avons réalisé un circuit intégré comprenant une cellule, afin de développer une maquette de démonstration
6

Convexité dans le plan discret. Application à la tomographie

Daurat, Alain 11 December 2000 (has links) (PDF)
La première partie de cette thèse est consacrée à l'étude des convexes dans le plan discret Z2 ou plus généralement Zn. Il existe en fait plusieurs notions de convexité discrète : la convexité simple selon certaines directions, la convexité totale (la convexité usuelle du continu), etc. La Q-convexité est encore une nouvelle classe qui généralise à la fois les totalement convexes et les polyominos HV-convexes. On étudie les liens entre toutes ces différentes notions, et on donne des propriétés des points particuliers de ces ensembles comme les points médians et les points saillants.<br /><br />Toute la deuxième partie est dédiée au problème de la tomographie dans le plan discret Z2. Il s'agit simplement de reconstruire un ensemble à partir du nombre de points dans les droites parallèles à des directions données. L'algorithme polynomial, déjà connu pour les polyominos HV-convexes avec les directions horizontales et verticales, se généralise aux Q-convexes pour des directions quelconques. D'autre part, le théorème d'unicité qui montre en particulier que sept directions suffisent pour déterminer un totalement convexe se généralise aussi aux Q-convexes. On en déduit que lorsque l'on a assez de directions pour avoir unicité de la solution, la reconstruction des totalement convexes peut se faire en temps polynomial. On a aussi un algorithme polynomial de reconstruction approchée des Q-convexes.
7

Reconstruction d'images astronomiques en interférométrie optique

Meimon, Serge 21 November 2005 (has links) (PDF)
* La résolution d'un télescope est inversement proportionnelle à son diamètre,<br /> limité par la technologie actuelle à une dizaine de mètres pour des télescopes au sol, et par des contraintes d'encombrement et de poids pour des télescopes embarqués sur satellite. L'interférométrie Optique (IO) est une technique permettant de dépasser cette limite ; elle consiste à faire interférer un réseau de télescopes dits élémentaires et à enregistrer des données dont la résolution peut atteindre celle d'un « grand » télescope contenant tous ces télescopes élémentaires.<br /><br /> Cette technique observationnelle ne conduit pas directement à des images, mais à des observables interférométriques qui doivent faire l'objet d'un traitement numérique pour fournir des informations sur la source observée. Lorsque les données sont en nombre et en qualité suffisante, on peut faire réellement de l'imagerie interférométrique, c'est-a-dire produire une image de l'objet. L'imagerie interférométrique s'est considérablement développée dans le domaine des ondes radio, dans lequel de nombreuses données sont disponibles depuis les années 70, et des méthodes de traitement efficaces ont été mises au point. L'interférométrie optique conduit à des difficultés expérimentales supplémentaires et les données nécessaires a l'imagerie ne sont disponibles que depuis quelques années.Cependant, les méthodes de traitement de la radio ne peuvent être réemployées sans une évolution importante. En optique, dans le cadre de l'observation de l'espace depuis la Terre, les interférogrammes produits sont affectés par la turbulence, qui rend inexploitable les mesures de phase. Les seules informations en phase sur l'objet d'intérêt disponibles sont les clôtures de phase, qui sont indépendantes de la turbulence. Aux longueurs d'onde radio, par contre, les observables sont directement les visibilités complexes. Enfin, le nombre de données (quelques centaines de milliers) que l'on peut mesurer sur une source est en général bien plus important qu'en optique (quelques centaines de mesures).Ces travaux de thèse ont eu pour objectif de concevoir une méthode de reconstruction d'image adaptée au contexte optique, et de la valider sur des données expérimentales. Ils ont abouti à l'algorithmeWISARD (Weak-phase Interferometric Sample Alternating Reconstruction Device), qui s'appuie notamment sur :<br /> - une modélisationmyope des effets turbulents : de façon à prendre en compte le manque d'information en phase, nous introduisons des paramètres de calibration en phase qui seront estimés conjointement avec l'objet dans un cadre bayésien <br /> - une structure d'estimation alternée (inspirée des algorithmes d'autocalibration en radio-astronomie) <br /> - une modélisation fine du bruit constaté sur les observables interférométriques optiques<br /> - un choix judicieux d'a priori, permettant notamment de préserver les pics ou les bords francs de l'image.<br /><br /> Après validation sur simulations, et confrontation aux méthodes concurrentes lors d'un concours international de reconstruction d'image en aveugle, WISARD a permis de reconstruire une image de l'étoile Chi du Cygne à partir de données recueillies sur l'interféromètre IOTA.
8

Détection des rayons gamma et reconstruction d'images pour la caméra Compton : Application à l'hadronthérapie.

Frandes, Mirela 16 September 2010 (has links) (PDF)
Une nouvelle technique de radiothérapie, l'hadronthérapie, irradie les tumeurs à l'aide d'un faisceau de protons ou d'ions carbone. L'hadronthérapie est très efficace pour le traitement du cancer car elle permet le dépôt d'une dose létale très localisée, en un point dit ‘pic de Bragg', à la fin du trajet des particules. La connaissance de la position du pic de Bragg, avec une précision millimétrique, est essentielle car l'hadronthérapie a prouvé son efficacité dans le traitement des tumeurs profondes, près des organes vitaux, ou radio-résistantes. Un enjeu majeur de l'hadronthérapie est le contrôle de la délivrance de la dose pendant l'irradiation. Actuellement, les centres de traitement par hadron thérapie effectuent un contrôle post-thérapeutique par tomographie par émission de positron (TEP). Les rayons gamma utilisés proviennent de l'annihilation de positons émis lors la désintégration bêta des isotopes radioactifs créés par le faisceau de particules. Ils ne sont pas en coïncidence directe avec le pic de Bragg. Une alternative est l'imagerie des rayons gamma nucléaires émis suites aux interactions inélastiques des hadrons avec les noyaux des tissus. Cette émission est isotrope, présentant un spectre à haute énergie allant de 100 keV à 20 MeV. La mesure de ces rayons gamma énergétiques dépasse la capacité des systèmes d'imagerie médicale existants. Une technique avancée de détection des rayons gamma, basée sur la diffusion Compton avec possibilité de poursuite des électrons diffusés, a été proposée pour l'observation des sources gamma en astrophysique (télescope Compton). Un dispositif, inspiré de cette technique, a été proposé avec une géométrie adaptée à l'Imagerie en Hadron Thérapie (IHT). Il se compose d'un diffuseur, où les électrons Compton sont mesurés et suivis (‘tracker'), et d'un calorimètre, où les rayons gamma sont absorbés par effet photoélectrique. Nous avons simulé un scénario d'hadronthérapie, la chaîne complète de détection jusqu'à la reconstruction d'événements individuels et la reconstruction d'une image de la source de rayons gamma. L'algorithme ‘Expectation Maximisation' (EM) à été adopté dans le calcul de l'estimateur du maximum de vraisemblance (MLEM) en mode liste pour effectuer la reconstruction d'images. Il prend en compte la réponse du système d'imagerie qui décrit le comportement complexe du détecteur. La modélisation de cette réponse nécessite des calculs, en fonction de l'angle d'incidence de tous les photons détectés, de l'angle Compton dans le diffuseur et de la direction des électrons diffusés. Dans sa forme la plus simple, la réponse du système a un événement est décrite par une conique, intersection du cône Compton et du plan dans lequel l'image est reconstruite. Une forte corrélation a été observée, entre l'image d'une source gamma reconstruite et la position du pic de Bragg. Les performances du système IHT dépendent du détecteur, en termes d'efficacité de détection, de résolution spatiale et énergétique, du temps d'acquisition et de l'algorithme utilisé pour reconstituer l'activité de la source de rayons gamma. L'algorithme de reconstruction de l'image a une importance fondamentale. En raison du faible nombre de photons mesurés (statistique de Poisson), des incertitudes induites par la résolution finie en énergie, de l'effet Doppler, des dimensions limitées et des artefacts générés par l'algorithme itératif MLEM, les images IHT reconstruites sont affectées d'artefacts que l'on regroupe sous le terme ‘bruit'. Ce bruit est variable dans l'espace et dépend du signal, ce qui représente un obstacle majeur pour l'extraction d'information. Ainsi des techniques de dé-bruitage ont été utilisées. Une stratégie de régularisation de l'algorithme MLEM (WREM) en mode liste a été développée et appliquée pour reconstituer les événements Compton. Cette proposition est multi-résolution sur une base d'ondelettes orthogonales. A chaque itération, une étape de seuillage des coefficients d'ondelettes a été intégrée. La variance du bruit a été estimée à chaque itération par la valeur médiane des coefficients de la sous-bande de haute fréquence. Cette approche stabilise le comportement de l'algorithme itératif, réduit l'erreur quadratique moyenne et améliore le contraste de l'image.
9

Contribution à la modélisation et à la simulation numérique de la spectroscopie optique des tissus biologiques : application à l'imagerie moléculaire de fluorescence résolue en temps

Kervella, Marine 20 November 2008 (has links) (PDF)
Le diagnostic des tumeurs à un stade précoce est une clé indispensable à la lutte contre le cancer. Les techniques de détection se sont donc développées, notamment dans le domaine de l'optique biomédicale. Ce travail de thèse s'inscrit dans ce domaine d'étude. Nous proposons dans ce manuscrit une description et une comparaison des modèles statistique et déterministe mis en oeuvre pour simuler la propagation de la lumière dans les tissus biologiques par les méthodes de Monte Carlo, Monte Carlo hybride et les éléments finis avec intégration du processus de fluorescence exogène. La performance de la méthode des éléments finis a permis d'étudier la sensibilité des signaux de fluorescence résolus en temps en analysant l'influence de différents paramètres structurels et informels. Enfin , deux techniques de reconstruction d'images des tissus analysés sont implémentées. Pour ce faire, les méthodes d'inversion proposées ( Gauss Newton et méthode gradients conjugués ) sont non linéaires et font appel à des processus itératifs cherchant à optimiser les résultats obtenus par les simulations résolues par la méthode des éléments finis. Une adaptation stratégique et automatique du maillage est réalisée et intégrée dans le modèle d'inversion non linéaire. Une confrontation des deux méthodes est effectuée pour différents cas d'étude. Nous considérons tout d'abord un domain dans lequel est inséré une unique source fluorescente. Puis, le milieu biologique est simulé avec deux objets fluorescents. Nous étudions l'influence sur les images reconstruites de la distance entre les deux tumeurs ainsi que l'effet de la présence de fluorescence résiduelle au sein des tissus biologiques environnants.
10

Conception, Simulation et Realisation d'un processeur optoélectronique pour la reconstruction d'images médicales.

Madec, Morgan 10 November 2006 (has links) (PDF)
Le traitement optique des données tomodensitométriques fournies par les systèmes d'exploration volumique pourrait permettre d'accélérer considérablement les algorithmes de génération d'images dans le but de répondre aux besoins des futurs systèmes de thérapie assistée. Dans ce document, deux architectures optiques, correspondant aux deux opérations de base dans ce domaine, sont présentées : un système de filtrage et un système de rétroprojection. Ils sont abordés sous l'aspect matériel, puis sous l'aspect algorithmique. Quelle que soit la fonction réalisée, un processeur optique est toujours constitué de sources de lumière, d'afficheurs et de capteur d'images. L'état de l'art de ces composants révèle une faiblesse au niveau des afficheurs (SLM). En particulier, les SLM à base de cristaux liquides ferroélectriques sont étudiés en détail (modélisation, simulation et caractérisation de produits existants). L'intérêt des systèmes optiques de traitement est examiné à la fois du point de vue du temps de calcul, en comparaison avec les technologies numériques classiques, et en terme de qualité de traitement. Pour cela, les deux systèmes sont étudiés, dans un premier temps en simulation à l'aide d'un modèle approprié, puis expérimentalement sur un prototype. Dans le cadre du processeur de filtrage, les résultats restent plutôt moyens. Le rapport signal à bruit (SNR) sur les images reconstruites est de l'ordre de 20 dB en simulation avec un modèle dans lequel la majorité des distorsions géométriques n'ont pas été prises en compte. Les résultats expérimentaux mettent encore mieux en avant les limites de la méthode. Le travail de la lumière cohérente semble être un obstacle important. En revanche, les résultats avec le processeur de rétroprojection sont plutôt encourageants. Le modèle, beaucoup plus complet, et les simulations montrent qu'il est possible d'obtenir des images de qualité comparable à celles obtenues par calcul numérique (plus de 50 dB de SNR), avec une accélération d'un à deux ordres de grandeur. Les résultats obtenus avec le prototype expérimental confirment le potentiel de cette architecture. Une extension de ce travail concernant la réalisation d'un processeur hybride dédié à des algorithmes plus complexes (ex : l'algorithme ASSR pour la reconstruction d'image des CT-scan) est également présentée à la fin de ce document.

Page generated in 0.1599 seconds