• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 14
  • 1
  • 1
  • Tagged with
  • 48
  • 48
  • 23
  • 19
  • 14
  • 13
  • 12
  • 11
  • 9
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Développement d'algorithmes d'imagerie et de reconstruction sur architectures à unités de traitements parallèles pour des applications en contrôle non destructif

Pedron, Antoine 28 May 2013 (has links) (PDF)
La problématique de cette thèse se place à l'interface entre le domaine scientifique du contrôle non destructif par ultrasons (CND US) et l'adéquation algorithme architecture. Le CND US comprend un ensemble de techniques utilisées pour examiner un matériau, qu'il soit en production ou maintenance. Afin de détecter d'éventuels défauts, de les positionner et les dimensionner, des méthodes d'imagerie et de reconstruction ont été développées au CEA-LIST, dans la plateforme logicielle CIVA.L'évolution du matériel d'acquisition entraine une augmentation des volumes de données et par conséquent nécessite toujours plus de puissance de calcul pour parvenir à des reconstructions en temps interactif. L'évolution multicoeurs des processeurs généralistes (GPP), ainsi que l'arrivée de nouvelles architectures comme les GPU rendent maintenant possible l'accélération de ces algorithmes.Le but de cette thèse est d'évaluer les possibilités d'accélération de deux algorithmes de reconstruction sur ces architectures. Ces deux algorithmes diffèrent dans leurs possibilités de parallélisation. Pour un premier, la parallélisation sur GPP est relativement immédiate, contrairement à celle sur GPU qui nécessite une utilisation intensive des instructions atomiques. Quant au second, le parallélisme est plus simple à exprimer, mais l'ordonnancement des nids de boucles sur GPP, ainsi que l'ordonnancement des threads et une bonne utilisation de la mémoire partagée des GPU sont nécessaires pour obtenir un fonctionnement efficace. Pour ce faire, OpenMP, CUDA et OpenCL ont été utilisés et comparés. L'intégration de ces prototypes dans la plateforme CIVA a mis en évidence un ensemble de problématiques liées à la maintenance et à la pérennisation de codes sur le long terme.
32

Tomoscintigraphie de perfusion cérébrale dans l'épilepsie lobaire temporale pharmacorésistante comparaison des différentes méthodes d'analyse /

Ben Mahmoud, Sinan Marie, Pierre-Yves. January 2007 (has links) (PDF)
Reproduction de : Thèse d'exercice : Médecine : Nancy 1 : 2007. / Titre provenant de l'écran-titre.
33

Étude des artefacts en tomodensitométrie par simulation Monte Carlo

Bedwani, Stéphane 08 1900 (has links)
En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique. / Computed tomography (CT) is widely used in radiotherapy to acquire patient-specific data for an accurate dose calculation in radiotherapy treatment planning. To consider the composition of heterogeneous tissues, calculation techniques such as Monte Carlo method are needed to compute an exact dose distribution. To use CT images with dose calculation algorithms, all voxel values, expressed in Hounsfield unit (HU), must be converted into relevant physical parameters such as the electron density (ED). This conversion is typically accomplished by means of a HU-ED calibration curve. Any discrepancy (or artifact) that appears in the reconstructed CT image prior to calibration is susceptible to yield wrongly-assigned tissues. Such tissue misassignment may crucially decrease the reliability of dose calculation. The aim of this work is to assign exact physical values to CT image voxels to insure the reliability of dose calculation in radiotherapy treatment planning. To achieve this, origins of CT artifacts are first studied using Monte Carlo simulations. Such simulations require a lot of computational time and were parallelized to run efficiently on a supercomputer. An sensitivity study on HU uncertainties due to CT artifacts is then performed using statistical analysis of the image histograms. Beam hardening effect appears to be the origin of several artifacts and is specifically addressed. Finally, a review on the state of the art in beam hardening correction is presented and an empirical correction is exposed in detail.
34

Développement d'une méthode de reconstruction d'image basée sur la détection de la fluorescence X pour l'analyse d'échantillon / Development of an image reconstruction method based on the detected X-ray fluorescence for sample analysis

Hamawy, Lara 23 October 2014 (has links)
Une nouvelle technique qui localise et identifie les éléments fluorescents dans un échantillon a été développé. Cette modalité d'imagerie pratique utilise une source de rayons X poly-chromatique pour irradier l'échantillon et favoriser l'émission de fluorescence. De nombreux facteurs qui affectent l'ensemble du système comme l'atténuation, l'auto-absorption de l'échantillon, la probabilité de fluorescence et la diffusion Compton ont été pris en compte. Ensuite, un système de détection efficace a été établi pour acquérir les données de fluorescence optimales et discriminer entre les éléments en fonction de leur fluorescence caractéristiques. Ce dispositif, couplé avec une technique de reconstruction d'image approprié conduit à une image détaillée à deux dimensions. Par rapport aux techniques classiques de reconstruction d'image, la méthode de reconstruction développée est une technique statistique qui a une convergence appropriée vers une image avec une résolution acceptable. En outre, c'est une technique simplifiée qui permet l'imagerie de nombreuses applications différentes. / A new technique that localizes and identifies fluorescing elements in a sample wasdeveloped. This practical imaging modality employs a polychromatic X-ray source toirradiate the sample and prompts the fluorescence emission. Many factors affecting thewhole system like attenuation, sample self-absorption, probability of fluorescence andCompton scattering were taken into account. Then, an effective detection system wasestablished to acquire the optimum fluorescence data and discriminate betweenelements depending on their characteristic fluorescence. This set-up, coupled with anappropriate image reconstruction technique leads to a detailed two-dimensional image.Compared to the conventional image reconstruction techniques, the developedreconstruction method is a statistical technique and has an appropriate convergencetoward an image with acceptable resolution. Moreover, it is a simplified technique thatallows the imaging of many different applications.
35

Perceptual content and tone adaptation for HDR display technologies / Adaptation perceptuelle du contenu et des tons pour les technologies d'affichage HDR

Abebe, Mekides Assefa 07 October 2016 (has links)
Les technologies de capture et d'affichage d'images ont fait un grand pas durant la dernière décennie en termes de capacités de reproduction de la couleur, de gamme de dynamique et de détails des scènes réelles. Les caméras et les écrans à large gamme de dynamique (HDR: high dynamic range) sont d'ores et déjà disponibles, offrant ainsi plus de flexibilité pour les créateurs de contenus afin de produire des scènes plus réalistes.Dans le même temps, à cause des limitations des appareils conventionnels, il existe un gap important en terme de reproduction de contenu et d'apparence colorée entre les deux technologies. Cela a accentué le besoin pour des algorithmes prenant en compte ces considérations et assurant aux créateurs de contenus une reproduction cross-média fidèle.Dans cette thèse, nous focalisons sur l'adaptation et la reproduction des contenus à gamme de dynamique standard sur des dispositifs HDR. Tout d'abord, les modèles d'apparence colorée ainsi que les opérateurs de mappage tonal inverse ont été étudiés subjectivement quant à leur fidélité couleur lors de l'expansion de contenus antérieurs. Par la suite, les attributs perceptuels de clarté, chroma et saturation ont été analysés pour des stimuli émissifs ayant des niveaux de luminance de plus hautes gammes et ce en menant une étude psychophysique basée sur la méthode de mise à l'échelle de partitions. Les résultats expérimentaux ont permis de mener à la définition d'un nouvel espace couleur HDR efficace et précis, optimisé pour les applications d'adaptation de la gamme de dynamique. Enfin, dans l'optique de récupérer les détails perdus lors de captures d'images standard et d'améliorer la qualité perçue du contenu antérieur avant d'être visualisé sur un dispositif HDR, deux approches de correction des zones surexposées ou ayant subi un écrêtage couleur ont été proposées. Les modèles et algorithmes proposés ont été évalués en comparaison avec une vérité terrain HDR, menant à la conclusion que les résultats obtenus sont plus proches des scènes réelles que les autres approches de la littérature. / Camera and display technologies have greatly advanced in their capacities of reproducing color, dynamic range and details of real scenes in recent years. New and powerful high dynamic range (HDR) camera and display technologies are currently available in the market and, recently, these new HDR technologies offer higher flexibility to content creators, allowing them to produce a more precise representation of real world scenes.At the same time, limitations of conventional camera and display technologies mean that there is a significant gap in terms of content and color appearance reproduction between new and existing technologies. These mismatches lead to an increased demand for appearance studies and algorithms which take such under consideration and help content creators to perform accurate cross-media reproductions.In this thesis we mainly considered the adaptation and reproduction of standard dynamic range content towards HDR displays. First, existing color appearance models and reverse tone mapping operators were subjectively studied for their color fidelity during dynamic range expansion of legacy contents. Then perceptual lightness, chroma and saturation attributes were analyzed for emissive stimuli with higher range of luminance levels using adapted psycho-visual experimental setups based on the partition scaling method. The experimental results lead to a new, more efficient and accurate HDR color space, specifically optimized for dynamic range adaptation applications. Finally, to recover lost details and enhance the visual quality of legacy content before visualizing on an HDR display, two methods for color-clipping and over-exposure correction were introduced. The models and algorithms presented, were evaluated relative to HDR ground truth content, showing that our results are closer to the real scene than can be achieved with previous methods.
36

Mise en place de l'imagerie Cerenkov 3D / Development of the Cerenkov luminescence tomography

Bertrand, Arnaud 06 November 2015 (has links)
L’imagerie moléculaire vise à étudier les processus biologiques in vivo. L’imagerie Cerenkov est une technique d’imagerie moléculaire qui se développe depuis 2009. Le principe est d’injecter un radiotraceur, molécule marquée par un isotope radioactif, puis à enregistrer le signal optique émis par effet Cerenkov. L’imagerie Cerenkov permet d’imager des radiotraceurs émettant des rayonnements β+ (positon) et β- (électron).L’effet Cerenkov se produit lorsqu’une particule chargée se déplace dans un milieu avec une vitesse supérieure à celle de la lumière dans ce même milieu. Si ce seuil est dépassé, on observe alors une émission de photons optiques appelée rayonnement Cerenkov. Le spectre de cette émission s’étend de l’UV à l’IR de manière continue et le nombre de photons émis en fonction de la longueur d’onde varie en 1/λ².Mon thèse consiste à développer l’imagerie Cerenkov 3D pour reconstruire la distribution du radiotraceur in vivo. Nous disposons d’une plateforme d’imagerie nommée AMISSA (A Multimodality Imaging System for Small Animal) dont le but est de développer et de mettre à disposition des outils d’imagerie moléculaire pour du petit animal. / Molecular imaging aims to study biological processes in vivo. Cerenkov imaging is a molecular imaging technology that has developed since 2009. The principle is to inject a radioactive tracer molecule labeled with a radioactive isotope, then recording the optical signal emitted by the Cerenkov effect. The Cerenkov imaging allows imaging radiotracers emitting β+ radiation (positron) and β- (electron). The Cerenkov effect occurs when a charged particle moves through a medium with a speed greater than that of light in this same medium. If this threshold is exceeded, we observed an emission of optical photons called Cerenkov radiation. The emission spectrum of this extends from UV to IR continuously and the number of photons emitted as a function of the wavelength varies by 1/λ². My PhD is to develop 3D imaging Cerenkov to reconstruct the distribution of the radiotracer in vivo. We have an imaging platform named Amissa (A Multimodality Imaging System for Small Animal) whose purpose is to develop and make available tools for molecular imaging of small animals.
37

Méthodes et algorithmes de dématriçage et de filtrage du bruit pour la photographie numérique / Demosaicing and denoising methods and algorithms for digital photography

Phelippeau, Harold 03 April 2009 (has links)
Ces dernières années, les appareils photos/vidéos numériques grand public sont devenus omniprésents. On peut aujourd’hui trouver des systèmes de captures d’images dans toutes sortes d’appareils numériques comme les téléphones portables, les assistants personnels numériques etc. Malgré une augmentation croissante de la puissance et de la complexité de ces appareils, laqualité de la chaîne de capture d’image, composée du couple système optique/capteur est toujours contrainte à des limitations d’espace et de coût. Les défauts introduits sont nombreuxet dégradent considérablement la qualité des images produites : flou, déformations géométriques, artefacts de couleurs, effets de moire, bruits statiques et dynamiques, etc. Une idée intéressante est de corriger ces défauts de manière algorithmique en utilisant la puissance toujours croissante des architectures de traitements. Dans cette thèse nous nous intéressons particulièrement à deux problèmes issues de l’acquisition de l’image par le capteur : le dématriçage de la matrice de Bayer et la réduction du bruit. Dans la première partie, nous décrivons la structure générale de la chaîne de capture d’image dans les appareils photos/vidéos numériques. Nous présentons le rôle, le fonctionnement et les défauts introduits par chacun de ses éléments. Enfin, nous illustrons comment ces défauts peuvent être corriges par des traitements algorithmiques. Dans la deuxième partie, nous montrons comment l’information de couleur est introduite dans les capteurs numériques. Nous présentons ensuite un état de l’art des algorithmes de dématriçage. Un nouvel algorithme de reconstruction de la matrice de Bayer base sur le principe de l’interpolation directionnelle est propose. Il permet d’associer une qualité d’image produite sans artefacts avec une faible complexité de calculs. Pour mieux comprendre les comportements du bruit dans les capteurs numériques, nous énumérons ses différentes sources et leurs dépendances par rapport aux conditions de prises de vues. Apres avoir présenté l’état de l’art des méthodes de restauration des images bruitées, nous nous intéressons particulièrement aux algorithmes de débruitage à voisinage local et plus précisément au filtre bilatéral. Nous proposons un filtre bilatéral pour la mosaïque de Bayer, adaptatif en fonction de la puissance du bruit dans les images. Dans la troisième partie, nous présentons l’implémentation, l’optimisation et la simulation de l’exécution des algorithmes de dématriçage et de réduction du bruit proposes. La plateforme d’implémentation est le processeur TriMedia TM3270 de NXP semiconductors. Nous montrons que nous arrivons à traiter des images de taille 5 méga-pixels en moins de 0,5 secondes et des images de résolution VGA à une cadence supérieure à 25 images par seconde. Finalement, pour des raisons de standardisation, de rapidité d’exécution et de consommation d’énergie, nous avons conçu une architecture dédiée à l’algorithme de dématriçage propose. Cette architecture permet de multiplier par 10 la rapidité d’exécution obtenue sur le processeur TriMedia TM3270 / Digital cameras are now present everywhere. They are commonly included in portable digital devices such as mobile phones and personal digital assistants. In spite of constant improvements in terms of computing power and complexity, the digital imaging chain quality, including sensor and lenses system, is still limited by space and cost constraints. An important number of degradations are introduced by this chain that significantly decrease overall image quality : including blurring effects, geometric distortions, color artefacts, moiré effects, static and dynamic noise. Correcting these defects in an algorithmic way, using the increasing power of embedded processing architecture present in mobile phones and PDAs may appear like an interesting solution. In this thesis we are especially interested in reducing two major defects of the sensor acquisition chain : Bayer matrix demosaicing artefacts and photon noise. In the first part, we describe the general imaging chain commonly used in digital cameras and video devices. We show the function, the inner working and the defects introduced by each of its elements. Finally we exhibit possible ways to correct these defects using algorithmic solutions. In the second part, we introduce the principle of Bayer demosaicing. We present the state of the art and we propose a new method based on a directed interpolation principle. Our method yields a good image quality while retaining a low computational complexity. We then enumerate several noise sources present in imaging digital sensors and their dependencies with imaging conditions. We are particularly interested in local algorithms and more specifically in the bilateral filter. After presenting the state of the art in denoising algorithm, we propose a new adaptive bilateral filter for sensor colour mosaic denoising. In the third part, we present the implementation, the optimization and the execution simulation of the proposed demosaicing and denoising algorithms. The implementation target is the TM3270 TriMedia processor from NXP Semiconductors. We show that it is possible to process 5 megapixels images in less than 0.5 seconds and more than 25 images per second at VGA resolution. Finally, for standardization, execution speed and power consumption reasons, we describe a dedicated architecture for our proposed demosaicing algorithm. This architecture improves the execution speed by a factor of 10 compared to the TriMedia TM3270 processor
38

Image reconstruction for Compton camera with application to hadrontherapy / Reconstruction d'images pour la caméra Compton avec application en hadronthérapie

Lojacono, Xavier 26 November 2013 (has links)
La caméra Compton est un dispositif permettant d’imager les sources de rayonnement gamma. Ses avantages sont sa sensibilité (absence de collimateur mécanique) et la possibilité de reconstruire des images 3D avec un dispositif immobile. Elle également adaptée pour des sources à large spectre énergétique. Ce dispositif est un candidat prometteur en médecine nucléaire et en hadronthérapie. Ces travaux, financés par le projet européen ENVISION (European NoVel Imaging Systems for ION therapy) Coopération-FP7, portent sur le développement de méthodes de reconstruction d’images pour la caméra Compton pour la surveillance de la thérapie par ions. Celle-ci nécessite idéalement une reconstruction temps réel avec une précision millimétrique, même si le nombre de données acquises est relativement faible. Nous avons développé des méthodes analytiques et itératives. Leurs performances sont analysées dans le contexte d’acquisitions réalistes (géométrie de la caméra, nombre d’événements). Nous avons développé une méthode analytique de rétroprojection filtrée. Cette méthode est rapide mais nécessite beaucoup de données. Nous avons également développé des méthodes itératives utilisant un algorithme de maximisation de la fonction de vraisemblance. Nous avons proposé un modèle probabiliste pour l’estimation des éléments de la matrice système nécessaire à la reconstruction et nous avons développé différentes approches pour le calcul de ses éléments : l’une néglige les incertitudes de mesure sur l’énergie, l’autre les prend en compte en utilisant une distribution gaussienne. Nous avons étudié une méthode simplifiée utilisant notre modèle probabiliste. Plusieurs reconstructions sont menées à partir de données simulées, obtenues avec Geant4, mais provenant aussi de plusieurs prototypes simulés de caméra Compton proposés par l’Institut de Physique Nucléaire de Lyon (IPNL) et par le Centre de recherche de Dresde-Rossendorf en Allemagne. Les résultats sont prometteurs et des études plus poussées, à partir de données encore plus réalistes, viseront à les confirmer. / The Compton camera is a device for imaging gamma radiation sources. The advantages of the system lie in its sensitivity, due to the absence of mechanical collimator, and the possibility of imaging wide energy spectrum sources. These advantages make it a promising candidate for application in hadrontherapy. Funded by the european project ENVISION, FP7-Cooperation Work Program, this work deals with the development of image reconstruction methods for the Compton camera. We developed both analytical and iterative methods in order to reconstruct the source from cone-surface projections. Their performances are analyzed with regards to the context (geometry of the camera, number of events). We developped an analytical method using a Filtered BackProjection (FBP) formulation. This method is fast but really sensitive to the noise. We have also developped iterative methods using a List Mode-Maximum Likelihood Expectation Maximization (LM-MLEM) algorithm. We proposed a new probabilistic model for the computation of the elements of the system matrix and different approaches for the calculation of these elements neglecting or not the measurement uncertainties. We also implemented a simplified method using the probabilistic model we proposed. The novelty of the method also lies on the specific discretization of the cone-surface projections. Several studies are carried out upon the reconstructions of simulated data worked out with Geant4, but also simulated data obtained from several prototypes of Compton cameras under study at the Institut de Physique Nucléaire de Lyon (IPNL) and at the Research Center of Dresden-Rossendorf. Results are promising, and further investigations on more realistic data are to be done.
39

Mise en oeuvre d'un système de reconstruction adaptif pour l'IRM 3D des organes en mouvement / Implementation of an adaptive reconstruction system for 3D MRI of moving organs

Menini, Anne 09 December 2013 (has links)
L'Imagerie par Résonance Magnétique (IRM) présente deux caractéristiques principales. La première, sa capacité à manipuler le contraste, constitue son principal avantage par rapport aux autres modalités d'imagerie. Cela permet d'obtenir des informations complémentaires pour une meilleure détectabilité et une meilleure précision dans le diagnostic. Cela est particulièrement appréciable pour les pathologies du myocarde. La seconde caractéristique de l'IRM est également l'un de ces principaux inconvénients : le processus d'acquisition est relativement lent. De ce fait, les mouvements du patient constituent un obstacle important puisqu'ils perturbent ce processus d'acquisition, ce qui se traduit par des artéfacts dans l'image reconstruite. L'imagerie cardiaque et abdominale sont donc particulièrement sensibles à cette problématique du mouvement. L'objectif de cette thèse est donc de proposer une méthode de correction de mouvement intégrable dans un contexte multi-contraste. Nous avons étudié dans un premier temps la question de la correction de mouvement seule. Pour cela, nous nous sommes plus particulièrement intéressés à la méthode GRICS déjà développée au laboratoire IADI. Cette méthode permet la reconstruction conjointe d'une image sans artéfact et d'un modèle de mouvement non rigide permettant de corriger les déplacements qui surviennent pendant l'acquisition. Le premier apport majeur de cette thèse a consisté à améliorer la méthode GRICS, notamment pour l'adapter à l'imagerie volumique 3D. Il s'agit d'une nouvelle méthode de régularisation adaptative particulièrement adaptée au problème inverse posé dans GRICS. Le second apport majeur de cette thèse a consisté à gérer la correction de mouvement GRICS de manière conjointe sur des acquisitions présentant des contrastes différents. Il s'agit de concevoir l'examen IRM comme un tout et d'exploiter au mieux les informations partagées entre les différents contrastes. Toutes ces méthodes ont été appliquées et validées par des simulations, des tests sur fantôme, sur volontaires sains et sur des patients dans la cadre d'études cliniques. L'application cardiaque a été particulièrement visée. Les méthodes développées ont permis d'améliorer le processus d'acquisition et de reconstruction dans le contexte clinique réel / Magnetic Resonance Imaging (MRI) has two main features. The first one, its ability to manipulate contrast, is a major advantage compared to the other imaging modalities. It allows to access complementary information for a better detectability and a diagnostic more accurate. This is especially useful for myocardium pathologies. The second feature of MRI is also one of its main drawbacks: the acquisition process is slow. Therefore, patient motion is a significant obstacle because it disturbs the acquisition process, which leads to artifacts in the reconstructed image. Cardiac and thoracic imaging are particularly sensitive to this motion issue. The aim of this thesis is to develop a new motion correction method that can be integrated in a multi-contrast workflow. In a first phase, we studied apart the motion correction problem. To do so, we focused more particularly on the GRICS method which was already developed in the IADI laboratory. This method allows the joint reconstruction of an image free from artifact and a non-rigid motion model that describes the displacements occurring during the acquisition. The first major contribution of this thesis is an improvement of the GRICS method consisting mainly in adapting it to the 3D imaging. This was achieved with a new adaptive regularization method that perfectly suits the inverse problem posed in GRICS. The second major contribution of this thesis consists in the simultaneous management of the motion correction on multiple acquisitions with different contrasts. To do so, the MRI examination is considered as a whole. Thus we make the most of information shared between the different contrasts. All these methods have been applied and validated by simulations, tests on phantom, on healthy volunteers and on patients as part of clinical studies. We aimed more particularly at cardiac MR. Finally the developed methods improve the acquisition and reconstruction workflow in the framework of a real clinical routine
40

Développement d’algorithmes d’imagerie et de reconstruction sur architectures à unités de traitements parallèles pour des applications en contrôle non destructif / Development of imaging and reconstructions algorithms on parallel processing architectures for applications in non-destructive testing

Pedron, Antoine 28 May 2013 (has links)
La problématique de cette thèse se place à l’interface entre le domaine scientifique du contrôle non destructif par ultrasons (CND US) et l’adéquation algorithme architecture. Le CND US comprend un ensemble de techniques utilisées pour examiner un matériau, qu’il soit en production ou maintenance. Afin de détecter d’éventuels défauts, de les positionner et les dimensionner, des méthodes d’imagerie et de reconstruction ont été développées au CEA-LIST, dans la plateforme logicielle CIVA.L’évolution du matériel d’acquisition entraine une augmentation des volumes de données et par conséquent nécessite toujours plus de puissance de calcul pour parvenir à des reconstructions en temps interactif. L’évolution multicoeurs des processeurs généralistes (GPP), ainsi que l’arrivée de nouvelles architectures comme les GPU rendent maintenant possible l’accélération de ces algorithmes.Le but de cette thèse est d’évaluer les possibilités d’accélération de deux algorithmes de reconstruction sur ces architectures. Ces deux algorithmes diffèrent dans leurs possibilités de parallélisation. Pour un premier, la parallélisation sur GPP est relativement immédiate, contrairement à celle sur GPU qui nécessite une utilisation intensive des instructions atomiques. Quant au second, le parallélisme est plus simple à exprimer, mais l’ordonnancement des nids de boucles sur GPP, ainsi que l’ordonnancement des threads et une bonne utilisation de la mémoire partagée des GPU sont nécessaires pour obtenir un fonctionnement efficace. Pour ce faire, OpenMP, CUDA et OpenCL ont été utilisés et comparés. L’intégration de ces prototypes dans la plateforme CIVA a mis en évidence un ensemble de problématiques liées à la maintenance et à la pérennisation de codes sur le long terme. / This thesis work is placed between the scientific domain of ultrasound non-destructive testing and algorithm-architecture adequation. Ultrasound non-destructive testing includes a group of analysis techniques used in science and industry to evaluate the properties of a material, component, or system without causing damage. In order to characterize possible defects, determining their position, size and shape, imaging and reconstruction tools have been developed at CEA-LIST, within the CIVA software platform.Evolution of acquisition sensors implies a continuous growth of datasets and consequently more and more computing power is needed to maintain interactive reconstructions. General purprose processors (GPP) evolving towards parallelism and emerging architectures such as GPU allow large acceleration possibilities than can be applied to these algorithms.The main goal of the thesis is to evaluate the acceleration than can be obtained for two reconstruction algorithms on these architectures. These two algorithms differ in their parallelization scheme. The first one can be properly parallelized on GPP whereas on GPU, an intensive use of atomic instructions is required. Within the second algorithm, parallelism is easier to express, but loop ordering on GPP, as well as thread scheduling and a good use of shared memory on GPU are necessary in order to obtain efficient results. Different API or libraries, such as OpenMP, CUDA and OpenCL are evaluated through chosen benchmarks. An integration of both algorithms in the CIVA software platform is proposed and different issues related to code maintenance and durability are discussed.

Page generated in 0.1347 seconds