• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 14
  • 1
  • 1
  • Tagged with
  • 48
  • 48
  • 23
  • 19
  • 14
  • 13
  • 12
  • 11
  • 9
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Approches "problèmes inverses" régularisées pour l'imagerie sans lentille et la microscopie holographique en ligne / Regularized inverse problems approaches for lensless imaging and in-line holographie microscopy

Jolivet, Frederic 13 April 2018 (has links)
En imagerie numérique, les approches «problèmes inverses» régularisées reconstruisent une information d'intérêt à partir de mesures et d'un modèle de formation d'image. Le problème d'inversion étant mal posé, mal conditionné et le modèle de formation d'image utilisé peu contraint, il est nécessaire d'introduire des a priori afin de restreindre l'ambiguïté de l'inversion. Ceci permet de guider la reconstruction vers une solution satisfaisante. Les travaux de cette thèse ont porté sur le développement d'algorithmes de reconstruction d'hologrammes numériques, basés sur des méthodes d'optimisation en grande dimension (lisse ou non-lisse). Ce cadre général a permis de proposer différentes approches adaptées aux problématiques posées par cette technique d'imagerie non conventionnelle : la super­-résolution, la reconstruction hors du champ du capteur, l'holographie «couleur» et enfin la reconstruction quantitative d'objets de phase (c.a.d. transparents). Dans ce dernier cas, le problème de reconstruction consiste à estimer la transmittance complexe 2D des objets ayant absorbé et/ou déphasé l'onde d'éclairement lors de l'enregistrement de l'hologramme. Les méthodes proposées sont validées à l'aide de simulations numériques puis appliquées sur des données expérimentales issues de l'imagerie sans lentille ou de la microscopie holographique en ligne (imagerie cohérente en transmission, avec un objectif de microscope). Les applications vont de la reconstruction de mires de résolution opaques à la reconstruction d'objets biologiques (bactéries), en passant par la reconstruction de gouttelettes d'éther en évaporation dans le cadre d'une étude de la turbulence en mécanique des fluides. / In Digital Imaging, the regularized inverse problems methods reconstruct particular information from measurements and an image formation model. With an inverse problem that is ill-posed and ill­conditioned, and with the used image formation mode! having few constraints, it is necessary to introduce a priori conditions in order to restrict ambiguity for the inversion. This allows us to guide the reconstruction towards a satisfying solution. The works of the following thesis delve into the development of reconstruction algorithms of digital holograms based on large-scale optimization methods (smooth and non-smooth). This general framework allowed us to propose different approaches adapted to the challenges found with this unconventional imaging technique: the super-resolution, reconstruction outside the sensor's field, the color holography and finally, the quantitative reconstruction of phase abjects (i.e. transparent). For this last case, the reconstruction problem consists of estimating the complex 2D transmittance of abjects having absorbed and/or dephased the light wave during the recording of the hologram. The proposed methods are validated with the help of numerical simulations that are then applied on experimental data taken from the lensless imaging or from the in-line holographie microscopy (coherent imaging in transmission, with a microscope abject glass). The applications range from the reconstruction of opaque resolution sights, to the reconstruction of biological objects (bacteria), passing through the reconstruction of evaporating ether droplets from a perspective of turbulence study in fluid mechanics.
42

Algorithmes, architecture et éléments optiques pour l'acquisition embarquées d'images totalement focalisées et annotées en distance / Algorithms, architecture and optics components for embedded All-in-Focus and distance-annoted image acquision system

Emberger, Simon 13 December 2017 (has links)
L'acquisition de la profondeur d'une scène en plus de son image est une caractéristique souhaitable pour de nombreuses applications qui dépendent de l'environnement proche. L'état de l'art dans le domaine de l'extraction de profondeur propose de nombreuses méthodes, mais très peu sont réellement adaptées aux systèmes embarqués miniaturisés. Certaines parce qu'elles sont trop encombrantes en raison de leur système optique, d'autres parce qu'elles nécessitent une calibration délicate, ou des méthodes de reconstructions difficilement implantables dans un système embarqué. Dans cette thèse nous nous concentrons sur des méthodes a faible complexité matérielle afin de proposer une solution algorithmique et optique pour réaliser un capteur permettant à la fois d'extraire la profondeur de la scène, de fournir une évaluation de pertinence de cette mesure et de proposer des images focalisées en tout point. Dans ce sens, nous montrons que les algorithmes du type Depth from Focus (DfF) sont les plus adaptés à ces contraintes. Ce procédé consiste à acquérir un cube d'images multi-focus d'une même scène pour différentes distances de focalisation. Les images sont analysées afin d'annoter chacune des zones de la scène d'un indice relatif à sa profondeur estimée. Cet indice est utilisé pour reconstruire une image nette en tout point.Nous avons travaillé sur la notion de netteté afin de proposer des solutions peu complexes, uniquement basées sur des additions et comparaisons, et de fait, facilement adaptables pour un portage sur une architecture matérielle. La solution proposée effectue une analyse bidirectionnelle de contraste local puis combine les meilleures estimations de profondeur en fin de traitement. Elle se décline en trois approches avec une restriction de la complexité de plus en plus forte et ainsi une aptitude de plus en plus marquée pour l'embarqué. Pour chaque méthode, des cartes de profondeurs et de confiances sont établies, ainsi qu'une image totalement focalisée constituée d'éléments issus de l'ensemble du cube multi-focus. Ces approches sont comparées en qualité et en complexité à d'autres méthodes de l'état de l'art de complexité similaire. Une architecture est proposée pour une implantation matérielle de la solution la plus prometteuse. La conception de ces algorithmes soulève le problème de la qualité d'image. Il est en effet primordial d'avoir une évolution remarquable du contraste ainsi qu'une invariance de la scène lors de la capture du cube multi-focus. Un effet très souvent négligé dans ce type d'approche est le zoom parasite provoqué par la lentille responsable de la variation de focus. Ce zoom de focalisation fragilise l'aspect invariance de la scène et provoque l'apparition d'artefacts sur les trois informations Profondeur, Image et Confiance. La recherche d'optiques adaptées au DfF constitue donc un second axe de ces travaux. Nous avons évalué des lentilles liquides industrielles et des lentilles modales expérimentales à cristaux liquides nématiques conçues durant cette thèse. Ces technologies ont été comparées en termes de rapidité, de qualité d'image, d'intensité de zoom de focalisation engendré, de tension d'alimentation et enfin de qualité des cartes de profondeur extraites et des images totalement focalisées reconstruites.La lentille et l'algorithme répondant le mieux à cette problématique DfF embarqué ont ensuite été évalués via le portage sur une plateforme de développement CPU-GPU permettant l'acquisition d'images et de cartes de profondeurs et de confiances en temps réel. / Acquiring the depth of a scene in addition to its image is a desirable feature for many applications which depend on the near environment. The state of the art in the field of depth extraction offers many methods, but very few are well adapted to small embedded systems. Some of them are too cumbersome because of their large optical system. Others might require a delicate calibration or processing methods which are difficult to implement in an embedded system. In this PhD thesis, we focus on methods with low hardware complexity in order to propose algorithms and optical solutions that extract the depth of the scene, provide a relevance evaluation of this measurement and produce all-in-focus images. We show that Depth from Focus (DfF) algorithms are the most adapted to embedded electronics constraints. This method consists in acquiring a cube of multi-focus images of the same scene for different focusing distances. The images are analyzed in order to annotate each zone of the scene with an index relative to its estimated depth. This index is then used to build an all in focus image. We worked on the sharpness criterion in order to propose low complexity solutions, only based on additions and comparisons, easily adaptable on a hardware architecture. The proposed solution uses bidirectional local contrast analysis and then combines the most relevant depth estimations based on detection confidence at the end of treatment. It is declined in three approaches which need less and less processing and thus make them more and more adapted for a final embedded solution. For each method, depth and confidence maps are established, as well as an all-in-focus image composed of elements from the entire multi-focus cube. These approaches are compared in quality and complexity with other state-of-the-art methods which present similar complexity. A hardware implementation of the best solution is proposed. The design of these algorithms raises the problem of image quality. It is indeed essential to have a remarkable contrast evolution as well as a motionless scene during the capture of the multi-focus cube. A very often neglected effect in this type of approach is the parasitic zoom caused by the lens motion during a focus variation. This "focal zoom" weakens the invariance aspect of the scene and causes artifacts on the depth and confidence maps and on the all in focus image. The search for optics adapted to DfF is thus a second line of research in this work. We have evaluated industrial liquid lenses and experimental nematic liquid crystal modal lenses designed during this thesis. These technologies were compared in terms of speed, image quality, generated focal zoom intensity, power supply voltage and finally the quality of extracted depth maps and reconstructed all in focus images. The lens and the algorithm which best suited this embedded DfF issue were then evaluated on a CPU-GPU development platform allowing real time acquisition of depth maps, confidence maps and all in focus images.
43

Reconstruction par acquisition compressée en imagerie ultrasonore médicale 3D et Doppler / Compressed sensing reconstruction for 3D and Doppler medical ultrasound

Lorintiu, Oana 16 October 2015 (has links)
DL’objectif de cette thèse est le développement de techniques adaptées à l’application de la théorie de l’acquisition compressée en imagerie ultrasonore 3D et Doppler. En imagerie ultrasonore 3D une des principales difficultés concerne le temps d’acquisition très long lié au nombre de lignes RF à acquérir pour couvrir l’ensemble du volume. Afin d’augmenter la cadence d’imagerie une solution possible consiste à choisir aléatoirement des lignes RF qui ne seront pas acquises. La reconstruction des données manquantes est une application typique de l’acquisition compressée. Une autre application d’intérêt correspond aux acquisitions Doppler duplex où des stratégies d’entrelacement des acquisitions sont nécessaires et conduisent donc à une réduction de la quantité de données disponibles. Dans ce contexte, nous avons réalisé de nouveaux développements permettant l’application de l’acquisition compressée à ces deux modalités d’acquisition ultrasonore. Dans un premier temps, nous avons proposé d’utiliser des dictionnaires redondants construits à partir des signaux d’intérêt pour la reconstruction d’images 3D ultrasonores. Une attention particulière a aussi été apportée à la configuration du système d’acquisition et nous avons choisi de nous concentrer sur un échantillonnage des lignes RF entières, réalisable en pratique de façon relativement simple. Cette méthode est validée sur données 3D simulées et expérimentales. Dans un deuxième temps, nous proposons une méthode qui permet d’alterner de manière aléatoire les émissions Doppler et les émissions destinées à l’imagerie mode-B. La technique est basée sur une approche bayésienne qui exploite la corrélation et la parcimonie des blocs du signal. L’algorithme est validé sur des données Doppler simulées et expérimentales. / This thesis is dedicated to the application of the novel compressed sensing theory to the acquisition and reconstruction of 3D US images and Doppler signals. In 3D US imaging, one of the major difficulties concerns the number of RF lines that has to be acquired to cover the complete volume. The acquisition of each line takes an incompressible time due to the finite velocity of the ultrasound wave. One possible solution for increasing the frame rate consists in reducing the acquisition time by skipping some RF lines. The reconstruction of the missing information in post processing is then a typical application of compressed sensing. Another excellent candidate for this theory is the Doppler duplex imaging that implies alternating two modes of emission, one for B-mode imaging and the other for flow estimation. Regarding 3D imaging, we propose a compressed sensing framework using learned overcomplete dictionaries. Such dictionaries allow for much sparser representations of the signals since they are optimized for a particular class of images such as US images.We also focus on the measurement sensing setup and propose a line-wise sampling of entire RF lines which allows to decrease the amount of data and is feasible in a relatively simple setting of the 3D US equipment. The algorithm was validated on 3D simulated and experimental data. For the Doppler application, we proposed a CS based framework for randomly interleaving Doppler and US emissions. The proposed method reconstructs the Doppler signal using a block sparse Bayesian learning algorithm that exploits the correlation structure within a signal and has the ability of recovering partially sparse signals as long as they are correlated. This method is validated on simulated and experimental Doppler data.
44

Modèles déformables contraints en reconstruction d'images de tomographie non linéaire par temps d'arrivée / Constrained deformable models for non linear first time arrival tomographic data reconstruction

Gaullier, Gil 27 September 2013 (has links)
La reconstruction tomographique par temps de première arrivée est rendue difficile par son caractère mal posé et par la non-linéarité du problème direct associé. Dans cette thèse, on se propose d'employer un modèle déformable, permettant d'introduire un a priori global sur la forme des objets à reconstruire, pour obtenir des solutions plus stables et de meilleure qualité. Dans un premier temps, nous introduisons des contraintes de forme de haut niveau en reconstruction tomographique d'émission, modalité où le problème direct est linéaire. Dans un second temps, différentes stratégies de résolution du problème non linéaire de reconstruction en temps d'arrivée sont envisagées. La solution retenue approche le problème direct par une suite de problèmes linéaires, conduisant à un algorithme par minimisations successives simples, au coursdesquelles l'a priori de forme est introduit. L'efficacité de la méthode est montrée en simulation et à partir de données réelles, acquises sur un banc développé par l'IFSTTAR pour le contrôle non destructif de structures de génie civil. / Image reconstruction from first time arrival is a difficult task due to its ill-posedness nature and to the non linearity of the direct problem associated. In this thesis, the purpose is to use a deformable model because it enables to introduce a global shape prior on the objects to reconstruct, which leads to more stable solutions with better quality. First, high level shape constraints are introduced in Computerized Tomography for which the direct problem is linear. Secondly, different strategies to solve the image reconstruction problem with a non linearity hypothesis are considered. The chosen strategy approximates the direct problem by a series of linear problems, which leads to a simple successive minimization algorithm with the introduction of the shape prior along the minimization. The efficiency of the method is demonstrated for simulated data as for real data obtained from a specific measurement device developped by IFSTTAR for non destructive evaluation of civil engineering structures.
45

Spatio spectral reconstruction from low resolution multispectral data : application to the Mid-Infrared instrument of the James Webb Space Telescope / Reconstruction spatio-spectrale à partir de données multispectrales basse résolution : application à l'instrument infrarouge moyen du Télescope spatial James Webb

Hadj-Youcef, Mohamed Elamine 27 September 2018 (has links)
Cette thèse traite un problème inverse en astronomie. L’objectif est de reconstruire un objet 2D+λ, ayant une distribution spatiale et spectrale, à partir d’un ensemble de données multispectrales de basse résolution fournies par l’imageur MIRI (Mid-InfraRed Instrument), qui est à bord du prochain télescope spatial James Webb Space Telescope (JWST). Les données multispectrales observées souffrent d’un flou spatial qui dépend de la longueur d’onde. Cet effet est dû à la convolution par la réponse optique (PSF). De plus, les données multi-spectrales souffrent également d’une sévère dégradation spectrale en raison du filtrage spectral et de l’intégration par le détecteur sur de larges bandes. La reconstruction de l’objet original est un problème mal posé en raison du manque important d’informations spectrales dans l’ensemble de données multispectrales. La difficulté se pose alors dans le choix d’une représentation de l’objet permettant la reconstruction de l’information spectrale. Un modèle classique utilisé jusqu’à présent considère une PSF invariante spectralement par bande, ce qui néglige la variation spectrale de la PSF. Cependant, ce modèle simpliste convient que dans le cas d’instrument à une bande spectrale très étroite, ce qui n’est pas le cas pour l’imageur de MIRI. Notre approche consiste à développer une méthode pour l’inversion qui se résume en quatre étapes : (1) concevoir un modèle de l’instrument reproduisant les données multispectrales observées, (2) proposer un modèle adapté pour représenter l’objet à reconstruire, (3) exploiter conjointement l’ensemble des données multispectrales, et enfin (4) développer une méthode de reconstruction basée sur la régularisation en introduisant des priori à la solution. Les résultats de reconstruction d’objets spatio-spectral à partir de neuf images multispectrales simulées de l’imageur de MIRI montrent une augmentation significative des résolutions spatiale et spectrale de l’objet par rapport à des méthodes conventionnelles. L’objet reconstruit montre l’effet de débruitage et de déconvolution des données multispectrales. Nous avons obtenu une erreur relative n’excédant pas 5% à 30 dB et un temps d’exécution de 1 seconde pour l’algorithme de norm-l₂ et 20 secondes avec 50 itérations pour l’algorithme norm-l₂/l₁. C’est 10 fois plus rapide que la solution itérative calculée par l’algorithme de gradient conjugué. / This thesis deals with an inverse problem in astronomy. The objective is to reconstruct a spatio-spectral object, having spatial and spectral distributions, from a set of low-resolution multispectral data taken by the imager MIRI (Mid-InfraRed Instrument), which is on board the next space telescope James Webb Space Telescope (JWST). The observed multispectral data suffers from a spatial blur that varies according to the wavelength due to the spatial convolution with a shift-variant optical response (PSF). In addition the multispectral data also suffers from severe spectral degradations because of the spectral filtering and the integration by the detector over broad bands. The reconstruction of the original object is an ill-posed problem because of the severe lack of spectral information in the multispectral dataset. The difficulty then arises in choosing a representation of the object that allows the reconstruction of this spectral information. A common model used so far considers a spectral shift-invariant PSF per band, which neglects the spectral variation of the PSF. This simplistic model is only suitable for instruments with a narrow spectral band, which is not the case for the imager of MIRI. Our approach consists of developing an inverse problem framework that is summarized in four steps: (1) designing an instrument model that reproduces the observed multispectral data, (2) proposing an adapted model to represent the sought object, (3) exploiting all multispectral dataset jointly, and finally (4) developing a reconstruction method based on regularization methods by enforcing prior information to the solution. The overall reconstruction results obtained on simulated data of the JWST/MIRI imager show a significant increase of spatial and spectral resolutions of the reconstructed object compared to conventional methods. The reconstructed object shows a clear denoising and deconvolution of the multispectral data. We obtained a relative error below 5% at 30 dB, and an execution time of 1 second for the l₂-norm algorithm and 20 seconds (with 50 iterations) for the l₂/l₁-norm algorithm. This is 10 times faster than the iterative solution computed by conjugate gradients.
46

Imaging the bone cell network with nanoscale synchrotron computed tomography / Imagerie du réseau cellulaire osseux par nano-tomographie synchrotron

Joita Pacureanu, Alexandra 19 January 2012 (has links)
Les ostéocytes sont les plus nombreuses cellules du tissu osseux, enterrées dans la matrice osseuse. Elles sont interconnectées par des dendrites, situées dans des canaux appelés canalicules. Les lacunes ostéocytaires, les cavités dans lesquelles les cellules sont logées, avec les canalicules forment un réseau de communication à travers la matrice osseuse, permettant le transport des nutriments et des signaux. Ces cellules, considérées d’abord passives, ont révélé dernièrement leur rôle en tant que cellules mécanosensitives et orchestratrices du remodelage osseux. Malgré les progrès récents des techniques d'imagerie, aucune méthode disponible ne fournit une évaluation 3D adéquate du réseau lacuno-canaliculaire (LCN). Les objectifs de cette thèse ont porté sur l’imagerie 3D du LCN par tomographie synchrotron à rayons X (SR-CT), et le développement d’outils de détection et segmentation 3D de ce réseau cellulaire, afin de le quantifier et analyser. Nous démontrons la faisabilité de la SR-CT en géométrie parallèle pour imager le LCN dans le tissu osseux (voxel~300nm). Cette technique fournit des données 3D sur la morphologie du réseau cellulaire et aussi sur la composition de la matrice osseuse. Comparée aux méthodes d'imagerie 3D existantes, la SR-CT permet l'imagerie d’un volume de tissu beaucoup plus important, d'une manière plus simple et rapide. Cela rend possible l'étude de séries de spécimens afin d'obtenir des conclusions biomédicales. Nous proposons aussi l'utilisation de l’holotomographie divergente synchrotron, pour imager l'ultrastructure du tissu osseux (voxel~60nm). La reconstruction d'image fournit des cartes de phase, obtenues après application d'un algorithme d’inversion de phase adéquat. Cette technique a permis l'évaluation du réseau cellulaire avec une précision plus élevée et de visualiser, pour la première fois en 3D, l'organisation des fibres de collagène. Afin d'obtenir des résultats quantitatifs sur la géométrie du réseau cellulaire, celui doit être segmenté. À cause des limitations de la résolution spatiale, les canalicules apparaissent comme de structures tubulaires très fines (diamètre 1-3 voxels). Ceci, combiné avec le bruit, le faible contraste et la grande taille des images (8Go), rendent la segmentation difficile. Nous proposons une méthode de filtrage non-linéaire 3D, basée sur le rehaussement des structures linéaires, combiné avec un filtrage bilatéral. Cela permet une amélioration de la détection des canalicules, la réduction du bruit de fond et de la préservation des lacunes cellulaires. Pour la segmentation d'images, nous avons développé une méthode basée sur la croissance de région variationnelle. Nous proposons deux expressions de fonctionnelles d'énergie à minimiser, afin de détecter la structure souhaitée. Des résultats quantitatifs préliminaires sont obtenus à partir d’une analyse en composantes connexes sur des échantillons humaines et des observations relatives au réseau ostéocytaire sont présentés. / The osteocytes are the most abundant and longest living bone cells, embedded in the bone matrix. They are interconnected with each other through dendrites, located in slender canals called canaliculi. The osteocyte lacunae, cavities in which the cells are located, together with the canaliculi form a communication network throughout the bone matrix, permitting transport of nutrients, waste and signals. These cells were firstly considered passive, but lately it has become increasingly clear their role as mechanosensory cells and orchestrators of bone remodeling. Despite recent advances in imaging techniques, none of the available methods can provide an adequate 3D assessment of the lacuno-canalicular network (LCN). The aims of this thesis were to achieve 3D imaging of the LCN with synchrotron radiation X-ray computed tomography (SR-CT) and to develop tools for 3D detection and segmentation of this cell network, leading towards automatic quantification of this structure. We demonstrate the feasibility of parallel beam SR-CT to image in 3D the LCN (voxel~300 nm). This technique can provide data on both the morphology of the cell network and the composition of the bone matrix. Compared to the other 3D imaging methods, this enables imaging of tissue covering a number of cell lacunae three orders of magnitude greater, in a simpler and faster way. This makes possible the study of sets of specimens in order to reach biomedical conclusions. Furthermore, we propose the use of divergent holotomography, to image the ultrastructure of bone tissue (voxel~60 nm). The image reconstruction provides phase maps, obtained after the application of a suitable phase retrieval algorithm. This technique permits assessment of the cell network with higher accuracy and it enables the 3D organization of collagen fibres organization in the bone matrix, to be visualized for the first time. In order to obtain quantitative parameters on the geometry of the cell network, this has to be segmented. Due to the limitations in spatial resolution, canaliculi appear as 3D tube-like structures measuring only 1-3 voxels in diameter. This, combined with the noise, the low contrast and the large size of each image (8 GB), makes the segmentation a difficult task. We propose an image enhancement method, based on a 3D line filter combined with bilateral filtering. This enables improvement in canaliculi detection, reduction of the background noise and cell lacunae preservation. For the image segmentation we developed a method based on variational region growing. We propose two expressions for energy functionals to minimize in order to detect the desired structure, based on the 3D line filter map and the original image. Preliminary quantitative results on human femoral samples are obtained based on connected components analysis and a few observations related to the bone cell network and its relation with the bone matrix are presented.
47

Reconstruction et description des fonctions de distribution d'orientation en imagerie de diffusion à haute résolution angulaire / Reconstruction and description of the orientation distribution function of high angular resolution diffusion imaging

Sun, Changyu 02 December 2014 (has links)
Ce travail de thèse porte sur la reconstruction et la description des fonctions de distribution d'orientation (ODF) en imagerie de diffusion à haute résolution angulaire (HARDI) telle que l’imagerie par q-ball (QBI). Dans ce domaine, la fonction de distribution d’orientation (ODF) en QBI est largement utilisée pour étudier le problème de configuration complexe des fibres. Toutefois, jusqu’à présent, l’évaluation des caractéristiques ou de la qualité des ODFs reste essentiellement visuelle et qualitative, bien que l’utilisation de quelques mesures objectives de qualité ait également été reportée dans la littérature, qui sont directement empruntées de la théorie classique de traitement du signal et de l’image. En même temps, l’utilisation appropriée de ces mesures pour la classification des configurations des fibres reste toujours un problème. D'autre part, le QBI a souvent besoin d'un nombre important d’acquisitions pour calculer avec précision les ODFs. Ainsi, la réduction du temps d’acquisition des données QBI est un véritable défi. Dans ce contexte, nous avons abordé les problèmes de comment reconstruire des ODFs de haute qualité et évaluer leurs caractéristiques. Nous avons proposé un nouveau paradigme permettant de décrire les caractéristiques des ODFs de manière plus quantitative. Il consiste à regarder un ODF comme un nuage général de points tridimensionnels (3D), projeter ce nuage de points 3D sur un plan angle-distance (ADM), construire une matrice angle-distance (ADMAT), et calculer des caractéristiques morphologiques de l'ODF telles que le rapport de longueurs, la séparabilité et l'incertitude. En particulier, une nouvelle métrique, appelé PEAM (PEAnut Metric) et qui est basée sur le calcul de l'écart des ODFs par rapport à l’ODF (représenté par une forme arachide) d’une seule fibre, a été proposée et utilisée pour classifier des configurations intravoxel des fibres. Plusieurs méthodes de reconstruction des ODFs ont également été comparées en utilisant les paramètres proposés. Les résultats ont montré que les caractéristiques du nuage de points 3D peuvent être évaluées d'une manière relativement complète et quantitative. En ce qui concerne la reconstruction de l'ODF de haute qualité avec des données réduites, nous avons proposé deux méthodes. La première est basée sur une interpolation par triangulation de Delaunay et sur des contraintes imposées à la fois dans l’espace-q et dans l'espace spatial. La deuxième méthode combine l’échantillonnage aléatoire des directions de gradient de diffusion, le compressed sensing, l’augmentation de la densité de ré-échantillonnage, et la reconstruction des signaux de diffusion manquants. Les résultats ont montré que les approches de reconstruction des signaux de diffusion manquants proposées nous permettent d'obtenir des ODFs précis à partir d’un nombre relativement faible de signaux de diffusion. / This thesis concerns the reconstruction and description of orientation distribution functions (ODFs) in high angular resolution diffusion imaging (HARDI) such as q-ball imaging (QBI). QBI is used to analyze more accurately fiber structures (crossing, bending, fanning, etc.) in a voxel. In this field, the ODF reconstructed from QBI is widely used for resolving complex intravoxel fiber configuration problem. However, until now, the assessment of the characteristics or quality of ODFs remains mainly visual and qualitative, although the use of a few objective quality metrics is also reported that are directly borrowed from classical signal and image processing theory. At the same time, although some metrics such as generalized anisotropy (GA) and generalized fractional anisotropy (GFA) have been proposed for classifying intravoxel fiber configurations, the classification of the latters is still a problem. On the other hand, QBI often needs an important number of acquisitions (usually more than 60 directions) to compute accurately ODFs. So, reducing the quantity of QBI data (i.e. shortening acquisition time) while maintaining ODF quality is a real challenge. In this context, we have addressed the problems of how to reconstruct high-quality ODFs and assess their characteristics. We have proposed a new paradigm allowing describing the characteristics of ODFs more quantitatively. It consists of regarding an ODF as a general three-dimensional (3D) point cloud, projecting a 3D point cloud onto an angle-distance map (ADM), constructing an angle-distance matrix (ADMAT), and calculating morphological characteristics of the ODF such as length ratio, separability and uncertainty. In particular, a new metric, called PEAM (PEAnut Metric), which is based on computing the deviation of ODFs from a single fiber ODF represented by a peanut, was proposed and used to classify intravoxel fiber configurations. Several ODF reconstruction methods have also been compared using the proposed metrics. The results showed that the characteristics of 3D point clouds can be well assessed in a relatively complete and quantitative manner. Concerning the reconstruction of high-quality ODFs with reduced data, we have proposed two methods. The first method is based on interpolation by Delaunay triangulation and imposing constraints in both q-space and spatial space. The second method combines random gradient diffusion direction sampling, compressed sensing, resampling density increasing, and missing diffusion signal recovering. The results showed that the proposed missing diffusion signal recovering approaches enable us to obtain accurate ODFs with relatively fewer number of diffusion signals.
48

Simulation et reconstruction 3D à partir de caméra Compton pour l’hadronthérapie : Influence des paramètres d’acquisition / Simulation and reconstruction from Compton caméra for hadrontherapy : Influence of the acquisition parameters

Hilaire, Estelle 18 November 2015 (has links)
L'hadronthérapie est une méthode de traitement du cancer qui emploie des ions (carbone ou proton) au lieu des rayons X. Les interactions entre le faisceau et le patient produisent des radiations secondaires. Il existe une corrélation entre la position d'émission de certaines de ces particules et la position du pic de Bragg. Parmi ces particules, des gamma-prompt sont produits par les fragments nucléaires excités et des travaux actuels ont pour but de concevoir des systèmes de tomographie par émission mono-photonique capable d'imager la position d'émission ces radiations en temps réel, avec une précision millimétrique, malgré le faible nombre de données acquises. Bien que ce ne soit pas actuellement possible, le but in fine est de surveiller le dépôt de dose. La caméra Compton est un des système TEMP qui a été proposé pour imager ce type de particules, car elle offre une meilleure résolution énergétique et la possibilité d'avoir une image 3D. Cependant, en pratique l'acquisition est affectée par le bruit provenant d'autres particules secondaires, et les algorithmes de reconstruction des images Compton sont plus compliqués et encore peu aboutis, mais sur une bonne voie de développement. Dans le cadre de cette thèse, nous avons développé une chaîne complète allant de la simulation de l'irradiation d'un fantôme par un faisceau de protons allant jusqu'à la reconstruction tomographique des images obtenues à partir de données acquises par la caméra Compton. Nous avons étudié différentes méthodes de reconstruction analytiques et itératives, et nous avons développé une méthode de reconstruction itérative capable de prendre en compte les incertitudes de mesure sur l'énergie. Enfin nous avons développé des méthodes pour la détection de la fin du parcours des distributions gamma-prompt reconstruites. / Hadrontherapy is a cancer treatment method which uses ions (proton or carbon) instead of X-rays. Interactions between the beam and the patient produce secondary radiation. It has been shown that there is a correlation between the emission position of some of these particles and the Bragg peak position. Among these particles, prompt-gamma are produced by excited nuclear fragments and current work aims to design SPECT systems able to image the emission position the radiation in real time, with a millimetric precision, despite the low data statistic. Although it is not currently possible, the goal is to monitor the deposited dose. The Compton camera is a SPECT system that proposed for imaging such particles, because it offers a good energy resolution and the possibility of a 3D imaging. However, in practice the acquisition is affected by noise from other secondary particles and the reconstruction algorithms are more complex and not totally completed, but the developments are well advanced. In this thesis, we developed a complete process from the simulation of irradiation of a phantom by a proton beam up to the tomographic reconstruction of images obtained from data acquired by the Compton camera. We studied different reconstruction methods (analytical and iterative), and we have developed an iterative method able to consider the measurement uncertainties on energy. Finally we developed methods to detect the end-of-range of the reconstructed prompt-gamma distributions.

Page generated in 0.1179 seconds