• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 222
  • 31
  • 23
  • 19
  • 17
  • 8
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 379
  • 379
  • 147
  • 98
  • 76
  • 69
  • 64
  • 44
  • 44
  • 39
  • 39
  • 38
  • 36
  • 31
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Identifying the Histomorphometric Basis of Predictive Radiomic Markers for Characterization of Prostate Cancer

Penzias, Gregory 08 February 2017 (has links)
No description available.
322

Image reconstruction for Compton camera with application to hadrontherapy / Reconstruction d'images pour la caméra Compton avec application en hadronthérapie

Lojacono, Xavier 26 November 2013 (has links)
La caméra Compton est un dispositif permettant d’imager les sources de rayonnement gamma. Ses avantages sont sa sensibilité (absence de collimateur mécanique) et la possibilité de reconstruire des images 3D avec un dispositif immobile. Elle également adaptée pour des sources à large spectre énergétique. Ce dispositif est un candidat prometteur en médecine nucléaire et en hadronthérapie. Ces travaux, financés par le projet européen ENVISION (European NoVel Imaging Systems for ION therapy) Coopération-FP7, portent sur le développement de méthodes de reconstruction d’images pour la caméra Compton pour la surveillance de la thérapie par ions. Celle-ci nécessite idéalement une reconstruction temps réel avec une précision millimétrique, même si le nombre de données acquises est relativement faible. Nous avons développé des méthodes analytiques et itératives. Leurs performances sont analysées dans le contexte d’acquisitions réalistes (géométrie de la caméra, nombre d’événements). Nous avons développé une méthode analytique de rétroprojection filtrée. Cette méthode est rapide mais nécessite beaucoup de données. Nous avons également développé des méthodes itératives utilisant un algorithme de maximisation de la fonction de vraisemblance. Nous avons proposé un modèle probabiliste pour l’estimation des éléments de la matrice système nécessaire à la reconstruction et nous avons développé différentes approches pour le calcul de ses éléments : l’une néglige les incertitudes de mesure sur l’énergie, l’autre les prend en compte en utilisant une distribution gaussienne. Nous avons étudié une méthode simplifiée utilisant notre modèle probabiliste. Plusieurs reconstructions sont menées à partir de données simulées, obtenues avec Geant4, mais provenant aussi de plusieurs prototypes simulés de caméra Compton proposés par l’Institut de Physique Nucléaire de Lyon (IPNL) et par le Centre de recherche de Dresde-Rossendorf en Allemagne. Les résultats sont prometteurs et des études plus poussées, à partir de données encore plus réalistes, viseront à les confirmer. / The Compton camera is a device for imaging gamma radiation sources. The advantages of the system lie in its sensitivity, due to the absence of mechanical collimator, and the possibility of imaging wide energy spectrum sources. These advantages make it a promising candidate for application in hadrontherapy. Funded by the european project ENVISION, FP7-Cooperation Work Program, this work deals with the development of image reconstruction methods for the Compton camera. We developed both analytical and iterative methods in order to reconstruct the source from cone-surface projections. Their performances are analyzed with regards to the context (geometry of the camera, number of events). We developped an analytical method using a Filtered BackProjection (FBP) formulation. This method is fast but really sensitive to the noise. We have also developped iterative methods using a List Mode-Maximum Likelihood Expectation Maximization (LM-MLEM) algorithm. We proposed a new probabilistic model for the computation of the elements of the system matrix and different approaches for the calculation of these elements neglecting or not the measurement uncertainties. We also implemented a simplified method using the probabilistic model we proposed. The novelty of the method also lies on the specific discretization of the cone-surface projections. Several studies are carried out upon the reconstructions of simulated data worked out with Geant4, but also simulated data obtained from several prototypes of Compton cameras under study at the Institut de Physique Nucléaire de Lyon (IPNL) and at the Research Center of Dresden-Rossendorf. Results are promising, and further investigations on more realistic data are to be done.
323

Rekonstrukce chybějících části obličeje pomocí neuronové sítě / Reconstruction of Missing Parts of the Face Using Neural Network

Marek, Jan January 2020 (has links)
Cílem této práce je vytvořit neuronovou síť která bude schopna rekonstruovat obličeje z fotografií na kterých je část obličeje překrytá maskou. Jsou prezentovány koncepty využívané při vývoji konvolučních neuronových sítí a generativních kompetitivních sítí. Dále jsou popsány koncepty používané v neuronových sítích specificky pro rekonstrukci fotografií obličejů. Je představen model generativní kompetitivní sítě využívající kombinaci hrazených konvolučních vrstev a víceškálových bloků schopný realisticky doplnit oblasti obličeje zakryté maskou.
324

Real-time adaptive-optics optical coherence tomography (AOOCT) image reconstruction on a GPU

Shafer, Brandon Andrew January 2014 (has links)
Indiana University-Purdue University Indianapolis (IUPUI) / Adaptive-optics optical coherence tomography (AOOCT) is a technology that has been rapidly advancing in recent years and offers amazing capabilities in scanning the human eye in vivo. In order to bring the ultra-high resolution capabilities to clinical use, however, newer technology needs to be used in the image reconstruction process. General purpose computation on graphics processing units is one such way that this computationally intensive reconstruction can be performed in a desktop computer in real-time. This work shows the process of AOOCT image reconstruction, the basics of how to use NVIDIA's CUDA to write parallel code, and a new AOOCT image reconstruction technology implemented using NVIDIA's CUDA. The results of this work demonstrate that image reconstruction can be done in real-time with high accuracy using a GPU.
325

Plus loin avec la mission spatiale Gaia grâce à l'analyse des objets étendus

Garcez de Oliveira Krone Martins, Alberto 18 March 2011 (has links)
Ce travail a comme objectif principal de vérifier s’il est possible de faire de la science avec les observations d’objets étendus qui seront réalisées par la mission spatiale Gaia. Cette mission, l’un des plus ambitieux projets de l’Astronomie moderne,observera plus d’un milliard d’objets dans tout le ciel avec des précisions inédites, fournissant des données astrométriques, photométriques et spectroscopiques. Naturellement, en fonction de sa priorité astrométrique, Gaia a été optimisé pour l’étude d’objets ponctuels. Néanmoins, diverses sources associées à des émissions étendues seront observées. Ces émissions peuvent avoir une origine intrinsèque, telles que les galaxies, ou extrinsèque, telles que les projections d’objets distincts sur la même ligne de visée, et présenteront probablement de solutions astrométriques moins bonnes.Pour étudier ces émissions, leurs images bidimensionnelles doivent être analysées.Néanmoins, comme Gaia ne produit pas de telles données, nous avons commencé ce travail en vérifiant si à partir de ses observations unidimensionnelles il serait possible de reconstruire des images 2D d’objets dans tout le ciel.Nous avons ainsi estimé la quantité de cas sujets à la présence d’émissions étendues extrinsèques, et nous avons présenté une méthode que nous avons développée pour analyser leurs images reconstruites. Nous avons montré que l’utilisation de cette méthode permettra d’étendre le catalogue final de façon fiable à des millions de sources ponctuelles dont beaucoup dépasseront la magnitude limite de l’instrument.D’un autre coté, dans le cas d’émissions intrinsèques, nous avons premièrement obtenu une estimation supérieure du nombre de cas que Gaia pourra observer. Nous avons alors vérifié qu’après les reconstructions d’images, les codes que nous avons développés permettront de classifier morphologiquement des millions de galaxies dans les types précoce/tardif et elliptique/spirale/irrégulière. Nous avons de plus présenté une méthode que nous avons développée pour réaliser la décomposition bulbe/disque directement à partir des observations unidimensionnelles de Gaia de façon complètement automatique.Finalement nous avons conclu qu’il est possible d’utiliser beaucoup de ces données qui pourraient être ignorées pour faire de la science. Et que le fait de les exploiter permettra aussi bien la détection de millions d’objets qui dépassent la limite de magnitude de Gaia, que de mener des études sur la morphologie de millions de galaxies dont les structures ne peuvent être révélées qu’à partir de l’espace ou au moyen d’optique adaptative, augmentant un peu plus les horizons de cette mission déjà immense. / The main objective of this work is to determine whether it is possible to do science from the observations of extended objects that will be performed by the Gaia space mission. One of the most ambitious projects of modern Astronomy, this mission will observe more than one billion objects through out the sky, thus providing astrometric, photometric and spectroscopic data with unprecedented precision. Naturally, Gaia has been optimized for the study of point-like sources due to its astrometrical priority. Nevertheless, many sources associated with extended emission will be observed. The origins of these extended sources can be either intrinsic, such as galaxies, or extrinsic, such as projections of objects in the same line of sight. In both cases, these sources will have less than optimal astrometric solutions.In order to study those emissions, their two-dimensional images will be analyzed. Nonetheless, since Gaia will not acquire such images, we begin this work by checking whether it will be possible to reconstruct images anywhere in the sky from the satellite’s one-dimensional observations.Consequently, we, on the one hand, estimate the number of cases which will be subjected to the extrinsic extended emissions, present a method which we developed to analyze the reconstructed images by segregating the different sources and show that the adoption of this method will allow extending the catalogue reliably by millions of point sources, many of which are beyond the limiting magnitude of the instrument. On the other hand, regarding intrinsic extended emissions, we first obtain an upper limit estimate for the number of cases which Gaia will be able to observe ; then,we verify that the combination of image reconstructions and the use of the codes introduced here in will allow performing the morphological classification of millions of galaxies in early/late types and elliptical/spiral/irregular classes. Afterward,we present a method which we developed to decompose those galaxies into their bulge/disk components directly from the one-dimensional Gaia data in a completely automatic way. Finally, we conclude that it is possible to harness the data of many of the observations that might other wise be ignored to do science. Saving these data will allow the detection of millions of objects beyond Gaia’s limiting magnitude and the study of the morphology of millions of galaxies whose structures can only be probed from space or through the adoption of adaptive optics, thus somewhat expanding the horizons of this already comprehensive mission.
326

Développements méthodologiques et techniques pour le contrôle qualité en imagerie par résonance magnétique / Technical and methodological development for Magnetic Resonance Imaging quality control

Sewonu, Anou 27 January 2014 (has links)
De plus en plus utilisée en routine clinique, l'Imagerie par Résonance Magnétique (IRM) est très fréquemment associée à d'autres modalités d'imagerie médicale dans le cadre d'études multicentriques. Elle est également utilisée à des fins de quantification et sa technologie se complexifie, notamment avec l'utilisation croissante d'antennes en réseau phasé. Ces raisons contribuent à amplifier le besoin d'assurance qualité car il importe de surveiller les performances des appareils cliniques afin de se prémunir d'erreurs de diagnostic que leurs dérives peuvent entrainer. Des travaux, très tôt engagés sur le contrôle qualité (CQ) en IRM, ont posé les bases pour la conception d'objets-test et des mesures physiques nécessaires au suivi. Ces travaux ont aussi permis de dégager deux approches pour les procédures de CQ en IRM, à savoir des approches mono-objet et multi-objet. Les travaux menés poursuivent le premier objectif de développer une méthodologie de suivi périodique des appareils d'IRM qui soit pratique, peu chronophage, statistiquement robuste et compatible avec différents appareils. L'approche mono-objet issue des travaux de l'American College of Radiology a été choisie pour élaborer la procédure. Les travaux ont porté sur les principaux aspects du processus de réalisation des tests. La procédure hebdomadaire résultante, d'une durée de réalisation inférieure à 10 min, a été testée avec succès sur 6 sites disposant d'appareils de différentes gammes. Le deuxième objectif porte sur le contrôle spécifique des antennes en réseau phasé. Ceux-ci sont essentiellement caractérisés par deux paramètres qui ont été identifiés comme déterminants pour la reconstruction et la qualité des images. Il s'agit des profils de sensibilité des antennes et des corrélations en termes de bruit d'acquisition. Deux métriques ont été élaborées pour surveiller ces deux paramètres. Une technique alternative a également été développée pour calculer les covariances de bruit. Enfin, cette thèse propose quelques pistes pour mettre les outils de CQ au service d'applications cliniques ciblées. Les travaux engagés en ce sens ouvrent des perspectives intéressantes pour l'utilisation de techniques de CQ dans le cadre d'applications cliniques ciblées / Magnetic Resonance Imaging (MRI) is increasingly being used in clinical routine and is frequently associated with different imaging modalities in multisite studies. Besides, MRI is becoming more complex with a growing use of phased-array coils. Hence there is a rising eagerness for quality assurance and quality control (QC). Indeed, monitoring MR systems is required in order to prevent from diagnostic errors which may be induced by drifts in the instrumentation. The ever first studies about MRI QC issue established the basis for designing test-objects and metrics which are required for monitoring the scanners. These works also resulted in two approaches for performing the testings : the first one is multi-object oriented and the second one is single-object oriented. The research conducted for this thesis are motivated by two objectives : the first one holds about designing a methodology for performing periodic monitoring of MR scanners. The procedure is required to be practical, shortly-timed, statistically robust, and system-independent. It was designed following the single-object approach promoted by the American College of Radiology. In order to fit the procedure with its specifications, all of its aspects were assessed. The resulting 10-minute weekly QC procedure was successfully tested on several MR facilities. The second goal of these works is about specifically assessing the performance of phased-array coils. Using these coils, two parameters were considered as being essential for image quality considerations, namely the sensitivity profiles and the noise covariance matrix. For monitoring these parameters, two metrics were designed in a way that they could be integrated within the weekly QC procedure. Besides, an alternative method was proposed for computing noise covariance matrices. As a matter of prospects, these doctoral works sought clinical applications which may take advantage of the techniques and methodology elaborated for QC purposes. There are interesting insights about using QC techniques in support of targeted clinical MR applications
327

Mise en oeuvre d'un système de reconstruction adaptif pour l'IRM 3D des organes en mouvement / Implementation of an adaptive reconstruction system for 3D MRI of moving organs

Menini, Anne 09 December 2013 (has links)
L'Imagerie par Résonance Magnétique (IRM) présente deux caractéristiques principales. La première, sa capacité à manipuler le contraste, constitue son principal avantage par rapport aux autres modalités d'imagerie. Cela permet d'obtenir des informations complémentaires pour une meilleure détectabilité et une meilleure précision dans le diagnostic. Cela est particulièrement appréciable pour les pathologies du myocarde. La seconde caractéristique de l'IRM est également l'un de ces principaux inconvénients : le processus d'acquisition est relativement lent. De ce fait, les mouvements du patient constituent un obstacle important puisqu'ils perturbent ce processus d'acquisition, ce qui se traduit par des artéfacts dans l'image reconstruite. L'imagerie cardiaque et abdominale sont donc particulièrement sensibles à cette problématique du mouvement. L'objectif de cette thèse est donc de proposer une méthode de correction de mouvement intégrable dans un contexte multi-contraste. Nous avons étudié dans un premier temps la question de la correction de mouvement seule. Pour cela, nous nous sommes plus particulièrement intéressés à la méthode GRICS déjà développée au laboratoire IADI. Cette méthode permet la reconstruction conjointe d'une image sans artéfact et d'un modèle de mouvement non rigide permettant de corriger les déplacements qui surviennent pendant l'acquisition. Le premier apport majeur de cette thèse a consisté à améliorer la méthode GRICS, notamment pour l'adapter à l'imagerie volumique 3D. Il s'agit d'une nouvelle méthode de régularisation adaptative particulièrement adaptée au problème inverse posé dans GRICS. Le second apport majeur de cette thèse a consisté à gérer la correction de mouvement GRICS de manière conjointe sur des acquisitions présentant des contrastes différents. Il s'agit de concevoir l'examen IRM comme un tout et d'exploiter au mieux les informations partagées entre les différents contrastes. Toutes ces méthodes ont été appliquées et validées par des simulations, des tests sur fantôme, sur volontaires sains et sur des patients dans la cadre d'études cliniques. L'application cardiaque a été particulièrement visée. Les méthodes développées ont permis d'améliorer le processus d'acquisition et de reconstruction dans le contexte clinique réel / Magnetic Resonance Imaging (MRI) has two main features. The first one, its ability to manipulate contrast, is a major advantage compared to the other imaging modalities. It allows to access complementary information for a better detectability and a diagnostic more accurate. This is especially useful for myocardium pathologies. The second feature of MRI is also one of its main drawbacks: the acquisition process is slow. Therefore, patient motion is a significant obstacle because it disturbs the acquisition process, which leads to artifacts in the reconstructed image. Cardiac and thoracic imaging are particularly sensitive to this motion issue. The aim of this thesis is to develop a new motion correction method that can be integrated in a multi-contrast workflow. In a first phase, we studied apart the motion correction problem. To do so, we focused more particularly on the GRICS method which was already developed in the IADI laboratory. This method allows the joint reconstruction of an image free from artifact and a non-rigid motion model that describes the displacements occurring during the acquisition. The first major contribution of this thesis is an improvement of the GRICS method consisting mainly in adapting it to the 3D imaging. This was achieved with a new adaptive regularization method that perfectly suits the inverse problem posed in GRICS. The second major contribution of this thesis consists in the simultaneous management of the motion correction on multiple acquisitions with different contrasts. To do so, the MRI examination is considered as a whole. Thus we make the most of information shared between the different contrasts. All these methods have been applied and validated by simulations, tests on phantom, on healthy volunteers and on patients as part of clinical studies. We aimed more particularly at cardiac MR. Finally the developed methods improve the acquisition and reconstruction workflow in the framework of a real clinical routine
328

Co-registration of fluorescence diffuse optical tomography (fDOT) with Positron emission tomography (PET) and development of multi-angle fDOT / Recalage d’image de la tomographie optique diffuse de fluorescence (fDOT) et la tomographie par émission de positons (TEP) et le développement de tomographie optique en multi-angle

Tong, Xiao 24 October 2012 (has links)
Ce travail de thèse concerne le traitement d’image fDOT (fDOT pour fluorescence diffuse optical tomography) suit vers deux axes. Le recalage d'images fDOT à l’aide de l’imagerie TEP (tomographie par émission de positons) et l’amélioration des reconstructions fDOT à l’aide de miroirs pour collecter des projections complémentaires. Il est présenté en deux parties : Dans la première partie, une méthode automatique pour recaler les images de fDOT avec les images de Tomographie par Emission de Positons (TEP) développée dans le but de corréler l’ensemble des informations issues de chaque modalité. Cette méthode de recalage est basée sur une détection automatique de marqueurs fiduciaires présents dans les deux modalités. La particularité de cette méthode est l’utilisation de l’image de surface obtenue en fDOT, qui sert à identifier la position en Z des marqueurs fiduciaires dans les images optiques. Nous avons testé cette méthode sur un modèle de souris porteuses de xénogreffes de tumeurs de cellules cancéreuses MEN2A qui imitent un carcinome thyroïdien médullaire humain, après une double injection de traceur radioactif : [18F]2-fluoro-2-Deoxy-D-glucose (FDG) pour l’imagerie TEP et un traceur optique d’infrarouge fluorescent, le Sentidye. Grâce à la précision de notre méthode, nous arrivons à démontrer que le signal Sentidye est présent à la fois dans la tumeur et les vaisseaux environnants [1]. La qualité des images fDOT est dégradée selon l’axe Z du fait d’un nombre limité de projections pour la reconstruction. Dans la deuxième partie, le travail s’est orienté vers une nouvelle méthode de reconstruction d’images fDOT à partir d’un nouveau système d’acquisition multi-angulaire avec deux miroirs placés de chaque côté de l’animal. Ce travail a été mené en collaboration avec le département CS d’University College London (UCL), partenaire du projet Européen FMT-XCT. Le logiciel TOAST développé par cette équipe a été utilisé comme source pour l’algorithme de reconstruction, et modifié pour s’adapter à notre problématique. Après plusieurs essais concernant l’ajustement des paramètres du programme, nous avons appliqué cette méthode sur un fantôme réaliste des tissus biologiques et chez la souris. Les résultats montrent une amélioration de l’image reconstruite d’un fantôme semi-cylindrique et de l’image de rein chez la souris, pour lesquelles la méthode des miroirs est supérieure à la méthode classique sans miroir. Malgré tout, nous avons observé que les résultats étaient très sensibles à certains paramètres, d’où une performance de reconstruction variable d’un cas à l’autre. Les perspectives futures concernent l’optimisation des paramètres afin de généraliser l’approche multi-angle. / This thesis concerns the image processing of fluorescence diffuse optical tomography (fDOT), following two axes: FDOT image co-registration with PET (positron emission tomography) image and improvement of fDOT image reconstructions using mirrors to collect additional projections. It is presented in two parts:In the first part, an automatic method to co-register the fDOT images with PET images has been developed to correlate all the information from each modality. This co-registration method is based on automatic detection of fiducial markers (FM) present in both modalities. The particularity of this method is the use of optical surface image obtained in fDOT imaging system, which serves to identify the Z position of FM in optical images. We tested this method on a model of mice bearing tumor xenografts of MEN2A cancer cells that mimic a human medullary thyroid carcinoma, after a double injection of radiotracer [18F] 2-fluoro-2-Deoxy-D-glucose ( FDG) for PET imaging and optical fluorescent infrared tracer Sentidye. With the accuracy of our method, we can demonstrate that the signal of Sentidye is present both in the tumor and surrounding vessels.The fDOT reconstruction image quality is degraded along the Z axis due to a limited number of projections for reconstruction. In the second part, the work is oriented towards a new method of fDOT image reconstruction with a new multi-angle data acquisition system in placing two mirrors on each side of the animal. This work was conducted in collaboration with the CS Department of University College London (UCL), a partner of the European project FMT-XCT. TOAST software developed by this team was used as source code for the reconstruction algorithm, and was modified to adapt to the concerned problem. After several tests on the adjustment of program parameters, we applied this method on a phantom that simulating the biological tissue and on mice. The results showed an improvement in the reconstructed image of a semi-cylindrical phantom and the image of mouse kidney, for which the reconstruction of the mirrors geometry is better than that of conventional geometry without mirror. Nevertheless, we observed that the results were very sensitive to certain parameters, where the performance of reconstruction varies from one case to another. Future prospectives concern the optimization of parameters in order to generalize the multi-angle approach.
329

Développement d’algorithmes d’imagerie et de reconstruction sur architectures à unités de traitements parallèles pour des applications en contrôle non destructif / Development of imaging and reconstructions algorithms on parallel processing architectures for applications in non-destructive testing

Pedron, Antoine 28 May 2013 (has links)
La problématique de cette thèse se place à l’interface entre le domaine scientifique du contrôle non destructif par ultrasons (CND US) et l’adéquation algorithme architecture. Le CND US comprend un ensemble de techniques utilisées pour examiner un matériau, qu’il soit en production ou maintenance. Afin de détecter d’éventuels défauts, de les positionner et les dimensionner, des méthodes d’imagerie et de reconstruction ont été développées au CEA-LIST, dans la plateforme logicielle CIVA.L’évolution du matériel d’acquisition entraine une augmentation des volumes de données et par conséquent nécessite toujours plus de puissance de calcul pour parvenir à des reconstructions en temps interactif. L’évolution multicoeurs des processeurs généralistes (GPP), ainsi que l’arrivée de nouvelles architectures comme les GPU rendent maintenant possible l’accélération de ces algorithmes.Le but de cette thèse est d’évaluer les possibilités d’accélération de deux algorithmes de reconstruction sur ces architectures. Ces deux algorithmes diffèrent dans leurs possibilités de parallélisation. Pour un premier, la parallélisation sur GPP est relativement immédiate, contrairement à celle sur GPU qui nécessite une utilisation intensive des instructions atomiques. Quant au second, le parallélisme est plus simple à exprimer, mais l’ordonnancement des nids de boucles sur GPP, ainsi que l’ordonnancement des threads et une bonne utilisation de la mémoire partagée des GPU sont nécessaires pour obtenir un fonctionnement efficace. Pour ce faire, OpenMP, CUDA et OpenCL ont été utilisés et comparés. L’intégration de ces prototypes dans la plateforme CIVA a mis en évidence un ensemble de problématiques liées à la maintenance et à la pérennisation de codes sur le long terme. / This thesis work is placed between the scientific domain of ultrasound non-destructive testing and algorithm-architecture adequation. Ultrasound non-destructive testing includes a group of analysis techniques used in science and industry to evaluate the properties of a material, component, or system without causing damage. In order to characterize possible defects, determining their position, size and shape, imaging and reconstruction tools have been developed at CEA-LIST, within the CIVA software platform.Evolution of acquisition sensors implies a continuous growth of datasets and consequently more and more computing power is needed to maintain interactive reconstructions. General purprose processors (GPP) evolving towards parallelism and emerging architectures such as GPU allow large acceleration possibilities than can be applied to these algorithms.The main goal of the thesis is to evaluate the acceleration than can be obtained for two reconstruction algorithms on these architectures. These two algorithms differ in their parallelization scheme. The first one can be properly parallelized on GPP whereas on GPU, an intensive use of atomic instructions is required. Within the second algorithm, parallelism is easier to express, but loop ordering on GPP, as well as thread scheduling and a good use of shared memory on GPU are necessary in order to obtain efficient results. Different API or libraries, such as OpenMP, CUDA and OpenCL are evaluated through chosen benchmarks. An integration of both algorithms in the CIVA software platform is proposed and different issues related to code maintenance and durability are discussed.
330

RECONSTRUCTION OF HIGH-SPEED EVENT-BASED VIDEO USING PLUG AND PLAY

Trevor D. Moore (5930756) 16 January 2019 (has links)
<div>Event-Based cameras, also known as neuromophic cameras or dynamic vision sensors, are an imaging modality that attempt to mimic human eyes by asynchronously measuring contrast over time. If the contrast changes sufficiently then a 1-bit event is output, indicating whether the contrast has gone up or down. This stream of events is sparse, and its asynchronous nature allows the pixels to have a high dynamic range and high temporal resolution. However, these events do not encode the intensity of the scene, resulting in an inverse problem to estimate intensity images from the event stream. Hybrid event-based cameras, such as the DAVIS camera, provide a reference intensity image that can be leveraged when estimating the intensity at each pixel during an event. Normally, inverse problems are solved by formulating a forward and prior model and minimizing the associated cost, however, for this problem, the Plug and Play (P&P) algorithm is used to solve the inverse problem. In this case, P&P replaces the prior model subproblem with a denoiser, making the algorithm modular, easier to implement. We propose an idealized forward model that assumes the contrast steps measured by the DAVIS camera are uniform in size to simplify the problem. We show that the algorithm can swiftly reconstruct the scene intensity at a user-specified frame rate, depending on the chosen denoiser’s computational complexity and the selected frame rate.</div>

Page generated in 0.0974 seconds