• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 18
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 64
  • 38
  • 34
  • 33
  • 29
  • 24
  • 21
  • 21
  • 21
  • 16
  • 13
  • 12
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Image reconstruction for Compton camera with application to hadrontherapy / Reconstruction d'images pour la caméra Compton avec application en hadronthérapie

Lojacono, Xavier 26 November 2013 (has links)
La caméra Compton est un dispositif permettant d’imager les sources de rayonnement gamma. Ses avantages sont sa sensibilité (absence de collimateur mécanique) et la possibilité de reconstruire des images 3D avec un dispositif immobile. Elle également adaptée pour des sources à large spectre énergétique. Ce dispositif est un candidat prometteur en médecine nucléaire et en hadronthérapie. Ces travaux, financés par le projet européen ENVISION (European NoVel Imaging Systems for ION therapy) Coopération-FP7, portent sur le développement de méthodes de reconstruction d’images pour la caméra Compton pour la surveillance de la thérapie par ions. Celle-ci nécessite idéalement une reconstruction temps réel avec une précision millimétrique, même si le nombre de données acquises est relativement faible. Nous avons développé des méthodes analytiques et itératives. Leurs performances sont analysées dans le contexte d’acquisitions réalistes (géométrie de la caméra, nombre d’événements). Nous avons développé une méthode analytique de rétroprojection filtrée. Cette méthode est rapide mais nécessite beaucoup de données. Nous avons également développé des méthodes itératives utilisant un algorithme de maximisation de la fonction de vraisemblance. Nous avons proposé un modèle probabiliste pour l’estimation des éléments de la matrice système nécessaire à la reconstruction et nous avons développé différentes approches pour le calcul de ses éléments : l’une néglige les incertitudes de mesure sur l’énergie, l’autre les prend en compte en utilisant une distribution gaussienne. Nous avons étudié une méthode simplifiée utilisant notre modèle probabiliste. Plusieurs reconstructions sont menées à partir de données simulées, obtenues avec Geant4, mais provenant aussi de plusieurs prototypes simulés de caméra Compton proposés par l’Institut de Physique Nucléaire de Lyon (IPNL) et par le Centre de recherche de Dresde-Rossendorf en Allemagne. Les résultats sont prometteurs et des études plus poussées, à partir de données encore plus réalistes, viseront à les confirmer. / The Compton camera is a device for imaging gamma radiation sources. The advantages of the system lie in its sensitivity, due to the absence of mechanical collimator, and the possibility of imaging wide energy spectrum sources. These advantages make it a promising candidate for application in hadrontherapy. Funded by the european project ENVISION, FP7-Cooperation Work Program, this work deals with the development of image reconstruction methods for the Compton camera. We developed both analytical and iterative methods in order to reconstruct the source from cone-surface projections. Their performances are analyzed with regards to the context (geometry of the camera, number of events). We developped an analytical method using a Filtered BackProjection (FBP) formulation. This method is fast but really sensitive to the noise. We have also developped iterative methods using a List Mode-Maximum Likelihood Expectation Maximization (LM-MLEM) algorithm. We proposed a new probabilistic model for the computation of the elements of the system matrix and different approaches for the calculation of these elements neglecting or not the measurement uncertainties. We also implemented a simplified method using the probabilistic model we proposed. The novelty of the method also lies on the specific discretization of the cone-surface projections. Several studies are carried out upon the reconstructions of simulated data worked out with Geant4, but also simulated data obtained from several prototypes of Compton cameras under study at the Institut de Physique Nucléaire de Lyon (IPNL) and at the Research Center of Dresden-Rossendorf. Results are promising, and further investigations on more realistic data are to be done.
62

Proton computed tomography / Tomographie proton informatisée

Quiñones, Catherine Thérèse 28 September 2016 (has links)
L'utilisation de protons dans le traitement du cancer est largement reconnue grâce au parcours fini des protons dans la matière. Pour la planification du traitement par protons, l'incertitude dans la détermination de la longueur du parcours des protons provient principalement de l'inexactitude dans la conversion des unités Hounsfield (obtenues à partir de tomographie rayons X) en pouvoir d'arrêt des protons. La tomographie proton (pCT) est une solution attrayante car cette modalité reconstruit directement la carte du pouvoir d'arrêt relatif à l'eau (RSP) de l'objet. La technique pCT classique est basée sur la mesure de la perte d'énergie des protons pour reconstruire la carte du RSP de l'objet. En plus de la perte d'énergie, les protons subissent également des diffusions coulombiennes multiples et des interactions nucléaires qui pourraient révéler d'autres propriétés intéressantes des matériaux non visibles avec les cartes de RSP. Ce travail de thèse a consisté à étudier les interactions de protons au travers de simulations Monte Carlo par le logiciel GATE et d'utiliser ces informations pour reconstruire une carte de l'objet par rétroprojection filtrée le long des chemins les plus vraisemblables des protons. Mise à part la méthode pCT conventionnelle par perte d'énergie, deux modalités de pCT ont été étudiées et mises en œuvre. La première est la pCT par atténuation qui est réalisée en utilisant l'atténuation des protons pour reconstruire le coefficient d'atténuation linéique des interactions nucléaires de l'objet. La deuxième modalité pCT est appelée pCT par diffusion qui est effectuée en mesurant la variation angulaire due à la diffusion coulombienne pour reconstruire la carte de pouvoir de diffusion, liée à la longueur de radiation du matériau. L'exactitude, la précision et la résolution spatiale des images reconstruites à partir des deux modalités de pCT ont été évaluées qualitativement et quantitativement et comparées à la pCT conventionnelle par perte d'énergie. Alors que la pCT par perte d'énergie fournit déjà les informations nécessaires pour calculer la longueur du parcours des protons pour la planification du traitement, la pCT par atténuation et par diffusion donnent des informations complémentaires sur l'objet. D'une part, les images pCT par diffusion et par atténuation fournissent une information supplémentaire intrinsèque aux matériaux de l'objet. D'autre part, dans certains des cas étudiés, les images pCT par atténuation démontrent une meilleure résolution spatiale dont l'information fournie compléterait celle de la pCT par perte d'énergie. / The use of protons in cancer treatment has been widely recognized thanks to the precise stopping range of protons in matter. In proton therapy treatment planning, the uncertainty in determining the range mainly stems from the inaccuracy in the conversion of the Hounsfield units obtained from x-ray computed tomography to proton stopping power. Proton CT (pCT) has been an attractive solution as this modality directly reconstructs the relative stopping power (RSP) map of the object. The conventional pCT technique is based on measurements of the energy loss of protons to reconstruct the RSP map of the object. In addition to energy loss, protons also undergo multiple Coulomb scattering and nuclear interactions which could reveal other interesting properties of the materials not visible with the RSP maps. This PhD work is to investigate proton interactions through Monte Carlo simulations in GATE and to use this information to reconstruct a map of the object through filtered back-projection along the most likely proton paths. Aside from the conventional energy-loss pCT, two pCT modalities have been investigated and implemented. The first one is called attenuation pCT which is carried out by using the attenuation of protons to reconstruct the linear inelastic nuclear cross-section map of the object. The second pCT modality is called scattering pCT which is performed by utilizing proton scattering by measuring the angular variance to reconstruct the relative scattering power map which is related to the radiation length of the material. The accuracy, precision and spatial resolution of the images reconstructed from the two pCT modalities were evaluated qualitatively and quantitatively and compared with the conventional energy-loss pCT. While energy-loss pCT already provides the information needed to calculate the proton range for treatment planning, attenuation pCT and scattering pCT give complementary information about the object. For one, scattering pCT and attenuation pCT images provide an additional information intrinsic to the materials in the object. Another is that, in some studied cases, attenuation pCT images demonstrate a better spatial resolution and showed features that would supplement energy-loss pCT reconstructions.
63

Uralt, ewig neu

Hennewig, Lena 13 November 2020 (has links)
Ausgehend von Oskar Schlemmers (1888-1943) Bauhaus-Signet aus dem Jahr 1923 analysiert diese Arbeit den Zusammenhang zwischen Mensch und Raum im Œuvre des Bauhaus-Meisters. Die bei Betrachtung des Signets aufkommende These, Mensch und Raum – die zwei tradierten Pole des Schaffens Schlemmers – bedingten sich gegenseitig, wird untersucht, hinterfragt und um die Kategorie der Kunstfigur erweitert. Das erste Kapitel beleuchtet den Menschen als Maß aller Dinge. Der angestrebte Typus entsteht einerseits über Schlemmers Analyse des menschlichen Körpers mittels tradierter Proportionsstudien und Geometrisierung, die zu einer zumindest scheinbaren Berechenbarkeit führen. Betrachtet werden hierbei die Ausführungen Leonardo da Vincis, Albrecht Dürers und Adolf Zeisings. Andererseits nutzt Schlemmer die physiognomischen Überlegungen Richarda Huchs und Carl Gustav Carus‘ für seine Zwecke der Darstellung einer Entindividualisierung des Menschen. Hierauf aufbauend befasst sich das zweite Kapitel mit dem Raum. Es zeigt, dass Schlemmers Überlegungen zu theoretischem und gebautem Raum ihren Ursprung in Albert Einsteins Relativitätstheorie nehmen und von Debatten am Bauhaus genährt werden: Schlemmer betrachtet den Raum als wandelbar und abhängig vom Menschen, was unter anderem durch eigene Schriften und den einzig überlieferten Architekturentwurf Schlemmers gefestigt wird. Zur Untersuchung einer umgekehrten Einflussnahme des Raumes auf den menschlichen Körper erweitert das dritte Kapitel die zwei tradierten Pole des Schlemmer’schen Œuvres um einen weiteren: die Kunstfigur. Diese, so belegt das Kapitel, generiert ihre eigene Körperlichkeit über den Einfluss des veränderlichen Raumes, darüber hinaus aber auch durch die Abstrahierung des zugrundeliegenden menschlichen Körpers mittels des Kostüms und der Maske. Über diese beiden wiederum vollzieht sich auch eine Wandlung des Menschen. / Taking the Bauhaus signet, designed by Oskar Schlemmer in 1923, as a starting point, the present thesis examines the relationship between man and space – the two consistently named poles of Schlemmer’s work – within the œuvre of the Bauhaus master. It analyzes, questions and expands the assumption, at first glance suggested by the signet, that space and man are mutually dependent: The first chapter deals with man as the measure of all things. The type pursued by Schlemmer results, on the one hand, from his analysis of man via proportion and geometric studies by Leonardo da Vinci, Albrecht Dürer and Adolf Zeising that lead to a certain calculability. On the other hand, Schlemmer uses physiognomic ideas of Richarda Huch and Carl Gustav Carus to depict a certain de-individualization. Based on the results of the first chapter, the second chapter deals with questions of space. It shows that Schlemmer’s considerations of theoretical space and architecture stem from Albert Einstein’s theory of relativity and are fed by Bauhaus debates on that same topic: Schlemmer regards space and architecture as subject to change and dependent on man; this theory is also strengthened by his writings and his only surviving architectural design. To examine the reverse influence of space on the human body, the third chapter adds the Kunstfigur (art figure) as another category to the established two poles of Schlemmer’s œuvre discussed in the literature: man and space. The chapter proves that the Kunstfigur generates its own corporeality through the influence of space, which is modifiable by movement. Besides that, said corporeality is also determined by an abstraction, in turn caused by costumes and masks. These items also influence the outer appearance of man.
64

Iterative tomographic X-Ray phase reconstruction / Reconstruction tomographique itérative de phase

Weber, Loriane 30 September 2016 (has links)
L’imagerie par contraste de phase suscite un intérêt croissant dans le domaine biomédical, puisqu’il offre un contraste amélioré par rapport à l’imagerie d’atténuation conventionnelle. En effet, le décalage en phase induit par les tissus mous, dans la gamme d’énergie utilisée en imagerie, est environ mille fois plus important que leur atténuation. Le contraste de phase peut être obtenu, entre autres, en laissant un faisceau de rayons X cohérent se propager librement après avoir traversé un échantillon. Dans ce cas, les signaux obtenus peuvent être modélisés par la diffraction de Fresnel. Le défi de l’imagerie de phase quantitative est de retrouver l’atténuation et l’information de phase de l’objet observé, à partir des motifs diffractés enregistrés à une ou plusieurs distances. Ces deux quantités d’atténuation et de phase, sont entremêlées de manière non-linéaire dans le signal acquis. Dans ces travaux, nous considérons les développements et les applications de la micro- et nanotomographie de phase. D’abord, nous nous sommes intéressés à la reconstruction quantitative de biomatériaux à partir d’une acquisition multi-distance. L’estimation de la phase a été effectuée via une approche mixte, basée sur la linéarisation du modèle de contraste. Elle a été suivie d’une étape de reconstruction tomographique. Nous avons automatisé le processus de reconstruction de phase, permettant ainsi l’analyse d’un grand nombre d’échantillons. Cette méthode a été utilisée pour étudier l’influence de différentes cellules osseuses sur la croissance de l’os. Ensuite, des échantillons d’os humains ont été observés en nanotomographie de phase. Nous avons montré le potentiel d’une telle technique sur l’observation et l’analyse du réseau lacuno-canaliculaire de l’os. Nous avons appliqué des outils existants pour caractériser de manière plus approfondie la minéralisation et les l’orientation des fibres de collagènes de certains échantillons. L’estimation de phase, est, néanmoins, un problème inverse mal posé. Il n’existe pas de méthode de reconstruction générale. Les méthodes existantes sont soit sensibles au bruit basse fréquence, soit exigent des conditions strictes sur l’objet observé. Ainsi, nous considérons le problème inverse joint, qui combine l’estimation de phase et la reconstruction tomographique en une seule étape. Nous avons proposé des algorithmes itératifs innovants qui couplent ces deux étapes dans une seule boucle régularisée. Nous avons considéré un modèle de contraste linéarisé, couplé à un algorithme algébrique de reconstruction tomographique. Ces algorithmes sont testés sur des données simulées. / Phase contrast imaging has been of growing interest in the biomedical field, since it provides an enhanced contrast compared to attenuation-based imaging. Actually, the phase shift of the incoming X-ray beam induced by an object can be up to three orders of magnitude higher than its attenuation, particularly for soft tissues in the imaging energy range. Phase contrast can be, among others existing techniques, achieved by letting a coherent X-ray beam freely propagate after the sample. In this case, the obtained and recorded signals can be modeled as Fresnel diffraction patterns. The challenge of quantitative phase imaging is to retrieve, from these diffraction patterns, both the attenuation and the phase information of the imaged object, quantities that are non-linearly entangled in the recorded signal. In this work we consider developments and applications of X-ray phase micro and nano-CT. First, we investigated the reconstruction of seeded bone scaffolds using sed multiple distance phase acquisitions. Phase retrieval is here performed using the mixed approach, based on a linearization of the contrast model, and followed by filtered-back projection. We implemented an automatic version of the phase reconstruction process, to allow for the reconstruction of large sets of samples. The method was applied to bone scaffold data in order to study the influence of different bone cells cultures on bone formation. Then, human bone samples were imaged using phase nano-CT, and the potential of phase nano-imaging to analyze the morphology of the lacuno-canalicular network is shown. We applied existing tools to further characterize the mineralization and the collagen orientation of these samples. Phase retrieval, however, is an ill-posed inverse problem. A general reconstruction method does not exist. Existing methods are either sensitive to low frequency noise, or put stringent requirements on the imaged object. Therefore, we considered the joint inverse problem of combining both phase retrieval and tomographic reconstruction. We proposed an innovative algorithm for this problem, which combines phase retrieval and tomographic reconstruction into a single iterative regularized loop, where a linear phase contrast model is coupled with an algebraic tomographic reconstruction algorithm. This algorithm is applied to numerical simulated data.

Page generated in 0.0121 seconds