• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 87
  • 36
  • 27
  • 2
  • Tagged with
  • 151
  • 85
  • 65
  • 58
  • 48
  • 38
  • 38
  • 38
  • 18
  • 17
  • 17
  • 12
  • 12
  • 11
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Control concepts for image-based structure tracking with ultrafast electron beam X-ray tomography

Windisch, Dominic, Bieberle, Martina, Bieberle, André, Hampel, Uwe 12 August 2020 (has links)
In this paper, a novel approach for tracking moving structures in multiphase flows over larger axial ranges is presented, which at the same time allows imaging the tracked structures and their environment. For this purpose, ultrafast electron beam X-ray computed tomography (UFXCT) is being extended by an image-based position control. Application is scanning and tracking of, for example, bubbles, particles, waves and other features of multiphase flows within vessels and pipes. Therefore, the scanner has to be automatically traversed with the moving structure basing on real-time scanning, image reconstruction and image data processing. In this paper, requirements and different strategies for reliable object tracking in dual image plane imaging mode are discussed. Promising tracking strategies have been numerically implemented and evaluated.
122

Quantitative Untersuchungen zur Entstehung pulmonaler Reaktionen infolge Applikation des α2-Rezeptoragonisten Xylazin beim Schaf

Koziol, Manja 08 March 2011 (has links)
Das Auftreten pulmonaler Belüftungsstörungen nach Injektion von Xylazin beim Schaf ist in der wissenschaftlichen Literatur an Einzeltieren beschrieben. Der dabei noch ausstehende Nachweis eines postulierten Lungenödems anhand objektiver Parameter in statistisch relevanter Anzahl wurde in der hier vorliegenden Arbeit angestrebt. Weiterhin wurden ein Einfluss der wiederholten Exposition und eine Dosisabhängigkeit überprüft. Zur Bearbeitung dieser Fragen wurden 16 weibliche Merinolandschafe dreimalig in einem Abstand von 8 Wochen untersucht. Nach Prämedikation mit Midazolam (0,25 mg/kg) und Sufentanil (0,6 µg/kg) erfolgte die Allgemeinanästhesie mit Propofol (5-10 mg/kg/h). Zu den ersten beiden Versuchsabschnitten wurde Xylazin in einer Dosis von 0,15 mg/kg, im dritten Versuchsdurchgang in Höhe von 0,3 mg/kg intravenös verabreicht. Jeweils 10 Minuten vor und 5, 15, 30 Minuten nach Applikation von Xylazin wurden computertomographische Untersuchungen durchgeführt. Mit Hilfe der quantitativen computertomographischen Analyse konnte das totale Lungengewicht, der Anteil nicht belüftetes Lungengewicht und das totale Lungenvolumen ermittelt werden. Zusätzlich wurden mittels arterieller Blutgasanalysen der arterielle Sauerstoff- und Kohlenstoffdioxidpartialdruck bestimmt. In der dieser Arbeit zu Grunde liegenden Annahme nimmt im Falle eines Lungenödems das totale Lungengewicht bei konstantem Lungenvolumen zu. Eine Zunahme des totalen Lungengewichts war in allen drei Versuchsdurchgängen statitisch signifikant nachweisbar. Im Vergleich zu den Angaben in der Literatur wurden dabei jedoch keine Zunahmen in Höhe eines klinisch relevanten Lungenödems erreicht. Unerwartet konnte zusätzlich ein signifikanter Rückgang des totalen Lungenvolumens detektiert werden. Weiterhin waren bereits 5 Minuten nach Xylazininjektion bis zu einem Drittel des totalen Lungengewichts nicht belüftet. Diese pulmonalen Belüftungsstörungen nach Applikation von Xylazin beim Schaf wurden aufgrund der vorliegenden Ergebnisse nicht ausschließlich der Entstehung eines Lungenödems zugeordnet. Die detektierte Reduktion des totalen Lungenvolumens bei konstanter Beatmung kann nur durch Atelektasen begründet werden. Entsprechend dem Ausmaß der detektierten pulmonalen Reaktionen nach Xylazingabe wurden eine schwere Hypoxämie sowie eine Hyperkapnie festgestellt. Durch die mehrfache Exposition von Xylazin erfolgte der Nachweis der Wiederholbarkeit dieser Ergebnisse. Eine Dosisabhängigkeit des Ausprägungsgrades der pulmonalen Befunde hingegen konnte nicht statistisch signifikant bestätigt werden. Anhand der hier vorliegenden Ergebnisse muss die Ätiologie der pulmonalen Veränderungen nach Injektion von Xylazin beim Schaf neu durchdacht und in weiteren Studien verfolgt werden. Einflussfaktoren wie die Form der Applikation oder eine genetische Prädisposition gilt es in Zukunft zu analysieren. Neben der klinischen Anwendung von Xylazin sind die erarbeiteten Resultate relevant für humanmedizinische Fragestellungen in der Pulmologie. Dort sollte in der häufigen Verwendung des Schafes als Tiermodell in Hinblick auf mögliche Interaktionen mit den experimentellen Ergebnissen auf die Applikation von Xylazin verzichtet werden.
123

A Contribution to the Multidimensional and Correlative Tomographic Characterization of Micron–Sized Particle Systems

Ditscherlein, Ralf 12 September 2022 (has links)
The present work was carried out within the framework of the priority programme SPP 2045. Technical ultra–fine particle systems (< 10μm) from highly specific separation processes are to be investigated here with regard to multi–dimensional property distributions. Tomographic measurement methods allow a comprehensive 3D description of particle–discrete data sets of statistically relevant size. The focus of the work is on X–ray tomographic analysis by means of micro-computed tomography (micro–CT), which, if necessary, is extended to several size scales by including further measurement methods (nano–CT) and supplemented by suitable elemental analysis (FIB–SEM + EBSD, EDX). Two preparation methods (wax, epoxy resin) for different particle preparations are described methodically, which have already been published in a case study or are the subject of current studies in the outlook of the work. Finally, a networked multiple use of the generated data within an online particle database is shown and its application is explained using three concrete examples.:1 Outline 2 Description of Particle Properties 2.1 Integral or Class–Based Description 2.2 Particle–Discrete Description 2.2.1 2D Description 2.2.2 Full 3D Description 2.3 Multidimensional Characterization on Basis of Particle–Discrete 3D Data 2.3.1 Motivation 2.3.2 Kernel Density Approach 2.3.3 Copula Approach 3 X–ray Tomography 3.1 Historical Context 3.2 X–ray Physics 3.2.1 X–ray Generation 3.2.2 Polychromatic Spectrum 3.2.3 Interaction with Matter 3.3 Tomographic Imaging 3.3.1 Motivation 3.3.2 Basic Idea 3.3.3 X–ray Microscopy Measurement Setup andWorkflow 3.3.4 Tomographic Reconstruction via Filtered Back Projection 3.3.5 Region of Interest Tomography 3.4 Relevant Artefacts Related to Particle Measurement 3.4.1 Temperature Drift 3.4.2 Penumbral Blurring and Shadow 3.4.3 Cone Beam 3.4.4 Out–of–Field 3.4.5 Center Shift 3.4.6 Sample Drift 3.4.7 Beam Hardening 3.4.8 Rings 3.4.9 Noise 3.4.10 Partial Volume 3.4.11 Summary 4 Practical Implementation 4.1 Particle Sample Requirements 4.1.1 Geometry 4.1.2 Dispersity and Homogeneity 4.2 Statistics 4.2.1 Single Particle Properties 4.2.2 Properties of a Limited Number of Particles (10 to several 100) 4.2.3 Particle Populations with Distributed Properties 4.3 2D Validation 4.4 Measurement 4.4.1 X–ray Microscope 4.4.2 Source Filter 4.4.3 Detector Binning 4.4.4 Cone Beam Artefact Compensation 4.4.5 Center Shift Correction 4.4.6 Dynamic Ring Removal 5 Image Analysis 5.1 Image Quality 5.1.1 Grey Value Histogram 5.1.2 Resolution 5.1.3 Signal–to–Noise Ratio 5.1.4 Contrast and Dynamic Range 5.1.5 Sharpness 5.1.6 Summary 5.2 Basic Image Processing Strategies 5.2.1 Threshold–Based Segmentation 5.2.2 Machine Learning Assisted Segmentation 6 Correlative Tomography 6.1 Scouting Approach 6.2 Multiscale Approach 6.3 Multidisciplinary Approach 7 Data Management 7.1 Data Quality 7.2 Data Availability 7.2.1 Tomographic Datasets 7.2.2 Particle Database 8 Outlook on Further Research Activities 9 Publications 9.1 Copyright Declaration 9.2 Overview 9.3 List of Publications Paper A, Preparation techniques for micron–sized particulate samples in X–ray microtomography Paper B, Self–constructed automated syringe for preparation of micron–sized particulate samples in X–ray microtomography Paper C, Preparation strategy for statistically significant micrometer–sized particle systems suitable for correlative 3D imaging workflows on the example of X–ray microtomography Paper D, Multi–scale tomographic analysis for micron–sized particulate samples Paper E, PARROT: A pilot study on the open access provision of particle discrete tomographic datasets 10 Appendix 10.1 Application Example 1: Fracture Analysis 10.2 Application Example 2: 3D Contact Angle Measurement 10.3 Influence of the Source Filter 10.4 Influence of the X–rays on the Sample 10.5 Appropriate Filter Settings 10.6 Log File Parser / Die vorliegende Arbeit ist im Rahmen des Schwerpunktprogramms SPP 2045 entstanden. Technische Feinstpartikelsysteme (< 10μm) aus hochspezifischen Trennprozessen sollen hier hinsichtlich mehrdimensionaler Eigenschaftsverteilungen untersucht werden. Tomographische Messverfahren erlauben dabei eine vollständige 3D Beschreibung partikeldiskreter Datensätze statistisch relevanter Größe. Der Schwerpunkt der Arbeit liegt auf der röntgentomographischen Analyse mittels Mikro–Computertomographie (mikro–CT), die im Bedarfsfall unter Einbeziehung weiterer Messmethoden (nano–CT) auf mehrere Größenskalen erweitert und durch geeignete Elementanalytik (FIB–SEM + EBSD, EDX) ergänzt wird. Methodisch werden zwei Präparationsverfahren (Wachs, Epoxidharz) für unterschiedliche Partikelpräparate beschrieben, welche in einer Fallstudie bereits veröffentlicht bzw. im Ausblick der Arbeit Gegenstand aktueller Studien ist. Schließlich wird eine vernetzte Mehrfachnutzung der erzeugten Daten innerhalb einer online-Partikeldatenbank gezeigt und deren Anwendung an drei konkreten Beispielen erläutert.:1 Outline 2 Description of Particle Properties 2.1 Integral or Class–Based Description 2.2 Particle–Discrete Description 2.2.1 2D Description 2.2.2 Full 3D Description 2.3 Multidimensional Characterization on Basis of Particle–Discrete 3D Data 2.3.1 Motivation 2.3.2 Kernel Density Approach 2.3.3 Copula Approach 3 X–ray Tomography 3.1 Historical Context 3.2 X–ray Physics 3.2.1 X–ray Generation 3.2.2 Polychromatic Spectrum 3.2.3 Interaction with Matter 3.3 Tomographic Imaging 3.3.1 Motivation 3.3.2 Basic Idea 3.3.3 X–ray Microscopy Measurement Setup andWorkflow 3.3.4 Tomographic Reconstruction via Filtered Back Projection 3.3.5 Region of Interest Tomography 3.4 Relevant Artefacts Related to Particle Measurement 3.4.1 Temperature Drift 3.4.2 Penumbral Blurring and Shadow 3.4.3 Cone Beam 3.4.4 Out–of–Field 3.4.5 Center Shift 3.4.6 Sample Drift 3.4.7 Beam Hardening 3.4.8 Rings 3.4.9 Noise 3.4.10 Partial Volume 3.4.11 Summary 4 Practical Implementation 4.1 Particle Sample Requirements 4.1.1 Geometry 4.1.2 Dispersity and Homogeneity 4.2 Statistics 4.2.1 Single Particle Properties 4.2.2 Properties of a Limited Number of Particles (10 to several 100) 4.2.3 Particle Populations with Distributed Properties 4.3 2D Validation 4.4 Measurement 4.4.1 X–ray Microscope 4.4.2 Source Filter 4.4.3 Detector Binning 4.4.4 Cone Beam Artefact Compensation 4.4.5 Center Shift Correction 4.4.6 Dynamic Ring Removal 5 Image Analysis 5.1 Image Quality 5.1.1 Grey Value Histogram 5.1.2 Resolution 5.1.3 Signal–to–Noise Ratio 5.1.4 Contrast and Dynamic Range 5.1.5 Sharpness 5.1.6 Summary 5.2 Basic Image Processing Strategies 5.2.1 Threshold–Based Segmentation 5.2.2 Machine Learning Assisted Segmentation 6 Correlative Tomography 6.1 Scouting Approach 6.2 Multiscale Approach 6.3 Multidisciplinary Approach 7 Data Management 7.1 Data Quality 7.2 Data Availability 7.2.1 Tomographic Datasets 7.2.2 Particle Database 8 Outlook on Further Research Activities 9 Publications 9.1 Copyright Declaration 9.2 Overview 9.3 List of Publications Paper A, Preparation techniques for micron–sized particulate samples in X–ray microtomography Paper B, Self–constructed automated syringe for preparation of micron–sized particulate samples in X–ray microtomography Paper C, Preparation strategy for statistically significant micrometer–sized particle systems suitable for correlative 3D imaging workflows on the example of X–ray microtomography Paper D, Multi–scale tomographic analysis for micron–sized particulate samples Paper E, PARROT: A pilot study on the open access provision of particle discrete tomographic datasets 10 Appendix 10.1 Application Example 1: Fracture Analysis 10.2 Application Example 2: 3D Contact Angle Measurement 10.3 Influence of the Source Filter 10.4 Influence of the X–rays on the Sample 10.5 Appropriate Filter Settings 10.6 Log File Parser
124

Influence of CT image processing on the predicted impact of pores on fatigue of additively manufactured Ti6Al4V and AlSi10Mg

Gebhardt, Ulrike, Schulz, Paul, Raßloff, Alexander, Koch, Ilja, Gude, Maik, Kästner, Markus 04 April 2024 (has links)
Pores are inherent to additively manufactured components and critical especially in technical components. Since they reduce the component’s fatigue life, a reliable identification and description of pores is vital to ensure the component’s performance. X-ray computed tomography (CT) is an established and non-destructive testing method to investigate internal defects. The CT scan process can induce noise and artefacts in the resulting images which afterwards have to be reduced through image processing. To reconstruct the internal defects of a component, the images need to be segmented in defect region and bulk material by applying a threshold. The application of the threshold as well as the previous image processing alter the geometry and size of the identified defects. This contribution aims to quantify the influence of selected commercial image processing and segmentation methods on identified pores in several additively manufactured components made of AlSi10Mg and Ti6Al4V as well as in an artificial CT scan. To that aim, gray value histograms and characteristic parameters thereof are compared for different image processing tools. After the segmentation of the processed images, particle characteristics are compared. The influence of image processing and segmentation on the predicted fatigue life of the material is evaluated through the change of the largest pore in each set of data applying Murakami’s empirical√area-parameter model.
125

Segmentation in Tomography Data: Exploring Data Augmentation for Supervised and Unsupervised Voxel Classification with Neural Networks

Wagner, Franz 23 September 2024 (has links)
Computed Tomography (CT) imaging provides invaluable insight into internal structures of objects and organisms, which is critical for applications ranging from materials science to medical diagnostics. In CT data, an object is represented by a 3D reconstruction that is generated by combining multiple 2D X-ray images taken from various angles around the object. Each voxel, a volumetric pixel, within the reconstructed volume represents a small cubic element, allowing for detailed spatial representation. To extract meaningful information from CT imaging data and facilitate analysis and interpretation, accurate segmentation of internal structures is essential. However, this can be challenging due to various artifacts introduced by the physics of a CT scan and the properties of the object being imaged. This dissertation directly addresses this challenge by using deep learning techniques. Specifically, Convolutional Neural Networks (CNNs) are used for segmentation. However, they face the problem of limited training data. Data scarcity is addressed by data augmentation through the unsupervised generation of synthetic training data and the use of 2D and 3D data augmentation methods. A combination of these augmentation strategies allows for streamlining segmentation in voxel data and effectively addresses data scarcity. Essentially, the work aims to simplify training of CNNs, using minimal or no labeled data. To enhance accessibility to the results of this thesis, two user-friendly software solutions, unpAIred and AiSeg, have been developed. These platforms enable the generation of training data, data augmentation, as well as training, analysis, and application of CNNs. This cumulative work first examines simpler but efficient conventional data augmentation methods, such as radiometric and geometric image manipulations, which are already widely used in literature. However, these methods are usually randomly applied and do not follow a specific order. The primary focus of the first paper is to investigate this approach and to develop both online and offline data augmentation pipelines that allow for systematic sequencing of these operations. Offline augmentation involves augmenting training data stored on a drive, while online augmentation is performed dynamically at runtime, just before images are fed to the CNN. It is successfully shown that random data augmentation methods are inferior to the new pipelines. A careful comparison of 3D CNNs is then performed to identify optimal models for specific segmentation tasks, such as carbon and pore segmentation in CT scans of Carbon Reinforced Concrete (CRC). Through an evaluation of eight 3D CNN models on six datasets, tailored recommendations are provided for selecting the most effective model based on dataset characteristics. The analysis highlights the consistent performance of the 3D U-Net, one of the CNNs, and its residual variant, which excel at roving (a bundle of carbon fibers) and pore segmentation tasks. Based on the augmentation pipelines and the results of the 3D CNN comparison, the pipelines are extended to 3D, specifically targeting the segmentation of carbon in CT scans of CRC. A comparative analysis of different 3D augmentation strategies, including both offline and online augmentation variants, provides insight into their effectiveness. While offline augmentation results in fewer artifacts, it can only segment rovings already present in the training data, while online augmentation is essential for effectively segmenting different types of rovings contained in CT scans. However, constraints such as limited diversity of the dataset and overly aggressive augmentation that resulted in segmentation artifacts require further investigation to address data scarcity. Recognizing the need for a larger and more diverse dataset, this thesis extends the results of the three former papers by introducing a deep learning-based augmentation using a Generative Adversarial Network (GAN), called Contrastive Unpaired Translation (CUT), for synthetic training data generation. By combining the GAN with augmentation pipelines, semi-supervised and unsupervised end-to-end training methods are introduced and the successful generation of training data for 2D pore segmentation is demonstrated. However, challenges remain in achieving a stable 3D CUT implementation, which warrants further research and development efforts. In summary, the results of this dissertation address the challenges of accurate CT data segmentation in materials science through deep learning techniques and novel 2D and 3D online and offline augmentation pipelines. By evaluating different 3D CNN models, tailored recommendations for specific segmentation tasks are provided. Furthermore, the exploration of deep learning-based augmentation using CUT shows promising results in the generating synthetic training data. Future work will include the development of a stable implementation of a 3D CUT version, the exploration of new model architectures, and the development of sub-voxel accurate segmentation techniques. These have the potential for significant advances in segmentation in tomography data.:Abstract IV Zusammenfassung VI 1 Introduction 1 1.1 Thesis Structure 2 1.2 Scientific Context 3 1.2.1 Developments in the Segmentation in Tomography Data 3 1.2.2 3D Semantic Segmentation using Machine Learning 5 1.2.3 Data Augmentation 6 2 Developed Software Solutions: AiSeg and unpAIred 9 2.1 Software Design 10 2.2 Installation 11 2.3 AiSeg 11 2.4 unpAIred 12 2.5 Limitations 12 3 Factors Affecting Image Quality in Computed Tomography 13 3.1 From CT Scan to Reconstruction 13 3.2 X-ray Tube and Focal Spot 14 3.3 Beam Hardening 14 3.4 Absorption, Scattering and Pairing 15 3.5 X-ray Detector 16 3.6 Geometric Calibration 17 3.7 Reconstruction Algorithm 17 3.8 Artifact corrections 18 4 On the Development of Augmentation Pipelines for Image Segmentation 19 4.0 Abstract 20 4.1 Introduction 20 4.2 Methods 21 4.2.1 Data Preparation 21 4.2.2 Augmentation 21 4.2.3 Networks 24 4.2.4 Training and Metrics 25 4.3 Experimental Design 26 4.3.1 Hardware 26 4.3.2 Workflow 26 4.3.3 Test on Cityscapes 26 4.4 Results and Discussion 26 4.4.1 Stage 1: Crating a Baseline 27 4.4.2 Stage 2: Using Offline Augmentation 27 4.4.3 Stage 3: Using Online Augmentation 27 4.4.4 Test on Cityscapes 29 4.4.5 Future Work – A New Online Augmentation 30 4.5 Conclusion 31 4.6 Appendix 31 4.6.1 Appendix A. List of All Networks 31 4.6.2 Appendix B. Augmentation Methods 32 4.6.3 Appendix C. Used RIWA Online Augmentation Parameters 36 4.6.4 Appendix D. Used Cityscapes Online Augmentation Parameters 36 4.6.5 Appendix E. Comparison of CNNs with best Backbones on RIWA 37 4.6.6 Appendix F. Segmentation Results 38 4.7 References 39 5 Comparison of 3D CNNs for Volume Segmentation 43 5.0 Abstract 44 5.1 Introduction 44 5.2 Datasets 44 5.2.1 Carbon Rovings 45 5.2.2 Concrete Pores 45 5.2.3 Polyethylene Fibers 45 5.2.4 Brain Mitochondria 45 5.2.5 Brain Tumor Segmentation Challenge (BraTS) 46 5.2.6 Head and Neck Cancer 46 5.3 Methods 46 5.3.1 Data Preprocessing 46 5.3.2 Hyperparameters 46 5.3.3 Metrics 47 5.3.4 Experimental Design 48 5.4 Results and Discussion 48 5.4.1 Impact of Initial Random States (Head and Neck Cancer Dataset) 48 5.4.2 Carbon Rovings 48 5.4.3 Concrete Pores 49 5.4.4 Polyethylene Fibers 49 5.4.5 Brain Mitochondria 50 5.4.6 BraTS 51 5.5 Conclusion 51 5.6 References 52 6 Segmentation of Carbon in CRC Using 3D Augmentation 55 6.0 Abstract 56 6.1 Introduction 56 6.2 Materials and Methods 58 6.2.1 Specimens 58 6.2.2 Microtomography 59 6.2.3 AI-Based Segmentation 60 6.2.4 Roving Extraction 64 6.2.5 Multiscale Modeling 65 6.2.6 Scaled Boundary Isogeometric Analysis 66 6.2.7 Parameterized RVE and Definition of Characteristic Geometric Properties 67 6.3 Results and Discussion 70 6.3.1 Microtomography 70 6.3.2 Deep Learning 71 6.3.3 Roving Extraction 74 6.3.4 Parameterized RVE and Definition of Characteristic Geometric Properties 75 6.4 Conclusion 79 6.5 References 80 7 Image-to-Image Translation for Semi-Supervised Semantic Segmentation 85 7.1 Introduction 85 7.2 Methods 86 7.2.1 Generative Adversarial Networks 87 7.2.2 Contrastive Unpaired Translation 87 7.2.3 Fréchet Inception Distance 89 7.2.4 Datasets 89 7.3 Experimental Design 92 7.4 Results and Discussion 94 7.4.1 Training and Inference of CUT 94 7.4.2 End-to-End Training for Semantic Segmentation 99 7.5 Conclusion 104 7.5.1 Future Work 104 8 Synthesis 107 8.1 Research Summary 107 8.1.1 Augmentation Pipelines 107 8.1.2 3D CNN Comparison 108 8.1.3 3D Data Augmentation for the Segmentation of Carbon Rovings 108 8.1.4 Synthetic Training Data Generation 109 8.2 Future Developments 109 8.2.1 Augmentation 109 8.2.2 Pre-trained 3D Encoder 111 8.2.3 On the Quality Control of Carbon Reinforced Concrete 111 8.2.4 Subvoxel Accurate Segmentation 113 8.2.5 Towards Volume-to-Volume Translation 114 8.3 Conclusion 114 References 117 List of Tables 125 List of Figures 127 List of Abbreviations 131 / Computertomographie (CT) bietet wertvolle Einblicke in die inneren Strukturen von Objekten und Organismen, was für Anwendungen von der Materialwissenschaft bis zur medizinischen Diagnostik von entscheidender Bedeutung ist. In CT-Daten ist ein Objekt durch eine 3D-Rekonstruktion dargestellt, die durch die Kombination mehrerer 2D-Röntgenbilder aus verschiedenen Winkeln um das Objekt herum erstellt wird. Jedes Voxel, ein Volumen Pixel, innerhalb des rekonstruierten Volumens stellt ein kleines kubisches Element dar und ermöglicht eine detaillierte räumliche Darstellung. Um aussagekräftige Informationen aus CT-Bilddaten zu extrahieren und eine Analyse und Interpretation zu ermöglichen, ist eine genaue Segmentierung der inneren Strukturen unerlässlich. Dies kann jedoch aufgrund verschiedener Artefakte, die durch die Physik eines CT-Scans und Eigenschaften des abgebildeten Objekts verursacht werden, eine Herausforderung darstellen. Diese Dissertation befasst sich direkt mit dieser Herausforderung, indem sie Techniken des Deep Learnings einsetzt. Konkret werden für die Segmentierung Convolutional Neural Networks (CNNs) verwendet, welche jedoch mit dem Problem begrenzter Trainingsdaten konfrontiert sind. Der Datenknappheit wird dabei durch Datenerweiterung begegnet, indem unbeaufsichtigt synthetische Trainingsdaten erzeugt und 2D- und 3D-Augmentierungssmethoden eingesetzt werden. Eine Kombination dieser Vervielfältigungsstrategien erlaubt eine Vereinfachung der Segmentierung in Voxeldaten und behebt effektiv die Datenknappheit. Im Wesentlichen zielt diese Arbeit darauf ab, das Training von CNNs zu vereinfachen, wobei wenige oder gar keine gelabelten Daten benötigt werden. Um die Ergebnisse dieser Arbeit Forschenden zugänglicher zu machen, wurden zwei benutzerfreundliche Softwarelösungen, unpAIred und AiSeg, entwickelt. Diese ermöglichen die Generierung von Trainingsdaten, die Augmentierung sowie das Training, die Analyse und die Anwendung von CNNs. In dieser kumulativen Arbeit werden zunächst einfachere, aber effiziente konventionelle Methoden zur Datenvervielfältigung untersucht, wie z. B. radiometrische und geometrische Bildmanipulationen, die bereits häufig in der Literatur verwendet werden. Diese Methoden werden jedoch in der Regel zufällig nacheinander angewandt und folgen keiner bestimmten Reihenfolge. Der Schwerpunkt des ersten Forschungsartikels liegt darin, diesen Ansatz zu untersuchen und sowohl Online- als auch Offline-Datenerweiterungspipelines zu entwickeln, die eine systematische Sequenzierung dieser Operationen ermöglichen. Bei der Offline Variante werden die auf der Festplatte gespeicherten Trainingsdaten vervielfältigt, während die Online-Erweiterung dynamisch zur Laufzeit erfolgt, kurz bevor die Bilder dem CNN gezeigt werden. Es wird erfolgreich gezeigt, dass eine zufällige Verkettung von geometrischen und radiometrischen Methoden den neuen Pipelines unterlegen ist. Anschließend wird ein Vergleich von 3D-CNNs durchgeführt, um die optimalen Modelle für Segmentierungsaufgaben zu identifizieren, wie z.B. die Segmentierung von Carbonbewehrung und Luftporen in CT-Scans von carbonverstärktem Beton (CRC). Durch die Bewertung von acht 3D-CNN-Modellen auf sechs Datensätzen werden Empfehlungen für die Auswahl des genauesten Modells auf der Grundlage der Datensatzeigenschaften gegeben. Die Analyse unterstreicht die konstante Überlegenheit des 3D UNets, eines der CNNs, und seiner Residualversion bei Segmentierung von Rovings (Carbonfaserbündel) und Poren. Aufbauend auf den 2D Augmentierungspipelines und den Ergebnissen des 3D-CNN-Vergleichs werden die Pipelines auf die dritte Dimension erweitert, um insbesondere die Segmentierung der Carbonbewehrung in CT-Scans von CRC zu ermöglichen. Eine vergleichende Analyse verschiedener 3D Augmentierungsstrategien, die sowohl Offline- als auch Online-Erweiterungsvarianten umfassen, gibt Aufschluss über deren Effektivität. Die Offline-Augmentierung führt zwar zu weniger Artefakten, kann aber nur Rovings segmentieren, die bereits in den Trainingsdaten vorhanden sind. Die Online-Augmentierung erweist sich hingegen als unerlässlich für die effektive Segmentierung von Carbon-Roving-Typen, die nicht im Datensatz enthalten sind. Einschränkungen wie die geringe Vielfalt des Datensatzes und eine zu aggressive Online-Datenerweiterung, die zu Segmentierungsartefakten führt, erfordern jedoch weitere Methoden, um die Datenknappheit zu beheben. In Anbetracht der Notwendigkeit eines größeren und vielfältigeren Datensatzes erweitert diese Arbeit die Ergebnisse der drei Forschungsartikel durch die Einführung einer auf Deep Learning basierenden Augmentierung, die ein Generative Adversarial Network (GAN), genannt Contrastive Unpaired Translation (CUT), zur Erzeugung synthetischer Trainingsdaten verwendet. Durch die Kombination des GANs mit den Augmentierungspipelines wird eine halbüberwachte Ende-zu-Ende-Trainingsmethode vorgestellt und die erfolgreiche Erzeugung von Trainingsdaten für die 2D-Porensegmentierung demonstriert. Es bestehen jedoch noch Herausforderungen bei der Implementierung einer stabilen 3D-CUT-Version, was weitere Forschungs- und Entwicklungsanstrengungen erfordert. Zusammenfassend adressieren die Ergebnisse dieser Dissertation Herausforderungen der CT-Datensegmentierung in der Materialwissenschaft, die durch Deep-Learning-Techniken und neuartige 2D- und 3D-Online- und Offline-Augmentierungspipelines gelöst werden. Durch die Evaluierung verschiedener 3D-CNN-Modelle werden maßgeschneiderte Empfehlungen für spezifische Segmentierungsaufgaben gegeben. Darüber hinaus zeigen Untersuchungen zur Deep Learning basierten Augmentierung mit CUT vielversprechende Ergebnisse bei der Generierung synthetischer Trainingsdaten. Zukünftige Arbeiten umfassen die Entwicklung einer stabilen Implementierung einer 3D-CUT-Version, die Erforschung neuer Modellarchitekturen und die Entwicklung von subvoxelgenauen Segmentierungstechniken. Diese haben das Potenzial für bedeutende Fortschritte bei der Segmentierung in Tomographiedaten.:Abstract IV Zusammenfassung VI 1 Introduction 1 1.1 Thesis Structure 2 1.2 Scientific Context 3 1.2.1 Developments in the Segmentation in Tomography Data 3 1.2.2 3D Semantic Segmentation using Machine Learning 5 1.2.3 Data Augmentation 6 2 Developed Software Solutions: AiSeg and unpAIred 9 2.1 Software Design 10 2.2 Installation 11 2.3 AiSeg 11 2.4 unpAIred 12 2.5 Limitations 12 3 Factors Affecting Image Quality in Computed Tomography 13 3.1 From CT Scan to Reconstruction 13 3.2 X-ray Tube and Focal Spot 14 3.3 Beam Hardening 14 3.4 Absorption, Scattering and Pairing 15 3.5 X-ray Detector 16 3.6 Geometric Calibration 17 3.7 Reconstruction Algorithm 17 3.8 Artifact corrections 18 4 On the Development of Augmentation Pipelines for Image Segmentation 19 4.0 Abstract 20 4.1 Introduction 20 4.2 Methods 21 4.2.1 Data Preparation 21 4.2.2 Augmentation 21 4.2.3 Networks 24 4.2.4 Training and Metrics 25 4.3 Experimental Design 26 4.3.1 Hardware 26 4.3.2 Workflow 26 4.3.3 Test on Cityscapes 26 4.4 Results and Discussion 26 4.4.1 Stage 1: Crating a Baseline 27 4.4.2 Stage 2: Using Offline Augmentation 27 4.4.3 Stage 3: Using Online Augmentation 27 4.4.4 Test on Cityscapes 29 4.4.5 Future Work – A New Online Augmentation 30 4.5 Conclusion 31 4.6 Appendix 31 4.6.1 Appendix A. List of All Networks 31 4.6.2 Appendix B. Augmentation Methods 32 4.6.3 Appendix C. Used RIWA Online Augmentation Parameters 36 4.6.4 Appendix D. Used Cityscapes Online Augmentation Parameters 36 4.6.5 Appendix E. Comparison of CNNs with best Backbones on RIWA 37 4.6.6 Appendix F. Segmentation Results 38 4.7 References 39 5 Comparison of 3D CNNs for Volume Segmentation 43 5.0 Abstract 44 5.1 Introduction 44 5.2 Datasets 44 5.2.1 Carbon Rovings 45 5.2.2 Concrete Pores 45 5.2.3 Polyethylene Fibers 45 5.2.4 Brain Mitochondria 45 5.2.5 Brain Tumor Segmentation Challenge (BraTS) 46 5.2.6 Head and Neck Cancer 46 5.3 Methods 46 5.3.1 Data Preprocessing 46 5.3.2 Hyperparameters 46 5.3.3 Metrics 47 5.3.4 Experimental Design 48 5.4 Results and Discussion 48 5.4.1 Impact of Initial Random States (Head and Neck Cancer Dataset) 48 5.4.2 Carbon Rovings 48 5.4.3 Concrete Pores 49 5.4.4 Polyethylene Fibers 49 5.4.5 Brain Mitochondria 50 5.4.6 BraTS 51 5.5 Conclusion 51 5.6 References 52 6 Segmentation of Carbon in CRC Using 3D Augmentation 55 6.0 Abstract 56 6.1 Introduction 56 6.2 Materials and Methods 58 6.2.1 Specimens 58 6.2.2 Microtomography 59 6.2.3 AI-Based Segmentation 60 6.2.4 Roving Extraction 64 6.2.5 Multiscale Modeling 65 6.2.6 Scaled Boundary Isogeometric Analysis 66 6.2.7 Parameterized RVE and Definition of Characteristic Geometric Properties 67 6.3 Results and Discussion 70 6.3.1 Microtomography 70 6.3.2 Deep Learning 71 6.3.3 Roving Extraction 74 6.3.4 Parameterized RVE and Definition of Characteristic Geometric Properties 75 6.4 Conclusion 79 6.5 References 80 7 Image-to-Image Translation for Semi-Supervised Semantic Segmentation 85 7.1 Introduction 85 7.2 Methods 86 7.2.1 Generative Adversarial Networks 87 7.2.2 Contrastive Unpaired Translation 87 7.2.3 Fréchet Inception Distance 89 7.2.4 Datasets 89 7.3 Experimental Design 92 7.4 Results and Discussion 94 7.4.1 Training and Inference of CUT 94 7.4.2 End-to-End Training for Semantic Segmentation 99 7.5 Conclusion 104 7.5.1 Future Work 104 8 Synthesis 107 8.1 Research Summary 107 8.1.1 Augmentation Pipelines 107 8.1.2 3D CNN Comparison 108 8.1.3 3D Data Augmentation for the Segmentation of Carbon Rovings 108 8.1.4 Synthetic Training Data Generation 109 8.2 Future Developments 109 8.2.1 Augmentation 109 8.2.2 Pre-trained 3D Encoder 111 8.2.3 On the Quality Control of Carbon Reinforced Concrete 111 8.2.4 Subvoxel Accurate Segmentation 113 8.2.5 Towards Volume-to-Volume Translation 114 8.3 Conclusion 114 References 117 List of Tables 125 List of Figures 127 List of Abbreviations 131
126

Entwicklung und Optimierung eines CT-Scores zur objektiven Diagnosestellung einer Darmischämie bei intensivmedizinisch versorgten Patienten nach einer Herzoperation

Göller, Christian 17 October 2013 (has links) (PDF)
In dieser retrospektiven Untersuchung wurden letztlich 133 Patienten der Intensivstation des Herzzentrum Leipzig erfasst, bei denen vom 24.05.08 bis zum 28.05.09 nach erfolgter Herzoperation eine CT-Untersuchung des Abdomen durchgeführt wurde. Bei 20 der 133 Patienten (15,04 %) wurde eine Darmischämie mittels einer Koloskopie, Laparotomie oder Obduktion eindeutig bestätigt. In unserer Untersuchung wiesen die Patienten mit Darmischämie statistisch signifikant häufiger eine Herzinsuffizienz NYHA IV (p = 0,02 und RR = 2,42), einen Zustand nach Myokardinfarkt (p = 0,04 und RR = 2,42), eine implantierte IABP (p = 0,02 und RR 2,5), eine PAVK (p = 0,02 und RR = 2,83), ein Low-Cardiac-Output-Syndrom (p > 0,001 und RR = 4,12) und ein akutes Abdomen (p < 0,001 und RR = 20,48) auf und wurden zudem signifikant häufiger mit Noradrenalin (p = 0,008 und RR = 5,08) behandelt. Die kardiovaskulären Risikofaktoren führen über verschiedene pathophysiologische Mechanismen zu einer Reduktion der Herzauswurfleistung bzw. zu einer generellen Minderperfusion und begünstigen damit die Ausbildung einer nichtokklusiven Darmischämie. Unter den laborchemischen Parametern erwiesen sich lediglich die alkalische Phosphatase (p = 0,03) und der Oxygenierungsindex (p < 0,001) als signifikante Parameter für die Diagnosestellung einer akuten Darmischämie. Außerdem konnte in unserer Arbeit für die GOT (p = 0,02), die AP (p = 0,001) und das CRP (p < 0,001) bei den Patienten mit Darmischämie statistisch signifikant höherer Mittelwerte ermittelt werden. Alles in allem waren die Laborparameter jedoch zu wenig spezifisch, um eine akute Darmischämie sicher zu bestätigen oder auszuschließen. Daraufhin haben wir den Stellenwert der MDCT zur Diagnosestellung einer Darmischämie untersucht. Dazu wurde aus aus den bildmorpholgischen CT-Parametern mesenteriales Ödem (1 Punkt), Darmwandverdickung (1 Punkt), Minderkontrastierung (1 Punkt) bzw. fehlende Kontrastierung der Darmwand (2 Punkte), Pneumatosis intestinalis (2 Punkte), mesenterialvenöse bzw. portalvenöse Gaseinschlüsse (2 Punkte) und > 50 %-ige Abgangsstenose der AMS (2 Punkte) ein CT-Score gebildet. Basierend auf der Spezifität der CT-Parameter wurde jeweils ein bestimmter Punktwert vergeben und aus der Summe aller Punkte wurde für jeden Patienten ein CT-Score errechnet. Mithilfe dieses CT-Scoresystems kann die Diagnose objektiv und frühzeitig gestellt werden. In unserer Untersuchung hat sich gezeigt, dass jeder Patient mit einem CT-Score von ≤ 2 Punkten sicher keine Darmischämie und jeder Patient mit ≥ 4 Punkten sicher eine Darmischämie hatte. Zudem haben wir statistisch ermittelt, dass ab einem CT-Score von 3 Punkten der Verdacht auf eine Darmischämie geäußert werden muss. Hier lag die Sensitivität zur Diagnosestellung einer Darmischämie bei 100 % und die Spezifität bei 92,04 %. Bei einem Cut-off von 3 Punkten wurden zwar alle Patienten mit Darmischämie erkannt, jedoch waren auch 9 Patienten falsch positiv. Neben dem CT-Score haben wir zusätzlich aus den stark signifikanten klinischen Risikofaktoren akutes Abdomen, LCO-Syndrom und Noradrenalinpflichtigkeit einen sogenannte Risikofaktor-Score gebildet. Falls zwei der drei Risikofaktoren vorliegen, sollte klinisch der Verdacht auf eine Darmischämie gestellt werden kann. Unser CT-Score wurde mit dem Risikofaktor-Score kombiniert und ein Algorithmus zur Diagnosestellung einer Darmischämie entwickelt. Mithilfe dieses Algorithmus konnten wir für die Diagnosestellung einer Darmischämie eine Sensitivität von 100 % und eine Spezifität von 97,35 % ermitteln. Somit konnte die Spezifität zur Diagnosestellung einer Darmischämie noch verbessert werden.
127

Entwicklung und Optimierung eines CT-Scores zur objektiven Diagnosestellung einer Darmischämie bei intensivmedizinisch versorgten Patienten nach einer Herzoperation

Göller, Christian 03 September 2013 (has links)
In dieser retrospektiven Untersuchung wurden letztlich 133 Patienten der Intensivstation des Herzzentrum Leipzig erfasst, bei denen vom 24.05.08 bis zum 28.05.09 nach erfolgter Herzoperation eine CT-Untersuchung des Abdomen durchgeführt wurde. Bei 20 der 133 Patienten (15,04 %) wurde eine Darmischämie mittels einer Koloskopie, Laparotomie oder Obduktion eindeutig bestätigt. In unserer Untersuchung wiesen die Patienten mit Darmischämie statistisch signifikant häufiger eine Herzinsuffizienz NYHA IV (p = 0,02 und RR = 2,42), einen Zustand nach Myokardinfarkt (p = 0,04 und RR = 2,42), eine implantierte IABP (p = 0,02 und RR 2,5), eine PAVK (p = 0,02 und RR = 2,83), ein Low-Cardiac-Output-Syndrom (p > 0,001 und RR = 4,12) und ein akutes Abdomen (p < 0,001 und RR = 20,48) auf und wurden zudem signifikant häufiger mit Noradrenalin (p = 0,008 und RR = 5,08) behandelt. Die kardiovaskulären Risikofaktoren führen über verschiedene pathophysiologische Mechanismen zu einer Reduktion der Herzauswurfleistung bzw. zu einer generellen Minderperfusion und begünstigen damit die Ausbildung einer nichtokklusiven Darmischämie. Unter den laborchemischen Parametern erwiesen sich lediglich die alkalische Phosphatase (p = 0,03) und der Oxygenierungsindex (p < 0,001) als signifikante Parameter für die Diagnosestellung einer akuten Darmischämie. Außerdem konnte in unserer Arbeit für die GOT (p = 0,02), die AP (p = 0,001) und das CRP (p < 0,001) bei den Patienten mit Darmischämie statistisch signifikant höherer Mittelwerte ermittelt werden. Alles in allem waren die Laborparameter jedoch zu wenig spezifisch, um eine akute Darmischämie sicher zu bestätigen oder auszuschließen. Daraufhin haben wir den Stellenwert der MDCT zur Diagnosestellung einer Darmischämie untersucht. Dazu wurde aus aus den bildmorpholgischen CT-Parametern mesenteriales Ödem (1 Punkt), Darmwandverdickung (1 Punkt), Minderkontrastierung (1 Punkt) bzw. fehlende Kontrastierung der Darmwand (2 Punkte), Pneumatosis intestinalis (2 Punkte), mesenterialvenöse bzw. portalvenöse Gaseinschlüsse (2 Punkte) und > 50 %-ige Abgangsstenose der AMS (2 Punkte) ein CT-Score gebildet. Basierend auf der Spezifität der CT-Parameter wurde jeweils ein bestimmter Punktwert vergeben und aus der Summe aller Punkte wurde für jeden Patienten ein CT-Score errechnet. Mithilfe dieses CT-Scoresystems kann die Diagnose objektiv und frühzeitig gestellt werden. In unserer Untersuchung hat sich gezeigt, dass jeder Patient mit einem CT-Score von ≤ 2 Punkten sicher keine Darmischämie und jeder Patient mit ≥ 4 Punkten sicher eine Darmischämie hatte. Zudem haben wir statistisch ermittelt, dass ab einem CT-Score von 3 Punkten der Verdacht auf eine Darmischämie geäußert werden muss. Hier lag die Sensitivität zur Diagnosestellung einer Darmischämie bei 100 % und die Spezifität bei 92,04 %. Bei einem Cut-off von 3 Punkten wurden zwar alle Patienten mit Darmischämie erkannt, jedoch waren auch 9 Patienten falsch positiv. Neben dem CT-Score haben wir zusätzlich aus den stark signifikanten klinischen Risikofaktoren akutes Abdomen, LCO-Syndrom und Noradrenalinpflichtigkeit einen sogenannte Risikofaktor-Score gebildet. Falls zwei der drei Risikofaktoren vorliegen, sollte klinisch der Verdacht auf eine Darmischämie gestellt werden kann. Unser CT-Score wurde mit dem Risikofaktor-Score kombiniert und ein Algorithmus zur Diagnosestellung einer Darmischämie entwickelt. Mithilfe dieses Algorithmus konnten wir für die Diagnosestellung einer Darmischämie eine Sensitivität von 100 % und eine Spezifität von 97,35 % ermitteln. Somit konnte die Spezifität zur Diagnosestellung einer Darmischämie noch verbessert werden.:1 Einleitung und Zielsetzung 2 Grundlagen 2.1 Anatomie der Mesenterialgefäße 2.2 Pathophysiologie 2.3 Klinisches Krankheitsbild 2.4 Ätiologie und Pathogenese 2.4.1 Okklusive Darmischämie 2.4.1.1 Akuter embolischer Mesenterialarterienverschluss 2.4.1.2 Thrombotischer Mesenterialarterienverschluss 2.4.1.3 Thrombotischer Mesenterialvenenverschluss 2.4.2 Nichtokklusive Darmischämie 2.5 Darmischämie nach Herzoperation 2.6 Diagnostik 2.6.1 Laborparameter 2.6.2 Konventionelles Röntgen 2.6.3 Doppler-Sonographie 2.6.4 Mehrschicht-Spiral-Computertomographie 2.6.4.1 Kontrastmittelapplikation 2.6.4.2 Darmischämiezeichen 2.6.4.3 Wertigkeit der MDCT 2.6.5 Angiographie 2.6.6 Andere Untersuchungen 2.7 Therapie 3 Material und Methoden 3.1 Patientenerfassung 3.2 Apparative Untersuchung 3.3 Einteilung und Kriterien 3.3.1 Klinische Daten aus Krankenakten 3.3.2 CT-Parameter 3.3.3 Patientengruppen 3.3.4 CT-Darmischämie-Score 3.4 Statistische Auswertung 4 Ergebnisse 4.1 Patientengruppen 4.2 Geschlecht, Alter und Body-Mass-Index 4.3 Hauptdiagnosen 4.4 Nebendiagnosen 4.5 Verlaufsdiagnosen 4.6 Therapie 4.7 Präoperative Daten 4.7.1 Medikation 4.7.2 Kardiale Ejektionsfraktion 4.7.3 Herzrhythmus 4.8 Katecholaminbedarf 4.9 Entlassungsart und Mortalität 4.10 Laborparameter 4.11 Risikofaktor-Score 4.12 Originale CT-Befundtexte 4.13 Retrospektive Analyse der CT-Bildparameter 4.14 CT-Score 4.15 Algorithmus zur Diagnosestellung einer Darmischämie 5 Diskussion 5.1 Klinische Risikofaktoren 5.2 Stellenwert der Laborparameter 5.3 Risikofaktor-Score 5.4 Stellenwert der MDCT 5.4.1 Darmischämiezeichen 5.4.2 CT-Score 5.4.3 Diagnostische Genauigkeit der MDCT 5.5 Algorithmus zur Diagnosestellung einer Darmischämie 6 Zusammenfassung 7 Literaturverzeichnis 8 Erklärung über die eigenständige Abfassung der Arbeit 9 Lebenslauf 10 Danksagung
128

Integration magnetresonanztomographischer und computertomographischer Daten mit isotropen Voxeln in die Protonenbestrahlungsplanung bei okularen Tumoren

Lemke, Arne-Jörn 12 November 2001 (has links)
Die Bestrahlungstherapie von Aderhautmelanomen mit der Protonentherapie stellt ein sehr präzises Behandlungsverfahren dar, welches hohe Ansprüche an die zugrundliegende Bildgebung stellt. Die Magnetresonanztomographie (MRT) und Computertomographie (CT) scheinen prinzipiell in der Lage, mit geeigneten Oberflächenspulen bzw. angepaßter Untersuchungstechnik diese Ansprüche zu erfüllen. Ziel der Arbeit ist die Bereitstellung und Überprüfung eines bildgebenden Systems, das einerseits die diagnostischen und differentialdiagnostischen Aufgaben für die Differenzierung und das Staging von Aderhautmelanomen erfüllt und andererseits als Grundlage der Bestrahlungsplanung dienen kann. Erstrebenswert ist dabei die Erstellung von Schnittbildern bestehend aus isotropen Voxeln, d.h. Voxeln mit identischer Kantenlänge, mit der Magnetresonanztomographie (MRT) und der Computertomographie (CT). Zur Differenzierung der unterschiedlichen Tumorentitäten wurden verschiedene Untersuchungen mit zum Teil großen Patientenkollektiven durchgeführt und histologisch und klinisch korreliert bzw. verifiziert. Dabei konnte das MR-morphologische Erscheinungsbild der relevanten Erkrankungen studiert werden. Die Genauigkeit der MR-gestützten Tumorvolumetrie wurde in vitro im Tierversuch und in vivo am Patientenauge überprüft. Zur Überprüfung der Genauigkeit der MR-Bildgebung mit isotropen Voxeln wurden unterschiedliche Spulen getestet und verschiedene Phantomuntersuchungen durchgeführt. Entsprechend wurde auch die CT evaluiert. Mit der digitalen Bildfusion wurden die MRT- und die CT-Daten in einen gemeinsamen Datensatz überführt, der sowohl zur Bestimmung der Genauigkeit beider Verfashren als auch als Basis zur Bestrahlungsplanung verwendet werden konnte. Mit einer optimierten Untersuchungstechnik konnten Schnittbilder auf der Basis von CT und MRT zur Verfügung gestellt werden, die eine präzise Planung der Protonenbestrahlung beim Aderhautmelanom ermöglichen. / The radiation therapy of uveal melanomas using proton therapy is a very precise therapy procedure, that makes high demands on the underlying imaging modalities. In general magnetic resonance imaging (MRI) and computed tomography (CT) have the potential to fulfill these criteria using suited surface coils and optimized imaging techniques, respectively. Purpose of the investigations was the preparation and evaluation of an imaging system, that allows diagnosis and differetial diagnosis of uveal melanomas including staging on the one hand. On the other hand it should be the base for high precision radiation therapy planning. The preparation of images with isotropic voxels, i.e. the edges of the voxels have identical size, is desirable with both magnetic resonance imaging (MRI) and computed tomography (CT). Several examinations on large patient groups were performed for the differentiation of different tumor entities and compared with clinical and histopathological outcome. The precision of the MR-based tumor volumetry was evaluated with animal studies in vitro and patient eyes in vivo. The MR-imaging with isotropic voxels was evaluated using several surface coils and phantom examinations. Comparable examinations were performed regarding CT. Digital image fusion of CT and MRI data sets was used to evaluate the precision of both modalities and for planning of radiation therapy. Using optimized examination techniques both CT and especially MRI are suitable for a precise proton therapy planning of uveal melanoma.
129

Die Anwendung von rekombinantem homologen Wachstumshormon bei der Distraktionsosteogenese

Bail, Hermann Josef 01 November 2004 (has links)
An Yucatan Micropig(R) wurde überprüft, ob die systemische Applikation von Wachstumshormon (GH) in der Lage ist, die Regeneratkonsolidierung bei der Distraktionsosteogenese signifikant zu beschleunigen. Es erfolgte die Entwicklung eines speziellen externen Fixateurs (Halbringf.) mit welchem biomechanische in-vivo Messungen durchgeführte werden konnten. Ebenso wurden serologische, sonographische, röntgenologische, computertomographische, histomorphometrische und post mortem biomechanische Untersuchungen entwickelt und durchgeführt. Die Applikation von rekombinantem spezies-spezifischen Wachstumshormon bei der Distraktionsosteogenese zeigte bei dem von uns gewählten Tiermodell eine signifikante Beschleunigung der Regeneratkonsolidierung. Die biomechanischen Messungen ergaben eine mehr als verdoppelte Steifigkeit und Festigkeit der distrahierten Tibiae nach nur 10 Tagen Konsolidierungszeit im Vergleich zur Kontrollgruppe. Die CT erbrachte für die mit GH behandelten Tiere einen signifikant erhöhten Mineralisierungsgrad im Regenerat, zum gleichen Ergebnis kam die digitale Lumineszenzradiographie und die sonographische Vermessung des Regeneratdurchbaus. Somit zeigten alle Meßmethoden eine deutliche Beschleunigung der Regeneratkonsolidierung durch systemisch appliziertes GH. In den serologischen Untersuchungen fand sich eine signifikante Korrelation zwischen dem Serumspiegel der b-ALP und dem des IGF-I. Dies ist ein Hinweis darauf, dass die Wirkung des Wachstumshormons auf das Regenerat durch seinen Mediator IGF-I bedingt ist. / To investigate the effect of systemic growth hormone (GH) application experiments were performed in a micropig animal model. Systemic daily s.c. injection of species-specific recombinant GH was investigated in Yucatan micropigs to evaluate the effect on intramembranous bone formation in distraction osteogenesis. Quantitative computed tomography (qCT), quantitative ultrasound, digital luminescence radiography, biomechanical in-vivo and post mortem testing, serological investigations as well as histomorphometric analyses were performed to investigate differences in regenerate formation. Systemic GH administration significantly increased in the present animal model the torsional stability of the regenerate in-vivo as well as post mortem in comparison to the contralateral side. Also all additional methods showed an accelerated regenerate consolidation in case of GH application. Systemic Insulin-like growth factor -I levels correlated well with the bone specific alkaline phosphatase levels. This may indicate, that the effect of GH on the distraction osteogenesis is IGF-I mediated.
130

Volumetrie des rechten Leberlappens vor und während der Lebendspende

Brinkmann, Martin Julius 31 October 2005 (has links)
Die Lebendspende von Leberlappen wird in der Zukunft gerade vor dem Hintergrund des stets weiter steigenden Bedarfs und des sich dazu diskrepant entwickelnden Mangels an Leichenorganen zur Transplantation eine zunehmend wichtige Rolle einnehmen, um Patienten im Endstadium einer Lebererkrankung kurativ zu versorgen. Umso mehr spielen Überlegungen zur Gewährleistung insbesondere der Sicherheit für einen gesunden Lebendspender eine Rolle, ohne Risiken für ihn eliminieren zu können. In diese Überlegungen gehen Weiterentwicklungen der Möglichkeiten für die spezielle Evaluation der Leber eines potenziellen Spenders anhand bildgebender Verfahren ein. Hier nehmen Methoden zur präoperativen Abschätzung der Gewichts- und Volumenverhältnisse einer potenziellen Spenderleber und ihrer Lappen einen besonderen Stellenwert ein, da bei entsprechend ungünstigen Voraussetzungen ein gesunder Mensch aus Gründen der Sicherheit für eine Lebendspende nicht in Frage kommt. Die vorliegende Arbeit zeigt anhand einer prospektiven Studie unterschiedliche Methoden der präoperativen CT-gestützten Volumetrie zur Evaluation von Lebern und ihrer beiden Lappen von potenziellen Lebendspendern auf. Dabei wurde ein neu entwickeltes Volumetrieverfahren klinisch erprobt und mit einem etablierten Verfahren verglichen. Als Referenzgrößen wurden erstmalig gleichermaßen intraoperativ gemessene Gewichte und Volumina der transplantieren rechten Leberlappen herangezogen. Hinsichtlich der auf CT-gestützter Volumetrie basierenden, präoperativen Abschätzung von intraoperativ zu erwartendem Gewicht und Volumen von rechten Leberlappen im Rahmen einer Lebendspende erwies sich das etablierte Verfahren bezüglich des Gewichts dem neu entwickelten Verfahren geringgradig überlegen, während das neu entwickelte Verfahren bezüglich des Volumens gegenüber dem etablierten Verfahren geringgradig besser abschnitt. Darüber hinaus resultierte aus den intraoperativ erhobenen Daten die Erkenntnis, dass die physikalische Dichte von gesundem Lebergewebe bei einer relativ hohen interindividuellen Streuung im Mittel um knapp 12% höher liegt als zumeist angenommen. In Zukunft werden Fortschritte technischer Verfahren sehr genaue virtuelle Trennungen von Lebern in ihre beiden Lappen ermöglichen. Gleichzeitig werden chirurgische Resektionstechniken verfeinert. Sowohl der virtuelle als auch der reale Ansatz haben den Anspruch, die avaskuläre und somit ideale Resektionsfläche zwischen beiden Leberlappen aufzusuchen, um gleichzeitig präoperativ exakte Gewichts- und Volumenabschätzungen zu ermöglichen und intraoperativ Risiken zu minimieren. Welchem dieser beiden Ansätze die stärkste Annäherung an diesen Anspruch oder dessen Vollendung zuerst gelingt, wird sich als Referenzmethode behaupten, an der sich der unterlegene Ansatz wird messen lassen müssen. / The increasing need of cadaveric liver grafts and the scarcity of living related liver transplants (LRLT) will play a critical role in the future treatment of patients suffering from end stage liver disease. Various considerations, including especially a safe outcome for the donor, are essential. However, risks can not be eliminated. These considerations can be influenced in the evaluation of a potential living donor. Accurate methods, including imaging modalities, for the preoperative estimation of the potential donor liver’s weight and volume are essential as an adverse condition would preclude a living donation for safety reasons. This thesis presents different methods of preoperative CT-based volumetric analyses for the evaluation the liver and both its lobes in potential living donors. A newly developed method of volumetric analysis was clinically tested and compared with an established method. Intraoperatively measured weights and volumes of transplanted right hepatic lobes were used as reference values. With regards to the weight, the established method proved to be mildly superior, while the newer method was slightly more accurate for volume. Additionally, it was discovered that the mean density of healthy liver tissue is approximately 12 percent higher than generally assumed but with a relatively high individual variation. Progress in technical methods will render possible very exact virtual divisions of the liver in both of its lobes. Both the virtual and surgical approach have a claim for finding the appropriate avascular and consequently ideal resection plane in order to minimize risks intraoperatively.

Page generated in 0.345 seconds