• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 25
  • 7
  • 2
  • Tagged with
  • 67
  • 37
  • 27
  • 22
  • 21
  • 21
  • 13
  • 10
  • 9
  • 8
  • 7
  • 7
  • 7
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Validierung einer neuen Software für halbautomatische Volumetrie – ist diese besser als manuelle Messungen?

Noschinski, Leonie 22 September 2016 (has links) (PDF)
This study compared a manual program for liver volumetry with a semiautomated software. The hypothesis was that the software would be faster, more accurate and less dependent on the evaluator’s experience. Materials and Methods: Ten patients undergoing hemihepatectomy were included into this IRB approved study after written informed consent. All patients underwent a preoperative abdominal CTScan, which was used for whole liver volumetry and volume prediction for the liver part to be resected. Two different softwares were used: 1) manual method: borders of the liver had to be defined per slice by the user; 2) semiautomated software: automatic identification of liver volume with manual assistance for definition of Couinaud-segments. Measurements were done by six observers with different experience levels. Water displacement volumetry immediately after partial liver resection served as gold standard. The resected part was examined with a CT-scan after displacement volumetry. Results: Volumetry of the resected liver scan showed excellent correlations to water displacement volumetry (manual: ρ=0.997; semiautomated software: ρ=0.995). Difference between the predicted volume and the real volume was significantly smaller with the semiautomated software than with the manual method (33 % vs. 57 %, p=0.002). The semiautomated software was almost four times faster for volumetry of the whole liver. Conclusion: Both methods for liver volumetry give an estimated liver volume close to the real one. The tested semiautomated software is faster, more accurate in predicting the volume of the resected liver part, gives more reproducible results and is less dependent on the user’s experience. / Ziel dieser Studie war es, eine manuelle Methode zur Lebervolumetrie mit einer halbautomatischen Software zu vergleichen. Die zu prüfende Hypothese war eine Überlegenheit der halbautomatischen Software hinsichtlich Schnelligkeit, Genauigkeit und Unabhängigkeit von der Erfahrung des Auswerters. Material und Methoden: Die Studie wurde von der Ethikkommission geprüft und es lagen Einverständniserklärungen aller Patienten vor. In die Studie wurden zehn Patienten eingeschlossen, die eine Hemihepatektomie erhielten. Es wurde präoperativ ein CT-Scan angefertigt, der sowohl für die Volumetrie der gesamten Leber als auch zur Bestimmung des Resektatvolumens verwendet wurde. Für die Volumetrie wurden zwei verschiedene Programme genutzt: 1) eine manuelle Methode, wobei die Lebergrenzen in jeder Schicht vom Auswerter definiert werden mussten 2) eine halbautomatische Software mit automatischer Erkennung des Lebervolumens und manueller Definition der Lebersegmente nach Coinaud. Die Messungen wurden von sechs Auswertern mit unterschiedlicher Erfahrung vorgenommen. Als Goldstandard diente eine Verdrängungsvolumetrie des Leberresektats, die direkt nach der Resektion im Operationssaal durchgeführt wurde. Anschließend wurde zusätzlich ein CT-Scan des Resektats angefertigt. Ergebnisse: Die Ergebnisse des postoperativen CT-Scans korrelierten hochgradig mit den Ergebnissen der Verdrängungsvolumetrie (manuell: ρ=0.997; halbautomatische Software: ρ=0.995). Mit der halbautomatischen Software fielen die Unterschiede zwischen dem vorhergesagten und dem tatsächlichen Volumen signifikant kleiner aus (33 % vs. 57 %, p=0.002). Zudem lieferte die halbautomatische Software die Volumina der Gesamtleber 3.9mal schneller. Schlussfolgerung: Beide Methoden erlauben eine sehr gute Abschätzung des Lebervolumens. Die getestete halbautomatische Software kann das Lebervolumen jedoch schneller und das Resektatvolumen genauer vorhersagen und ist zusätzlich unabhängiger von der Erfahrung des Auswerters.
42

Automatic Image Segmentation of Healthy and Atelectatic Lungs in Computed Tomography / Automatische Bildsegmentierung von gesunden und atelektatischen Lungen in computertomographischen Bildern

Cuevas, Luis Maximiliano 22 July 2010 (has links) (PDF)
Computed tomography (CT) has become a standard in pulmonary imaging which allows the analysis of diseases like lung nodules, emphysema and embolism. The improved spatial and temporal resolution involves a dramatic increase in the amount of data that has to be stored and processed. This has motivated the development of computer aided diagnostics (CAD) systems that have released the physician from the tedious task of manually delineating the boundary of the structures of interest from such a large number of images, a pre-processing step known as image segmentation. Apart from being impractical, the manual segmentation is prone to high intra and inter observer subjectiveness. Automatic segmentation of the lungs with atelectasis poses a challenge because in CT images they have similar texture and gray level as the surrounding tissue. Consequently, the available graphical information is not sufficient to distinguish the boundary of the lung. The present work aims to close the existing gap left by the segmentation of atelectatic lungs in volume CT data. A-priori knowledge of anatomical information plays a key role in the achievement of this goal.
43

In-vivo Darstellung hypothalamischer Substrukturen mit Hilfe von Diffusions-Tensor-Bildgebung

Petzold, Friederike 23 July 2014 (has links)
In der vorliegenden Arbeit wird der Hypothalamus, eine kleine, aber bedeutsame Struktur des Zwischenhirns untersucht. Er spielt unter anderem eine Rolle bei der Regulation des Schlaf-Wach-Rhythmus, des Sexualverhaltens, der Stimmungslage, autonomer und Stoffwechsel-Funktionen. Veränderungen einzelner oder mehrerer spezifischer Kerngruppen sind bei neuropsychiatrischen bzw. -endokrinologischen Erkrankungen, wie Narkolepsie, Schizophrenie, affektiver Störung, Demenz, Borderline-Persönlichkeitsstörung, Pädophilie oder Adipositas zu beobachten. Die Substrukturierung und Darstellung der einzelnen Kerngruppen gelang bisher nur in Postmortem-Studien. Im Rahmen dieser Studie konnte mit Hilfe der Diffusions-Tensor-Bildgebung erstmals eine in-vivo Substrukturierung des Hypothalamus konsistent bei zehn gesunden Probanden vorgenommen werden. Dabei wurden nach einem Algorithmus zunächst die Segmentierung und anschließend die Parzellierung durchgeführt, woraus sich drei konsistente Cluster ergaben. Der topografische Vergleich der erhaltenen Cluster mit Postmortem-Studien der Literatur ergab vergleichbare und anatomisch plausible Korrelate. Mit der von uns entwickelten Methode könnten anhand einer größeren Patientengruppe pathophysiologische Zusammenhänge neuropsychiatrischer und –endokrinologischer Störungen genauer eruiert werden und zu einem besseren Verständnis des Krankheitsverlaufs und der Therapie beitragen.:1 Einleitung 1.1 Topographie und Funktion des Hypothalamus 1.2 MRT- Kartierung des Hypothalamus 1.3 Diffusions-Tensor- Bildgebung 1.3.1 Diffusionsellipsoid 1.3.2 Fraktionelle Anisotropie 1.3.3 Clusteranalyse 1.3.4 k-means- Clusteralgorithmus 1.4 Pathomorphologische Veränderungen des Hypothalamus bei neuropsychiatrischen Erkrankungen 1.4.1 Narkolepsie 1.4.2 Schizophrenie 1.4.3 Affektive Störung 1.4.4 Demenz 1.4.5 Borderline- Persönlichkeitsstörung 1.4.6 Pädophilie 1.4.7 Adipositas 1.4.8 Zusammenfassung 2 Fragestellung: Ist eine Subpartialisierung des Hypothalamus in-vivo mit struktureller Bildgebung möglich? 3 Material und Methoden 3.1 Probanden 3.2 Bilderfassung und -bearbeitung 3.3 Segementierung des Hypothalamus - Definition der ROI`s („region of interest“) 3.3.1 Präoptischer Hypothalamus 3.3.2 Anteriorer Hypothalamus 3.3.3 Tuberaler Hypothalamus 3.3.4 Posteriorer Hypothalamus, Mamillarkörperchen 3.4 Parzellierung und Clusteranalyse 4 Ergebnisse: Mit qualitativen Analysen konnte gezeigt werden, dass eine Subpartialisierung des Hypothalamus möglich ist. 4.1 Segmentierung des Hypothalamus 4.2 Substrukturen/Cluster 5 Diskussion der Ergebnisse 5.1 Neuroanatomie des Hypothalamus 5.1.1 Kerngruppen des Hypothalamus 5.1.2 Faserverbindungen des Hypothalamus 5.1.3 Zusammenfassung der Faserverbindungen der Kerngruppen 5.2 Interpretation der einzelnen Cluster 5.2.1 Anteriore Substruktur 5.2.2 Posteromediale Substruktur 5.2.3 Laterale Substruktur 5.3 Topografische Beziehung der drei Cluster untereinander 5.3.1 Ähnlichkeiten der Cluster der zehn Probanden 5.3.2 Unterschiede der Cluster der zehn Probanden 5.4 Verbesserung der Hypothalamusmaske 6 Zusammenfassung 7 Literaturverzeichnis
44

Automatic Image Segmentation of Healthy and Atelectatic Lungs in Computed Tomography

Cuevas, Luis Maximiliano 15 June 2010 (has links)
Computed tomography (CT) has become a standard in pulmonary imaging which allows the analysis of diseases like lung nodules, emphysema and embolism. The improved spatial and temporal resolution involves a dramatic increase in the amount of data that has to be stored and processed. This has motivated the development of computer aided diagnostics (CAD) systems that have released the physician from the tedious task of manually delineating the boundary of the structures of interest from such a large number of images, a pre-processing step known as image segmentation. Apart from being impractical, the manual segmentation is prone to high intra and inter observer subjectiveness. Automatic segmentation of the lungs with atelectasis poses a challenge because in CT images they have similar texture and gray level as the surrounding tissue. Consequently, the available graphical information is not sufficient to distinguish the boundary of the lung. The present work aims to close the existing gap left by the segmentation of atelectatic lungs in volume CT data. A-priori knowledge of anatomical information plays a key role in the achievement of this goal.
45

Modeling Customers and Products with Word Embeddings from Receipt Data

Woltmann, Lucas, Thiele, Maik, Lehner, Wolfgang 15 September 2022 (has links)
For many tasks in market research it is important to model customers and products as comparable instances. Usually, the integration of customers and products into one model is not trivial. In this paper, we will detail an approach for a combined vector space of customers and products based on word embeddings learned from receipt data. To highlight the strengths of this approach we propose four different applications: recommender systems, customer and product segmentation and purchase prediction. Experimental results on a real-world dataset with 200M order receipts for 2M customers show that our word embedding approach is promising and helps to improve the quality in these applications scenarios.
46

Neue Ansätze zur Auswertung und Klassiffizierung von sehr hochauflösenden Daten

Hoffmann, Andrea 10 May 2001 (has links)
Auf dem Luftbildsektor vollziehen sich seit einigen Jahren grundsätzliche Veränderungen. Digitale flugzeuggetragene Kamerasysteme und hochauflösende Satellitensysteme bieten neue Potentiale der Datenakquise und -auswertung. Diese digitalen Datensätze werden in absehbarer Zeit das herkömmliche Luftbild ersetzen und Kartographie, Photogrammetrie und Fernerkundung erheblich verändern. Die neue Generation von digitalen Kameras wird zwei zentrale Bereiche der Kartographie einschneidend beeinflussen: Die Orthokartenherstellung und die Kartenaktualisierung. Der Bedarf aktueller Geobasisdaten macht Orthobilder besonders für Geoinformationssysteme interessant. Bisher standen als Basisdaten für Orthobildkarten großer Auflösung (> 1:10 000) lediglich Luftbilder zur Verfügung. Es wird gezeigt, daß die digitalen Daten der neuen Kamerageneration zur Erstellung von Orthobildkarten operationell einsetzbar sind. Durch die automatisierte Prozessierung werden sie den Anforderungen an schnelle aktuelle Kartenprodukte gerecht, mit ihrer hochgenauen Navigation bieten die digitalen Systeme die automatisierte Erstellung geometrisch sehr genauer Datensätze, die mit herkömmlichen Mitteln nur sehr aufwendig erreicht werden könnten. Ein Vergleich mit Luftbildern zeigt und bewertet die Unterschiede beider Aufnahmesysteme. Untersucht wurden Datensätze der digitalen Kamera HRSC-A des DLR Adlershof. Mit der HRSC-A (High Resolution Stereo Camera - Airborne) und der speziell für die Prozessierung dieser Daten entwickelten Software steht den Geoinformationsnutzern erstmals ein operationelles System zur Verfügung, das vollständig digital und vollautomatisch hochauflösende Orthobilddaten produziert. Die Pixelauflösung liegt zwischen 10 und 40 cm (Flughöhe von 2500 bis 10 000 m). Als vorteilhaft für die Analyse erweist sich die gleichzeitige Verfügbarkeit von hochauflösenden panchromatischen und multispektralen Datensätzen, die Verfügbarkeit eines hochauflösenden Geländemodells (x,y: 50 cm bzw. 1m, z: 10 cm) und die hohe Genauigkeit der Datensätze. Die Arbeit diskutiert die Problematik einer automatisierten Auswertung hochauflösender Daten. Diese Datensätze stellen neue Anforderungen an Auswertungsverfahren. Der Detailreichtum erschwert die Interpretation, gröbere räumliche Auflösungen glätten die Komplexität innerhalb heterogener Landnutzungen (besonders in urbanen Gebieten) und erleichtern so eine automatische Interpretation. Es wird gezeigt, daß "klassische" Auswertungsmethoden wie pixelbasierte Klassifizierungen (überwacht oder unüberwacht) zur Auswertung der hochauflösenden Daten nur bedingt geeignet sind. Im Rahmen der Arbeit werden zwei neue Ansätze entwickelt und untersucht, die nicht mehr pixelweise, sondern flächenhaft und objektorientiert arbeiten. Ein per-parcel-Ansatz zeigt gute Ergebnisse bei der Auswertung. Das Verfahren ermittelt zunächst mittels einer unüberwachten Klassifizierung Szenekomponenten in definierten Untereinheiten (parcel), die den Inhalt des Datensatzes repräsentieren. Die klassifizierten Pixel innerhalb der definierten parcel-Einheiten werden anschließend extrahiert und ihr Verhältnis zueinander weiter ausgewertet. Ergebnis ist zunächst die prozentuelle Verteilung der Szenekomponenten in den Einheiten, anschließend werden Zusammenhänge zwischen den vorhandenen Komponenten und der Landoberfläche definiert. Untersucht wurde ferner ein objektorientierter Ansatz, der die Interpretation von Einzelobjekten erlaubt. Hierbei wird das Bild in homogene Objekte segmentiert, die die Grundlage für die weitere Analyse bilden. Der diskutierte Ansatz besteht aus zwei Strategien: Mittels multiskalarer Segmentierung wird der Bilddatensatz zunächst in Einheiten strukturiert, verschiedene Maßstabsebenen sind gleichzeitig verfügbar. Grundidee ist die Schaffung eines hierarchischen Netzes von Bildobjekten. Diese gefundenen Einheiten werden anschließend spektral mittels Nearest Neighbour oder wissensbasiert mittels Fuzzy Logic Operatoren klassifiziert. Der Ansatz zeigt überzeugende Ergebnisse bei einer automatisierten Hauserkennung und der Aktualisierung bestehender Vektordatensätze. Die Einteilung der Bilddaten in Segmente, also zunächst eine Abstrahierung der Information vom Einzelpixel zu größeren semantischen Einheiten und die weitere Bearbeitung dieser Segmente erwies sich als sinnvoll. Es wurde ferner gezeigt, daß für die Analyse in städtischen Räumen die Einbeziehung von Oberflächeninformation unbedingt erforderlich ist. Durch die spektrale Ähnlichkeit von Bildelementen bietet die Einbeziehung des Oberflächenmodells die Möglichkeit, mittels einer zusätzlich bekannten Information über die Höhe der Objekte, diese Klassen zu trennen. / Remote sensing goes through times of fundamental changes. New digital airborne camera systems offer new potentials for data aquisition and interpretation. These data sets will replace aerial photography in the near future and change photogrammetry, cartography and remote sensing. The new camera generation will influence two central domains of cartography: Orthomap production and map updating. As a base for in-time updating orthomaps became more and more important. Up to now large scale mapping (scales > 1:10,000) is done nearly exclusively with aerial photographs. It can be shown that the digital data sets of the new camera generation can be used operationally for the production of orthomaps. A fully automated processing line provides the ortho images very shortly after aquisition, due to the used high precision navigation system the accuracy of the data is very high, even very big scales can be realized. A comparison of digital cameras and aerial photos discusses and rates the properties of the different aquisition systems and data sets. For interpretation data sets of the digital camera HRSC-A were used. The High Resolution Stereo Camera - Airborne (HRSC-A) digital photogrammetric camera and its processing software provides the geoinformation industry for the first time with an entirely digital and fully automatic process to produce highly accurate digital image data. The pixel size ranges between 10 and 40 cm (flight altitude 2500 - 10,000 m). The airborne camera combines high resolution, photogrammetric accuracy and all-digital acquisition and provides both multispectral and elevation information. The pushbroom instrument provides digital ortho-images and digital surface models with an accuracy of 10-20 cm. The use of this wide range of image information showed to be very helpful for data analysis. This investigation focuses on the problems of automated interpretation of high-resolution data. These data sets make high demands on automated interpretation procedures. The richness of details depicted in the data sets complicates the interpretation, coarser spatial resolutions smooth out spatial complexity within heterogeneous land cover types, such as urban, and make an automated interpretation easier. This report shows that conventional interpretation techniques like pixelbased classification (supervised or unsupervised) do not lead to satisfactory results. Two new object-oriented and region-oriented approaches for the interpretation of high resolution data sets were developped and discussed. The parcel-based approach showed good results in interpretation of the data. The proposed methodology begins with an unsupervised per-pixel classification to identify spectral clusters which represent the range of scene components present in the pre-defined land parcels. The per-parcel analysis extracts the pixels classified as scene components within the land parcel under examination and calculates the total numbers and fractions for each scene component present. To identify land cover types not represented by scene components at the land parcel level, it is necessary to process the scene component information and infer relationships between the scene components present and land cover type. A set of rules was devised to identify a range of land cover types from the mixtures of scene components found within each land parcel. Secondly an object-oriented and multi-scale image analysis approach was used for the interpretation of single objects. The procedure contains two basic domains. The strategy is to build up a hierarchical network of image objects which allows to represent the image information content at different resolutions (scales) simultaneously. In a second step the image objects were classified by means of fuzzy logic, either on features of objects and/or on relations between networked objects operating on the semantic network. The procedure showed very good results in detecting houses and updating vector data sets. Segmenting the data in semantic units and performing further analysis on these units showed to be very helpful for interpretation. It could be shown that for analysis of urban areas the use of a Digital Surface Model is necessary. Due to the spectral similarities of image elements the elevation information offers an important additional tool for analysis.
47

Segmentierung und hierarchische Klassifikation archäologischer Gefäße

Hörr, Christian 22 May 2006 (has links) (PDF)
In der Archäologie besteht das Problem, dass es für die Beschreibung von Objekteigenschaften keine einheitliche Begriffsbasis gibt. Nicht nur bei der Klassifikation von Gefäßen, aber besonders dort kommt es dann zu Schwierigkeiten, denn neben der Subjektivität der Wortwahl existiert auch eine internationale Sprachbarriere. Somit werden Forderungen nach einer mathematisch-algorithmisch orientierten Merkmalsbeschreibung laut. Damit ginge langfristig nicht nur die Etablierung weltweit einheitlicher Typologien einher, sondern auch die Möglichkeit einer computergestützten automatischen Klassifikation. Die Diplomarbeit behandelt im ersten Teil die Segmentierung archäologischer Gefäße. Diese ist notwendig, um die Analyse sekundärer Gefäßmerkmale vollautomatisch und unabhängig vom Gefäßrumpf durchführen zu können. Weil sich dabei topologische, skelettbasierte und krümmungsbasierte Verfahren aus verschiedenen Gründen als ungeeignet herausstellten, wurde ein neuer Segmentierungsansatz über die Rotation einer adaptiven Profillinie entwickelt. Dieser leistet eine schnelle, robuste, vor allem aber genaue Trennung asymmetrischer Teile vom Gefäßrumpf. Im zweiten Teil werden die aus der Segmentierung gewonnenen Informationen über sekundäre und ggf. auch tertiäre Gefäßmerkmale zusammen mit den primären Attributen wie äußere Form und globale geometrische Maße in das Klassifikationssystem integriert. Aufgrund der im Klassifikationsprozess immanenten Hierarchie ist es zweckmäßiger, einen spezifischen mehrstufigen Ansatz gegenüber einstufigen oder globalen Shape-Matching-Ansätzen vorzuziehen. Darüber hinaus werden Vergleichsmetriken und ein Attributgraph vorgestellt sowie Vorschläge zur Segmentinterpretation gemacht.
48

Skelettierung von 3d-Objekten auf kubisch-raumzentrierten Gittern und deren Anwendung in der Segmentierung, Manipulierung und Klassifizierung.

Brunner, David 07 January 2008 (has links) (PDF)
Oftmals kann ein Problem erst dadurch gelöst werden, indem seine Komplexität reduziert wird. Erst diese Reduktion ermöglicht die Verwendung von Lösungsansätzen, die für weniger komplexe Problemstellungen existieren. Für 3d-Objekte ist die Skelettierung der Mechanismus, der die Objekte auf eine niedrigere Dimension abbildet und dadurch deren Komplexität reduziert. Seit nunmehr 40 Jahren werden entsprechende Verfahren und darauf basierende Anwendungen entwickelt. In jüngster Zeit traten auf innovativen Forschungsgebieten innerhalb des Maschinenbaus, der Nanotechnologie, der Medizintechnik und nicht zuletzt der Computergrafik Probleme auf, die durch Skelettierung bewältigt wurden oder in naher Zukunft zu bewältigen sind. Mit der vorliegenden Dissertation wird an den aktuellen Stand der Forschung angeknüpft und ein Skelettierungsverfahren vorgestellt, das nicht auf den bisher üblichen kartesischen Gittern, sondern auf den sogenannten kubisch-raumzentrierten Gittern operiert. Dadurch ergeben sich eine Vielzahl positiver Eigenschaften, sowohl unter topologischen als auch rechentechnischen Aspekten. Die auf Gitterstrukturen basierenden Verfahren haben traditionell Schwierigkeiten, rotationsinvariante Skelette zu generieren. Diese Eigenschaft ist jedoch für eine Reihe von Applikationen wünschenswert. Eine Ausnahme bilden Verfahren, die zunächst ein Vektorfeld berechnen, das Abstoßungen vom Objektrand simuliert. Mithilfe dieser Strukturen können Skelettpunkte identifiziert werden, die von der Gitterstruktur unabhängig sind. Allerdings sind die Verfahren, die derartige Skelette erzeugen, extrem ineffizient: Bezogen auf die Anzahl der Objektgitterpunkte ist die Komplexität quadratisch. Deshalb ist ein weiterer Schwerpunkt dieser Arbeit, eine qualitativ hochwertige Approximation des Vektorfeldes in linearer Zeitkomplexität zu erzeugen. Die zusätzlichen Informationen, die aus diesen Vektorfeldern gewonnen werden, kommen innerhalb des ursprünglichen Skelettierungsverfahrens zum Einsatz, um die Vorteile beider Verfahren zu kombinieren. Die auf diese Weise erzeugten eindimensionalen Skelettstrukturen der 3d-Objekte eignen sich für eine Vielzahl von Anwendungen. Drei Anwendungen, namentlich die Klassifizierung, die Segmentierung und die Manipulierung werden gezeigt. Für die Klassifizierung werden die erzeugten Skelette in eine Graphrepräsentation transformiert. Hierfür werden zwei Verfahren vorgestellt und darüber hinaus erläutert, wie die Graphrepräsentation optimiert und mit Attributen versehen werden kann. Insbesondere die Attributierung (z. B. mit Distanz- oder Krümmungsinformationen) ist von großer Bedeutung, da der Graph zunächst die Objektform nur grob abstrahiert und dadurch kein detaillierter Vergleich zwischen Objekten möglich wäre. Für die Segmentierung und die Deformierung von 3d-Objekten besteht der wichtigste Beitrag dieser Dissertation darin, eine präzise Zuordnung zwischen Abschnitten des Graphen und Meshregionen durchzuführen, die erforderlich ist, um Änderungen an der Graphstruktur (Auftrennen oder Deformieren) direkt auf das Mesh übertragen zu können. Hierfür wird eine spezielle Datenstruktur präsentiert, die diese Zuordnung ermöglicht, ohne die Komplexität des Skelettierungsverfahrens zu verschlechtern. Ein breites Spektrum an Vorschlägen für zukünftige, auf dieser Dissertation aufbauende Forschungsthemen schließen die Arbeit ab.
49

Einfluss von Strahlendosis und Bildrekonstruktion auf die computertomographische Densitometrie der pulmonalen Überbelüftung

Schwarzkopf, Peter 30 March 2011 (has links) (PDF)
Maschinelle Beatmung kann neben den gewünschten Effekten eine vorbestehende Lungenerkrankung weiter aggravieren und sogar das Lungenparenchym zuvor lungengesunder Patienten schädigen. Mit Hilfe der quantitativen Computertomographie (qCT) können pathologische Belüftungszustände und gegebenenfalls durch maschinelle Beatmung verursachte Schäden analysiert werden. Solche auf der qCT basierende Analysen der Lungenbelüftung werden jedoch potentiell durch CT-Akquisitions- und Bildrekonstruktionsparameter beeinflusst. Um die Ergebnisse vor allem von Analysen des überbelüfteten Lungenvolumens richtig bewerten zu können, müssen solche Einflüsse untersucht werden. Bei 10 Versuchstieren (Schweine) wurden bei einem konstanten Atemwegsdruck von 25 cm H2O zuerst bei gesunder Lunge und dann erneut nach experimenteller Lungenschädigung CT-Bildserien mit zwei unterschiedlichen Strahlendosen angefertigt. Von diesen Rohdaten wurden Bildserien mit unterschiedlichen Rekonstruktionsparametern angefertigt und in jeder dieser Bildserien das überbelüftete Lungenvolumen bestimmt. Sowohl die Schichtdicke, der Filter als auch die Stromstärke hatten einen signifikanten Einfluss auf das eigentlich konstante überbelüftete Lungenvolumen, der jedoch nur teilweise klinisch relevant war. Bei der Interpretation von Messungen des überbelüfteten Lungenvolumens sollten dennoch die Einflüsse der genannten Parameter beachtet und für Vergleichsuntersuchungen gleiche Parametereinstellungen verwendet werden. Eine Dosisreduktion scheint dabei für Messungen des überbelüfteten Lungenvolumens praktikabel.
50

Computergestützte Volumetrie und Visualisierung von 3D CT-Daten von Patienten mit Stammganglien-Blutung in retrospektiver Studie / Computer-assisted volumetry and visualization of 3D CT data of patients with basal ganglia hemorrhage in a retrospective study

Borchert, Henning 28 April 2005 (has links)
No description available.

Page generated in 0.0742 seconds