• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 135
  • 109
  • 24
  • 9
  • 1
  • Tagged with
  • 277
  • 131
  • 72
  • 71
  • 70
  • 70
  • 62
  • 49
  • 43
  • 43
  • 42
  • 21
  • 20
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Relative pose estimation of known rigid objects using a novel approach to high-level PMD-/CCD- sensor data fusion with regard to applications in space / Relative Lagebestimmung bekannter fester Objekte unter Verwendung eines neuen Ansatzes zur anwendungsnahen Sensordatenfusion einer PMD- und CCD-Kamera hinsichtlich ihrer Anwendungen im Weltraum

Tzschichholz, Tristan January 2014 (has links) (PDF)
In this work, a novel method for estimating the relative pose of a known object is presented, which relies on an application-specific data fusion process. A PMD-sensor in conjunction with a CCD-sensor is used to perform the pose estimation. Furthermore, the work provides a method for extending the measurement range of the PMD sensor along with the necessary calibration methodology. Finally, extensive measurements on a very accurate Rendezvous and Docking testbed are made to evaluate the performance, what includes a detailed discussion of lighting conditions. / In der Arbeit wird eine neuartige Methode zur Bestimmung der relativen Lage eines bekannten Objektes vorgestellt, welche auf einem anwendungsspezifischen Datenfusionsprozess basiert. Dabei wird ein PMD-Sensor zusammen mit einem CCD-Sensor benutzt, um die Lagebestimmung vorzunehmen. Darüber hinaus liefert die Arbeit eine Methode, den Messbereich des PMD-Sensors zu erhöhen zusammen mit der notwendigen Kalibrierungsmethoden. Schließlich werden detailierte und weitreichende Messungen aus einer sehr genauen Rendezvous und Docking-Testanlage gemacht, um die Leistungsfähigkeit des Algorithmus zu demonstrieren, was auch eine detaillierte Behandung der Beleuchtungsbedingungen einschließt.
62

Image Processing and other bioinformatic tools for Neurobiology / Bildbearbeitung und andere bioinformatische Werkzeuge für die Neurobiologie

Prada Salcedo, Juan Pablo January 2018 (has links) (PDF)
Neurobiology is widely supported by bioinformatics. Due to the big amount of data generated from the biological side a computational approach is required. This thesis presents four different cases of bioinformatic tools applied to the service of Neurobiology. The first two tools presented belong to the field of image processing. In the first case, we make use of an algorithm based on the wavelet transformation to assess calcium activity events in cultured neurons. We designed an open source tool to assist neurobiology researchers in the analysis of calcium imaging videos. Such analysis is usually done manually which is time consuming and highly subjective. Our tool speeds up the work and offers the possibility of an unbiased detection of the calcium events. Even more important is that our algorithm not only detects the neuron spiking activity but also local spontaneous activity which is normally discarded because it is considered irrelevant. We showed that this activity is determinant in the calcium dynamics in neurons and it is involved in important functions like signal modulation and memory and learning. The second project is a segmentation task. In our case we are interested in segmenting the neuron nuclei in electron microscopy images of c.elegans. Marking these structures is necessary in order to reconstruct the connectome of the organism. C.elegans is a great study case due to the simplicity of its nervous system (only 502 neurons). This worm, despite its simplicity has taught us a lot about neuronal mechanisms. There is still a lot of information we can extract from the c.elegans, therein lies the importance of reconstructing its connectome. There is a current version of the c.elegans connectome but it was done by hand and on a single subject which leaves a big room for errors. By automatizing the segmentation of the electron microscopy images we guarantee an unbiased approach and we will be able to verify the connectome on several subjects. For the third project we moved from image processing applications to biological modeling. Because of the high complexity of even small biological systems it is necessary to analyze them with the help of computational tools. The term in silico was coined to refer to such computational models of biological systems. We designed an in silico model of the TNF (Tumor necrosis factor) ligand and its two principal receptors. This biological system is of high relevance because it is involved in the inflammation process. Inflammation is of most importance as protection mechanism but it can also lead to complicated diseases (e.g. cancer). Chronic inflammation processes can be particularly dangerous in the brain. In order to better understand the dynamics that govern the TNF system we created a model using the BioNetGen language. This is a rule based language that allows one to simulate systems where multiple agents are governed by a single rule. Using our model we characterized the TNF system and hypothesized about the relation of the ligand with each of the two receptors. Our hypotheses can be later used to define drug targets in the system or possible treatments for chronic inflammation or lack of the inflammatory response. The final project deals with the protein folding problem. In our organism proteins are folded all the time, because only in their folded conformation are proteins capable of doing their job (with some very few exceptions). This folding process presents a great challenge for science because it has been shown to be an NP problem. NP means non deterministic Polynomial time problem. This basically means that this kind of problems cannot be efficiently solved. Nevertheless, somehow the body is capable of folding a protein in just milliseconds. This phenomenon puzzles not only biologists but also mathematicians. In mathematics NP problems have been studied for a long time and it is known that given the solution to one NP problem we could solve many of them (i.e. NP-complete problems). If we manage to understand how nature solves the protein folding problem then we might be able to apply this solution to many other problems. Our research intends to contribute to this discussion. Unfortunately, not to explain how nature solves the protein folding problem, but to explain that it does not solve the problem at all. This seems contradictory since I just mentioned that the body folds proteins all the time, but our hypothesis is that the organisms have learned to solve a simplified version of the NP problem. Nature does not solve the protein folding problem in its full complexity. It simply solves a small instance of the problem. An instance which is as simple as a convex optimization problem. We formulate the protein folding problem as an optimization problem to illustrate our claim and present some toy examples to illustrate the formulation. If our hypothesis is true, it means that protein folding is a simple problem. So we just need to understand and model the conditions of the vicinity inside the cell at the moment the folding process occurs. Once we understand this starting conformation and its influence in the folding process we will be able to design treatments for amyloid diseases such as Alzheimer's and Parkinson's. In summary this thesis project contributes to the neurobiology research field from four different fronts. Two are practical contributions with immediate benefits, such as the calcium imaging video analysis tool and the TNF in silico model. The neuron nuclei segmentation is a contribution for the near future. A step towards the full annotation of the c.elegans connectome and later for the reconstruction of the connectome of other species. And finally, the protein folding project is a first impulse to change the way we conceive the protein folding process in nature. We try to point future research in a novel direction, where the amino code is not the most relevant characteristic of the process but the conditions within the cell. / Neurobiologie wird durch Bioinformatik unterstützt, aufgrund der großen Datenmengen, die von biologischer Seite her anfallen, bedarf es eines rechnerischen Ansatzes, um diese Daten sinnvoll zu interpretieren. Im Rahmen der vorliegenden Dissertation werden vier Werkzeuge aus dem Bereich der Bioinformatik für die Anwendung in der Neurobiologie vorgestellt. Die ersten beiden Werkzeuge gehören zum Bereich der digitalen Bildverarbeitung. Das erste Werkzeug nutzt einen Algorithmus basierend auf der Wavelet-Transformation, um Calciumaktivität in Neuronenkulturen zu bewerten. Hierzu wurde Open-Source-Software entwickelt, die Neurobiologen bei der Analyse von Videoaufnahmen unterstützt. Diese Analyse wird herkömmlicherweise manuell vorgenommen, sodass der Prozess zeitintensiv und sehr subjektiv ist. Die entwickelte Software beschleunigt den Arbeitsprozess und ermöglicht eine unverzerrte Detektion der Ereignisse in Bezug auf Calcium. Von noch größerer Bedeutsamkeit ist die Tatsache, dass der entwickelte Algorithmus nicht nur neuronale Spiking-Aktivität detektiert, sondern auch lokale Spontanaktivität, die herkömmlicherweise als irrelevant betrachtet und daher verworfen wird. Wir konnten zeigen, dass diese Spontanaktivität hohe Relevanz für die Dynamik von Calcium in den Neuronen besitzt und wahrscheinlich an wichtigen Funktionen beteiligt ist, wie der Signalmodulation, Lernen und Gedächtnis. Beim zweiten Projekt handelt es sich um eine Segmentierungsaufgabe. Wir sind daran interessiert, die neuronalen Zellkerne in elektromikroskopischen Aufnahmen des C.elegans zu segmentieren. Die Kennzeichnung dieser Struktur ist notwendig, um das Konnektom dieses Organismus zu rekonstruieren. Als Studienobjekt eignet sich C.elegans aufgrund der Simplizität seines Nervensystems (er besteht lediglich aus 502 Neuronen). Trotz der Simplizität des Nervensystems dieses Wurms konnten wichtige Erkenntnisse im Hinblick auf neuronale Mechanismen durch die Untersuchung dieses Modellorganismus gewonnen werden. Daher ist die Bestimmung des Konnektoms bedeutsam. Es existiert bereits eine Version des Konnektoms, doch diese wurde händig für lediglich ein Subjekt rekonstruiert und ist daher möglicherweise fehlerbehaftet. Die automatisierte Segmentierung der elektronenmikroskopischen Aufnahmen ermöglicht einen weniger verzerrten Ansatz, der zudem die Verifizierung an mehreren Subjekten gestattet. Das dritte Projekt dieser Dissertation ist ein Projekt zur Modellierung und Simulation eines biologischen Systems. Aufgrund der hohen Komplexität selbst kleinster biologischer Systeme ist die computergestützte Analyse notwendig. Der Begriff in silico wurde für die computergestützte Simulation biologischer Systeme geprägt. Wir haben ein in silico Modell des TNF (Tumornekrosefaktor) Ligand und seiner zwei Hauptrezeptoren entwickelt. Dieses biologische System ist von hoher Bedeutsamkeit, da es am Entzündungsprozess beteiligt ist, der höchste Wichtigkeit als Schutzmechanismus hat, aber es kann auch komplizierte Erkrankungen auslösen (beispielsweise Krebs), falls es zu einer chronischen Entzündungsreaktion kommt. Derartige Entzündungsprozesse können besonders gefährlich im Gehirn sein. Das System muss eine schwierige Balance zwischen protektiver Funktion und möglicher Krankheitsursache behalten. Um die Dynamiken besser zu verstehen, die das TNF System leiten, haben wir ein Modell mittels der BioNetGen Sprache erstellt. Diese regelbasierte Sprache ermöglicht es ein System zu simulieren, in dem multiple Agenten geleitet werden von einer Regel. Mithilfe unseres Modells charakterisieren wir das TNF System und stellen Hypothesen über die Beziehung des Liganden mit den beiden Rezeptoren auf. Diese Hypothesen können später genutzt werden, um mögliche Ziele im System für Arzneimittel, mögliche Behandlungen für chronische Entzündungen oder das Fehlen einer Entzündungsreaktion zu bestimmen. Im abschießenden Projekt wird das Proteinfaltungsproblem behandelt. In unserem Organismus werden ständig Proteine gefaltet, denn nur im gefalteten Zustand können sie ihrer Aufgabe nachkommen (mit sehr wenigen Ausnahmen). Dieser Faltungsprozess stellt eine große Herausforderung für die Wissenschaft dar, weil gezeigt wurde, dass der Faltungsprozess ein NP Problem ist. NP steht dabei für nichtdeterministisch polynomielles Zeitproblem. Dies bedeutet im Grunde, dass es nicht effizient gelöst werden kann. Nichtsdestotrotz ist der Körper in der Lage, ein Protein in Millisekunden zu falten. Dieses Phänomen stellt nicht nur Biologen sondern auch Mathematiker vor Rätsel. In der Mathematik wurde diese Probleme schon lange studiert und es ist bekannt, dass die Kenntnis der Lösung eines NP Problems die Lösung vieler bedeuten würde (insbesondere NP-kompletter Probleme). Daher ist die Idee, dass viele Probleme gelöst werden könnten, durch das Verständnis davon, wie die Natur das Problem löst. Unsere Forschung zielt darauf ab, zu dieser Diskussion beizutragen, allerdings nicht durch die Erklärung davon, wie die Natur das Problem löst, sondern durch die Erklärung, dass die Natur das Problem nicht löst. Dies scheint zunächst widersprüchlich, da der Körper ständig Proteine faltet. Unsere Hypothese besagt jedoch, dass der Organismus gelernt hat, eine vereinfachte Version des NP Problems zu lösen. Die Natur löst das Problem nicht in seiner vollen Komplexität, sondern nur eine kleine Instanz davon. Eine Instanz, die ein konvexes Optimierungsproblem darstellt. Wir formulieren das Proteinfaltungsproblem als konvexes Optimierungsproblem und zur Illustrierung unserer Behauptung nutzen wir theoretische Beispiele. Wenn die Hypothese zutrifft, bedeutet dies, dass das Proteinfaltungsproblem ein einfaches ist und wir müssen lediglich die Ausgangskonstellation der Umgebung in der Zelle verstehen und modellieren, in dem Moment in dem die Faltung passiert. Sobald wir die Ausgangskonstellation und den Einfluss auf den Faltungsprozess verstehen, können wir Behandlungen für Amyloid-Krankheiten, wie Alzheimer-Demenz und Morbus Parkinson entwickeln. Zusammenfassend trägt die vorliegende Dissertation zu neurobiologischer Forschung durch vier Ansätze bei. Zwei sind praktische Beiträge mit sofortigem Nutzen für die Forschung, dazu zählen das Videoanalyse Tool für Calcium Aufnahmen und das TNF in silico Modell. Die neuronale Zellkernsegmentierung ist ein Beitrag für die nahe Zukunft – ein Schritt zur Vervollständigung des Konnektoms des C.elegans und langfristig zur Rekonstruktion der Konnektome anderer Spezies. Und schließlich ist das Proteinfaltungsprojekt ein erster Impuls den Proteinfaltungsprozess anders zu denken. Wir versuchen zukünftige Forschung in eine andere Richtung zu lenken, wobei nicht der Aminosäurecode das relevanteste Charakteristikum des Prozesses ist, sondern vielmehr die Bedingungen innerhalb der Zelle.
63

Bildverarbeitungsmethoden zur zuverlässigen Mustererkennung auf dem Roboterjersey im humanoiden Roboterfußball

Kunz, Lea 06 November 2023 (has links)
No description available.
64

Computational tools for the segmentation and registration of confocal brain images of Drosophila melanogaster / Software Tools für die Segmentierung und Registrierung konfokaler Gehirnbilder von Drosophila melanogaster

Schmid, Benjamin January 2010 (has links) (PDF)
Neuroanatomical data in fly brain research are mostly available as spatial gene expression patterns of genetically distinct fly strains. The Drosophila standard brain, which was developed in the past to provide a reference coordinate system, can be used to integrate these data. Working with the standard brain requires advanced image processing methods, including visualisation, segmentation and registration. The previously published VIB Protocol addressed the problem of image registration. Unfortunately, its usage was severely limited by the necessity of manually labelling a predefined set of neuropils in the brain images at hand. In this work I present novel tools to facilitate the work with the Drosophila standard brain. These tools are integrated in a well-known open-source image processing framework which can potentially serve as a common platform for image analysis in the neuroanatomical research community: ImageJ. In particular, a hardware-accelerated 3D visualisation framework was developed for ImageJ which extends its limited 3D visualisation capabilities. It is used for the development of a novel semi-automatic segmentation method, which implements automatic surface growing based on user-provided seed points. Template surfaces, incorporated with a modified variant of an active surface model, complement the segmentation. An automatic nonrigid warping algorithm is applied, based on point correspondences established through the extracted surfaces. Finally, I show how the individual steps can be fully automated, and demonstrate its application for the successful registration of fly brain images. The new tools are freely available as ImageJ plugins. I compare the results obtained by the introduced methods with the output of the VIB Protocol and conclude that our methods reduce the required effort five to ten fold. Furthermore, reproducibility and accuracy are enhanced using the proposed tools. / Expressionsmuster genetisch manipulierter Fliegenstämme machen den Großteil neuroanatomischer Daten aus, wie sie in der Gehirnforschung der Taufliege Drosophila melanogaster entstehen. Das Drosophila Standardgehirn wurde u.a. entwickelt, um die Integration dieser Daten in ein einheitliches Referenz-Koordinatensystem zu ermöglichen. Die Arbeit mit dem Standardgehirn erfordert hochentwickelte Bildverarbeitungsmethoden, u.a. zur 3D Visualisierung, Segmentierung und Registrierung. Das bereits publizierte "VIB Protocol" stellte bisher eine Möglichkeit für die Registrierung zur Verfügung, die aber duch die Notwendigkeit manueller Segmentierung bestimmter Neuropile nur eingeschränkt verwendbar war. In der vorliegenden Arbeit stelle ich neue Werkzeuge vor, die den Umgang mit dem Standardgehirn erleichtern. Sie sind in ein bekanntes, offenes Bildverarbeitungsprogramm integriert, das potentiell als Standardsoftware in der neuroanatomischen Forschung dienen kann: ImageJ. Im Zuge dieser Arbeit wurde eine hardwarebeschleunigte 3D Visualisierungs-Bibliothek entwickelt, die die Visualisierungsmöglichkeiten von ImageJ ergänzt. Auf Basis dieser Entwicklung wurde anschließend ein neuer halbautomatischer Segmentierungs-Algorithmus erstellt. In diesem Algorithmus werden Neuropil-Oberflächen, ausgehend von ausgewählten Ausgangspunkten, aufgebaut und erweitert. Vorlagen von Neuropil-Oberflächen aus der Segmentierung eines Referenz-Datensatzes, die anhand eines modifizierten "Active Surface" Modells einbezogen werden können, ergänzen die aktuelle Segmentierung. Die so erhaltenen Oberflächen ermöglichen es, korrespondierende Landmarken in den Bildern zu ermitteln, die für eine nicht-rigide Registrierung verwendet werden. Schließlich wird dargelegt, wie die einzelnen Schritte voll automatisiert werden können, um die Bilder der Fliegengehirne aufeinander abzubilden. Die vorgestellten Methoden sind frei als Erweiterungen für ImageJ verfügbar (Plugins). Ein direkter Vergleich mit dem VIB Protokoll zeigt, dass durch die vorgestellten Methoden nicht nur der Benutzeraufwand auf ein Sechstel reduziert, sondern dass gleichzeitig auch die Genauigkeit und Reproduzierbarkeit erhöht wird.
65

The standard brain of Drosophila melanogaster and its automatic segmentation / Das Standardgehirn von Drosophila melanogaster und seine automatische Segmentierung

Schindelin, Johannes January 2005 (has links) (PDF)
In this thesis, I introduce the Virtual Brain Protocol, which facilitates applications of the Standard Brain of Drosophila melanogaster. By providing reliable and extensible tools for the handling of neuroanatomical data, this protocol simplifies and organizes the recurring tasks involved in these applications. It is demonstrated that this protocol can also be used to generate average brains, i.e. to combine recordings of several brains with the same features such that the common features are emphasized. One of the most important steps of the Virtual Insect Protocol is the aligning of newly recorded data sets with the Standard Brain. After presenting methods commonly applied in a biological or medical context to align two different recordings, it is evaluated to what extent this alignment can be automated. To that end, existing Image Processing techniques are assessed. I demonstrate that these techniques do not satisfy the requirements needed to guarantee sensible alignments between two brains. Then, I analyze what needs to be taken into account in order to formulate an algorithm which satisfies the needs of the protocol. In the last chapter, I derive such an algorithm using methods from Information Theory, which bases the technique on a solid mathematical foundation. I show how Bayesian Inference can be applied to enhance the results further. It is demonstrated that this approach yields good results on very noisy images, detecting apparent boundaries between structures. The same approach can be extended to take additional knowledge into account, e.g. the relative position of the anatomical structures and their shape. It is shown how this extension can be utilized to segment a newly recorded brain automatically. / In dieser Arbeit wird das Virtual Brain Protocol vorgestellt, das die Anwendungen rund um das Standardgehirn von \dm\ erleichtert. Durch das Bereitstellen robuster und erweiterbarer Werkzeuge zum Verarbeiten neuroanatomischer Datensätze ermöglicht es ein strukturiertes Abarbeiten der häufig benötigten Vorgänge im Zusammenhang mit der Arbeit mit dem Standardgehirn. Neben der Einpassung neuer Daten in das Standardgehirn kann dieses Protokoll auch dazu verwendet werden, sogenannte Durchschnittshirne zu erstellen; Aufnahmen mehrerer Hirne mit der gleichen zu zeigenden Eigenschaft können zu einem neuen Datensatz kombiniert werden, der die gemeinsamen Charakteristika hervorhebt. Einer der wichtigsten Schritte im Virtual Insect Protocol ist die Alignierung neuer Datensätze auf das Standardgehirn. Nachdem Methoden vorgestellt werden, die üblicherweise im biologischen oder medizinischen Umfeld angewendet werden, um Hirne aufeinander zu alignieren, wird evaluiert, inwiefern dieser Prozess automatisierbar ist. In der Folge werden diverse bildverarbeitende Methoden in dieser Hinsicht beurteilt. Es wird demonstriert, dass diese Verfahren den Anforderungen sinnvoller Alignierungen von Hirnen nicht genügen. Infolgedessen wird genauer analysiert, welche Umstände berücksichtigt werden müssen, um einen Algorithmus zu entwerfen, der diesen Anforderungen genügt. Im letzten Kapitel wird ein solcher Algorithmus mithilfe von Methoden aus der Informationstheorie hergeleitet, deren Verwendung das Verfahren auf eine solide mathematische Basis stellt. Es wird weiterhin gezeigt, wie Bayesische Inferenz angewendet werden kann, um die Ergebnisse darüber hinaus zu verbessern. Sodann wird demonstriert, daß dieser Algorithmus in stark verrauschten Bilddaten ohne zusätzliche Informationen Grenzen zwischen Strukturen erkennen kann, die mit den sichtbaren Grenzen gut übereinstimmen. Das Verfahren kann erweitert werden, um zusätzliche Informationen zu berücksichtigen, wie etwa die relative Position anatomischer Strukturen sowie deren Form. Es wird gezeigt, wie diese Erweiterung zur automatischen Segmentierung eines Hirnes verwendet werden kann.
66

Effiziente 3D Magnetresonanzbildgebung schnell abfallender Signale / Efficient 3D Magnetic Resonance Imaging of fast decaying signals

Breuer [geb. Hemberger], Kathrin R. F. January 2015 (has links) (PDF)
In der vorliegenden Arbeit wird die Rotated-Cone-UTE-Sequenz (RC-UTE), eine 3D k-Raum-Auslesetechnik mit homogener Verteilung der Abtastdichte, vorgestellt. Diese 3D MR-Messtechnik ermöglicht die für die Detektion von schnell abfallenden Signalen notwendigen kurzen Echozeiten und weist eine höhere SNR-Effizienz als konventionelle radiale Pulssequenzen auf. Die Abtastdichte ist dabei in radialer und azimutaler Richtung angepasst. Simulationen und Messungen in vivo zeigen, dass die radiale Anpassung das T2-Blurring reduziert und die SNR-Effizienz erhöht. Die Drehung der Trajektorie in azimutale Richtung ermöglicht die Reduzierung der Unterabtastung bei gleicher Messzeit bzw. eine Reduzierung der Messzeit ohne Auflösungsverlust. Die RC-UTE-Sequenz wurde erfolgreich für die Bildgebung des Signals des kortikalen Knochens und der Lunge in vivo angewendet. Im Vergleich mit der grundlegenden UTE-Sequenz wurden die Vorteile von RC-UTE in allen Anwendungsbeispielen aufgezeigt. Die transversalen Relaxationszeit T2* des kortikalen Knochen bei einer Feldstärke von 3.0T und der Lunge bei 1.5T und 3.0T wurde in 3D isotroper Auflösung gemessen. Außerdem wurde die Kombination von RC-UTE-Sequenz mit Methoden der Magnetisierungspräparation zur besseren Kontrasterzeugung gezeigt. Dabei wurden die Doppel-Echo-Methode, die Unterdrückung von Komponenten mit langer Relaxationszeit T2 durch Inversionspulse und der Magnetisierungstransfer-Kontrast angewendet. Die Verwendung der RC-UTE-Sequenz für die 3D funktionelle Lungenbildgebung wird ebenfalls vorgestellt. Mit dem Ziel der umfassenden Charakterisierung der Lungenfunktion in 3D wurde die simultane Messung T1-gewichteter Bilder und quantitativer T2*-Karten für verschiedene Atemzustände an sechs Probanden durchgeführt. Mit der hier vorgestellten Methode kann die Lungenfunktion in 3D über T1-Wichtung, quantitative T2*-Messung und Rekonstruktion verschiedener Atemzustände durch Darstellung von Ventilation, Sauerstofftransport und Volumenänderung beurteilt werden. / In this thesis the Rotated-Cone-UTE-sequence (RC-UTE), a 3D k- space sampling scheme with uniform sampling density, is presented. 3D RC-UTE provides short echo times enabling the detection of fast decaying signals with higher SNR-efficiency than conventional UTE sequences. In RC-UTE the sampling density is adapted in radial and azimuthal direction. It is shown in simulations and measurements that the density adaption along the radial dimension reduces T2-blurring. By twisting the trajectory along the azimuthal direction fewer projections are needed to fulfill the Nyquist criterion. Thereby, undersampling artefacts or the measurement time is reduced without loss of resolution. RC-UTE has been successfully applied in vivo in cortical bone and the lung. It was shown that the RC-UTE sequence outperforms the standard UTE sequence in all presented applications. In addition, the transversal relaxation time T2* of cortical bone at field strength of 3.0T and the human lung at 1.5T und 3.0T was measured in 3D isotropic resolution. Moreover, the combination of RC-UTE with magnetization preparation techniques for improved image contrast was shown. To this end strategies such as double-echo readout, long T2 suppression by inversion pulses and magnetization transfer contrast imaging were employed. Furthermore, the application of RC-UTE for 3D functional lung imaging is presented. In order to provide broad information about pulmonary function T1-weighted images and quantitative T2*-maps in different breathing states were simultaneously measured in six healthy volunteers. The presented methodology enables the assessment of pulmonary function in 3D by indicating ventilation, oxygen transfer and lung volume changes during free breathing.
67

Three-dimensional fluorescence image analysis of megakaryocytes and vascular structures in intact bone / Dreidimensionale Fluoreszenzbildanalyse von Megakaryozyten und Gefäßstrukturen in intaktem Knochen

Schmithausen, Patrick Alexander Gerhard January 2019 (has links) (PDF)
The thesis provides insights in reconstruction and analysis pipelines for processing of three-dimensional cell and vessel images of megakaryopoiesis in intact murine bone. The images were captured in a Light Sheet Fluorescence Microscope. The work presented here is part of Collaborative Research Centre (CRC) 688 (project B07) of the University of Würzburg, performed at the Rudolf-Virchow Center. Despite ongoing research within the field of megakaryopoiesis, its spatio-temporal pattern of megakaryopoiesis is largely unknown. Deeper insight to this field is highly desirable to promote development of new therapeutic strategies for conditions related to thrombocytopathy as well as thrombocytopenia. The current concept of megakaryopoiesis is largely based on data from cryosectioning or in vitro studies indicating the existence of spatial niches within the bone marrow where specific stages of megakaryopoiesis take place. Since classic imaging of bone sections is typically limited to selective two-dimensional views and prone to cutting artefacts, imaging of intact murine bone is highly desired. However, this has its own challenges to meet, particularly in image reconstruction. Here, I worked on processing pipelines to account for irregular specimen staining or attenuation as well as the extreme heterogeneity of megakaryocyte morphology. Specific challenges for imaging and image reconstruction are tackled and solution strategies as well as remaining limitations are presented and discussed. Fortunately, modern image processing and segmentation strongly benefits from continuous advances in hardware as well as software-development. This thesis exemplifies how a combined effort in biomedicine, computer vision, data processing and image technology leads to deeper understanding of megakaryopoiesis. Tailored imaging pipelines significantly helped elucidating that the large megakaryocytes are broadly distributed throughout the bone marrow facing a surprisingly dense vessel network. No evidence was found for spatial niches in the bone marrow, eventually resulting in a revised model of megakaryopoiesis. / Im Rahmen dieses Dissertationsvorhabens wurden Segmentierungs- und Auswertepipelines dreidimensionaler Bilder von Zellen und Gefäßen im intakten Mausknochen erarbeitet. Die Bilder entstanden durch Fluoreszenzaufnahmen eines Lichtblattmikroskops. Das Dissertationsvorhaben war Teil des Sonderforschungsbereichs 688 (Teilprojekts B07) der Universität Würzburg und es wurde am Rudolf-Virchow-Zentrum durchgeführt. Trotz einer Vielzahl aktueller Forschungsprojekte auf dem Gebiet der Megakaryopoese sind Erkenntnisse über deren räumlich-zeitliche Zusammenhänge größtenteils unbekannt. Neuere wissenschaftliche Erkenntnisse auf diesem Gebiet wären insbesondere hilfreich für die Weiterentwicklung von Behandlungsstrategien für Patienten, die an Thrombozytopenien oder Thrombozytopathien leiden. Das aktuell vorherrschende Modell zur Erklärung der Megakaryopoese geht von der Existenz räumlicher Nischen im Knochenmark aus, in denen sich die einzelnen Schritte der Megakaryopoese vollziehen. Dieses Modell basiert hauptsächlich auf Auswertungen von Gefrierschnitten sowie in-vitro Experimenten. Da die klassische Bildgebung von Knochenschnitten nur auf eine bestimmte Anzahl zweidimensionaler Schnitte begrenzt ist und deren Qualität unter Schnittartefakten leidet, ist die Bildgebung des intakten Knochens von besonderem Interesse. Dennoch führt dies zu neuen Herausforderungen im Bereich der Bilddatenauswertung. Im vorliegenden Dissertationsvorhaben beschäftige ich mich in diesem Bereich mit der Erarbeitung von Auswerteprotokollen, welche beispielsweise den Einfluss unregelmäßiger Färbungen oder Signalabschwächungen sowie die extreme Heterogenität der Megakaryozytenmorphologie berücksichtigen. Spezifische Herausforderungen für die Bildgebung und Bildrekonstruktion werden in Angriff genommen und Lösungsstrategien sowie verbleibende Einschränkungen werden vorgestellt und diskutiert. Erfreulicherweise profitieren insbesondere die moderne Bildbearbeitung sowie die Objekterkennung in großem Ausmaß von fortlaufenden Entwicklungen aus dem Hard- sowie Softwarebereich. Dieses Dissertationsvorhaben zeigt auf exemplarische Art und Weise auf, wie gemeinsame Forschungsanstrengungen im Bereich der Biomedizin, des Maschinellen Sehens, der Datenverarbeitung sowie der Bildtechnologie zu einem tieferen Verständnis der Megakaryopoese führen. Die maßgeschneiderten Pipelines zur Bilddatenauswertung stützten letztlich die These, dass größere Megakaryozyten im Knochenmark breit verteilt sind und von einem überraschend dichten Gefäßnetz umgeben sind. Beweise für die Existenz räumlicher Nischen im Knochenmark konnten nicht gefunden warden. Dieses führte schließlich zur Vorstellung eines überarbeiteten Modells der Megakaryopoese.
68

Kontinuierliche Selbstkalibrierung von Stereokameras

Dang, Thao. January 2007 (has links)
Zugl.: Karlsruhe, Universiẗat, Diss., 2007.
69

Digitale Vermessung und Auswertung von All-Sky-Meteorfotografien

Molau, Sirko 07 January 1997 (has links) (PDF)
Im Rahmen des ¨European Fireball Networks¨ fallen jährlich etwa 100 Aufnahmen von hellen Feuerkugeln an. Zur Zeit kann jedoch nur ein Bruchteil des Datenmaterials umfassend ausgewertet werden, da die manuelle Vermessung der Aufnahmen an einem Meßtisch sehr aufwendig ist. Im Rahmen der Diplomarbeit wurde das Programm ¨Fireball¨ zur automatischen Vermessung von Feuerkugelfotografien entwickelt. Die Arbeit beginnt mit einer umfassenden Einführung in die Thematik der Meteorbeobachtung. Die Algorithmen der digitalen Bildverarbeitung bilden den Schwerpunkt der Diplomarbeit. Sie umfassen * die Digitalisierung der Negative * die automatische Segmentierung, Identifizierung und Vermessung von Sternspuren (ohne Zusatzinformationen) * die manuelle Vermessung der Meteorspur im digitalisierten Bild Im Anschluß wird die Schnittstelle zu weiterführender Software diskutiert. Der zweite Schwerpunkt ist der Entwurf einer komfortablen grafischen Benutzerschnittstelle. Deren Implementation erfolgt in C bei Verwendung des Motif-Toolkits unter UNIX. Die Arbeit endet mit dem Ausblick auf zukünftige Entwicklungen sowie einem Glossar und dem Literaturverzeichnis.
70

Entwicklung flexibler Bildverarbeitungsketten zur Klassifikation und Verschleissmessung an Wendeschneidplatten /

Hermes, René Carl. January 2007 (has links)
Zugl.: Aachen, Techn. Hochsch., Diss., 2007.

Page generated in 0.0615 seconds