• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 138
  • 109
  • 24
  • 9
  • 1
  • Tagged with
  • 280
  • 134
  • 74
  • 74
  • 73
  • 73
  • 64
  • 49
  • 43
  • 43
  • 42
  • 21
  • 20
  • 20
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Bildfilter als Analysewerkzeug im Technologiesektor von Industrie 4.0

Albers, Franziska, Bartsch, Thomas, Kowalke, Dennis, Sade, Sercan 27 January 2022 (has links)
Der Einrichtprozess der Wasserstrahlschneidanlage erfolgt überwiegend als manueller Prozess. Die fehlende Automatisierung führt zu einem hohen Zeitverlust und der dauerhaften Anwesenheit einer Fachkraft. Dieser Umstand wird durch eine Steigerung des Automatisierungsgrades angegangen. Die Steigerung wird durch die Integration einer Umfeldsensorik und die Erstellung eines Algorithmus re-alisiert. Dieser erkennt die Halbzeuge im Arbeitsraum, um diese anschließend in ein CAD-Modell zu transformieren.
92

Detecting Changes and Finding Collisions in 3D Point Clouds : Data Structures and Algorithms for Post-Processing Large Datasets / Erkennen von Änderungen und Finden von Kollisionen in 3D Punktwolken

Schauer Marin Rodrigues, Johannes January 2020 (has links) (PDF)
Affordable prices for 3D laser range finders and mature software solutions for registering multiple point clouds in a common coordinate system paved the way for new areas of application for 3D point clouds. Nowadays we see 3D laser scanners being used not only by digital surveying experts but also by law enforcement officials, construction workers or archaeologists. Whether the purpose is digitizing factory production lines, preserving historic sites as digital heritage or recording environments for gaming or virtual reality applications -- it is hard to imagine a scenario in which the final point cloud must also contain the points of "moving" objects like factory workers, pedestrians, cars or flocks of birds. For most post-processing tasks, moving objects are undesirable not least because moving objects will appear in scans multiple times or are distorted due to their motion relative to the scanner rotation. The main contributions of this work are two postprocessing steps for already registered 3D point clouds. The first method is a new change detection approach based on a voxel grid which allows partitioning the input points into static and dynamic points using explicit change detection and subsequently remove the latter for a "cleaned" point cloud. The second method uses this cleaned point cloud as input for detecting collisions between points of the environment point cloud and a point cloud of a model that is moved through the scene. Our approach on explicit change detection is compared to the state of the art using multiple datasets including the popular KITTI dataset. We show how our solution achieves similar or better F1-scores than an existing solution while at the same time being faster. To detect collisions we do not produce a mesh but approximate the raw point cloud data by spheres or cylindrical volumes. We show how our data structures allow efficient nearest neighbor queries that make our CPU-only approach comparable to a massively-parallel algorithm running on a GPU. The utilized algorithms and data structures are discussed in detail. All our software is freely available for download under the terms of the GNU General Public license. Most of the datasets used in this thesis are freely available as well. We provide shell scripts that allow one to directly reproduce the quantitative results shown in this thesis for easy verification of our findings. / Kostengünstige Laserscanner und ausgereifte Softwarelösungen um mehrere Punktwolken in einem gemeinsamen Koordinatensystem zu registrieren, ermöglichen neue Einsatzzwecke für 3D Punktwolken. Heutzutage werden 3D Laserscanner nicht nur von Expert*innen auf dem Gebiet der Vermessung genutzt sondern auch von Polizist*innen, Bauarbeiter*innen oder Archäolog*innen. Unabhängig davon ob der Einsatzzweck die Digitalisierung von Fabrikanlagen, der Erhalt von historischen Stätten als digitaler Nachlass oder die Erfassung einer Umgebung für Virtual Reality Anwendungen ist - es ist schwer ein Szenario zu finden in welchem die finale Punktwolke auch Punkte von sich bewegenden Objekten enthalten soll, wie zum Beispiel Fabrikarbeiter*innen, Passant*innen, Autos oder einen Schwarm Vögel. In den meisten Bearbeitungsschritten sind bewegte Objekte unerwünscht und das nicht nur weil sie in mehrmals im gleichen Scan vorkommen oder auf Grund ihrer Bewegung relativ zur Scanner Rotation verzerrt gemessen werden. Der Hauptbeitrag dieser Arbeit sind zwei Nachverarbeitungsschritte für registrierte 3D Punktwolken. Die erste Methode ist ein neuer Ansatz zur Änderungserkennung basierend auf einem Voxelgitter, welche es erlaubt die Eingabepunktwolke in statische und dynamische Punkte zu segmentieren. Die zweite Methode nutzt die gesäuberte Punktwolke als Eingabe um Kollisionen zwischen Punkten der Umgebung mit der Punktwolke eines Modells welches durch die Szene bewegt wird zu erkennen. Unser Vorgehen für explizite Änderungserkennung wird mit dem aktuellen Stand der Technik unter Verwendung verschiedener Datensätze verglichen, inklusive dem populären KITTI Datensatz. Wir zeigen, dass unsere Lösung ähnliche oder bessere F1-Werte als existierende Lösungen erreicht und gleichzeitig schneller ist. Um Kollisionen zu finden erstellen wir kein Polygonnetz sondern approximieren die Punkte mit Kugeln oder zylindrischen Volumen. Wir zeigen wie unsere Datenstrukturen effiziente Nächste-Nachbarn-Suche erlaubt, die unsere CPU Lösung mit einer massiv-parallelen Lösung für die GPU vergleichbar macht. Die benutzten Algorithmen und Datenstrukturen werden im Detail diskutiert. Die komplette Software ist frei verfügbar unter den Bedingungen der GNU General Public license. Die meisten unserer Datensätze die in dieser Arbeit verwendet wurden stehen ebenfalls zum freien Download zur Verfügung. Wir publizieren ebenfalls all unsere Shell-Skripte mit denen die quantitativen Ergebnisse die in dieser Arbeit gezeigt werden reproduziert und verifiziert werden können.
93

Improving Super-Resolution Microscopy Data Reconstruction and Evaluation by Developing Advanced Processing Algorithms and Artifcial Neuronal Networks / Verbesserung von Datenrekonstruktion und -auswertung in der Super-Resolution Mikroskopie durch die Entwicklung von fortgeschrittenen Verarbeitungsalgorithmen und künstlichen neuronalen Netzen

Reinhard, Sebastian January 2023 (has links) (PDF)
The fusion of methods from several disciplines is a crucial component of scientific development. Artificial Neural Networks, based on the principle of biological neuronal networks, demonstrate how nature provides the best templates for technological advancement. These innovations can then be employed to solve the remaining mysteries of biology, including, in particular, processes that take place on microscopic scales and can only be studied with sophisticated techniques. For instance, direct Stochastic Optical Reconstruction Microscopy combines tools from chemistry, physics, and computer science to visualize biological processes at the molecular level. One of the key components is the computer-aided reconstruction of super-resolved images. Improving the corresponding algorithms increases the quality of the generated data, providing further insights into our biology. It is important, however, to ensure that the heavily processed images are still a reflection of reality and do not originate in random artefacts. Expansion microscopy is expanding the sample by embedding it in a swellable hydrogel. The method can be combined with other super-resolution techniques to gain additional resolution. We tested this approach on microtubules, a well-known filamentous reference structure, to evaluate the performance of different protocols and labelling techniques. We developed LineProfiler an objective tool for data collection. Instead of collecting perpendicular profiles in small areas, the software gathers line profiles from filamentous structures of the entire image. This improves data quantity, quality and prevents a biased choice of the evaluated regions. On the basis of the collected data, we deployed theoretical models of the expected intensity distribution across the filaments. This led to the conclusion that post-expansion labelling significantly reduces the labelling error and thus, improves the data quality. The software was further used to determine the expansion factor and arrangement of synaptonemal complex data. Automated Simple Elastix uses state-of-the-art image alignment to compare pre- and post-expansion images. It corrects linear distortions occurring under isotropic expansion, calculates a structural expansion factor and highlights structural mismatches in a distortion map. We used the software to evaluate expanded fungi and NK cells. We found that the expansion factor differs for the two structures and is lower than the overall expansion of the hydrogel. Assessing the fluorescence lifetime of emitters used for direct Stochastic Optical Reconstruction Microscopy can reveal additional information about the molecular environment or distinguish dyes emitting with a similar wavelength. The corresponding measurements require a confocal scanning of the sample in combination with the fluorescent switching of the underlying emitters. This leads to non-linear, interrupted Point Spread Functions. The software ReCSAI targets this problem by combining the classical algorithm of compressed sensing with modern methods of artificial intelligence. We evaluated several different approaches to combine these components and found, that unrolling compressed sensing into the network architecture yields the best performance in terms of reconstruction speed and accuracy. In addition to a deep insight into the functioning and learning of artificial intelligence in combination with classical algorithms, we were able to reconstruct the described non-linearities with significantly improved resolution, in comparison to other state-of-the-art architectures. / Für die Weiterentwicklung der Wissenschaft wird es immer wichtiger, Methoden aus verschiedenen Gebieten zu kombinieren. Die künstliche Intelligenz beruht beispielsweise auf dem Prinzip biologischer neuronaler Netze. Hier wird die Natur als Vorlage für unsere technische Entwicklung genutzt. Diese Innovationen können dazu eingesetzt werden, die verbliebenen Rätsel der Biologie zu lösen. Dazu gehören insbesondere Prozesse, die sich auf mikroskopischer Ebene abspielen und nur mit hochentwickelten Techniken untersucht werden können. Die direkte Stochastisch Optische Rekonstruktionsmikroskopie kombiniert Methoden der Chemie, Physik und Informatik, um biologische Prozesse auf molekularer Ebene sichtbar zu machen. Eine der Schlüsselkomponenten ist die computergestützte Rekonstruktion von hochaufgelösten Bildern. Die Verbesserung der zugrunde liegenden Algorithmen erhöht die Qualität der erzeugten Daten und ermöglicht weitere Einblicke in unsere Biologie. Es muss jedoch sichergestellt werden, dass die künstlich erstellten Bilder immer noch ein Abbild der Realität sind und nicht auf zufälligen Artefakten beruhen. Expansionsmikroskopie vergrößert die Probe durch Einbettung in ein Hydrogel. Die Methode kann mit anderen hochauflösenden Techniken kombiniert werden, um die Auflösung noch weiter zu verbessern. Dieser Ansatz wurde an Mikrotubuli, einer bekannten flamentösen Referenzstruktur, verwendet, um verschiedene Protokolle und Markierungstechniken zu testen. Mit LineProfiler wurde ein objektives Werkzeug zur Datenerfassung entwickelt. Anstatt Linienprofle in kleinen Bereichen zu erfassen, wertet die Software das gesamte Bild aus. Dies verbessert die Datenmenge und Datenqualität und verhindert eine voreingenommene Auswahl der ausgewerteten Regionen. Auf Grundlage der gesammelten Daten wurden theoretische Modelle für die erwartete Intensitätsverteilung über die Filamente erstellt. Daraus konnte geschlossen werden, dass die Markierung nach der Expansion den Markierungsfehler erheblich reduziert und somit die Qualität der Daten verbessert. Die Software wurde außerdem zur Bestimmung des Expansionsfaktors und der Anordnung der Daten des synaptonemalen Komplexes verwendet. Automated Simple Elastix verwendet modernste Bildregistrierung, um Bilder vor und nach der Expansion zu vergleichen. Lineare Verzerrungen, die bei isotroper Expansion auftreten, werden korrigiert. Der strukturelle Expansionsfaktor wird berechnet und strukturelle Unstimmigkeiten werden in einer Verzerrungskarte hervorgehoben. Die Software wurde zur Bewertung expandierter Pilze und NK-Zellen eingesetzt. Dabei wurde festgestellt, dass der Expansionsfaktor für die beiden Strukturen unterschiedlich ist und unter der Gesamtexpansion des Hydrogels liegt. Die Auswertung der Fluoreszenzlebensdauer von Emittern, die für die direkte Stochastische Optische Rekonstruktionsmikroskopie eingesetzt werden, kann zusätzliche Informationen über die molekulare Umgebung liefern oder Farbstoffe unterscheiden, die VI eine ähnliche Lichtwellenlänge emittieren. Die entsprechenden Messungen erfordern eine konfokale Abtastung der Probe in Kombination mit dem fluoreszenten Schalten der zugrunde liegenden Emitter. Dies führt zu nichtlinearen, unterbrochenen Punktspreizfunktionen. Die Software ReCSAI löst dieses Problem, indem sie den klassischen Algorithmus des Compressed Sensing mit modernen Methoden der künstlichen Intelligenz kombiniert. Es wurden verschiedene Ansätze zur Kombination der Komponenten ausgewertet und festgestellt, dass die Integration von Compressed Sensing in die Netzwerkarchitektur die beste Performance in Bezug auf Rekonstruktionsgeschwindigkeit und -genauigkeit bringt. Neben einem tiefen Einblick in die Funktionsweise und das Lernen von künstlicher Intelligenz in Kombination mit klassischen Algorithmen konnten die beschriebenen Nichtlinearitäten mit einer deutlich verbesserten Auflösung im Vergleich zu anderen modernen Architekturen rekonstruiert werden.
94

Gewährleistung der Bildkonsistenz in der Portaitfotografie: eine technologische Lösung für effiziente und vergleichbare Aufnahmen

Palme, Willy, Breithecker, Janine, Rieckmann, Olaf, Stolpmann, Alexander 14 February 2024 (has links)
Dieses Paper präsentiert das Forschungsprojekt „Intelligent Camera Unit“ (ICU) der Technischen Hochschule Wildau in Kooperation mit der Beiersdorf AG zur Verbesserung von Portraitaufnahmen in Probandenstudien für Kosmetikprodukte. Das Hauptziel des Projekt besteht darin, Ausrichtungsfehler zu minimieren und die Vergleichbarkeit von Vorher-Nachher-Bildern zu erhöhen. Dies wird durch die Verwendung eines kollaborativen Roboters und KI-gestützter Bildanalyse erreicht, um präzise Ausrichtung und Gesichtspositionen der Probanden zu gewährleisten. Das entwickelte System ermöglicht effiziente und reproduzierbare Aufnahmen aus verschiedenen Winkeln und Entfernungen und bietet eine benutzerfreundliche, web-basierte Bedienoberfläche.
95

Network snakes /

Butenuth, Matthias. January 2008 (has links)
Zugl.: Hannover, University, Diss., 2008.
96

Extraction of Key-Frames from an Unstable Video Feed

Vempati, Nikhilesh 28 September 2017 (has links) (PDF)
The APOLI project deals with Automated Power Line Inspection using Highly-automated Unmanned Aerial Systems. Beside the Real-time damage assessment by on-board high-resolution image data exploitation a postprocessing of the video data is necessary. This Master Thesis deals with the implementation of an Isolator Detector Framework and a Work ow in the Automotive Data and Time-triggered Framework(ADTF) that loads a video direct from a camera or from a storage and extracts the Key Frames which contain objects of interest. This is done by the implementation of an object detection system using C++ and the creation of ADTF Filters that perform the task of detection of the objects of interest and extract the Key Frames using a supervised learning platform. The use case is the extraction of frames from video samples that contain Images of Isolators from Power Transmission Lines.
97

Mikroskopie, Bildverarbeitung und Automatisierung der Analyse von Vesikeln in \(C.\) \(elegans\) und anderen biologischen Strukturen / Microscopy, Image Processing and Automization of Analysis of Vesicles in \(C.\) \(elegans\) and other biological Structures

Kaltdorf [geb. Schuch], Kristin Verena January 2019 (has links) (PDF)
Thema dieser Thesis ist die Analyse sekretorischer Vesikelpools auf Ultrastrukturebene in unterschiedlichen biologischen Systemen. Der erste und zweite Teil dieser Arbeit fokussiert sich auf die Analyse synaptischer Vesikelpools in neuromuskulären Endplatten (NME) im Modellorganismus Caenorhabditis elegans. Dazu wurde Hochdruckgefrierung und Gefriersubstitution angewandt, um eine unverzügliche Immobilisation der Nematoden und somit eine Fixierung im nahezu nativen Zustand zu gewährleisten. Anschließend wurden dreidimensionale Aufnahmen der NME mittels Elektronentomographie erstellt. Im ersten Teil dieser Arbeit wurden junge adulte, wildtypische C. elegans Hermaphroditen mit Septin-Mutanten verglichen. Um eine umfassende Analyse mit hoher Stichprobenzahl zu ermöglichen und eine automatisierte Lösung für ähnliche Untersuchungen von Vesikelpools bereit zu stellen wurde eine Software namens 3D ART VeSElecT zur automatisierten Vesikelpoolanalyse entwickelt. Die Software besteht aus zwei Makros für ImageJ, eines für die Registrierung der Vesikel und eines zur Charakterisierung. Diese Trennung in zwei separate Schritte ermöglicht einen manuellen Verbesserungsschritt zum Entfernen falsch positiver Vesikel. Durch einen Vergleich mit manuell ausgewerteten Daten neuromuskulärer Endplatten von larvalen Stadien des Modellorganismus Zebrafisch (Danio rerio) konnte erfolgreich die Funktionalität der Software bewiesen werden. Die Analyse der neuromuskulären Endplatten in C. elegans ergab kleinere synaptische Vesikel und dichtere Vesikelpools in den Septin-Mutanten verglichen mit Wildtypen. Im zweiten Teil der Arbeit wurden neuromuskulärer Endplatten junger adulter C. elegans Hermaphroditen mit Dauerlarven verglichen. Das Dauerlarvenstadium ist ein spezielles Stadium, welches durch widrige Umweltbedingungen induziert wird und in dem C. elegans über mehrere Monate ohne Nahrungsaufnahme überleben kann. Da hier der Vergleich der Abundanz zweier Vesikelarten, der „clear-core“-Vesikel (CCV) und der „dense-core“-Vesikel (DCV), im Fokus stand wurde eine Erweiterung von 3D ART VeSElecT entwickelt, die einen „Machine-Learning“-Algorithmus zur automatisierten Klassifikation der Vesikel integriert. Durch die Analyse konnten kleinere Vesikel, eine erhöhte Anzahl von „dense-core“-Vesikeln, sowie eine veränderte Lokalisation der DCV in Dauerlarven festgestellt werden. Im dritten Teil dieser Arbeit wurde untersucht ob die für synaptische Vesikelpools konzipierte Software auch zur Analyse sekretorischer Vesikel in Thrombozyten geeignet ist. Dazu wurden zweidimensionale und dreidimensionale Aufnahmen am Transmissionselektronenmikroskop erstellt und verglichen. Die Untersuchung ergab, dass hierfür eine neue Methodik entwickelt werden muss, die zwar auf den vorherigen Arbeiten prinzipiell aufbauen kann, aber den besonderen Herausforderungen der Bilderkennung sekretorischer Vesikel aus Thrombozyten gerecht werden muss. / Subject of this thesis was the analysis of the ultrastructure of vesicle pools in various biological systems. The first and second part of this thesis is focused on the analysis of synaptic vesicle pools in neuromuscular junctions in the model organism Caenorhabditis elegans. In order to get access of synaptic vesicle pools in their near-to native state high-pressure freezing and freeze substitution was performed. Subsequently three-dimensional imaging of neuromuscular junctions using electron tomography was performed. In the first part young adult wild-type C. elegans hermaphrodites and septin mutants were compared. To enable extensive analysis and to provide an automated solution for comparable studies, a software called 3D ART VeSElecT for automated vesicle pool analysis, was developed. The software is designed as two macros for ImageJ, one for registration of vesicles and one for characterization. This separation allows for a manual revision step in between to erase false positive particles. Through comparison with manually evaluated data of neuromuscular junctions of larval stages of the model organism zebrafish (Danio rerio), functionality of the software was successfully proved. As a result, analysis of C. elegans neuromuscular junctions revealed smaller synaptic vesicles and more densely packed vesicle pools in septin mutants compared to wild-types. In the second part of this thesis NMJs of young adult C. elegans hermaphrodites were compared with dauer larvae. The dauer larva is a special state that is induced by adverse environmental conditions and enables C. elegans to survive several months without any foot uptake. Aiming for an automated analysis of the ratio of two vesicle types, clear core vesicles (CCVs) and dense core vesicles (DCVs), an extension for 3D ART VeSElecT was developed, integrating a machine-learning classifier. As a result, smaller vesicles and an increased amount of dense core vesicles in dauer larvae were found. In the third part of this thesis the developed software, designed for the analysis of synaptic vesicle pools, was checked for its suitability to recognize secretory vesicles in thrombocytes. Therefore, two-dimensional and three-dimensional transmission electron microscopic images were prepared and compared. The investigation has shown that a new methodology has to be developed which, although able to build on the previous work in principle, must meet the special challenges of image recognition of secretory vesicles from platelets.
98

Newton Methods for Image Registration / Newton-Methoden zur Bildregistrierung

Schröter, Martin January 2012 (has links) (PDF)
Consider the situation where two or more images are taken from the same object. After taking the first image, the object is moved or rotated so that the second recording depicts it in a different manner. Additionally, take heed of the possibility that the imaging techniques may have also been changed. One of the main problems in image processing is to determine the spatial relation between such images. The corresponding process of finding the spatial alignment is called “registration”. In this work, we study the optimization problem which corresponds to the registration task. Especially, we exploit the Lie group structure of the set of transformations to construct efficient, intrinsic algorithms. We also apply the algorithms to medical registration tasks. However, the methods developed are not restricted to the field of medical image processing. We also have a closer look at more general forms of optimization problems and show connections to related tasks. / Wir betrachten Problemstellungen, in denen zwei Bilder von ein und demselben Objekt aufgenommen wurden. Nach der ersten Aufnahme hat sich allerdings das Objekt bewegt oder deformiert, so dass es sich in den nächsten Bildern auf eine andere Weise darstellt. Zudem kann sich die Aufnahmetechnik geändert haben. Eine der Hauptprobleme in der Bildverarbeitung ist es, die räumliche Korrespondenz zwischen solchen Bildern zu bestimmen. Die zugehörige Aufgabe, eine solche räumliche Übereinstimmung zu finden, nennt man "Registrierung". In dieser Arbeit untersuchen wir das mit der Registrierung verbundene Optimierungsproblem. Insbesondere nutzen wir die Lie-Gruppen-Struktur der Menge der zulässigen Transformationen aus, um effiziente, intrinsische Argorithmen zu entwickeln. Wir wenden diese dann auf Probleme der medizinischen Bildregistrierung an, jedoch sind unsere Methoden nicht auf dieses Feld beschränkt. Wir werfen auch einen genaueren Blick auf eine allgemeinere Form von Optimierungsproblemen und zeigen Verknüpfungen zu verwandten Fragestellungen auf.
99

From wide-baseline point and line correspondences to 3D

Bay, Herbert January 2009 (has links)
Zugl.: Zürich, Techn. Hochsch., Diss., 2009
100

Sensor- und bildverarbeitungsgestützte Erkennung von Gefahrensituationen

Barrho, Jörg. January 2007 (has links)
Zugl.: Karlsruhe, Universiẗat, Diss., 2007.

Page generated in 0.0862 seconds