Spelling suggestions: "subject:"bildverarbeitung."" "subject:"bildverarbeitungs.""
131 |
Das Potential von WebAssembly für die Entwicklung von WebanwendungenSchnarr, Samuel 24 July 2023 (has links)
WebAssembly als Kompilierungsziel bietet die Möglichkeit, nativen Code im Browser
auszuführen. JavaScript ist seither nicht mehr die alleinige Programmiersprache im Web.
Darüber hinaus wird WebAssembly zunehmend auch im Serverbereich eingesetzt.
Diese Arbeit gibt einen Überblick über die Grundlagen und stellt den praktischen Nutzen
der Technologie in der Webentwicklung dar. Dazu wurde eine Beispielanwendung entwickelt, die WebAssembly zur Bildverarbeitung einsetzt. Im Vergleich zu einer serverseitig umgesetzten Alternativanwendung wird das Potential von WebAssembly aufgezeigt.
Die Ausführungsgeschwindigkeit wird zudem mit einer nativen Anwendung verglichen.
Die durchgeführten Tests zeigen, dass der Einsatz von WebAssembly eine sinnvolle Alternative zur Bewältigung serverseitiger Aufgaben traditioneller Anwendungen darstellt.
Bei der Verwendung von WebAssembly ergeben sich in den Untersuchungen signifikant
schnellere Laufzeiten von bis zu 8-facher Geschwindigkeit.
WebAssembly birgt ein enormes Zukunftspotenzial, die Internetlandschaft grundlegend
zu transformieren und Entwicklern eine Vielzahl neuer Möglichkeiten zu eröffnen.:Abstract
Abkürzungsverzeichnis
1. Einleitung
2. Geschichte
2.1. Vorgänger-Technologien
2.1.1. Plug-in Basierte Systeme
2.1.2. Browserintegrierte Systeme
2.2. Evolution von WebAssembly
3. Anwendungsbereiche
3.1. Im Browser-Kontext
3.2. Außerhalb des Browser-Kontexts
4. Konzeptionelle Hintergründe
4.1. Grundlagen von JavaScript
4.1.1. Merkmale und Prinzipien
4.1.2. Funktionsweise von JavaScript im Browser
4.2. Just-In-Time Kompilierung (JIT)
5. Grundlagen von WebAssembly
5.1. Funktionsweise
5.1.1. Erstellung der WebAssembly-Module in der Entwicklungsumgebung
5.1.2. Laden der WebAssembly-Module im Browser
5.1.3. Ausführung der WebAssembly-Module in der Zielumgebung
5.1.4. Geschwindigkeitsvergleich von WebAssembly und JavaScript im Browser
5.2. Vor- und Nachteile
5.3. Momentaner Entwicklungsstand
6. Konzeption einer Beispielanwendung
6.1. Anforderungen und Voraussetzungen
6.2. Entwicklungsvorgang
6.2.1. Beispielanwendung in WebAssembly
6.2.2. Vergleichsanwendung in Node.js
6.3. Durchführung der Messreihen
6.3.1. Voraussetzungen
6.3.2. Testumgebungen
6.3.3. Vorgehensweise
7. Ergebnisanalyse nach Einflussfaktoren
7.1. Implementierung
7.2. Umgebung
7.3. Hardware
8. Diskussion
8.1. Methodenkritik
8.2. Verbesserungsvorschläge
9. Zusammenfassung und Ausblick
9.1. Erkenntnisse und Fazit
9.2. Vorschläge für zukünftige Arbeiten
9.3. Ausblick in die Zukunft
Literaturverzeichnis
Selbstständigkeitserklärung
Danksagung
|
132 |
Visual Human Body Weight Estimation with Focus on Clinical Applications / Optische Körpergewichtsschätzung für medizinische AnwendungenPfitzner, Christian January 2019 (has links) (PDF)
It is the aim of this thesis to present a visual body weight estimation, which is suitable for medical applications. A typical scenario where the estimation of the body weight is essential, is the emergency treatment of stroke patients: In case of an ischemic stroke, the patient has to receive a body weight adapted drug, to solve a blood clot in a vessel. The accuracy of the estimated weight influences the outcome of the therapy directly. However, the treatment has to start as early as possible after the arrival at a trauma room, to provide sufficient treatment. Weighing a patient takes time, and the patient has to be moved. Furthermore, patients are often not able to communicate a value for their body weight due to their stroke symptoms. Therefore, it is state of the art that physicians guess the body weight. A patient receiving a too low dose has an increased risk that the blood clot does not dissolve and brain tissue is permanently damaged. Today, about one-third gets an insufficient dosage. In contrast to that, an overdose can cause bleedings and further complications. Physicians are aware of this issue, but a reliable alternative is missing.
The thesis presents state-of-the-art principles and devices for the measurement and estimation of body weight in the context of medical applications. While scales are common and available at a hospital, the process of weighing takes too long and can hardly be integrated into the process of stroke treatment. Sensor systems and algorithms are presented in the section for related work and provide an overview of different approaches.
The here presented system -- called Libra3D -- consists of a computer installed in a real trauma room, as well as visual sensors integrated into the ceiling. For the estimation of the body weight, the patient is on a stretcher which is placed in the field of view of the sensors. The three sensors -- two RGB-D and a thermal camera -- are calibrated intrinsically and extrinsically. Also, algorithms for sensor fusion are presented to align the data from all sensors which is the base for a reliable segmentation of the patient.
A combination of state-of-the-art image and point cloud algorithms is used to localize the patient on the stretcher. The challenges in the scenario with the patient on the bed is the dynamic environment, including other people or medical devices in the field of view.
After the successful segmentation, a set of hand-crafted features is extracted from the patient's point cloud. These features rely on geometric and statistical values and provide a robust input to a subsequent machine learning approach. The final estimation is done with a previously trained artificial neural network.
The experiment section offers different configurations of the previously extracted feature vector. Additionally, the here presented approach is compared to state-of-the-art methods; the patient's own assessment, the physician's guess, and an anthropometric estimation. Besides the patient's own estimation, Libra3D outperforms all state-of-the-art estimation methods: 95 percent of all patients are estimated with a relative error of less than 10 percent to ground truth body weight. It takes only a minimal amount of time for the measurement, and the approach can easily be integrated into the treatment of stroke patients, while physicians are not hindered.
Furthermore, the section for experiments demonstrates two additional applications: The extracted features can also be used to estimate the body weight of people standing, or even walking in front of a 3D camera. Also, it is possible to determine or classify the BMI of a subject on a stretcher. A potential application for this approach is the reduction of the radiation dose of patients being exposed to X-rays during a CT examination.
During the time of this thesis, several data sets were recorded. These data sets contain the ground truth body weight, as well as the data from the sensors. They are available for the collaboration in the field of body weight estimation for medical applications. / Diese Arbeit zeigt eine optische Körpergewichtsschätzung, welche für medizinische Anwendungen geeignet ist. Ein gängiges Szenario, in dem eine Gewichtsschätzung benötigt wird, ist die Notfallbehandlung von Schlaganfallpatienten: Falls ein ischämischer Schlaganfall vorliegt, erhält der Patient ein auf das Körpergewicht abgestimmtes Medikament, um einen Thrombus in einem Gefäß aufzulösen. Die Genauigkeit der Gewichtsschätzung hat direkten Einfluss auf den Erfolg der Behandlung. Hinzu kommt, dass die Behandlung so schnell wie möglich nach der Ankunft im Krankenhaus erfolgen muss, um eine erfolgreiche Behandlung zu garantieren. Das Wiegen eines Patienten ist zeitaufwändig und der Patient müsste hierfür bewegt werden. Des Weiteren können viele Patienten aufgrund des Schlaganfalls nicht ihr eigenes Gewicht mitteilen. Daher ist es heutzutage üblich, dass Ärzte das Gewicht schätzen. Erhält ein Patient eine zu geringe Dosis, steigt das Risiko, dass sich der Thrombus nicht auflöst und das Gehirngewebe dauerhaft geschädigt bleibt. Eine Überdosis kann dagegen zu Blutungen und weiteren Komplikationen führen. Ein Drittel der Patienten erhält heutzutage eine unzureichende Dosis. Ärzte sind sich dessen bewusst, aber derzeit gibt es kein alternatives Vorgehen.
Diese Arbeit präsentiert Elemente und Geräte zur Messung und Schätzung des Körpergewichts,
die im medizinischen Umfeld verwendet werden.
Zwar sind Waagen im Krankenhaus üblich, aufgrund des engen Zeitfensters für die Behandlung können sie aber nur schlecht in den Behandlungsablauf von Schlaganfallpatienten integriert werden. Der Abschnitt zum Stand der Technik zeigt verschiedene Sensorsysteme und Algorithmen. Das hier gezeigte System -- genannt Libra3D -- besteht aus einem Computer im Behandlungsraum, sowie den in der Decke integrierten optischen Sensoren. Für die Gewichtsschätzung befindet sich der Patient auf einer Liege im Blickfeld der Sensoren. Die drei Sensoren -- zwei RGB-D- und einer Wärmebildkamera -- sind intrinsisch und extrinsisch kalibriert.
Des Weiteren werden Algorithmen zur Sensorfusion vorgestellt, welche die Daten für eine erfolgreiche Segmentierung des Patienten zusammenführen. Eine Kombination aus verschiedenen gängigen Bildverarbeitungs- und Punktwolken-Algorithmen lokalisiert den Patienten auf der Liege. Die Herausforderung in diesem Szenario mit dem Patienten auf dem Bett sind ständige Veränderungen, darunter auch andere Personen oder medizinische Geräte im Sichtfeld. Nach der erfolgreichen Segmentierung werden Merkmale von der Punktwolke des Patienten extrahiert. Diese Merkmale beruhen auf geometrischen und statistischen Eigenschaften und bieten robuste Werte für das nachfolgende maschinelle Lernverfahren. Die Schätzung des Gewichts basiert letztlich auf einem zuvor trainierten künstlichen neuronalen Netz.
Das Kapitel zu den Experimenten zeigt verschiedene Kombinationen von Werten aus dem Merkmalsvektor. Zusätzlich wird der Ansatz mit Methoden aus dem Stand der Technik verglichen: der Schätzung des Patienten, des Arztes, und einer anthropometrischen Schätzung. Bis auf die eigene Schätzung des Patienten übertrifft Libra3D hierbei alle anderen Methoden: 95 Prozent aller Schätzungen weisen einen relativen Fehler von weniger als 10 Prozent zum realen Körpergewicht auf. Dabei benötigt das System wenig Zeit für eine Messung und kann einfach in den Behandlungsablauf von Schlaganfallpatienten integriert werden, ohne Ärzte zu behindern. Des Weiteren zeigt der Abschnitt für Experimente zwei weitere Anwendungen: Die extrahierten Merkmale können dazu verwendet werden das Gewicht von stehenden und auch laufenden Personen zu schätzen, die sich vor einer 3D-Kamera befinden. Darüber hinaus ist es auch möglich den BMI von Patienten auf einer Liege zu bestimmen. Diese kann die Strahlenexposition bei CT-Untersuchungen beispielsweise verringern. Während dieser Dissertation sind einige Datensätze entstanden. Sie enthalten das reale Gewicht, sowie die dazugehörigen Sensordaten. Die Datensätze sind für die Zusammenarbeit im Bereich der Körpergewichtsschätzung für medizinische Anwendungen verfügbar.
|
133 |
Underwater Laser Scanning - Refractive Calibration, Self-calibration and Mapping for 3D Reconstruction / Laserscanning unter Wasser - Refraktive Kalibrierung, Selbstkalibrierung und Kartierung zur 3D RekonstruktionBleier, Michael January 2023 (has links) (PDF)
There is great interest in affordable, precise and reliable metrology underwater:
Archaeologists want to document artifacts in situ with high detail.
In marine research, biologists require the tools to monitor coral growth and geologists need recordings to model sediment transport.
Furthermore, for offshore construction projects, maintenance and inspection millimeter-accurate measurements of defects and offshore structures are essential.
While the process of digitizing individual objects and complete sites on land is well understood and standard methods, such as Structure from Motion or terrestrial laser scanning, are regularly applied, precise underwater surveying with high resolution is still a complex and difficult task.
Applying optical scanning techniques in water is challenging due to reduced visibility caused by turbidity and light absorption.
However, optical underwater scanners provide significant advantages in terms of achievable resolution and accuracy compared to acoustic systems.
This thesis proposes an underwater laser scanning system and the algorithms for creating dense and accurate 3D scans in water.
It is based on laser triangulation and the main optical components are an underwater camera and a cross-line laser projector.
The prototype is configured with a motorized yaw axis for capturing scans from a tripod.
Alternatively, it is mounted to a moving platform for mobile mapping.
The main focus lies on the refractive calibration of the underwater camera and laser projector, the image processing and 3D reconstruction.
For highest accuracy, the refraction at the individual media interfaces must be taken into account.
This is addressed by an optimization-based calibration framework using a physical-geometric camera model derived from an analytical formulation of a ray-tracing projection model.
In addition to scanning underwater structures, this work presents the 3D acquisition of semi-submerged structures and the correction of refraction effects.
As in-situ calibration in water is complex and time-consuming, the challenge of transferring an in-air scanner calibration to water without re-calibration is investigated, as well as self-calibration techniques for structured light.
The system was successfully deployed in various configurations for both static scanning and mobile mapping.
An evaluation of the calibration and 3D reconstruction using reference objects and a comparison of free-form surfaces in clear water demonstrate the high accuracy potential in the range of one millimeter to less than one centimeter, depending on the measurement distance.
Mobile underwater mapping and motion compensation based on visual-inertial odometry is demonstrated using a new optical underwater scanner based on fringe projection.
Continuous registration of individual scans allows the acquisition of 3D models from an underwater vehicle.
RGB images captured in parallel are used to create 3D point clouds of underwater scenes in full color.
3D maps are useful to the operator during the remote control of underwater vehicles and provide the building blocks to enable offshore inspection and surveying tasks.
The advancing automation of the measurement technology will allow non-experts to use it, significantly reduce acquisition time and increase accuracy, making underwater metrology more cost-effective. / Das Interesse an präziser, zuverlässiger und zugleich kostengünstiger Unterwassermesstechnik ist groß.
Beispielsweise wollen Archäologen Artefakte in situ mit hoher Detailtreue dokumentieren und in der Meeresforschung benötigen Biologen Messwerkzeuge zur Beobachtung des Korallenwachstums.
Auch Geologen sind auf Messdaten angewiesen, um Sedimenttransporte zu modellieren.
Darüber hinaus ist für die Errichtung von Offshore-Bauwerken, sowie deren Wartung und Inspektion eine millimetergenaue Vermessung von vorhandenen Strukturen und Defekten unerlässlich.
Während die Digitalisierung einzelner Objekte und ganzer Areale an Land gut erforscht ist und verschiedene Standardmethoden, wie zum Beispiel Structure from Motion oder terrestrisches Laserscanning, regelmäßig eingesetzt werden, ist die präzise und hochauflösende Unterwasservermessung nach wie vor eine komplexe und schwierige Aufgabe.
Die Anwendung optischer Messtechnik im Wasser ist aufgrund der eingeschränkten Sichttiefe durch Trübung und Lichtabsorption eine Herausforderung.
Optische Unterwasserscanner bieten jedoch Vorteile hinsichtlich der erreichbaren Auflösung und Genauigkeit gegenüber akustischen Systemen.
In dieser Arbeit werden ein Unterwasser-Laserscanning-System und die Algorithmen zur Erzeugung von 3D-Scans mit hoher Punktdichte im Wasser vorgestellt.
Es basiert auf Lasertriangulation und die optischen Hauptkomponenten sind eine Unterwasserkamera und ein Kreuzlinienlaserprojektor.
Das System ist mit einer motorisierten Drehachse ausgestattet, um Scans von einem Stativ aus aufzunehmen.
Alternativ kann es von einer beweglichen Plattform aus für mobile Kartierung eingesetzt werden.
Das Hauptaugenmerk liegt auf der refraktiven Kalibrierung der Unterwasserkamera und des Laserprojektors, der Bildverarbeitung und der 3D-Rekonstruktion.
Um höchste Genauigkeit zu erreichen, muss die Brechung an den einzelnen Medienübergängen berücksichtigt werden.
Dies wird durch ein physikalisch-geometrisches Kameramodell, das auf einer analytischen Beschreibung der Strahlenverfolgung basiert, und ein optimierungsbasiertes Kalibrierverfahren erreicht.
Neben dem Scannen von Unterwasserstrukturen wird in dieser Arbeit auch die 3D-Erfassung von teilweise im Wasser befindlichen Strukturen und die Korrektur der dabei auftretenden Brechungseffekte vorgestellt.
Da die Kalibrierung im Wasser komplex und zeitintensiv ist, wird die Übertragung einer Kalibrierung des Scanners in Luft auf die Bedingungen im Wasser ohne Neukalibrierung, sowie die Selbstkalibrierung für Lichtschnittverfahren untersucht.
Das System wurde in verschiedenen Konfigurationen sowohl für statisches Scannen als auch für die mobile Kartierung erfolgreich eingesetzt.
Die Validierung der Kalibrierung und der 3D-Rekonstruktion anhand von Referenzobjekten und der Vergleich von Freiformflächen in klarem Wasser zeigen das hohe Genauigkeitspotenzial im Bereich von einem Millimeter bis weniger als einem Zentimeter in Abhängigkeit von der Messdistanz.
Die mobile Unterwasserkartierung und Bewegungskompensation anhand visuell-inertialer Odometrie wird mit einem neuen optischen Unterwasserscanner auf Basis der Streifenprojektion demonstriert.
Dabei ermöglicht die kontinuierliche Registrierung von Einzelscans die Erfassung von 3D-Modellen von einem Unterwasserfahrzeug aus.
Mit Hilfe von parallel aufgenommenen RGB-Bildern werden dabei farbige 3D-Punktwolken der Unterwasserszenen erstellt.
Diese 3D-Karten dienen beispielsweise dem Bediener bei der Fernsteuerung von Unterwasserfahrzeugen und bilden die Grundlage für Offshore-Inspektions- und Vermessungsaufgaben.
Die fortschreitende Automatisierung der Messtechnik wird somit auch eine Verwendung durch Nichtfachleute ermöglichen und gleichzeitig die Erfassungszeit erheblich verkürzen und die Genauigkeit verbessern, was die Vermessung im Wasser kostengünstiger und effizienter macht.
|
134 |
Erkennung von Schadmustern an Personenverkehrszügen und Evaluierung der Konfidenz zur Auswahl robuster Features für „Predictive Maintenance“ - Projekt ESPEK: eine mFUND MachbarkeitsstudieSchymik, L., Stolpmann, A. 20 February 2025 (has links)
Im Rahmen des Projekts ESPEK wurden Häufigkeit und Relevanz bestimmter Schäden an verbreiteten
Waggontypen analysiert und basierend darauf im Rahmen eines Konzepts „KI-gestützte Inspektion“
praxistaugliche, datenbasierte, durch künstliche Intelligenz unterstützte digitale Lösungen entwickelt,
um Schäden an ausgewählten Personenwaggons automatisiert visuell zu erkennen. Ausgehend
von den bisher maßgeblich manuellen Inspektionsabläufen und Checklisten können selbige durch die
vorgeschlagenen Software- und Hardwareautomatisierungen effizienter gestaltet werden. Übergeordnet
werden die Sicherheit der Fahrgäste erhöht, das Problem des Fachkräftemangel bekämpft sowie
Ausfall- und Standzeiten reduziert, was letztlich zur besseren Auslastung des Systems Schiene insgesamt
beiträgt und Zugfahren preiswerter und pünktlicher machen kann.
|
135 |
Entwicklung eines robotergestützten Systems zur standardisierten Applikation von HautpflegeproduktenBreithecker, Janine, Szymanski, Mateusz, Stolpmann, Alexander 25 February 2025 (has links)
In diesem Beitrag wird ein System zur automatisierten Applikation von Hautpflegeprodukten vorgestellt,
das speziell für dermatologische Studien entwickelt wird. Ziel ist es, die Variabilitäten bei der
manuellen Cremeapplikation zu reduzieren und die Reproduzierbarkeit von Studienergebnissen zu
verbessern. Die Grundlage des Systems bildet ein kollaborativer Roboter (Cobot), der mit einer präzisen
Kraftregelung und Echtzeit-Bildverarbeitung ausgestattet ist. Diese Kombination ermöglicht die
dynamische Anpassung an unterschiedliche Hautareale und eine gleichmäßige Verteilung von Cremes
und Lotionen. Der Entwicklungsprozess umfasste die Konstruktion eines spezialisierten Endeffektors
für das Verteilen der Creme, der mit Kraftsensorik und austauschbaren Elementen für hygienische
Anwendungen ausgestattet ist, sowie die Integration einer Eppendorf Multipette M4 zur präzisen Dosierung
als wechselbarer Endeffektor am Cobot. Ergänzt wird das System durch eine Intel RealSense
Kamera, die mithilfe von Farb- und Tiefenbildern eine zuverlässige Erkennung von Hand- und Armpositionen
gewährleistet. Erste Tests zeigen, dass das System eine exakte und reproduzierbare Applikation
ermöglicht, wobei die Sicherheit und Benutzerfreundlichkeit im Fokus stehen. Die vorgestellten
Validierungsstrategien und geplanten Nutzerstudien sollen die Funktionalität weiter optimieren und
das Potenzial für den Einsatz in dermatologischen Studien unterstreichen. Dieses Projekt stellt einen
bedeutenden Schritt in Richtung Automatisierung und Standardisierung in der dermatologischen Forschung
dar.
|
136 |
Fluorescence imaging microscopy studies on single molecule diffusion and photophysical dynamicsSchäfer, Stephan 27 March 2007 (has links) (PDF)
Within the last years, e.g. by investigating the fluorescence of single molecules in biological cells, remarkable progress has been made in cell biology extending conventional ensemble techniques concerning temporal / spatial resolution and the detection of particle subpopulations [82]. In addition to employing single fluorophores as "molecular beacons" to determine the position of biomolecules, single molecule fluorescence studies allow to access the photophysical dynamics of genetically encoded fluorescent proteins itself. However, in order to gain statistically consistent results, e.g. on the mobility behavior or the photophysical properties, the fluorescence image sequences have to be analyzed in a preferentially automated and calibrated (non-biased) way. In this thesis, a single molecule fluorescence optical setup was developed and calibrated and experimental biological in-vitro systems were adapted to the needs of single molecule imaging. Based on the fluorescence image sequences obtained, an automated analysis algorithm was developed, characterized and its limits for reliable quantitative data analysis were determined. For lipid marker molecules diffusing in an artifcial lipid membrane, the optimum way of the single molecule trajectory analysis of the image sequences was explored. Furthermore, effects of all relevant artifacts (specifically low signal-to-noise ratio, finite acquisition time and high spot density, in combination with photobleaching) on the recovered diffusion coefficients were carefully studied. The performance of the method was demonstrated in two series of experiments. In one series, the diffusion of a fluorescent lipid probe in artificial lipid bilayer membranes of giant unilamellar vesicles was investigated. In another series of experiments, the photoconversion and photobleaching behavior of the fluorescent protein Kaede-GFP was characterized and protein subpopulations were identified.
|
137 |
Benchmarking of Vision-Based Prototyping and Testing ToolsBalasubramanian, ArunKumar 08 November 2017 (has links) (PDF)
The demand for Advanced Driver Assistance System (ADAS) applications is increasing day by day and their development requires efficient prototyping and real time testing. ADTF (Automotive Data and Time Triggered Framework) is a software tool from Elektrobit which is used for Development, Validation and Visualization of Vision based applications, mainly for ADAS and Autonomous driving. With the help of ADTF tool, Image or Video data can be recorded and visualized and also the testing of data can be processed both on-line and off-line. The development of ADAS applications needs image and video processing and the algorithm has to be highly efficient and must satisfy Real-time requirements. The main objective of this research would be to integrate OpenCV library with ADTF cross platform. OpenCV libraries provide efficient image processing algorithms which can be used with ADTF for quick benchmarking and testing. An ADTF filter framework has been developed where the OpenCV algorithms can be directly used and the testing of the framework is carried out with .DAT and image files with a modular approach. CMake is also explained in this thesis to build the system with ease of use. The ADTF filters are developed in Microsoft Visual Studio 2010 in C++ and OpenMP API are used for Parallel programming approach.
|
138 |
Optische Methoden zur Positionsbestimmung auf Basis von LandmarkenBilda, Sebastian 07 September 2017 (has links) (PDF)
Die Innenraumpositionierung kommt in der heutigen Zeit immer mehr Aufmerksamkeit zu teil. Neben der Navigation durch das Gebäude sind vor allem Location Based Services von Bedeutung, welche Zusatzinformationen zu spezifischen Objekten zur Verfügung stellen Da für eine Innenraumortung das GPS Signal jedoch zu schwach ist, müssen andere Techniken zur Lokalisierung gefunden werden. Neben der häufig verwendeten Positionierung durch Auswertung von empfangenen Funkwellen existieren Methoden zur optischen Lokalisierung mittels Landmarken. Das kamerabasierte Verfahren bietet den Vorteil, dass eine oft zentimetergenaue Positionierung möglich ist.
In dieser Masterarbeit erfolgt die Bestimmung der Position im Gebäude mittels Detektion von ArUco-Markern und Türschildern aus Bilddaten. Als Evaluationsgeräte sind zum einen die Kinect v2 von Microsoft, als auch das Lenovo Phab 2 Pro Smartphone verwendet worden. Neben den Bilddaten stellen diese auch mittels Time of Flight Sensoren generierte Tiefendaten zur Verfügung. Durch den Vergleich von aus dem Bild extrahierten Eckpunkten der Landmarke, mit den aus einer Datenbank entnommenen realen geometrischen Maßen des Objektes, kann die Entfernung zu einer gefundenen Landmarke bestimmt werden. Neben der optischen Distanzermittlung wird die Position zusätzlich anhand der Tiefendaten ermittelt. Abschließend werden beiden Verfahren miteinander verglichen und eine Aussage bezüglich der Genauigkeit und Zuverlässigkeit des in dieser Arbeit entwickelten Algorithmus getroffen. / Indoor Positioning is receiving more and more attention nowadays. Beside the navigation through a building, Location Bases Services offer the possibility to get more information about certain objects in the enviroment. Because GPS signals are too weak to penetrate buildings, other techniques for localization must be found. Beneath the commonly used positioning via the evaluation of received radio signals, optical methods for localization
with the help of landmarks can be used. These camera-based procedures have the advantage, that an inch-perfect positioning is possible.
In this master thesis, the determination of the position in a building is chieved through the detection of ArUco-Marker and door signs in images gathered by a camera. The evaluation is done with the Microsoft Kinect v2 and the Lenovo Phab 2 Pro Smartphone. They offer depth data gained by a time of flight sensor beside the color images. The range to a detected landmark is calculated by comparing the object´s corners in the image with
the real metrics, extracted from a database. Additionally, the distance is determined by the evaluation of the depth data. Finally, both procedures are compared with each other and a statement about the accuracy and responsibility is made.
|
139 |
Extraction of Key-Frames from an Unstable Video FeedVempati, Nikhilesh 13 July 2017 (has links)
The APOLI project deals with Automated Power Line Inspection using Highly-automated Unmanned Aerial Systems. Beside the Real-time damage assessment by on-board high-resolution image data exploitation a postprocessing of the video data is necessary. This Master Thesis deals with the implementation of an Isolator Detector Framework and a Work ow in the Automotive Data and Time-triggered Framework(ADTF) that loads a video direct from a camera or from a storage and extracts the Key Frames which contain objects of interest. This is done by the implementation of an object detection system using C++ and the creation of ADTF Filters that perform the task of detection of the objects of interest and extract the Key Frames using a supervised learning platform. The use case is the extraction of frames from video samples that contain Images of Isolators from Power Transmission Lines.
|
140 |
Development of Integration Algorithms for Vision/Force Robot Control with Automatic Decision SystemBdiwi, Mohamad 12 August 2014 (has links) (PDF)
In advanced robot applications, the challenge today is that the robot should perform different successive subtasks to achieve one or more complicated tasks similar to human. Hence, this kind of tasks required to combine different kind of sensors in order to get full information about the work environment. However, from the point of view of control, more sensors mean more possibilities for the structure of the control system. As shown previously, vision and force sensors are the most common external sensors in robot system. As a result, in scientific papers it can be found numerous control algorithms and different structures for vision/force robot control, e.g. shared, traded control etc. The lacks in integration of vision/force robot control could be summarized as follows:
• How to define which subspaces should be vision, position or force controlled?
• When the controller should switch from one control mode to another one?
• How to insure that the visual information could be reliably used?
• How to define the most appropriated vision/force control structure?
In many previous works, during performing a specified task one kind of vision/force control structure has been used which is pre-defined by the programmer. In addition to that, if the task is modified or changed, it would be much complicated for the user to describe the task and to define the most appropriated vision/force robot control especially if the user is inexperienced. Furthermore, vision and force sensors are used only as simple feedback (e.g. vision sensor is used usually as position estimator) or they are intended to avoid the obstacles. Accordingly, much useful information provided by the sensors which help the robot to perform the task autonomously is missed.
In our opinion, these lacks of defining the most appropriate vision/force robot control and the weakness in the utilization from all the information which could be provided by the sensors introduce important limits which prevent the robot to be versatile, autonomous, dependable and user-friendly. For this purpose, helping to increase autonomy, versatility, dependability and user-friendly in certain area of robotics which requires vision/force integration is the scope of this thesis. More concretely:
1. Autonomy: In the term of an automatic decision system which defines the most appropriated vision/force control modes for different kinds of tasks and chooses the best structure of vision/force control depending on the surrounding environments and a priori knowledge.
2. Versatility: By preparing some relevant scenarios for different situations, where both the visual servoing and force control are necessary and indispensable.
3. Dependability: In the term of the robot should depend on its own sensors more than on reprogramming and human intervention. In other words, how the robot system can use all the available information which could be provided by the vision and force sensors, not only for the target object but also for the features extraction of the whole scene.
4. User-friendly: By designing a high level description of the task, the object and the sensor configuration which is suitable also for inexperienced user.
If the previous properties are relatively achieved, the proposed robot system can:
• Perform different successive and complex tasks.
• Grasp/contact and track imprecisely placed objects with different poses.
• Decide automatically the most appropriate combination of vision/force feedback for every task and react immediately to the changes from one control cycle to another because of occurrence of some unforeseen events.
• Benefit from all the advantages of different vision/force control structures.
• Benefit from all the information provided by the sensors.
• Reduce the human intervention or reprogramming during the execution of the task.
• Facilitate the task description and entering of a priori-knowledge for the user, even if he/she is inexperienced.
|
Page generated in 0.0852 seconds