61 |
Auswirkung des Rauschens und Rauschen vermindernder Maßnahmen auf ein fernerkundliches SegmentierungsverfahrenGerhards, Karl 31 July 2006 (has links)
Zur Verminderung des Rauschens sehr hochauflösender Satellitenbilder existieren eine Vielzahl von Glättungsalgorithmen. Die Wirkung verschiedener Tiefpaß- und kantenerhaltender Filter auf das Verhalten eines objektorientierten Segmentierungsverfahrens wird anhand zweier synthetischer Grauwertbilder und einer IKONOS-Aufnahme untersucht. Als Rauschmaß hat sich ein modifiziertes, ursprünglich von Baltsavias et al. [2001] vorgeschlagenes Verfahren bewährt, in dem je Grauwert nur die Standardabweichungen der gleichförmigsten Gebiete berücksichtigt werden. In Vergleich mit synthetisch verrauschten Bildern zeigt sich jedoch, daß auf diese Weise das Rauschen im Bild systematisch um fast den Faktor zwei unterschätzt wird. Einfache Filter wie Mittelwertfilter und davon abgeleitete Verfahren verschlechtern die Präzision der Objekterkennung dramatisch, kantenerhaltende Filter können bei stärker verrauschten Daten vorteilhaft sein.Als bester Filter, der bei Ansprüchen an präzise Segmentgrenzen im Pixelbereich sinnvoll einzusetzen ist und dabei mit nur einem Parameter gesteuert werden kann, erweist sich der modifizierte EPOS-Filter, ursprünglich vorgestellt von Haag und Sties [1994, 1996]. Die generellen Bildparameter, wie Standardabweichung oder Histogramm werden durch diesen kantenerhaltenden Filter nur unwesentlich beeinflußt.
|
62 |
Transparent Object Reconstruction and Registration Confidence Measures for 3D Point Clouds based on Data Inconsistency and Viewpoint AnalysisAlbrecht, Sven 28 February 2018 (has links)
A large number of current mobile robots use 3D sensors as part of their sensor setup. Common 3D sensors, i.e., laser scanners or RGB-D cameras, emit a signal (laser light or infrared light for instance), and its reflection is recorded in order to estimate depth to a surface. The resulting set of measurement points is commonly referred to as 'point clouds'. In the first part of this dissertation an inherent problem of sensors that emit some light signal is addressed, namely that these signals can be reflected and/or refracted by transparent of highly specular surfaces, causing erroneous or missing measurements. A novel heuristic approach is introduced how such objects may nevertheless be identified and their size and shape reconstructed by fusing information from several viewpoints of the scene. In contrast to other existing approaches no prior knowledge about the objects is required nor is the shape of the reconstructed objects restricted to a limited set of geometric primitives. The thesis proceeds to illustrate problems caused by sensor noise and registration errors and introduces mechanisms to address these problems. Finally a quantitative comparison between equivalent directly measured objects, the reconstructions and "ground truth" is provided. The second part of the thesis addresses the problem of automatically determining the quality of the registration for a pair of point clouds. Although a different topic, these two problems are closely related, if modeled in the fashion of this thesis. After illustrating why the output parameters of a popular registration algorithm (ICP) are not suitable to deduce registration quality, several heuristic measures are developed that provide better insight. Experiments performed on different datasets were performed to showcase the applicability of the proposed measures in different scenarios.
|
63 |
Machine-Vision-Based Activity, Mobility and Motion Analysis for Assistance Systems in Human Health CareRichter, Julia 18 April 2019 (has links)
Due to the continuous ageing of our society, both the care and the health sector will encounter challenges in maintaining the quality of human care and health standards.
While the number of people with diseases such as dementia and physical illness will be rising, we are simultaneously recording a lack of medical personnel such as caregivers and therapists.
One possible approach that tackles the described problem is the employment of technical assistance systems that support both medical personnel and elderly living alone at home.
This thesis presents approaches to provide assistance for these target groups.
In this work, algorithms that are integrated in prototypical assistance systems for vision-based human daily activity, mobility and motion analysis have been developed.
The developed algorithms process 3-D point clouds as well as skeleton joint positions to generate meta information concerning activities and the mobility of elderly persons living alone at home. Such type of information was not accessible so far and is now available for monitoring. By generating this meta information, a basis for the detection of long-term and short-term health changes has been created.
Besides monitoring meta information, mobilisation for maintaining physical capabilities, either ambulatory or at home, is a further focus of this thesis. Algorithms for the qualitative assessment of physical exercises were therefore investigated. Thereby, motion sequences in the form of skeleton joint trajectories as well as the heat development in active muscles were considered. These algorithms enable an autonomous physical training under the supervision of a virtual therapist even at home. / Aufgrund der voranschreitenden Überalterung unserer Gesellschaft werden sowohl der Pflege- als auch der Gesundheitssektor vor enorme Herausforderungen gestellt.
Während die Zahl an vorrangig altersbedingten Erkrankungen, wie Demenz oder physische Erkrankungen des Bewegungsapparates, weiterhin zunehmen wird, stagniert die Zahl an medizinischem Fachpersonal, wie Therapeuten und Pflegekräften.
An dieser Stelle besteht das Ziel, die Qualität medizinischer Leistungen auf hohem Niveau zu halten und dabei die Einhaltung von Pflege- und Gesundheitsstandards sicherzustellen.
Ein möglicher Ansatz hierfür ist der Einsatz technischer Assistenzsysteme, welche sowohl das medizinische Personal und Angehörige entlasten als auch ältere, insbesondere allein lebende Menschen zu Hause unterstützen können.
Die vorliegende Arbeit stellt Ansätze zur Unterstützung der genannten Zielgruppen vor, die prototypisch in Assistenzsystemen zur visuellen, kamerabasierten Analyse von täglichen Aktivitäten, von Mobilität und von Bewegungen bei Trainingsübungen integriert sind.
Die entwickelten Algorithmen verarbeiten dreidimensionale Punktwolken und Gelenkpositionen des menschlichen Skeletts, um sogenannte Meta-Daten über tägliche Aktivitäten und die Mobilität einer allein lebenden Person zu erhalten. Diese Informationen waren bis jetzt nicht verfügbar, können allerdings für den Patienten selbst, für medizinisches Personal und Angehörige aufschlussreich sein, denn diese Meta-Daten liefern die Grundlage für die Detektion kurz- und langfristiger Veränderungen im Verhalten oder in der Mobilität, die ansonsten wahrscheinlich unbemerkt geblieben wären.
Neben der Erfassung solcher Meta-Informationen liegt ein weiterer Fokus der Arbeit in der Mobilisierung von Patienten durch angeleitetes Training, um ihre Mobilität und körperliche Verfassung zu stärken. Dabei wurden Algorithmen zur qualitativen Bewertung und Vermittlung von Korrekturhinweisen bei physischen Trainingsübungen entwickelt, die auf Trajektorien von Gelenkpositionen und der Wärmeentwicklung in Muskeln beruhen. Diese Algorithmen ermöglichen aufgrund der Nachahmung eines durch den Therapeuten gegebenen Feedbacks ein autonomes Training.
|
64 |
Interactive 3D Reconstruction / Interaktive 3D-RekonstruktionSchöning, Julius 23 May 2018 (has links)
Applicable image-based reconstruction of three-dimensional (3D) objects offers many interesting industrial as well as private use cases, such as augmented reality, reverse engineering, 3D printing and simulation tasks. Unfortunately, image-based 3D reconstruction is not yet applicable to these quite complex tasks, since the resulting 3D models are single, monolithic objects without any division into logical or functional subparts.
This thesis aims at making image-based 3D reconstruction feasible such that captures of standard cameras can be used for creating functional 3D models. The research presented in the following does not focus on the fine-tuning of algorithms to achieve minor improvements, but evaluates the entire processing pipeline of image-based 3D reconstruction and tries to contribute at four critical points, where significant improvement can be achieved by advanced human-computer interaction:
(i) As the starting point of any 3D reconstruction process, the object of interest (OOI) that should be reconstructed needs to be annotated. For this task, novel pixel-accurate OOI annotation as an interactive process is presented, and an appropriate software solution is released. (ii) To improve the interactive annotation process, traditional interface devices, like mouse and keyboard, are supplemented with human sensory data to achieve closer user interaction. (iii) In practice, a major obstacle is the so far missing standard for file formats for annotation, which leads to numerous proprietary solutions. Therefore, a uniform standard file format is implemented and used for prototyping the first gaze-improved computer vision algorithms. As a sideline of this research, analogies between the close interaction of humans and computer vision systems and 3D perception are identified and evaluated. (iv) Finally, to reduce the processing time of the underlying algorithms used for 3D reconstruction, the ability of artificial neural networks to reconstruct 3D models of unknown OOIs is investigated.
Summarizing, the gained improvements show that applicable image-based 3D reconstruction is within reach but nowadays only feasible by supporting human-computer interaction. Two software solutions, one for visual video analytics and one for spare part reconstruction are implemented.
In the future, automated 3D reconstruction that produces functional 3D models can be reached only when algorithms become capable of acquiring semantic knowledge. Until then, the world knowledge provided to the 3D reconstruction pipeline by human computer interaction is indispensable.
|
65 |
Visuo-spatial attention in readingKornrumpf, Benthe 28 October 2016 (has links)
Visuell-räumliche Aufmerksamkeit spielt eine Schlüsselrolle in der Wortverarbeitung und der Augenbewegungskontrolle beim Lesen. Dennoch bleibt die räumliche und zeitliche Dynamik von Aufmerksamkeitsbereitstellung innerhalb einer Fixation ungeklärt. Die vorliegende Dissertation nutzt drei Ansätze in der Ko-Registrierung von Augenbewegungen und EEG um diese Forschungslücke zu untersuchen und direkte Einblicke in die Aufmerksamkeitsverteilung zwischen Fovea und Parafovea, ihre Anpassung an Verarbeitungsansprüche und Sakkaden sowie ihre Auswirkungen auf Wortverarbeitung zu liefern. In Studie 1 wurde das Probe Paradigma als Maß zur Abbildung räumlicher Aufmerksamkeit ohne Augenbewegungen implementiert. Die vergrößerte, Probe-bezogene N1 zwischen Wortpräsentationen deutet auf eine Bereitstellung und Umverteilung zusätzlicher Ressourcen zur simultanen fovealen und parafovealen Wortverarbeitung hin. Studie 2 untersuchte den Preview Benefit und seine Modulation durch Sakkaden und Verarbeitungsschwierigkeit und zielte darauf ab, das elektrophysiologische Korrelat als indirektes Maß für parafoveale Aufmerksamkeit in ERPs und FRPs zu etablieren. Es zeigte sich ein Effekt des orthographischen Previews auf die N1. Interaktionen mit Lesemodus und Verarbeitungsschwierigkeit implizieren, dass dem Preview Effekt Aufmerksamkeitseffekte zugrunde liegen. In Studie 3 wurden zwei Datensätze hinsichtlich der Lateralisierung von Oszillationen im Alpha-Band untersucht um die in Studie 2 generierten Hypothesen zu unterstützen. Alpha war im sakkadischen Lesen stärker rechts-lateralisiert als in RSVP und eine stärkere Lateralisierung sagte eine kürzere Fixationsdauer vorher, was die Rolle von parafovealer Aufmerksamkeit und ihre Verbindung zu Sakkaden betont. Trotz der Einschränkungen der drei Ansätze stellt die Kombination von Augenbewegungen, ERPs, FRPs und EEG-Oszillationen geeignete Maße für Aufmerksamkeitsprozesse in der Wortverarbeitung dar, die traditionelle Forschungsmethoden ergänzen. / Visuo-spatial attention is a key contributor to word processing and oculomotor control in reading. Yet, the spatial and temporal dynamics of attention allocation within a fixation remain unclear. The present dissertation uses three approaches in the co-registration of eye movements and EEG to investigate this gap and provide direct, online insights into attention distribution across fovea and parafovea, its adaptation to processing load and saccadic behavior, as well as its effects on word processing. In Study 1, the probe paradigm was implemented as a mapping tool of spatial attention adaptation in the absence of eye movements, yielding ERPs. The enhanced probe-related N1 in-between trials indicates a recruitment and redistribution of additional resources to achieve simultaneous foveal and parafoveal word-recognition. Study 2 tested the preview benefit and its modulation by saccades and foveal load, thereby aiming at establishing its electrophysiological correlate as an indirect index of parafoveal attention allocation in ERPs and FRPs. There was an effect of orthographic preview on the N1. Interactions with reading mode and foveal load indicate underlying attention effects. In Study 3, two datasets were reanalyzed with regard to the lateralization of oscillatory activity in the alpha-band in order to directly support the assumptions generated in Study 2. Alpha was more strongly right-lateralized in saccadic reading compared to RSVP, and moment-to-moment lateralization predicted shorter subsequent fixation duration, emphasizing the role of parafoveal attention allocation and its relation to saccades. Despite the limitations of the three approaches at this point, the combination of eye movements, ERPs, FRPs, and EEG oscillations provides suitable online markers of attention processes in word recognition that complement traditional research methods.
|
66 |
Context-aware anchoring, semantic mapping and active perception for mobile robotsGünther, Martin 30 November 2021 (has links)
An autonomous robot that acts in a goal-directed fashion requires a world model of the elements that are relevant to the robot's task. In real-world, dynamic environments, the world model has to be created and continually updated from uncertain sensor data. The symbols used in plan-based robot control have to be anchored to detected objects. Furthermore, robot perception is not only a bottom-up and passive process: Knowledge about the composition of compound objects can be used to recognize larger-scale structures from their parts. Knowledge about the spatial context of an object and about common relations to other objects can be exploited to improve the quality of the world model and can inform an active search for objects that are missing from the world model. This thesis makes several contributions to address these challenges: First, a model-based semantic mapping system is presented that recognizes larger-scale structures like furniture based on semantic descriptions in an ontology. Second, a context-aware anchoring process is presented that creates and maintains the links between object symbols and the sensor data corresponding to those objects while exploiting the geometric context of objects. Third, an active perception system is presented that actively searches for a required object while being guided by the robot's knowledge about the environment.
|
67 |
Effiziente Erstellung aufgabenspezifischer BilderkennungssystemeMöhrmann, Julia Mandy 29 July 2014 (has links)
Die Entwicklung von Bilderkennungssystemen ist ein hochkomplexer Prozess, der derzeit
fast ausschließlich von Experten mit entsprechenden Fachkenntnissen bewältigt werden kann. Bilderkennungssysteme haben durch die allgegenwärtige Verfügbarkeit an Bilddaten und ihren kostenneutralen Einsatz das Potential, eine wichtige Rolle in der digitalisierten Gesellschaft zu spielen. Jedoch ist ihr Einsatz effektiv durch den nicht vorhandenen Zugang zu entsprechenden Entwicklungswerkzeugen limitiert. Diese Arbeit verfolgt das Ziel, ein Software-Framework bereitzustellen, das von Anwendern ohne Fachkenntnisse genutzt werden kann. Hierfür werden die einzelnen Schritte des Entwicklungsprozesses betrachtet und an diese Zielgruppe adaptiert. Im Detail bedeutet dies für das in dieser Arbeit präsentierte Software-Framework FOREST (Flexible Object Recognition System), dass
- der Entwicklungsprozess größtmöglich automatisiert abläuft,
- nicht automatisierbare Komponenten vereinfacht werden
- und eine intuitive Benutzungsoberfläche bereitgestellt wird, die keine Einarbeitungszeit und Fachkenntnisse erfordert. Im Gegensatz zu existierenden Entwicklungswerkzeugen ist das Ziel von FOREST nicht die Entwicklung eines speziellen Bilderkennungssystems, sondern die Adaption an die vom Anwender intendierte Erkennungsaufgabe. Allein durch die Auswahl einer Bilddatenquelle und der Annotation der Bilder lernt FOREST einen Klassifikator, der die Erkennungsaufgabe löst. Das resultierende Bilderkennungssystem wird auch als aufgabenspezifisches Bilderkennungssystem bezeichnet, da es speziell auf die gestellte Erkennungsaufgabe trainiert wurde. Beispielsweise kann eine Webcam genutzt werden, um geöffnete Fenster zu detektieren und so Wetterschäden oder einen Einbruch zu vermeiden. Die Bereitstellung eines Entwicklungswerkzeugs für Anwender ohne Fachkenntnisse wird durch die automatische Bildverarbeitung mit einer großen Menge an Operatoren für die Merkmalsdetektion und die Merkmalsextraktion realisiert. Die Auswahl diskriminativer Merkmalsdeskriptoren für die Klassifikation aus dem Merkmalsdatensatz wird während des Trainingsprozesses durch einen Boosting-Klassifikator geleistet. Die modulare und erweiterbare Struktur des Frameworks ist entscheidend für den langfristig erfolgreichen Einsatz des Systems. FOREST stellt spezifizierte Schnittstellen für den Zugriff auf das System durch Benutzungsschnittstellen und die Erweiterung der Erkennungsfunktionalität bereit. Die Komponenten des Systems können zentral bereitgestellt werden und erlauben so die Nutzung ohne eine lokale Installation durch den Anwender. Die Definition der Erkennungsaufgabe findet durch die Annotation der Bilder, also der Zuweisung einer Kategorie zu jedem Bild, statt. Die Annotation ist ein sehr aufwändiger Prozess, da sie manuell durchgeführt werden muss. Die Qualität der Trainingsdaten und die Qualität der Annotationen, also die Korrektheit, haben direkten Einfluss auf die Ergebnisse
des resultierenden Bilderkennungssystems. Der Annotationsaufwand wird mit Hilfe
eines semi-automatischen Prozesses reduziert, indem Bilder ihrer Ähnlichkeit nach vorsortiert und in einer optimierten Benutzungsoberfläche dargestellt werden. Die Annotation ganzer Cluster in einem Zug ermöglicht eine effiziente Annotation des Datensatzes. Die Vorsortierung stellt aufgrund der unbekannten Natur der Bilder eine große Schwierigkeit dar, die durch die Integration verschiedener Bildmerkmale in einen Bag-of-Features (BoF) Histogramm-Merkmalsvektor gelöst werden kann. Die Vorsortierung der Bilder kann während
des Annotationsprozesses weiter verbessert werden, indem partiell verfügbare Annotationen in einem semi-überwachten Lernprozess eingesetzt werden. Anhand partieller Annotationen wird die Gewichtung der Bildmerkmale so angepasst, dass die Ähnlichkeit innerhalb einer Kategorie erhöht wird. Zusätzlich erlaubt die Identifikation diskriminativer Bildmerkmale eine Visualisierung relevanter Bildregionen, die Anwendern als Qualitätsmaß für die neu berechnete Vorsortierung der Bilder dienen kann. Die Benutzungsschnittstellen sind auf eine visuelle Informationsdarstellung ausgelegt. FOREST erlaubt Laien-Anwendern die Entwicklung aufgabenspezifischer Bilderkennungssysteme in einem einfach gehaltenen Entwicklungsprozess, der notwendige Interaktionen auf ein Minimum beschränkt. Dennoch ist FOREST für Experten-Anwender nutzbar. Neue Operatoren können leicht in das System integriert und effizient evaluiert werden. Die Ergebnisse aufgabenspezifischer Erkennungssysteme, die mit FOREST entwickelt wurden, sind mit den Ergebnissen spezialisierter Systeme vergleichbar. Die detaillierte Analyse der Klassifikation zeigt zudem, dass trotz der Annotation ganzer Bilder mit einer Kategorie
relevante Objektstrukturen erkannt und automatisiert für die Erkennung herangezogen werden. Der Entwicklungsaufwand für die Erstellung eines aufgabenspezifischen Bilderkennungssystems ist nicht mit der gemeinhin bekannten Entwicklung von Bilderkennungssystemen vergleichbar, da das System keine Programmierkenntnisse, kein Fachwissen und keine Eigenentwicklung erwartet. FOREST bietet daher für fachfremde Anwender ein Entwicklungswerkzeug und ermöglicht die Entwicklung von Bilderkennungssystemen für alltägliche Aufgaben. Damit legt FOREST den Grundstein für einen breiten Einsatz von Bilderkennungsanwendungen im Alltag.
|
68 |
Time-Dependent Data: Classification and VisualizationTanisaro, Pattreeya 14 November 2019 (has links)
The analysis of the immensity of data in space and time is a challenging task. For this thesis, the time-dependent data has been explored in various directions. The studies focused on data visualization, feature extraction, and data classification. The data that has been used in the studies comes from various well-recognized archives and has been the basis of numerous researches. The data characteristics ranged from the univariate time series to multivariate time series, from hand gestures to unconstrained views of general human movements. The experiments covered more than one hundred datasets. In addition, we also discussed the applications of visual analytics to video data. Two approaches were proposed to create a feature vector for time-dependent data classification. One is designed especially for a bio-inspired model for human motion recognition and the other is a subspace-based approach for arbitrary data characteristics. The extracted feature vectors of the proposed approaches can be easily visualized in two-dimensional space. For the classification, we experimented with various known models and offered a simple model using data in subspaces for light-weight computation. Furthermore, this method allows a data analyst to inspect feature vectors and detect an anomaly from a large collection of data simultaneously. Various classification techniques were compared and the findings were summarized. Hence, the studies can assist a researcher in picking an appropriate technique when setting up a corresponding model for a given characteristic of temporal data, and offer a new perspective for analyzing the time series data.
This thesis is comprised of two parts. The first part gives an overview of time-dependent data and of this thesis with its focus on classification; the second part covers the collection of seven publications.
|
69 |
Einstweilen im Dazwischen – das Interim als Möglichkeit, andere Umgebungen zu erschließen und variable Räume zu erprobenBüscher, Barbara 08 May 2023 (has links)
Durch Rekonstruktion, Umbau und Renovierung/ Erweiterung sind oder waren eine Reihe von städtischen und staatlichen deutschen Theatern in den letzten Jahren gezwungen, sich im Interim mit anderen Standorten, neuen Umgebungen und variablen Raumaufteilungen in großen Hallen auseinanderzusetzen. Dass der Umgang mit dieser vermeintlichen ‚Notlösung‘ auf sehr unterschiedliche Weise produktiv gemacht werden kann, wird anhand von zwei Beispielen bzw. Projekten entfaltet. Verschiedene künstlerische und stadtpolitische Strategien werden beschrieben, die das räumlich Institutionalisierte ergänzen und kritisch befragen, sich z.B. den anderen Nachbarschaften, die aus Spielstätten jenseits des Stadtzentrums resultieren, öffnen. Ein drittes Beispiel dokumentiert Interim als nomadisierende Bespielung einer Vielzahl verschiedener städtischer Orte und Räume.
Die experimentierende Aneignung von Interimssituationen lässt sich im Kontext der Konzepte von Schwellen-Räumen als Orten der Aushandlung und Beweglichkeit diskutieren.
|
70 |
UAV Vermessung im Bergbau - Stand der Forschung und AusblickTscharf, Alexander, Rumpler, Markus, Mayer, Gerhard, Fraundorfer, Friedrich, Bischof, Horst 29 July 2016 (has links)
Die Herstellung von optisch realistischen und hochgenauen 3D Modellen stellt eine zentrale Frage im Bereich der geodätischen und markscheiderischen Forschung dar. Mit dem zusehenden Aufkommen unbemannter Flugsysteme haben sich photogrammetrische Messsysteme als erschwingliche und flexible Alternative etabliert, wobei zur Gewährleistung definierter Genauigkeiten und somit zur Verwendung vergleichbarer Systeme für vermessungstechnische Anwendungen eine sorgfältige Flugplanung, Durchführung und Auswertung unbedingte Erfordernisse sind.
Im vorliegenden Beitrag wird einerseits auf die laufenden Forschungen zu Genauigkeit und Anwendbarkeit der UAV-basierten Vermessung im Bergbau eingegangen und andererseits werden zukünftige Forschungstendenzen aufgezeigt, wodurch in neue, bislang nicht erreichbare Anwendungsfelder, vorgedrungen werden könnte. / Creating and visualizing realistic and accurate 3D models is a central ambition of research in the field of geodesy and mine surveying. Due to the increasing affordability of un-manned aerial vehicles (UAVs) photogrammetric systems have been well established as affordable and flexible alternative. In order to ensure a certain accuracy and thus to enable the usage for surveying applications, careful flight planning, implementation and evaluation are of special importance.
This paper discusses the ongoing research on accuracy and applicability of UAV-based mine surveying as well as future research tendencies, whereby new, currently not achievable fields of application could be investigated.
|
Page generated in 0.0268 seconds