• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 8
  • Tagged with
  • 26
  • 26
  • 26
  • 26
  • 16
  • 13
  • 10
  • 9
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Towards Efficient Convolutional Neural Architecture Design

Richter, Mats L. 10 May 2022 (has links)
The design and adjustment of convolutional neural network architectures is an opaque and mostly trial and error-driven process. The main reason for this is the lack of proper paradigms beyond general conventions for the development of neural networks architectures and lacking effective insights into the models that can be propagated back to design decision. In order for the task-specific design of deep learning solutions to become more efficient and goal-oriented, novel design strategies need to be developed that are founded on an understanding of convolutional neural network models. This work develops tools for the analysis of the inference process in trained neural network models. Based on these tools, characteristics of convolutional neural network models are identified that can be linked to inefficiencies in predictive and computational performance. Based on these insights, this work presents methods for effectively diagnosing these design faults before and during training with little computational overhead. These findings are empirically tested and demonstrated on architectures with sequential and multi-pathway structures, covering all the common types of convolutional neural network architectures used for classification. Furthermore, this work proposes simple optimization strategies that allow for goal-oriented and informed adjustment of the neural architecture, opening the potential for a less trial-and-error-driven design process.
12

Fusing DL Reasoning with HTN Planning as a Deliberative Layer in Mobile Robotics

Hartanto, Ronny 08 March 2010 (has links)
Action planning has been used in the field of robotics for solving long-running tasks. In the robot architectures field, it is also known as the deliberative layer. However, there is still a gap between the symbolic representation on the one hand and the low-level control and sensor representation on the other. In addition, the definition of a planning problem for a complex, real-world robot is not trivial. The planning process could become intractable as its search spaces become large. As the defined planning problem determines the complexity and the computationability for solving the problem, it should contain only relevant states. In this work, a novel approach which amalgamates Description Logic (DL) reasoning with Hierarchical Task Network (HTN) planning is introduced. The planning domain description as well as fundamental HTN planning concepts are represented in DL and can therefore be subject to DL reasoning; from these representations, concise planning problems are generated for HTN planning. The method is presented through an example in the robot navigation domain. In addition, a case study of the RoboCup@Home domain is given. As proof of concept, a well-known planning problem that often serves as a benchmark, namely that of the blocks-world, is modeled and solved using this approach. An analysis of the performance of the approach has been conducted and the results show that this approach yields significantly smaller planning problem descriptions than those generated by current representations in HTN planning.
13

Multi-wavelength laser line profile sensing for agricultural applications

Strothmann, Wolfram 03 November 2016 (has links)
This dissertation elaborates on the novel sensing approach of multi-wavelength laser line profiling (MWLP). It is a novel sensor concept that expands on the well-known and broadly adopted laser line profile sensing concept for triangulation-based range imaging. Thereby, the MWLP concept does not just use one line laser but multiple line lasers at different wavelengths scanned by a single monochrome imager. Moreover, it collects not only the 3D distance values but also reflection intensity and backscattering of the laser lines are evaluated. The system collects spectrally selective image-based data in an active manner. Thus, it can be geared toward an application-specific wavelength configuration by mounting a set of lasers of the required wavelengths. Consequently, with this system image-based 3D range data can be collected along with reflection intensity and backscattering data at multiple, selectable wavelengths using just a single monochrome image sensor. Starting from a basic draft of the idea, the approach was realized in terms of hardware and software design and implementation. The approach was shown to be feasible and the prototype performed well as compared with other state-of-the-art sensor systems. The sensor raw data can be visualized and accessed as overlayed distance images, point clouds or mesh. Further, for selected example applications it was demonstrated that the sensor data gathered by the system can serve as descriptive input for real world agricultural classification problems. The sensor data was classified in a pixel-based manner. This allows very flexible, quick and easy adaptation of the classification toward new field situations.
14

Transparent Object Reconstruction and Registration Confidence Measures for 3D Point Clouds based on Data Inconsistency and Viewpoint Analysis

Albrecht, Sven 28 February 2018 (has links)
A large number of current mobile robots use 3D sensors as part of their sensor setup. Common 3D sensors, i.e., laser scanners or RGB-D cameras, emit a signal (laser light or infrared light for instance), and its reflection is recorded in order to estimate depth to a surface. The resulting set of measurement points is commonly referred to as 'point clouds'. In the first part of this dissertation an inherent problem of sensors that emit some light signal is addressed, namely that these signals can be reflected and/or refracted by transparent of highly specular surfaces, causing erroneous or missing measurements. A novel heuristic approach is introduced how such objects may nevertheless be identified and their size and shape reconstructed by fusing information from several viewpoints of the scene. In contrast to other existing approaches no prior knowledge about the objects is required nor is the shape of the reconstructed objects restricted to a limited set of geometric primitives. The thesis proceeds to illustrate problems caused by sensor noise and registration errors and introduces mechanisms to address these problems. Finally a quantitative comparison between equivalent directly measured objects, the reconstructions and "ground truth" is provided. The second part of the thesis addresses the problem of automatically determining the quality of the registration for a pair of point clouds. Although a different topic, these two problems are closely related, if modeled in the fashion of this thesis. After illustrating why the output parameters of a popular registration algorithm (ICP) are not suitable to deduce registration quality, several heuristic measures are developed that provide better insight. Experiments performed on different datasets were performed to showcase the applicability of the proposed measures in different scenarios.
15

Relevance-based Online Planning in Complex POMDPs

Saborío Morales, Juan Carlos 17 July 2020 (has links)
Planning under uncertainty is a central topic at the intersection of disciplines such as artificial intelligence, cognitive science and robotics, and its aim is to enable artificial agents to solve challenging problems through a systematic approach to decision-making. Some of these challenges include generating expectations about different outcomes governed by a probability distribution and estimating the utility of actions based only on partial information. In addition, an agent must incorporate observations or information from the environment into its deliberation process and produce the next best action to execute, based on an updated understanding of the world. This process is commonly modeled as a POMDP, a discrete stochastic system that becomes intractable very quickly. Many real-world problems, however, can be simplified following cues derived from contextual information about the relative expected value of actions. Based on an intuitive approach to problem solving, and relying on ideas related to attention and relevance estimation, we propose a new approach to planning supported by our two main contributions: PGS grants an agent the ability to generate internal preferences and biases to guide action selection, and IRE allows the agent to reduce the dimensionality of complex problems while planning online. Unlike existing work that improves the performance of planning on POMDPs, PGS and IRE do not rely on detailed heuristics or domain knowledge, explicit action hierarchies or manually designed dependencies for state factoring. Our results show that this level of autonomy is important to solve increasingly more challenging problems, where manually designed simplifications scale poorly.
16

Tiefes Reinforcement Lernen auf Basis visueller Wahrnehmungen

Lange, Sascha 19 May 2010 (has links)
Die vorliegende Arbeit widmet sich der Untersuchung und Weiterentwicklung selbständig lernender maschineller Lernverfahren (Reinforcement Lernen) in der Anwendung auf visuelle Wahrnehmungen. Zuletzt wurden mit der Einführung speicherbasierter Methoden in das Reinforcement Lernen große Fortschritte beim Lernen an realen Systemen erzielt, aber der Umgang mit hochkomplexen visuellen Eingabedaten, wie sie z.B. von einer digitalen Kamera aufgezeichnet werden, stellt weiterhin ein ungelöstes Problem dar. Bestehende Methoden sind auf den Umgang mit niedrigdimensionalen Zustandsbeschreibungen beschränkt, was eine Anwendung dieser Verfahren direkt auf den Strom von Bilddaten bisher ausschließt und den vorgeschalteten Einsatz klassischer Methoden des Bildverstehens zur Extraktion und geeigneten Kodierung der relevanten Informationen erfordert. Einen Ausweg bietet der Einsatz von so genannten `tiefen Autoencodern'. Diese mehrschichtigen neuronalen Netze ermöglichen es, selbstorganisiert niedrigdimensionale Merkmalsräume zur Repräsentation hochdimensionaler Eingabedaten zu erlernen und so eine klassische, aufgabenspezifische Bildanalyse zu ersetzen. In typischen Objekterkennungsaufgaben konnten auf Basis dieser erlernten Repräsentationen bereits beeindruckende Ergebnisse erzielt werden. Im Rahmen der vorliegenden Arbeit werden nun die tiefen Autoencodernetze auf ihre grundsätzliche Tauglichkeit zum Einsatz im Reinforcement Lernen untersucht. Mit dem ``Deep Fitted Q''-Algorithmus wird ein neuer Algorithmus entwickelt, der das Training der tiefen Autoencodernetze auf effiziente Weise in den Reinforcement Lernablauf integriert und so den Umgang mit visuellen Wahrnehmungen beim Strategielernen ermöglicht. Besonderes Augenmerk wird neben der Dateneffizienz auf die Stabilität des Verfahrens gelegt. Im Anschluss an eine Diskussion der theoretischen Aspekte des Verfahrens wird eine ausführliche empirische Evaluation der erzeugten Merkmalsräume und der erlernten Strategien an simulierten und realen Systemen durchgeführt. Dabei gelingt es im Rahmen der vorliegenden Arbeit mit Hilfe der entwickelten Methoden erstmalig, Strategien zur Steuerung realer Systeme direkt auf Basis der unvorverarbeiteten Bildinformationen zu erlernen, wobei von außen nur das zu erreichende Ziel vorgegeben werden muss.
17

Context-aware anchoring, semantic mapping and active perception for mobile robots

Günther, Martin 30 November 2021 (has links)
An autonomous robot that acts in a goal-directed fashion requires a world model of the elements that are relevant to the robot's task. In real-world, dynamic environments, the world model has to be created and continually updated from uncertain sensor data. The symbols used in plan-based robot control have to be anchored to detected objects. Furthermore, robot perception is not only a bottom-up and passive process: Knowledge about the composition of compound objects can be used to recognize larger-scale structures from their parts. Knowledge about the spatial context of an object and about common relations to other objects can be exploited to improve the quality of the world model and can inform an active search for objects that are missing from the world model. This thesis makes several contributions to address these challenges: First, a model-based semantic mapping system is presented that recognizes larger-scale structures like furniture based on semantic descriptions in an ontology. Second, a context-aware anchoring process is presented that creates and maintains the links between object symbols and the sensor data corresponding to those objects while exploiting the geometric context of objects. Third, an active perception system is presented that actively searches for a required object while being guided by the robot's knowledge about the environment.
18

Semantic Process Engineering – Konzeption und Realisierung eines Werkzeugs zur semantischen Prozessmodellierung

Fellmann, Michael 23 October 2013 (has links)
In der Geschäftsprozessmodellierung haben sich semiformale, grafische Darstellungen etabliert. Die Bezeichnung der Elemente in diesen Modellen ist dabei an betriebswirtschaftliche Fachtermini angelehnt und erfolgt mit Hilfe der natürlichen Sprache, die jedoch Interpretationsspielräume mit sich bringt. Die Semantik der einzelnen Modellelemente ist somit für Menschen und Maschinen nicht eindeutig interpretierbar. In der vorliegenden Dissertation erfolgt daher die Konzeption und Realisierung einer semantischen Prozessmodellierung, die die Verknüpfung der semiformalen Prozessmodellierung mit formalen Begriffssystemen (Ontologien) gestaltet und werkzeugtechnisch unterstützt. Durch diese Verknüpfung wird die Semantik der einzelnen Modellelemente um eine eindeutige und maschinell verarbeitbare Semantik erweitert. Hierdurch können die mit formalen Ontologien möglichen Schlussfolgerungen angewendet werden, um etwa bei der Suche in Modellbeständen oder der Korrektheitsprüfung genauere oder vollständigere Ergebnisse zu erhalten. Im Ergebnis werden somit die im Bereich der Informatik und Künstlichen Intelligenz etablierten Ansätze der Wissensrepräsentation, insbesondere der Beschreibungslogik, in die fachlichen Prozessmodellierung eingebettet. Die Erprobung des Konzepts erfolgt über eine prototypische Implementierung, die einerseits die technische Umsetzbarkeit zeigt, andererseits auch für ein Laborexperiment zur Evaluation genutzt wurde.
19

Erweiterungen des fallbasierten Schließens zur prognostischen Fundierung von Planungsaufgaben - Konzeption und prototypische Implementierung am Beispiel von Kapazitätsnachfrageprognosen zur Fundierung der Kapazitätsplanung auf verschiedenen Ebenen hochschulinterner Planungssysteme

Pöppelmann, Daniel 09 March 2015 (has links)
In der vorliegenden Arbeit wird das Konzept eines zusammengesetzten Decision Support Systems (DSS), bestehend aus einer wissensgetriebenen und einer datengetriebenen Komponente vorgeschlagen, welches Entscheidungsträger der Kapazitätsplanung auf verschiedenen Ebenen eines hochschulinternen Planungssystems mit prognostizierten, den Kernprozess Lehre betreffenden Nachfragegrößen unterstützt. Den Kern des zusammengesetzten DSS stellt eine wissensgetriebene Komponente dar, die basierend auf dem Paradigma des Case-based Reasoning (CBR) die Prognose individueller Studienverläufe aller Studierender einer Hochschule ermöglicht. Dazu erfolgt die Wiederverwendung von Erfahrungen hinsichtlich der Modul- und Klausurbelegung von Alumni und im Studium fortgeschrittener Studierender, die in Form von Fällen repräsentiert werden. Die domänenspezifischen Anpassungen und Erweiterungen des Paradigmas des CBR umfassen erstens die Repräsentation von Erfahrungen mit heterogenem Zeitbezug durch Fälle. Diesbezüglich wird einerseits eine dynamische, vom zu lösenden Problem abhängige Zuordnung von Fallattributen zu den Komponenten Beschreibung und Lösung eines Falls konzipiert. Andererseits wird eine Möglichkeit zur Abbildung von zeitabhängigen Attributen sowohl in der Beschreibung als auch in der Lösung eines Falls geschaffen. Zweitens erfolgt eine Erweiterung des CBR-cycle, des Problemlösungsprozesses, der im erarbeiteten Konzept zur Erstellung von Prognosen verwendet wird. Die Erweiterungen umfassen insbesondere die automatisierte Erkennung von zu lösenden (Prognose-)Fällen, die Überprüfung und Anpassung erstellter Prognosen mithilfe eines regelbasierten Systems, das sich auf Domänenwissen aus einer Ontologie stützt, sowie die zeitasynchrone Einbeziehung einer Vielzahl von Studierenden als Domänenexperten zur Anpassung individuell prognostizierter Studienverläufe. Eine datengetriebene Komponente bildet den zweiten Teil des zusammengesetzten DSS. Diese dient der Bereitstellung der Ergebnisse der wissensgetriebenen Komponente in einer von Entscheidungsträgern der hochschulinternen Kapazitätsplanung verwertbaren Form. Die durch die wissensgetriebene Komponente erstellten Prognosen werden hierzu in einen multidimensional modellierten Data Mart geladen und mithilfe von analytischen und Standardberichten auf verschiedenen Aggregationsniveaus zur Auswertung bereitgestellt. Zur Evaluation des Konzepts erfolgt dessen prototypische Implementierung am Beispiel der Universität Osnabrück. Der Fokus der Bewertung liegt auf dem Kriterium der Prognosegenauigkeit, welches durch verschiedene, auf dem Prognosefehler basierende Gütemaße operationalisiert wird. Letztere werden anhand von Prognosesimulationen mittels des Prototyps ermittelt und auf Basis eines Interpretationsschemas sowie durch Gegenüberstellung mit den Ergebnissen eines Referenzverfahrens interpretiert und bewertet.
20

Reliable General Purpose Sentiment Analysis of the Public Twitter Stream

Haldenwang, Nils 27 September 2017 (has links)
General purpose Twitter sentiment analysis is a novel field that is closely related to traditional Twitter sentiment analysis but slightly differs in some key aspects. The main difference lies in the fact that the novel approach considers the unfiltered public Twitter stream while most of the previous approaches often applied various filtering steps which are not feasible for many applications. Another goal is to yield more reliable results by only classifying a tweet as positive or negative if it distinctly consists of the respective sentiment and mark the remaining messages as uncertain. Traditional approaches are often not that strict. Within the course of this thesis it could be verified that the novel approach differs significantly from the traditional approach. Moreover, the experimental results indicated that the archetypical approaches could be transferred to the new domain but the related domain data is consistently sub par when compared to high quality in-domain data. Finally, the viability of the best classification algorithm could be qualitatively verified in a real-world setting that was also developed within the course of this thesis.

Page generated in 0.1056 seconds