• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 65
  • 14
  • Tagged with
  • 164
  • 164
  • 151
  • 81
  • 79
  • 79
  • 77
  • 67
  • 65
  • 28
  • 26
  • 24
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Lexicon formation in autonomous robots

Loetzsch, Martin 26 January 2015 (has links)
"Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache". Ludwig Wittgenstein führte diese Idee in der ersten Hälfte des 20. Jahrhunderts in die Philosophie ein und in verwandten Disziplinen wie der Psychologie und Linguistik setzte sich vor allem in den letzten Jahrzehnten die Ansicht durch, dass natürliche Sprache ein dynamisches System arbiträrer und kulturell gelernter Konventionen ist. Forscher um Luc Steels übertrugen diesen Sprachbegriff seit Ende der 90er Jahre auf das Gebiet der Künstlichen Intelligenz, indem sie zunächst Software-Agenten und später Robotern mittels sogenannter Sprachspiele gemeinsame Kommunikationssysteme bilden liessen, ohne dass Agenten im Voraus mit linguistischem und konzeptionellen Wissen ausgestattet werden. Die vorliegende Arbeit knüpft an diese Forschung an und untersucht vertiefend die Selbstorganisation von geteiltem lexikalischen Wissen in humanoiden Robotern. Zentral ist dabei das Konzept der "referential uncertainty", d.h. die Schwierigkeit, die Bedeutung eines bisher unbekannten Wortes aus dem Kontext zu erschliessen. Ausgehend von sehr einfachen Modellen der Lexikonbildung untersucht die Arbeit zunächst in einer simulierten Umgebung und später mit physikalischen Robotern systematisch, wie zunehmende Komplexität kommunikativer Interaktionen komplexere Lernmodelle und Repräsentationen erfordert. Ein Ergebnis der Evaluierung der Modelle hinsichtlich Robustheit und Übertragbarkeit auf Interaktionszenarien mit Robotern ist, dass die in der Literatur vorwiegenden selektionistischen Ansätze schlecht skalieren und mit der zusätzlichen Herausforderung einer Verankerung in visuellen Perzeptionen echter Roboter nicht zurecht kommen. Davon ausgehend wird ein alternatives Modell vorgestellt. / "The meaning of a word is its use in the language". In the first half of the 20th century Ludwig Wittgenstein introduced this idea into philosophy and especially in the last few decades, related disciplines such as psychology and linguistics started embracing the view that that natural language is a dynamic system of arbitrary and culturally learnt conventions. From the end of the nineties on, researchers around Luc Steels transferred this notion of communication to the field of artificial intelligence by letting software agents and later robots play so-called language games in order to self-organize communication systems without requiring prior linguistic or conceptual knowledge. Continuing and advancing that research, the work presented in this thesis investigates lexicon formation in humanoid robots, i.e. the emergence of shared lexical knowledge in populations of robotic agents. Central to this is the concept of referential uncertainty, which is the difficulty of guessing a previously unknown word from the context. First in a simulated environments and later with physical robots, this work starts from very simple lexicon formation models and then systematically analyzes how an increasing complexity in communicative interactions leads to an increasing complexity of representations and learning mechanisms. We evaluate lexicon formation models with respect to their robustness, scaling and their applicability to robotic interaction scenarios and one result of this work is that the predominating approaches in the literature do not scale well and are not able to cope with the challenges stemming from grounding words in the real-world perceptions of physical robots. In order to overcome these limitations, we present an alternative lexicon formation model and evaluate its performance.
62

Methoden zur Unterstützung der klinischen Entscheidungsfindung in der Nierentransplantation

Fritsche, Lutz 07 July 2004 (has links)
In dieser Arbeit sollen die Vermittelbarkeit der notwendigen methodischen Fähigkeiten zur Anwendung der EbM in der klinischen Entscheidungsfindung sowie die Qualität der dazu unverzichtbaren Publikationen klinischer Studien für das Gebiet der Nierentransplantation untersucht werden. Des Weiteren sollen angesichts der für viele Fragen nicht vorhandenen Studienergebnisse alternative Verfahren der Gewinnung von klinisch entscheidungsrelevanten Erkenntnissen in der Nierentransplantationsmedizin untersucht werden. Liegen in einer Entscheidungssituation relevante Ergebnisse qualitativ adäquater randomisierter Studien vor, sollte die Entscheidung auf diese Ergebnisse gestützt werden. Die klinische Entscheidungsfindung kann auf verschiedenen Wegen unterstützt werden. Der Königsweg ist die auf Erkenntnissen der Grundlagenforschung fußende randomisierte Studie. Deren Nutzung erfordert jedoch eine leitliniengemäße Publikation und auf Seiten des Lesers entsprechendes Methodenwissen zur Interpretation der Ergebnisse. Komplementäre Methoden, insbesondere Analysen klinischer Datenbanken können die aus randomisierten Studien stammenden Entscheidungsgrundlagen sinnvoll ergänzen und die Durchführung weiterer randomisierter Studien vorbereiten. Auf diesem Hintergrund erscheint es auch für den Bereich der Nierentransplantation sinnvoll, die bestehende Datenbasis konsequent weiter auszubauen. / This work aims to investigate the communicability of the necessary skills for the application of Evidence-based Medicine in everyday clinical decision making. In addition the publication quality and design of clinical trials in the field of kidney transplantation are observed. In this context and on the background of the lack of clinically relevant study data for many important aspects of transplantation medicine alternative methods of knowledge generation to support clinical decision making are assessed. Whenever results of adequate prospective randomized trials are available clinical decision making should take these into account. But clinical decision making can be supported in various ways. The best way is the conduction of randomized clinical trials based on the results of basic science investigations. Use of randomized trial results requires their guideline-conforming publication and on the reader’s side the corresponding methodological skills for the critical interpretation and assessment of the scientific medical literature. Complementary methods - especially analyses of clinical databases can achieve substantial enhancement of the foundation for clinical decision making. They can also help to prepare the conduct of further randomized studies. Thus, as in other fields it seems worthwile to expand the existing databases in the field of kidney transplantation.
63

Preferences in answer set programming

Konczak, Kathrin January 2007 (has links)
Answer Set Programming (ASP) emerged in the late 1990s as a new logic programming paradigm, having its roots in nonmonotonic reasoning, deductive databases, and logic programming with negation as failure. The basic idea of ASP is to represent a computational problem as a logic program whose answer sets correspond to solutions, and then to use an answer set solver for finding answer sets of the program. ASP is particularly suited for solving NP-complete search problems. Among these, we find applications to product configuration, diagnosis, and graph-theoretical problems, e.g. finding Hamiltonian cycles. On different lines of ASP research, many extensions of the basic formalism have been proposed. The most intensively studied one is the modelling of preferences in ASP. They constitute a natural and effective way of selecting preferred solutions among a plethora of solutions for a problem. For example, preferences have been successfully used for timetabling, auctioning, and product configuration. In this thesis, we concentrate on preferences within answer set programming. Among several formalisms and semantics for preference handling in ASP, we concentrate on ordered logic programs with the underlying D-, W-, and B-semantics. In this setting, preferences are defined among rules of a logic program. They select preferred answer sets among (standard) answer sets of the underlying logic program. Up to now, those preferred answer sets have been computed either via a compilation method or by meta-interpretation. Hence, the question comes up, whether and how preferences can be integrated into an existing ASP solver. To solve this question, we develop an operational graph-based framework for the computation of answer sets of logic programs. Then, we integrate preferences into this operational approach. We empirically observe that our integrative approach performs in most cases better than the compilation method or meta-interpretation. Another research issue in ASP are optimization methods that remove redundancies, as also found in database query optimizers. For these purposes, the rather recently suggested notion of strong equivalence for ASP can be used. If a program is strongly equivalent to a subprogram of itself, then one can always use the subprogram instead of the original program, a technique which serves as an effective optimization method. Up to now, strong equivalence has not been considered for logic programs with preferences. In this thesis, we tackle this issue and generalize the notion of strong equivalence to ordered logic programs. We give necessary and sufficient conditions for the strong equivalence of two ordered logic programs. Furthermore, we provide program transformations for ordered logic programs and show in how far preferences can be simplified. Finally, we present two new applications for preferences within answer set programming. First, we define new procedures for group decision making, which we apply to the problem of scheduling a group meeting. As a second new application, we reconstruct a linguistic problem appearing in German dialects within ASP. Regarding linguistic studies, there is an ongoing debate about how unique the rule systems of language are in human cognition. The reconstruction of grammatical regularities with tools from computer science has consequences for this debate: if grammars can be modelled this way, then they share core properties with other non-linguistic rule systems. / Die Antwortmengenprogrammierung entwickelte sich in den späten 90er Jahren als neues Paradigma der logischen Programmierung und ist in den Gebieten des nicht-monotonen Schließens und der deduktiven Datenbanken verwurzelt. Dabei wird eine Problemstellung als logisches Programm repräsentiert, dessen Lösungen, die so genannten Antwortmengen, genau den Lösungen des ursprünglichen Problems entsprechen. Die Antwortmengenprogrammierung bildet ein geeignetes Fundament zur Repräsentation und zum Lösen von Entscheidungs- und Suchproblemen in der Komplexitätsklasse NP. Anwendungen finden wir unter anderem in der Produktkonfiguration, Diagnose und bei graphen-theoretischen Problemen, z.B. der Suche nach Hamiltonschen Kreisen. In den letzten Jahren wurden viele Erweiterungen der Antwortmengenprogrammierung betrachtet. Die am meisten untersuchte Erweiterung ist die Modellierung von Präferenzen. Diese bilden eine natürliche und effektive Möglichkeit, unter einer Vielzahl von Lösungen eines Problems bevorzugte Lösungen zu selektieren. Präferenzen finden beispielsweise in der Stundenplanung, bei Auktionen und bei Produktkonfigurationen ihre Anwendung. Der Schwerpunkt dieser Arbeit liegt in der Modellierung, Implementierung und Anwendung von Präferenzen in der Antwortmengenprogrammierung. Da es verschiedene Ansätze gibt, um Präferenzen darzustellen, konzentrieren wir uns auf geordnete logische Programme, wobei Präferenzen als partielle Ordnung der Regeln eines logischen Programms ausgedrückt werden. Dabei betrachten wir drei verschiedene Semantiken zur Interpretation dieser Präferenzen. Im Vorfeld wurden für diese Semantiken die bevorzugten Antwortmengen durch einen Compiler oder durch Meta-Interpretation berechnet. Da Präferenzen Lösungen selektieren, stellt sich die Frage, ob es möglich ist, diese direkt in den Berechnungsprozeß von präferenzierten Antwortmengen zu integrieren, so dass die bevorzugten Antwortmengen ohne Zwischenschritte berechnet werden können. Dazu entwickeln wir zuerst ein auf Graphen basierendes Gerüst zur Berechnung von Antwortmengen. Anschließend werden wir darin Präferenzen integrieren, so dass bevorzugte Antwortmengen ohne Compiler oder Meta-Interpretation berechnet werden. Es stellt sich heraus, dass die integrative Methode auf den meisten betrachteten Problemklassen wesentlich leistungsfähiger ist als der Compiler oder Meta-Interpretation. Ein weiterer Schwerpunkt dieser Arbeit liegt in der Frage, inwieweit sich geordnete logische Programme vereinfachen lassen. Dazu steht die Methodik der strengen Äquivalenz von logischen Programmen zur Verfügung. Wenn ein logisches Programm streng äquivalent zu einem seiner Teilprogramme ist, so kann man dieses durch das entsprechende Teilprogramm ersetzen, ohne dass sich die zugrunde liegende Semantik ändert. Bisher wurden strenge Äquivalenzen nicht für logische Programme mit Präferenzen untersucht. In dieser Arbeit definieren wir erstmalig strenge Äquivalenzen für geordnete logische Programme. Wir geben notwendige und hinreichende Bedingungen für die strenge Äquivalenz zweier geordneter logischer Programme an. Des Weiteren werden wir auch die Frage beantworten, inwieweit geordnete logische Programme und deren Präferenzstrukturen vereinfacht werden können. Abschließend präsentieren wir zwei neue Anwendungsbereiche von Präferenzen in der Antwortmengenprogrammierung. Zuerst definieren wir neue Prozeduren zur Entscheidungsfindung innerhalb von Gruppenprozessen. Diese integrieren wir anschließend in das Problem der Planung eines Treffens für eine Gruppe. Als zweite neue Anwendung rekonstruieren wir mit Hilfe der Antwortmengenprogrammierung eine linguistische Problemstellung, die in deutschen Dialekten auftritt. Momentan wird im Bereich der Linguistik darüber diskutiert, ob Regelsysteme von (menschlichen) Sprachen einzigartig sind oder nicht. Die Rekonstruktion von grammatikalischen Regularitäten mit Werkzeugen aus der Informatik erlaubt die Unterstützung der These, dass linguistische Regelsysteme Gemeinsamkeiten zu anderen nicht-linguistischen Regelsystemen besitzen.
64

Spamerkennung mit Support Vector Machines

Möller, Manuel 22 June 2005 (has links) (PDF)
Diese Arbeit zeigt ausgehend von einer Darstellung der theoretischen Grundlagen automatischer Textklassifikation, dass die aus der Statistical Learning Theory stammenden Support Vector Machines geeignet sind, zu einer präziseren Erkennung unerwünschter E-Mail-Werbung beizutragen. In einer Testumgebung mit einem Corpus von 20 000 E-Mails wurden Testläufe verschiedene Parameter der Vorverarbeitung und der Support Vector Machine automatisch evaluiert und grafisch visualisiert. Aufbauend darauf wird eine Erweiterung für die Open-Source-Software SpamAssassin beschrieben, die die vorhandenen Klassifikationsmechanismen um eine Klassifikation per Support Vector Machine erweitert.
65

Using Case-based Reasoning to Control Traffic Consumption

Schade, Markus 30 September 2007 (has links) (PDF)
Quality of service is commonly used to shape network traffic to meet specified criteria. The various scenarios include limiting and reserving bandwidth for a particular application, host or user, prioritizing latency sensitive traffic or equal distribution of unreserved bandwidth. The DynShaper software distributes and controls a traffic quota by more sophisticated means than fixed per user limits and simple disconnection after the user reaches the limit. It distributes the quota on a daily basis, where each day receives the same share. The users are sorted into predefined groups with different bandwidths depending on their recent consumption. This classification is periodically updated to ensure the sorting order is maintained. The bandwidths of these groups is dynamically adjusted depending on the actual consumption to provide an efficient utilization. This thesis presents another distribution model using a case-based reasoning approach, a method for machine learning which is classified as conventional artificial intelligence. Case-based reasoning tries to solve new problems based on the solutions of similar problems from the past. Controlling the network traffic to remain within a fixed quota can be modeled as such a problem if the traffic patterns are recurring. Possible solutions can be derived from statistical data and altered to suit the new problems. When an untested solution is applied, the software supervises the execution and revises the solution accordingly, if the actual results deviate from the precalculated schedule.
66

Development of a Class Framework for Flood Forecasting

Krauße, Thomas 18 January 2013 (has links) (PDF)
Aus der Einleitung: The calculation and prediction of river flow is a very old problem. Especially extremely high values of the runoff can cause enormous economic damage. A system which precisely predicts the runoff and warns in case of a flood event can prevent a high amount of the damages. On the basis of a good flood forecast, one can take action by preventive methods and warnings. An efficient constructional flood retention can reduce the effects of a flood event enormously.With a precise runoff prediction with longer lead times (>48h), the dam administration is enabled to give order to their gatekeepers to empty dams and reservoirs very fast, following a smart strategy. With a good timing, that enables the dams later to store and retain the peak of the flood and to reduce all effects of damage in the downstream. A warning of people in possible flooded areas with greater lead time, enables them to evacuate not fixed things like cars, computers, important documents and so on. Additionally it is possible to use the underlying rainfall-runoff model to perform runoff simulations to find out which areas are threatened at which precipitation events and associated runoff in the river. Altogether these methods can avoid a huge amount of economic damage.
67

Bedarfserhebung zur Digitalisierung an Hochschulen: tech4comp – Studierendenbefragung (Dokumentation): tech4comp - student survey (documentation)

Stützer, Cathleen M., Gaaw, Stephanie, Lenz, Karl 02 August 2021 (has links)
Wie Künstliche Intelligenz (KI) das Lernen begleiten kann, wird im BMBF-Verbundprojekt „Personalisierte Kompetenzentwicklung durch skalierbare Mentoringprozesse – tech4comp“ erforscht. Um sich dabei zunächst der Frage, was digital-gestütztes Mentoring leisten kann und soll, zu nähern, erfolgt eine Bedarfs- und Leistungsanalyse durch die Erhebung und Auswertung lernbezogener Daten in technologie-gestützten Bildungsräumen auf mehreren Ebenen. Es wird das Verhalten von Lernenden untersucht, um Erkenntnisse über die Leistungsfähigkeit von Mentoring innerhalb adaptiver Bildungsräume zu erhalten und Einflussfaktoren und Gelingensbedingungen zu identifizieren. Dazu wird die Expertise aus verschiedenen Disziplinen (Bildungswissenschaften, Informatik, Organisations- und Sozialwissenschaften) herangezogen.
68

Merkmalsextraktion für die Klassifikation von Bestandteilen in Dokument-Bildern

Poller, Andreas 20 November 2005 (has links)
Am Institut für Print- und Medientechnik an der TU Chemnitz wird ein System entwickelt, welches gescannte Dokumente archivieren soll. Im Gegensatz zu bereits existierenden OCR-Systemen, sollen diese Dokumente hier jedoch nicht mittels einer Schrifterkennung verarbeitet werden. Vielmehr sind Textbereiche in den gescannten Vorlagen zu vektorisieren. Bereiche mit Grafiken und Illustrationen werden bei diesem Verfahren als ein Bildvektor gespeichert. Diese Vorgehensweise soll es ermöglichen, auch Dokumente mit Schriftsymbolen effizient zu archivieren, die keinen "herkömmlichen" Schriftsätzen zugehörig sind. Diese Studienarbeit stellt Merkmalsextraktionsverfahren vor, die aus einem gegebenen Teil (Segment) eines Dokumentenscans Merkmale extrahieren, die es ermöglichen sollen, diesen mittels eines Klassifikationsverfahrens einer Klasse Textblock oder einer Klasse Grafikblock zuzuordnen. Zusätzlich werden zwei Klassifikationsverfahren, ein Entscheidungsbaum und eine Fuzzy-Logik, auf die Nutzbarkeit für einen solchen Mustererkennungsprozess überprüft. Als Textblöcke erkannte Bereiche werden im zu entwickelnden Gesamtverfahren dann in nachfolgenden Verarbeitungsschritten einer Vektorisierung zugeführt.
69

Implications of Conversational AI on Humanoid Robots

Soudamalla, Sharath Kumar 09 October 2020 (has links)
Humanizing Technologies GmbH develops Intelligent software for the humanoid robots from Softbank Robotics. The main objective of this thesis is to develop and deploy Conversational Artificial Intelligence software into the humanoid robots using deep learning techniques. Development of conversational agents using Machine Learning or Artificial Intelligence is an intriguing issue with regards to Natural Language Processing. Great research and experimentation is being conducted in this area. Currently most of the chatbots are developed with rule based programming that cannot hold conversation which replicates real human interaction. This issue is addressed in this thesis with the development of Deep learning conversational AI based on Sequence to sequence, Attention mechanism, Transfer learning, Active learning and Beam search decoding which emulates human like conversation. The complete end to end conversational AI software is designed, implemented and deployed in this thesis work according to the conceptual specifications. The research objectives are successfully accomplished and results of the proposed concept are dis- cussed in detail.
70

Optimization of combine processes using expert knowledge and methods of artificial intelligence

Eggerl, Anja 10 October 2017 (has links)
Combine harvesters are used to gather plants from the field and separate them into the components of value, the grain and the straw. The optimal utilization of existing combine potential is an inevitable task to maximize harvest efficiency and hence to maximize profit. The only way to optimize the threshing and separation processes during harvest is to adjust the combine settings to existing conditions. Operating permanently at optimal harvest efficiency can only be achieved by an automatic control system. However, for reasons of transparency and due to lack of sensors, the approach in this thesis is a combined development of an interactive and an automatic control system for combine process optimization. The optimization of combine processes is a multi-dimensional and multi-objective optimization problem. The objectives of optimization are the harvest quality parameters. The decision variables, the parameters that can be modified, are the combine settings. Analytical optimization methods require the existence of a model that provides function values in dependence of defined input parameters. A comprehensive quantitative model for the input-output-behavior of the combine does not exist. Alternative optimization methods that handle multi-dimensional and multi-objective optimization problems can be found in the domain of Artificial Intelligence. In this work, knowledge acquisition was performed in order to obtain expert knowledge on combine process optimization. The result is a knowledge base with six adjustment matrices for different crop and combine types. The adjustment matrices contain problem oriented setting adjustment recommendations in order to solve single issues with quality parameters. A control algorithm has been developed that is also capable of solving multiple issues at the same time, utilizing the acquired expert knowledge. The basic principle to solve the given multi-objective optimization problem is a transformation into one-dimensional single-objective optimization problems which are solved iteratively. Several methods have been developed that are applied sequentially. In simulation, the average improvement from initial settings to optimized settings, achieved by the control algorithm, is between 34.5 % and 67.6 %. This demonstrates the good performance of the control algorithm.

Page generated in 0.0898 seconds