• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 67
  • 14
  • Tagged with
  • 167
  • 167
  • 154
  • 83
  • 81
  • 81
  • 77
  • 70
  • 67
  • 28
  • 26
  • 24
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Automatic Segmentation of the Olfactory Bulb

Desser, Dmitriy 20 February 2024 (has links)
Der Bulbus olfactorius (OB) spielt eine wichtige Rolle in der Wahrnehmung von Gerüchen. Das OB-Volumen korreliert mit der Riechfunktion und ist daher ein Biomarker für mehrere neurodegenerative Erkrankungen sowie für Riechstörungen. In mehreren Studien wurde gezeigt, dass eine Abnahme des OB-Volumens mit einer Abnahme der Geruchsempfindlichkeit einhergeht und umgekehrt. Dies bedeutet, dass die Messung des OB-Volumens für verschiedene Diagnose- und Forschungszwecke von großem Interesse ist. Bisher wurden diese Messungen manuell durchgeführt, was mit einem Zeitaufwand von 15-20 Minuten pro Probanden eine sehr langwierige Methode ist, die außerdem zu erheblichen Messungenauigkeiten führt. Dies erschwert die Verarbeitung großer Datensätze sowie den Vergleich verschiedener Studien. Um dieses Problem zu lösen, haben wir einen vollautomatisierten, auf Deep-Learning basierten Algorithmus zur Segmentierung des OB sowie zur Messung dessen Volumens entwickelt und ein einsatzbereites Tool zur Anwendung veröffentlicht. Des Weiteren wurde eine Studie an Patienten mit Mild Cognitive Impairment (MCI) durchgeführt, um den Effekt von Riechtraining auf funktionale und morphologische Veränderungen des OB und des Hippocampus zu untersuchen. Methoden: Wir haben unseren Algorithmus auf vier Datensätzen trainiert und getestet, die jeweils aus T1-gewichteten MRT-Aufnahmen des gesamten Gehirns sowie hochaufgelösten T2-gewichteten Aufnahmen der vorderen Schädelbasis und den entsprechenden klinischen Informationen über das Riechvermögen der Probanden bestehen. Ein Datensatz enthielt Patienten mit gesicherter Anosmie oder Hyposmie (N = 79). Die anderen drei Datensätze enthielten gesunde Probanden (N = 91). Um die Grundwahrheit für die OB-Segmentierung und die Volumenmessung zu erhalten, wurden die Datensätze von zwei erfahrenen wissenschaftlichen Mitarbeitern unabhängig voneinander nach einem einheitlichen Protokoll manuell segmentiert. Verglichen mit dem gesamten Gehirn nimmt der OB ein sehr kleines Volumen ein. Jedes Bild hat daher viel mehr Voxel, die dem Hintergrund angehören als solche, die zum OB gehören. Somit sind die Daten sehr unausgewogen, was eine Herausforderung für die automatische Lokalisierung des OB darstellt. Um dieses Problem zu lösen, haben wir zunächst die manuellen Segmentierungen mit dem Template des Montreal Neurological Institute (MNI) registriert und den Massenschwerpunkt (Center of Gravity, COG) ermittelt. Im Preprocessing übertragen wir die COG-Koordinaten aus dem MNI-Raum in den individuellen Raum der jeweiligen MR-Aufnahme und konstruieren eine Bounding Box um den OB. Anschließend selektieren wir den in der Bounding Box enthaltenen Bildanteil, in welchem dann der OB durch das 3D-U-Net-Modell segmentiert wird. Bei dem Modell handelt es sich um ein neuronales Netz, welches für die 3D-Bildsegmentierung entwickelt wurde und sich im Bereich der medizinischen Bildverarbeitung bewährt hat. Der Algorithmus gibt anschließend die binären Segmentierungsmasken und eine Datei mit den Volumina für den linken und rechten OB heraus. Im Rahmen der Studie an MCI-Patienten wurden 37 Patienten randomisiert in Verum- und Placebo-Gruppe eingeteilt. Das Riechtraining wurde zweimal täglich über einen Zeitraum von vier Monaten durchgeführt. Olfaktorische und kognitive Testungen sowie MRT-Bildgebung wurden zu Anfang und Ende der viermonatigen Studie durchgeführt. Ergebnisse : Zum Trainieren des neuronalen Netzes haben wir den Datensatz in einen Trainings- (60%; N = 191), einen Validierungs- (20%; N = 64) und einen Testdatensatz (20%; N = 64) aufgeteilt. Auf zuvor ungesehenen Daten (d. h. auf dem Testdatensatz) wurde ein mittlerer Dice-Koeffizient (DC) von 0,77 ± 0,05 erreicht, was dem zwischen den beiden manuellen Segmentierungen ermittelten DC von 0,79 ± 0,08 für dieselbe Kohorte sehr nahe kommt. Darüber hinaus wurden die von unserem Algorithmus erzeugten Segmentierungen von einem unabhängigen verblindeten Bewerter manuell auf einer standardisierten Skala evaluiert und erreichten eine vergleichbare Punktzahl von 5,95 ± 0,87 im Vergleich zu einer Bewertungszahl von 6,23 ± 0,87 für die erste und 5,92 ± 0,81 für die zweite Segmentierung. Diese Evaluierungsergebnisse zeigen, dass unser Algorithmus mit drei bis vier Minuten pro Probanden eine schnelle und zuverlässige automatische Segmentierung des OB ermöglicht, die der Genauigkeit der derzeitigen Goldstandard-Methode entspricht. In der Studie mit MCI-Patienten wurde nach Durchführung des viermonatigen Riechtrainings eine Zunahme der Riechfähigkeit sowie der kortikalen Schichtdicke des Hippocampus beidseits beobachtet. Sowohl in der Verum-Gruppe als auch in der Placebo-Gruppe konnte keine signifikante Zunahme des OB-Volumens festgestellt werden. Diskussion: Der von uns vorgeschlagene Algorithmus kann sowohl bei gesunden Probanden als auch bei Patienten mit diagnostizierten Riechstörungen eingesetzt werden und ist daher von hoher klinischer Relevanz. Er ermöglicht die schnelle Verarbeitung großer Datensätze und die Durchführung vergleichender Studien zur Entwicklung des OB-Volumens im Laufe der Zeit, da er zuverlässigere Ergebnisse liefert als die manuellen Annotationsmethoden. In der Studie an MCI-Patienten war das Riechtraining mit einer Zunahme der kortikalen Schichtdicke des Hippocampus assoziiert, nicht jedoch mit einer Zunahme des OB- oder Hippocampus-Volumens. Ein Grund hierfür könnte die Tendenz des OB-Volumens sein, in MCI-Patienten abzunehmen. Somit könnte das stabile OB-Volumen nach Riechtraining bereits als positiver Effekt gewertet werden. Andererseits könnte das unveränderte OB-Volumen auch auf die methodisch bedingten manuellen Messfehler zurückgeführt werden. Um das Problem der ungenauen manuellen Messungen zu lösen, haben wir ein auf Python basierendes, sofort einsetzbares Tool entwickelt, das Segmentierungsmasken sowie Messungen des linken und rechten OB-Volumens liefert. Es kann sowohl über eine Befehlszeilenschnittstelle als auch über eine grafische Benutzeroberfläche verwendet werden. Für die Segmentierung des OB werden T1-gewichtete MRT-Aufnahmen des gesamten Gehirns sowie hochaufgelöste T2-gewichtete Aufnahmen der vorderen Schädelbasis verwendet.
122

KI-Einsatz und Anwaltsrecht - Harmonie oder Dissonanz?

Mähler, Melina Felicitas 12 July 2024 (has links)
Das Thema Künstliche Intelligenz ist allgegenwärtig und macht auch vor dem juristischen Bereich keinen Halt. Die Dissertation mit dem Titel „KI-basierter Softwareeinsatz und Anwaltsrecht – Harmonie oder Dissonanz?“ untersucht die Auswirkungen des KI-Einsatzes auf das Berufsbild des Rechtsanwaltes und auf seine anwaltlichen Pflichten. Zunächst gibt die Arbeit einen Überblick über das anwaltliche Berufsrecht sowie über Legal Tech. Als Grundlage und Ausgangspunkt werden die verschiedenen Erscheinungsformen von KI vorgestellt und anschließend die Funktionsweise eines KI-Systems im Detail herausgearbeitet. Darüber hinaus zeigt die Dissertation auch die Risiken des KI-Einsatzes und etwaige Regulierungsvorschläge auf. Des Weiteren skizziert die Arbeit beispielhaft den Einsatz von KI in der juristischen Praxis in Deutschland und im Ausland. Im Hinblick auf den theoretischen Softwareeinsatz auf dem deutschen Rechtsmarkt werden technische Möglichkeiten und Grenzen erörtert. Schwerpunkt der Dissertation ist sodann die kritische Prüfung der Vereinbarkeit des KI-Einsatzes mit verschiedenen anwaltsrechtlichen Normen und Grundsätzen. Von besonderer Relevanz sind in diesem Zusammenhang mögliche Konflikte mit der Unabhängigkeit des Organs der Rechtspflege i.S.d. § 1 BRAO, der gewissenhaften Berufsausübung gemäß § 43 BRAO beziehungsweise dem Gebot des sichersten Weges, den anwaltlichen Grundpflichten i.S.d. § 43a BRAO und der Freiberuflichkeit gemäß § 2 BRAO. Die Arbeit kommt zu dem Ergebnis, dass der zukünftige KI-Einsatz – eine zukünftige rechen- und speicherleistungsstarke Technik vorausgesetzt – im Einklang mit dem Anwaltsrecht steht. Schließlich sollte die KI nicht als Bedrohung, sondern als Chance betrachtet werden, wobei Mensch und Maschine ihre Fähigkeiten symbiotisch optimal zum Einsatz bringen – zur Stärkung und Neuausrichtung der Anwaltschaft zum Nutzen des Mandanten und der Rechtsordnung als Grundpfeiler unserer Demokratie. / The topic of artificial intelligence is omnipresent and does not stop at the legal market either. The dissertation entitled “AI-based software use and legal professional law – harmony or dissonance?” examines the impact of the use of AI on the legal profession and on professional rules and regulations applicable to lawyers. First, the paper provides an overview of the legal professional code and legal technology. The various forms of AI and their functionalities are set out as a starting point. In addition, the dissertation sets forth the risks of using AI and at the same time considers regulatory options such as the AI Act. Furthermore, the paper outlines examples of the use of AI in legal practice in Germany and abroad. With regard to the theoretical use of the software in the German legal market, technical possibilities and limitations are discussed. The focus of the dissertation is then to critically examine the compatibility of the use of AI with various legal norms and principles. Of particular relevance in this context are possible conflicts with the independence of the judicial body (“Unabhängiges Organ der Rechtspflege”) within the meaning of Section 1 BRAO, the conscientious practice of the profession (“Gewissenhafte Berufsausübung”) in accordance with Section 43 BRAO or the principle of the safest path (“Gebot des sichersten Weges”), the basic legal duties (“Grundpflichten”) within the meaning of Section 43a BRAO and the principle of a liberal profession (“Freiberuflichkeit”) pursuant to Section 2 BRAO. The paper concludes that the future use of AI – assuming a future technology with high computing and storage performance – is in line with legal professional law. As a result, AI should be seen as an opportunity rather than a threat, with humans and machines each using their skills in the best possible way and in a symbiotic manner. This will strengthen and realign the legal profession for the benefit the legal system as a cornerstone of our democracy.
123

Evaluation Functions in General Game Playing

Michulke, Daniel 24 July 2012 (has links) (PDF)
While in traditional computer game playing agents were designed solely for the purpose of playing one single game, General Game Playing is concerned with agents capable of playing classes of games. Given the game's rules and a few minutes time, the agent is supposed to play any game of the class and eventually win it. Since the game is unknown beforehand, previously optimized data structures or human-provided features are not applicable. Instead, the agent must derive a strategy on its own. One approach to obtain such a strategy is to analyze the game rules and create a state evaluation function that can be subsequently used to direct the agent to promising states in the match. In this thesis we will discuss existing methods and present a general approach on how to construct such an evaluation function. Each topic is discussed in a modular fashion and evaluated along the lines of quality and efficiency, resulting in a strong agent.
124

Brücken bauen! Grundlagen des transdisziplinären Forschens zu Human-Cyber-Physical Systems am Beispiel der Modellierung von Expertenwissen zur Elastizität von Materialien mit versteh- und erklärbarer Künstlicher Intelligenz

Bocklisch, Franziska 08 December 2021 (has links)
Der Artikel beschreibt ein Vorgehen für transdisziplinäre Forschungsteams, die auf Basis der integrativen Rahmenkonzeption „Mensch-Cyber-Technik-System“ (Human-Cyber-Physical System) gemeinsame Forschungsfragestellungen bearbeiten möchten. Es wird eine Systematik skizziert, die am Beispiel versteh- und erklärbarer Künstlicher Intelligenz für die ausgewählte Applikation der „Modellierung von menschlichem Expertenwissen über die Elastizität von Materialien“ schrittweise erläutert wird.
125

Towards Next Generation Sequential and Parallel SAT Solvers

Manthey, Norbert 01 December 2014 (has links)
This thesis focuses on improving the SAT solving technology. The improvements focus on two major subjects: sequential SAT solving and parallel SAT solving. To better understand sequential SAT algorithms, the abstract reduction system Generic CDCL is introduced. With Generic CDCL, the soundness of solving techniques can be modeled. Next, the conflict driven clause learning algorithm is extended with the three techniques local look-ahead, local probing and all UIP learning that allow more global reasoning during search. These techniques improve the performance of the sequential SAT solver Riss. Then, the formula simplification techniques bounded variable addition, covered literal elimination and an advanced cardinality constraint extraction are introduced. By using these techniques, the reasoning of the overall SAT solving tool chain becomes stronger than plain resolution. When using these three techniques in the formula simplification tool Coprocessor before using Riss to solve a formula, the performance can be improved further. Due to the increasing number of cores in CPUs, the scalable parallel SAT solving approach iterative partitioning has been implemented in Pcasso for the multi-core architecture. Related work on parallel SAT solving has been studied to extract main ideas that can improve Pcasso. Besides parallel formula simplification with bounded variable elimination, the major extension is the extended clause sharing level based clause tagging, which builds the basis for conflict driven node killing. The latter allows to better identify unsatisfiable search space partitions. Another improvement is to combine scattering and look-ahead as a superior search space partitioning function. In combination with Coprocessor, the introduced extensions increase the performance of the parallel solver Pcasso. The implemented system turns out to be scalable for the multi-core architecture. Hence iterative partitioning is interesting for future parallel SAT solvers. The implemented solvers participated in international SAT competitions. In 2013 and 2014 Pcasso showed a good performance. Riss in combination with Copro- cessor won several first, second and third prices, including two Kurt-Gödel-Medals. Hence, the introduced algorithms improved modern SAT solving technology.
126

Evaluation Functions in General Game Playing

Michulke, Daniel 22 June 2012 (has links)
While in traditional computer game playing agents were designed solely for the purpose of playing one single game, General Game Playing is concerned with agents capable of playing classes of games. Given the game's rules and a few minutes time, the agent is supposed to play any game of the class and eventually win it. Since the game is unknown beforehand, previously optimized data structures or human-provided features are not applicable. Instead, the agent must derive a strategy on its own. One approach to obtain such a strategy is to analyze the game rules and create a state evaluation function that can be subsequently used to direct the agent to promising states in the match. In this thesis we will discuss existing methods and present a general approach on how to construct such an evaluation function. Each topic is discussed in a modular fashion and evaluated along the lines of quality and efficiency, resulting in a strong agent.:Introduction Game Playing Evaluation Functions I - Aggregation Evaluation Functions II - Features General Evaluation Related Work Discussion
127

Archiv 4.0 - Schnee von Gestern oder Aufbruch in eine neue Welt?

Luther, Stephan 18 March 2022 (has links)
Von Mittwoch, den 21.04.2021, bis Freitag, den 23.04.2021, richtete das Archiv für deutsche Polarforschung (AdP) des Alfred-Wegener-Instituts (AWI), Helmholtz-Zentrum für Polar- und Meeresforschung, und der Verband deutscher Archivarinnen und Archivare (VdA) die Frühjahrstagung der Fachgruppe 8 des VdA aus. Diese Tagung war bereits im Frühjahr 2020 geplant und musste dann abgesagt werden. Im Jahr 2021 wurde die Tagung von vornherein als digitale Tagung geplant. Neben dem Tagungsprogramm wurde ein digitaler Pausenraum unter Wonder.me eingerichtet, in dem sich die Tagungsteilnehmer zwanglos zum kollegialen Gespräch treffen konnten. Die Tagung widmete sich dem Thema 'Digitalisierung' in seiner ganzen Breite - natürlich mit Bezug zu den Archiven in unserer Fachgruppe. Unter dieser Prämisse behandeln wir in Vorträgen, Workshops, Diskussionen und Führungen verschiedene Aspekte des Themas. Dazu gehören: Erhebung, Verarbeitung, Speicherung und Aufbewahrung von Forschungsdaten, Schriftgutverwaltung im Rahmen von Dokumentenmanagementsystemen, die Einrichtung von digitalen Archiven, Nutzung von Archiven im Rahmen von Portalen, rechtliche Aspekte des Digitalisierungsprozesses im Archiv und zukünftige Einsatzmöglichkeiten von Künstlicher Intelligenz in den digitalen Workflows eines Archivs. / From Wednesday, 21 April 2021, to Friday, 23 April 2021, the Archive for German Polar Research (AdP) of the Alfred Wegener Institute (AWI), Helmholtz Centre for Polar and Marine Research, and the Association of German Archivists (VdA) hosted the spring meeting of Division 8 of the VdA. This meeting was already planned for spring 2020 and then had to be cancelled. In 2021, the conference was planned from the outset as a digital conference. In addition to the conference programme, a digital break room was set up under Wonder.me, where conference participants could meet informally for collegial discussions. The conference was dedicated to the topic of 'digitisation' in all its breadth - naturally with reference to the archives in our section. Under this premise, we dealt with various aspects of the topic in lectures, workshops, discussions and guided tours. These include: collection, processing, storage and preservation of research data, records management in the context of document management systems, the establishment of digital archives, use of archives in the context of portals, legal aspects of the digitisation process in the archive and future possibilities of using artificial intelligence (AI) in the digital workflows of an archive.
128

Learning Sampling-Based 6D Object Pose Estimation

Krull, Alexander 31 August 2018 (has links)
The task of 6D object pose estimation, i.e. of estimating an object position (three degrees of freedom) and orientation (three degrees of freedom) from images is an essential building block of many modern applications, such as robotic grasping, autonomous driving, or augmented reality. Automatic pose estimation systems have to overcome a variety of visual ambiguities, including texture-less objects, clutter, and occlusion. Since many applications demand real time performance the efficient use of computational resources is an additional challenge. In this thesis, we will take a probabilistic stance on trying to overcome said issues. We build on a highly successful automatic pose estimation framework based on predicting pixel-wise correspondences between the camera coordinate system and the local coordinate system of the object. These dense correspondences are used to generate a pool of hypotheses, which in turn serve as a starting point in a final search procedure. We will present three systems that each use probabilistic modeling and sampling to improve upon different aspects of the framework. The goal of the first system, System I, is to enable pose tracking, i.e. estimating the pose of an object in a sequence of frames instead of a single image. By including information from previous frames tracking systems can resolve many visual ambiguities and reduce computation time. System I is a particle filter (PF) approach. The PF represents its belief about the pose in each frame by propagating a set of samples through time. Our system uses the process of hypothesis generation from the original framework as part of a proposal distribution that efficiently concentrates samples in the appropriate areas. In System II, we focus on the problem of evaluating the quality of pose hypotheses. This task plays an essential role in the final search procedure of the original framework. We use a convolutional neural network (CNN) to assess the quality of an hypothesis by comparing rendered and observed images. To train the CNN we view it as part of an energy-based probability distribution in pose space. This probabilistic perspective allows us to train the system under the maximum likelihood paradigm. We use a sampling approach to approximate the required gradients. The resulting system for pose estimation yields superior results in particular for highly occluded objects. In System III, we take the idea of machine learning a step further. Instead of learning to predict an hypothesis quality measure, to be used in a search procedure, we present a way of learning the search procedure itself. We train a reinforcement learning (RL) agent, termed PoseAgent, to steer the search process and make optimal use of a given computational budget. PoseAgent dynamically decides which hypothesis should be refined next, and which one should ultimately be output as final estimate. Since the search procedure includes discrete non-differentiable choices, training of the system via gradient descent is not easily possible. To solve the problem, we model behavior of PoseAgent as non-deterministic stochastic policy, which is ultimately governed by a CNN. This allows us to use a sampling-based stochastic policy gradient training procedure. We believe that some of the ideas developed in this thesis, such as the sampling-driven probabilistically motivated training of a CNN for the comparison of images or the search procedure implemented by PoseAgent have the potential to be applied in fields beyond pose estimation as well.
129

Sports Scene Searching, Rating & Solving using AI

Marzilger, Robert, Hirn, Fabian, Aznar Alvarez, Raul, Witt, Nicolas 14 October 2022 (has links)
This work shows the application of artificial intelligence (AI) on invasion game tracking data to realize a fast (sub-second) and adaptable search engine for sports scenes, scene ratings based on machine learning (ML) and computer-generated solutions using reinforcement learning (RL). We provide research results for all three areas. Benefits are expected for accelerated video analysis at professional sports clubs. / Diese Arbeit zeigt die Anwendung von künstlicher Intelligenz (KI) auf Invasionsspielverfolgungsdaten, um eine schnelle (unter einer Sekunde) und anpassungsfähige Suchmaschine für Sportszenen zu realisieren, Szenenbewertungen auf der Grundlage von maschinellem Lernen (ML) und computergenerierte Lösungen unter Verwendung von Verstärkungslernen (RL). Wir stellen Forschungsergebnisse für alle drei Bereiche vor. Es werden Vorteile für eine beschleunigte Videoanalyse in Profisportvereinen erwartet.
130

The memory-based paradigm for vision-based robot localization

Jüngel, Matthias 04 October 2012 (has links)
Für mobile autonome Roboter ist ein solides Modell der Umwelt eine wichtige Voraussetzung um die richtigen Entscheidungen zu treffen. Die gängigen existierenden Verfahren zur Weltmodellierung basieren auf dem Bayes-Filter und verarbeiten Informationen mit Hidden Markov Modellen. Dabei wird der geschätzte Zustand der Welt (Belief) iterativ aktualisiert, indem abwechselnd Sensordaten und das Wissen über die ausgeführten Aktionen des Roboters integriert werden; alle Informationen aus der Vergangenheit sind im Belief integriert. Wenn Sensordaten nur einen geringen Informationsgehalt haben, wie zum Beispiel Peilungsmessungen, kommen sowohl parametrische Filter (z.B. Kalman-Filter) als auch nicht-parametrische Filter (z.B. Partikel-Filter) schnell an ihre Grenzen. Das Problem ist dabei die Repräsentation des Beliefs. Es kann zum Beispiel sein, dass die gaußschen Modelle beim Kalman-Filter nicht ausreichen oder Partikel-Filter so viele Partikel benötigen, dass die Rechendauer zu groß wird. In dieser Dissertation stelle ich ein neues Verfahren zur Weltmodellierung vor, das Informationen nicht sofort integriert, sondern erst bei Bedarf kombiniert. Das Verfahren wird exemplarisch auf verschiedene Anwendungsfälle aus dem RoboCup (autonome Roboter spielen Fußball) angewendet. Es wird gezeigt, wie vierbeinige und humanoide Roboter ihre Position und Ausrichtung auf einem Spielfeld sehr präzise bestimmen können. Grundlage für die Lokalisierung sind bildbasierte Peilungsmessungen zu Objekten. Für die Roboter-Ausrichtung sind dabei Feldlinien eine wichtige Informationsquelle. In dieser Dissertation wird ein Verfahren zur Erkennung von Feldlinien in Kamerabildern vorgestellt, das ohne Kalibrierung auskommt und sehr gute Resultate liefert, auch wenn es starke Schatten und Verdeckungen im Bild gibt. / For autonomous mobile robots, a solid world model is an important prerequisite for decision making. Current state estimation techniques are based on Hidden Markov Models and Bayesian filtering. These methods estimate the state of the world (belief) in an iterative manner. Data obtained from perceptions and actions is accumulated in the belief which can be represented parametrically (like in Kalman filters) or non-parametrically (like in particle filters). When the sensor''s information gain is low, as in the case of bearing-only measurements, the representation of the belief can be challenging. For instance, a Kalman filter''s Gaussian models might not be sufficient or a particle filter might need an unreasonable number of particles. In this thesis, I introduce a new state estimation method which doesn''t accumulate information in a belief. Instead, perceptions and actions are stored in a memory. Based on this, the state is calculated when needed. The system has a particular advantage when processing sparse information. This thesis presents how the memory-based technique can be applied to examples from RoboCup (autonomous robots play soccer). In experiments, it is shown how four-legged and humanoid robots can localize themselves very precisely on a soccer field. The localization is based on bearings to objects obtained from digital images. This thesis presents a new technique to recognize field lines which doesn''t need any pre-run calibration and also works when the field lines are partly concealed and affected by shadows.

Page generated in 0.126 seconds