• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 122
  • 94
  • 28
  • Tagged with
  • 244
  • 217
  • 170
  • 118
  • 117
  • 115
  • 115
  • 81
  • 71
  • 32
  • 27
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Eine funktionale Methode der Wissensrepräsentation

Oertel, Wolfgang 01 March 2024 (has links)
Das Anliegen der Arbeit besteht in der Entwicklung eines Wissensrepräsentationsmodells, das sich insbesondere für die Beschreibung komplex strukturierter Objekte eignet. Den Ausgangspunkt bildet eine Charakterisierung der Problematik der Wissensrepräsentation. Aus der Darstellung eines für das Gebiet der rechnergestützten Konstruktion typischen Diskursbereiches Getriebekonstruktion lassen sich Anforderungen an Modelle zur Beschreibung komplex strukturierter Objekte in Wissensbasen ableiten. Der Hauptteil der Arbeit besteht in der Entwicklung eines funktionalen Wissensrepräsentationsmodells, das diesen Anforderungen gerecht wird. Das Modell ermöglicht gleichzeitig eine effiziente Implementation wissensbasierter Systeme auf der Grundlage der Programmiersprache LISP sowie das Herstellen von Beziehungen zu Datenmodellen einerseits und Wissensrepräsentationsmodellen, insbesondere der Prädikatenlogik erster Ordnung, andererseits. Unter Bezugnahme auf die Datenbanktechnologie wird die Struktur von Wissensbanksystemen beschrieben. Ein wesentlicher Aspekt der Arbeit besteht im Aufzeigen der Möglichkeit und des Weges, das Wissen eines Konstrukteurs zu formalisieren und in eine Wissensbasis abzubilden.:1. Einleitung 2. Wissensrepräsentation in technischen Systemen 3. Beispielsdiskursbereiche 4. Funktionales Wissensrepräsentationsmodell 5. Beziehungen zwischen Prädikatenlogik erster Ordnung und funktionalem Wissensrepräsentationsmodell 6. Aufbau von Wissensbanksystemen 7. Anwendung des funktionalen Wissensrepräsentationsmodells für die Implementation wissensbasierter Systeme 8. Schlussbemerkungen
72

Cognitive Computing

11 November 2015 (has links) (PDF)
"Cognitive Computing" has initiated a new era in computer science. Cognitive computers are not rigidly programmed computers anymore, but they learn from their interactions with humans, from the environment and from information. They are thus able to perform amazing tasks on their own, such as driving a car in dense traffic, piloting an aircraft in difficult conditions, taking complex financial investment decisions, analysing medical-imaging data, and assist medical doctors in diagnosis and therapy. Cognitive computing is based on artificial intelligence, image processing, pattern recognition, robotics, adaptive software, networks and other modern computer science areas, but also includes sensors and actuators to interact with the physical world. Cognitive computers – also called "intelligent machines" – are emulating the human cognitive, mental and intellectual capabilities. They aim to do for human mental power (the ability to use our brain in understanding and influencing our physical and information environment) what the steam engine and combustion motor did for muscle power. We can expect a massive impact of cognitive computing on life and work. Many modern complex infrastructures, such as the electricity distribution grid, railway networks, the road traffic structure, information analysis (big data), the health care system, and many more will rely on intelligent decisions taken by cognitive computers. A drawback of cognitive computers will be a shift in employment opportunities: A raising number of tasks will be taken over by intelligent machines, thus erasing entire job categories (such as cashiers, mail clerks, call and customer assistance centres, taxi and bus drivers, pilots, grid operators, air traffic controllers, …). A possibly dangerous risk of cognitive computing is the threat by “super intelligent machines” to mankind. As soon as they are sufficiently intelligent, deeply networked and have access to the physical world they may endanger many areas of human supremacy, even possibly eliminate humans. Cognitive computing technology is based on new software architectures – the “cognitive computing architectures”. Cognitive architectures enable the development of systems that exhibit intelligent behaviour.
73

Constraint based world modeling for multi agent systems in dynamic environments

Göhring, Daniel 03 December 2009 (has links)
Die mobile Robotik stellt ein sehr junges und komplexes Forschungsfelder unserer Zeit dar. Innerhalb der letzten Jahrzehnte wurde es Robotern möglich, sich innerhalb ihrer Umgebung zu bewegen, zu navigieren und mit ihrer Umwelt zu interagieren. Aufgrund der Tatsache, dass die Welt von Unsicherheit geprägt ist und ein Roboter immer nur partielle Information über sie erhalten kann, wurden probabilistische Navigationsverfahren entwickelt, mit denen sich Roboter lokalisieren und Objekte ihrer Umgebung modellieren können. Weiterhin wurden in letzter Zeit Verfahren untersucht, die die kooperative Exploration der Umgebung durch eine Gruppe von Robotern zum Ziel haben. In der vorliegenden Arbeit wird ein neuartiges Konzept, welches sich Perzeptrelationen für die kooperative Umweltmodellierung zu Nutze macht, vorgestellt und evaluiert. Einen zweiten Beitrag der Arbeit stellen constraintbasierte Lokalisierungstechniken dar, die es einem oder mehreren Robotern auf effiziente Art und Weise ermöglichen, sich zu lokalisieren und ihre Umwelt zu modellieren. / Mobile autonomous robotics is a very young and complex field of research. Only in recent decades have robots become able to explore, to move, navigate and to interact with their environment. Since the world is uncertain and since robots can only gain partial information about it, probabilistic navigation algorithms have become very popular whenever a robot has to localize itself or surrounding objects. Furthermore, cooperative exploration and localization approaches have become very relevant lately, as robots begin to act not just alone but in groups. Within this thesis a new approach using the concept of spatial percept-relations for cooperative environment modeling is presented and evaluated. As a second contribution, constraint based localization techniques will be introduced for having a robot or a group of robots efficiently localized and to model their environment.
74

Lexicon formation in autonomous robots

Loetzsch, Martin 26 January 2015 (has links)
"Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache". Ludwig Wittgenstein führte diese Idee in der ersten Hälfte des 20. Jahrhunderts in die Philosophie ein und in verwandten Disziplinen wie der Psychologie und Linguistik setzte sich vor allem in den letzten Jahrzehnten die Ansicht durch, dass natürliche Sprache ein dynamisches System arbiträrer und kulturell gelernter Konventionen ist. Forscher um Luc Steels übertrugen diesen Sprachbegriff seit Ende der 90er Jahre auf das Gebiet der Künstlichen Intelligenz, indem sie zunächst Software-Agenten und später Robotern mittels sogenannter Sprachspiele gemeinsame Kommunikationssysteme bilden liessen, ohne dass Agenten im Voraus mit linguistischem und konzeptionellen Wissen ausgestattet werden. Die vorliegende Arbeit knüpft an diese Forschung an und untersucht vertiefend die Selbstorganisation von geteiltem lexikalischen Wissen in humanoiden Robotern. Zentral ist dabei das Konzept der "referential uncertainty", d.h. die Schwierigkeit, die Bedeutung eines bisher unbekannten Wortes aus dem Kontext zu erschliessen. Ausgehend von sehr einfachen Modellen der Lexikonbildung untersucht die Arbeit zunächst in einer simulierten Umgebung und später mit physikalischen Robotern systematisch, wie zunehmende Komplexität kommunikativer Interaktionen komplexere Lernmodelle und Repräsentationen erfordert. Ein Ergebnis der Evaluierung der Modelle hinsichtlich Robustheit und Übertragbarkeit auf Interaktionszenarien mit Robotern ist, dass die in der Literatur vorwiegenden selektionistischen Ansätze schlecht skalieren und mit der zusätzlichen Herausforderung einer Verankerung in visuellen Perzeptionen echter Roboter nicht zurecht kommen. Davon ausgehend wird ein alternatives Modell vorgestellt. / "The meaning of a word is its use in the language". In the first half of the 20th century Ludwig Wittgenstein introduced this idea into philosophy and especially in the last few decades, related disciplines such as psychology and linguistics started embracing the view that that natural language is a dynamic system of arbitrary and culturally learnt conventions. From the end of the nineties on, researchers around Luc Steels transferred this notion of communication to the field of artificial intelligence by letting software agents and later robots play so-called language games in order to self-organize communication systems without requiring prior linguistic or conceptual knowledge. Continuing and advancing that research, the work presented in this thesis investigates lexicon formation in humanoid robots, i.e. the emergence of shared lexical knowledge in populations of robotic agents. Central to this is the concept of referential uncertainty, which is the difficulty of guessing a previously unknown word from the context. First in a simulated environments and later with physical robots, this work starts from very simple lexicon formation models and then systematically analyzes how an increasing complexity in communicative interactions leads to an increasing complexity of representations and learning mechanisms. We evaluate lexicon formation models with respect to their robustness, scaling and their applicability to robotic interaction scenarios and one result of this work is that the predominating approaches in the literature do not scale well and are not able to cope with the challenges stemming from grounding words in the real-world perceptions of physical robots. In order to overcome these limitations, we present an alternative lexicon formation model and evaluate its performance.
75

Methoden zur Unterstützung der klinischen Entscheidungsfindung in der Nierentransplantation

Fritsche, Lutz 07 July 2004 (has links)
In dieser Arbeit sollen die Vermittelbarkeit der notwendigen methodischen Fähigkeiten zur Anwendung der EbM in der klinischen Entscheidungsfindung sowie die Qualität der dazu unverzichtbaren Publikationen klinischer Studien für das Gebiet der Nierentransplantation untersucht werden. Des Weiteren sollen angesichts der für viele Fragen nicht vorhandenen Studienergebnisse alternative Verfahren der Gewinnung von klinisch entscheidungsrelevanten Erkenntnissen in der Nierentransplantationsmedizin untersucht werden. Liegen in einer Entscheidungssituation relevante Ergebnisse qualitativ adäquater randomisierter Studien vor, sollte die Entscheidung auf diese Ergebnisse gestützt werden. Die klinische Entscheidungsfindung kann auf verschiedenen Wegen unterstützt werden. Der Königsweg ist die auf Erkenntnissen der Grundlagenforschung fußende randomisierte Studie. Deren Nutzung erfordert jedoch eine leitliniengemäße Publikation und auf Seiten des Lesers entsprechendes Methodenwissen zur Interpretation der Ergebnisse. Komplementäre Methoden, insbesondere Analysen klinischer Datenbanken können die aus randomisierten Studien stammenden Entscheidungsgrundlagen sinnvoll ergänzen und die Durchführung weiterer randomisierter Studien vorbereiten. Auf diesem Hintergrund erscheint es auch für den Bereich der Nierentransplantation sinnvoll, die bestehende Datenbasis konsequent weiter auszubauen. / This work aims to investigate the communicability of the necessary skills for the application of Evidence-based Medicine in everyday clinical decision making. In addition the publication quality and design of clinical trials in the field of kidney transplantation are observed. In this context and on the background of the lack of clinically relevant study data for many important aspects of transplantation medicine alternative methods of knowledge generation to support clinical decision making are assessed. Whenever results of adequate prospective randomized trials are available clinical decision making should take these into account. But clinical decision making can be supported in various ways. The best way is the conduction of randomized clinical trials based on the results of basic science investigations. Use of randomized trial results requires their guideline-conforming publication and on the reader’s side the corresponding methodological skills for the critical interpretation and assessment of the scientific medical literature. Complementary methods - especially analyses of clinical databases can achieve substantial enhancement of the foundation for clinical decision making. They can also help to prepare the conduct of further randomized studies. Thus, as in other fields it seems worthwile to expand the existing databases in the field of kidney transplantation.
76

On natural and probabilisic effects during acquisition of morphophonemic alternations

Baer-Henney, Dinah January 2009 (has links)
The acquisition of phonological alternations consists of many aspects as discussions in the relevant literature show. There are contrary findings about the role of naturalness. A natural process is grounded in phonetics; they are easy to learn, even in second language acquisition when adults have to learn certain processes that do not occur in their native language. There is also evidence that unnatural – arbitrary – rules can be learned. Current work on the acquisition of morphophonemic alternations suggests that their probability of occurrence is a crucial factor in acquisition. I have conducted an experiment to investigate the effects of naturalness as well as of probability of occurrence with 80 adult native speakers of German. It uses the Artificial Grammar paradigm: Two artificial languages were constructed, each with a particular alternation. In one language the alternation is natural (vowel harmony); in the other language the alternation is arbitrary (a vowel alternation depends on the sonorancy of the first consonant of the stem). The participants were divided in two groups, one group listened to the natural alternation and the other group listened to the unnatural alternation. Each group was divided into two subgroups. One subgroup then was presented with material in which the alternation occurred frequently and the other subgroup was presented with material in which the alternation occurred infrequently. After this exposure phase every participant was asked to produce new words during the test phase. Knowledge about the language-specific alternation pattern was needed to produce the forms correctly as the phonological contexts demanded certain alternants. The group performances have been compared with respect to the effects of naturalness and probability of occurrence. The natural rule was learned more easily than the unnatural one. Frequently presented rules were not learned more easily than the ones that were presented less frequently. Moreover, participants did not learn the unnatural rule at all, whether this rule was presented frequently or infrequently did not matter. There was a tendency that the natural rule was learned more easily if presented frequently than if presented infrequently, but it was not significant due to variability across participants. / Suffixe, die an Wortstämme angehängt werden, tragen grammatische Informationen. Bei Verben wird dabei die Person, Numerus, Tempus, Modus und Genus Verbi angezeigt, bei Nomen Kasus, Numerus und Genus. Durch phonologische Kontexte bedingt kann eine solche morphologische Markierung ihre Gestalt ändern und unterschiedliche Oberflächenformen annehmen. Die dabei entstandenen Allomorphe werden durch regelbasierte Prozesse von dem zugrunde liegenden Morphem abgeleitet. Es zeigt sich, dass der Erwerb morphophonemischer Alternationen ein aufwendiger und schwieriger Lernprozess ist. Die vorliegende Arbeit beschäftigt sich nun mit Faktoren, die den Erwerb der Alternationen positiv beeinflussen können. Zum einen wird der Faktor Natürlichkeit, zum anderen der Faktor Auftretenshäufigkeit diskutiert. Trotz einiger widersprüchlicher Evidenzen bezüglich des ersten Faktors hat sich in der neueren Forschung herausgestellt, dass ein natürlicher Prozess leichter zu lernen ist als ein unnatürlicher. Oft konnte ein Vorteil der natürlichen gegenüber den unnatürlichen Prozessen festgestellt werden. Allerdings zeigt sich dieser Umstand nicht immer – dann wiederum zeigt sich kein Vorteil gegenüber einem der beiden Prozesse. Die Ursachen dafür sind in der Methode oder der Herangehensweise zu suchen. Mache Methode scheint nicht sensitiv genug zu sein, den Vorteil aufzudecken, und manche Studien gehen unterschiedlich an die generelle Frage heran, was denn überhaupt ein natürlicher Prozess ist. Unter Berücksichtigung der einschlägigen Literatur habe ich Charakteristika eines typisch natürlichen Prozesses herausgearbeitet und damit die definitorische Grundlage für die empirische Untersuchung derselben bestimmt. Die Auftretenshäufigkeit eines Prozesses scheint auch ein entscheidender Faktor für den Erwerbsprozess zu sein. Dabei wird der Prozess leichter gelernt, der frequent im Input vorliegt, wohingegen ein Prozess schwieriger zu lernen ist, je weniger häufig er vorkommt. In verschiedenen Studien konnte gezeigt werden, dass die bloße Verteilung eines Musters in Wörtern bzw. im Lexikon schon ausreichen kann, zugrunde liegende Repräsentationen zu formen. Dabei ist immer das frequentere Muster das zuverlässigere. Anhand einer experimentellen Studie habe ich beide Faktoren direkt miteinander verglichen. Es wurde die Lernbarkeit einer natürlichen künstlichen Sprache mit der einer unnatürlichen künstlichen Sprache verglichen. Die Sprachen unterschieden sich lediglich in der Regel, nach der eines von zwei Pluralmorphemen ausgewählt werden musste, wobei die natürliche Sprache nach Vokalharmonie alternierte und die unnatürliche Sprache nach einer arbiträren Regel. In zwei Hauptgruppen wurde 80 erwachsenen Deutschen entweder die eine oder die andere Sprache präsentiert. In jeder Gruppe wurde die Hälfte der Probanden häufig (zu 50%) mit der Alternation konfrontiert, die andere Hälfte infrequent (zu 25%). Nach der Familiarisierungsphase ohne expliziten Lernauftrag war die Aufgabe aller Probanden, von neuen Wörtern der Sprache(n) den Plural zu bilden. Die Analyse der Reaktionen ergab einen Effekt der Natürlichkeit, aber keinen der Auftretenshäufigkeit: Die natürliche Sprache war deutlich besser zu lernen als die unnatürliche. Die Auftretenshäufigkeit in beiden Sprachen führte zu keinem signifikanten Unterschied. Kein einziger von den 40 Probanden, die die unnatürliche Regel präsentiert bekamen, hat die Regel für die entsprechende Alternation gelernt. Es zeigt sich jedoch eine Tendenz bei den Probanden, die die natürliche Sprache erlernen sollten: Diejenigen scheinen einen Vorteil zu haben, die häufiger die Alternation während der Familiarisierungsphase hören. Aber auch unter den Probanden, die mit der natürlichen Sprache konfrontiert wurden, zeigten einige gar keinen Lernerfolg, weshalb ich vermute, dass wegen der großen Varianz in den Daten die Auftretenshäufigkeit als einflussreicher Faktor empirisch nicht belegt werden konnte. Zusammenfassend konnte nachgewiesen werden, dass das Lernen der Alternationen sehr stark von einem bias für Natürlichkeit beeinflusst wird. Allein mit der distributionellen Analyse der verschiedenen Pluralendungen hätte der Vorteil für die Alternation der natürlichen Sprache nicht erklärt werden können.
77

Preferences in answer set programming

Konczak, Kathrin January 2007 (has links)
Answer Set Programming (ASP) emerged in the late 1990s as a new logic programming paradigm, having its roots in nonmonotonic reasoning, deductive databases, and logic programming with negation as failure. The basic idea of ASP is to represent a computational problem as a logic program whose answer sets correspond to solutions, and then to use an answer set solver for finding answer sets of the program. ASP is particularly suited for solving NP-complete search problems. Among these, we find applications to product configuration, diagnosis, and graph-theoretical problems, e.g. finding Hamiltonian cycles. On different lines of ASP research, many extensions of the basic formalism have been proposed. The most intensively studied one is the modelling of preferences in ASP. They constitute a natural and effective way of selecting preferred solutions among a plethora of solutions for a problem. For example, preferences have been successfully used for timetabling, auctioning, and product configuration. In this thesis, we concentrate on preferences within answer set programming. Among several formalisms and semantics for preference handling in ASP, we concentrate on ordered logic programs with the underlying D-, W-, and B-semantics. In this setting, preferences are defined among rules of a logic program. They select preferred answer sets among (standard) answer sets of the underlying logic program. Up to now, those preferred answer sets have been computed either via a compilation method or by meta-interpretation. Hence, the question comes up, whether and how preferences can be integrated into an existing ASP solver. To solve this question, we develop an operational graph-based framework for the computation of answer sets of logic programs. Then, we integrate preferences into this operational approach. We empirically observe that our integrative approach performs in most cases better than the compilation method or meta-interpretation. Another research issue in ASP are optimization methods that remove redundancies, as also found in database query optimizers. For these purposes, the rather recently suggested notion of strong equivalence for ASP can be used. If a program is strongly equivalent to a subprogram of itself, then one can always use the subprogram instead of the original program, a technique which serves as an effective optimization method. Up to now, strong equivalence has not been considered for logic programs with preferences. In this thesis, we tackle this issue and generalize the notion of strong equivalence to ordered logic programs. We give necessary and sufficient conditions for the strong equivalence of two ordered logic programs. Furthermore, we provide program transformations for ordered logic programs and show in how far preferences can be simplified. Finally, we present two new applications for preferences within answer set programming. First, we define new procedures for group decision making, which we apply to the problem of scheduling a group meeting. As a second new application, we reconstruct a linguistic problem appearing in German dialects within ASP. Regarding linguistic studies, there is an ongoing debate about how unique the rule systems of language are in human cognition. The reconstruction of grammatical regularities with tools from computer science has consequences for this debate: if grammars can be modelled this way, then they share core properties with other non-linguistic rule systems. / Die Antwortmengenprogrammierung entwickelte sich in den späten 90er Jahren als neues Paradigma der logischen Programmierung und ist in den Gebieten des nicht-monotonen Schließens und der deduktiven Datenbanken verwurzelt. Dabei wird eine Problemstellung als logisches Programm repräsentiert, dessen Lösungen, die so genannten Antwortmengen, genau den Lösungen des ursprünglichen Problems entsprechen. Die Antwortmengenprogrammierung bildet ein geeignetes Fundament zur Repräsentation und zum Lösen von Entscheidungs- und Suchproblemen in der Komplexitätsklasse NP. Anwendungen finden wir unter anderem in der Produktkonfiguration, Diagnose und bei graphen-theoretischen Problemen, z.B. der Suche nach Hamiltonschen Kreisen. In den letzten Jahren wurden viele Erweiterungen der Antwortmengenprogrammierung betrachtet. Die am meisten untersuchte Erweiterung ist die Modellierung von Präferenzen. Diese bilden eine natürliche und effektive Möglichkeit, unter einer Vielzahl von Lösungen eines Problems bevorzugte Lösungen zu selektieren. Präferenzen finden beispielsweise in der Stundenplanung, bei Auktionen und bei Produktkonfigurationen ihre Anwendung. Der Schwerpunkt dieser Arbeit liegt in der Modellierung, Implementierung und Anwendung von Präferenzen in der Antwortmengenprogrammierung. Da es verschiedene Ansätze gibt, um Präferenzen darzustellen, konzentrieren wir uns auf geordnete logische Programme, wobei Präferenzen als partielle Ordnung der Regeln eines logischen Programms ausgedrückt werden. Dabei betrachten wir drei verschiedene Semantiken zur Interpretation dieser Präferenzen. Im Vorfeld wurden für diese Semantiken die bevorzugten Antwortmengen durch einen Compiler oder durch Meta-Interpretation berechnet. Da Präferenzen Lösungen selektieren, stellt sich die Frage, ob es möglich ist, diese direkt in den Berechnungsprozeß von präferenzierten Antwortmengen zu integrieren, so dass die bevorzugten Antwortmengen ohne Zwischenschritte berechnet werden können. Dazu entwickeln wir zuerst ein auf Graphen basierendes Gerüst zur Berechnung von Antwortmengen. Anschließend werden wir darin Präferenzen integrieren, so dass bevorzugte Antwortmengen ohne Compiler oder Meta-Interpretation berechnet werden. Es stellt sich heraus, dass die integrative Methode auf den meisten betrachteten Problemklassen wesentlich leistungsfähiger ist als der Compiler oder Meta-Interpretation. Ein weiterer Schwerpunkt dieser Arbeit liegt in der Frage, inwieweit sich geordnete logische Programme vereinfachen lassen. Dazu steht die Methodik der strengen Äquivalenz von logischen Programmen zur Verfügung. Wenn ein logisches Programm streng äquivalent zu einem seiner Teilprogramme ist, so kann man dieses durch das entsprechende Teilprogramm ersetzen, ohne dass sich die zugrunde liegende Semantik ändert. Bisher wurden strenge Äquivalenzen nicht für logische Programme mit Präferenzen untersucht. In dieser Arbeit definieren wir erstmalig strenge Äquivalenzen für geordnete logische Programme. Wir geben notwendige und hinreichende Bedingungen für die strenge Äquivalenz zweier geordneter logischer Programme an. Des Weiteren werden wir auch die Frage beantworten, inwieweit geordnete logische Programme und deren Präferenzstrukturen vereinfacht werden können. Abschließend präsentieren wir zwei neue Anwendungsbereiche von Präferenzen in der Antwortmengenprogrammierung. Zuerst definieren wir neue Prozeduren zur Entscheidungsfindung innerhalb von Gruppenprozessen. Diese integrieren wir anschließend in das Problem der Planung eines Treffens für eine Gruppe. Als zweite neue Anwendung rekonstruieren wir mit Hilfe der Antwortmengenprogrammierung eine linguistische Problemstellung, die in deutschen Dialekten auftritt. Momentan wird im Bereich der Linguistik darüber diskutiert, ob Regelsysteme von (menschlichen) Sprachen einzigartig sind oder nicht. Die Rekonstruktion von grammatikalischen Regularitäten mit Werkzeugen aus der Informatik erlaubt die Unterstützung der These, dass linguistische Regelsysteme Gemeinsamkeiten zu anderen nicht-linguistischen Regelsystemen besitzen.
78

Spamerkennung mit Support Vector Machines

Möller, Manuel 22 June 2005 (has links) (PDF)
Diese Arbeit zeigt ausgehend von einer Darstellung der theoretischen Grundlagen automatischer Textklassifikation, dass die aus der Statistical Learning Theory stammenden Support Vector Machines geeignet sind, zu einer präziseren Erkennung unerwünschter E-Mail-Werbung beizutragen. In einer Testumgebung mit einem Corpus von 20 000 E-Mails wurden Testläufe verschiedene Parameter der Vorverarbeitung und der Support Vector Machine automatisch evaluiert und grafisch visualisiert. Aufbauend darauf wird eine Erweiterung für die Open-Source-Software SpamAssassin beschrieben, die die vorhandenen Klassifikationsmechanismen um eine Klassifikation per Support Vector Machine erweitert.
79

Using Case-based Reasoning to Control Traffic Consumption

Schade, Markus 30 September 2007 (has links) (PDF)
Quality of service is commonly used to shape network traffic to meet specified criteria. The various scenarios include limiting and reserving bandwidth for a particular application, host or user, prioritizing latency sensitive traffic or equal distribution of unreserved bandwidth. The DynShaper software distributes and controls a traffic quota by more sophisticated means than fixed per user limits and simple disconnection after the user reaches the limit. It distributes the quota on a daily basis, where each day receives the same share. The users are sorted into predefined groups with different bandwidths depending on their recent consumption. This classification is periodically updated to ensure the sorting order is maintained. The bandwidths of these groups is dynamically adjusted depending on the actual consumption to provide an efficient utilization. This thesis presents another distribution model using a case-based reasoning approach, a method for machine learning which is classified as conventional artificial intelligence. Case-based reasoning tries to solve new problems based on the solutions of similar problems from the past. Controlling the network traffic to remain within a fixed quota can be modeled as such a problem if the traffic patterns are recurring. Possible solutions can be derived from statistical data and altered to suit the new problems. When an untested solution is applied, the software supervises the execution and revises the solution accordingly, if the actual results deviate from the precalculated schedule.
80

Jurassic Park im Führerhauptquartier

Ebbrecht, Tobias 06 August 2008 (has links) (PDF)
Am Beispiel von zwei britischen Fernsehdokumentationen über den Zweiten Weltkrieg und den Holocaust wird untersucht, wie im Computer generierte Rekonstruktionen vergangener Ereignisse die Wahrnehmung von Geschichte verändern. Insbesondere der Status des dokumentarischen Bildes und sein indexikalischer Charakter stehen zur Disposition. Digitale Bilder gerieren sich als authentische Archivaufnahmen. Dabei oszilliert das digitale Bild zwischen Authentizitätsfiktion, digitaler Effektproduktion und virtuellem Vorstellungsbild. Denn es kann auch zur Herstellung von Vorstellungsbildern genutzt werden, die Welten oder Ereignisse rekonstruieren, die andern-falls nicht rekonstruierbar sind und so die Vorstellungskraft der Zuschauer als notwendigen Beitrag zur „Vervollständigung“ der virtuellen Rekonstruktionen aktivieren. / Digital technologies increasingly become part of filmic genres of the „real“, like in historic documentaries. By analyzing two British television documentaries the article shows how completely computer generated reconstruction of historic incidents change the perception of history. Especially the mode of documentary images and their indexical character are challenged, because the animated pictures get the look of authentic archive footage. The digital image in historical documentaries oscillates between the fiction of authenticity, the production of digital effects and a kind of virtual imagination, because it can also become part of the reconstruction of worlds and incidents that could not be reconstructed another way and activate the power of imagination of the spectator to complete these virtual reconstructions.

Page generated in 0.0503 seconds