• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 22
  • 8
  • Tagged with
  • 56
  • 38
  • 23
  • 20
  • 20
  • 20
  • 19
  • 11
  • 10
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Informationsverarbeitung in dynamischen Entscheidungssituationen unter Ungewissheit : Betrachtung klassischer und neuerer Ansätze am Beispiel der wiederholten Auswahl /

Schneider, Monika. January 1997 (has links)
Jena, Universiẗat, Diss., 1997.
22

Proceedings of the International Workshop on Reactive Concepts in Knowledge Representation 2014

Ellmauthaler, Stefan, Pührer, Jörg 30 October 2014 (has links)
These are the proceedings of the International Workshop on Reactive Concepts in Knowledge Representation (ReactKnow 2014), which took place on August 19th, 2014 in Prague, co-located with the 21st European Conference on Artificial Intelligence (ECAI 2014).
23

Fallbasiertes Lernen von Bewertungsfunktionen

Neumeister, Matthias 20 October 2017 (has links)
In der Arbeit wird das Konzept des fallbasierten Schließens zur Verwendung während der Minimax-Baumsuche in Spielbäumen vorgeschlagen. Die Auswirkungen von Änderungen an verschiedenen Parametern des Algorithmus werden anhand dazu durchgeführter Experimente dargestellt. Hervorzuheben sind besonders mehrere Auswahlstrategien, die den Lernprozess erheblich beschleunigen können.
24

Rechnen mit Wahrheit: Regelfolgen und Begründen

Tramp, Daniel 07 February 2020 (has links)
Ziel der Arbeit ist es begriffliche Unterscheidungen einzuführen und zu etablieren, die nicht zu dem Vorurteil führen, dass ein wirkliches Begründen mit einem Ableiten von Sätzen aus anderen Sätzen gemäß allgemein oder formal gültiger logischer Deduktionsregeln gleichgesetzen werden kann. Das Vorurteil (exemplarisch und kritisch u.a. gezeigt am sogenannten „Münchhausen-Trilemma“) findet nach wie vor – verbreitet durch verschiedene Spielarten des sogenannten „Kritischen Rationalismus“, damit des Falsifikationismus – als wissenschaftliche Methode Anwendung in verschiedenen Sozial- bzw. Geisteswissenschaften. Dabei ist ein Ableiten oder Deduzieren – ähnlich einem Rechnen – ein schematisch kontrolliertes Regelfolgen und kein Begründen. Schon das Begründen von wahren Aussagen in der Arithmetik und damit auch von Axiomen ist ein freies Handeln und verlangt freie Einsicht und Urteilskraft. Das Ableiten folgt strikten Regeln; das Begründen ist frei. Es ist ein Ableiten oder ein Deduzieren als ein bloß regelgeleiteter Umgang mit Zeichen und Formeln von einem Schließen und Begründen begrifflich abzugrenzen. Was dabei als Ableiten oder Deduktion verstanden wird, wird anhand Freges Überlegungen gezeigt. Mit Frege und seiner wahrheitsfunktionalen Logik, die eine Logik der Sätze ist, unterscheiden wir dann zwischen einem Regelfolgen einerseits und die Fähigkeit des (freien) Urteilens andererseits.
25

Default Reasoning about Actions

Straß, Hannes 21 June 2012 (has links)
Action Theories are versatile and well-studied knowledge representation formalisms for modelling dynamic domains. However, traditional action theories allow only the specification of definite world knowledge, that is, universal rules for which there are no exceptions. When modelling a complex domain for which no complete knowledge can be obtained, axiomatisers face an unpleasant choice: either they cautiously restrict themselves to the available definite knowledge and live with a limited usefulness of the axiomatisation, or they bravely model some general, defeasible rules as definite knowledge and risk inconsistency in the case of an exception for such a rule. This thesis presents a framework for default reasoning in action theories that overcomes these problems and offers useful default assumptions while retaining a correct treatment of default violations. The framework allows to extend action theories with defeasible statements that express how the domain usually behaves. Normality of the world is then assumed by default and can be used to conclude what holds in the domain under normal circumstances. In the case of an exception, the default assumption is retracted, whereby consistency of the domain axiomatisation is preserved.
26

Approximating Operators and Semantics for Abstract Dialectical Frameworks

Strass, Hannes 31 January 2013 (has links)
We provide a systematic in-depth study of the semantics of abstract dialectical frameworks (ADFs), a recent generalisation of Dung\''s abstract argumentation frameworks. This is done by associating with an ADF its characteristic one-step consequence operator and defining various semantics for ADFs as different fixpoints of this operator. We first show that several existing semantical notions are faithfully captured by our definition, then proceed to define new ADF semantics and show that they are proper generalisations of existing argumentation semantics from the literature. Most remarkably, this operator-based approach allows us to compare ADFs to related nonmonotonic formalisms like Dung argumentation frameworks and propositional logic programs. We use polynomial, faithful and modular translations to relate the formalisms, and our results show that both abstract argumentation frameworks and abstract dialectical frameworks are at most as expressive as propositional normal logic programs.
27

Kooperative Störungsdiagnose durch Bediener und Assistenzsystem für Verarbeitungsanlagen

Oehm, Lukas, Müller, Tobias, Müller, Romy, Ziegler, Jens, Majschak, Jens-Peter, Urbas, Leon, Schult, Andre 30 October 2018 (has links)
Das Betriebsverhalten von Verarbeitungsanlagen ist geprägt von häufig auftretenden Störungen, die von Bedienern manuell beseitigt werden müssen und deren Arbeitsaufgabe dominieren. Technische Systeme zur Bedienerunterstützung sind für diese Anlagen bisher nicht etabliert. Davon ausgehend wird ein Modell für die kooperative Störungsdiagnose durch Bediener und Assistenzsystem vorgestellt. Durch die Kombination von Bedienerwissen und Prozessdaten wird damit eine gemeinsame Zustandsrepräsentation erstellt, die zu einer zielgenauen Fallerkennung führt und so Bediener bei der Fehlerbeseitigung unterstützt. Als Grundlage für die Entwicklung des Assistenzsystems werden erste Untersuchungen zum Einfluss der Präsentationsform von Lösungsvorschlägen auf die Lösungszeit, die Fehlerraten und die Häufigkeit des Heranziehens von Zusatzinformationen präsentiert.
28

Anomalieresolution bei abduktivem Schließen: Experimente zur Hypothesenbildung und Strategieauswahl beim Problemlösen

Keinath, Andreas 29 September 2003 (has links) (PDF)
Das Finden einer Erklärung für eine gegebene Menge von Daten oder Evidenzen wird als abduktives Schließen bezeichnet (Josephson & Josephson, 1994). Eine Vielzahl von Aufgaben lässt sich demnach als Abduktion charakterisieren, darunter beispielsweise medizinische Diagnose, die Suche nach Fehlern in technischen Systemen oder auch wissenschaftliches Entdecken (z.B. Charniak & McDermott, 1985). Für viele dieser Aufgaben ist der Umgang mit Anomalien von besonderer Bedeutung. Eine Anomalie ist im einfachsten Falle eine neue Evidenz, die einer bisherigen Erklärung für Daten widerspricht. Vor allem im Bereich des wissenschaftlichen Entdeckens weist eine Vielzahl von Studien darauf hin, wie wichtig das Erkennen und Lösen von Anomalien für erfolgreiches Problemlösen ist (vgl. Kuhn, 1962; Chinn & Brewer, 1998; Alberdi, Sleeman & Korpi, 2000). Die meisten Theorien abduktiven Schließens berücksichtigen die Bedeutung von Anomalien dagegen nur unzureichend (vgl. Klahr & Dunbar, 1988; Thagrad, 1989). Allerdings bietet das Modell von Johnson und Krems (2001, Krems & Johnson, 1995) einen spezifischen Mechanismus zur Anomalieresolution: Im Falle zweier sich widersprechender Evidenzen wird für beide Evidenzen eine Alternativerklärung konstruiert. Anschließend werden diese gegeneinander abgewogen. Indes wurde dieser Mechanismus bislang noch nicht empirisch belegt. Ziel der vorliegenden Arbeit war es einerseits zu klären, ob sich empirische Belege für den postulierten Mechanismus zur Anomalieresolution von Johnson und Krems (2001) finden lassen und andererseits zu prüfen, welche Einflussfaktoren und Strategien die Resolution von Anomalien beeinflussen. Es fand sich, dass abstrakte Ausgangshypothesen die Resolution von Anomalien erleichtern. Widersprach eine Anomalie einer abstrakten Ausgangserklärung, so lösten die Versuchsteilnehmer in Experiment 1 die Aufgaben häufiger, als bei einer konkreten Ausgangshypothese. In Experiment 2 zeigte sich zudem, dass bei einer abstrakten Ausgangshypothese weniger Experimente durchgeführt werden mussten um die Aufgabe korrekt zu lösen, dass häufiger spezifische Hypothesentests durchgeführt wurden und die Aufgaben auch schneller gelöst werden konnten. Unabhängig von der Ausgangshypothese testeten erfolgreiche Versuchsteilnehmer bevorzugt spezifische Hypothesen während hypothesenfreie Experimente dazu dienten, neue Hypothesen zu generieren. Demnach lösten die Probanden die Aufgaben durch Anwendung einer Mischstrategie, indem sie sowohl hypothesengestützt als auch hypothesenfrei nach neuen Daten suchten. Eine Einteilung der Versuchsteilnehmer in Theoretiker und Empiristen (Klahr & Dunbar, 1988) war dagegen nicht möglich. Das Ergebnis wurde in Anlehnung an Befunde von Smith et al. (1991) dahingehend interpretiert, dass eine solche Mischstrategie dabei hilft, die Komplexität der abduktiven Aufgabe zu reduzieren. Nicht bestätigt werden konnte in den Experimenten 2 und 3 die Modellvorhersage von Johnson und Krems (2001), dass die Versuchspersonen zwei Alternativerklärungen für die widersprechenden Evidenzen generieren um diese anschließend gegeneinander abzuwägen. Es wurde von den Probanden nur eine Alternativerklärung generiert, in Abhängigkeit davon, ob die an der Anomalie beteiligten Evidenzen kontextsensitiv oder kontextfrei erklärbar waren. Unter kontextsensitiven Evidenzen versteht man solche Evidenzen, die zu ihrer Erklärung auf andere Evidenzen angewiesen sind. Dagegen können kontextfrei erklärbare Evidenzen unmittelbar und ohne Einbeziehung des Kontextes erklärt werden. War eine kontextsensitive Evidenz an der Anomalie beteiligt, entweder als anomalieauslösende Evidenz oder als widersprochene Evidenz, so wurde immer diese alternativ erklärt. Waren dagegen beide an der Anomalie beteiligten Evidenzen kontextfrei erklärbar, so wurde nur für die anomalieauslösende Evidenz eine Alternativerklärung generiert. Zusammenfassend belegen die Ergebnisse der vorliegenden Arbeit die Bedeutung unterschiedlicher Hypothesentypen bei der Anomalieresolution. Abstrakte Ausgangshypothesen erleichtern nach Anomalieeintritt den Wechsel zu alternativen Hypothesen. Ist an der Anomalie eine kontextsensitive Evidenz beteiligt, wird diese bevorzugt alternativ erklärt. Im anderen Falle wird immer die anomalieauslösende Evidenz alternativ erklärt. Weiterhin zeigen die Ergebnisse, dass im Gegensatz zu dem von Johnson und Krems postulierten Mechanismus, menschliche Problemlöser bei der Anomalieresolution keine Optimierungs-strategie anwenden, sondern minimumsorientiert nach nur einer Alternativ-erklärung suchen und anschließend die Suche abbrechen (vgl. Gigerenzer & Selten, 2000). Dagegen fand sich als bevorzugte Strategie erfolgreicher Problem-löser das Testen spezifischer Hypothesen sowie hypothesenfreie Experimente zur Generierung von neuen Hypothesen.
29

Using Case-based Reasoning to Control Traffic Consumption

Schade, Markus 30 September 2007 (has links) (PDF)
Quality of service is commonly used to shape network traffic to meet specified criteria. The various scenarios include limiting and reserving bandwidth for a particular application, host or user, prioritizing latency sensitive traffic or equal distribution of unreserved bandwidth. The DynShaper software distributes and controls a traffic quota by more sophisticated means than fixed per user limits and simple disconnection after the user reaches the limit. It distributes the quota on a daily basis, where each day receives the same share. The users are sorted into predefined groups with different bandwidths depending on their recent consumption. This classification is periodically updated to ensure the sorting order is maintained. The bandwidths of these groups is dynamically adjusted depending on the actual consumption to provide an efficient utilization. This thesis presents another distribution model using a case-based reasoning approach, a method for machine learning which is classified as conventional artificial intelligence. Case-based reasoning tries to solve new problems based on the solutions of similar problems from the past. Controlling the network traffic to remain within a fixed quota can be modeled as such a problem if the traffic patterns are recurring. Possible solutions can be derived from statistical data and altered to suit the new problems. When an untested solution is applied, the software supervises the execution and revises the solution accordingly, if the actual results deviate from the precalculated schedule.
30

Fallbasierte Speicherung und Wiederverwendung von Erfahrungswissen über die prozessbezogene Implementierung von Services in SAP® Enterprise-SOA

Hofmann, Marcus 02 July 2009 (has links) (PDF)
Der wirtschaftliche Erfolg von Unternehmen wird heute von der Fähigkeit beeinflusst, die Geschäftsstrategie schneller umsetzen zu können als die Konkurrenz. Wichtige Ziele sind die Erschließung neuer Märkte, die Reduzierung von Kosten sowie die Steigerung der Effizienz. Eine Voraussetzung besteht darin, vorhandene Geschäftsprozesse flexibel anpassen und zügig neue Prozesse einführen zu können. Das bedingt wandlungsfähige und innovationsfördernde Systemlandschaften. An dieser Stelle setzen die durch Geschäftsprozesse getriebenen serviceorientierten Architekturen für ERP-Systeme an. Mit SOA-ERP-Systemen wird es möglich, selektiv und am Bedarf ausgerichtet neue Prozesse zu gestalten und das Prozess-Design mit der Einbindung von Lieferanten, Kunden und Partnern über Unternehmensgrenzen hinweg zu gestalten. SAP Enterprise-SOA bezeichnet die serviceorientierte ERP-Architektur der SAP AG. Die darauf basierenden Anwendungen entstehen – unter Einsatz der Enterprise-SOA Roadmap-Methodik – durch die gezielte Kombination von Plattform-, Ex-tension- und Composite-Applikationen. Letztere stellen hochflexible, aus Enterprise-Services/Services von Drittanbietern erstellte, Anwendungen dar. Deren Design durch SOA-Experten liegt ein hohes Maß an Erfahrungswissen zu Grunde. Dieses stellt den zentralen Aspekt der Speicherung und Wiederverwendung durch fallbasiertes Schließen dar. Im Gegensatz zum bestehenden Ansatz zur Beschreibung von Best-Practice Implementierungen im „SAP Community Network“ ermöglicht der hier dargestellte Vorschlag die strukturierte, prozessbezogene Speicherung sowie die ähnlichkeitsbasierte Wiederverwendung von Composite-Applikationen innerhalb des Roadmap-Prozesses. Schwerpunktmäßig werden dazu Indizes zum Aufbau von Zugriffsstrukturen in der Fallbasis sowie wie ein allgemeingültiges globales und ein beispielhaftes, kontextspezifisches lokales Indexvokabular erarbeitet. Weiterhin erfolgt die Angabe entsprechender Ähnlichkeitsmaße für die ausgeprägten Indizes sowie das Aufzeigen der Ähnlichkeitsbestimmung zwischen zwei Fällen durch einen Nearest-Neighbor Matching Algorithmus.

Page generated in 0.0703 seconds