• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 100
  • 27
  • 6
  • 2
  • Tagged with
  • 238
  • 106
  • 59
  • 56
  • 56
  • 52
  • 39
  • 37
  • 36
  • 36
  • 36
  • 24
  • 23
  • 22
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Digitalization and Big Data from the John Deere Perspective

Engel, Thomas 15 November 2016 (has links)
No description available.
162

Combination of Compatible Reduction Orderings that are Total on Ground Terms

Baader, Franz 18 May 2022 (has links)
Reduction orderings that are compatible with an equational theory E and total on (the E-equivalence classes of) ground terms play an important rôle in automated deduction. We present a general approach for combining such orderings. To be more precise, we show how E1-compatible reduction orderings total on Σ1-ground terms and E2-compatible reduction orderings total on Σ2-ground terms can be used to construct an (E1[E2)-compatible reduction ordering total on (Σ1 [Σ2)-ground terms, provided that the signatures are disjoint and some other (rather weak) restrictions are satised. This work was motivated by the observation that it is often easier to construct such orderings for „small” signatures and theories separately, rather than directly for their union.
163

Maintenance of cube automatic summary tables

Lehner, Wolfgang, Sidle, Richard, Hamid, Wolfgang Cochrane, Roberta 10 January 2023 (has links)
Materialized views (or Automatic Summary Tables—ASTs) are commonly used to improve the performance of aggregation queries by orders of magnitude. In contrast to regular tables, ASTs are synchronized by the database system. In this paper, we present techniques for maintaining cube ASTs. Our implementation is based on IBM DB2 UDB.
164

Time Dynamic Topic Models

Jähnichen, Patrick 30 March 2016 (has links) (PDF)
Information extraction from large corpora can be a useful tool for many applications in industry and academia. For instance, political communication science has just recently begun to use the opportunities that come with the availability of massive amounts of information available through the Internet and the computational tools that natural language processing can provide. We give a linguistically motivated interpretation of topic modeling, a state-of-the-art algorithm for extracting latent semantic sets of words from large text corpora, and extend this interpretation to cover issues and issue-cycles as theoretical constructs coming from political communication science. We build on a dynamic topic model, a model whose semantic sets of words are allowed to evolve over time governed by a Brownian motion stochastic process and apply a new form of analysis to its result. Generally this analysis is based on the notion of volatility as in the rate of change of stocks or derivatives known from econometrics. We claim that the rate of change of sets of semantically related words can be interpreted as issue-cycles, the word sets as describing the underlying issue. Generalizing over the existing work, we introduce dynamic topic models that are driven by general (Brownian motion is a special case of our model) Gaussian processes, a family of stochastic processes defined by the function that determines their covariance structure. We use the above assumption and apply a certain class of covariance functions to allow for an appropriate rate of change in word sets while preserving the semantic relatedness among words. Applying our findings to a large newspaper data set, the New York Times Annotated corpus (all articles between 1987 and 2007), we are able to identify sub-topics in time, \\\\textit{time-localized topics} and find patterns in their behavior over time. However, we have to drop the assumption of semantic relatedness over all available time for any one topic. Time-localized topics are consistent in themselves but do not necessarily share semantic meaning between each other. They can, however, be interpreted to capture the notion of issues and their behavior that of issue-cycles.
165

Structured higher-order algorithmic differentiation in the forward and reverse mode with application in optimum experimental design

Walter, Sebastian 07 May 2012 (has links)
In dieser Arbeit werden Techniken beschrieben, die es erlauben (höhere) Ableitungen und Taylorapproximationen solcher Computerprogramme effizient zu berechnen. Auch inbesondere dann, wenn die Programme Algorithmen der numerischen linearen Algebra (NLA) enthalten. Im Gegensatz zur traditionellen algorithmischen Differentiation (AD), bei der die zugrunde liegenden Algorithmen um zusätzliche Befehlere erweitert werden, sind in dieser Arbeit die Zerlegungen durch definierende Gleichungen charakterisiert. Basierend auf den definierenden Gleichungen werden Strukturausnutzende Algorithmen hergeleitet. Genauer, neuartige Algorithmen für die Propagation von Taylorpolynomen durch die QR, Cholesky und reell-symmetrischen Eigenwertzerlegung werden präsentiert. Desweiteren werden Algorithmen für den Rückwärtsmodus der AD hergeleitet, welche im Wesentlichen nur die Faktoren der Zerlegungen benötigen. Im Vergleich zum traditionellen Ansatz, bei dem alle Zwischenergebnisse gespeichert werden, ist dies eine Reduktion von O(N^3) zu O(N^2) für Algorithmen mit O(N^3) Komplexität. N ist hier die Größe der Matrix. Zusätzlich kann bestehende, hoch-optimierte Software verwendet werden. Ein Laufzeitvergleich zeigt, dass dies im Vergleich zum traditionellen Ansatz zu einer Beschleunigung in der Größenordnung 100 führen kann. Da die NLA Funktionen als Black Box betrachtet werden, ist desweiteren auch der Berechnungsgraph um Größenordnungen kleiner. Dies bedeutet, dass Software, welche Operator Overloading benutzt, weniger Overhead hervorruft und auch weniger Speicher benötigt. / This thesis provides a framework for the evaluation of first and higher-order derivatives and Taylor series expansions through large computer programs that contain numerical linear algebra (NLA) functions. It is a generalization of traditional algorithmic differentiation (AD) techniques in that NLA functions are regarded as black boxes where the inputs and outputs are related by defining equations. Based on the defining equations, structure-exploiting algorithms are derived. More precisely, novel algorithms for the propagation of Taylor polynomials through the QR, Cholesky,- and real-symmetric eigenvalue decomposition are shown. Recurrences for the reverse mode of AD, which require essentially only the returned factors of the decomposition, are also derived. Compared to the traditional approach where all intermediates of an algorithm are stored, this is a reduction from O(N^3) to O(N^2) for algorithms with O( N^3) complexity. N denotes the matrix size. The derived algorithms make it possible to use existing high-performance implementations. A runtime comparison shows that the treatment of NLA functions as atomic can be more than one order of magnitude faster than an automatic differentiation of the underlying algorithm. Furthermore, the computational graph is orders of magnitudes smaller. This reduces the additional memory requirements, as well as the overhead, of operator overloading techniques to a fraction.
166

Die flexible S-Bahn: nachfrageorientierte Flexibilisierung des Beförderungsangebotes: ein neuer Zugang zur Szenarioanalyse alternativer Strategien - (BMBF-Leitprojekt intermobil Region Dresden ; Schlussbericht - Band 4) / ein neuer Zugang zur Szenarioanalyse alternativer Strategien

Scholz, Sven 09 May 2005 (has links) (PDF)
Der vorliegende 4. Band "Die flexible S-Bahn: nachfrageorientierte Flexibilisierung des Beförderungsangeboters - ein neuer Zugang zur Szenarioanalyse alternativer Strategien" ist Grundsatzfragen mit strategischer Bedeutung aus dem Teilprojekt AP 200 gewidmet. Vorgelegt wird eine wissenschaftliche Untersuchung zur Abschätzung verkehrlicher und wirtschaftlicher Innovationspotentiale alternativer Flexibilisierung- und Automatisierungsstrategien. Sie führt auf Erkenntnisse mit grundlegender Bedeutung bezüglich der Erfolgschancen dieser Strategien unter der Berücksichtugung verschiedener Ausbaustufen der S-Bahn Dresden, d.h. von der heute vorzufindenden Situation bis zur Vision eines vollautomatischen Betriebes. (Dresden, im Dezember 2004 / Prof. Dr.-Ing. habil. Dr. h. c. H. Strobel - Projektleiter TU Dresden)
167

Planen im Fluentkalkül mit binären Entscheidungsdiagrammen

Störr, Hans-Peter 06 August 2006 (has links) (PDF)
Seit langem ist die Intelligenz des Menschen für viele Forscher und Philosophen ein faszinierendes Forschungsobjekt. Mit dem Aufkommen der Computertechnik erscheint nun zum ersten mal der Traum, einige dieser typisch menschlichen Fähigkeiten nicht nur zu verstehen, sondern nachbauen oder in Teilgebieten gar übertreffen zu können, als realistisch. Ein wichtiger Teil dieses mit "Künstliche Intelligenz" überschriebenen Forschungsgebietes ist das Schließen über Aktionen und Veränderung. Hier wird versucht, die menschliche Fähigkeit, die Effekte seiner Aktionen vorauszusehen und Pläne zum Erreichen von Zielen zu schmieden, nachzubilden. Ein aktives Forschungsgebiet in diesem Rahmen ist der Fluentkalkül, ein Formalismus zur Modellierung von Aktionen und Veränderung. Er stellt Mittel bereit, in der ein automatischer Agent seine Umgebung und die Effekte seiner Aktionen im Rahmen der mathematischen Logik darstellen kann, um mit Hilfe von logischem Schließen sein Verhalten zu planen. Obwohl zum Fluentkalkül viele Arbeiten existieren, die dessen Anwendungsbereiche und Semantik erweitern, gibt es doch noch relativ wenige Arbeiten zum effizienten Schlussfolgern. Dies ist ein Hauptaugenmerk der vorliegenden Arbeit. Es wird ein Algorithmus geschaffen, der Erkenntnisse aus effizienten Verfahren zum Modelchecking mit Binären Entscheidungsdiagrammen (BDDs) sinngemäß überträgt und für ein Fragment des Fluentkalkül erweitert. Damit können nun auch Planungsprobleme von Fluentkalkül-Planern gelöst werden, die der realisierten symbolischen Breitensuche besser zugänglich sind, als der bisher aussschliesslich verwendeten heuristischen Tiefensuche. Um eine leichtere Vergleichbarkeit Fluentkalkül-basierter Planungsverfahren mit anderen Planungsalgorithmen zu ermöglichen, wurde eine Übersetzung des ADL-Fragments der Planungsdomänenbeschreibungssprache PDDL in den Fluentkalkül geschaffen. Damit können zahlreiche Planungsprobleme aus der Literatur und Planungsdomänenbibliotheken auch mit Fluentkalkül-Planern bearbeitet werden. Die Übersetzung kann zugleich als formale Semantik des nur informal spezifizierten PDDL dienen.
168

Anwendung und Entwicklung Neuronaler Verfahren zur autonomen Prozess-Steuerung

Protzel, Peter, Lewandowski, Achim, Kindermann, Lars, Tagscherer, Michael, Herrnberger, Bärbel 09 October 2001 (has links) (PDF)
In diesem Bericht wurden die Arbeiten und Ergebnisse dargestellt, die am FORWISS im Rahmen des Verbundprojekts AENEAS im Zeitraum vom 1.10.1995 bis zum 31.12.1999 erzielt wurden. Die Forschungsziele des Vorhabens wurden durch eine industrielle Anwendung im Bereich der Stahlverarbeitung motiviert und konzentrierten sich im Wesentlichen auf die folgenden Punkte: • Modellierung von nichtlinearen und zeitvarianten Prozessen, die analytisch nicht fassbar sind und nur durch Messdaten repräsentiert werden. • Modellierung von Größen, die nicht direkt messbar sind, aber auf nichtlineare Weise von anderen, messbaren Größen abhängen. • Kombination von analytischen bzw. statistischen Modellen und Neuronalen Netzen, um die jeweiligen Vorteile der Verfahren zu vereinen. Als Ergebnis des Vorhabens wurden eine Reihe neuer Ansätze zum kontinuierlichen Lernen entwickelt, darunter eine neuartige, lebenslang adaptive Netzarchitektur mit entscheidenden Vorteilen im Bereich des kontinuierlichen Lernens im Vergleich zu allen bisher bekannten Verfahren. Zum zweiten Punkt wurde eine Theorie der Analyse iterierter Prozesse entwickelt, die auf das mathematische Problem der Lösung von Funktionswurzeln führte. Für nichtlineare Systeme gibt es keine analytischen Lösungsmöglichkeiten, daher wurden erstmals Neuronale Netze zur Lösung dieses Problems verwendet. Die Ergebnisse aller grundlagenorientierten Arbeiten flossen in die Lösung eines industriellen Anwendungsproblems ein, bei der End- und Zwischenprofile warmgewalzter Stahlbänder modelliert und prognostiziert werden sollten. Dieser Prozess ist charakterisiert durch Nichtlinearität, Zeitvarianz („Tagesform“ der Anlage) und durch die nicht direkte Messbarkeit der Zwischenprofile, die sich als inverse Iteration (Funktionswurzel) aus dem Endprofil ergeben. Dieses Problem konnte auf elegante Weise durch eine Verknüpfung von analytischen und neuronalen Ansätzen gelöst werden. Neben dem unmittelbaren Wert der Ergebnisse bei der Lösung der beispielhaften Anwendung lassen sich die entwickelten Verfahren zum kontinuierlichen Lernen und zur Analyse iterierter Prozesse auf eine Vielzahl anderer Problemstellungen verallgemeinern und stellen eine gute Basis für weitere Forschungsarbeiten dar.
169

Aktivierung und Hemmung diagnostischer Hypothesen beim abduktiven Schließen: Eine experimentelle Untersuchung von Verstehensprozessen

Mehlhorn, Katja 02 April 2007 (has links) (PDF)
Das Problem, eine Erklärung für eine Reihe von Beobachtungen zu finden, stellt sich in vielen alltäglichen Situationen, zum Beispiel bei sozialen Attributionsprozessen oder der klinischen Diagnose. Der dabei zugrunde liegende Erklärungsprozess wird oft als abduktives Schließen bezeichnet und kann als Verstehensprozess aufgefasst werden. Ziel der vorliegenden Arbeit ist es, eine mögliche Beteiligung automatischer Prozesse beim Lösen solcher Probleme zu untersuchen. Es wird angenommen, dass mit Hilfe der Aktivierung und Hemmung von mit Beobachtungen verknüpftem Wissen eine mentale Repräsentation aufgebaut wird, die die Erklärung für die Beobachtungen darstellt. Demzufolge sollten Erklärungen, die mit gezeigten Beobachtungen kausal verknüpft sind, aktiviert, und Erklärungen, die aufgrund neuer Beobachtungen verworfen werden, gehemmt werden. Um dies zu prüfen, klassifizierten Probanden während der Lösung diagnostischer Probleme Testreize, die entweder mit möglichen, verworfenen oder für das aktuelle Problem irrelevanten Erklärungen verknüpft waren. Die Reaktionszeit und die Antwortgüte auf die Testreize wurden als Maß für die Aktivierung der damit verknüpften Erklärung verwendet. Die Ergebnisse belegen das Wirken von Aktivierungsprozessen. Hinweise auf eine Hemmung verworfener Erklärungen konnten hingegen nicht gefunden werden.
170

Kooperative Verhaltensmodellierung für adaptive Multiagentensysteme /

Buchheim, Thorsten. January 2009 (has links)
Zugl.: Stuttgart, Universiẗat, Diss., 2009.

Page generated in 0.5102 seconds