• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 11
  • 5
  • Tagged with
  • 26
  • 26
  • 23
  • 15
  • 15
  • 15
  • 11
  • 10
  • 8
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Sampling Algorithms for Evolving Datasets

Gemulla, Rainer 24 October 2008 (has links) (PDF)
Perhaps the most flexible synopsis of a database is a uniform random sample of the data; such samples are widely used to speed up the processing of analytic queries and data-mining tasks, to enhance query optimization, and to facilitate information integration. Most of the existing work on database sampling focuses on how to create or exploit a random sample of a static database, that is, a database that does not change over time. The assumption of a static database, however, severely limits the applicability of these techniques in practice, where data is often not static but continuously evolving. In order to maintain the statistical validity of the sample, any changes to the database have to be appropriately reflected in the sample. In this thesis, we study efficient methods for incrementally maintaining a uniform random sample of the items in a dataset in the presence of an arbitrary sequence of insertions, updates, and deletions. We consider instances of the maintenance problem that arise when sampling from an evolving set, from an evolving multiset, from the distinct items in an evolving multiset, or from a sliding window over a data stream. Our algorithms completely avoid any accesses to the base data and can be several orders of magnitude faster than algorithms that do rely on such expensive accesses. The improved efficiency of our algorithms comes at virtually no cost: the resulting samples are provably uniform and only a small amount of auxiliary information is associated with the sample. We show that the auxiliary information not only facilitates efficient maintenance, but it can also be exploited to derive unbiased, low-variance estimators for counts, sums, averages, and the number of distinct items in the underlying dataset. In addition to sample maintenance, we discuss methods that greatly improve the flexibility of random sampling from a system's point of view. More specifically, we initiate the study of algorithms that resize a random sample upwards or downwards. Our resizing algorithms can be exploited to dynamically control the size of the sample when the dataset grows or shrinks; they facilitate resource management and help to avoid under- or oversized samples. Furthermore, in large-scale databases with data being distributed across several remote locations, it is usually infeasible to reconstruct the entire dataset for the purpose of sampling. To address this problem, we provide efficient algorithms that directly combine the local samples maintained at each location into a sample of the global dataset. We also consider a more general problem, where the global dataset is defined as an arbitrary set or multiset expression involving the local datasets, and provide efficient solutions based on hashing.
12

Visualization of Conceptual Data with Methods of Formal Concept Analysis / Graphische Darstellung begrifflicher Daten mit Methoden der formalen Begriffsanalyse

Kriegel, Francesco 18 October 2013 (has links) (PDF)
Draft and proof of an algorithm computing incremental changes within a labeled layouted concept lattice upon insertion or removal of an attribute column in the underlying formal context. Furthermore some implementational details and mathematical background knowledge are presented. / Entwurf und Beweis eines Algorithmus zur Berechnung inkrementeller Änderungen in einem beschrifteten dargestellten Begriffsverband beim Einfügen oder Entfernen einer Merkmalsspalte im zugrundeliegenden formalen Kontext. Weiterhin sind einige Details zur Implementation sowie zum mathematischen Hintergrundwissen dargestellt.
13

Die C# Schnittstelle der Referenzattributgrammatik-gesteuerten Graphersetzungsbibliothek RACR: Übersicht, Anwendung und Implementierung: Entwicklerhandbuch

Langner, Daniel, Bürger, Christoff 04 July 2018 (has links)
Dieser Bericht präsentiert RACR-NET, eine Schnittstelle der Referenzattributgrammatik-gesteuerten Graphersetzungsbibliothek RACR für C#. RACR-NET ermöglicht die Nutzung der deklarativen, dynamischen Sprachspezifikations-, Instanziierungs- und Auswertungsmeachanismen der RACR Scheme-Bibliothek in der objektorientierten Programmierung. Dies umfasst insbesondere die automatische inkrementelle Auswertung attributbasierter semantischer Analysen und somit das automatische Cachen parametrisierter Funktionsmethoden. Graphersetzungen entsprechen hierbei Zustandsänderungen von Objektinstanzen und der Invalidierung abgeleiteter Berechnungen. Schwerpunkt dieses Berichts ist die objektorientierte Programmierschnittstelle von RACR-NET, dessen praktische Anwendung und Implementierung. Der Bericht ist ein Referenzhandbuch für RACR-NET Anwender und Entwickler.:1. Einleitung 1.1. Aufgabenstellung 1.2. Struktur der Arbeit 2. Konzeptionelle und technische Voraussetzungen 2.1. Überblick der RAG-gesteuerten Graphersetzung 2.2. Scheme 2.3. Die RACR Scheme-Bibliothek 2.4. Das .NET-Framework und die Common Language Infrastructure 2.5. IronScheme 3. RACR-NET Implementierung: Prozedurale Schnittstelle 3.1. Scheme in C# 3.2. RACR in C# 3.3. Anforderungsanalyse 3.4. Implementierung der prozeduralen Schnittstelle 4. RACR-NET Implementierung: Objektorientierte Schnittstelle 4.1. Überblick über die objektorientierte Schnittstelle 4.2. Anwendungsbeispiel 4.3. Herausforderungen bei der Implementierung 4.4. Implementierung 5. Evaluation 5.1. Testen der Schnittstelle 5.2. Performance-Messungen und -Vergleiche 6. Zusammenfassung und Ausblick 6.1. Eine objektorientierte Bibliothek für RAG-gesteuerte Graphersetzung 6.2. Zukünftige Arbeiten A. Literaturverzeichnis B. MIT Lizenz
14

Strategische Einbindung der Umformsimulation in die Entwicklungsprozesskette Karosserie

Maaß, Lena 20 May 2016 (has links)
Die Bauteileigenschaften von Bauteilen und Baugruppen im Karosseriebau werden maßgeblich durch die während des Tiefziehprozesses auftretenden Formänderungen und Verfestigungen beeinflusst. In der vorliegenden Arbeit wird daher die Umformsimulation in eine repräsentative virtuelle Prozesskette des Karosseriebaus integriert. Dazu wird zunächst die Datenübertragung zwischen den einzelnen Simulationsprogrammen in der Prozesskette Umformen - Fügen - Crash realisiert. Mit der anschließend durchgeführten Sensitivitätsanalyse wird festgestellt, welche Größen einen signifikanten Einfluss auf die Folgesimulationen haben. Aufbauend auf den Ergebnissen der Sensitivitätsanalyse wird eine Methode zur Gestaltung von einfachen Ankonstruktionen zur Verbesserung der Qualität der Ergebnisse der inversen Umformsimulation entwickelt und an einem Bauteil aus dem Karosseriebau validiert. Mit den durch die einfache Ankonstruktion erzielten Verbesserungen in den Ergebnissen der inversen Umformsimulation kann die entwickelte Methode einen Beitrag zur Erhöhung der Qualität der nachfolgenden Prozesssimulationen in der Prozesskette leisten.
15

Sampling Algorithms for Evolving Datasets

Gemulla, Rainer 20 October 2008 (has links)
Perhaps the most flexible synopsis of a database is a uniform random sample of the data; such samples are widely used to speed up the processing of analytic queries and data-mining tasks, to enhance query optimization, and to facilitate information integration. Most of the existing work on database sampling focuses on how to create or exploit a random sample of a static database, that is, a database that does not change over time. The assumption of a static database, however, severely limits the applicability of these techniques in practice, where data is often not static but continuously evolving. In order to maintain the statistical validity of the sample, any changes to the database have to be appropriately reflected in the sample. In this thesis, we study efficient methods for incrementally maintaining a uniform random sample of the items in a dataset in the presence of an arbitrary sequence of insertions, updates, and deletions. We consider instances of the maintenance problem that arise when sampling from an evolving set, from an evolving multiset, from the distinct items in an evolving multiset, or from a sliding window over a data stream. Our algorithms completely avoid any accesses to the base data and can be several orders of magnitude faster than algorithms that do rely on such expensive accesses. The improved efficiency of our algorithms comes at virtually no cost: the resulting samples are provably uniform and only a small amount of auxiliary information is associated with the sample. We show that the auxiliary information not only facilitates efficient maintenance, but it can also be exploited to derive unbiased, low-variance estimators for counts, sums, averages, and the number of distinct items in the underlying dataset. In addition to sample maintenance, we discuss methods that greatly improve the flexibility of random sampling from a system's point of view. More specifically, we initiate the study of algorithms that resize a random sample upwards or downwards. Our resizing algorithms can be exploited to dynamically control the size of the sample when the dataset grows or shrinks; they facilitate resource management and help to avoid under- or oversized samples. Furthermore, in large-scale databases with data being distributed across several remote locations, it is usually infeasible to reconstruct the entire dataset for the purpose of sampling. To address this problem, we provide efficient algorithms that directly combine the local samples maintained at each location into a sample of the global dataset. We also consider a more general problem, where the global dataset is defined as an arbitrary set or multiset expression involving the local datasets, and provide efficient solutions based on hashing.
16

Beitrag zur Modellierung und Simulation von Zylinderdrückwalzprozessen mit elementaren Methoden

Kleditzsch, Stefan 29 January 2014 (has links)
Drückwalzen als inkrementelles Umformverfahren ist aufgrund seiner Verfahrenscharakteristik mit sehr hohen Rechenzeiten bei der Finite-Elemente-Methode (FEM) verbunden. Die Modelle ModIni und FloSim sind zwei analytisch-elementare Ansätze, um dieser Prämisse entgegenzuwirken. Das für ModIni entwickelte Geometriemodell wird in der vorliegenden Arbeit weiterentwickelt, so dass eine werkstoffunabhängige Berechnung der Staugeometrie ermöglicht wird und ein deutlich größeres Anwendungsspektrum der Methode bereitsteht. Die Simulationsmethode FloSim basiert auf dem oberen Schrankenverfahren und ermöglicht somit eine Berechnung von Zylinderdrückwalzprozessen innerhalb weniger Minuten. Für die Optimierung der Methode FloSim wurden in der vorliegenden Arbeit die analytischen Grundlagen für die Berechnung der Bauteillänge sowie der Umformzonentemperatur während des Prozesses erarbeitet. Weiterhin wurde auf Basis von numerisch realisierten Parameteranalysen ein Ansatz für die analytische Berechnung des Vergleichsumformgrades von Drückwalzprozessen entwickelt. Diese drei Ansätze, zu Bauteillänge, Temperatur und Umformgrad wurden in die Simulationssoftware FloSim integriert und führen zu einer deutlichen Genauigkeitssteigerung der Methode. / Flow Forming as incremental forming process is connected with extreme long computation times for Finite-Element-Analyses. ModIni and FloSim are two analytical/elementary models to antagonize this situation. The geometry model, which was developed for ModIni, is improved within the presented work. The improvement enables the material independent computation of the pile-up geometry and permits a wider application scope of ModIni. The simulation method FloSim is based on the upper bound method, which enables the computation of cylindrical Flow Forming processes within minutes. For the optimization of the method FloSim, the basics for the analytical computation of the workpiece length during the process and the computation of the forming zone temperature were developed within this work. Fur-thermore, an analytical approach for the computation of the equivalent plastic strain of cylindrical Flow Forming processes was developed based on numerical parameter analyses. This tree approaches for computing the workpiece length, the temperature and the equivalent plastic strain were integrated in FloSim and lead to an increased accuracy.
17

Visualization of Conceptual Data with Methods of Formal Concept Analysis

Kriegel, Francesco 27 September 2013 (has links)
Draft and proof of an algorithm computing incremental changes within a labeled layouted concept lattice upon insertion or removal of an attribute column in the underlying formal context. Furthermore some implementational details and mathematical background knowledge are presented.:1 Introduction 1.1 Acknowledgements 1.2 Supporting University: TU Dresden, Institute for Algebra 1.3 Supporting Corporation: SAP AG, Research Center Dresden 1.4 Research Project: CUBIST 1.5 Task Description und Structure of the Diploma Thesis I Mathematical Details 2 Fundamentals of Formal Concept Analysis 2.1 Concepts and Concept Lattice 2.2 Visualizations of Concept Lattices 2.2.1 Transitive Closure and Transitive Reduction 2.2.2 Neighborhood Relation 2.2.3 Line Diagram 2.2.4 Concept Diagram 2.2.5 Vertical Hybridization 2.2.6 Omitting the top and bottom concept node 2.2.7 Actions on Concept Diagrams 2.2.8 Metrics on Concept Diagrams 2.2.9 Heatmaps for Concept Diagrams 2.2.10 Biplots of Concept Diagrams 2.2.11 Seeds Selection 2.3 Apposition of Contexts 3 Incremental Updates for Concept Diagrams 3.1 Insertion & Removal of a single Attribute Column 3.1.1 Updating the Concepts 3.1.2 Structural Remarks 3.1.3 Updating the Order 3.1.4 Updating the Neighborhood 3.1.5 Updating the Concept Labels 3.1.6 Updating the Reducibility 3.1.7 Updating the Arrows 3.1.8 Updating the Seed Vectors 3.1.9 Complete IFOX Algorithm 3.1.10 An Example: Stepwise Construction of FCD(3) 3.2 Setting & Deleting a single cross 4 Iterative Exploration of Concept Lattices 4.1 Iceberg Lattices 4.2 Alpha Iceberg Lattices 4.3 Partly selections 4.3.1 Example with EMAGE data 4.4 Overview on Pruning & Interaction Techniques II Implementation Details 5 Requirement Analysis 5.1 Introduction 5.2 User-Level Requirements for Graphs 5.2.1 Select 5.2.2 Explore 5.2.3 Reconfigure 5.2.4 Encode 5.2.5 Abstract/Elaborate 5.2.6 Filter 5.2.7 Connect 5.2.8 Animate 5.3 Low-Level Requirements for Graphs 5.3.1 Panel 5.3.2 Node and Edge 5.3.3 Interface 5.3.4 Algorithm 5.4 Mapping of Low-Level Requirements to User-Level Requirements 5.5 Specific Visualization Requirements for Lattices 5.5.1 Lattice Zoom/Recursive Lattices/Partly Nested Lattices 5.5.2 Planarity 5.5.3 Labels 5.5.4 Selection of Ideals, Filters and Intervalls 5.5.5 Restricted Moving of Elements 5.5.6 Layout Algorithms 5.5.7 Additional Feature: Three Dimensions and Rotation 5.5.8 Additional Feature: Nesting 6 FCAFOX Framework for Formal Concept Analysis in JAVA 6.1 Architecture A Appendix A.1 Synonym Lexicon A.2 Galois Connections & Galois Lattices A.3 Fault Tolerance Extensions to Formal Concept Analysis / Entwurf und Beweis eines Algorithmus zur Berechnung inkrementeller Änderungen in einem beschrifteten dargestellten Begriffsverband beim Einfügen oder Entfernen einer Merkmalsspalte im zugrundeliegenden formalen Kontext. Weiterhin sind einige Details zur Implementation sowie zum mathematischen Hintergrundwissen dargestellt.:1 Introduction 1.1 Acknowledgements 1.2 Supporting University: TU Dresden, Institute for Algebra 1.3 Supporting Corporation: SAP AG, Research Center Dresden 1.4 Research Project: CUBIST 1.5 Task Description und Structure of the Diploma Thesis I Mathematical Details 2 Fundamentals of Formal Concept Analysis 2.1 Concepts and Concept Lattice 2.2 Visualizations of Concept Lattices 2.2.1 Transitive Closure and Transitive Reduction 2.2.2 Neighborhood Relation 2.2.3 Line Diagram 2.2.4 Concept Diagram 2.2.5 Vertical Hybridization 2.2.6 Omitting the top and bottom concept node 2.2.7 Actions on Concept Diagrams 2.2.8 Metrics on Concept Diagrams 2.2.9 Heatmaps for Concept Diagrams 2.2.10 Biplots of Concept Diagrams 2.2.11 Seeds Selection 2.3 Apposition of Contexts 3 Incremental Updates for Concept Diagrams 3.1 Insertion & Removal of a single Attribute Column 3.1.1 Updating the Concepts 3.1.2 Structural Remarks 3.1.3 Updating the Order 3.1.4 Updating the Neighborhood 3.1.5 Updating the Concept Labels 3.1.6 Updating the Reducibility 3.1.7 Updating the Arrows 3.1.8 Updating the Seed Vectors 3.1.9 Complete IFOX Algorithm 3.1.10 An Example: Stepwise Construction of FCD(3) 3.2 Setting & Deleting a single cross 4 Iterative Exploration of Concept Lattices 4.1 Iceberg Lattices 4.2 Alpha Iceberg Lattices 4.3 Partly selections 4.3.1 Example with EMAGE data 4.4 Overview on Pruning & Interaction Techniques II Implementation Details 5 Requirement Analysis 5.1 Introduction 5.2 User-Level Requirements for Graphs 5.2.1 Select 5.2.2 Explore 5.2.3 Reconfigure 5.2.4 Encode 5.2.5 Abstract/Elaborate 5.2.6 Filter 5.2.7 Connect 5.2.8 Animate 5.3 Low-Level Requirements for Graphs 5.3.1 Panel 5.3.2 Node and Edge 5.3.3 Interface 5.3.4 Algorithm 5.4 Mapping of Low-Level Requirements to User-Level Requirements 5.5 Specific Visualization Requirements for Lattices 5.5.1 Lattice Zoom/Recursive Lattices/Partly Nested Lattices 5.5.2 Planarity 5.5.3 Labels 5.5.4 Selection of Ideals, Filters and Intervalls 5.5.5 Restricted Moving of Elements 5.5.6 Layout Algorithms 5.5.7 Additional Feature: Three Dimensions and Rotation 5.5.8 Additional Feature: Nesting 6 FCAFOX Framework for Formal Concept Analysis in JAVA 6.1 Architecture A Appendix A.1 Synonym Lexicon A.2 Galois Connections & Galois Lattices A.3 Fault Tolerance Extensions to Formal Concept Analysis
18

Analyse und Automatisierung von inkrementellen elektromagnetischen Umformprozessen

Linnemann, Maik 21 December 2022 (has links)
Aktuelle gesellschaftliche und politische Forderungen an die Produktionstechnik wie Nachhaltigkeit und Klimaschutz können bei der Fertigung flächiger Bauteile durch innovative Blechumformverfahren erreicht werden. Durch geschickte Kombinationen von inkrementellen und elektromagnetischen Fertigungsverfahren besteht hier besonders großes Potential. Aus diesem Grund wird im Rahmen dieser Arbeit die Erweiterung der elektromagnetischen Umformung um einen inkrementellen Ansatz untersucht. Dazu wird ein geeigneter Versuchsaufbau entwickelt und für eine ausführliche Prozessanalyse genutzt. Zusätzlich werden effiziente numerische Prozessmodelle entwickelt um eine schnelle Bestimmung weiterer Prozessgrößen zu ermöglichen. Im Ergebnis resultieren Hinweise mit denen das neuartige Verfahren auf beliebige Bauteile angewendet werden kann.
19

General dynamic Yannakakis: Conjunctive queries with theta joins under updates

Idris, Muhammad, Ugarte, Martín, Vansummeren, Stijn, Voigt, Hannes, Lehner, Wolfgang 17 July 2023 (has links)
The ability to efficiently analyze changing data is a key requirement of many real-time analytics applications. In prior work, we have proposed general dynamic Yannakakis (GDYN), a general framework for dynamically processing acyclic conjunctive queries with θ-joins in the presence of data updates. Whereas traditional approaches face a trade-off between materialization of subresults (to avoid inefficient recomputation) and recomputation of subresults (to avoid the potentially large space overhead of materialization), GDYN is able to avoid this trade-off. It intelligently maintains a succinct data structure that supports efficient maintenance under updates and from which the full query result can quickly be enumerated. In this paper, we consolidate and extend the development of GDYN. First, we give full formal proof of GDYN ’s correctness and complexity. Second, we present a novel algorithm for computing GDYN query plans. Finally, we instantiate GDYN to the case where all θ-joins are inequalities and present extended experimental comparison against state-of-the-art engines. Our approach performs consistently better than the competitor systems with multiple orders of magnitude improvements in both time and memory consumption.
20

Entwicklung des selbstregelnden Drückwalzens

Laue, Robert 18 January 2024 (has links)
Die Verbesserung der Energie- und Ressourceneffizienz stellt eine zentrale Aufgabe für die Produktionstechnik dar. Inkrementelle Verfahren wie das Drückwalzen weisen bereits aufgrund ihres Prozessprinzips ein hohes Potenzial zur Ressourceneffizienz auf. Allerdings besitzen diese Verfahren eine Vielzahl von Einflussfaktoren auf das Prozessergebnis, die zudem in Wechselwirkung zueinander stehen. Die Folge schwankender Prozesseinflussgrößen (z. B. Chargenschwankungen oder variierende Halbzeuggeometrie) ist häufig Bauteilausschuss, der sich aufgrund der meist kleinen bis mittleren Losgrößen stärker auf die Produktivität auswirkt. Die Weiterentwicklung von gesteuerten zu selbstgeregelten Umformprozessen mit Prozessrückkopplung bietet ein großes Potential zur Verbesserung der Ressourceneffizienz. Im Rahmen dieser Arbeit werden die Grundlagen und Vorgehensweise zur Realisierung des selbstregelnden Drückwalzens erarbeitet. Nach der Analyse und Bewertung von Störungen auf die Prozesseinflussgrößen erfolgt die Definition eines Referenzzustandes und von Störszenarien. Auf Basis experimenteller Untersuchungen wird der Referenzzustand analysiert und ein digitaler Zwilling des Drückwalzprozesses entwickelt. Mit dessen Hilfe erfolgt die Bewertung der Störszenarien. Anschließend wird ein methodisches Vorgehen vorgestellt, mit dem das selbstregelnde Drückwalzen beliebiger Zielgrößen entwickelt werden kann. Im digitalen Zwilling werden zusätzlich ein virtueller Sensor, der Regelalgorithmus und die Aktordynamik integriert und damit die Selbstregelung für eine Prozessgröße und ein Prozessergebnis ausgelegt und untersucht. Mit den gewonnenen Erkenntnissen wurde das selbstregelnde Drückwalzen erstmals erfolgreich experimentell umgesetzt. Die in der Arbeit vorgestellten Ergebnisse zeigen eine signifikante Reduzierung des Einflusses von Prozessstörungen auf das Prozessergebnis durch die Selbstregelung. / Improving energy and resource efficiency is also a key challenge for production technology. Incremental processes such as flow-forming already have a high potential for resource efficiency due to their process principle. Flow-forming has a large number of influencing process parameters that also interact with each other. Fluctuating process parameters (e.g. batch fluctuations or varying semi-finished product geometry) can result in component scrap, which has a major influence on productivity due to the mostly small to medium batch sizes. The further development of controlled to self-controlled forming processes with process feed-back offers great potential for improving resource efficiency. In this thesis, the basics and the procedure for the realization of self-controlled flow-forming are developed. After the analysis and evaluation of disturbances on the process influencing variables, a reference state and disturbance scenarios are defined. The reference state is analyzed on the basis of experimental investigations and a digital twin of the flow-forming process is developed. This is used to evaluate the disturbance scenarios. Subsequently, a methodical procedure is presented to develop self-controlled flow-forming of any process parameter or process result. A virtual sensor, the control algorithm and the actuator dynamics are also integrated into the digital twin to design and investigate the self-control for a process parameter and a process result. Based on the knowledge gained, self-controlled flow-forming was successfully implemented experimentally for the first time. The results show a significant reduction of the influence of process disturbances on the process results.

Page generated in 0.0937 seconds