• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 41
  • 14
  • Tagged with
  • 128
  • 108
  • 77
  • 59
  • 57
  • 57
  • 44
  • 31
  • 22
  • 21
  • 19
  • 18
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Solving systems of monotone inclusions via primal-dual splitting techniques

Bot, Radu Ioan, Csetnek, Ernö Robert, Nagy, Erika 20 March 2013 (has links)
In this paper we propose an algorithm for solving systems of coupled monotone inclusions in Hilbert spaces. The operators arising in each of the inclusions of the system are processed in each iteration separately, namely, the single-valued are evaluated explicitly (forward steps), while the set-valued ones via their resolvents (backward steps). In addition, most of the steps in the iterative scheme can be executed simultaneously, this making the method applicable to a variety of convex minimization problems. The numerical performances of the proposed splitting algorithm are emphasized through applications in average consensus on colored networks and image classification via support vector machines.
102

Alternative leistungselektronische Schaltungskonzepte im PKW-Innenraum: Entwurf, Optimierung und Bewertung

Diesner, Stefan 13 March 2007 (has links)
Elektronische und elektrische Systeme stellen seit einigen Jahren einen zunehmenden Anteil an den Gesamtproduktionskosten von Personenkraftfahrzeugen. Laut Prognosen wird sich diese Entwicklung zwar abschwächen, jedoch wird der Wertschöpfungsanteil der Elektronik am Fahrzeug weiter zunehmen. Die hier vorliegende Arbeit beschäftigt sich mit leistungselektronischen Subsystemen in PKW, die aufgrund der benötigten Chipfläche der Halbleiter kostenintensiv sind. Ziel der Arbeit ist es, Strukturen zu entwickeln und zu untersuchen, die es ermöglichen, mehrere Verbraucher in einer solchen Struktur zu betreiben und dadurch Leistungshalbleiter einzusparen. In einer Analyse werden die derzeitige Struktur der Verbraucher im Fahrzeug, die dazugehö-rige Elektronik und die zeitlichen Abhängigkeiten der Verbraucher untereinander dargestellt. Die Analyse kommt zu dem Schluss, dass die Verbraucher im Fahrzeug auf den jeweiligen Einsatzzweck hin optimiert sind. Dadurch sind sie kostengünstig und einfach aufgebaut. Ge-meinsamkeiten, die für eine Vereinheitlichung der Leistungselektronik genutzt werden kön-nen, können unter Beachtung der betrachteten Systeme gefunden werden. Daraus werden Anforderungen an alternative leistungselektronische Strukturen formuliert. In der Arbeit werden zwei leistungselektronische Schaltungen untersucht, die den Forderun-gen nach einer Einsparung von Leistungshalbleitern gerecht werden. Bei der matrixförmigen Vernetzungsschaltung sind die Versorgungsleitungen in Zeilen und Spalten angeordnet, zwi-schen denen die Verbraucher angeschlossen sind. Bei der linearen Vernetzungsschaltung be-nutzen alle an einer Struktur angeschlossenen Verbraucher teilweise eine gemeinsame und eine individuelle Leistungselektronik. Dabei wird ein geringerer Vernetzungsgrad erreicht. Bei der matrixförmigen Vernetzungsschaltung wird ein hoher Vernetzungsgrad erzielt. Hier-bei kann eine Vielzahl von Verbrauchern mit vergleichsweise wenig Leistungselektronik be-trieben werden. Der hohe Vernetzungsgrad hat Bedingungen an die Anordnung der in der Struktur befindlichen Verbraucher zur Folge, die es nur bei kleinen Strukturen ermöglichen ohne Hilfsmittel eine optimale Struktur zu entwerfen. Für größere Strukturen werden Me-thoden benötigt, um die Anordnung der Verbraucher so zu gestalten, dass die Bedingungen an den gleichzeitigen Betrieb in der Applikation erfüllt werden können. Diese Aufgabe entspricht dem mathematischen Problemkreis der kombinatorischen Optimierung. Als Lösungsmethoden werden die Ganzzahlige Lineare Programmierung, die in jedem Fall ein exaktes Ergebnis er-reicht, und Genetische Algorithmen verwendet, die auch bei sehr großen Strukturen ein opti-miertes Ergebnis erzielen können. Die Genetischen Algorithmen werden in dieser Arbeit auf das Problem und dessen Darstellung angepasst, und die Ergebnisse der Optimierung mit de-nen der exakten Verfahren verglichen. Ergebnisse zeigen, dass die auf die Problemstellung angepassten Genetischen Algorithmen mit hoher Sicherheit das globale Optimum finden. Es werden matrixförmige und lineare Strukturen für eine Sitzsteuerung und eine Klappen-verstellung einer Klimaanlage entworfen, mit den beschriebenen Methoden optimiert und nachfolgend bewertet. In der Bewertung wird gezeigt, dass die entworfenen alternativen Strukturen den konventionellen teilweise überlegen sind und je nach elektronischem System zu einer deutlichen Kosteneinsparung führen können. In den untersuchten Systemen hat sich die lineare Struktur als besonders vorteilhaft herausgestellt.
103

Transparent Forecasting Strategies in Database Management Systems

Fischer, Ulrike, Lehner, Wolfgang 02 February 2023 (has links)
Whereas traditional data warehouse systems assume that data is complete or has been carefully preprocessed, increasingly more data is imprecise, incomplete, and inconsistent. This is especially true in the context of big data, where massive amount of data arrives continuously in real-time from vast data sources. Nevertheless, modern data analysis involves sophisticated statistical algorithm that go well beyond traditional BI and, additionally, is increasingly performed by non-expert users. Both trends require transparent data mining techniques that efficiently handle missing data and present a complete view of the database to the user. Time series forecasting estimates future, not yet available, data of a time series and represents one way of dealing with missing data. Moreover, it enables queries that retrieve a view of the database at any point in time - past, present, and future. This article presents an overview of forecasting techniques in database management systems. After discussing possible application areas for time series forecasting, we give a short mathematical background of the main forecasting concepts. We then outline various general strategies of integrating time series forecasting inside a database and discuss some individual techniques from the database community. We conclude this article by introducing a novel forecasting-enabled database management architecture that natively and transparently integrates forecast models.
104

Clustering Uncertain Data with Possible Worlds

Lehner, Wolfgang, Volk, Peter Benjamin, Rosenthal, Frank, Hahmann, Martin, Habich, Dirk 16 August 2022 (has links)
The topic of managing uncertain data has been explored in many ways. Different methodologies for data storage and query processing have been proposed. As the availability of management systems grows, the research on analytics of uncertain data is gaining in importance. Similar to the challenges faced in the field of data management, algorithms for uncertain data mining also have a high performance degradation compared to their certain algorithms. To overcome the problem of performance degradation, the MCDB approach was developed for uncertain data management based on the possible world scenario. As this methodology shows significant performance and scalability enhancement, we adopt this method for the field of mining on uncertain data. In this paper, we introduce a clustering methodology for uncertain data and illustrate current issues with this approach within the field of clustering uncertain data.
105

Methodik zur Erstellung von synthetischen Daten für das Qualitätsmanagement und der vorausschauenden Instandhaltung im Bereich der Innenhochdruck-Umformung (IHU)

Reuter, Thomas, Massalsky, Kristin, Burkhardt, Thomas 28 November 2023 (has links)
Unternehmen stehen zunehmend vor der Herausforderung, dem drohenden Wissensverlust durch demografischen Wandel und Mitarbeiterabgang zu begegnen. In Zeiten voranschreitender Digitalisierung gilt es, große Datenmengen beherrschbar und nutzbar zu machen, mit dem Ziel, einerseits die Ressourceneffizienz innerhalb des Unternehmens zu erhöhen und anderseits den Kunden zusätzliche Dienstleistungen anbieten zu können. Vor dem Hintergrund, ein effizientes Qualitätsmanagement und eine vorausschauende Instandhaltung mit ein und demselben System zu realisieren, sind zunächst technologische Kennzahlen und die Prozessführung zu bestimmen. Im Bereich der intelligenten Instandhaltung ist es jedoch nicht immer möglich, Fehlerzustände von physischen Anlagen im Serienbetrieb als Datensatz abzufassen. Das bewusste Zulassen von Fehlern unter realen Produktionsbedingungen könnte zu fatalen Ausfällen bis hin zur Zerstörung der Anlage führen. Auch das gezielte Erzeugen von Fehlern unter stark kontrollierten Bedingungen kann zeitaufwendig, kostenintensiv oder sogar undurchführbar sein.
106

Methodology for the creation of synthetic data for quality management and predictive maintenance in the field of hydroforming (IHU)

Reuter, Thomas, Massalsky, Kristin, Burkhardt, Thomas 28 November 2023 (has links)
Companies are increasingly challenged by the impending loss of knowledge due to demographic change and employee loss. In times of advancing digitalization, it is important to make large datasets accessible and usable, aiming at increasing resource efficiency within the company on the one hand and being able to offer customers additional services on the other. Given the background of implementing efficient quality management and predictive maintenance with the same system, technological key figures and process control must first be determined. In the field of intelligent maintenance, however, it is not always possible to record error states of physical systems in series operation as a data set. Deliberately allowing faults to occur under real production conditions could lead to fatal failures or even the destruction of the system. The targeted generation of faults under highly controlled conditions can also be timeconsuming, cost-intensive, or even impractical.
107

Robotic self-exploration and acquisition of sensorimotor skills

Berthold, Oswald 26 June 2020 (has links)
Die Interaktion zwischen Maschinen und ihrer Umgebung sollte zuverlässig, sicher und ökologisch adequat sein. Um das in komplexen Szenarien langfristig zu gewährleisten, wird eine Theorie adaptiven Verhaltens benötigt. In der Entwicklungsrobotik und verkörperten künstlichen Intelligenz wird Verhalten als emergentes Phänomen auf der fortlaufenden dynamischen Interaktion zwischen Agent, Körper und Umgebung betrachtet. Die Arbeit untersucht Roboter, die in der Lage sind, schnell und selbständig einfache Bewegungen auf Grundlage sensomotorischer Information zu erlernen. Das langfristige Ziel dabei ist die Wiederverwendung gelernter Fertigkeiten in späteren Lernprozessen um damit ein komplexes Interaktionsrepertoire mit der Welt entstehen zu lassen, das durch Entwicklungsprozesse vollständig und fortwährend adaptiv in der sensomotorischen Erfahrung verankert ist. Unter Verwendung von Methoden des maschinellen Lernens, der Neurowissenschaft, Statistik und Physik wird die Frage in die Komponenten Repräsentation, Exploration, und Lernen zerlegt. Es wird ein Gefüge für die systematische Variation und Evaluation von Modellen errichtet. Das vorgeschlagene Rahmenwerk behandelt die prozedurale Erzeugung von Hypothesen als Flussgraphen über einer festen Menge von Funktionsbausteinen, was die Modellsuche durch nahtlose Anbindung über simulierte und physikalische Systeme hinweg ermöglicht. Ein Schwerpunkt der Arbeit liegt auf dem kausalen Fussabdruck des Agenten in der sensomotorischen Zeit. Dahingehend wird ein probabilistisches graphisches Modell vorgeschlagen um Infor- mationsflussnetzwerke in sensomotorischen Daten zu repräsentieren. Das Modell wird durch einen auf informationtheoretischen Grössen basierenden Lernalgorithmus ergänzt. Es wird ein allgemeines Modell für Entwicklungslernen auf Basis von Echtzeit-Vorhersagelernen präsentiert und anhand dreier Variationen näher besprochen. / The interaction of machines with their environment should be reliable, safe, and ecologically adequate. To ensure this over long-term complex scenarios, a theory of adaptive behavior is needed. In developmental robotics, and embodied artificial intelligence behavior is regarded as a phenomenon that emerges from an ongoing dynamic interaction between entities called agent, body, and environment. The thesis investigates robots that are able to learn rapidly and on their own, how to do primitive motions, using sensorimotor information. The long-term goal is to reuse acquired skills when learning other motions in the future, and thereby grow a complex repertoire of possible interactions with the world, that is fully grounded in, and continually adapted to sensorimotor experience through developmental processes. Using methods from machine learning, neuroscience, statistics, and physics, the question is decomposed into the relationship of representation, exploration, and learning. A framework is provided for systematic variation and evaluation of models. The proposed framework considers procedural generation of hypotheses as scientific workflows using a fixed set of functional building blocks, and allows to search for models by seamless evaluation in simulation and real world experiments. Additional contributions of the thesis are related to the agent's causal footprint in sensorimotor time. A probabilistic graphical model is provided, along with an information-theoretic learning algorithm, to discover networks of information flow in sensorimotor data. A generic developmental model, based on real time prediction learning, is presented and discussed on the basis of three different algorithmic variations.
108

Rabattprobleme aus Konsumentensicht: Eine Online- und Offlineanalyse

Reißner, Michael 19 December 2022 (has links)
Einem Konsumenten werden in verschiedensten Situationen Rabatte angeboten. In dieser Dissertation wird die Frage untersucht, wie solche Rabattsituationen aus konsumentensicht formalisiert werden können und wie Kaufentscheidungen getroffen werden können. Um diese Frage zu beantworten, wird ein formaler Rahmen für Rabattsituationen angegeben und zur Analyse einer neuen Gruppe von acht Problemen, die auf alltäglichen Erfahrungen mit Rabattaktionen basieren, angewendet. Diese Probleme werden hinsichtlich der Rabattgrundlage (Stempel / Punkte), dem Kartentyp (Einzelkarte, Gruppenkarte) und der Frage, ob Stempel/Punkte für Käufe mit Rabatt gesammelt werden, unterschieden. Der inhärenten Planungsunsicherheit für Konsumentenentscheidungen wird explizit durch die Betrachtung jedes Problems als eine Onlinesituation Rechnung getragen. Für die Onlineprobleme wird eine zugeschnittene Methode zur Güteabschätzung präsentiert. Jedes der acht Probleme wird als Entscheidungs-, Optimierungs- und Onlineproblem analysiert. Für alle Entscheidungsprobleme wird NP-Vollständigkeit nachgewiesen. Jedes Optimierungsproblem wird mit ganzzahliger linearer Programmierung und einige stempelbasierte Probleme zusätzlich mit dynamischer Programmierung gelöst. Für die Onlineprobleme wird jeweils eine untere Güteschranke gezeigt und für drei Gruppen von Onlinealgorithmen die Güte abgeschätzt.:1. Einleitung 2. Vorbetrachtungen 3. Problemformulierung und Analysemethodik 4. Die Probleme im Detail 5. Zusammenfassung 6. Ausblick A. Implementationen / A consumer is offered discounts in a variety of situations. The central question investigated in this dissertation is how to formalize such discount situations from a consumer perspective and what methods for deducing purchase decisions are possible. To answer this question a formal framework for discount situations is established and used to explore a new group of eight discount problems based on everyday experience with loyalty programs. These problems are distinguished by discount basis (stamps / points), card type (single / group) and whether stamps/-points are collectable if a discount is granted. The inherent uncertainty in consumer decisions is explicitly taken into account by considering each of these problems as an online situation as well. Regarding the online problems, a method for competitive analysis is presented. Each of the eight problems is examined as a decision, an optimization and an online problem. For all decision problems N P-completeness is shown. Each optimization problem is solved via linear integer programming and some stamp based optimization problems are furthermore solved with dynamic programming. For each online problem a lower bound on the competitive ratio is presented together with three groups of online algorithms and the respective bounds on the competitive ratio.:1. Einleitung 2. Vorbetrachtungen 3. Problemformulierung und Analysemethodik 4. Die Probleme im Detail 5. Zusammenfassung 6. Ausblick A. Implementationen
109

Model-based Integration of Past & Future in TimeTravel

Khalefa, Mohamed E., Fischer, Ulrike, Pedersen, Torben Bach, Lehner, Wolfgang 10 January 2023 (has links)
We demonstrate TimeTravel, an efficient DBMS system for seamless integrated querying of past and (forecasted) future values of time series, allowing the user to view past and future values as one joint time series. This functionality is important for advanced application domain like energy. The main idea is to compactly represent time series as models. By using models, the TimeTravel system answers queries approximately on past and future data with error guarantees (absolute error and confidence) one order of magnitude faster than when accessing the time series directly. In addition, it efficiently supports exact historical queries by only accessing relevant portions of the time series. This is unlike existing approaches, which access the entire time series to exactly answer the query. To realize this system, we propose a novel hierarchical model index structure. As real-world time series usually exhibits seasonal behavior, models in this index incorporate seasonality. To construct a hierarchical model index, the user specifies seasonality period, error guarantees levels, and a statistical forecast method. As time proceeds, the system incrementally updates the index and utilizes it to answer approximate and exact queries. TimeTravel is implemented into PostgreSQL, thus achieving complete user transparency at the query level. In the demo, we show the easy building of a hierarchical model index for a real-world time series and the effect of varying the error guarantees on the speed up of approximate and exact queries.
110

Top-k Entity Augmentation using Consistent Set Covering

Eberius, Julian, Thiele, Maik, Braunschweig, Katrin, Lehner, Wolfgang 19 September 2022 (has links)
Entity augmentation is a query type in which, given a set of entities and a large corpus of possible data sources, the values of a missing attribute are to be retrieved. State of the art methods return a single result that, to cover all queried entities, is fused from a potentially large set of data sources. We argue that queries on large corpora of heterogeneous sources using information retrieval and automatic schema matching methods can not easily return a single result that the user can trust, especially if the result is composed from a large number of sources that user has to verify manually. We therefore propose to process these queries in a Top-k fashion, in which the system produces multiple minimal consistent solutions from which the user can choose to resolve the uncertainty of the data sources and methods used. In this paper, we introduce and formalize the problem of consistent, multi-solution set covering, and present algorithms based on a greedy and a genetic optimization approach. We then apply these algorithms to Web table-based entity augmentation. The publication further includes a Web table corpus with 100M tables, and a Web table retrieval and matching system in which these algorithms are implemented. Our experiments show that the consistency and minimality of the augmentation results can be improved using our set covering approach, without loss of precision or coverage and while producing multiple alternative query results.

Page generated in 0.0534 seconds