• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 83
  • 25
  • 11
  • 1
  • Tagged with
  • 236
  • 141
  • 104
  • 73
  • 72
  • 72
  • 58
  • 43
  • 25
  • 25
  • 23
  • 22
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

SLACID - Sparse Linear Algebra in a Column-Oriented In-Memory Database System

Kernert, David, Köhler, Frank, Lehner, Wolfgang 19 September 2022 (has links)
Scientific computations and analytical business applications are often based on linear algebra operations on large, sparse matrices. With the hardware shift of the primary storage from disc into memory it is now feasible to execute linear algebra queries directly in the database engine. This paper presents and compares different approaches of storing sparse matrices in an in-memory column-oriented database system. We show that a system layout derived from the compressed sparse row representation integrates well with a columnar database design and that the resulting architecture is moreover amenable to a wide range of non-numerical use cases when dictionary encoding is used. Dynamic matrix manipulation operations, like online insertion or deletion of elements, are not covered by most linear algebra frameworks. Therefore, we present a hybrid architecture that consists of a read-optimized main and a write-optimized delta structure and evaluate the performance for dynamic sparse matrix workloads by applying workflows of nuclear science and network graphs.
162

Runtime Verification Using a Temporal Description Logic Revisited

Baader, Franz, Lippmann, Marcel 20 June 2022 (has links)
Formulae of linear temporal logic (LTL) can be used to specify (wanted or unwanted) properties of a dynamical system. In model checking, the system’s behaviour is described by a transition system, and one needs to check whether all possible traces of this transition system satisfy the formula. In runtime verification, one observes the actual system behaviour, which at any point in time yields a finite prefix of a trace. The task is then to check whether all continuations of this prefix to a trace satisfy (violate) the formula. More precisely, one wants to construct a monitor, i.e., a finite automaton that receives the finite prefix as input and then gives the right answer based on the state currently reached. In this paper, we extend the known approaches to LTL runtime verification in two directions. First, instead of propositional LTL we use the more expressive temporal logic ALC-LTL, which can use axioms of the Description Logic (DL) ALC instead of propositional variables to describe properties of single states of the system. Second, instead of assuming that the observed system behaviour provides us with complete information about the states of the system, we assume that states are described in an incomplete way by ALC-knowledge bases. We show that also in this setting monitors can effectively be constructed. The (double-exponential) size of the constructed monitors is in fact optimal, and not higher than in the propositional case. As an auxiliary result, we show how to construct Büchi automata for ALC-LTL-formulae, which yields alternative proofs for the known upper bounds of deciding satisfiability in ALC-LTL.
163

Wiederholungen in Texten

Golcher, Felix 16 December 2013 (has links)
Diese Arbeit untersucht vollständige Zeichenkettenfrequenzverteilungen natürlichsprachiger Texte auf ihren linguistischen und anwendungsbezogenen Gehalt. Im ersten Teil wird auf dieser Datengrundlage ein unüberwachtes Lernverfahren entwickelt, das Texte in Morpheme zerlegt. Die Zerlegung geht von der Satzebene aus und verwendet jegliche vorhandene Kontextinformation. Es ergibt sich ein sprachunabhängiger Algorithmus, der die gefundenen Morpheme teilweise zu Baumstrukturen zusammenordnet. Die Evaluation der Ergebnisse mit Hilfe statistischer Modelle ermöglicht die Identifizierung auch kleiner Performanzunterschiede. Diese sind einer linguistischen Interpretation zugänglich. Der zweite Teil der Arbeit besteht aus stilometrischen Untersuchungen anhand eines Textähnlichkeitsmaßes, das ebenfalls auf vollständigen Zeichenkettenfrequenzen beruht. Das Textähnlichkeitsmaß wird in verschiedenen Varianten definiert und anhand vielfältiger stilometrischer Fragestellungen und auf Grundlage unterschiedlicher Korpora ausgewertet. Dabei ist ein wiederholter Vergleich mit der Performanz bisheriger Forschungsansäzte möglich. Die Performanz moderner Maschinenlernverfahren kann mit dem hier vorgestellten konzeptuell einfacheren Verfahren reproduziert werden. Während die Segmentierung in Morpheme ein lokaler Vorgang ist, besteht Stilometrie im globalen Vergleich von Texten. Daher bietet die Untersuchung dieser zwei unverbunden scheinenden Fragestellungen sich gegenseitig ergänzende Perspektiven auf die untersuchten Häufigkeitsdaten. Darüber hinaus zeigt die Diskussion der rezipierten Literatur zu beiden Themen ihre Verbindungen durch verwandte Konzepte und Denkansätze auf. Aus der Gesamtheit der empirischen Untersuchungen zu beiden Fragestellungen kann abgeleitet werden, dass den längeren und damit selteneren Zeichenketten wesentlich mehr Informationsgehalt innewohnt, als in der bisherigen Forschung gemeinhin angenommen wird. / This thesis investigates the linguistic and application specific content of complete character substring frequency distributions of natural language texts. The first part develops on this basis an unsupervised learning algorithm for segmenting text into morphemes. The segmentation starts from the sentence level and uses all available context information. The result is a language independent algorithm which arranges the found morphemes partly into tree like structures. The evaluation of the output using advanced statistical modelling allows for identifying even very small performance differences. These are accessible to linguistic interpretation. The second part of the thesis consists of stylometric investigations by means of a text similarity measure also rooted in complete substring frequency statistics. The similarity measure is defined in different variants and evaluated for various stylometric tasks and on the basis of diverse corpora. In most of the case studies the presented method can be compared with publicly available performance figures of previous research. The high performance of modern machine learning methods is reproduced by the considerably simpler algorithm developed in this thesis. While the segmentation into morphemes is a local process, stylometry consists in the global comparison of texts. For this reason investigating of these two seemingly unconnected problems offers complementary perspectives on the explored frequency data. The discussion of the recieved litarature concerning both subjects additionally shows their connectedness by related concepts and approaches. It can be deduced from the totality of the empirical studies on text segmentation and stylometry conducted in this thesis that the long and rare character sequences contain considerably more information then assumed in previous research.
164

Exact Approaches for Higher-Dimensional Orthogonal Packing and Related Problems / Zugänge für die exakte Lösung höherdimensionaler orthogonaler Packungsprobleme und verwandter Aufgaben

Mesyagutov, Marat 24 March 2014 (has links) (PDF)
NP-hard problems of higher-dimensional orthogonal packing are considered. We look closer at their logical structure and show that they can be decomposed into problems of a smaller dimension with a special contiguous structure. This decomposition influences the modeling of the packing process, which results in three new solution approaches. Keeping this decomposition in mind, we model the smaller-dimensional problems in a single position-indexed formulation with non-overlapping inequalities serving as binding constraints. Thus, we come up with a new integer linear programming model, which we subject to polyhedral analysis. Furthermore, we establish general non-overlapping and density inequalities and prove under appropriate assumptions their facet-defining property for the convex hull of the integer solutions. Based on the proposed model and the strong inequalities, we develop a new branch-and-cut algorithm. Being a relaxation of the higher-dimensional problem, each of the smaller-dimensional problems is also relevant for different areas, e.g. for scheduling. To tackle any of these smaller-dimensional problems, we use a Gilmore-Gomory model, which is a Dantzig-Wolfe decomposition of the position-indexed formulation. In order to obtain a contiguous structure for the optimal solution, its basis matrix must have a consecutive 1's property. For construction of such matrices, we develop new branch-and-price algorithms which are distinguished by various strategies for the enumeration of partial solutions. We also prove some characteristics of partial solutions, which tighten the slave problem of column generation. For a nonlinear modeling of the higher-dimensional packing problems, we investigate state-of-the-art constraint programming approaches, modify them, and propose new dichotomy and intersection branching strategies. To tighten the constraint propagation, we introduce new pruning rules. For that, we apply 1D relaxation with intervals and forbidden pairs, an advanced bar relaxation, 2D slice relaxation, and 1D slice-bar relaxation with forbidden pairs. The new rules are based on the relaxation by the smaller-dimensional problems which, in turn, are replaced by a linear programming relaxation of the Gilmore-Gomory model. We conclude with a discussion of implementation issues and numerical studies of all proposed approaches. / Es werden NP-schwere höherdimensionale orthogonale Packungsprobleme betrachtet. Wir untersuchen ihre logische Struktur genauer und zeigen, dass sie sich in Probleme kleinerer Dimension mit einer speziellen Nachbarschaftsstruktur zerlegen lassen. Dies beeinflusst die Modellierung des Packungsprozesses, die ihreseits zu drei neuen Lösungsansätzen führt. Unter Beachtung dieser Zerlegung modellieren wir die Probleme kleinerer Dimension in einer einzigen positionsindizierten Formulierung mit Nichtüberlappungsungleichungen, die als Bindungsbedingungen dienen. Damit entwickeln wir ein neues Modell der ganzzahligen linearen Optimierung und unterziehen dies einer Polyederanalyse. Weiterhin geben wir allgemeine Nichtüberlappungs- und Dichtheitsungleichungen an und beweisen unter geeigneten Annahmen ihre facettendefinierende Eigenschaft für die konvexe Hülle der ganzzahligen Lösungen. Basierend auf dem vorgeschlagenen Modell und den starken Ungleichungen entwickeln wir einen neuen Branch-and-Cut-Algorithmus. Jedes Problem kleinerer Dimension ist eine Relaxation des höherdimensionalen Problems. Darüber hinaus besitzt es Anwendungen in verschiedenen Bereichen, wie zum Beispiel im Scheduling. Für die Behandlung der Probleme kleinerer Dimension setzen wir das Gilmore-Gomory-Modell ein, das eine Dantzig-Wolfe-Dekomposition der positionsindizierten Formulierung ist. Um eine Nachbarschaftsstruktur zu erhalten, muss die Basismatrix der optimalen Lösung die consecutive-1’s-Eigenschaft erfüllen. Für die Konstruktion solcher Matrizen entwickeln wir neue Branch-and-Price-Algorithmen, die sich durch Strategien zur Enumeration von partiellen Lösungen unterscheiden. Wir beweisen auch einige Charakteristiken von partiellen Lösungen, die das Hilfsproblem der Spaltengenerierung verschärfen. Für die nichtlineare Modellierung der höherdimensionalen Packungsprobleme untersuchen wir moderne Ansätze des Constraint Programming, modifizieren diese und schlagen neue Dichotomie- und Überschneidungsstrategien für die Verzweigung vor. Für die Verstärkung der Constraint Propagation stellen wir neue Ablehnungskriterien vor. Wir nutzen dabei 1D Relaxationen mit Intervallen und verbotenen Paaren, erweiterte Streifen-Relaxation, 2D Scheiben-Relaxation und 1D Scheiben-Streifen-Relaxation mit verbotenen Paaren. Alle vorgestellten Kriterien basieren auf Relaxationen durch Probleme kleinerer Dimension, die wir weiter durch die LP-Relaxation des Gilmore-Gomory-Modells abschwächen. Wir schließen mit Umsetzungsfragen und numerischen Experimenten aller vorgeschlagenen Ansätze.
165

On the Efficient Utilization of Dense Nonlocal Adjacency Information In Graph Neural Networks

Bünger, Dominik 14 December 2021 (has links)
In den letzten Jahren hat das Teilgebiet des Maschinellen Lernens, das sich mit Graphdaten beschäftigt, durch die Entwicklung von spezialisierten Graph-Neuronalen Netzen (GNNs) mit mathematischer Begründung in der spektralen Graphtheorie große Sprünge nach vorn gemacht. Zusätzlich zu natürlichen Graphdaten können diese Methoden auch auf Datensätze ohne Graphen angewendet werden, indem man einen Graphen künstlich mithilfe eines definierten Adjazenzbegriffs zwischen den Samplen konstruiert. Nach dem neueste Stand der Technik wird jedes Sample mit einer geringen Anzahl an Nachbarn verknüpft, um gleichzeitig das dünnbesetzte Verhalten natürlicher Graphen nachzuahmen, die Stärken bestehender GNN-Methoden auszunutzen und quadratische Abhängigkeit von der Knotenanzahl zu verhinden, welche diesen Ansatz für große Datensätze unbrauchbar machen würde. Die vorliegende Arbeit beleuchtet die alternative Konstruktion von vollbesetzten Graphen basierend auf Kernel-Funktionen. Dabei quantifizieren die Verknüpfungen eines jeden Samples explizit die Ähnlichkeit zu allen anderen Samplen. Deshalb enthält der Graph eine quadratische Anzahl an Kanten, die die lokalen und nicht-lokalen Nachbarschaftsinformationen beschreiben. Obwohl dieser Ansatz in anderen Kontexten wie der Lösung partieller Differentialgleichungen ausgiebig untersucht wurde, wird er im Maschinellen Lernen heutzutage meist wegen der dichtbesetzten Adjazenzmatrizen als unbrauchbar empfunden. Aus diesem Grund behandelt ein großer Teil dieser Arbeit numerische Techniken für schnelle Auswertungen, insbesondere Eigenwertberechnungen, in wichtigen Spezialfällen, bei denen die Samples durch niedrigdimensionale Vektoren (wie z.B. in dreidimensionalen Punktwolken) oder durch kategoriale Attribute beschrieben werden. Weiterhin wird untersucht, wie diese dichtbesetzten Adjazenzinformationen in Lernsituationen auf Graphen benutzt werden können. Es wird eine eigene transduktive Lernmethode vorgeschlagen und präsentiert, eine Version eines Graph Convolutional Networks (GCN), das auf die spektralen und räumlichen Eigenschaften von dichtbesetzten Graphen abgestimmt ist. Schließlich wird die Anwendung von Kernel-basierten Adjazenzmatrizen in der Beschleunigung der erfolgreichen Architektur “PointNet++” umrissen. Im Verlauf der Arbeit werden die Methoden in ausführlichen numerischen Experimenten evaluiert. Zusätzlich zu der empirischen Genauigkeit der Neuronalen Netze liegt der Fokus auf wettbewerbsfähigen Laufzeiten, um die Berechnungs- und Energiekosten der Methoden zu reduzieren. / Over the past few years, graph learning - the subdomain of machine learning on graph data - has taken big leaps forward through the development of specialized Graph Neural Networks (GNNs) that have mathematical foundations in spectral graph theory. In addition to natural graph data, these methods can be applied to non-graph data sets by constructing a graph artificially using a predefined notion of adjacency between samples. The state of the art is to only connect each sample to a low number of neighbors in order to simultaneously mimic the sparse behavior of natural graphs, play into the strengths of existing GNN methods, and avoid quadratic scaling in the number of nodes that would make the approach infeasible for large problem sizes. In this thesis, we shine light on the alternative construction of kernel-based fully-connected graphs. Here the connections of each sample explicitly quantify the similarities to all other samples. Hence the graph contains a quadratic number of edges which encode local and non-local neighborhood information. Though this approach is well studied in other settings including the solution of partial differential equations, it is typically dismissed in machine learning nowadays because of its dense adjacency matrices. We thus dedicate a large portion of this work to showcasing numerical techniques for fast evaluations, especially eigenvalue computations, in important special cases where samples are described by low-dimensional feature vectors (e.g., three-dimensional point clouds) or by a small set of categorial attributes. We then continue to investigate how this dense adjacency information can be utilized in graph learning settings. In particular, we present our own proposed transductive learning method, a version of a Graph Convolutional Network (GCN) designed towards the spectral and spatial properties of dense graphs. We furthermore outline the application of kernel-based adjacency matrices in the speedup of the successful PointNet++ architecture. Throughout this work, we evaluate our methods in extensive numerical experiments. In addition to the empirical accuracy of our neural network tasks, we focus on competitive runtimes in order to decrease the computational and energy cost of our methods.
166

Exact Approaches for Higher-Dimensional Orthogonal Packing and Related Problems

Mesyagutov, Marat 12 February 2014 (has links)
NP-hard problems of higher-dimensional orthogonal packing are considered. We look closer at their logical structure and show that they can be decomposed into problems of a smaller dimension with a special contiguous structure. This decomposition influences the modeling of the packing process, which results in three new solution approaches. Keeping this decomposition in mind, we model the smaller-dimensional problems in a single position-indexed formulation with non-overlapping inequalities serving as binding constraints. Thus, we come up with a new integer linear programming model, which we subject to polyhedral analysis. Furthermore, we establish general non-overlapping and density inequalities and prove under appropriate assumptions their facet-defining property for the convex hull of the integer solutions. Based on the proposed model and the strong inequalities, we develop a new branch-and-cut algorithm. Being a relaxation of the higher-dimensional problem, each of the smaller-dimensional problems is also relevant for different areas, e.g. for scheduling. To tackle any of these smaller-dimensional problems, we use a Gilmore-Gomory model, which is a Dantzig-Wolfe decomposition of the position-indexed formulation. In order to obtain a contiguous structure for the optimal solution, its basis matrix must have a consecutive 1's property. For construction of such matrices, we develop new branch-and-price algorithms which are distinguished by various strategies for the enumeration of partial solutions. We also prove some characteristics of partial solutions, which tighten the slave problem of column generation. For a nonlinear modeling of the higher-dimensional packing problems, we investigate state-of-the-art constraint programming approaches, modify them, and propose new dichotomy and intersection branching strategies. To tighten the constraint propagation, we introduce new pruning rules. For that, we apply 1D relaxation with intervals and forbidden pairs, an advanced bar relaxation, 2D slice relaxation, and 1D slice-bar relaxation with forbidden pairs. The new rules are based on the relaxation by the smaller-dimensional problems which, in turn, are replaced by a linear programming relaxation of the Gilmore-Gomory model. We conclude with a discussion of implementation issues and numerical studies of all proposed approaches. / Es werden NP-schwere höherdimensionale orthogonale Packungsprobleme betrachtet. Wir untersuchen ihre logische Struktur genauer und zeigen, dass sie sich in Probleme kleinerer Dimension mit einer speziellen Nachbarschaftsstruktur zerlegen lassen. Dies beeinflusst die Modellierung des Packungsprozesses, die ihreseits zu drei neuen Lösungsansätzen führt. Unter Beachtung dieser Zerlegung modellieren wir die Probleme kleinerer Dimension in einer einzigen positionsindizierten Formulierung mit Nichtüberlappungsungleichungen, die als Bindungsbedingungen dienen. Damit entwickeln wir ein neues Modell der ganzzahligen linearen Optimierung und unterziehen dies einer Polyederanalyse. Weiterhin geben wir allgemeine Nichtüberlappungs- und Dichtheitsungleichungen an und beweisen unter geeigneten Annahmen ihre facettendefinierende Eigenschaft für die konvexe Hülle der ganzzahligen Lösungen. Basierend auf dem vorgeschlagenen Modell und den starken Ungleichungen entwickeln wir einen neuen Branch-and-Cut-Algorithmus. Jedes Problem kleinerer Dimension ist eine Relaxation des höherdimensionalen Problems. Darüber hinaus besitzt es Anwendungen in verschiedenen Bereichen, wie zum Beispiel im Scheduling. Für die Behandlung der Probleme kleinerer Dimension setzen wir das Gilmore-Gomory-Modell ein, das eine Dantzig-Wolfe-Dekomposition der positionsindizierten Formulierung ist. Um eine Nachbarschaftsstruktur zu erhalten, muss die Basismatrix der optimalen Lösung die consecutive-1’s-Eigenschaft erfüllen. Für die Konstruktion solcher Matrizen entwickeln wir neue Branch-and-Price-Algorithmen, die sich durch Strategien zur Enumeration von partiellen Lösungen unterscheiden. Wir beweisen auch einige Charakteristiken von partiellen Lösungen, die das Hilfsproblem der Spaltengenerierung verschärfen. Für die nichtlineare Modellierung der höherdimensionalen Packungsprobleme untersuchen wir moderne Ansätze des Constraint Programming, modifizieren diese und schlagen neue Dichotomie- und Überschneidungsstrategien für die Verzweigung vor. Für die Verstärkung der Constraint Propagation stellen wir neue Ablehnungskriterien vor. Wir nutzen dabei 1D Relaxationen mit Intervallen und verbotenen Paaren, erweiterte Streifen-Relaxation, 2D Scheiben-Relaxation und 1D Scheiben-Streifen-Relaxation mit verbotenen Paaren. Alle vorgestellten Kriterien basieren auf Relaxationen durch Probleme kleinerer Dimension, die wir weiter durch die LP-Relaxation des Gilmore-Gomory-Modells abschwächen. Wir schließen mit Umsetzungsfragen und numerischen Experimenten aller vorgeschlagenen Ansätze.
167

Fluorosolvatochromism of furanyl- and thiophenyl-substituted acetophenones

Friebe, Nadine, Schreiter, Katja, Kübel, Joachim, Dietzek, Benjamin, Moszner, Norbert, Burtscher, Peter, Oehlke, Alexander, Spange, Stefan 15 February 2016 (has links) (PDF)
A series of para-substituted acetophenones bearing a furanyl or a thiophenyl moiety show a large Stokes-shift, which is a function of various solvent properties. Photophysical properties such as emission lifetime of the compounds have been determined using time-correlated-single photon counting to secure the intrinsic fluorescence behaviour. The solvent dependent position of the UV/Vis emission band [small nu, Greek, tilde]max,em of the compounds has been measured in 26 various solvents. The influence of the solvent on [small nu, Greek, tilde]max,em is of very complex nature and mathematically analysed by multiple square linear solvation energy (LSE)-correlation analysis using Catalán's four-solvent parameter set. Solvent acidity has a strong influence on the bathochromic shift of 2,5-disubstituted furan derivatives compared to the non-5-substituted furan and thiophene derivatives, which show a contrary behaviour. Therefore, the 5-cyanofuranyl-substituted acetophenone derivative is useful as a probe for measuring environmental properties by fluorescence spectroscopy. / Dieser Beitrag ist aufgrund einer (DFG-geförderten) Allianz- bzw. Nationallizenz frei zugänglich.
168

Developing a Decision Making Approach for District Cooling Systems Design using Multi-objective Optimization

Kamali, Aslan 18 August 2016 (has links) (PDF)
Energy consumption rates have been dramatically increasing on a global scale within the last few decades. A significant role in this increase is subjected by the recent high temperature levels especially at summer time which caused a rapid increase in the air conditioning demands. Such phenomena can be clearly observed in developing countries, especially those in hot climate regions, where people depend mainly on conventional air conditioning systems. These systems often show poor performance and thus negatively impact the environment which in turn contributes to global warming phenomena. In recent years, the demand for urban or district cooling technologies and networks has been increasing significantly as an alternative to conventional systems due to their higher efficiency and improved ecological impact. However, to obtain an efficient design for district cooling systems is a complex task that requires considering a wide range of cooling technologies, various network layout configuration possibilities, and several energy resources to be integrated. Thus, critical decisions have to be made regarding a variety of opportunities, options and technologies. The main objective of this thesis is to develop a tool to obtain preliminary design configurations and operation patterns for district cooling energy systems by performing roughly detailed optimizations and further, to introduce a decision-making approach to help decision makers in evaluating the economic aspects and environmental performance of urban cooling systems at an early design stage. Different aspects of the subject have been investigated in the literature by several researchers. A brief survey of the state of the art was carried out and revealed that mathematical programming models were the most common and successful technique for configuring and designing cooling systems for urban areas. As an outcome of the survey, multi objective optimization models were decided to be utilized to support the decision-making process. Hence, a multi objective optimization model has been developed to address the complicated issue of decision-making when designing a cooling system for an urban area or district. The model aims to optimize several elements of a cooling system such as: cooling network, cooling technologies, capacity and location of system equipment. In addition, various energy resources have been taken into consideration as well as different solar technologies such as: trough solar concentrators, vacuum solar collectors and PV panels. The model was developed based on the mixed integer linear programming method (MILP) and implemented using GAMS language. Two case studies were investigated using the developed model. The first case study consists of seven buildings representing a residential district while the second case study was a university campus district dominated by non-residential buildings. The study was carried out for several groups of scenarios investigating certain design parameters and operation conditions such as: Available area, production plant location, cold storage location constraints, piping prices, investment cost, constant and variable electricity tariffs, solar energy integration policy, waste heat availability, load shifting strategies, and the effect of outdoor temperature in hot regions on the district cooling system performance. The investigation consisted of three stages, with total annual cost and CO2 emissions being the first and second single objective optimization stages. The third stage was a multi objective optimization combining the earlier two single objectives. Later on, non-dominated solutions, i.e. Pareto solutions, were generated by obtaining several multi objective optimization scenarios based on the decision-makers’ preferences. Eventually, a decision-making approach was developed to help decision-makers in selecting a specific solution that best fits the designers’ or decision makers’ desires, based on the difference between the Utopia and Nadir values, i.e. total annual cost and CO2 emissions obtained at the single optimization stages. / Die Energieverbrauchsraten haben in den letzten Jahrzehnten auf globaler Ebene dramatisch zugenommen. Diese Erhöhung ist zu einem großen Teil in den jüngst hohen Temperaturniveaus, vor allem in der Sommerzeit, begründet, die einen starken Anstieg der Nachfrage nach Klimaanlagen verursachen. Solche Ereignisse sind deutlich in Entwicklungsländern zu beobachten, vor allem in heißen Klimaregionen, wo Menschen vor allem konventionelle Klimaanlagensysteme benutzen. Diese Systeme verfügen meist über eine ineffiziente Leistungsfähigkeit und wirken sich somit negativ auf die Umwelt aus, was wiederum zur globalen Erwärmung beiträgt. In den letzten Jahren ist die Nachfrage nach Stadt- oder Fernkältetechnologien und -Netzwerken als Alternative zu konventionellen Systemen aufgrund ihrer höheren Effizienz und besseren ökologischen Verträglichkeit satrk gestiegen. Ein effizientes Design für Fernkühlsysteme zu erhalten, ist allerdings eine komplexe Aufgabe, die die Integration einer breite Palette von Kühltechnologien, verschiedener Konfigurationsmöglichkeiten von Netzwerk-Layouts und unterschiedlicher Energiequellen erfordert. Hierfür ist das Treffen kritischer Entscheidungen hinsichtlich einer Vielzahl von Möglichkeiten, Optionen und Technologien unabdingbar. Das Hauptziel dieser Arbeit ist es, ein Werkzeug zu entwickeln, das vorläufige Design-Konfigurationen und Betriebsmuster für Fernkälteenergiesysteme liefert, indem aureichend detaillierte Optimierungen durchgeführt werden. Zudem soll auch ein Ansatz zur Entscheidungsfindung vorgestellt werden, der Entscheidungsträger in einem frühen Planungsstadium bei der Bewertung städtischer Kühlungssysteme hinsichtlich der wirtschaftlichen Aspekte und Umweltleistung unterstützen soll. Unterschiedliche Aspekte dieser Problemstellung wurden in der Literatur von verschiedenen Forschern untersucht. Eine kurze Analyse des derzeitigen Stands der Technik ergab, dass mathematische Programmiermodelle die am weitesten verbreitete und erfolgreichste Methode für die Konfiguration und Gestaltung von Kühlsystemen für städtische Gebiete sind. Ein weiteres Ergebnis der Analyse war die Festlegung von Mehrzieloptimierungs-Modelles für die Unterstützung des Entscheidungsprozesses. Darauf basierend wurde im Rahmen der vorliegenden Arbeit ein Mehrzieloptimierungs-Modell für die Lösung des komplexen Entscheidungsfindungsprozesses bei der Gestaltung eines Kühlsystems für ein Stadtgebiet oder einen Bezirk entwickelt. Das Modell zielt darauf ab, mehrere Elemente des Kühlsystems zu optimieren, wie beispielsweise Kühlnetzwerke, Kühltechnologien sowie Kapazität und Lage der Systemtechnik. Zusätzlich werden verschiedene Energiequellen, auch solare wie Solarkonzentratoren, Vakuum-Solarkollektoren und PV-Module, berücksichtigt. Das Modell wurde auf Basis der gemischt-ganzzahlig linearen Optimierung (MILP) entwickelt und in GAMS Sprache implementiert. Zwei Fallstudien wurden mit dem entwickelten Modell untersucht. Die erste Fallstudie besteht aus sieben Gebäuden, die ein Wohnviertel darstellen, während die zweite Fallstudie einen Universitätscampus dominiert von Nichtwohngebäuden repräsentiert. Die Untersuchung wurde für mehrere Gruppen von Szenarien durchgeführt, wobei bestimmte Designparameter und Betriebsbedingungen überprüft werden, wie zum Beispiel die zur Verfügung stehende Fläche, Lage der Kühlanlage, örtliche Restriktionen der Kältespeicherung, Rohrpreise, Investitionskosten, konstante und variable Stromtarife, Strategie zur Einbindung der Solarenergie, Verfügbarkeit von Abwärme, Strategien der Lastenverschiebung, und die Wirkung der Außentemperatur in heißen Regionen auf die Leistung des Kühlsystems. Die Untersuchung bestand aus drei Stufen, wobei die jährlichen Gesamtkosten und die CO2-Emissionen die erste und zweite Einzelzieloptimierungsstufe darstellen. Die dritte Stufe war ein Pareto-Optimierung, die die beiden ersten Ziele kombiniert. Im Anschluss wurden nicht-dominante Lösungen, also Pareto-Lösungen, erzeugt, indem mehrere Pareto-Optimierungs-Szenarien basierend auf den Präferenzen der Entscheidungsträger abgebildet wurden. Schließlich wurde ein Ansatz zur Entscheidungsfindung entwickelt, um Entscheidungsträger bei der Auswahl einer bestimmten Lösung zu unterstützen, die am besten den Präferenzen des Planers oder des Entscheidungsträgers enstpricht, basierend auf der Differenz der Utopia und Nadir Werte, d.h. der jährlichen Gesamtkosten und CO2-Emissionen, die Ergebnis der einzelnen Optimierungsstufen sind.
169

Density-Aware Linear Algebra in a Column-Oriented In-Memory Database System

Kernert, David 20 September 2016 (has links) (PDF)
Linear algebra operations appear in nearly every application in advanced analytics, machine learning, and of various science domains. Until today, many data analysts and scientists tend to use statistics software packages or hand-crafted solutions for their analysis. In the era of data deluge, however, the external statistics packages and custom analysis programs that often run on single-workstations are incapable to keep up with the vast increase in data volume and size. In particular, there is an increasing demand of scientists for large scale data manipulation, orchestration, and advanced data management capabilities. These are among the key features of a mature relational database management system (DBMS). With the rise of main memory database systems, it now has become feasible to also consider applications that built up on linear algebra. This thesis presents a deep integration of linear algebra functionality into an in-memory column-oriented database system. In particular, this work shows that it has become feasible to execute linear algebra queries on large data sets directly in a DBMS-integrated engine (LAPEG), without the need of transferring data and being restricted by hard disc latencies. From various application examples that are cited in this work, we deduce a number of requirements that are relevant for a database system that includes linear algebra functionality. Beside the deep integration of matrices and numerical algorithms, these include optimization of expressions, transparent matrix handling, scalability and data-parallelism, and data manipulation capabilities. These requirements are addressed by our linear algebra engine. In particular, the core contributions of this thesis are: firstly, we show that the columnar storage layer of an in-memory DBMS yields an easy adoption of efficient sparse matrix data types and algorithms. Furthermore, we show that the execution of linear algebra expressions significantly benefits from different techniques that are inspired from database technology. In a novel way, we implemented several of these optimization strategies in LAPEG’s optimizer (SpMachO), which uses an advanced density estimation method (SpProdest) to predict the matrix density of intermediate results. Moreover, we present an adaptive matrix data type AT Matrix to obviate the need of scientists for selecting appropriate matrix representations. The tiled substructure of AT Matrix is exploited by our matrix multiplication to saturate the different sockets of a multicore main-memory platform, reaching up to a speed-up of 6x compared to alternative approaches. Finally, a major part of this thesis is devoted to the topic of data manipulation; where we propose a matrix manipulation API and present different mutable matrix types to enable fast insertions and deletes. We finally conclude that our linear algebra engine is well-suited to process dynamic, large matrix workloads in an optimized way. In particular, the DBMS-integrated LAPEG is filling the linear algebra gap, and makes columnar in-memory DBMS attractive as efficient, scalable ad-hoc analysis platform for scientists.
170

Exploring flexibility and context dependency in the mycobacterial central carbon metabolism

Tummler, Katja 11 May 2017 (has links)
Tuberkulose ist auch heute noch eine der bedrohlichsten Infektionskrankheiten weltweit, verantwortlich für über 1.5 Millionen Todesfälle jährlich. Diese „Erfolgsgeschichte“ ihres Erregers Mycobacterium tuberculosis ist dabei wesentlich durch einen extrem flexiblen Stoffwechsel bestimmt, der dem Bakterium das Wachstum unter den restriktiven Bedingungen der menschlichen Wirtszelle erlaubt. Diese Arbeit erkundet die Flexibilität des zentralen Kohlenstoffmetabolismus in Mykobakterien mit Hilfe mathematischer Modellierungsansätze, ergänzt durch die Integration von qualitativ hochwertigen experimentellen Daten. Ausgehend von einem Überblick über die metabolische Landschaft des zentralen Kohlenstoffmetabolismus, erhöht sich Schritt für Schritt die Detailtiefe bis hin zur genauen Analyse spezieller infektionsrelevanter metabolischer Wege. Die Verknüpfung des zentralen Kohlenstoffmetabolismus zu umgebenden Stoffwechsel- und Biosynthesewegen wird systematisch offen gelegt, als Voraussetzung für eine thermodynamische Charakterisierung des Systems, welche die Glykolyse als limitierenden Stoffwechselweg unter verschiedenen Wachstumsbedingungen charakterisiert. Basierend auf Protein- und Metabolitdaten im Fleißgleichgewicht, erlaubt eine neu vorgestellte Methode die Vorhersage regulatorischer Punkte für den metabolischen Übergang zwischen verschiedenen Kohlenstoffquellen. Abschließend wird mit Hilfe thermodynamisch-kinetischer Modellierung das Zusammenspiel zweier Stoffwechselwege mechanistisch erklärt, welche den robusten Abbau einer intrazellulären Kohlenstoffquelle ermöglichen. Durch die Entwicklung neuer Modellierungstechniken in Kombination mit hochauflösenden experimentellen Daten, trägt diese Arbeit zum besseren Verständnis der kontextabhängigen Flexibilität des mycobakteriellen Stoffwechsels bei, einem vielversprechenden Angriffspunkt für die Entwicklung neuer Medikamente gegen Tuberkulose. / Tuberculosis remains one of the major global health threats responsible for over 1.5 million deaths each year. This ’success story’ of the causative agent Mycobacterium tuberculosis is thereby closely linked to a flexible metabolism, allowing growth despite the restrictive conditions within the human host. In this thesis, the flexibility of the mycobacterial central carbon metabolism is explored by modeling approaches integrating high-quality experimental data. The analyses zoom in from a network based view to the detailed functionalities of individual, virulence relevant pathways. The interconnection of the central carbon metabolism to the remaining metabolic network is charted as a prerequisite to characterize its thermodynamic landscape, debunking glycolysis as bottleneck in different nutritional conditions. Based on steady state metabolomics and proteomics data, regulatory sites for the metabolic transition between different carbon sources are predicted by a novel method. Finally, the flexible interplay between two seemingly redundant pathways for the catabolism of an in vivo-like carbon source is explained mechanistically by means of thermodynamic-kinetic modeling. By employing novel modeling methods in combination with high-resolution experimental data, this work adds to the mechanistic understanding of the context dependent flexibility of mycobacterial metabolism, an important target for the development of novel drugs in the battle against tuberculosis.

Page generated in 0.0786 seconds