• Refine Query
• Source
• Publication year
• to
• Language
• 46
• 12
• 4
• Tagged with
• 62
• 58
• 49
• 29
• 28
• 28
• 20
• 12
• 10
• 9
• 9
• 9
• 9
• 8
• 7
• The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

#### The complexity of membership problems for finite recurrent systems and minimal triangulations / Die Komplexität der Enthaltenseinprobleme für rekurrente Systeme und minimale Triangulationen

Meister, Daniel January 2006 (has links) (PDF)
The dissertation thesis studies the complexity of membership problems. Generally, membership problems consider the question whether a given object belongs to a set. Object and set are part of the input. The thesis studies the complexity of membership problems for two special kinds of sets. The first problem class asks whether a given natural number belongs to a set of natural numbers. The set of natural numbers is defined via finite recurrent systems: sets are built by iterative application of operations, like union, intersection, complementation and arithmetical operations, to already defined sets. This general problem implies further problems by restricting the set of used operations. The thesis contains completeness results for well-known complexity classes as well as undecidability results for these problems. The second problem class asks whether a given graph is a minimal triangulation of another graph. A graph is a triangulation of another graph, if it is a chordal spanning supergraph of the second graph. If no proper supergraph of the first graph is a triangulation of the second graph, the first graph is a minimal triangulation of the second graph. The complexity of the membership problem for minimal triangulations of several graph classes is investigated. Restricted variants are solved by linear-time algorithms. These algorithms rely on appropriate characterisations of minimal triangulations. / Die Dissertation beschäftigt sich mit der Komplexität von Enthaltenseinproblemen. Allgemein gesprochen, interessieren sich Enthaltenseinprobleme für die Frage, ob ein gegebenes Objekt zu einer Menge gehört. Sowohl Objekt als auch Menge sind Teil der Eingabe. Die Arbeit untersucht die Komplexität dieser Fragestellung für zwei konkrete Mengenklassen. Zum ersten soll entschieden werden, ob eine natürliche Zahl zu einer Menge natürlicher Zahlen gehört. Entscheidend für die Komplexität dieses Problems ist die Darstellung der Menge natürlicher Zahlen. Es werden rekurrente Systeme verwendet, die Mengen natürlicher Zahlen durch iterierte Anwendung einfacher Operationen, wie die drei Mengenoperationen Vereinigung, Durchschnitt, Komplementbildung und arithmetische Operationen, auf bereits konstruierte Mengen definieren. Beschränkt man die Menge verwendeter Operationen, ergibt sich eine Vielzahl von Problemen, deren Komplexitäten bestimmt werden. Es werden Vollständigkeitsresultate für bekannte Komplexitätsklassen wie auch Unentscheidbarkeit gezeigt. Zum zweiten soll entschieden werden, ob ein Graph eine minimale Triangulation eines anderen Graphen ist. Ein Graph ist Triangulation eines anderen Graphen, wenn er ein chordaler aufspannender Obergraph des zweiten Graphen ist. Ist kein echter Obergraph des ersten Graphen eine Triangulation des zweiten Graphen, so ist der erste Graph eine minimale Triangulation des zweiten Graphen. Ein Graph kann mehrere minimale Triangulationen besitzen. Untersucht wird die Komplexität des Enthaltenseinproblems für minimale Triangulationen für verschiedene Graphenklassen, und es werden Linearzeitalgorithmen zur Lösung einer eingeschränkten Variante des jeweiligen Problems angegeben. Die Algorithmen basieren alle auf geeigneten Charakterisierungen minimaler Triangulationen.
2

#### Structural Properties of NP-Hard Sets and Uniform Characterisations of Complexity Classes / Strukturelle Eigenschaften NP-harter Mengen und uniforme Charakterisierungen von Komplexitätsklassen

Travers, Stephen January 2007 (has links) (PDF)
This thesis is devoted to the study of computational complexity theory, a branch of theoretical computer science. Computational complexity theory investigates the inherent difficulty in designing efficient algorithms for computational problems. By doing so, it analyses the scalability of computational problems and algorithms and places practical limits on what computers can actually accomplish. Computational problems are categorised into complexity classes. Among the most important complexity classes are the class NP and the subclass of NP-complete problems, which comprises many important optimisation problems in the field of operations research. Moreover, with the P-NP-problem, the class NP represents the most important unsolved question in computer science. The first part of this thesis is devoted to the study of NP-complete-, and more generally, NP-hard problems. It aims at improving our understanding of this important complexity class by systematically studying how altering NP-hard sets affects their NP-hardness. This research is related to longstanding open questions concerning the complexity of unions of disjoint NP-complete sets, and the existence of sparse NP-hard sets. The second part of the thesis is also dedicated to complexity classes but takes a different perspective: In a sense, after investigating the interior of complexity classes in the first part, the focus shifts to the description of complexity classes and thereby to the exterior in the second part. It deals with the description of complexity classes through leaf languages, a uniform framework which allows us to characterise a great variety of important complexity classes. The known concepts are complemented by a new leaf-language model. To a certain extent, this new approach combines the advantages of the known models. The presented results give evidence that the connection between the theory of formal languages and computational complexity theory might be closer than formerly known. / Diese Dissertation behandelt die Komplexitätstheorie, ein zentrales Teilgebiet der Theoretischen Informatik. Die Komplexitätstheorie untersucht die inhärente Schwierigkeit, effiziente Algorithmen für Berechnungsprobleme zu entwerfen. Sie analysiert die Skalierbarkeit von Berechnungsproblemen und Algorithmen und stellt grundsätzliche Grenzen für die Leistungsfähigkeit von Computern auf. Berechnungsprobleme werden in Komplexitätsklassen kategorisiert. Dabei spielen die Klasse NP und die in ihr enthaltene Klasse der NP-vollständigen Probleme eine wichtige Rolle. Letztere umfasst zahlreiche in der Praxis bedeutsame Probleme aus dem Bereich Operations Research. Darüber hinaus repräsentiert die Klasse NP mit dem P-NP Problem gleichfalls das wichtigste ungelöste Problem in der Informatik. Der erste Teil dieser Dissertation ist der Untersuchung NP-vollständiger und noch allgemeiner, NP-harter Mengen gewidmet. Durch eine systematische Untersuchung der Frage, wie sich partielle Modifikationen von Mengen auf deren NP-Härte auswirken, soll das Verständnis dieser wichtigen Komplexitätsklasse verbessert werden. Die Untersuchungen in diesem Bereich stehen in enger Verbindung zu wichtigen ungelösten Fragen, wie beispielsweise der Frage nach der Komplexität von Vereinigungen disjunkter NP-vollständiger Mengen und darüber hinaus der Frage nach der Existenz dünner, NP-harter Mengen. Der zweite Teil der Dissertation beschäftigt sich ebenfalls mit der Komplexitätstheorie, nimmt dabei aber eine andere Perspektive ein: Während im ersten Teil mit der Untersuchung struktureller Eigenschaften innere Aspekte von Komplexitätsklassen im Vordergrund stehen dreht es sich im zweiten Teil um die Beschreibung von Komplexitätsklassen. Dabei werden so genannte Blattsprachen verwendet, welche einen uniformen Beschreibungsmechanismus für Komplexitätsklassen darstellen. Die bestehenden Blattsprachen-Konzepte werden durch einen neuen Ansatz ergänzt, der in einem gewissen Sinne die Vorteile der bekannten Ansätze vereint. Die erzielten Ergebnisse sind Evidenz dafür, dass die Verbindung zwischen der Theorie der formalen Sprachen und der Komplexitätstheorie noch enger ist als bislang vermutet.
3

#### Menschlicher Fehler: Über den Sinn und die Folgen einer Suche nach einfachen Ursachen in komplexen Systemen

Müller, Romy 09 December 2019 (has links)
No description available.
4

#### Constrained Graph Layouts: Vertices on the Outer Face and on the Integer Grid / Graphzeichnen unter Nebenbedingungen: Knoten auf der Außenfacette und mit ganzzahligen Koordinaten

Löffler, Andre January 2021 (has links) (PDF)
Constraining graph layouts - that is, restricting the placement of vertices and the routing of edges to obey certain constraints - is common practice in graph drawing. In this book, we discuss algorithmic results on two different restriction types: placing vertices on the outer face and on the integer grid. For the first type, we look into the outer k-planar and outer k-quasi-planar graphs, as well as giving a linear-time algorithm to recognize full and closed outer k-planar graphs Monadic Second-order Logic. For the second type, we consider the problem of transferring a given planar drawing onto the integer grid while perserving the original drawings topology; we also generalize a variant of Cauchy's rigidity theorem for orthogonal polyhedra of genus 0 to those of arbitrary genus. / Das Einschränken von Zeichnungen von Graphen, sodass diese bestimmte Nebenbedingungen erfüllen - etwa solche, die das Platzieren von Knoten oder den Verlauf von Kanten beeinflussen - sind im Graphzeichnen allgegenwärtig. In dieser Arbeit befassen wir uns mit algorithmischen Resultaten zu zwei speziellen Einschränkungen, nämlich dem Platzieren von Knoten entweder auf der Außenfacette oder auf ganzzahligen Koordinaten. Für die erste Einschränkung untersuchen wir die außen k-planaren und außen k-quasi-planaren Graphen und geben einen auf monadische Prädikatenlogik zweiter Stufe basierenden Algorithmus an, der überprüft, ob ein Graph voll außen k-planar ist. Für die zweite Einschränkung untersuchen wir das Problem, eine gegebene planare Zeichnung eines Graphen auf das ganzzahlige Koordinatengitter zu transportieren, ohne dabei die Topologie der Zeichnung zu verändern; außerdem generalisieren wir eine Variante von Cauchys Starrheitssatz für orthogonale Polyeder von Geschlecht 0 auf solche von beliebigem Geschlecht.
5

#### Organisatorische Unterstützung der Produktentwicklung mit SysML-Modellen

Paetzold, Kristin 10 December 2016 (has links) (PDF)
Aus der Einleitung: "In der Entwicklung technischer Produkte sind die Entwickler mit einer zunehmenden Komplexität der Produkte konfrontiert. Die Komplexität hat unterschiedliche Ursachen, wie bspw. eine höhere Anzahl an Anforderungen, eine steigende Anzahl an unterschiedlichen beteiligten Domänen oder eine kürzere Entwicklungszeit. Zusätzlich muss bereits während der Entwicklung der gesamte Lebenszyklus des Produkts bis zur Entsorgung beachtet werden. ..."
6

Smirnov, Sergey January 2011 (has links)
7

#### Temporalised Description Logics for Monitoring Partially Observable Events

Lippmann, Marcel 09 July 2014 (has links) (PDF)
Inevitably, it becomes more and more important to verify that the systems surrounding us have certain properties. This is indeed unavoidable for safety-critical systems such as power plants and intensive-care units. We refer to the term system in a broad sense: it may be man-made (e.g. a computer system) or natural (e.g. a patient in an intensive-care unit). Whereas in Model Checking it is assumed that one has complete knowledge about the functioning of the system, we consider an open-world scenario and assume that we can only observe the behaviour of the actual running system by sensors. Such an abstract sensor could sense e.g. the blood pressure of a patient or the air traffic observed by radar. Then the observed data are preprocessed appropriately and stored in a fact base. Based on the data available in the fact base, situation-awareness tools are supposed to help the user to detect certain situations that require intervention by an expert. Such situations could be that the heart-rate of a patient is rather high while the blood pressure is low, or that a collision of two aeroplanes is about to happen. Moreover, the information in the fact base can be used by monitors to verify that the system has certain properties. It is not realistic, however, to assume that the sensors always yield a complete description of the current state of the observed system. Thus, it makes sense to assume that information that is not present in the fact base is unknown rather than false. Moreover, very often one has some knowledge about the functioning of the system. This background knowledge can be used to draw conclusions about the possible future behaviour of the system. Employing description logics (DLs) is one way to deal with these requirements. In this thesis, we tackle the sketched problem in three different contexts: (i) runtime verification using a temporalised DL, (ii) temporalised query entailment, and (iii) verification in DL-based action formalisms.
8

#### Fuzzy Description Logics with General Concept Inclusions

Borgwardt, Stefan 01 July 2014 (has links) (PDF)
Description logics (DLs) are used to represent knowledge of an application domain and provide standard reasoning services to infer consequences of this knowledge. However, classical DLs are not suited to represent vagueness in the description of the knowledge. We consider a combination of DLs and Fuzzy Logics to address this task. In particular, we consider the t-norm-based semantics for fuzzy DLs introduced by Hájek in 2005. Since then, many tableau algorithms have been developed for reasoning in fuzzy DLs. Another popular approach is to reduce fuzzy ontologies to classical ones and use existing highly optimized classical reasoners to deal with them. However, a systematic study of the computational complexity of the different reasoning problems is so far missing from the literature on fuzzy DLs. Recently, some of the developed tableau algorithms have been shown to be incorrect in the presence of general concept inclusion axioms (GCIs). In some fuzzy DLs, reasoning with GCIs has even turned out to be undecidable. This work provides a rigorous analysis of the boundary between decidable and undecidable reasoning problems in t-norm-based fuzzy DLs, in particular for GCIs. Existing undecidability proofs are extended to cover large classes of fuzzy DLs, and decidability is shown for most of the remaining logics considered here. Additionally, the computational complexity of reasoning in fuzzy DLs with semantics based on finite lattices is analyzed. For most decidability results, tight complexity bounds can be derived.
9

#### Entwicklung eines Modelica Compiler BackEnds für große Modelle / Development of a Modelica Compiler BackEnd for Large Models

Frenkel, Jens 03 February 2014 (has links) (PDF)
Die symbolische Aufbereitung mathematischer Modelle ist eine wesentliche Voraussetzung, um die Dynamik komplexer physikalischer Systeme mit Hilfe numerischer Simulationen zu untersuchen. Deren Modellierung mit gleichungsbasierten objektorientierten Sprachen bietet gegenüber der signalflussbasierenden Modellierung den Vorteil, dass die sich aus der Mathematik und Physik ergebenden Gleichungen in ihrer ursprünglichen Form zur Modellbeschreibung verwendet werden können. Die akausale Beschreibung mit Gleichungen erhöht die Wiederverwendbarkeit der Modelle und reduziert den Aufwand bei der Modellierung. Die automatisierte Überführung der Gleichungen in Zuweisungen lässt sich theoretisch auf Modelle beliebiger Größe und Komplexität anwenden. In der praktischen Anwendung ergeben sich jedoch, insbesondere bei der automatisierten Überführung großer Modelle, mathematische Systeme mit sehr vielen Gleichungen und zeitabhängigen Variablen. Die daraus resultierenden langen Ausführungszeiten schränken die Anwendbarkeit der symbolischen Aufbereitung erheblich ein. Die vorliegende Arbeit beschreibt den Prozess der automatisierten Überführung eines Modells bis zur numerischen Simulation. Alle Teilschritte werden detailliert untersucht und bezüglich ihrer theoretischen Komplexität bewertet. Geeignete Algorithmen werden im OpenModelica Compiler umgesetzt und bezüglich ihrer Laufzeit anhand praxisrelevanter Modelle miteinander verglichen und für jeden Teilschritt die beste Implementierung ausgewählt. Dadurch konnte ein nahezu linearer Zusammenhang zwischen Modellgröße und benötigter Zeit zur Überführung erreicht werden. Zusätzlich bietet die Arbeit eine umfassende Dokumentation mit zahlreichen Empfehlungen für die Implementierung eines BackEnds eines Modelica Compilers. Dies erleichtert den Einstieg für neue Entwickler sowie die Weiterentwicklung bestehender Algorithmen. Letzteres wird durch ein modulares Konzept einer BackEnd-Pipeline unterstützt. Außerdem werden Methoden diskutiert, wie ein neues Modul innerhalb dieser Pipeline effizient getestet werden kann. / The symbolic treatment of mathematical models is essential to study the dynamics of complex physical systems by means of numerical simulations. In contrast to signal flow based approaches, modeling with equation-based and object-oriented languages has the advantage that the original equations can be used directly. The acausal description of equations increases reusability and reduces the effort for the modeller. The automated transformation of equations into assignments can in theory be applied to models of any size and complexity. In practice, however, problems arise when large models, i.e. mathematical systems with many equations and time-dependent variables, shall be transformed. Long execution times that occur limit the applicability of symbolic processing considerably. The present work describes the process of automated transformation from a model to program code which can be simulated numerically. All steps are examined in detail and evaluated in terms of its theoretical complexity. Suitable algorithms are implemented in the OpenModelica Compiler. Their execution times are compared by looking at models which are relevant to engineering. The best implementations for each sub-step are selected and combined to a Modelica Compiler BackEnd. Thus a relationship between model size and the time needed for transformation has been achieved which is mostly linear. In addition, a comprehensive discussion with numerous recommendations for the implementation of a Modelica Compiler BackEnd is given. This is supposed to help new developers as well as to facilitate the development of existing algorithms. The latter is supported by a modular concept of a BackEnd pipeline. Moreover, methods are discussed how new modules can be tested efficiently using this pipeline.
10

#### Disrupting linear models of mathematics teaching|learning

Graves, Barbara, Suurtamm, Christine 13 April 2012 (has links) (PDF)
In this workshop we present an innovative teaching, learning and research setting that engages beginning teachers in mathematical inquiry as they investigate, represent and connect mathematical ideas through mathematical conversation, reasoning and argument. This workshop connects to the themes of teacher preparation and teaching through problem solving. Drawing on new paradigms to think about teaching and learning, we orient our work within complexity theory (Davis & Sumara, 2006; Holland, 1998; Johnson, 2001; Maturana & Varela, 1987; Varela, Thompson & Rosch, 1991) to understand teaching|learning as a complex iterative process through which opportunities for learning arise out of dynamic interactions. Varela, Thompson and Rosch, (1991) use the term co-emergence to understand how the individual and the environment inform each other and are “bound together in reciprocal specification and selection” (p.174). In particular we are interested in the conditions that enable the co-emergence of teaching|learning collectives that support the generation of new mathematical and pedagogical ideas and understandings. The setting is a one-week summer math program designed for prospective elementary teachers to deepen particular mathematical concepts taught in elementary school. The program is facilitated by recently graduated secondary mathematics teachers to provide them an opportunity to experience mathematics teaching|learning through rich problems. The data collected include questionnaires, interviews, and video recordings. Our analyses show that many a-ha moments of mathematical and pedagogical insight are experienced by both groups as they work together throughout the week. In this workshop we will actively engage the audience in an exploration of the mathematics problems that we pose in this unique teaching|learning environment. We will present our data on the participants’ mathematical and pedagogical responses and open a discussion of the implications of our work.

Page generated in 0.1385 seconds