• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • 1
  • Tagged with
  • 9
  • 7
  • 6
  • 4
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Transferpotenziale der Digitalisierung: eine strukturierte Analyse der Planung und Fertigung der Automobilindustrie vs. der Baubranche

Spangenberg, Eric 25 August 2021 (has links)
Im Rahmen der Bachelorarbeit wurden die Organisations- als auch Prozessstrukturen der Automobil- sowie der Bauindustrie analysiert und in Bezug zueinander gesetzt. Der Schwerpunkt der Untersuchung lag dabei auf der Offenlegung von Digitalisierungsstrategien, die sich in der fertigenden Industrie bereits erfolgreich durchgesetzt haben, sowie deren Transferpotenziale für Unternehmen der Baubranche in Bezug auf die vorherrschenden Rahmenbedingungen für eine nachhaltige Veränderung des Bauprozesses. Im Fokus standen vor allem Fertigungs- und Planungsprozesse sowie die zu erwartenden Nutzeffekte, die ein erhöhter Digitalisierungsgrad dieser mit sich bringen kann. Die dargestellten Transferpotenziale können als Grundlage für weitere praxis-orientierte Untersuchungen genutzt werden, um einen ganzheitlichen als auch nachhaltigen Planungs- und Bauprozess zu ermöglichen.:1. Einleitung 1.1 Problemstellung 1.2 Ziele und Struktur der Arbeit 2. Digitalisierung – Treiber des Wandels in der Wirtschaft 2.1 Entwicklung der Digitalisierung 2.2 Begriffsbestimmung 2.3 Industrie 4.0 2.3.1 Begriffsdefinition 2.3.2 Ziele von Industrie 4.0 2.3.3 Technologiefelder und Konzepte 3. Digitalisierungsstand in der Automobilindustrie 3.1 Organisationsstruktur 3.2 Prozessstrukturen 3.2.1 Produktentstehungsprozess 3.2.2 Kundenauftragsprozess 3.2.3 Serviceprozesse 3.2.4 Strategie und Unterstützungsprozesse 3.3 Umsetzung der Digitalisierungsstrategien in der Automobilindustrie 3.3.1 Voraussetzungen für die Umsetzung von Digitalisierungsstrategien 3.3.2 Umsetzung: Cyber-Physische-Systeme 3.3.3 Umsetzung: Vernetzung 3.3.4 Umsetzung: Big Data 3.3.5 Umsetzung: Digitalisierung 4. Digitalisierung in der Baubranche 4.1 Organisationsstruktur 4.2 Prozessstrukturen 4.2.1 Planungsprozesse 4.2.2 Bauausführungsprozesse 4.3 Digitalisierungsstand im Baugewerbe 5. Transferpotenziale der Digitalisierungsstrategien in die Baubranche 5.1 Vergleich der Rahmenbedingungen der Automobil- und Bauindustrie 5.2 Umsetzungsmöglichkeiten von Digitalisierungsstrategien in der Bauindustrie 5.3 Nutzeffekte und Adaptionsbarrieren 6. Fazit
2

Towards Effective Symbolic Execution

Nowack, Martin 15 April 2024 (has links)
Symbolic execution is an effective method to analyse an application's properties thoroughly, based on the idea of analysing every control flow path an application can take. Although symbolic execution has many different use cases, it suffers from two main challenges: the state space explosion problem and the computationally expensive solving of constraints collected along the paths. The primary goal of this thesis is to tackle both issues and improve the applicability of symbolic execution, i.e., allowing larger and more complex applications to be analysed by symbolic execution. This work will focus on C and C++ as languages for systems programming. Moreover, this work heavily builds on KLEE --- a symbolic execution engine based on the LLVM framework. We took on the challenge of managing the memory used by symbolic execution more efficiently. If an application is tested, symbolic execution tracks its memory. Due to the state space explosion problem, dynamic symbolic execution must handle many states simultaneously. Choosing the right granularity of tracked memory changes will positively impact symbolic execution's performance and memory utilisation. While constraint solving is one computationally expensive part of symbolic execution, incremental solving is an effective method for SMT and SAT solving to reuse existing solutions and speed up the solving process. Unfortunately, utilising this approach is less straightforward in symbolic execution as it hinders different optimisations and caching strategies used by symbolic execution. We introduce a technique that nevertheless helps to combine these methods efficiently. Furthermore, we researched how a multi-threaded symbolic execution engine can efficiently utilise process-local resources, avoiding inter-process communication. We mainly focus on the shared use of solver queries across threads by separating shared and common query constraints and re-using the latter results more efficiently across multiple queries. Besides the general challenges of symbolic execution, we found it difficult to evaluate the improvement we made along with this work. While partially caused by our learning process, we found that symbolic execution and its state-space explosion problem make it hard to compare contributions in this field and assess their impact. Therefore, we came up with Deterministic State-Space Exploration that improves this process.
3

Skalierbare Ausführung von Prozessanwendungen in dienstorientierten Umgebungen

Preißler, Steffen 19 November 2012 (has links) (PDF)
Die Strukturierung und Nutzung von unternehmensinternen IT-Infrastrukturen auf Grundlage dienstorientierter Architekturen (SOA) und etablierter XML-Technologien ist in den vergangenen Jahren stetig gewachsen. Lag der Fokus anfänglicher SOA-Realisierungen auf der flexiblen Ausführung klassischer, unternehmensrelevanter Geschäftsprozesse, so bilden heutzutage zeitnahe Datenanalysen sowie die Überwachung von geschäftsrelevanten Ereignissen weitere wichtige Anwendungsklassen, um sowohl kurzfristig Probleme des Geschäftsablaufes zu identifizieren als auch um mittel- und langfristige Veränderungen im Markt zu erkennen und die Geschäftsprozesse des Unternehmens flexibel darauf anzupassen. Aufgrund der geschichtlich bedingten, voneinander unabhängigen Entwicklung der drei Anwendungsklassen, werden die jeweiligen Anwendungsprozesse gegenwärtig in eigenständigen Systemen modelliert und ausgeführt. Daraus resultiert jedoch eine Reihe von Nachteilen, welche diese Arbeit aufzeigt und ausführlich diskutiert. Vor diesem Hintergrund beschäftigte sich die vorliegende Arbeit mit der Ableitung einer konsolidierten Ausführungsplattform, die es ermöglicht, Prozesse aller drei Anwendungsklassen gemeinsam zu modellieren und in einer SOA-basierten Infrastruktur effizient auszuführen. Die vorliegende Arbeit adressiert die Probleme einer solchen konsolidierten Ausführungsplattform auf den drei Ebenen der Dienstkommunikation, der Prozessausführung und der optimalen Verteilung von SOA-Komponenten in einer Infrastruktur.
4

Model-driven engineering of adaptation engines for self-adaptive software : executable runtime megamodels

Vogel, Thomas, Giese, Holger January 2013 (has links)
The development of self-adaptive software requires the engineering of an adaptation engine that controls and adapts the underlying adaptable software by means of feedback loops. The adaptation engine often describes the adaptation by using runtime models representing relevant aspects of the adaptable software and particular activities such as analysis and planning that operate on these runtime models. To systematically address the interplay between runtime models and adaptation activities in adaptation engines, runtime megamodels have been proposed for self-adaptive software. A runtime megamodel is a specific runtime model whose elements are runtime models and adaptation activities. Thus, a megamodel captures the interplay between multiple models and between models and activities as well as the activation of the activities. In this article, we go one step further and present a modeling language for ExecUtable RuntimE MegAmodels (EUREMA) that considerably eases the development of adaptation engines by following a model-driven engineering approach. We provide a domain-specific modeling language and a runtime interpreter for adaptation engines, in particular for feedback loops. Megamodels are kept explicit and alive at runtime and by interpreting them, they are directly executed to run feedback loops. Additionally, they can be dynamically adjusted to adapt feedback loops. Thus, EUREMA supports development by making feedback loops, their runtime models, and adaptation activities explicit at a higher level of abstraction. Moreover, it enables complex solutions where multiple feedback loops interact or even operate on top of each other. Finally, it leverages the co-existence of self-adaptation and off-line adaptation for evolution. / Die Entwicklung selbst-adaptiver Software erfordert die Konstruktion einer sogenannten "Adaptation Engine", die mittels Feedbackschleifen die unterliegende Software steuert und anpasst. Die Anpassung selbst wird häufig mittels Laufzeitmodellen, die die laufende Software repräsentieren, und Aktivitäten wie beispielsweise Analyse und Planung, die diese Laufzeitmodelle nutzen, beschrieben. Um das Zusammenspiel zwischen Laufzeitmodellen und Aktivitäten systematisch zu erfassen, wurden Megamodelle zur Laufzeit für selbst-adaptive Software vorgeschlagen. Ein Megamodell zur Laufzeit ist ein spezielles Laufzeitmodell, dessen Elemente Aktivitäten und andere Laufzeitmodelle sind. Folglich erfasst ein Megamodell das Zusammenspiel zwischen verschiedenen Laufzeitmodellen und zwischen Aktivitäten und Laufzeitmodellen als auch die Aktivierung und Ausführung der Aktivitäten. Darauf aufbauend präsentieren wir in diesem Artikel eine Modellierungssprache für ausführbare Megamodelle zur Laufzeit, EUREMA genannt, die aufgrund eines modellgetriebenen Ansatzes die Entwicklung selbst-adaptiver Software erleichtert. Der Ansatz umfasst eine domänen-spezifische Modellierungssprache und einen Laufzeit-Interpreter für Adaptation Engines, insbesondere für Feedbackschleifen. EUREMA Megamodelle werden über die Spezifikationsphase hinaus explizit zur Laufzeit genutzt, um mittels Interpreter Feedbackschleifen direkt auszuführen. Zusätzlich können Megamodelle zur Laufzeit dynamisch geändert werden, um Feedbackschleifen anzupassen. Daher unterstützt EUREMA die Entwicklung selbst-adaptiver Software durch die explizite Spezifikation von Feedbackschleifen, der verwendeten Laufzeitmodelle, und Adaptionsaktivitäten auf einer höheren Abstraktionsebene. Darüber hinaus ermöglicht EUREMA komplexe Lösungskonzepte, die mehrere Feedbackschleifen und deren Interaktion wie auch die hierarchische Komposition von Feedbackschleifen umfassen. Dies unterstützt schließlich das integrierte Zusammenspiel von Selbst-Adaption und Wartung für die Evolution der Software.
5

Skalierbare Ausführung von Prozessanwendungen in dienstorientierten Umgebungen

Preißler, Steffen 25 October 2012 (has links)
Die Strukturierung und Nutzung von unternehmensinternen IT-Infrastrukturen auf Grundlage dienstorientierter Architekturen (SOA) und etablierter XML-Technologien ist in den vergangenen Jahren stetig gewachsen. Lag der Fokus anfänglicher SOA-Realisierungen auf der flexiblen Ausführung klassischer, unternehmensrelevanter Geschäftsprozesse, so bilden heutzutage zeitnahe Datenanalysen sowie die Überwachung von geschäftsrelevanten Ereignissen weitere wichtige Anwendungsklassen, um sowohl kurzfristig Probleme des Geschäftsablaufes zu identifizieren als auch um mittel- und langfristige Veränderungen im Markt zu erkennen und die Geschäftsprozesse des Unternehmens flexibel darauf anzupassen. Aufgrund der geschichtlich bedingten, voneinander unabhängigen Entwicklung der drei Anwendungsklassen, werden die jeweiligen Anwendungsprozesse gegenwärtig in eigenständigen Systemen modelliert und ausgeführt. Daraus resultiert jedoch eine Reihe von Nachteilen, welche diese Arbeit aufzeigt und ausführlich diskutiert. Vor diesem Hintergrund beschäftigte sich die vorliegende Arbeit mit der Ableitung einer konsolidierten Ausführungsplattform, die es ermöglicht, Prozesse aller drei Anwendungsklassen gemeinsam zu modellieren und in einer SOA-basierten Infrastruktur effizient auszuführen. Die vorliegende Arbeit adressiert die Probleme einer solchen konsolidierten Ausführungsplattform auf den drei Ebenen der Dienstkommunikation, der Prozessausführung und der optimalen Verteilung von SOA-Komponenten in einer Infrastruktur.
6

Heterogeneity-Aware Operator Placement in Column-Store DBMS

Karnagel, Tomas, Habich, Dirk, Schlegel, Benjamin, Lehner, Wolfgang 02 February 2023 (has links)
Due to the tremendous increase in the amount of data efficiently managed by current database systems, optimization is still one of the most challenging issues in database research. Today’s query optimizer determine the most efficient composition of physical operators to execute a given SQL query, whereas the underlying hardware consists of a multi-core CPU. However, hardware systems are more and more shifting towards heterogeneity, combining a multi-core CPU with various computing units, e.g., GPU or FPGA cores. In order to efficiently utilize the provided performance capability of such heterogeneous hardware, the assignment of physical operators to computing units gains importance. In this paper, we propose a heterogeneity-aware physical operator placement strategy (HOP) for in-memory columnar database systems in a heterogeneous environment. Our placement approach takes operators from the physical query execution plan as an input and assigns them to computing units using a cost model at runtime. To enable this runtime decision, our cost model uses the characteristics of the computing units, execution properties of the operators, as well as runtime data to estimate execution costs for each unit. We evaluated our approach on full TPC-H queries within a prototype database engine. As we are going to show, the placement in a heterogeneous hardware system has a high influence on query performance.
7

Optimal Trading with Multiplicative Transient Price Impact for Non-Stochastic or Stochastic Liquidity

Frentrup, Peter 28 October 2019 (has links)
Diese Arbeit untersucht eine Reihe multiplikativer Preiseinflussmodelle für das Handeln in einer riskanten Anlage. Unser risikoneutraler Investor versucht seine zu erwartenden Handelserlöse zu maximieren. Zunächst modellieren wir den vorübergehende Preiseinfluss als deterministisches Funktional der Handelsstrategie. Wir stellen den Zusammenhang mit Limit-Orderbüchern her und besprechen die optimale Strategie zum Auf- bzw. Abbau einer Anlageposition bei a priori unbeschränkem Anlagehorizont. Anschließend lösen wir das Optimierungsproblem mit festem Anlagehorizon in zwei Schritten. Mittels Variationsrechnung lässt sich die freie Grenzefläche, die Kauf- und Verkaufsregionen trennt, als lokales Optimum identifizieren, was entscheidend für die Verifikation globaler Optimalität ist. Im zweiten Teil der Arbeit erweitern wir den zwischengeschalteten Markteinflussprozess um eine stochastische Komponente, wodurch optimale Strategien dynamisch an zufällige Liquiditätsschwankungen adaptieren. Wir bestimmen die optimale Liquidierungsstrategie im zeitunbeschränkten Fall als die reflektierende Lokalzeit, die den Markteinfluss unterhalb eines explizit beschriebenen nicht-konstanten Grenzlevels hält. Auch dieser Beweis kombiniert Variationsrechnung und direkten Methoden. Um nun eine Zeitbeschränkung zu ermöglichen, müssen wir Semimartingalstrategien zulassen. Skorochods M1-Toplogie ist der Schlüssel, um die Klasse der möglichen Strategien in einer umfangreichen Familie von Preiseinflussmodellen, welche sowohl additiven, als auch multiplikativen Preiseinfluss umfasst, mit deterministischer oder stochastischer Liquidität, eindeutig von endlichen Variations- auf allgemeine càdlàg Strategien zu erweitern. Nach Einführung proportionaler Transaktionskosten lösen wir das entsprechende eindimensionale freie Grenzproblem des optimalen unbeschränkten Handels und beleuchten mögliche Lösungsansätze für das Liquidierungsproblem, das mit dem Verkauf der letzten Anleihe endet. / In this thesis, we study a class of multiplicative price impact models for trading a single risky asset. We model price impact to be multiplicative so that prices are guaranteed to stay non-negative. Our risk-neutral large investor seeks to maximize expected gains from trading. We first introduce a basic variant of our model, wherein the transient impact is a deterministic functional of the trading strategy. We draw the connection to limit order books and give the optimal strategy to liquidate or acquire an asset position infinite time horizon. We then solve the optimization problem for finite time horizon two steps. Calculus of variations allows to identify the free boundary surface that separates buy and sell regions and moreover show its local optimality, which is a crucial ingredient for the verification giving (global) optimality. In the second part of the thesis, we add stochasticity to the auxiliary impact process. This causes optimal strategies to dynamically adapt to random changes in liquidity. We identify the optimal liquidation strategy in infinite horizon as the reflection local time which keeps the market impact process below an explicitly described non-constant free boundary level. Again the proof technique combines classical calculus of variations and direct methods. To now impose a time constraint, we need to admit semimartingale strategies. Skorokhod's M1 topology is key to uniquely extend the class of admissible controls from finite variation to general càdlàg strategies in a broad class of market models including multiplicative and additive price impact, with deterministic or stochastic liquidity. After introducing proportional transaction costs in our model, we solve the related one-dimensional free boundary problem of unconstrained optimal trading and highlight possible solution methods for the corresponding liquidation problem where trading stops as soon as all assets are sold.
8

Die Durchführung des Gemeinschaftsrechts durch die Europäische Kommission als Teil europäischer "Gesetzgebungstätigkeit". Aktuelle Rechtslage und Modell der Europäischen Verfassung.

Seifert, Michaela January 2006 (has links) (PDF)
Von der Europäischen Kommission im Wege des Komitologieverfahrens erlassene Durchführungsmaßnahmen stellen einen wichtigen Teilbereich europäischer "Gesetzgebungstätigkeit" dar. An die Öffentlichkeit gelangen idR jedoch nur besonders brisante Fälle, wie etwa die BSE-Krise oder die Aufhebung des Gen-Moratoriums. Eine Vielzahl von Maßnahmen hingegen wird ohne öffentliche Diskussion von der Europäischen Kommission im Wege des Ausschusswesens hinter verschlossenen Türen beschlossen. Ein zentrales Thema der Untersuchung widmet sich daher der Frage nach den Grenzen der Delegierung von Gesetzgebungsbefugnissen vom Europäischen Gesetzgeber an die Europäischen Kommission als Exekutive. Neben der Darstellung der gegenwärtigen Rechtslage und Praxis wird auch das in der Europäischen Verfassung (EV) vorgeschlagene neue Durchführungsmodell beleuchtet, wonach eine Differenzierung der Durchführungsinstrumente in den Bereich der "Delegierten Europäischen Verordnungen" nach Art I-36 EV und den der "Durchführungsrechtsakte" nach Art I-37 EV erfolgen soll. Überdies nimmt auch die vieldiskutierte Frage nach der Einbindung des Europäischen Parlaments auf Durchführungsebene einen zentralen Stellenwert der Untersuchung ein, wobei Defizite im derzeitigen System und Schlussfolgerungen für das System der Europäischen Verfassung abgeleitet werden. Die Aktualität dieser Fragestellungen ist nach wie vor gegeben; denn sollte es tatsächlich zu einer (teilweisen) Änderung der EV kommen, so gilt es doch als sehr wahrscheinlich, dass die Regelungen zum Durchführungssystem unverändert beibehalten werden. (author's abstract) / Series: EI Working Papers / Europainstitut
9

Maintaining Security in the Era of Microarchitectural Attacks

Oleksenko, Oleksii 16 November 2021 (has links)
Shared microarchitectural state is a target for side-channel attacks that leverage timing measurements to leak information across security domains. These attacks are further enhanced by speculative execution, which transiently distorts the control and data flow of applications, and by untrusted environments, where the attacker may have complete control over the victim program. Under these conditions, microarchitectural attacks can bypass software isolation mechanisms, and hence they threaten the security of virtually any application running in a shared environment. Numerous approaches have been proposed to defend against microarchitectural attacks, but we lack the means to test them and ensure their effectiveness. The users cannot test them manually because the effects of the defences are not visible to software. Testing the defences by attempting attacks is also suboptimal because the attacks are inherently unstable, and a failed attack is not always an indicator of a successful defence. Moreover, some classes of defences can be disabled at runtime. Hence, we need automated tools that would check the effectiveness of defences, both at design time and at runtime. Yet, as it is common in security, the existing solutions lag behind the developments in attacks. In this thesis, we propose three techniques that check the effectiveness of defences against modern microarchitectural attacks. Revizor is an approach to automatically detect microarchitectural information leakage in commercial black-box CPUs. SpecFuzz is a technique for dynamic testing of applications to find instances of speculative vulnerabilities. Varys is an approach to runtime monitoring of system defences against microarchitectural attacks. We show that with these techniques, we can successfully detect microarchitectural vulnerabilities in hardware and flaws in defences against them; find unpatched instances of speculative vulnerabilities in software; and detect attempts to invalidate system defences.

Page generated in 0.0487 seconds