• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 390
  • 202
  • 98
  • 64
  • 9
  • 3
  • 2
  • 1
  • Tagged with
  • 763
  • 568
  • 425
  • 300
  • 295
  • 295
  • 160
  • 140
  • 131
  • 84
  • 77
  • 75
  • 75
  • 72
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Visibility of Performance

Pidun, Tim 12 May 2015 (has links)
Die Versorgung mit adäquater Information ist eine der Hauptfunktionen von Performance Measurement-Systemen (PMS), gleichzeitig aber auch ihr größter Mangel und der Grund für das häufige Scheitern ihres Einsatzes in Unternehmen. Dabei gibt es derzeit keine Möglichkeit zu bestimmen, inwieweit ein eingesetzes PMS den Beteiligten auch tatsächlich gut und passgenau Informationen liefern kann. Diese Untersuchung geht von der Grundfrage aus, welche Informationen erhoben werden müssen, damit nicht nur die Darstellung der Performance selbst adressiert wird, sondern die auch für ein besseres Verständnis über das PMS und seine organisationale Verankerung und damit Akzeptanz und Nützlichkeit genutzt werden können. Sie folgt damit einem Verständnis von PMS als Informationssysteme, die für die adäquate Versorgung mit Domänenwissen sorgen müssen, und nicht lediglich als Controllinginstrumente, die Performance-Daten liefern sollen. Im Ergebnis steht die Entwicklung einer Theorie, die erklärt, weshalb das bisherige Problem des Scheiterns von PMS auftritt. Damit einhergehend wird der Indikator der Visibility of Performance konstruiert, der über eine einfache Anwendung aussagen kann, wie gut ein PMS bezüglich seiner Wissensversorgung für ein Unternehmen passt. Mithin zeigt er die Güte der performancerelevanten Informationsversorgung in einem PMS eines Unternehmens an.:Versicherung 5 Inhaltsverzeichnis 6 Abbildungsverzeichnis 8 Tabellenverzeichnis 10 Abkürzungsverzeichnis 11 Formelverzeichnis 13 1 Einleitung 14 1.1 Problemstellung 15 1.2 Zielsetzung 16 1.3 Aufbau der Arbeit 18 2 Grundlagen 21 2.1 Wissenschaftstheoretische Einordnung 21 2.1.1 Ontologische, epistemologische und methodologische Positionierung 21 2.1.2 Erkenntnistheoretische und methodische Spannungsfelder 25 2.1.2.1 Design Science und Behaviorismus 26 2.1.2.2 Design Science und der Theoriebegriff 29 2.1.3 Methodenpluralismus 30 2.1.3.1 Leitmethode Grounded Theory 30 2.1.3.2 Weitere verwendete Methoden 33 2.2 Fundamentale Konzepte und Theoriekontext 37 2.2.1 Performance und Performance Measurement 38 2.2.1.1 Konzeptualisierung von Leistung und Performance 38 2.2.1.2 Konzeptualisierung des Performance Measurement 41 2.2.1.3 Theorien und Modelle 44 2.2.2 Performance-Measurement-Systeme 46 2.2.2.1 Konzeptualisierung von Performance-Measurement-Systemen 46 2.2.2.2 Theorien und Modelle 50 2.2.3 Unternehmerisches Wissen 53 2.2.3.1 Konzeptualisierung von Wissen 53 2.2.3.2 Theorien und Modelle 54 2.3 Kritische Würdigung bestehender Konzepte 59 2.3.1 Anforderungen an ein PMS 60 2.3.1.1 Die Balanced Scorecard 63 2.3.1.2 Das Performance Prism 65 2.3.1.3 Die Performance Pyramid 67 2.3.2 Anforderungen an die Qualität von PMS 69 2.3.3 Zusammenfassung 72 2.3.4 Forschungsfragen 74 3 Arbeitsablauf 75 3.1 Aufbau der Schwerpunkte und Darstellung der Forschungsbeiträge 77 3.2 Erster Schwerpunkt: Indikatoren 78 3.2.1 Forschungsbeitrag 1 79 3.2.2 Forschungsbeitrag 2 80 3.2.3 Forschungsbeitrag 3 80 3.2.4 Zusammenfassung 81 3.3 Zweiter Schwerpunkt: PMS 83 3.3.1 Forschungsbeitrag 1 83 3.3.2 Forschungsbeitrag 2 83 3.3.3 Forschungsbeitrag 3 83 3.3.4 Forschungsbeitrag 4 84 3.3.5 Forschungsbeitrag 7 85 3.3.6 Zusammenfassung 86 3.4 Dritter Schwerpunkt: Kontextuelles Umfeld 87 3.4.1 Forschungsbeitrag 5 88 3.4.3 Forschungsbeitrag 6 89 3.4.4 Forschungsbeitrag 7 90 3.4.5 Zusammenfassung 90 3.5 Vierter Schwerpunkt: Visibility 91 3.5.1 Forschungsbeitrag 3 92 3.5.2 Forschungsbeitrag 4 93 3.5.3 Forschungsbeitrag 6 93 3.5.4 Forschungsbeitrag 8 94 3.5.5 Zusammenfassung 95 3.6 Zwischenstand: Darstellung der Theorie 97 3.6.1 Kausales Referenzmodell 98 3.6.2 Strukturelles Referenzmodell 99 3.6.3 Theorie und Hypothesen 100 3.6.4 Abduktiver Schluss 103 3.7 Fünfter Schwerpunkt: Operationalisierung 103 3.7.1 Forschungsbeitrag 5 104 3.7.2 Forschungsbeitrag 8 104 3.7.3 Forschungsbeitrag 9 110 3.7.4 Zusammenfassung 115 3.8 Sechster Schwerpunkt: Validierung 119 3.8.1 Forschungsbeitrag 8 119 3.8.2 Forschungsbeitrag 9 123 3.8.3 Zusammenfassung 124 3.9 Siebenter Schwerpunkt: Technologische Umsetzung 125 3.10 Vollständigkeitsbetrachtung 129 3.10.1 Thematischer Zusammenhang 130 3.10.2 Zusammenhang im Erkenntnisprozess 130 3.10.3 Individuelle Beiträge zum Methodenpluralismus und zur Diversität 132 4 Zusammenfassung 134 4.1 Diskussion der Ergebnisse 134 4.2 Einordnung bereits bestehender Konzepte 141 4.3 Nutzen für Forschung und Praxis 144 4.4 Generalisierung der Erkenntnisse und Ausblick 150 4.5 Vollständigkeitsbetrachtung 153 Literaturverzeichnis 155 Anhang Forschungsbeitrag 5 166 / The supply with adequate information is one of the main functions of Performance Measurement Systems (PMS), but also still one of its drawbacks and reason for their failure. Not only the collection of indicators is crucial, but also the stakeholders’ understanding of the about their meaning, purpose and contextual embedding. Today, companies are faced to seek for a PMS without a way to express the goodness of a solution, indicating its ability to deliver appropriate information and to address these demands. The goal of this investigation is to explore the mechanisms that drive information and knowledge supply in PMS in order to model a way to express this goodness. Using a grounded Theory approach, a theory of visibility of performance is developed, featuring a catalog of determinants for the goodness of PMS. Companies can conveniently use them to assess their PMS and to improve the visibility of their performance.:Versicherung 5 Inhaltsverzeichnis 6 Abbildungsverzeichnis 8 Tabellenverzeichnis 10 Abkürzungsverzeichnis 11 Formelverzeichnis 13 1 Einleitung 14 1.1 Problemstellung 15 1.2 Zielsetzung 16 1.3 Aufbau der Arbeit 18 2 Grundlagen 21 2.1 Wissenschaftstheoretische Einordnung 21 2.1.1 Ontologische, epistemologische und methodologische Positionierung 21 2.1.2 Erkenntnistheoretische und methodische Spannungsfelder 25 2.1.2.1 Design Science und Behaviorismus 26 2.1.2.2 Design Science und der Theoriebegriff 29 2.1.3 Methodenpluralismus 30 2.1.3.1 Leitmethode Grounded Theory 30 2.1.3.2 Weitere verwendete Methoden 33 2.2 Fundamentale Konzepte und Theoriekontext 37 2.2.1 Performance und Performance Measurement 38 2.2.1.1 Konzeptualisierung von Leistung und Performance 38 2.2.1.2 Konzeptualisierung des Performance Measurement 41 2.2.1.3 Theorien und Modelle 44 2.2.2 Performance-Measurement-Systeme 46 2.2.2.1 Konzeptualisierung von Performance-Measurement-Systemen 46 2.2.2.2 Theorien und Modelle 50 2.2.3 Unternehmerisches Wissen 53 2.2.3.1 Konzeptualisierung von Wissen 53 2.2.3.2 Theorien und Modelle 54 2.3 Kritische Würdigung bestehender Konzepte 59 2.3.1 Anforderungen an ein PMS 60 2.3.1.1 Die Balanced Scorecard 63 2.3.1.2 Das Performance Prism 65 2.3.1.3 Die Performance Pyramid 67 2.3.2 Anforderungen an die Qualität von PMS 69 2.3.3 Zusammenfassung 72 2.3.4 Forschungsfragen 74 3 Arbeitsablauf 75 3.1 Aufbau der Schwerpunkte und Darstellung der Forschungsbeiträge 77 3.2 Erster Schwerpunkt: Indikatoren 78 3.2.1 Forschungsbeitrag 1 79 3.2.2 Forschungsbeitrag 2 80 3.2.3 Forschungsbeitrag 3 80 3.2.4 Zusammenfassung 81 3.3 Zweiter Schwerpunkt: PMS 83 3.3.1 Forschungsbeitrag 1 83 3.3.2 Forschungsbeitrag 2 83 3.3.3 Forschungsbeitrag 3 83 3.3.4 Forschungsbeitrag 4 84 3.3.5 Forschungsbeitrag 7 85 3.3.6 Zusammenfassung 86 3.4 Dritter Schwerpunkt: Kontextuelles Umfeld 87 3.4.1 Forschungsbeitrag 5 88 3.4.3 Forschungsbeitrag 6 89 3.4.4 Forschungsbeitrag 7 90 3.4.5 Zusammenfassung 90 3.5 Vierter Schwerpunkt: Visibility 91 3.5.1 Forschungsbeitrag 3 92 3.5.2 Forschungsbeitrag 4 93 3.5.3 Forschungsbeitrag 6 93 3.5.4 Forschungsbeitrag 8 94 3.5.5 Zusammenfassung 95 3.6 Zwischenstand: Darstellung der Theorie 97 3.6.1 Kausales Referenzmodell 98 3.6.2 Strukturelles Referenzmodell 99 3.6.3 Theorie und Hypothesen 100 3.6.4 Abduktiver Schluss 103 3.7 Fünfter Schwerpunkt: Operationalisierung 103 3.7.1 Forschungsbeitrag 5 104 3.7.2 Forschungsbeitrag 8 104 3.7.3 Forschungsbeitrag 9 110 3.7.4 Zusammenfassung 115 3.8 Sechster Schwerpunkt: Validierung 119 3.8.1 Forschungsbeitrag 8 119 3.8.2 Forschungsbeitrag 9 123 3.8.3 Zusammenfassung 124 3.9 Siebenter Schwerpunkt: Technologische Umsetzung 125 3.10 Vollständigkeitsbetrachtung 129 3.10.1 Thematischer Zusammenhang 130 3.10.2 Zusammenhang im Erkenntnisprozess 130 3.10.3 Individuelle Beiträge zum Methodenpluralismus und zur Diversität 132 4 Zusammenfassung 134 4.1 Diskussion der Ergebnisse 134 4.2 Einordnung bereits bestehender Konzepte 141 4.3 Nutzen für Forschung und Praxis 144 4.4 Generalisierung der Erkenntnisse und Ausblick 150 4.5 Vollständigkeitsbetrachtung 153 Literaturverzeichnis 155 Anhang Forschungsbeitrag 5 166
152

Integrable Approximations for Dynamical Tunneling

Löbner, Clemens 27 August 2015 (has links)
Generic Hamiltonian systems have a mixed phase space, where classically disjoint regions of regular and chaotic motion coexist. For many applications it is useful to approximate the regular dynamics of such a mixed system H by an integrable approximation Hreg. We present a new, iterative method to construct such integrable approximations. The method is based on the construction of an integrable approximation in action representation which is then improved in phase space by iterative applications of canonical transformations. In contrast to other known approaches, our method remains applicable to strongly non-integrable systems H. We present its application to 2D maps and 2D billiards. Based on the obtained integrable approximations we finally discuss the theoretical description of dynamical tunneling in mixed systems. / Typische Hamiltonsche Systeme haben einen gemischten Phasenraum, in dem disjunkte Bereiche klassisch regulärer und chaotischer Dynamik koexistieren. Für viele Anwendungen ist es zweckmäßig, die reguläre Dynamik eines solchen gemischten Systems H durch eine integrable Näherung Hreg zu beschreiben. Wir stellen eine neue, iterative Methode vor, um solche integrablen Näherungen zu konstruieren. Diese Methode basiert auf der Konstruktion einer integrablen Näherung in Winkel-Wirkungs-Variablen, die im Phasenraum durch iterative Anwendungen kanonischer Transformationen verbessert wird. Im Gegensatz zu bisher bekannten Verfahren bleibt unsere Methode auch auf stark nichtintegrable Systeme H anwendbar. Wir demonstrieren sie anhand von 2D-Abbildungen und 2D-Billards. Mit den gewonnenen integrablen Näherungen diskutieren wir schließlich die theoretische Beschreibung von dynamischem Tunneln in gemischten Systemen.
153

Normal forms for multidimensional databases

Lehner, Wolfgang, Albrecht, J., Wedekind, H. 02 June 2022 (has links)
In the area of online analytical processing (OLAP), the concept of multidimensional databases is receiving much popularity. Thus, a couple of different multidimensional data models were proposed from the research as well as from the commercial product side, each emphasizing different perspectives. However, very little work has been done investigating guidelines for good schema design within such a multidimensional data model. Based on a logical reconstruction of multidimensional schema design, this paper proposes two multidimensional normal forms. These normal forms define modeling constraints for summary attributes describing the cells within a multidimensional data cube and constraints to model complex dimensional structures appropriately. Multidimensional schemas compliant to these normal forms do not only ensure the validity of analytical computations on the multidimensional database, but also favor an efficient physical database design.
154

Processing reporting function views in a data warehouse environment

Lehner, Wolfgang, Hummer, W., Schlesinger, L. 02 June 2022 (has links)
Reporting functions reflect a novel technique to formulate sequence-oriented queries in SQL. They extend the classical way of grouping and applying aggregation functions by additionally providing a column-based ordering, partitioning, and windowing mechanism. The application area of reporting functions ranges from simple ranking queries (TOP(n)-analyses) over cumulative (Year-To-Date-analyses) to sliding window queries. We discuss the problem of deriving reporting function queries from materialized reporting function views, which is one of the most important issues in efficiently processing queries in a data warehouse environment. Two different derivation algorithms, including their relational mappings are introduced and compared in a test scenario.
155

A reference architecture for cyber-physical fluid power systems: towards a smart ecosystem

Martin, Dominik, Kunze von Bischoffshausen, Johannes, Hensel, Anna, Strandberg, Johan 25 June 2020 (has links)
Technological advances (e.g., high speed communication, artificial intelligence) and affordable computing and sensor hardware have become a key driver of developments like “Industry 4.0” or the “Industrial Internet of Things” (IIoT). Large numbers of machines and products are equipped with sensors to constantly monitor their condition, log usage data or trigger control processes. IIoT has been largely adopted by OEMs in various industries (such as automotive, machinery industry, or healthcare and medical), turning their product into cyber-physical systems. However, the resulting potential is not yet accessible to component manufacturers. Overall, horizontal integration of the value chain is still in its infancy. Specifically, IIoT for fluid powers just started in recent years with first research projects and commercial solutions. This work presents a reference architecture for cyber-physical fluid power systems which depicts how horizontal integration can be achieved and which potentials thus can be released. The architecture is validated in an industrial use case. Furthermore, the paper at hand discusses which components of the architecture should be addressed by which actor in the fluid power ecosystem in order to leverage opportunities from the IIoT.
156

Special Issue: 2015 ASME Conference on Smart Materials, Adaptive Structures and Intelligent Systems (SMASIS), Symposium on Modeling, Simulation and Control of Adaptive Systems

Kiefer, Björn, Marschner, Uwe, Mahoodi, S. Nima 25 October 2019 (has links)
The 2015 ASME Conference on Smart Materials, Adaptive Structures and Intelligent Systems (SMASIS) was held from 21 to 23 September 2015, in Colorado Springs, Colorado. The scope of the conference covers intelligent, flexible, adaptive materials and systems that respond to changes in the environment to perform in the most profitable way. Scientific strides and technological maturity in the field are linked to the interdisciplinary efforts at universities, government and industry. SMASIS aims at assembling world experts across engineering and scientific disciplines such as mechanical, aerospace, electrical, materials, and civil engineering, as well as biology, physics and chemistry, to discuss the latest findings and trends in this fruitful area of research.
157

Testing Self-Adaptive Systems

Püschel, Georg 14 September 2018 (has links)
Autonomy is the most demanded yet hard-to-achieve feature of recent and future software systems. Self-driving cars, mail-delivering drones, automated guided vehicles in production sites, and housekeeping robots need to decide autonomously during most of their operation time. As soon as human intervention becomes necessary, the cost of ownership increases, and this must be avoided. Although the algorithms controlling autonomous systems become more and more intelligent, their hardest opponent is their inflexibility. The more environmental situations such a system is confronted with, the more complexity the control of the autonomous system will have to master. To cope with this challenge, engineers have approached a system design, which adopts feedback loops from nature. The resulting architectural principle, which they call self-adaptive systems, follows the idea of iteratively gathering sensor data, analyzing it, planning new adaptations of the system, and finally executing the plan. Often, adaptation means to alter the system setup, re-wire components, or even exchange control algorithms to keep meeting goals and requirements in the newly appeared situation. Although self-adaptivity helps engineers to organize the vast amount of information in a self-deciding system, it remains hard to deal with the variety of contexts, which involve both environmental influences and knowledge about the system\'s internals. This challenge not only holds for the construction phase but also for verification and validation, including software test. To assure sufficient quality of a system, it must be tested under an enormous and, thus, unmanageable, number of different contextual situations and manual test-cases. This thesis proposes a novel set of methods and model types, which help test engineers to specify precisely what they expect from a self-adaptive system under test. The formal nature of the introduced artifacts allows for automatically generating test-suites or running simulations in the loop so that a qualitative verdict on the system\'s correctness can be gained. Additional to these conceptional contributions, the thesis describes a model-based adaptivity test environment, which test engineers can use for testing actual self-adaptive systems. The implementation includes comprehensive tooling for creating the introduced types of models, generating test-cases, simulating them in the loop, automating tests, and reporting. Composing all enabling components for these tasks constitutes a reference architecture of integrated test environments for self-adaptive systems. We demonstrate the completeness and accuracy of the technical approach together with the underlying concepts by evaluating them in an experimental case study where an autonomous robot interacts with human co-workers. In summary, this thesis proposes concepts for automatically and, thus, efficiently testing self-adaptive systems. The quality, which is fostered by this novel approach, is resilience: the ability of a system to maintain its promises while facing changing environments.:1 Introduction 1 1.1 Problem Description 1 1.2 Overview of Adopted Methods 3 1.3 Hypothesis and Main Contributions 4 1.4 Organization of This Thesis 5 I Foundations 7 2 Background 9 2.1 Self-adaptive Software and Autonomic Computing 9 2.1.1 Common Principles and Components of SAS 10 2.1.2 Concrete Implementations and Applications of SAS 12 2.2 Model-based Testing 13 2.2.1 Testing for Dependability 14 2.2.2 The Basics of Testing 15 2.2.3 Automated Test Design 18 2.3 Dynamic Variability Management 22 2.3.1 Software Product Lines 23 2.3.2 Dynamic Software Product Lines 25 3 Related Work: Existing Research on Testing Self-Adaptive Systems 29 3.1 Testing Context-Aware Applications 30 3.2 The SimSOTA Project 31 3.3 Dynamic Variability in Complex Adaptive Systems (DiVA) 33 3.4 Other Early-Stage Research 34 3.5 Taxonomy of Requirements of Model-based SAS Testing 36 II Methods 39 4 Model-driven SAS Testing 41 4.1 Problem/Solution Fit 41 4.2 Example: Surveillance Drone 43 4.3 Concepts and Models for Testing Self-Adaptive Systems 44 4.3.1 Test Case Generation vs. Simulation in the Loop 44 4.3.2 Incremental Modeling Process 45 4.3.3 Basic Representation Format: Petri Nets 46 4.3.4 Context Variation 50 4.3.5 Modeling Adaptive Behavior 53 4.3.6 Dynamic Context Change 57 4.3.7 Interfacing Context from Behavioral Representation 62 4.3.8 Adaptation Mode Variation 64 4.3.9 Context-Dependent Recon guration 67 4.4 Adequacy Criteria for SAS Test Models 71 4.5 Discussion on the Viability of the Employed Models 71 4.6 Comparison to Related Work 73 4.7 Summary and Discussion 74 5 Model-based Adaptivity Test Environment 75 5.1 Technological Foundation 76 5.2 MATE Base Components 77 5.3 Metamodel Implementation 78 5.3.1 Feature-based Variability Model 79 5.3.2 Abstract and Concrete Syntax for Textual Notations 80 5.3.3 Adaptive Petri Nets 86 5.3.4 Stimulus and Recon guration Automata 87 5.3.5 Test Suite and Report Model 87 5.4 Test Generation Framework 87 5.5 Test Automation Framework 91 5.6 MATE Tooling and the SAS Test Process 93 5.6.1 Test Modeling 94 5.6.2 Test Case Generation 95 5.6.3 Test Case Execution and Test Reporting 96 5.6.4 Interactive Simulation Frontend 96 5.7 Summary and Discussion 97 III Evaluation 99 6 Experimental Study: Self-Adaptive Co-Working Robots 101 6.1 Robot Teaching and Co-Working with WEIR 103 6.1.1 WEIR Hardware Components 104 6.1.2 WEIR Software Infrastructure 105 6.1.3 KUKA LBR iiwa as WEIR Manipulator 106 6.1.4 Self-Adaptation Capabilities of WEIR 107 6.2 Cinderella as Testable Co-Working Application 109 6.2.1 Cinderella Setup and Basic Functionality 109 6.2.2 Co-Working with Cinderella 110 6.3 Testing Cinderella with MATE 112 6.3.1 Automating Test Execution 112 6.3.2 Modeling Cinderella in MATE 113 6.3.3 Testing Cinderella in the Loop 121 6.4 Evaluation Verdict and Summary 123 7 Summary and Discussion 125 7.1 Summary of Contributions 126 7.2 Open Research Questions 127 Bibliography 129 Appendices 137 Appendix Cinderella De nitions 139 1 Cinderella Adaptation Bounds 139 2 Cinderella Self-adaptive Workflow 140
158

Lastgetriebene Validierung Dienstbereitstellender Systeme

Caspar, Mirko 07 January 2014 (has links)
Mit steigender Komplexität heterogener, verteilter Systeme nehmen auch die Anforderungen an deren Validierung zu. In dieser Arbeit wird ein Konzept vorgestellt, mit dem eine bestimmte Klasse komplexer Systeme, so genannte Dienstbereitstellende Systeme, durch automatisiertes Testen validiert werden kann. Mit Hilfe heterogener Klienten, bspw. eingebetteter Systeme, wird die Systemfunktionalität getestet. Hierzu wird das zu testende System auf die nach außen zur Verfügung gestellten Dienste reduziert und die Nutzung dieser Dienste durch Klienten mit einer Last quantifiziert. Eine Validierung wird durch die Vorgabe zeitlich veränderlicher Lasten für jeden Dienst definiert. Diese Lasten werden zielgerichtet den verfügbaren Klienten zugeteilt und durch diese im zu testenden System erzeugt. Zur praktikablen Anwendung dieses Konzeptes ist eine Automatisierung des Validierungsprozesses notwendig. In der Arbeit wird die Architektur einer Testbench vorgestellt, die zum einen die Heterogenität der Klienten berücksichtigt und zum anderen Einflüsse durch die Dynamik der Klienten während der Laufzeit der Validierung ausgleicht. Das hierbei zu lösende algorithmische Problem der Dynamischen Testpartitionierung wird ebenso definiert, wie ein Modell zur Beschreibung aller notwendigen Parameter. Die Testpartitionierung kann mittels einer eigens entwickelten Heuristik in Polynomialzeit gelöst werden. Zur Bestimmung der Leistungsfähigkeit des entwickelten Verfahrens wird die Heuristik aufwendigen Untersuchungen unterzogen. Am Beispiel eines zu testenden Mobilfunknetzwerkes wird die beschriebene Testbench umgesetzt und Kernparameter mittels Simulation ermittelt. Das Ergebnis dieser Arbeit ist ein Konzept zur Systemvalidierung, das generisch auf jede Art von dienstbereitstellenden Systemen angewandt werden kann und damit zur Verbesserung des Entwicklungsprozesses von komplexen verteilten Systemen beiträgt.
159

Wireless Interconnect for Board and Chip Level

Fettweis, Gerhard P., ul Hassan, Najeeb, Landau, Lukas, Fischer, Erik January 2013 (has links)
Electronic systems of the future require a very high bandwidth communications infrastructure within the system. This way the massive amount of compute power which will be available can be inter-connected to realize future powerful advanced electronic systems. Today, electronic inter-connects between 3D chip-stacks, as well as intra-connects within 3D chip-stacks are approaching data rates of 100 Gbit/s soon. Hence, the question to be answered is how to efficiently design the communications infrastructure which will be within electronic systems. Within this paper approaches and results for building this infrastructure for future electronics are addressed.
160

Waiting for Locks: How Long Does It Usually Take?

Baier, Christel, Daum, Marcus, Engel, Benjamin, Härtig, Hermann, Klein, Joachim, Klüppelholz, Sascha, Märcker, Steffen, Tews, Hendrik, Völp, Marcus January 2012 (has links)
Reliability of low-level operating-system (OS) code is an indispensable requirement. This includes functional properties from the safety-liveness spectrum, but also quantitative properties stating, e.g., that the average waiting time on locks is sufficiently small or that the energy requirement of a certain system call is below a given threshold with a high probability. This paper reports on our experiences made in a running project where the goal is to apply probabilistic model checking techniques and to align the results of the model checker with measurements to predict quantitative properties of low-level OS code.

Page generated in 0.0309 seconds