• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 17
  • 7
  • 1
  • Tagged with
  • 42
  • 29
  • 24
  • 18
  • 15
  • 15
  • 15
  • 11
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Beschreibung von Verfahren zur Anbindung von E-Commerce-Anwendungen an betriebswirtschaftliche Standardsoftware und Evaluation durch eine beispielhafte Implementierung

Walter, Michael 21 November 2017 (has links)
Diese Arbeit gibt einen Überblick über das Spektrum der Enterprise Application Integration. Dazu werden die Grundlagen des E-Business erläutert, um die Notwendigkeit der Integration aufzuzeigen. Eine Aufstellung der verschiedenen Datenformate gibt Aufschluss über die Entwicklungen und die verschiedenen Standards. In dem Abschnitt Middleware werden die technischen Grundlagen einer möglichen Integration erläutert. Besonders wird dabei auf JMS eingegangen, das in der praktischen Anwendung genutzt wurde. Die Frameworks bilden ein umfassendes Mittel zur Integration von Applikationen, deswegen werden sie abschließend vorgestellt. Dabei wird J2EE und das neue von Microsoft propagierte .NET präsentiert. Die Problematik bei der Implementierung wird anhand des Praxis Beispiels herausgearbeitet. Als Verbindung diente SonicMQ, der JMS Broker von Progress.
12

Graph Processing in Main-Memory Column Stores

Paradies, Marcus 03 February 2017 (has links)
Evermore, novel and traditional business applications leverage the advantages of a graph data model, such as the offered schema flexibility and an explicit representation of relationships between entities. As a consequence, companies are confronted with the challenge of storing, manipulating, and querying terabytes of graph data for enterprise-critical applications. Although these business applications operate on graph-structured data, they still require direct access to the relational data and typically rely on an RDBMS to keep a single source of truth and access. Existing solutions performing graph operations on business-critical data either use a combination of SQL and application logic or employ a graph data management system. For the first approach, relying solely on SQL results in poor execution performance caused by the functional mismatch between typical graph operations and the relational algebra. To the worse, graph algorithms expose a tremendous variety in structure and functionality caused by their often domain-specific implementations and therefore can be hardly integrated into a database management system other than with custom coding. Since the majority of these enterprise-critical applications exclusively run on relational DBMSs, employing a specialized system for storing and processing graph data is typically not sensible. Besides the maintenance overhead for keeping the systems in sync, combining graph and relational operations is hard to realize as it requires data transfer across system boundaries. A basic ingredient of graph queries and algorithms are traversal operations and are a fundamental component of any database management system that aims at storing, manipulating, and querying graph data. Well-established graph traversal algorithms are standalone implementations relying on optimized data structures. The integration of graph traversals as an operator into a database management system requires a tight integration into the existing database environment and a development of new components, such as a graph topology-aware optimizer and accompanying graph statistics, graph-specific secondary index structures to speedup traversals, and an accompanying graph query language. In this thesis, we introduce and describe GRAPHITE, a hybrid graph-relational data management system. GRAPHITE is a performance-oriented graph data management system as part of an RDBMS allowing to seamlessly combine processing of graph data with relational data in the same system. We propose a columnar storage representation for graph data to leverage the already existing and mature data management and query processing infrastructure of relational database management systems. At the core of GRAPHITE we propose an execution engine solely based on set operations and graph traversals. Our design is driven by the observation that different graph topologies expose different algorithmic requirements to the design of a graph traversal operator. We derive two graph traversal implementations targeting the most common graph topologies and demonstrate how graph-specific statistics can be leveraged to select the optimal physical traversal operator. To accelerate graph traversals, we devise a set of graph-specific, updateable secondary index structures to improve the performance of vertex neighborhood expansion. Finally, we introduce a domain-specific language with an intuitive programming model to extend graph traversals with custom application logic at runtime. We use the LLVM compiler framework to generate efficient code that tightly integrates the user-specified application logic with our highly optimized built-in graph traversal operators. Our experimental evaluation shows that GRAPHITE can outperform native graph management systems by several orders of magnitude while providing all the features of an RDBMS, such as transaction support, backup and recovery, security and user management, effectively providing a promising alternative to specialized graph management systems that lack many of these features and require expensive data replication and maintenance processes.
13

Service availability and discovery responsiveness

Dittrich, Andreas 24 March 2015 (has links)
Verlässliche Dienstbereitstellung ist eines der wichtigsten Ziele in modernen Netzwerken. Da Anbieter und Nutzer Teil einer Informations und Kommunikationstechnologie (IKT) Infrastruktur sind, wird die Verlässlichkeit der Dienste je nach Position der Aktoren variieren, so wie sich die für die Bereitstellung nötigen IKT Geräte ändern. Wir stellen zwei Ansätze zur Quantifizierung nutzerspezifischer Dienstverlässlichkeit vor. Der erste, modellgetriebene Ansatz berechnet momentane Dienstverfügbarkeit. Aus Modellen des Dienstes, der Infrastruktur und einer Abbildung zwischen den beiden, welche die Aktoren der Dienstkommunikation beschreibt, werden durch eine Serie von Modelltransformationen automatisiert Verfügbarkeitsmodelle generiert. Die Realisierbarkeit des Ansatzes wird anhand von Diensten im Netzwerk der Universität Lugano, Schweiz, gezeigt. Der zweite Ansatz behandelt die Responsivität der Dienstfindung, die Wahrscheinlichkeit innerhalb einer Frist Dienstinstanzen zu finden, unter der Annahme von Fehlern. Dies stellt den Hauptteil dieser Arbeit dar. Eine Hierarchie stochastischer Modelle wird vorgestellt, die nutzerspezifische Responsivität auf Basis von Messdaten der Routingebene berechnet. Umfangreiche Experimente wurden im Distributed Embedded Systems (DES) Funktestbett der Freien Universität Berlin durchgefürt. Diese zeigen Probleme aktueller Dienstfindungsprotokolle in modernen, dynamischen Netzwerken. Gleichzeitig dienen sie der Validierung der vorgestellten Modelle. Beide Ansätze zeigen, daß die Verlässlichkeit der Dienstbereitstellung in der Tat deutlich mit der Position von Nutzern und Anbietern variiert, sogar in hochverfügbaren Kabelnetzwerken. Die Ansätze ermöglichen die Optimierung von Dienstnetzwerken anhand bekannter oder erwarteter Nutzungsmuster. Zudem antizipieren sie neuartige Verlässlichkeitsmodelle, welche Dienstfindung, zeitige Bereitstellung, Platzierung und Nutzung kombinieren; Gebiete, die bisher im Allgemeinen getrennt behandelt wurden. / Dependability of service provision is one of the primary goals in modern networks. Since providers and clients are part of a connecting Information and Communications Technology (ICT) infrastructure, service dependability varies with the position of actors as the ICT devices needed for service provision change. We present two approaches to quantify user-perceived service dependability. The first is a model-driven approach to calculate instantaneous service availability. Using input models of the service, the infrastructure and a mapping between the two to describe actors of service communication, availability models are automatically created by a series of model to model transformations. The feasibility of the approach is demonstrated using exemplary services in the network of University of Lugano, Switzerland. The second approach aims at the responsiveness of the service discovery layer, the probability to find service instances within a deadline even in the presence of faults, and is the main part of this thesis. We present a hierarchy of stochastic models to calculate user-perceived responsiveness based on monitoring data from the routing layer. Extensive series of experiments have been run on the Distributed Embedded Systems (DES) wireless testbed at Freie Universität Berlin. They serve both to demonstrate the shortcomings of current discovery protocols in modern dynamic networks and to validate the presented stochastic models. Both approaches demonstrate that the dependability of service provision indeed differs considerably depending on the position of service clients and providers, even in highly reliable wired networks. The two approaches enable optimization of service networks with respect to known or predicted usage patterns. Furthermore, they anticipate novel service dependability models which combine service discovery, timeliness, placement and usage, areas that until now have been treated to a large extent separately.
14

Modeling and verifying dynamic evolving service-oriented architectures

Giese, Holger, Becker, Basil January 2013 (has links)
The service-oriented architecture supports the dynamic assembly and runtime reconfiguration of complex open IT landscapes by means of runtime binding of service contracts, launching of new components and termination of outdated ones. Furthermore, the evolution of these IT landscapes is not restricted to exchanging components with other ones using the same service contracts, as new services contracts can be added as well. However, current approaches for modeling and verification of service-oriented architectures do not support these important capabilities to their full extend.In this report we present an extension of the current OMG proposal for service modeling with UML - SoaML - which overcomes these limitations. It permits modeling services and their service contracts at different levels of abstraction, provides a formal semantics for all modeling concepts, and enables verifying critical properties. Our compositional and incremental verification approach allows for complex properties including communication parameters and time and covers besides the dynamic binding of service contracts and the replacement of components also the evolution of the systems by means of new service contracts. The modeling as well as verification capabilities of the presented approach are demonstrated by means of a supply chain example and the verification results of a first prototype are shown. / Service-Orientierte Architekturen erlauben die dynamische Zusammensetzung und Rekonfiguration komplexer, offener IT Landschaften durch Bindung von Service Contracts zur Laufzeit, starten neuer Komponenten und beenden von veralteten. Die Evolution dieser Systeme ist nicht auf den Austausch von Komponenten-Implementierungen bei Beibehaltung der Service-Contracts beschränkt, sondern das Hinzufügen neuer Service-Contracts wird ebenfalls unterstützt. Aktuelle Ansätze zur Modellierung und Verifikation Service-Orientierter Architekturen unterstützen diese wichtigen Eigenschaften, wenn überhaupt, nur unvollständig. In diesem Bericht stellen wir eine Erweiterung des aktuellen OMG Vorschlags zur Service Modellierung mit UML - SoaML - vor, die diese Einschränkungen aufhebt. Unser Ansatz erlaubt die Modellierung von Service Contracts auf verschiedenen Abstraktionsniveaus, besitzt eine fundierte formale Semantik für alle eingeführten Modellierungskonzepte und erlaubt die Verifikation kritischer Eigenschaften. Unser kompositionaler und inkrementeller Verifikationsansatz erlaubt die Verifikation komplexer Eigenschaften einschließlich Kommunikationsparameter und Zeit und deckt neben der dynamischen Bindung von Service Contracts sowie dem Austausch von Komponenten auch die Evolution des gesamten Systems durch das Hinzufügen neuer Service Contracts ab. Die Modellierungs- als auch die Verifikationsfähigkeiten unseres vorgestellten Ansatzes werden durch ein Anwendungsbeispiel aus dem Bereich des Lieferkettenmanagements veranschaulicht.
15

Quantitative modeling and analysis of service-oriented real-time systems using interval probabilistic timed automata

Krause, Christian, Giese, Holger January 2012 (has links)
One of the key challenges in service-oriented systems engineering is the prediction and assurance of non-functional properties, such as the reliability and the availability of composite interorganizational services. Such systems are often characterized by a variety of inherent uncertainties, which must be addressed in the modeling and the analysis approach. The different relevant types of uncertainties can be categorized into (1) epistemic uncertainties due to incomplete knowledge and (2) randomization as explicitly used in protocols or as a result of physical processes. In this report, we study a probabilistic timed model which allows us to quantitatively reason about nonfunctional properties for a restricted class of service-oriented real-time systems using formal methods. To properly motivate the choice for the used approach, we devise a requirements catalogue for the modeling and the analysis of probabilistic real-time systems with uncertainties and provide evidence that the uncertainties of type (1) and (2) in the targeted systems have a major impact on the used models and require distinguished analysis approaches. The formal model we use in this report are Interval Probabilistic Timed Automata (IPTA). Based on the outlined requirements, we give evidence that this model provides both enough expressiveness for a realistic and modular specifiation of the targeted class of systems, and suitable formal methods for analyzing properties, such as safety and reliability properties in a quantitative manner. As technical means for the quantitative analysis, we build on probabilistic model checking, specifically on probabilistic time-bounded reachability analysis and computation of expected reachability rewards and costs. To carry out the quantitative analysis using probabilistic model checking, we developed an extension of the Prism tool for modeling and analyzing IPTA. Our extension of Prism introduces a means for modeling probabilistic uncertainty in the form of probability intervals, as required for IPTA. For analyzing IPTA, our Prism extension moreover adds support for probabilistic reachability checking and computation of expected rewards and costs. We discuss the performance of our extended version of Prism and compare the interval-based IPTA approach to models with fixed probabilities. / Eine der wichtigsten Herausforderungen in der Entwicklung von Service-orientierten Systemen ist die Vorhersage und die Zusicherung von nicht-funktionalen Eigenschaften, wie Ausfallsicherheit und Verfügbarkeit von zusammengesetzten, interorganisationellen Diensten. Diese Systeme sind oft charakterisiert durch eine Vielzahl von inhärenten Unsicherheiten, welche sowohl in der Modellierung als auch in der Analyse eine Rolle spielen. Die verschiedenen relevanten Arten von Unsicherheiten können eingeteilt werden in (1) epistemische Unsicherheiten aufgrund von unvollständigem Wissen und (2) Zufall als Mittel in Protokollen oder als Resultat von physikalischen Prozessen. In diesem Bericht wird ein probabilistisches, Zeit-behaftetes Modell untersucht, welches es ermöglicht quantitative Aussagen über nicht-funktionale Eigenschaften von einer eingeschränkten Klasse von Service-orientierten Echtzeitsystemen mittels formaler Methoden zu treffen. Zur Motivation und Einordnung wird ein Anforderungskatalog für probabilistische Echtzeitsysteme mit Unsicherheiten erstellt und gezeigt, dass die Unsicherheiten vom Typ (1) und (2) in den untersuchten Systemen einen Ein uss auf die Wahl der Modellierungs- und der Analysemethode haben. Als formales Modell werden Interval Probabilistic Timed Automata (IPTA) benutzt. Basierend auf den erarbeiteten Anforderungen wird gezeigt, dass dieses Modell sowohl ausreichende Ausdrucksstärke für eine realistische und modulare Spezifikation als auch geeignete formale Methoden zur Bestimmung von quantitativen Sicherheits- und Zuverlässlichkeitseigenschaften bietet. Als technisches Mittel für die quantitative Analyse wird probabilistisches Model Checking, speziell probabilistische Zeit-beschränkte Erreichbarkeitsanalyse und Bestimmung von Erwartungswerten für Kosten und Vergütungen eingesetzt. Um die quantitative Analyse mittels probabilistischem Model Checking durchzuführen, wird eine Erweiterung des Prism-Werkzeugs zur Modellierung und Analyse von IPTA eingeführt. Die präsentierte Erweiterung von Prism ermöglicht die Modellierung von probabilistischen Unsicherheiten mittelsWahrscheinlichkeitsintervallen, wie sie für IPTA benötigt werden. Zur Verifikation wird probabilistische Erreichbarkeitsanalyse und die Berechnung von Erwartungswerten durch das Werkzeug unterstützt. Es wird die Performanz der Prism-Erweiterung untersucht und der Intervall-basierte IPTA-Ansatz mit Modellen mit festen Wahrscheinlichkeitswerten verglichen.
16

Steuerung Service-orientierter Architekturen durch Geschäftsprozessmodelle

Juhrisch, Martin, Weller, Jens 23 April 2014 (has links) (PDF)
No description available.
17

Die Logistik-orientierte Objekt-Plattform LOOP: Komponentenorientierte Softwareentwicklung vor dem Hintergrund fluider Organisation

Teichmann, Gunter, Dittes, Benjamin 11 April 2014 (has links) (PDF)
Das Geschäftsfeld der SALT Solutions GmbH ist der Entwurf und die Implementierung von IT-Lösungen für Logistik, Handel und Produktion sowie die Integration dieser Lösungen in die Geschäftsprozesse und Systemlandschaften ihrer Kunden. Stand dabei in der Vergangenheit die Auswahl und Einführung passender Standardsoftware oder die Implementierung optimal zugeschnittener Individualsoftware im Mittelpunkt, beobachten wir insbesondere im Marktumfeld der Kontraktlogistik ein wachsendes Interesse an Lösungen, die sich dynamisch an immer schneller auftretende Anforderungsänderungen anpassen lassen. Dieses Interesse resultiert aus einem zentralen Trend zur „High-End“-Kontraktlogistik, der davon gekennzeichnet ist, dass immer umfassendere und komplexere Dienstleistungen von Logistikunternehmen übernommen werden, die im Sinne eines „Business On Demand“ mit immer kürzeren Reaktionszeiten bis hin zur sofortigen Reaktion auf Kundenbedürfnisse erbracht werden. (...)
18

Left to their own devices: Student-led inquiry into mathematical ideas in kindergarten

Henningsen, Marjorie 15 March 2012 (has links) (PDF)
No description available.
19

Was geschrieben ist, ist geschrieben – Legacy CICS-Anwendungen im neuen Gewand

Stefan, Fred, Herrmann, Paul, Spruth, Wilhelm G. 01 February 2019 (has links)
Integrationsprojekte sind ein wichtiger Bestandteil einer anpassungsfähigen Informationstechnologie und für einen flexiblen Geschäftsbetrieb unumgänglich. Gerade im Großrechnerbereich besteht ein wachsender Bedarf an Modernisierungsmöglichkeiten für Altanwendungen. Dieser Artikel beleuchtet einen von IBM verfolgten Ansatz zur Modernisierung von Legacy-Anwendungen und diskutiert die nötigen Schritte, um Altanwendungen auf den neusten Stand zu bringen. Das Service Flow Feature (SFF) bietet einen interessanten Ansatz zur Modernisierung von Legacy CICS-Anwendungen (CICS: Customer Information Control System), weil bereits laufende Anwendungen weiterverwendet und in vorhandene Architekturen integriert werden können. Zudem werden bessere Modernisierungsmöglichkeiten bereitgestellt als lediglich die Anpassung der Oberfläche. Hinzu kommt, dass mehrere CICS-Anwendungen aggregiert werden können und die damit erzeugten Geschäftsprozesse über offene Schnittstellen erreichbar sind. Gleichzeitig findet eine Entkopplung der Präsentationslogik von der Anwendungslogik statt. Letzteres bietet dem Entwickler die Möglichkeit, modernere Methoden der Präsentationslogik wie z.B. mittels JSP zu implementieren. Über den Einsatz des CICS SFF in der Entwicklungsumgebung RDz besteht für Firmen kurz- bis mittelfristig die Chance, ihr Reservoire an Legacy CICS-Anwendungen mit relativ wenig Aufwand den modernen IT-Anforderungen anzupassen. / Integration projects are importent elements of a flexible information technology and essential for a flexible business concern. Current discussions show that even in the field of mainframe computing, an increasing need of modernisation possibilities for Legacy applications exist. This article highlights an IBM pursued method to modernize such applications and discusses the necessary steps to make them up-to-date again. The Service Flow Feature delivers an interesting modernization method for Legacy CICS (Customer Information Control System) applications because it reuses and integrates existing applications in available architectures. Furthermore it delivers more possibilities than only modernizing the user interface. In addition, it can aggregate multiple CICS applications, which forms business processes, that are accessible via open interfaces. At the same time, an uncoupling of the presentation logic from the application logic takes place.
20

Die Logistik-orientierte Objekt-Plattform LOOP: Komponentenorientierte Softwareentwicklung vor dem Hintergrund fluider Organisation

Teichmann, Gunter, Dittes, Benjamin January 2006 (has links)
Das Geschäftsfeld der SALT Solutions GmbH ist der Entwurf und die Implementierung von IT-Lösungen für Logistik, Handel und Produktion sowie die Integration dieser Lösungen in die Geschäftsprozesse und Systemlandschaften ihrer Kunden. Stand dabei in der Vergangenheit die Auswahl und Einführung passender Standardsoftware oder die Implementierung optimal zugeschnittener Individualsoftware im Mittelpunkt, beobachten wir insbesondere im Marktumfeld der Kontraktlogistik ein wachsendes Interesse an Lösungen, die sich dynamisch an immer schneller auftretende Anforderungsänderungen anpassen lassen. Dieses Interesse resultiert aus einem zentralen Trend zur „High-End“-Kontraktlogistik, der davon gekennzeichnet ist, dass immer umfassendere und komplexere Dienstleistungen von Logistikunternehmen übernommen werden, die im Sinne eines „Business On Demand“ mit immer kürzeren Reaktionszeiten bis hin zur sofortigen Reaktion auf Kundenbedürfnisse erbracht werden. (...)

Page generated in 0.0672 seconds