• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 41
  • 15
  • 2
  • 1
  • Tagged with
  • 108
  • 80
  • 47
  • 47
  • 47
  • 44
  • 13
  • 12
  • 12
  • 11
  • 10
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Skalierbare Ausführung von Prozessanwendungen in dienstorientierten Umgebungen

Preißler, Steffen 25 October 2012 (has links)
Die Strukturierung und Nutzung von unternehmensinternen IT-Infrastrukturen auf Grundlage dienstorientierter Architekturen (SOA) und etablierter XML-Technologien ist in den vergangenen Jahren stetig gewachsen. Lag der Fokus anfänglicher SOA-Realisierungen auf der flexiblen Ausführung klassischer, unternehmensrelevanter Geschäftsprozesse, so bilden heutzutage zeitnahe Datenanalysen sowie die Überwachung von geschäftsrelevanten Ereignissen weitere wichtige Anwendungsklassen, um sowohl kurzfristig Probleme des Geschäftsablaufes zu identifizieren als auch um mittel- und langfristige Veränderungen im Markt zu erkennen und die Geschäftsprozesse des Unternehmens flexibel darauf anzupassen. Aufgrund der geschichtlich bedingten, voneinander unabhängigen Entwicklung der drei Anwendungsklassen, werden die jeweiligen Anwendungsprozesse gegenwärtig in eigenständigen Systemen modelliert und ausgeführt. Daraus resultiert jedoch eine Reihe von Nachteilen, welche diese Arbeit aufzeigt und ausführlich diskutiert. Vor diesem Hintergrund beschäftigte sich die vorliegende Arbeit mit der Ableitung einer konsolidierten Ausführungsplattform, die es ermöglicht, Prozesse aller drei Anwendungsklassen gemeinsam zu modellieren und in einer SOA-basierten Infrastruktur effizient auszuführen. Die vorliegende Arbeit adressiert die Probleme einer solchen konsolidierten Ausführungsplattform auf den drei Ebenen der Dienstkommunikation, der Prozessausführung und der optimalen Verteilung von SOA-Komponenten in einer Infrastruktur.
62

Dynamische Rissdetektion mittels photogrammetrischer Verfahren – Entwicklung und Anwendung optimierter Algorithmen

Hampel, Uwe, Maas, Hans-Gerd 03 June 2009 (has links)
Die digitale Nahbereichsphotogrammetrie ermöglicht eine effiziente Erfassung dreidimensionaler Objektoberflächen bei experimentellen Untersuchungen. Besonders für die flächenhafte Erfassung von Verformungen und die Rissdetektion sind photogrammetrische Verfahren – unter Beachtung entsprechender Randbedingungen – prinzipiell geeignet. Der Beitrag geht unter Einbeziehung aktueller Untersuchungen an textilbewehrten Betonproben auf die Problematik der Rissdetektion ein und gibt einen Überblick über den Entwicklungsstand und das erreichbare Genauigkeitspotential. In Bezug auf die praktische Anwendung der vorgestellten Verfahren wird abschließend auf verschiedene Möglichkeiten der Optimierung eingegangen.
63

Videoeinsatz an sächsischen Hochschulen - Anwendungsszenarien: Ergebnisse der Online-Befragung von Studierenden, Lehrenden, Forschenden und Mitarbeiterinnen/Mitarbeitern der Öffentlichkeitsarbeit

Schaarschmidt, Nadine, Börner, Claudia 10 August 2018 (has links)
Der vorliegende Beitrag ist Teil der Bedarfs- und Ist-Stand-Analyse, die als wissenschaftliches Fundament der zu entwickelnden Videoplattform im Freistaat Sachsen dient. Dabei sollten Anforderungen und Bedarfe sächsischer Hochschulen bzw. der Akteure in Bezug auf videobasierte Inhalte in den Funktionsbereichen Lehre, Forschung und Öffentlichkeitsarbeit (hochschulspezifisch und -übergreifend) erhoben werden. Im Fokus des Beitrags stehen die Ergebnisse der Sachstandserhebung 1 zur Videonutzung an sächsischen Hochschulen. Es wurde u. a. ein Vorschlag für eine Systematik der verschiedenen Videotypen erarbeitet, der ebenfalls vorgestellt wird.
64

Catch them all again! – Eine Pokémon Go Vergleichsstudie

Helmholz, Patrick, Meyer, Michael, Robra-Bissantz, Susanne 29 April 2019 (has links)
Anwendungen auf dem Smartphone gewinnen in der heutigen Zeit immer mehr an Relevanz. Besonders das Mobile Gaming, das in Deutschland die beliebteste Videospielkategorie ist (Brandt, 2016) unterliegt einem stetigen Wachstum. Das Smartphone bietet mit seiner Sensorik und Performance zudem neue Möglichkeiten des Spielens (Leaver & Willson, 2016). Eine der erfolgreichsten Anwendungen ist das Massive Multiplayer Online Role Playing Game (MMORPG) Pokémon GO1, welches im Juli 2016 veröffentlicht wurde und einen regelrechten globalen Hype auslöste. Mit über 800 Millionen Downloads und weiterhin über 65 Millionen aktiven Spielern2 ist es das weltweit erfolgreichste Mobile Game (Lanier, 2018). Das Spielprinzip basiert darauf virtuelle Monster, sogenannte Pokémon, zu fangen, zu entwickeln und kämpfen zu lassen. Das Spiel basiert auf dem klassischen Pokémon-Spiel für den Gameboy aus dem Jahr 1996 (Tobin, Sefton-Green, Allison, & Buckingham, 2004). Um sich von anderen Spielen abzuheben, macht sich die Applikation unter anderem die innovative Technologie Augmented Reality (AR) zunutze und projiziert die Pokémon in die direkte Umgebung des Nutzers. Darüber hinaus ist Pokémon Go ein Location-Based Game (LBG), sodass die aktuelle Positionsinformation des Spielers benutzt wird, um die Position des virtuellen Avatars in der Spiellandschaft zu steuern. Angesichts der Aspekte, dass Pokémon Go ein MMORPG sowie ein positionsbezogenes Spiel ist, lässt es sich in die Klasse der Social-Local-Mobile-Anwendungen (SoLoMo) einordnen (Hsieh, 2018). [Aus der Einleitung.]
65

Durchflusskennwerte und Querbauwerke: Leitfaden zur Web-Anwendung „Ausgewählte Durchflusskennwerte und Querbauwerke sächsischer Fließgewässer, Stand 2015“

Becker, Antje, Ehrcke, Romy, Fischer, Björn, Horn, Susanna, Köpp-Klausch, Katharina, Kübler, Stefanie, Bohn, Evelin, Büttner, Uwe, Friese, Holm, Wolf, Erhard, Ulrich, Maik, Winkler, Ulf 13 July 2020 (has links)
Der Leitfaden informiert über Methodik und Ergebnisse der Regionalisierung von ausgewählten Durchflusskennwerten. Über die Internet-Anwendung »Durchflusskennwerte und Querbauwerke« können für beliebige Querschnitte der sächsischen Fließgewässer die Durchflusskennwerte abgefragt werden (Stand 2015). Die Kennwerte werden u. a. benötigt bei der Ermittlung von Mindestwasserführungen und mittleren Durchflussdargeboten sowie bei der Planung wasserbaulicher Anlagen und der Ausweisung von Überschwemmungsgebieten. Die Publikation richtet sich an Wasserbehörden und Planungsbüros, aber auch an Gewässernutzer in Sachsen. Redaktionsschluss: 21.06.2019
66

Entwurf eines Frameworks für CTI-Lösungen im Call Center

Bauer, Nikolai 06 December 2002 (has links)
Besonders in Call Centern spielt die unter dem Begriff CTI (Computer Telephony Integration) zusammengefasste Integration von IT-Systemen und Telefonanlagen eine wichtige Rolle. Wenn auch diese Integration auf technischer Ebene in der Regel zufriedenstellend gelöst wird, zeigt ein Blick auf die Softwareentwicklung in diesem Bereich noch Nachholbedarf. Die vorliegende Arbeit greift dieses Problem auf und versucht, den Ansatz CTI auf die Ebene der Entwicklung verteilter Anwendungen abzubilden. Ziel dabei ist es, Erkenntnisse darüber zu erzielen, inwieweit ein allgemeines Basismodell als Framework für die Entwicklung von CTI-Anwendungen definiert werden kann und welchen Mehrwert es mit sich bringt. Parallel dazu wird die Frage untersucht, inwieweit bewährte Methoden und Technologien verteilter Systeme auf diesem Spezialgebiet ihre Anwendung finden können. Dazu wird ein allgemeines Anwendungsmodell für CTI-Lösungen und darauf aufbauend ein objektorientiertes, verteiltes Framework entworfen. Das Framework selbst wird als Prototyp implementiert und diversen Leistungsmessungen unterzogen. / Computer Telephony Integration (CTI) plays an important role wherever computer and telecommunication systems have to interact. Applications in a call center are typical examples. This integration has been studied widely from a technical viewpoint only, but not at the level of application development. Since telecommunication systems are naturally distributed systems, CTI eventually leads to distributed applications. This thesis presents an example of a general, object-oriented framework for CTI applications and examines the use of proven technologies and methodologies for distributed applications. Based on a prototype implementation the practicability of the concept is being examined and verified.
67

Prototyping in VR – Gestaltung und Durchführung des Prototypings im Innovationsprozess mit Hilfe einer Virtual – Reality – Anwendung

Schöne, Jasmin, Brade, Marius, Schmiedgen, Peter 31 May 2023 (has links)
Der vorliegende Beitrag beschreibt die Gestaltung und Durchführung des Prototypings im Innovationsprozess mit Hilfe einer Virtual- Reality – Anwendung. Die Fallstudie und das Lehrformat wurde mit Hilfe der Oculus Quest 2 durchgeführt unter Benutzung der Anwendung „Glue“, einer Plattform für virtuelle Zusammenarbeit von Teams und für Meetings. Zunächst wird die virtuelle Realität als Kreativitätsmedium im Prototypingprozess eingeführt sowie die Vor- und Nachteile der gewählten VR-Anwendung erläutert. Anschließend wird das Vorgehen des Prozesses in der interdisziplinären Gruppe aus Bachelorstudierenden beschrieben. Die Ergebnisse wurden auf Basis von Literaturanalysen sowie Beobachtungen bei der Durchführung der Fallstudie sowie Testimonials der Durchführenden bewertet. Zu den Kernerkenntnissen gehört die Durchführbarkeit des Prototypings in (interdisziplinären) Lerngruppen auch ohne Vorkenntnisse in VR, die Durchführbarkeit eines simultanen und ortsunabhängigen Prototypings in der VR-Anwendung „Glue“ sowie Möglichkeit der Kombinierbarkeit der Prototypen im virtuellen Raum mit anderen Methoden entlang des Innovationsprozesses wie beispielsweise dem Storytelling oder der Geschäftsmodellentwicklung.
68

Managed Query Processing within the SAP HANA Database Platform

May, Norman, Böhm, Alexander, Block, Meinolf, Lehner, Wolfgang 03 February 2023 (has links)
The SAP HANA database extends the scope of traditional database engines as it supports data models beyond regular tables, e.g. text, graphs or hierarchies. Moreover, SAP HANA also provides developers with a more fine-grained control to define their database application logic, e.g. exposing specific operators which are difficult to express in SQL. Finally, the SAP HANA database implements efficient communication to dedicated client applications using more effective communication mechanisms than available with standard interfaces like JDBC or ODBC. These features of the HANA database are complemented by the extended scripting engine–an application server for server-side JavaScript applications–that is tightly integrated into the query processing and application lifecycle management. As a result, the HANA platform offers more concise models and code for working with the HANA platform and provides superior runtime performance. This paper describes how these specific capabilities of the HANA platform can be consumed and gives a holistic overview of the HANA platform starting from query modeling, to the deployment, and efficient execution. As a distinctive feature, the HANA platform integrates most steps of the application lifecycle, and thus makes sure that all relevant artifacts stay consistent whenever they are modified. The HANA platform also covers transport facilities to deploy and undeploy applications in a complex system landscape.
69

Das internationale Privatrecht als globales System

Scherer, Gabriele 03 November 2005 (has links)
Diese Arbeit hat die Frage zum Gegenstand, innerhalb welchen konzeptionellen Rahmens das internationale Privatrecht (IPR) sich angesichts moderner Entwicklungen bewegen sollte. Das „klassische“ IPR geht von Recht als einem zwangsläufig staatlich gesetzten Phänomen aus, weswegen sich internationalprivatrechtliche Systeme bislang nur innerhalb der Grenzen der jeweiligen nationalen Rechtssysteme denken ließen. Die Entwicklungen der letzten Jahrzehnte zeigen jedoch, dass die soziale Realität mehr und mehr staatlich-territorialen Festlegungen entwächst und sich stattdessen funktionell ausdifferenzierte Sektoren herausbilden, für die Landesgrenzen keine Relevanz mehr besitzen. In einer globalisierten Welt, so die Argumentation dieser Abhandlung, entsteht globaler Regulierungsbedarf außerhalb der traditionellen staatlichen Rechtssysteme. Um diesem Bedarf adäquat zu begegnen, muss das IPR als übergreifendes System gedacht werden, innerhalb dessen den einzelnen Staaten lediglich die Rolle unselbständiger Subsysteme zukommt. Die Auswirkungen dieser neuen Sichtweise werden anhand des Problems der Anwendung „fremden“ Rechts untersucht. / This thesis addresses the question of what conceptual framework is adequate for private international law in the light of modern developments. “Classic” private international law conceives of “the Law” as necessarily being issued by a state entity, as a consequence of which systems of private international law so far have been conceptually limited to the realm of national law systems. The developments of recent decades, however, show that social reality transcends governmental and territorial determinations with the creation of functionally differentiated sectors regardless of territorial boundaries. According to my argumentation, globalization entails global regulation necessities outside of the traditional national systems of law. In order to adequately meet the requirements of this new reality, private international law should be conceived of as an overarching system which comprises the national systems as mere subsystems. The consequences of this new perspective are being analyzed with regard to the problem of the application of "foreign" law.
70

Optimizing Checkpoint/Restart and Input/Output for Large Scale Applications

Jami, Masoud 15 November 2024 (has links)
Im Bereich von Exascale Computing und HPC sind Fehler nicht gelegentlich. Sondern treten sie regelmäßig während der Laufzeit von Anwendungen auf. Die Bewältigung dieser Herausforderungen ist wichtig, um die Zuverlässigkeit der Supercomputing-Anwendung zu verbessern. Checkpoint/Restart ist eine Technik, die in HPC verwendet wird, um die Ausfallsicherheit bei Ausfällen zu verbessern. Dabei wird der Status einer Anwendung regelmäßig auf der Festplatte gespeichert, sodass die Anwendung bei einem Ausfall vom letzten Checkpoint aus neu gestartet werden kann. Checkpointing kann jedoch zeitaufwändig sein insbesondere hinsichtlich I/O. Daher ist die Optimierung des C/R-Prozesses wichtig, um seine Auswirkungen auf die Anwendungsleistung zu reduzieren und die Job-Resilienz zu verbessern. Der erste Teil dieser Arbeit erforscht und entwickelt innovative Techniken im Bereich des C/R-Managements im HPC-Kontext. Dazu gehört die Entwicklung eines neuartigen C/R-Ansatzes, die Entwicklung eines Modells für mehrstufiges C/R, und die Optimierung der gemeinsamen Nutzung von Burst-Puffer für C/R in Supercomputern. C/R-Prozeduren erzeugen umfangreiche I/O-Operationen. Daher ist eine Optimierung der I/O-Prozesse zwingend erforderlich. Um den C/R-Prozess zu optimieren, ist es auch wichtig, das I/O-Verhalten einer Anwendung zu verstehen, einschließlich der Menge an Daten, die geschrieben werden müssen, wie oft Checkpoints genommen werden sollten und wo die Checkpoints gespeichert werden sollen. Daher untersuchen und stellen wir im zweiten Teil Innovationen von Ansätzen für I/O-Modellierung und -Management. Dazu gehört die Entwicklung eines Plugins für GCC, das das optimale Speichergerät für die I/O von Anwendungen basierend auf ihrem durch Pragma-Vorstellungen definierten Verhalten auswählt, und die Entwicklung eines Modells zur Schätzung der I/O-Kosten Anwendungen unter Linux unter Berücksichtigung von Seitenverwaltung und Prozessdrosselung. / In the context of exascale computing and HPC, failures are not occasional but rather inherent, occurring during the runtime of applications. Addressing these challenges is essential to enhance the resilience and reliability of supercomputing operations. Checkpoint/Restart (C/R) is a technique used in HPC to improve job resilience in the case of failures. This involves periodically saving the state of an application to disk, so that if the application fails, it can be restarted from the last checkpoint. However, checkpointing can be time-consuming and significantly impact application performance, particularly regarding its I/O operations. Therefore, optimizing C/R is crucial for reducing its impact on application performance and improving job resilience. The first part of this work develops novel techniques in C/R management within the context of HPC. This includes developing a novel C/R approach by combining XOR and partner C/R mechanisms, developing a model for multilevel C/R in large computational resources, and optimising the shared usage of burst buffers for C/R in supercomputers. C/R procedures generate substantial I/O operations, emerging as a bottleneck for HPC applications. Hence, the need for optimization in I/O processes becomes imperative to overcome this bottleneck. To optimize the C/R process, it is also important to understand the I/O behavior of an application, including how much data needs to be written, how frequently checkpoints should be taken, and where to store the checkpoints to minimize I/O bottlenecks. Hence, in the second part, we investigate and introduce innovative techniques and approaches for I/O modeling and management. This includes developing a plugin for GNU C Compiler (GCC) that selects the optimal storage device for the I/O of applications based on their behavior that is defined by Pragma notions, and developing a model to estimate I/O cost of applications under Linux considering page management and process throttling.

Page generated in 0.0278 seconds