• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3160
  • 1378
  • 480
  • 24
  • 5
  • 4
  • 1
  • Tagged with
  • 5032
  • 3689
  • 2791
  • 2778
  • 2778
  • 1833
  • 1697
  • 1694
  • 1679
  • 1677
  • 1176
  • 712
  • 686
  • 678
  • 672
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Flexible Modeling of Data Center Networks for Capacity Management / Elastische Modellierung von Rechenzentren-Netzen zwecks Kapazitätsverwaltung

Rygielski, Piotr January 2017 (has links) (PDF)
Nowadays, data centers are becoming increasingly dynamic due to the common adoption of virtualization technologies. Systems can scale their capacity on demand by growing and shrinking their resources dynamically based on the current load. However, the complexity and performance of modern data centers is influenced not only by the software architecture, middleware, and computing resources, but also by network virtualization, network protocols, network services, and configuration. The field of network virtualization is not as mature as server virtualization and there are multiple competing approaches and technologies. Performance modeling and prediction techniques provide a powerful tool to analyze the performance of modern data centers. However, given the wide variety of network virtualization approaches, no common approach exists for modeling and evaluating the performance of virtualized networks. The performance community has proposed multiple formalisms and models for evaluating the performance of infrastructures based on different network virtualization technologies. The existing performance models can be divided into two main categories: coarse-grained analytical models and highly-detailed simulation models. Analytical performance models are normally defined at a high level of abstraction and thus they abstract many details of the real network and therefore have limited predictive power. On the other hand, simulation models are normally focused on a selected networking technology and take into account many specific performance influencing factors, resulting in detailed models that are tightly bound to a given technology, infrastructure setup, or to a given protocol stack. Existing models are inflexible, that means, they provide a single solution method without providing means for the user to influence the solution accuracy and solution overhead. To allow for flexibility in the performance prediction, the user is required to build multiple different performance models obtaining multiple performance predictions. Each performance prediction may then have different focus, different performance metrics, prediction accuracy, and solving time. The goal of this thesis is to develop a modeling approach that does not require the user to have experience in any of the applied performance modeling formalisms. The approach offers the flexibility in the modeling and analysis by balancing between: (a) generic character and low overhead of coarse-grained analytical models, and (b) the more detailed simulation models with higher prediction accuracy. The contributions of this thesis intersect with technologies and research areas, such as: software engineering, model-driven software development, domain-specific modeling, performance modeling and prediction, networking and data center networks, network virtualization, Software-Defined Networking (SDN), Network Function Virtualization (NFV). The main contributions of this thesis compose the Descartes Network Infrastructure (DNI) approach and include: • Novel modeling abstractions for virtualized network infrastructures. This includes two meta-models that define modeling languages for modeling data center network performance. The DNI and miniDNI meta-models provide means for representing network infrastructures at two different abstraction levels. Regardless of which variant of the DNI meta-model is used, the modeling language provides generic modeling elements allowing to describe the majority of existing and future network technologies, while at the same time abstracting factors that have low influence on the overall performance. I focus on SDN and NFV as examples of modern virtualization technologies. • Network deployment meta-model—an interface between DNI and other meta- models that allows to define mapping between DNI and other descriptive models. The integration with other domain-specific models allows capturing behaviors that are not reflected in the DNI model, for example, software bottlenecks, server virtualization, and middleware overheads. • Flexible model solving with model transformations. The transformations enable solving a DNI model by transforming it into a predictive model. The model transformations vary in size and complexity depending on the amount of data abstracted in the transformation process and provided to the solver. In this thesis, I contribute six transformations that transform DNI models into various predictive models based on the following modeling formalisms: (a) OMNeT++ simulation, (b) Queueing Petri Nets (QPNs), (c) Layered Queueing Networks (LQNs). For each of these formalisms, multiple predictive models are generated (e.g., models with different level of detail): (a) two for OMNeT++, (b) two for QPNs, (c) two for LQNs. Some predictive models can be solved using multiple alternative solvers resulting in up to ten different automated solving methods for a single DNI model. • A model extraction method that supports the modeler in the modeling process by automatically prefilling the DNI model with the network traffic data. The contributed traffic profile abstraction and optimization method provides a trade-off by balancing between the size and the level of detail of the extracted profiles. • A method for selecting feasible solving methods for a DNI model. The method proposes a set of solvers based on trade-off analysis characterizing each transformation with respect to various parameters such as its specific limitations, expected prediction accuracy, expected run-time, required resources in terms of CPU and memory consumption, and scalability. • An evaluation of the approach in the context of two realistic systems. I evaluate the approach with focus on such factors like: prediction of network capacity and interface throughput, applicability, flexibility in trading-off between prediction accuracy and solving time. Despite not focusing on the maximization of the prediction accuracy, I demonstrate that in the majority of cases, the prediction error is low—up to 20% for uncalibrated models and up to 10% for calibrated models depending on the solving technique. In summary, this thesis presents the first approach to flexible run-time performance prediction in data center networks, including network based on SDN. It provides ability to flexibly balance between performance prediction accuracy and solving overhead. The approach provides the following key benefits: • It is possible to predict the impact of changes in the data center network on the performance. The changes include: changes in network topology, hardware configuration, traffic load, and applications deployment. • DNI can successfully model and predict the performance of multiple different of network infrastructures including proactive SDN scenarios. • The prediction process is flexible, that is, it provides balance between the granularity of the predictive models and the solving time. The decreased prediction accuracy is usually rewarded with savings of the solving time and consumption of resources required for solving. • The users are enabled to conduct performance analysis using multiple different prediction methods without requiring the expertise and experience in each of the modeling formalisms. The components of the DNI approach can be also applied to scenarios that are not considered in this thesis. The approach is generalizable and applicable for the following examples: (a) networks outside of data centers may be analyzed with DNI as long as the background traffic profile is known; (b) uncalibrated DNI models may serve as a basis for design-time performance analysis; (c) the method for extracting and compacting of traffic profiles may be used for other, non-network workloads as well. / Durch Virtualisierung werden moderne Rechenzentren immer dynamischer. Systeme sind in der Lage ihre Kapazität hoch und runter zu skalieren , um die ankommende Last zu bedienen. Die Komplexität der modernen Systeme in Rechenzentren wird nicht nur von der Softwarearchitektur, Middleware und Rechenressourcen sondern auch von der Netzwerkvirtualisierung beeinflusst. Netzwerkvirtualisierung ist noch nicht so ausgereift wie die Virtualisierung von Rechenressourcen und es existieren derzeit unterschiedliche Netzwerkvirtualisierungstechnologien. Man kann aber keine der Technologien als Standardvirtualisierung für Netzwerke bezeichnen. Die Auswahl von Ansätzen durch Performanzanalyse von Netzwerken stellt eine Herausforderung dar, weil existierende Ansätze sich mehrheitlich auf einzelne Virtualisierungstechniken fokussieren und es keinen universellen Ansatz für Performanzanalyse gibt, der alle Techniken in Betracht nimmt. Die Forschungsgemeinschaft bietet verschiedene Performanzmodelle und Formalismen für Evaluierung der Performanz von virtualisierten Netzwerken an. Die bekannten Ansätze können in zwei Gruppen aufgegliedert werden: Grobetaillierte analytische Modelle und feindetaillierte Simulationsmodelle. Die analytischen Performanzmodelle abstrahieren viele Details und liefern daher nur beschränkt nutzbare Performanzvorhersagen. Auf der anderen Seite fokussiert sich die Gruppe der simulationsbasierenden Modelle auf bestimmte Teile des Systems (z.B. Protokoll, Typ von Switches) und ignoriert dadurch das große Bild der Systemlandschaft. ...
102

Vorwort (der Wissenschaftlichen Zeitschrift der Technischen Universität Dresden, Heft 3-4 / 2006)

Irrgang, Bernhard 30 August 2007 (has links) (PDF)
Chancen und Risiken – das ist das bekannte Schema von Technologiefolgenabschätzung und Technologiebewertung in den letzten Jahrzehnten gewesen. Die Beiträge dieses Heftes sind gegliedert in die Komplexe • Methodenprobleme und Grundsatzfragen • Risikobewältigung im Bauingenieurswesen • Risiken in Naturwissenschaft, Technik und Medizin • Risiken in Gesellschaft, Technik und Wirtschaft
103

Mikrocharakterisierung nanokristalliner Nickel-Phosphor- und Eisen-Silber-Legierungen mit der Tomographischen Atomsonde

Färber, Boye 27 April 2000 (has links)
No description available.
104

Breaking the vicious cycle in peripheral rural regions: the case of "Waldviertler Wohlviertel" in Austria

Kurka, Bernhard, Maier, Gunther, Sedlacek, Sabine January 2007 (has links) (PDF)
Loss of population is a well-known phenomenon in peripheral rural regions. The most identified problems are based on structural weaknesses in terms of decreasing business activities and a lack of public infrastructure. In such regions population is mainly older causing major changes in social infrastructure. For instance many schools and kindergartens close down for lack of demand, which hinders young families to migrate to such regions. The result is typically a negative cumulative process of loss of population, loss of jobs, loss of infrastructure, further out migration. It is an enormous challenge for such regions to overcome this vicious circle. A more detailed look often shows a more differentiated picture and offers opportunities for policy action. First, although people are moving out of these locations new in-migrants are interested in such peripheral regions and their strengths, such as silence, a beautiful natural landscape without urban character etc. Second, new technologies enable skilled personnel to work without urban infrastructure and face-to-face networks. Third, there is an enormous potential in people who moved but do have permanent contact with their home region in terms of regaining them after retiring. The region under study "Waldviertler Wohlviertel Thaya-Taffa-Wild" consists of nine communities in the Austrian province of "Lower Austria". Since 2002 the region aims to develop a joint strategy for improving the regional conditions. The most pressing problem is the loss of population in the region which is accompanied by a loss of business activity and public infrastructure. Based on a detailed analysis of the situation, the study aims at identifying opportunities and strategies for counter action. The paper will present our empirical results focussing on regional identity coming out of a qualitative data analysis and a postal survey. / Series: SRE - Discussion Papers
105

Designoptimierung von Sternsensoren für Pico- und Nanosatelliten / Design optimization of star sensors for pico- and nanosatellites

Balagurin, Oleksii January 2022 (has links) (PDF)
Die Raumfahrt ist eine der konservativsten Industriebranchen. Neue Entwicklungen von Komponenten und Systemen beruhen auf existierenden Standards und eigene Erfahrungen der Entwickler. Die Systeme sollen in einem vorgegebenen engen Zeitrahmen projektiert, in sehr kleiner Stückzahl gefertigt und schließlich aufwendig qualifiziert werden. Erfahrungsgemäß reicht die Zeit für Entwicklungsiterationen und weitgehende Perfektionierung des Systems oft nicht aus. Fertige Sensoren, Subsysteme und Systeme sind Unikate, die nur für eine bestimme Funktion und in manchen Fällen sogar nur für bestimmte Missionen konzipiert sind. Eine Neuentwicklung solcher Komponenten ist extrem teuer und risikobehaftet. Deswegen werden flugerprobte Systeme ohne Änderungen und Optimierung mehrere Jahre eingesetzt, ohne Technologiefortschritte zu berücksichtigen. Aufgrund des enormen finanziellen Aufwandes und der Trägheit ist die konventionelle Vorgehensweise in der Entwicklung nicht direkt auf Kleinsatelliten übertragbar. Eine dynamische Entwicklung im Low Cost Bereich benötigt eine universale und für unterschiedliche Anwendungsbereiche leicht modifizierbare Strategie. Diese Strategie soll nicht nur flexibel sein, sondern auch zu einer möglichst optimalen und effizienten Hardwarelösung führen. Diese Arbeit stellt ein Software-Tool für eine zeit- und kosteneffiziente Entwicklung von Sternsensoren für Kleinsatelliten vor. Um eine maximale Leistung des Komplettsystems zu erreichen, soll der Sensor die Anforderungen und Randbedingungen vorgegebener Anwendungen erfüllen und darüber hinaus für diese Anwendungen optimiert sein. Wegen der komplexen Zusammenhänge zwischen den Parametern optischer Sensorsysteme ist keine „straightforward" Lösung des Problems möglich. Nur durch den Einsatz computerbasierter Optimierungsverfahren kann schnell und effizient ein bestmögliches Systemkonzept für die gegebenen Randbedingungen ausgearbeitet werden. / Aerospace is one of the most conservative industries. New developments of components and systems are based on existing standards and experience of developers. The systems should be projected in a given tight time frame, manufactured in very small quantities and finally qualified in a costly way. Experience shows that there is often insufficient time for development iterations and extensive perfection of the system. Finished sensors, subsystems and systems are unique, designed only for a specific function and in some cases even only for specific missions. New development of such components is extremely expensive and risky. For this reason, flight-proven systems are used for several years without modifications or optimization, and without taking technological advances into account. Due to the enormous financial effort and lethargy, the common approach to development is not directly applicable to small satellites. Dynamic development in the low-cost sector requires a universal strategy that can be easily modified for different applications. This strategy should not only be flexible, but also lead to the most optimal and efficient hardware solution. This work presents a software tool for a time and cost efficient development of star sensors for small satellites. In order to achieve maximal performance of the complete system, the sensor should fulfil the requirements and constraints of specified applications and, moreover, be optimized for these applications. Due to the complex interrelationships between the parameters of optical sensor systems, no straight forward solution of the problem is possible. Only by using computer based optimization methods, a best possible system concept for the given boundary conditions can be worked out quickly and efficiently.
106

3D change detection from high and very high resolution satellite stereo imagery

Tian, Jiaojiao 13 December 2013 (has links)
Change detection is one of the most essential processing steps for monitoring urban and forest areas using remote sensing data. Even though 2D data obtained from satellite images from different dates can already provide plenty of useful information, it is usually insufficient when dealing with changes in the vertical direction. Moreover, if only one class of changes, such as buildings or forest, is of interest, it is often difficult to distinguish between relevant and irrelevant changes. In such cases, the information provided by Digital Surface Models (DSMs) is crucial, as it provides additional height information, which can be indispensable when analyzing changes. This dissertation addresses the challenge of using DSMs generated by satellite stereo images for 3D change detection. DSM generation techniques based on stereo imagery from space have been improved continuously in recent years, enhancing the quality of the generated DSMs considerably. Nevertheless, up to now these DSMs have not been widely adopted for change detection methods. Available 3D change detection approaches prefer LiDAR data, which are more accurate but have the drawback of being more expensive and exhibit a comparatively low temporal repetition rate. The characteristic and quality of DSMs based on satellite stereo imagery have so far hardly been considered within 3D change detection procedures. Therefore, more in-depth investigations concerning the adoption of these DSMs for 3D change detection should be performed. In this dissertation, DSMs based on stereo imagery have been visually and numerically evaluated and subsequently analyzed for various land cover types. Taking into account the quality of DSMs generated with the described methods, three DSM-assisted change detection approaches are developed. The first method, called “DSM-assisted change localization”, describes a robust change difference map generation method followed by DSM denoising. The generated change map is refined using vegetation and shadow masks and finally shape feature are used to consolidate the results through distinguishing relevant from irrelevant objects. Concerning fusion-based change detection, two methods, feature fusion and decision fusion, are proposed. The proposed feature fusion methods make use of the fact that panchromatic images feature much sharper contours than DSMs. To alleviate the shortcomings of the DSMs, the designed region-based change detection framework extracts the original regions from the ortho-images. For this approach, a new robust region-merging strategy is proposed to combine segmentation maps from two dates. Regarding the uncertain information contained in the DSMs and spectral images, a decision fusion method is proposed as the second fusion-based change detection method. The extracted features are classified as change indicators and no-change indicators, while two steps of the Dempster-Shafer fusion model are implemented for the final change detection. Post-classification is a common DSM-assisted change detection method, since the DSM can be very helpful for building extraction. In this third approach, the changed building’s location is obtained by comparing the new building mask with existing (often outdated) building footprint information, e.g. from GIS databases. To extract the boundaries of newly built buildings, a robust building extraction method has been developed by also considering the quality of the DSM. These three approaches are evaluated experimentally using four representative data sets. Quantitative and qualitative experimental results obtained from each data set are analyzed in detail. The experimental results show that all of the proposed approaches are able to determine the change status of the objects of interest. The results achieved vary according to the DSM quality, the object of interest and the test area. Furthermore, it is shown experimentally that, by making proper use of DSMs in complex decision frameworks, both the efficiency and the accuracy of the change detection are improve in comparison to 2D change detection approaches. In addition, the developed approaches enable the rapid localization of changes concerning objects of interest, such as buildings and forest, which is valuable for many applications such as fast response systems after earthquake or other disasters.
107

Performance Evalution and Optimization of Content Delivery Networks / Leistungsbewertung und Optimierung von Content Delivery Networks

Burger, Valentin January 2017 (has links) (PDF)
Content Delivery Networks (CDNs) are networks that distribute content in the Internet. CDNs are increasingly responsible for the largest share of traffic in the Internet. CDNs distribute popular content to caches in many geographical areas to save bandwidth by avoiding unnecessary multihop retransmission. By bringing the content geographically closer to the user, CDNs also reduce the latency of the services. Besides end users and content providers, which require high availability of high quality content, CDN providers and Internet Service Providers (ISPs) are interested in an efficient operation of CDNs. In order to ensure an efficient replication of the content, CDN providers have a network of (globally) distributed interconnected datacenters at different points of presence (PoPs). ISPs aim to provide reliable and high speed Internet access. They try to keep the load on the network low and to reduce cost for connectivity with other ISPs. The increasing number of mobile devices such as smart phones and tablets, high definition video content and high resolution displays result in a continuous growth in mobile traffic. This growth in mobile traffic is further accelerated by newly emerging services, such as mobile live streaming and broadcasting services. The steep increase in mobile traffic is expected to reach by 2018 roughly 60% of total network traffic, the majority of which will be video. To handle the growth in mobile networks, the next generation of 5G mobile networks is designed to have higher access rates and an increased densification of the network infrastructure. With the explosion of access rates and number of base stations the backhaul of wireless networks will become congested. To reduce the load on the backhaul, the research community suggests installing local caches in gateway routers between the wireless network and the Internet, in base stations of different sizes, and in end-user devices. The local deployment of caches allows keeping the traffic within the ISPs network. The caches are organized in a hierarchy, where caches in the lowest tier are requested first. The request is forwarded to the next tier, if the requested object is not found. Appropriate evaluation methods are required to optimally dimension the caches dependent on the traffic characteristics and the available resources. Additionally methods are necessary that allow performance evaluation of backhaul bandwidth aggregation systems, which further reduce the load on the backhaul. This thesis analyses CDNs utilizing locally available resources and develops the following evaluations and optimization approaches: Characterization of CDNs and distribution of resources in the Internet, analysis and optimization of hierarchical caching systems with bandwidth constraints and performance evaluation of bandwidth aggregation systems. / Netzwerke über die Inhalte im Internet verteilt werden, sogenannte „Content Delivery Networks“ (CDNs), sind für den Großteil des Datenverkehrs im Internet verantwortlich. Sie verteilen häufig angefragte Inhalte an Datenzentren und Zwischenspeicher, sogenannte „Caches“, die geographisch über viele Regionen verteilt sind. So erzielen CDNs Einsparungen in der Bandbreite, indem der Pfad von der Quelle des Inhalts zu den Caches entlastet wird. Da die Inhalte näher zu den Endnutzern gebracht werden, verringern CDNs außerdem die Latenz der Verbindung zu den bereitgestellten Diensten. Neben den Nutzern und Anbietern von Inhalten, die eine hohe Verfügbarkeit von qualitativ hochwertigen Inhalten fordern, sind CDN-Betreiber und Internetdienstanbieter an einem effizienten Betrieb von CDNs interessiert. Um eine effiziente Verteilung der Inhalte zu gewährleisten, erstellen CDN-Betreiber ein Netzwerk von Datenzentren, das global auf unterschiedliche wichtige Standorte verteilt ist. So versuchen CDN-Betreiber die Inhalte entsprechend der regionalen Nachfrage kosteneffizient an den verschiedenen Standorten vorzuhalten. Internetdienstanbieter ermöglichen, durch Bereitstellung von Breitband-anschlüssen, den Transport der Inhalte zu den Endnutzern. Sie versuchen die Last auf ihre Netze und die Kosten für Transitverbindungen gering zu halten. Durch die steigende Anzahl von mobilen Endgeräten, hochauflösenden Videoinhalten und Displays steigt der Datenverkehr in mobilen Verbindungsnetzwerken stetig an, wodurch sich neue Herausforderungen für CDNs ergeben. Zudem begünstigen neue Dienste, wie mobile Live-Videoübertragungen, das zunehmende Wachstum des mobilen Datenverkehrs. Laut aktueller Prognosen soll der mobile Datenverkehr im Jahr 2018 bereits zu 60% zum Gesamtverkehr des Internets beitragen. Um die erwartete Zunahme des mobilen Datenverkehrs zu kompensieren, wird die nächste Generation der mobilen Netzwerke entworfen, die eine höhere Dichte an Mobilfunkbasisstationen mit höheren Datenraten vorsieht. Es zeichnet sich ab, dass der starke Anstieg der Datenraten und die höhere Anzahl an Basisstationen dazu führen, dass es zu Bandbreitenengpässen in der Anbindung der Zugriffsnetze, dem sogenannten „Backhaul“, kommt. Um die Last auf den Backhaul zu verringern, sehen verschiedene Ansätze vor, lokale Caches in den Verbindungsknoten zwischen den mobilen Netzen, dem Internet und auf Endgeräten einzurichten. Die lokale Bereitstellung der Inhalte ermöglicht den Datenverkehr innerhalb der Zugriffsnetze zu halten. Die Caches werden hierarchisch angeordnet, wobei die lokalen Caches mit geringer Kapazität, nahe am Nutzer die unterste Hierarchiestufe bilden. Eine Anfrage an einen Inhalt, die in einer Hierarchiestufe nicht bedient werden kann, wird an die nächste Hierarchiestufe weitergeleitet. Es werden Mechanismen benötigt, die die Inhalte optimal auf die lokalen Caches verteilen, um die begrenzten Ressourcen effizient zu nutzen. Die richtige Dimensionierung der Caches abhängig von den Verkehrscharakteristiken und der verfügbaren Ressourcen setzen passende Evaluierungsmethoden voraus. Darüber hinaus werden Bewertungsmechanismen benötigt um zu beurteilen, wie die verfügbare Bandbreite im Backhaul, durch Aggregation der Zugriffsverbindungen, erhöht werden kann. Diese Doktorarbeit analysiert CDNs unter der Nutzung lokal verfügbarer Ressourcen und erarbeitet die folgenden Auswertungen und Optimierungsmöglichkeiten. Charakterisierung von CDNs und Verteilung der Ressourcen im Internet, Analyse und Optimierung von hierarchischen Caching Systemen unter Berücksichtigung von Bandbreitenbeschränkungen und Leistungsbewertung von Aggregationssystemen zur Bestimmung der verfügbaren Bandbreite durch Aggregation der Zugriffsverbindungen.
108

Developing a Framework for International Projects of ERP Implementation / Entwicklung eines Rahmens für internationale Projekte der ERP-Implementierung

Yazdani Rashvanlouei, Kourosh January 2017 (has links) (PDF)
Enterprise Systeme werden immer mehr von Bedeutung, was sie in die Mitte der Aufmerksamkeit und der Berücksichtigung durch Organisationen in verschiedensten Formen rückt – seien es Unternehmen oder Industrien von riesigen öffentlichen oder privaten Organisationen bis hin zu mittleren und kleinen Dienstleistungsunternehmen. Diese Systeme verbessern sich ständig, sowohl funktionell, als auch technologisch und sie sind unumgänglich für Unternehmen, um ihre Produktivität zu vergrößern und um in dem nationalen und globalen Wettbewerb mitzuhalten. Da lokale Softwarelösungen die Bedingungen, speziell von großen Betrieben, funktionell und technologisch nicht erfüllen konnten und da riesige globale Softwarehersteller, wie SAP, Oracle und Microsoft ihre Lösungen rapide verbessern und sie ihren Markt immer mehr über den Globus expandieren, nimmt die Nachfrage für diese globalen Marken und deren nahezu einwandfreien Softwarelösungen täglich zu. Die Zustimmung für internationale ERP Unternehmensberatungsanwendungen nimmt deswegen exponentiell zu, während die Forschung der beeinflussenden Faktoren und des Fachwissens wenig verbreitet ist. Deswegen ist es so dringlich, dieses Gebiet zu erforschen. Das schlussendliche fünf-in-fünf Framework dieser Studie sammelt zum ersten Mal in der Geschichte alle historisch erwähnten, kritischen Erfolgsfaktoren und Projektaktivitäten. Diese wurden in fünf Phasen unterteilt und nach den fünf Schwerpunkten der internationalen ERP Projektdurchführung kategorisiert. Dieses Framework bietet einen Überblick und bildet einen umfassenden Fahrplan für solche Projekte. / The importance of enterprise systems is increasingly growing and they are in the center of attention and consideration by organizations in various types of business and industries from extra-large public or private organizations to small and medium-sized service sector business. These systems are continuously advancing functionally and technologically and are inevitable and ineluctable for the enterprises to maximize their productivity and integration in current competitive national and global business environments. Also, since local software solutions could not meet the requirements of especially large enterprises functionally and technically, and as giant global enterprise software producers like SAP, Oracle and Microsoft are improving their solutions rapidly and since they are expanding their market to more corners of the globe, demand for these globally branded low-defect software solutions is daily ascending. The agreements for international ERP implementation project consultancy are, therefore, exponentially increasing, while the research on the influencing factors and know-hows is scattered and rare, and thus, a timely urgency for this field of research is being felt. The final developed five-in-five framework of this study, for the first time, collects all mentioned-in-the-history critical success factors and project activities, while sequencing them in five phases and categorizing them in five focus areas for international ERP implementation projects. This framework provides a bird’s-eye view and draws a comprehensive roadmap or instruction for such projects.
109

Methods and Benchmarks for Auto-Scaling Mechanisms in Elastic Cloud Environments / Methoden und Messverfahren für Mechanismen des automatischen Skalierens in elastischen Cloudumgebungen

Herbst, Nikolas Roman January 2018 (has links) (PDF)
A key functionality of cloud systems are automated resource management mechanisms at the infrastructure level. As part of this, elastic scaling of allocated resources is realized by so-called auto-scalers that are supposed to match the current demand in a way that the performance remains stable while resources are efficiently used. The process of rating cloud infrastructure offerings in terms of the quality of their achieved elastic scaling remains undefined. Clear guidance for the selection and configuration of an auto-scaler for a given context is not available. Thus, existing operating solutions are optimized in a highly application specific way and usually kept undisclosed. The common state of practice is the use of simplistic threshold-based approaches. Due to their reactive nature they incur performance degradation during the minutes of provisioning delays. In the literature, a high-number of auto-scalers has been proposed trying to overcome the limitations of reactive mechanisms by employing proactive prediction methods. In this thesis, we identify potentials in automated cloud system resource management and its evaluation methodology. Specifically, we make the following contributions: We propose a descriptive load profile modeling framework together with automated model extraction from recorded traces to enable reproducible workload generation with realistic load intensity variations. The proposed Descartes Load Intensity Model (DLIM) with its Limbo framework provides key functionality to stress and benchmark resource management approaches in a representative and fair manner. We propose a set of intuitive metrics for quantifying timing, stability and accuracy aspects of elasticity. Based on these metrics, we propose a novel approach for benchmarking the elasticity of Infrastructure-as-a-Service (IaaS) cloud platforms independent of the performance exhibited by the provisioned underlying resources. We tackle the challenge of reducing the risk of relying on a single proactive auto-scaler by proposing a new self-aware auto-scaling mechanism, called Chameleon, combining multiple different proactive methods coupled with a reactive fallback mechanism. Chameleon employs on-demand, automated time series-based forecasting methods to predict the arriving load intensity in combination with run-time service demand estimation techniques to calculate the required resource consumption per work unit without the need for a detailed application instrumentation. It can also leverage application knowledge by solving product-form queueing networks used to derive optimized scaling actions. The Chameleon approach is first in resolving conflicts between reactive and proactive scaling decisions in an intelligent way. We are confident that the contributions of this thesis will have a long-term impact on the way cloud resource management approaches are assessed. While this could result in an improved quality of autonomic management algorithms, we see and discuss arising challenges for future research in cloud resource management and its assessment methods: The adoption of containerization on top of virtual machine instances introduces another level of indirection. As a result, the nesting of virtual resources increases resource fragmentation and causes unreliable provisioning delays. Furthermore, virtualized compute resources tend to become more and more inhomogeneous associated with various priorities and trade-offs. Due to DevOps practices, cloud hosted service updates are released with a higher frequency which impacts the dynamics in user behavior. / Eine Schlüsselfunktionalität von Cloud-Systemen sind automatisierte Mechanismen zur Ressourcenverwaltung auf Infrastrukturebene. Als Teil hiervon wird das elastische Skalieren der allokierten Ressourcen durch eigene Mechanismen realisiert. Diese sind dafür verantwortlich, dass die dynamische Ressourcenzuteilung die aktuelle Nachfrage in einem Maße trifft, welches die Performance stabil hält und gleichzeitig Ressourcen effizient auslastet. Prozesse, welche die Bewertung der Qualität von elastischem Skalierungsverhalten in der Realität ermöglichen, sind derzeit nicht umfassend definiert. Folglich fehlt es an Leitfäden und Entscheidungskriterien bei der Auswahl und Konfiguration automatisch skalierender Mechanismen. In der Praxis zum Einsatz kommende Lösungen sind auf ihr Anwendungsszenario optimiert und werden in fast allen Fällen unter Verschluss gehalten. Mehrheitlich werden einfache, schwellenwertbasierte Regelungsansätze eingesetzt. Diese nehmen aufgrund ihres inhärent reaktiven Charakters verschlechterte Performance während der Bereitstellungsverzögerung im Minutenbereich in Kauf. In der Literatur wird eine große Anzahl an Mechanismen zur automatischen Skalierung vorgeschlagen, welche versuchen, diese Einschränkung durch Einsatz von Schätzverfahren zu umgehen. Diese können in Ansätze aus der Warteschlangentheorie, der Kontrolltheorie, der Zeitreihenanalyse und des maschinellen Lernens eingeteilt werden. Jedoch erfreuen sich prädiktive Mechanismen zum automatischen Skalieren aufgrund des damit verknüpften hohen Risikos, sich auf einzelne Schätzverfahren zu verlassen, bislang keines breiten Praxiseinsatzes. Diese Dissertation identifiziert Potenziale im automatisierten Ressourcenmanagement von Cloud-Umgebungen und deren Bewertungsverfahren. Die Beiträge liegen konkret in den folgenden Punkten: Es wird eine Sprache zur deskriptiven Modellierung von Lastintensitätsprofilen und deren automatischer Extraktion aus Aufzeichnungen entwickelt, um eine wiederholbare Generierung von realistischen und in ihrer Intensität variierenden Arbeitslasten zu ermöglichen. Das vorgeschlagene Descartes Lastintensitätsmodell (DLIM) zusammen mit dem Limbo Software-Werkzeug stellt hierbei Schlüsselfunktionalitäten zur repräsentativen Arbeitslastgenerierung und fairen Bewertung von Ressourcenmanagementansätzen zur Verfügung. Es wird eine Gruppe intuitiver Metriken zur Quantifizierung der zeit-, genauigkeits- und stabilitätsbezogenen Qualitätsaspekte elastischen Verhaltens vorgeschlagen. Basierend auf diesen zwischenzeitlich von der Forschungsabteilung der Standard Performance Evaluation Corporation (SPEC) befürworteten Metriken, wird ein neuartiges Elastizitätsmessverfahren zur fairen Bewertung von Infrastruktur-Cloud-Dienstleistungen, unabhängig von der Leistungsfähigkeit der zugrunde liegenden Ressourcen, entwickelt. Durch die Entwicklung eines neuartigen, hybriden Ansatzes zum automatischen Skalieren, genannt Chameleon, wird das Risiko reduziert, welches sich aus dem Einsatz einzelner proaktiver Methoden automatischen Skalierens ergibt. Chameleon kombiniert mehrere verschiedene proaktive Methoden und ist mit einer reaktiven Rückfallebene gekoppelt. Dazu verwendet Chameleon bei Bedarf automatische Zeitreihenvorhersagen, um ankommende Arbeitslasten abzuschätzen. Ergänzend dazu kommen Techniken der Serviceanforderungsabschätzung zur Systemlaufzeit zum Einsatz, um den Ressourcenverbrauch einzelner Arbeitspakete in etwa zu bestimmen, ohne dass eine feingranulare Instrumentierung der Anwendung erforderlich ist. Abgesehen davon nutzt Chameleon anwendungsbezogenes Wissen, um Warteschlangennetze in Produktform zu lösen und optimale Skalierungsaktionen abzuleiten. Der Chameleon-Ansatz ist der erste seiner Art, welcher Konflikte zwischen reaktiven und proaktiven Skalierungsaktionen in intelligenter Art und Weise aufzulösen vermag. Zusammenfassend kann gesagt werden, dass die Beiträge dieser Dissertation auf lange Sicht die Art und Weise beeinflussen dürften, in welcher Ressourcenmanagementansätze in Cloudumgebungen bewertet werden. Ein Ergebnis wäre unter anderem eine verbesserte Qualität der Algorithmen für ein automatisches Ressourcenmanagement. Als Grundlage für zukünftige Forschungsarbeiten werden aufkommende Herausforderungen identifiziert und diskutiert: Die Einführung der Containerisierung innerhalb von virtuellen Maschineninstanzen bewirkt eine weitere Ebene der Indirektion. Als Folge dieser Verschachtelung der virtuellen Ressourcen wird die Fragmentierung erhöht und unzuverlässige Bereitstellungsverzögerungen verursacht. Außerdem tendieren die virtualisierten Rechenressourcen aufgrund von Priorisierung und Zielkonflikten mehr und mehr zu inhomogenen Systemlandschaften. Aufgrund von DevOps-Praktiken werden Softwareupdates von Diensten in Cloudumgebungen mit einer höheren Frequenz durchgeführt, welche sich auf das Benutzungsverhalten dynamisierend auswirken kann.
110

Intelligent analysis of medical data in a generic telemedicine infrastructure / Intelligente Datenanalyse in einer generischen Telemedizinumgebung

Albert, Michael January 2019 (has links) (PDF)
Telemedicine uses telecommunication and information technology to provide health care services over spatial distances. In the upcoming demographic changes towards an older average population age, especially rural areas suffer from a decreasing doctor to patient ratio as well as a limited amount of available medical specialists in acceptable distance. These areas could benefit the most from telemedicine applications as they are known to improve access to medical services, medical expertise and can also help to mitigate critical or emergency situations. Although the possibilities of telemedicine applications exist in the entire range of healthcare, current systems focus on one specific disease while using dedicated hardware to connect the patient with the supervising telemedicine center. This thesis describes the development of a telemedical system which follows a new generic design approach. This bridges the gap of existing approaches that only tackle one specific application. The proposed system on the contrary aims at supporting as many diseases and use cases as possible by taking all the stakeholders into account at the same time. To address the usability and acceptance of the system it is designed to use standardized hardware like commercial medical sensors and smartphones for collecting medical data of the patients and transmitting them to the telemedical center. The smartphone can also act as interface to the patient for health questionnaires or feedback. The system can handle the collection and transport of medical data, analysis and visualization of the data as well as providing a real time communication with video and audio between the users. On top of the generic telemedical framework the issue of scalability is addressed by integrating a rule-based analysis tool for the medical data. Rules can be easily created by medical personnel via a visual editor and can be personalized for each patient. The rule-based analysis tool is extended by multiple options for visualization of the data, mechanisms to handle complex rules and options for performing actions like raising alarms or sending automated messages. It is sometimes hard for the medical experts to formulate their knowledge into rules and there may be information in the medical data that is not yet known. This is why a machine learning module was integrated into the system. It uses the incoming medical data of the patients to learn new rules that are then presented to the medical personnel for inspection. This is in line with European legislation where the human still needs to be in charge of such decisions. Overall, we were able to show the benefit of the generic approach by evaluating it in three completely different medical use cases derived from specific application needs: monitoring of COPD (chronic obstructive pulmonary disease) patients, support of patients performing dialysis at home and councils of intensive-care experts. In addition the system was used for a non-medical use case: monitoring and optimization of industrial machines and robots. In all of the mentioned cases, we were able to prove the robustness of the generic approach with real users of the corresponding domain. This is why we can propose this approach for future development of telemedical systems. / Telemedizin nutzt Telekommunikation und Informationstechnologie, um medizinische Dienstleistungen über räumliche Distanzen hinweg zu ermöglichen. Durch den demographischen Wandel hin zu einer älteren Bevölkerung, verschlechtert sich vor allem im ländlichen Raum der Betreuungsschlüssel zwischen (Fach-)ärzten und Patienten, während Experten in den jeweiligen medizinischen Spezialgebieten sehr weit verteilt sind und Anfahrtswege immer weiter werden. Gerade der ländliche Raum profitiert von der Telemedizin. Anfahrtswege entfallen, wenn Untersuchungen oder ärztliche Konzile über Telemedizinsysteme abgewickelt werden. Kritische Situationen können entschärft oder vermieden werden, wenn Spezialisten durch Telemedizin frühzeitig eingebunden werden. Aktuelle Telemedizinsysteme sind allerdings generell auf ein bestimmtes Krankheitsbild beschränkt und verwenden dedizierte Hardware, um den Patienten mit dem telemedizinischen Zentrum zu verbinden, obwohl ein breiteres Anwendungsspektrum in der gesamten Gesundheitsversorgung denkbar ist. Diese Arbeit beschreibt die Entwicklung eines Telemedizinsystems, das darauf ausgelegt ist das System so generisch zu planen und zu entwickeln, dass möglichst viele Krankheitsbilder und Anwendungsfälle abgebildet werden können. Dafür werden alle möglichen Beteiligten des Systems mit berücksichtigt und einbezogen. Um das Telemedizinsystem bedienerfreundlich zu gestalten und die Akzeptanz zu erhöhen, wurde auf den Einsatz von Standardhardware, wie kommerzielle medizinische Sensorik oder Smartphones, hoher Wert gelegt. Das Smartphone dient dabei unter anderem als Patientengerät, das die Daten verschiedenster Sensorik auslesen, aggregieren und an das zentrale System weiterleiten kann. Es kann interaktive Fragebögen anzeigen und verwendet werden, um dem Patienten Feedback zu den Daten zu geben. Das Telemedizinsystem unterstützt die komplette Kette der telemedizinischen Datenverarbeitung, von der Aufnahme der Daten über den abgesicherten Transport bis hin zur Analyse und Visualisierung der Daten. Zusätzlich wird eine Kommunikationsmöglichkeit der Beteiligten über Audio- oder Videotelefonie zur Verfügung gestellt. Um die Skalierbarkeit des Systems zu erhöhen, wurde ein regelbasiertes Auswertesystem für die Patientendaten implementiert. Das medizinische Personal kann über ein einfach zu bedienendes grafisches Interface patientenindividuelle Regeln anlegen. Das Regelsystem ist in der Lage die Daten anhand komplexer Regeln zu analysieren, Visualisierungen zu erzeugen oder Aktionen auszulösen, wie beispielsweise einen Alarm zu geben, wenn die Werte des Patienten sich verschlechtern. Es kommt vor, dass die Experten ihr Wissen nicht in konkrete Regeln formulieren können oder dass Wissen in den Daten steckt, das den Experten selbst nicht bekannt ist. Deshalb kommt ein weiteres Modul zum Einsatz, das anhand der eingehenden Daten mittels maschinellem Lernen neue Regeln erzeugt und dem Fachpersonal zur Überprüfung vorschlägt. Die letzte Entscheidung liegt immer bei dem jeweiligen Fachpersonal, so dass das System konform zu aktuellem europäischem Recht arbeitet. Der generische Ansatz des Telemedizinsystems wurde in drei verschiedenen medizinischen Anwendungsszenarien mit den entsprechenden Anwendern getestet: Langzeitmonitoring von COPD (chronisch obstruktive Lungenerkrankung) Patienten, Unterstützung von Heimdialyse Patienten und intensivmedizinische Konsile. Zusätzlich wurde das System im industriellen Anwendungskontext zum Überwachen und Optimieren von Industrieanlagen und Industrierobotern eingesetzt. In allen Anwendungsfällen konnten wir die Machbarkeit des Systems zeigen und mit Anwendern aus dem jeweiligen Fachbereich evaluieren. Das System kann somit als robuste Grundlage für die Entwicklung weiterer Telemedizinsysteme und Anwendungen dienen.

Page generated in 0.0858 seconds