• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 780
  • 217
  • 122
  • 65
  • 54
  • 34
  • 32
  • 30
  • 28
  • 21
  • 15
  • 14
  • 9
  • 9
  • 7
  • Tagged with
  • 1601
  • 1601
  • 392
  • 282
  • 244
  • 243
  • 235
  • 231
  • 231
  • 228
  • 218
  • 210
  • 176
  • 175
  • 154
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Alma

Giersch, Katrin, Schiemichen, Astrid, Stenzel, Petra-Sibylle 19 November 2015 (has links) (PDF)
Praktisch mehr erreichen! Der Slogan der Hochschule für Technik und Wirtschaft (HTW) Dresden gilt gleichermaßen für die Hochschulbibliotheken. Als Serviceeinrichtungen bemühen wir uns intensiv darum, unsere Kunden, die Studierenden, Wissenschaftler und Angestellten der Hochschule sowie interessierte Bürger bestmöglich mit Literatur zu versorgen und optimale Lern und Aufenthaltsbedingungen zu bieten.
412

Debesų kompiuterijos paslaugos pritaikymas internetinei matematinio programavimo ir modeliavimo sistemai / The Application of Cloud Computing for Online Mathematical Programming and Simulation System

Barauskas, Nerijus 29 July 2013 (has links)
Šio darbo pagrindinis tikslas yra suprojektuoti ir realizuoti debesų kompiuterijos paslaugą internetinei matematinio programavimo ir modeliavimo sistemai, kuri galėtų pakeisti šios sistemos kompiliavimo ir vykdymo serverinę dalį. Šiam tikslui pasiekti buvo nagrinėjama debesies kompiuterijos samprata. Atlikta debesies platformų analizė bei jų palyginimas tarpusavyje. Taip pat apžvelgti debesų kompiuterijos paslaugų tipai. Identifikuojamos ir nagrinėjamos problemos kurios iškilo projektuojant ir realizuojant debesų kompiuterijos paslaugą. Sukurta debesų kompiuterijos paslauga galinti pakeisti šio metu internetinėje matematinio programavimo ir modeliavimo sistemoje naudojama kompiliavimo ir vykdymo modulį. / The purpose of this work is to develop Cloud Computing service for Online Mathematical Programming and Simulation system, which can replace currently used compilation and execution server. To achieve this goal there was analysed Cloud Computing concept. Also Cloud Computing service types were reviewed. Moreover Cloud platforms there were analysed and compared to each other. Identified and analysed problems, which were raised in development process. Also was developed Cloud Computing Service which can replace currently used compiling and execution module in Online Mathematical Programming and Simulation system.
413

Systemunterstützung zur Bewertung der Qualität persönlicher Cloud-Dienste

Thoß, Yvonne 30 July 2014 (has links) (PDF)
Cloud-Technologien ermöglichen Endnutzern das flexible und bedarfsgerechte Beziehen von IT-Leistungen über das Internet. In einer Public Cloud können die Dienste oder Ressourcen von beliebigen Unternehmen und Endnutzern zeit- sowie ortsunabhängig verwendet werden. Nutzer von Cloud-basierten Softwareanwendungen haben keinen Einfluss auf die sachgerechte Verwaltung und Überwachung der darunterliegenden Cloud-Infrastruktur. Infolgedessen haben sie zunehmend Bedenken hinsichtlich der Sicherheit ihrer Daten oder in Bezug auf die Performance bzw. Verfügbarkeit des Dienstes. Um diese Bedenken abzubauen, müssen die nichtfunktionalen Eigenschaften eines Dienstes betrachtet werden, da sie dessen qualitative Wahrnehmung beeinflussen. Derzeit steht Endnutzern weder ein vollständiger Kriterienkatalog zur Bewertung von Cloud-Diensten als Orientierungshilfe zur Verfügung noch sind Cloud-Gütesiegel oder Zertifikate ausreichend verbreitet. Mangelnde Fachkenntnisse und verstreute oder nicht verfügbare Qualitätsinformationen führen dazu, dass Endnutzer die Dienstqualität nur erschwert oder gar nicht bewerten können. Das Ziel der Dissertation ist, Cloud-Nutzer bei der schnellen und umfangreichen Überwachung und Bewertung der Qualität ihrer Public-Cloud-Dienste zu unterstützen. Die Berücksichtigung der Nutzerinteressen und -bedürfnisse in Bezug auf die Dienstqualität steht dabei im Vordergrund. Die Untersuchung der verwandten Cloud-spezifischen Qualitätsmodelle hat gezeigt, dass die Modelle unvollständig sind und keine Aussagen zu deren Eignung und Akzeptanz aus Nutzersicht getroffen werden. Folglich werden in der Arbeit zunächst die nichtfunktionalen Qualitätsattribute von Softwareanwendungen identifiziert und nutzerfreundlich kategorisiert. Das daraus abgeleitete Modell bildet die Grundlage für ein Qualitätsinformationssystem, das Endnutzer künftig bei der kontinuierlichen Einschätzung der Qualität ihrer Dienste unterstützen soll. Darüber hinaus wird ein Konzept zur nutzerfreundlichen visuellen Aufbereitung der Qualitätsinformationen entwickelt. Es werden Empfehlungen zur Darstellung, Strukturierung und Verknüpfung der Informationen innerhalb des Systems gegeben. Jeder Nutzer kann individuell festlegen, über welche Qualitätseigenschaften er informiert werden möchte und wann die Qualität eines Dienstes als hoch eingeschätzt werden soll. Mit der prototypisch technischen Realisierung des Qualitätsinformationssystems werden die praktische Eignung des Qualitätsmodells und Konzeptes demonstriert. Ferner belegen die Ergebnisse von zwei Nutzerbefragungen, dass Cloud-Nutzer durch das Informationssystem bei der Qualitätsbewertung unterstützt werden und mit dem System grundsätzlich zufrieden sind.
414

HPI future SOC lab : proceedings 2013

January 2014 (has links)
The “HPI Future SOC Lab” is a cooperation of the Hasso-Plattner-Institut (HPI) and industrial partners. Its mission is to enable and promote exchange and interaction between the research community and the industrial partners. The HPI Future SOC Lab provides researchers with free of charge access to a complete infrastructure of state of the art hard- and software. This infrastructure includes components, which might be too expensive for an ordinary research environment, such as servers with up to 64 cores. The offerings address researchers particularly from but not limited to the areas of computer science and business information systems. Main areas of research include cloud computing, parallelization, and In-Memory technologies. This technical report presents results of research projects executed in 2013. Selected projects have presented their results on April 10th and September 24th 2013 at the Future SOC Lab Day events. / Das Future SOC Lab am HPI ist eine Kooperation des Hasso-Plattner-Instituts mit verschiedenen Industriepartnern. Seine Aufgabe ist die Ermöglichung und Förderung des Austausches zwischen Forschungsgemeinschaft und Industrie. Am Lab wird interessierten Wissenschaftlern eine Infrastruktur von neuester Hard- und Software kostenfrei für Forschungszwecke zur Verfügung gestellt. Dazu zählen teilweise noch nicht am Markt verfügbare Technologien, die im normalen Hochschulbereich in der Regel nicht zu finanzieren wären, bspw. Server mit bis zu 64 Cores und 2 TB Hauptspeicher. Diese Angebote richten sich insbesondere an Wissenschaftler in den Gebieten Informatik und Wirtschaftsinformatik. Einige der Schwerpunkte sind Cloud Computing, Parallelisierung und In-Memory Technologien. In diesem Technischen Bericht werden die Ergebnisse der Forschungsprojekte des Jahres 2013 vorgestellt. Ausgewählte Projekte stellten ihre Ergebnisse am 10. April 2013 und 24. September 2013 im Rahmen der Future SOC Lab Tag Veranstaltungen vor.
415

HPI future SOC lab : proceedings 2012

January 2013 (has links)
The “HPI Future SOC Lab” is a cooperation of the Hasso-Plattner-Institut (HPI) and industrial partners. Its mission is to enable and promote exchange and interaction between the research community and the industrial partners. The HPI Future SOC Lab provides researchers with free of charge access to a complete infrastructure of state of the art hard- and software. This infrastructure includes components, which might be too expensive for an ordinary research environment, such as servers with up to 64 cores. The offerings address researchers particularly from but not limited to the areas of computer science and business information systems. Main areas of research include cloud computing, parallelization, and In-Memory technologies. This technical report presents results of research projects executed in 2012. Selected projects have presented their results on June 18th and November 26th 2012 at the Future SOC Lab Day events. / Das Future SOC Lab am HPI ist eine Kooperation des Hasso-Plattner-Instituts mit verschiedenen Industriepartnern. Seine Aufgabe ist die Ermöglichung und Förderung des Austausches zwischen Forschungsgemeinschaft und Industrie. Am Lab wird interessierten Wissenschaftlern eine Infrastruktur von neuester Hard- und Software kostenfrei für Forschungszwecke zur Verfügung gestellt. Dazu zählen teilweise noch nicht am Markt verfügbare Technologien, die im normalen Hochschulbereich in der Regel nicht zu finanzieren wären, bspw. Server mit bis zu 64 Cores und 2 TB Hauptspeicher. Diese Angebote richten sich insbesondere an Wissenschaftler in den Gebieten Informatik und Wirtschaftsinformatik. Einige der Schwerpunkte sind Cloud Computing, Parallelisierung und In-Memory Technologien. In diesem Technischen Bericht werden die Ergebnisse der Forschungsprojekte des Jahres 2012 vorgestellt. Ausgewählte Projekte stellten ihre Ergebnisse am 18. April 2012 und 14. November 2012 im Rahmen der Future SOC Lab Tag Veranstaltungen vor.
416

Anbieter von Cloud Speicherdiensten im Überblick

Meinel, Christoph, Schnjakin, Maxim, Metzke, Tobias, Freitag, Markus January 2014 (has links)
Durch die immer stärker werdende Flut an digitalen Informationen basieren immer mehr Anwendungen auf der Nutzung von kostengünstigen Cloud Storage Diensten. Die Anzahl der Anbieter, die diese Dienste zur Verfügung stellen, hat sich in den letzten Jahren deutlich erhöht. Um den passenden Anbieter für eine Anwendung zu finden, müssen verschiedene Kriterien individuell berücksichtigt werden. In der vorliegenden Studie wird eine Auswahl an Anbietern etablierter Basic Storage Diensten vorgestellt und miteinander verglichen. Für die Gegenüberstellung werden Kriterien extrahiert, welche bei jedem der untersuchten Anbieter anwendbar sind und somit eine möglichst objektive Beurteilung erlauben. Hierzu gehören unter anderem Kosten, Recht, Sicherheit, Leistungsfähigkeit sowie bereitgestellte Schnittstellen. Die vorgestellten Kriterien können genutzt werden, um Cloud Storage Anbieter bezüglich eines konkreten Anwendungsfalles zu bewerten. / Due to the ever-increasing flood of digital information, more and more applications make use of cost-effective cloud storage services. The number of vendors that provide these services has increased significantly in recent years. The identification of an appropriate service provider requires an individual consideration of several criteria. This survey presents a comparison of some established basic storage providers. For this comparison, several criteria are extracted that are applicable to any of the selected providers and thus allow for an assessment that is as objective as possible. The criteria include factors like costs, legal information, security, performance, and supported interfaces. The presented criteria can be used to evaluate cloud storage providers in a specific use case in order to identify the most suitable service based on individual requirements.
417

Optimisation d'infrastructures de cloud computing sur des green datacenters / Infrastructure Optimization of cloud computing on green data centers

Safieddine, Ibrahim 29 October 2015 (has links)
Les centres de données verts de dernière génération ont été conçus pour une consommation optimisée et une meilleure qualité du niveau de service SLA. Cependant,ces dernières années, le marché des centres de données augmente rapidement,et la concentration de la puissance de calcul est de plus en plus importante, ce qui fait augmenter les besoins en puissance électrique et refroidissement. Un centre de données est constitué de ressources informatiques, de systèmes de refroidissement et de distribution électrique. De nombreux travaux de recherche se sont intéressés à la réduction de la consommation des centres de données afin d'améliorer le PUE, tout en garantissant le même niveau de service. Certains travaux visent le dimensionnement dynamique des ressources en fonction de la charge afin de réduire le nombre de serveurs démarrés, d'autres cherchent à optimiser le système de refroidissement qui représente un part important de la consommation globale.Dans cette thèse, afin de réduire le PUE, nous étudions la mise en place d'un système autonome d'optimisation globale du refroidissement, qui se base sur des sources de données externes tel que la température extérieure et les prévisions météorologiques, couplé à un module de prédiction de charge informatique globale pour absorber les pics d'activité, pour optimiser les ressources utilisés à un moindre coût, tout en préservant la qualité de service. Afin de garantir un meilleur SLA, nous proposons une architecture distribuée pour déceler les anomalies de fonctionnements complexes en temps réel, en analysant de gros volumes de données provenant des milliers de capteurs du centre de données. Détecter les comportements anormaux au plus tôt, permet de réagir plus vite face aux menaces qui peuvent impacter la qualité de service, avec des boucles de contrôle autonomes qui automatisent l'administration. Nous évaluons les performances de nos contributions sur des données provenant d'un centre de donnée en exploitation hébergeant des applications réelles. / Next-generation green datacenters were designed for optimized consumption and improved quality of service level Service Level Agreement (SLA). However, in recent years, the datacenter market is growing rapidly, and the concentration of the computing power is increasingly important, thereby increasing the electrical power and cooling consumptions. A datacenter consists of computing resources, cooling systems, and power distribution. Many research studies have focused on reducing the consumption of datacenters to improve the PUE, while guaranteeing the same level of service. Some works aims the dynamic sizing of resources according to the load, to reduce the number of started servers, others seek to optimize the cooling system which represents an important part of total consumption. In this thesis, in order to reduce the PUE, we study the design of an autonomous system for global cooling optimization, which is based on external data sources such as the outside temperature and weather forecasting, coupled with an overall IT load prediction module to absorb the peaks of activity, to optimize activere sources at a lower cost while preserving service level quality. To ensure a better SLA, we propose a distributed architecture to detect the complex operation anomalies in real time, by analyzing large data volumes from thousands of sensors deployed in the datacenter. Early identification of abnormal behaviors, allows a better reactivity to deal with threats that may impact the quality of service, with autonomous control loops that automate the administration. We evaluate the performance of our contributions on data collected from an operating datacenter hosting real applications.
418

Gestion conjointe de ressources de communication et de calcul pour les réseaux sans fils à base de cloud / Joint communication and computation resources allocation for cloud-empowered future wireless networks

Oueis, Jessica 12 February 2016 (has links)
Cette thèse porte sur le paradigme « Mobile Edge cloud» qui rapproche le cloud des utilisateurs mobiles et qui déploie une architecture de clouds locaux dans les terminaisons du réseau. Les utilisateurs mobiles peuvent désormais décharger leurs tâches de calcul pour qu’elles soient exécutées par les femto-cellules (FCs) dotées de capacités de calcul et de stockage. Nous proposons ainsi un concept de regroupement de FCs dans des clusters de calculs qui participeront aux calculs des tâches déchargées. A cet effet, nous proposons, dans un premier temps, un algorithme de décision de déportation de tâches vers le cloud, nommé SM-POD. Cet algorithme prend en compte les caractéristiques des tâches de calculs, des ressources de l’équipement mobile, et de la qualité des liens de transmission. SM-POD consiste en une série de classifications successives aboutissant à une décision de calcul local, ou de déportation de l’exécution dans le cloud.Dans un deuxième temps, nous abordons le problème de formation de clusters de calcul à mono-utilisateur et à utilisateurs multiples. Nous formulons le problème d’optimisation relatif qui considère l’allocation conjointe des ressources de calculs et de communication, et la distribution de la charge de calcul sur les FCs participant au cluster. Nous proposons également une stratégie d’éparpillement, dans laquelle l’efficacité énergétique du système est améliorée au prix de la latence de calcul. Dans le cas d’utilisateurs multiples, le problème d’optimisation d’allocation conjointe de ressources n’est pas convexe. Afin de le résoudre, nous proposons une reformulation convexe du problème équivalente à la première puis nous proposons deux algorithmes heuristiques dans le but d’avoir un algorithme de formation de cluster à complexité réduite. L’idée principale du premier est l’ordonnancement des tâches de calculs sur les FCs qui les reçoivent. Les ressources de calculs sont ainsi allouées localement au niveau de la FC. Les tâches ne pouvant pas être exécutées sont, quant à elles, envoyées à une unité de contrôle (SCM) responsable de la formation des clusters de calculs et de leur exécution. Le second algorithme proposé est itératif et consiste en une formation de cluster au niveau des FCs ne tenant pas compte de la présence d’autres demandes de calculs dans le réseau. Les propositions de cluster sont envoyées au SCM qui évalue la distribution des charges sur les différentes FCs. Le SCM signale tout abus de charges pour que les FCs redistribuent leur excès dans des cellules moins chargées.Dans la dernière partie de la thèse, nous proposons un nouveau concept de mise en cache des calculs dans l’Edge cloud. Afin de réduire la latence et la consommation énergétique des clusters de calculs, nous proposons la mise en cache de calculs populaires pour empêcher leur réexécution. Ici, notre contribution est double : d’abord, nous proposons un algorithme de mise en cache basé, non seulement sur la popularité des tâches de calculs, mais aussi sur les tailles et les capacités de calculs demandés, et la connectivité des FCs dans le réseau. L’algorithme proposé identifie les tâches aboutissant à des économies d’énergie et de temps plus importantes lorsqu’elles sont téléchargées d’un cache au lieu d’être recalculées. Nous proposons ensuite d’exploiter la relation entre la popularité des tâches et la probabilité de leur mise en cache, pour localiser les emplacements potentiels de leurs copies. La méthode proposée est basée sur ces emplacements, et permet de former des clusters de recherche de taille réduite tout en garantissant de retrouver une copie en cache. / Mobile Edge Cloud brings the cloud closer to mobile users by moving the cloud computational efforts from the internet to the mobile edge. We adopt a local mobile edge cloud computing architecture, where small cells are empowered with computational and storage capacities. Mobile users’ offloaded computational tasks are executed at the cloud-enabled small cells. We propose the concept of small cells clustering for mobile edge computing, where small cells cooperate in order to execute offloaded computational tasks. A first contribution of this thesis is the design of a multi-parameter computation offloading decision algorithm, SM-POD. The proposed algorithm consists of a series of low complexity successive and nested classifications of computational tasks at the mobile side, leading to local computation, or offloading to the cloud. To reach the offloading decision, SM-POD jointly considers computational tasks, handsets, and communication channel parameters. In the second part of this thesis, we tackle the problem of small cell clusters set up for mobile edge cloud computing for both single-user and multi-user cases. The clustering problem is formulated as an optimization that jointly optimizes the computational and communication resource allocation, and the computational load distribution on the small cells participating in the computation cluster. We propose a cluster sparsification strategy, where we trade cluster latency for higher system energy efficiency. In the multi-user case, the optimization problem is not convex. In order to compute a clustering solution, we propose a convex reformulation of the problem, and we prove that both problems are equivalent. With the goal of finding a lower complexity clustering solution, we propose two heuristic small cells clustering algorithms. The first algorithm is based on resource allocation on the serving small cells where tasks are received, as a first step. Then, in a second step, unserved tasks are sent to a small cell managing unit (SCM) that sets up computational clusters for the execution of these tasks. The main idea of this algorithm is task scheduling at both serving small cells, and SCM sides for higher resource allocation efficiency. The second proposed heuristic is an iterative approach in which serving small cells compute their desired clusters, without considering the presence of other users, and send their cluster parameters to the SCM. SCM then checks for excess of resource allocation at any of the network small cells. SCM reports any load excess to serving small cells that re-distribute this load on less loaded small cells. In the final part of this thesis, we propose the concept of computation caching for edge cloud computing. With the aim of reducing the edge cloud computing latency and energy consumption, we propose caching popular computational tasks for preventing their re-execution. Our contribution here is two-fold: first, we propose a caching algorithm that is based on requests popularity, computation size, required computational capacity, and small cells connectivity. This algorithm identifies requests that, if cached and downloaded instead of being re-computed, will increase the computation caching energy and latency savings. Second, we propose a method for setting up a search small cells cluster for finding a cached copy of the requests computation. The clustering policy exploits the relationship between tasks popularity and their probability of being cached, in order to identify possible locations of the cached copy. The proposed method reduces the search cluster size while guaranteeing a minimum cache hit probability.
419

Analyses et préconisations pour les centres de données virtualisés / Analysis and recommendations for virtualized datacenters

Dumont, Frédéric 21 September 2016 (has links)
Cette thèse présente deux contributions. La première contribution consiste en l’étude des métriques de performance permettant de superviser l’activité des serveurs physiques et des machines virtuelles s’exécutant sur les hyperviseurs VMware et KVM. Cette étude met en avant les compteurs clés et propose des analyses avancées dans l’objectif de détecter ou prévenir d’anomalies liées aux quatreres sources principales d’un centre de données : le processeur, la mémoire, le disque et le réseau. La seconde contribution porte sur un outil pour la détection de machines virtuelles à comportements pré-déterminés et/ou atypiques. La détection de ces machines virtuelles à plusieurs objectifs. Le premier, permettre d’optimiser l’utilisation des ressources matérielles en libérant des ressources par la suppression de machines virtuelles inutiles ou en les redimensionnant. Le second, optimiser le fonctionnement de l’infrastructure en détectant les machines sous-dimensionnées, surchargées ou ayant une activité différente des autres machines virtuelles de l’infrastructure. / This thesis presents two contributions. The first contribution is the study of key performance indicators to monitor physical and virtual machines activity running on VMware and KVM hypervisors. This study highlights performance metrics and provides advanced analysis with the aim to prevent or detect abnormalities related to the four main resources of a datacenter: CPU, memory, disk and network. Thesecond contribution relates to a tool for virtual machines with pre-determined and / or atypical behaviors detection. The detection of these virtual machines has several objectives. First, optimize the use of hardware resources by freeing up resources by removing unnecessary virtual machines or by resizing those oversized. Second, optimize infrastructure performance by detecting undersized or overworked virtual machines and those having an atypical activity.
420

Current cloud challenges in Germany: the perspective of cloud service providers

Hentschel, Raoul, Leyh, Christian, Petznick, Anne 07 June 2018 (has links) (PDF)
Cloud computing has a significant impact on information and communication technology (ICT) and is one of the most important technological drivers of the digitalization of enterprises. However, due to the increasing dissemination of cloud services and the growing number of cloud service providers (CSPs), the uncertainty and risks for user companies in adopting cloud services have also increased. In this paper, we address those aspects from the perspective of the CSPs. We identified relevant literature and studies and conducted interviews with business experts from 16 German CSPs. In our results, we present current customer requirements and barriers to using cloud services from a provider’s viewpoint and identify the actions of and obstacles for CSPs in meeting the needs and constraints of the customers. Finally, we identify current and future challenges for CSPs in dealing with customer requirements and barriers by addressing their root causes. One of the main challenges from the CSPs’ perspective is addressing customers appropriately and building relationships of trust. This also “forces” changes in the sales processes. In this process, the essential challenges can be identified as an increase in complexity and a simultaneous simplification of specific sales activities. Therefore, the necessity arises for the continuous support of business relationships through value-adding and additional services. However, this results in another challenge for the CSPs – Namely, to find the right balance between standardization and meeting customer-specific requirements. In our paper, we show that the perspective of the CSPs is rarely discussed in the literature. Nevertheless, understanding the perceptions of the providers and their actions and measures is essential for future research activities in the field of cloud service selection. Comparing the customers’ perspectives and viewpoints with the CSPs’ actions will enhance the development of a holistic selection approach for future cloud projects. Therefore, our paper’s contribution to research is also the identification of this missing integration.

Page generated in 0.0739 seconds