• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 15
  • 13
  • Tagged with
  • 113
  • 17
  • 16
  • 15
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

A high-level framework for policy-based management of distributed systems

Cakic, Jovan January 2003 (has links)
No description available.
62

Self-management middleware services for autonomic grid computing

Omar, Wail M. January 2006 (has links)
No description available.
63

Cloud environment selection and configuration : a software product lines-based approach / Sélection et configuration d’environnements de type Cloud : une approche basée sur les lignes de produits logiciels

Quinton, Clément 22 October 2014 (has links)
Pour tirer pleinement profit des avantages liés au déploiement dans les nuages, les applications doivent s’exécuter sur des environnements configurés de façon à répondre précisément aux besoins desdites applications. Nous considérons que la sélection et la configuration d’un nuage peut s’appuyer sur une approche basée sur les Lignes de Produits Logiciels (LPLs). Les LPLs sont définies pour exploiter les points communs par la définition d’éléments réutilisables. Cette thèse propose une approche basée sur les LPLs pour sélectionner et configurer un nuage en fonction des besoins d’une application à déployer. Concrètement, nous introduisons un modèle de variabilité permettant de décrire les points communs des différents nuages. Ce modèle de variabilité est notamment étendu avec des attributs et des multiplicités, qui peuvent être également impliqués dans des contraintes complexes. Ensuite, nous proposons une approche permettant de vérifier la cohérence de modèles de variabilité étendus avec des cardinalités, en particulier lorsque ceux-ci évoluent. En cas d’incohérence, nous fournissons un support permettant d’en expliquer son origine et sa cause. Enfin, nous proposons une plateforme automatisée de sélection et configuration de nuages, permettant la dérivation de fichiers de configuration relatifs aux besoins de l’application à déployer en fonction du nuage choisi. Ce travail de recherche s’est effectué dans le cadre du projet européen PaaSage. Les expérimentations menées montrent les avantages de notre approche basée sur les LPLs et, en particulier, comment son utilisation améliore la fiabilité lors d’un déploiement, tout en proposant une plateforme flexible et extensible. / To benefit from the promise of the cloud computing paradigm, applications must be deployed on well-suited and configured cloud environments fulfilling the application’s requirements. We consider that the selection and configuration of such environments can leverage Software Product Line (SPL) principles. SPLs were defined to take advantage of software commonalities through the definition of reusable artifacts. This thesis thus proposes an approach based on SPLs to select and configure cloud environments regarding the requirements related to the application to deploy. In particular, we introduce a variability model enabling the description of commonalities and variabilities between clouds as feature models. In addition, we extend this variability model with attributes and cardinalities, together with constraints over them. Then, we propose an approach to check the consistency of cardinality-based feature models when evolving those models. Our approach provides a support to detect and explain automatically a cardinality inconsistency. Finally, we propose an automated platform to select and configure cloud environments, which generates configuration scripts regarding the requirements of the application to deploy. This work has been done as part of the European PaaSage project. The experiments we conducted to evaluate our approach show that it is well suited to handle the configuration of cloud environments, being both scalable and practical while improving the reliability of the deployment.
64

A method for the architectural design of distributed control systems for large, civil jet engines : a systems engineering approach

Bourne, Duncan January 2011 (has links)
The design of distributed control systems (DCSs) for large, civil gas turbine engines is a complex architectural challenge. To date, the majority of research into DCSs has focused on the contributing technologies and high temperature electronics rather than the architecture of the system itself. This thesis proposes a method for the architectural design of distributed systems using a genetic algorithm to generate, evaluate and refine designs. The proposed designs are analysed for their architectural quality, lifecycle value and commercial benefit. The method is presented along with results proving the concept. Whilst the method described here is applied exclusively to Distributed Control System (DCS) for jet engines, the principles and methods could be adapted for a broad range of complex systems.
65

Vérification des performances et de la correction des systèmes distribués / Performance and correctness assessmet of distributed systems

Rosa, Cristian 24 October 2011 (has links)
Les systèmes distribués sont au coeur des technologies de l'information.Il est devenu classique de s'appuyer sur multiples unités distribuées pour améliorer la performance d'une application, la tolérance aux pannes, ou pour traiter problèmes dépassant les capacités d'une seule unité de traitement. La conception d'algorithmes adaptés au contexte distribué est particulièrement difficile en raison de l'asynchronisme et du non-déterminisme qui caractérisent ces systèmes. La simulation offre la possibilité d'étudier les performances des applications distribuées sans la complexité et le coût des plates-formes d'exécution réelles. Par ailleurs, le model checking permet d'évaluer la correction de ces systèmes de manière entièrement automatique. Dans cette thèse, nous explorons l'idée d'intégrer au sein d'un même outil un model checker et un simulateur de systèmes distribués. Nous souhaitons ainsi pouvoir évaluer la performance et la correction des applications distribuées. Pour faire face au problème de l'explosion combinatoire des états, nous présentons un algorithme de réduction dynamique par ordre partiel (DPOR), qui effectue une exploration basée sur un ensemble réduit de primitives de réseau. Cette approche permet de vérifier les programmes écrits avec n'importe laquelle des interfaces de communication proposées par le simulateur. Nous avons pour cela développé une spécification formelle complète de la sémantique de ces primitives réseau qui permet de raisonner sur l'indépendance des actions de communication nécessaire à la DPOR. Nous montrons au travers de résultats expérimentaux que notre approche est capable de traiter des programmes C non triviaux et non modifiés, écrits pour le simulateur SimGrid. Par ailleurs, nous proposons une solution au problème du passage à l'échelle des simulations limitées pour le CPU, ce qui permet d'envisager la simulation d'applications pair-à-pair comportant plusieurs millions de noeuds. Contrairement aux approches classiques de parallélisation, nous proposons une parallélisation des étapes internes de la simulation, tout en gardant l'ensemble du processus séquentiel. Nous présentons une analyse de la complexité de l'algorithme de simulation parallèle, et nous la comparons à l'algorithme classique séquentiel pour obtenir un critère qui caractérise les situations où un gain de performances peut être attendu avec notre approche. Un résultat important est l'observation de la relation entre la précision numérique des modèles utilisés pour simuler les ressources matérielles, avec le degré potentiel de parallélisation atteignables avec cette approche. Nous présentons plusieurs cas d'étude bénéficiant de la simulation parallèle, et nous détaillons les résultats d'une simulation à une échelle sans précédent du protocole pair-à-pair Chord avec deux millions de noeuds, exécutée sur une seule machine avec un modèle précis du réseau / Distributed systems are in the mainstream of information technology. It has become standard to rely on multiple distributed units to improve the performance of the application, help tolerate component failures, or handle problems too large to fit in a single processing unit. The design of algorithms adapted to the distributed context is particularly difficult due to the asynchrony and the nondeterminism that characterize distributed systems. Simulation offers the ability to study the performance of distributed applications without the complexity and cost of the real execution platforms. On the other hand, model checking allows to assess the correctness of such systems in a fully automatic manner. In this thesis, we explore the idea of integrating a model checker with a simulator for distributed systems in a single framework to gain performance and correctness assessment capabilities. To deal with the state explosion problem, we present a dynamic partial order reduction algorithm that performs the exploration based on a reduced set of networking primitives, that allows to verify programs written for any of the communication APIs offered by the simulator. This is only possible after the development of a full formal specification with the semantics of these networking primitives, that allows to reason about the independency of the communication actions as required by the DPOR algorithm. We show through experimental results that our approach is capable of dealing with non trivial unmodified C programs written for the SimGrid simulator. Moreover, we propose a solution to the problem of scalability for CPU bound simulations, envisioning the simulation of Peer-to-Peer applications with millions of participating nodes. Contrary to classical parallelization approaches, we propose parallelizing some internal steps of the simulation, while keeping the whole process sequential. We present a complexity analysis of the simulation algorithm, and we compare it to the classical sequential algorithm to obtain a criteria that describes in what situations a speed up can be expected. An important result is the observation of the relation between the precision of the models used to simulate the hardware resources, and the potential degree of parallelization attainable with this approach. We present several case studies that benefit from the parallel simulation, and we show the results of a simulation at unprecedented scale of the Chord Peer-to-Peer protocol with two millions nodes executed in a single machine
66

Hybrid and anonymous file-sharing environments : architecture and characterisation / Environnements hybrides et anonymes pour le partage de fichiers : architecture et caractérisation

Timpanaro, Juan Pablo 06 November 2013 (has links)
La plupart de nos activités quotidiennes sont aujourd'hui rythmées et régies par Internet, qu'il s'agisse de partage de fichiers, d'interaction sur les réseaux sociaux, de banques et de cours en ligne, ou encore de publication de blogs. En ce qui concerne le partage de fichiers, l'une des activités les plus pratiquées sur Internet, diverses solutions ont déjà été proposées, créées et implantées, pour constituer des réseaux de partage de fichiers aux performances et objectifs parfois très différents. Cette société du numérique permet le profilage des utilisateurs. Chaque information envoyée ou reçue sur Internet va ainsi traverser une série de noeuds intermédiaires jusqu'à atteindre sa destination. Un observateur pourra ainsi déterminer la provenance et la destination des paquets et de ce fait surveiller et profiler les activités des utilisateurs en identifiant le serveur auquel ils se connectent ou la durée de leur session. Parallèlement, les communications anonymes se sont développées afin de permettre aux utilisateurs d'utiliser Internet sans que leur identité ne soit nécessairement révélée.Notre contribution se veut double. Nous nous intéressons tout d'abord aux environnements de partage de fichiers hybrides en nous focalisant sur des réseaux réels largement déployés. Nous visons, au travers de cette étude, deux objectifs. Le premier consiste en l'amélioration du système d'indexation de contenu au sein de l'environnement de partage de fichiers BitTorrent. Il s'agit, plus précisément, de renforcer le système BitTorrent par le biais d'une indexation de son contenu dans la table de hachage distribuée Kad. Notre second but est d'améliorer les conditions d'accès au contenu ainsi que sa disponibilité au sein de l'environnement I2P de partage de fichiers. Nous permettons aux utilisateurs d'I2P d'accéder anonymement au contenu public de BitTorrent et nous aboutissons ainsi à un environment de partage de fichiers totalement anonyme, indexation et distribution du contenu comprises. Nous centrons ensuite notre analyse sur une meilleure compréhension des environnements anonymes par le biais d'une surveillance à grande échelle. Nous définissons les caractéristiques du réseau I2P, en visant l'intégralité de l'environnement anonyme et son large champ d'activités et de services anonymes. Nous analysons les différents aspects du réseau, comme le nombre des utilisateurs, leurs caractéristiques ainsi que le nombre de services anonymes disponibles. Au travers des mesures et évaluations réalisées à long terme sur le réseau, couplées à différentes analyses de corrélation, nous avons réussi à identifier et caractériser un petit groupe d'individus exécutant un service anonyme spécifique comme, par exemple, les habitants d'une même ville utilisant une application anonyme de partage de fichiers / Most of our daily activities are carried out over the Internet, from file-sharing and social networking to home banking, online-teaching and online-blogging. Considering file-sharing as one of Internet top activities, different architectures have been proposed, designed and implemented, leading to a wide set of file-sharing networks with different performances and goals. This digital society enables as well users' profiling. As Internet users surf the World Wide Web, every sent or received packet passes through several intermediate nodes until they reach their intended destination. So, an observer will be able to determine where a packet comes from and where it goes to, to monitor and to profile users' online activities by identifying to which server they are connected or how long their sessions last. Meanwhile, anonymous communications have been significantly developed to allow users to carry out their online activities without necessarily revealing their real identity. Our contribution is twofold. On the one hand, we consider hybrid file-sharing environments, with a special focus on widely deployed real-world networks and targeting two defined goals. The first goal is to improve content indexation in the BitTorrent file-sharing environment, enabling BitTorrent content to be indexed in the Kad distributed has table and leading to a more robust BitTorrent system. The second goal is to improve content availability in the I2P file-sharing environment. We allow I2P users to anonymously access public BitTorrent content and we obtain a fully anonymous file-sharing environment, including anonymous content indexation and anonymous content distribution. On the other hand, we focus on the understanding of anonymous environments through extensive monitoring. We characterise the I2P network, targeting the entire anonymous environment and its anonymous services. We consider different aspects of the network, such as the number of users, their characteristics as well as the number of anonymous services available. Through long-term measurements on the network and along with different correlation analyses, we are able to characterise a small group of users using a specific anonymous service, such as the users from a particular city performing anonymous file-sharing
67

Les systèmes de recommandation à base de confiance / Trust-based recommender systems

Alchiekh Haydar, Charif 03 September 2014 (has links)
La divergence comportementale des utilisateurs sur le web résulte un problème de fluctuation de performance chez les systèmes de recommandation (SR) qui exploitent ce comportement pour recommander aux utilisateurs des items qu’ils vont apprécier. Ce problème est observé dans l’approche de filtrage collaboratif (FC) qui exploite les notes attribuées par les utilisateurs aux items, et l’approche à base de confiance (SRC) qui exploite les notes de confiance que les utilisateurs attribuent l’un à l’autre. Nous proposons une approche hybride qui augmente le nombre d'utilisateurs bénéficiant de la recommandation, sans perte significative de précision. Par la suite, nous identifions plusieurs caractéristiques comportementales qui permettent de constituer un profil comportemental de l’utilisateur. Ce qui nous permet de classifier les utilisateurs selon leur comportement commun, et d’observer la performance de chaque approche par classe. Par la suite, nous focalisons sur les SRC. Le concept de confiance a été abordé dans plusieurs disciplines. Il n'existe pas véritablement de consensus sur sa définition. Cependant, toutes s'accordent sur son effet positif. La logique subjective (LS) fournit une plateforme flexible pour modéliser la confiance. Nous l’utilisons pour proposer et comparer trois modèles de confiance, dont l’objectif est de prédire à un utilisateur source s’il peut faire confiance à un utilisateur cible. La recommandation peut s’appuyer sur l’expérience personnelle de la source (modèle local), un système de bouche à oreille (modèle collectif), ou encore la réputation du cible (modèle global). Nous comparons ces trois modèles aux termes de la précision, la complexité, et la robustesse face aux attaques malicieuses / Recommender systems (RS) exploit users' behaviour to recommend to them items they would appreciate. Users Behavioral divergence on the web results in a problem of performance fluctuations to (RS). This problem is observed in the approach of collaborative filtering (CF), which exploites the ratings attributed by users to items, and in the trust-based approach (TRS), which exploites the trust relations between the users. We propose a hybrid approach that increases the number of users receiving recommendation, without significant loss of accuracy. Thereafter, we identify several behavioral characteristics that define a user profile. Then we classify users according to their common behavior, and observe the performance of the approaches by class. Thereafter, we focus on the TRS. The concept of trust has been discussed in several disciplines. There is no real consensus on its definition. However, all agree on its positive effect. Subjective logic (LS) provides a flexible platform for modeling trust. We use it to propose and compare three trust models, which aims to predict whether a user source can trust a target user. Trust may be based on the personal experience of the source (local model), or on a system of mouth (collective model), or the reputation of the target (global model). We compare these three models in terms of accuracy, complexity, and robustness against malicious attacks
68

Μελέτη εκτέλεσης αλγορίθμων στο πλέγμα υπολογιστών

Ευταξιόπουλος, Χαρίλαος 19 October 2009 (has links)
Στη σύχρονη εποχή η ανάπτυξη των ετερογενών και κατανεμημένων περιβαλλόντων, όπως τα περιβάλλοντα πλέγματος, καθιστά εφικτή την επίλυση υπολογιστικά εντατικών προβλημάτων με αξιόπιστο και οικονομικό τρόπο. Το Πλέγμα υπολογιστών είναι μια αναπτυσσόμενη δομή που παρέχει πρόσβαση σε υπολογιστική ισχύ και αποθηκευτικό χώρο κατανεμημένα σε όλο τον κόσμο και εισήχθη για να ικανοποιήσει την ανάγκη για εφαρμογές που απαιτούν μεγάλο αριθμό υπολογισμών καθώς και την επικοινωνία των ατόμων που τις εκτελούν. Στην παρούσα διπλωματική εργασία παρουσίαζεται με λεπτομέρεια η δομή και ο τρόπος λειτουργίας και εξυπηρέτησης χρηστών του Πλέγματος. Επικεντρώνουμε το ενδιαφέρον μας στη μελέτη εκτέλεσης αλγορίθμων στο Πλέγμα προσφέροντας στον αναγνώστη τη δυνατότητα εξοικείωσης με τις ιδιαιτερότητες συγγραφής αλγορίθμων και εφαρμογών που επιθυμούν να εκμεταλλευτούν τις δυνατότητες του Πλέγματος. Επίσης, καταγράφουμε τη μεθοδολογία και τον τρόπο υποβολής εργασιών στο Πλέγμα από τη σκοπιά του χρήστη. Από τους αλγορίθμους που καταγράφονται, ιδιαίτερη έμφαση δόθηκε στις παράλληλες εφαρμογές που εκμεταλλεύονται το μεγάλο πλεονέκτημα που μας προσφέρει το Πλέγμα εφοδιάζοντας μας με πολλαπλές επεξεργαστικές μονάδες. Συγκεκριμένα για να εξετάσουμε τόσο την αρχιτεκτονική όσο και τις δυνατότητες του Πλέγματος, αναπτύξαμε και συγγράψαμε ένα παράλληλο Γενετικό Αλγόριθμο για το πολυδίαστατο και απαιτητικό πρόβλημα του Χρονοπρογραμματισμού Εξετάσεων σε Πανεπιστήμια. / In our contemporary society, the development of distributed and heterogeneous computing environments, provide us with the capability of solving difficult scientific problems in a reliable and economic manner. The Grid environment is a form of distributed computing whereby a “super and virtual computer” is composed of a cluster of networked loosely coupled computers acting in concert to perform very large tasks. This technology has been applied to computationally intensive scientific, mathematical, and academic problems through volunteer computing, and it is used in commercial enterprises for such diverse applications as drug discovery, economic forecasting, seismic analysis, and back-office data processing in support of e-commerce and Web services. In the current paper, there is a significant reference to the architecture and the different elements of which Grid is composed .We focus our interest in the way we should write and develop our algorithms in order to retrieve the benefits of Grid computing. As far as the user aspect is concerned, we describe the methodology of job submission and job monitoring in Grid. From the algorithms we developed and tested, there is a significant emphasis concerning the parallel applications which take advantage of the fact that Grid offers us multiple computing resources and processors. In detail, we developed a parallel genetic algorithm for the examination timetabling problem in Universities which consists a difficult np problem which provides a significant example of the importance and the role of Grid in Computational Science.
69

Πύλη υπολογιστικού πλέγματος

Φουστέρης, Δημήτρης 11 January 2010 (has links)
Η παροχή, στους χρήστες Πλέγματος, ενός ευρείας πρόσβασης, ομοιογενούς και εύκολου στη χρήση γραφικού περιβάλλοντος είναι ο κύριος στόχος της ανάπτυξης μιας πύλης πλέγματος. Ο σχεδιασμός και η υλοποίηση αυτών των πυλών με έναν σωστό και φιλικό, προς το χρήστη, τρόπο, θα μπορούσε να πυροδοτήσει τη διάδοση των τεχνολογιών πλέγματος, προωθώντας την στροφή των τεχνολογιών πλέγματος από την έρευνα στην βιομηχανική εφαρμογή. Η εργασία αυτή υπογραμμίζει τα βασικά θέματα στην ανάπτυξη πυλών πλέγματος και επιχειρεί την κατασκευή μιας τέτοιας πύλης,βασισμένης στην υποδομή EGEE, με τη χρήση ευρέως διαδεδομένων τεχνολογιών διαδικτύου. Παράλληλα, πραγματοποιείται μια επισκόπηση της τεχνολογίας πλέγματος με σκοπό να κατανοήσουμε την λειτουργία και την αρχιτεκτονική του, πράγμα που θα μας επιτρέψει να αποκτήσουμε μια γενικότερη εικόνα των απαιτήσεων και της μεθόδου που θα ακολουθήσουμε κατά την δημιουργία της πύλης. / Allowing Grid users, a widely accessible, homogeneous and easy to use graphical environment is the main objective of developing a grid portal. The design and implementation of these gates with a good and friendly, user manner, could trigger the dissemination of grid technologies, promoting their shift of from research to industrial application. This paper highlights the key issues in the development of Grid portals and attempts to build such a portal, based on the EGEE infastructure, utilizing the widespread use of Internet technologies. At the same time, an overview of grid technology is presented in order to understand the function and architecture, which will allow us to get an overall picture of the requirements and the method to be followed when creating the portal.
70

Εφαρμογή στο πλέγμα με υπηρεσίες ιστού

Νικολέντζος, Ιωάννης 04 October 2011 (has links)
Η λύση και η βελτιστοποίηση πραγματικών προβλημάτων, δηλαδή προβλημάτων τα οποία συναντάμε στην καθημερινή μας ζωή είναι συχνά περίπλοκη και παρουσιάζει πολλές δυσκολίες, η μοντελοποίησή τους εξελίσσεται συνεχώς σε θέματα περιορισμών και στόχων και η ανάλυσή τους απαιτεί πολύ χρόνο και επεξεργαστική ισχύ. Υπάρχουν διάφοροι αλγόριθμοι και μέθοδοι που επιδιώκουν την επίλυση τέτοιων προβλημάτων. Στην κατηγορία αυτή ανήκουν και οι μεταευρετικές μέθοδοι (metaheuristics) οι οποίες επιτρέπουν την αντιμετώπιση προβλημάτων μεγάλου μεγέθους παραδίδοντας ικανοποιητικές λύσεις σε λογικό χρόνο. Ωστόσο, παρά τη μείωση της πολυπλοκότητας που επιτρέπουν οι μεταευρετικές μέθοδοι, συχνά δεν είναι επαρκείς για την αντιμετώπιση μεγάλων προβλημάτων. Ο υπολογισμός πλέγματος (Grid computing), ο οποίος έχει έρθει πρόσφατα στο προσκήνιο, παρέχει σημαντική βοήθεια στην επίλυση δύσκολων, με σκληρές απαιτήσεις χρόνου προβλημάτων. Στην παρούσα διπλωματική χρησιμοποιούμε μεταευρετικές μεθόδους σε υπολογιστικά πλέγματα για την επίλυση ενός σύνθετου προβλήματος χρονοπρογραμματισμού εξετάσεων Πανεπιστημίου, το οποίο δημοσιεύτηκε από τον Διεθνή Διαγωνισμό Χρονοπρογραμματισμού το 2007. / -

Page generated in 0.015 seconds