• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 15
  • 13
  • Tagged with
  • 113
  • 17
  • 16
  • 15
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Τεχνικές προκωδικοποίησης συστημάτων ΜΙΜΟ βασισμένες σε οικονομική αναπαράσταση καναλιών

Σταυρίδης, Αθανάσιος 24 October 2008 (has links)
Τα τελευταία χρόνια και κυρίως μετά το 1996 έχει παρουσιαστεί ένα έντονο ενδιαφέρον γύρω από τα ασύρματα συστήματα MIMO (Συστήματα Πολλών Εισόδων και Πολλών Εξόδων). Η βασική αιτία που δημιούργησε αυτό το ενδιαφέρον ήταν η θεωρητική ανάλυση της χωρητικότητας που επιτυγχάνεται με τη χρήση πολλαπλών κεραιών τόσο στο δέκτη όσο και στον πομπό. Ωστόσο πέρα από την αύξηση της χωρητικότητας τα συστήματα MIMΟ έχουν μια σειρά από επιπλέον πλεονεκτήματα, επιτυγχάνουν ανεκτικότητα στην εξασθένιση, αυξάνουν την φασματική αποδοτικότητα, μειώνουν την κατανάλωση ενέργειας καθώς και το κόστος χρήσης και κατασκευής ασύρματων δικτύων. Έχοντας λάβει υπ’ όψιν τα παραπάνω και έχοντας κάνει ήδη μια αρχική έρευνα στο τι υπάρχει στην επιστημονική βιβλιογραφία γύρω από τα συστήματα MIMO, επιλέξαμε να ασχοληθούμε με την συγκεκριμένη τεχνολογία και πιο συγκεκριμένα με την προ-κωδικοποίηση πομπού, όταν τα κανάλια που διαθέτουμε είναι συχνοτικά επιλεκτικά (frequency selective). Το πρόβλημα που μας απασχόλησε είναι η διερεύνηση τεχνικών κωδικοποίησης των δεδομένων του πομπού, πριν αυτά μεταδοθούν, ούτως ώστε να μπορέσει να απλοποιηθεί η σχεδίαση του δέκτη. Στην περίπτωση των συχνοτικά επιλεκτικών καναλιών πέρα από τον πανταχού παρόντα Γκαουσιανό θόρυβο έχουμε να αντιμετωπίσουμε και τη διασυμβολική παρεμβολή (Intersymbol Interference - ISI) . Στόχος μας είναι να μπορέσουμε να μετατοπίσουμε τη διαδικασία της ισοστάθμισης από το δέκτη στον πομπό, όπου, στην περίπτωση που ο πομπός είναι ένας σταθμός βάσης, η δυνατότητα υλοποίησης πολύπλοκων διεργασιών είναι μεγαλύτερη, τόσο μεγαλύτερης ανοχής στην κατανάλωση ενέργειας όσο κυρίως, και στη δυνατότητα χρήσης πολύπλοκου υλικού. Το πρόβλημα που τίθεται στην περίπτωση που η ισοστάθμιση γίνει στην μεριά του πομπού είναι η ποιότητα και η ποσότητα της γνώσης του πραγματικού καναλιού. Είναι σχεδόν αδύνατο ο πομπός να έχει πλήρη γνώση του πραγματικού καναλιού, με αποτέλεσμα να πρέπει να αρκεστεί σε γνώση, που στην καλύτερη περίπτωση προσεγγίζει αυτή του πραγματικού καναλιού. Επίσης, πολλές φορές, η ποσότητα της γνώσης που μπορεί να αποσταλεί από το δέκτη – όταν δεν ισχύει η αρχή της αμοιβαιότητας (reciprocity) – είναι περιορισμένη. Από τα παραπάνω καταλαβαίνουμε ότι θα είχε ενδιαφέρον η μελέτη τεχνικών που παρουσιάζουν ανοχή στην ποιότητα της γνώσης του καναλιού καθώς και η συμπεριφορά τους όταν αυτές διαθέτουν μερική ή και περιορισμένη γνώση του πραγματικού καναλιού. Ένας από τους τρόπου αντιμετώπισης όταν συναντούνται συχνοτικά επιλεκτικά κανάλια είναι η χρήση του OFDM με όσα αρνητικά αυτό συνεπάγεται (π.χ. η δυσκολία συγχρονισμού πομπού και δέκτη). Ένας άλλος τρόπος αντιμετώπισης, στην περίπτωση μονής φέρουσας (single carrier), είναι η χρήση προκωδικοποιητων Bezout. Επιλέξαμε να ασχοληθούμε με αυτόν τον τύπου προκωδικοποίητων. Πιο συγκεκριμένα, όταν ο αριθμός των κεραιών του πομπού είναι μεγαλύτερος από τον αριθμό των κεραιών του δέκτη, είναι δυνατόν να εφαρμόσουμε την ταυτότητα Bezout (Bezout Identity) στην μεριά του δέκτη. Με απλά λόγια θα εφαρμόσουμε ένα προ-ισοσταθμιστή επιβολής μηδενικών (zero forcing). Όπως είναι αναμενόμενο, μιας και ο προκωδικοποιητής εφαρμόζεται στην μεριά του πομπού, πριν εμφανιστεί ο Γκαουσιανός θόρυβος, δεν έχουμε ενίσχυση αυτού του θορύβου, ωστόσο είναι δυνατόν να έχουμε σημαντική αύξηση της μεταδιδόμενης ισχύος. Για να λυθεί αυτό το πρόβλημα έχει προταθεί στη βιβλιογραφία η σχεδίαση προκωδικοποιητών Bezout με την χρήση περιορισμών ισχύος. Αυτό που εμείς μελετήσαμε στην περίπτωση των προκωδικοποιητών Bezout (ή FIR προκωδικοποιητών), είναι η συμπεριφορά τους στην περίπτωση που ο πομπός διαθέτει πλήρη ή μερική γνώση του καναλιού. Είδαμε την περίπτωση του σχεδιασμού ενός FIR προκωδικοποιητή κάτω από τον περιορισμό ισχύος μετάδοσης μέσω της μεθόδου Tikhonov Regularization, ενός σημαντικού εργαλείου επίλυσης του προβλήματος των ελαχίστων τετραγώνων κάτω από τη δι-κριτήριο διατύπωση. Τέλος, προτείναμε δύο FIR σχεδιασμούς προκωδικοποιητών για την περίπτωση που ο πομπός διαθέτει παραμετρική (στατιστική) περιγραφή του καναλιού. / The last years, but mainly after 1996 there is an intensive interest in MIMO systems. The reason that created this interest was the capacity that can be achieved by the use of multiple antennas to the transmitter and to receiver. Furthermore, the use of multiple antennas has a number of advantages except from the capacity increase; MIMO can achieve tolerance to fading, spectral efficiency, increased coverage etc. By having considered the above information we decided to work with MIMO systems and especially with precoding techniques for frequency selective channels. In the case of frequency selective channels except from the Gaussian noise we have to treat and with intersymbol interference (ISI) which is an important degradation factor. A very serious reason to handle intersymbol interference at the transmitter side - especially when transmitter is a base station - is to simplify receiver's design. When transmitter is a base station there is a tolerance in power consuming and in the implementation of more complicated hardware. After an extensive bibliographical we concluded to use the theory of Bezout Identity. In the case where the number of antennas at the transmitter is greater than the number of antennas at the receiver it is formed a left-coprime FIR channel. By using the Bezout identity matrix, it is possible to be designed a FIR MIMO precoder that reduce intersymbol interference. Bezout precoder (pre-equalizer) is a zero-forcing (ZF) equalizer. As it is known from bibliography ZF equalizer has the disadvantage that amplifies noise power in deep fades. For the case of Bezout precoder it is not true since there is no noise - noise will appear at the receiver. But there is another disadvantage, Bezout precoder may increase transmit power significantly to overcome deep fades in the singular values of the channel matrix. The solution to the previous phenomenon can be taken by designing ZF precoders under power constraints. The main problem in the case of transmit precoding is the channel knowledge - when reciprocity principle is not valid. In most cases it is not possible to have perfect channel knowledge or even the knowledge that we have may be of bad quality. Another drawback that appears in the case of frequency selective channels is the amounts of information (number of bits) that can be send back to the transmitter - limited feedback. Many works assumed a quasi-static channel - channel doesn't changes for a number of symbols - and perfect channel knowledge. In real world this may not be true. In this master thesis we investigated three things. Firstly, the behavior of Bezout precoders under channel mismatch at the side of transmitter. Secondly, ways that will allows us to decrease channel feedback. And thirdly, which was the most interesting, we proposed two FIR designs that uses statistical channel knowledge.
102

A technology reference model for client/server software development

Nienaber, R. C. (Rita Charlotte) 06 1900 (has links)
In today's highly competitive global economy, information resources representing enterprise-wide information are essential to the survival of an organization. The development of and increase in the use of personal computers and data communication networks are supporting or, in many cases, replacing the traditional computer mainstay of corporations. The client/server model incorporates mainframe programming with desktop applications on personal computers. The aim of the research is to compile a technology model for the development of client/server software. A comprehensive overview of the individual components of the client/server system is given. The different methodologies, tools and techniques that can be used are reviewed, as well as client/server-specific design issues. The research is intended to create a road map in the form of a Technology Reference Model for Client/Server Software Development. / Computing / M. Sc. (Information Systems)
103

A semi-formal comparison between the Common Object Request Broker Architecture (COBRA) and the Distributed Component Object Model (DCOM)

Conradie, Pieter Wynand 06 1900 (has links)
The way in which application systems and software are built has changed dramatically over the past few years. This is mainly due to advances in hardware technology, programming languages, as well as the requirement to build better software application systems in less time. The importance of mondial (worldwide) communication between systems is also growing exponentially. People are using network-based applications daily, communicating not only locally, but also globally. The Internet, the global network, therefore plays a significant role in the development of new software. Distributed object computing is one of the computing paradigms that promise to solve the need to develop clienVserver application systems, communicating over heterogeneous environments. This study, of limited scope, concentrates on one crucial element without which distributed object computing cannot be implemented. This element is the communication software, also called middleware, which allows objects situated on different hardware platforms to communicate over a network. Two of the most important middleware standards for distributed object computing today are the Common Object Request Broker Architecture (CORBA) from the Object Management Group, and the Distributed Component Object Model (DCOM) from Microsoft Corporation. Each of these standards is implemented in commercially available products, allowing distributed objects to communicate over heterogeneous networks. In studying each of the middleware standards, a formal way of comparing CORBA and DCOM is presented, namely meta-modelling. For each of these two distributed object infrastructures (middleware), meta-models are constructed. Based on this uniform and unbiased approach, a comparison of the two distributed object infrastructures is then performed. The results are given as a set of tables in which the differences and similarities of each distributed object infrastructure are exhibited. By adopting this approach, errors caused by misunderstanding or misinterpretation are minimised. Consequently, an accurate and unbiased comparison between CORBA and DCOM is made possible, which constitutes the main aim of this dissertation. / Computing / M. Sc. (Computer Science)
104

Intégration des systèmes multi-agents aux systèmes embarqués pour la délégation de tâches / Multi-agents systems integration within embedded systems for tasks delegation

Inguere, Tifaine 12 June 2018 (has links)
Cette thèse présente comment l’intégration de systèmes multi-agents au sein de systèmes embarqués peut permettre d’optimiser la gestion des tâches. Nous relevons un manque de flexibilité pour les systèmes embarqués et posons l’hypothèse d’une solution multi-agents permettant la prise en compte dynamique du contexte d’évolution du système. Les systèmes embarqués, intégrés à l’environnement utilisateur, sont contraints en termes d’espace physique et donc de ressources matérielles. Ces limites impliquent un besoin d’optimisation des ressources. Nous proposons d’expérimenter des algorithmes de négociation multi-agents pour déléguer des tâches entre les différentes ressources. Pour valider nos hypothèses, nous détaillons les caractéristiques des systèmes multi-agents, leurs comportements, leurs modèles,les plateformes sur lesquelles ils évoluent, leurs standards de communication et leurs algorithmes sociaux. Nous avons constaté que la majorité des travaux du domaine agent se concentraient sur d’autres problématiques. Par conséquent, nous avons proposé la formalisation de systèmes multiagents embarqués et d’une plateforme multi-agents adaptée. Nous avons ensuite expérimenté cette plateforme au sein de systèmes embarqués avec le cas d’étude du traitement d’images, notamment avec le calcul d’une interpolation de pixels. Nous avons mené des études de performances pour estimer le coût administratif d’une solution multiagents,puis avons considéré ces résultats au regard des gains de capacité de nos systèmes embarqués. Nos dernières expérimentations mettent à l’épreuve notre solution de délégation de tâches entre plusieurs cartes embarquées dans un contexte hétérogène. / This thesis shows how the integration of multi-agents systems within embedded systems can optimize tasks management. We notice a lack of flexibility for embedded systems and hypothesize that a multi-agents solution will allow the dynamic consideration of the system context of evolution. Embedded systems, being integrated into the user environment, are limited in terms of physical space and thus hardware resources. These limits involve the necessity to optimize the resources. We suggest experimenting multi-agents negotiation algorithms to delegate tasks between several resources. To validate our hypotheses, we detail the characteristics of multi-agents systems, their behavior, their models, the platforms on which they evolve, their communication standards and their social algorithms.We observed that the majority of the works of the multi-agents domain concentrated on other problems. Therefore, we proposed the formalization of embedded multi-agents systems and of anadapted multi-agents platform. We then experimented this platform within embedded systems with the case study of image processing, especially the calculation of a pixels interpolation.We led performance studies to estimate the administrative cost of a multi-agents solution, then considered these results in relation to the capacity earnings of our embedded systems. Our last experiments put to the test our solution of tasks delegation between several embedded cards within a heterogeneous context.
105

Monitoring business process compliance : a view based approach / Monitoring de la conformité des processus métiers : approche à base de vues

Sebahi, Samir 22 March 2012 (has links)
De nos jours, les processus métiers permettent une automatisation croissante des tâches et des interconnexions complexes au sein du même système et entre différents systèmes, ce qui est particulièrement facilité par l'émergence des services Web. Dans ce contexte, les tâches de spécification et de vérification de la conformité pendant l’exécution deviennent particulièrement intéressantes. Dans cette thèse, on s’intéresse à deux aspects, le monitoring et la sécurité dans le contexte de l’Architecture Orienté Service (SOA). Ainsi, nous proposons une approche fondée sur le concept de vue et une plateforme qui vise le monitoring de la conformité des processus métiers pendant leur exécution. Ainsi, nous avons développé un langage de monitoring appelé BPath, qui est un langage basé sur XPath, qui offre entre autres, la possibilité de spécifier et de vérifier des propriétés de la logique temporelle linéaire et hybride, des requêtes visant à évaluer des indicateurs quantitatifs sur l’exécution d’un processus métier, ceci dans le but de détecter toute violation des règles de conformité pendant l’exécution.Une des préoccupations spécifiques du monitoring de la conformité pour les environnements basés sur SOA est la sécurité. Ainsi, nous proposons une architecture de sécurité fondée sur des langages dédiés (DSL) pour SOA. Nous avons particulièrement développé une DSL graphique pour faciliter la spécification et la génération des contrôles d’accès. Nos approches sont mises en œuvre et intégrés dans une plateforme développée dans le cadre du projet Européen COMPAS qui vise à assurer la conformité de bout en bout dans les environnements basés sur SOA. / Nowadays, business processes allow more automation of tasks and complex interconnections within the same system and across different systems, which is particularly facilitated by the emergence of Web services. In this context, the tasks of specifying and checking compliance at runtime become particularly challenging.In this thesis, our goal is twofold: monitoring and security in the context of Service Oriented Architecture (SOA). Thus, we proposed a view-based monitoring approach and a framework that target monitoring of business process compliance at runtime. Our monitoring framework aims to offer an easy way to specify properties to be monitored and to facilitate its integration with SOA based environments. Thus, we have developed a new monitoring language called BPath, which is an XPath-based language that offers among others, the ability to express and to check temporal and hybrid logic properties at runtime, making the execution of business processes visible by expressing and evaluating quantitative indicators, in order to detect any compliance violation at runtime. A specific compliance monitoring concern in SOA based environment is security, which is also an important aspect for companies willing to give access to some of their resources over the Web. Thus, we proposed a domain specific language (DSL) based architecture for ensuring security in SOA environments. We particularly focused on access control by proposing a graphical language to facilitate the specification and generation of access control policies.Our approaches are implemented and integrated within a complete end to end compliance framework developed within the COMPAS project.
106

Cloud services selection based on rough set theory / Sélectrion de service cloud en utilisant la théorie des ensembles approximatifs

Liu, Yongwen 17 June 2016 (has links)
Avec le développement du cloud computing, de nouveaux services voient le jour et il devient primordial que les utilisateurs aient les outils nécessaires pour choisir parmi ses services. La théorie des ensembles approximatifs représente un bon outil de traitement de données incertaines. Elle peut exploiter les connaissances cachées ou appliquer des règles sur des ensembles de données. Le but principal de cette thèse est d'utiliser la théorie des ensembles approximatifs pour aider les utilisateurs de cloud computing à prendre des décisions. Dans ce travail, nous avons, d'une part, proposé un cadre utilisant la théorie des ensembles approximatifs pour la sélection de services cloud et nous avons donné un exemple en utilisant les ensembles approximatifs dans la sélection de services cloud pour illustrer la pratique et analyser la faisabilité de cette approche. Deuxièmement, l'approche proposée de sélection des services cloud permet d’évaluer l’importance des paramètres en fonction des préférences de l'utilisateur à l'aide de la théorie des ensembles approximatifs. Enfin, nous avons effectué des validations par simulation de l’algorithme proposé sur des données à large échelle pour vérifier la faisabilité de notre approche en pratique. Les résultats de notre travail peuvent aider les utilisateurs de services cloud à prendre la bonne décision et aider également les fournisseurs de services cloud pour cibler les améliorations à apporter aux services qu’ils proposent dans le cadre du cloud computing / With the development of the cloud computing technique, users enjoy various benefits that high technology services bring. However, there are more and more cloud service programs emerging. So it is important for users to choose the right cloud service. For cloud service providers, it is also important to improve the cloud services they provide, in order to get more customers and expand the scale of their cloud services.Rough set theory is a good data processing tool to deal with uncertain information. It can mine the hidden knowledge or rules on data sets. The main purpose of this thesis is to apply rough set theory to help cloud users make decision about cloud services. In this work, firstly, a framework using the rough set theory in cloud service selection is proposed, and we give an example using rough set in cloud services selection to illustrate and analyze the feasibility of our approach. Secondly, the proposed cloud services selection approach has been used to evaluate parameters importance based on the users’ preferences. Finally, we perform experiments on large scale dataset to verity the feasibility of our proposal.The performance results can help cloud service users to make the right decision and help cloud service providers to target the improvement about their cloud services
107

Contribution à la fouille de données spatio-temporelles : application à l'étude de l'érosion / Contribution to spatio-temporal data mining : application to erosion study

Sanhes, Jeremy 25 September 2014 (has links)
Les événements spatio-temporels regroupent une large diversité de phénomènes comportant des caractéristiques propres. Par exemple, l’étude de flux migratoires se révèle ainsi très différente de l’étude de propagation de maladies. En effet, le domaine d’intérêt de la première porte sur le suivi des trajectoires, tandis que celui de la deuxième porte sur les facteurs de la propagation. De plus, chaque classe d’un problème spatio-temporel peut être abordée différemment, que l’on considère ou non un voisinage spatial, une caractérisation des objets d’étude unique ou multiple, ou bien une (in)dépendance entre les événements. Ainsi, les techniques de fouilles de données développées sont souvent restées spécifiques à une sous-classe de problème spatio-temporel, c’est-à-dire sous un ensemble restreint d’hypothèses.Or, pour réussir à dégager des connaissances nouvelles à partir de données, il est nécessaire d’élargir cet ensemble d’hypothèses, c’est-à-dire élargir le champs des possibles quant aux corrélations qu’il peut exister entre événements. Nous proposons donc une modélisation de ces phénomènes spatio-temporels permettant de prendre en compte plus de considérations que dans l’état de l’art. En outre, cette modélisation permet d’exprimer des événements qui existent dans les phénomènes d’érosion : un objet d’étude peut se diviser en plusieurs objets, ou fusionner avec d’autres objets pour n’en former qu’un seul. Plus précisément, nous modélisons les dynamiques spatio-temporelles sous la forme d’un unique graphe orienté, que la composante temporelle des problèmes rend acyclique, et dont les sommets sont attribués par plusieurs caractéristiques. / Spatio-temporal events denote a large range of phenomena with different characteristics. For example, migration flows studies appear to be very different from disease spread studies. Indeed, interestingness of the first relies on tracking trajectories, whereas the second is about finding the factors of spread. Moreover, each class of a spatio-temporal problem can be tackled differently, depending on which parameters are considered: the studied spatial neighbourhood, the number of characteristics associated with the objects, or whether events are supposed correlated or independent. As a result, data mining techniques are often specificto a sub-class of spatio-temporal problem, that is to say, to a limited set of hypothesis.In order to bring out new knowledge from data, it seems to be necessary to enlarge this set of hypothesis, that is to say, to widen the field of possibilities regarding correlations that may exist between events. For this, we propose a new model that allows to take into account more considerations than existing studies. For example, this representation allows to model the complex spatio-temporal dynamic of erosion phenomenon: an object can be split up in several other objects, or can merge with other objects into one. More precisely, we use a single directed graph, that becomes acyclic thanks to the temporal component of the problem, and that is attributed by several characteristics.
108

Facing threats by sharing information for natural resources management / Faire face à des menaces en partageant l’information pour la gestion de ressources naturelles renouvelables

Paget, Nicolas 03 October 2016 (has links)
Nous explorons le lien entre partage d'information (PI) et gestion collective de ressources naturelles (GRN). Pour déterminer ce lien, nous nous sommes interessé aux ostréiculteurs, acteurs sensibles à la qualité de l'eau et touchés par un virulent virus. Ces acteurs ont développé et utilisent divers artéfacts de PI. Ces artifacts sont destinés à faire face à des menaces potentielles. L'identification de ce point fondamental a mené à développer le concept de menaces. Elles sont définies par le modèle <A,C,I,D,E> (Acteurs, Caractéristiques, Infrastructure, Décisions, Environnement). Elles sont organisées le long de deux axes: l'internalité et l'exclusivité. Formuler la situation des ostréiculteurs en utilisant ce concept permet une caractérisation des enjeux pour les artéfacts de PI pour la lutte contre les menaces. Nous avons utilisé le cadre ENCORE pour une analyse qualitative et la SMA pour une quantitative de l’impact des artéfacts. La recherche montre qu'ils peuvent avoir des buts, media et contenus variés, améliorer la réflexivité, ou mener à peu, voire aucun changement. Ces améliorations sont liées au processus de création de l'artéfact. / I explore how information sharing (IS) and natural resources management (NRM) are linked.To determine this link, I focused on oyster farmers, actors sensitive to water quality and impacted by a virulent virus. Those actors implemented and use diverse IS artifacts. Those artifacts are meant to face potential threats. Realizing this focal point led to develop the threat concept. They are defined by the <A,C,I,D,E> (Actors, Characteristics, Infrastructure, Decisions, Environnement) model. They are organized along two axes: internality and excludability. Framing oyster farmers’ situation with this concept allow a characterization of stakes for IS artifacts to tackle threats.I used the ENCORE framework for qualitative assessment of IS artifacts impacts and a MAS for a quantitative one. The research shows that they have various goals, media and contents; can increase reflexivity or have little to no impact. Those changes are linked to artifact creation process.
109

A methodology for integrating legacy systems with the client/server environment

Redelinghuys, Melinda 06 1900 (has links)
The research is conducted in the area of software methodologies with the emphasis on the integration of legacy systems with the client/server environment. The investigation starts with identifying the characteristics of legacy systems in order to determine the features and technical characteristics required of an integration methodology. A number of existing methodologies are evaluated with respect to their features and technical characteristics in order to derive a synthesis for a generic methodology. This evaluation yields the meta primitives of a generic methodology. The revised spiral model (Boehm,1986; DuPlessis & Vander Wah,1992) is customised to arrive at a software process model which provides a framework for the integration of legacy systems with the client/server environment. The integration methodology is based on this process model. / Computing / M. Sc. (Information Systems)
110

Μελέτη και ανάπτυξη τεχνικών για την αποτελεσματική διαχείριση πόρων σε δίκτυα πλέγματος και υποδομές υπολογιστικών νεφών

Κρέτσης, Αριστοτέλης 25 February 2014 (has links)
Οι τεχνολογίες κατανεμημένου υπολογισμού, όπως τα δίκτυα πλέγματος και οι υποδομές Νέφους, έχουν διαμορφώσει πλέον ένα καινούργιο περιβάλλον σχετικά με τον τρόπο που εκτελούνται οι εργασίες των χρηστών, αποθηκεύονται τα δεδομένα και γενικότερα χρησιμοποιούνται οι εφαρμογές. Τα δίκτυα πλέγματος αποτέλεσαν το επίκεντρο της σχετικής ερευνητικής δραστηριότητας για μεγάλο χρονικό διάστημα, με βασικό στόχο τη δημιουργία υποδομών για την εκτέλεση ερευνητικών εφαρμογών με πολύ υψηλές υπολογιστικές και αποθηκευτικές απαιτήσεις. Ωστόσο είναι πλέον προφανές ότι υπάρχει μια στροφή προς τις υποδομές Νέφους που προσφέρουν υπηρεσίες κατανεμημένου υπολογισμού και αποθήκευσης μέσω πλήρως διαχειρίσιμων πόρων. Η συγκεκριμένη μετάβαση έχει ως αποτέλεσμα μια μετατόπιση από το μοντέλο των πολλών και ισχυρών πόρων που βρίσκονται κατανεμημένοι σε διάφορες περιοχές του κόσμου (όπως στα δίκτυα πλέγματος) προς σχετικά λιγότερα αλλά πολύ μεγαλύτερα ως προς το μέγεθος κέντρα δεδομένων τα οποία αποτελούνται από χιλιάδες υπολογιστικούς πόρους οι οποίοι φιλοξενούν ακόμη περισσότερες εικονικές μηχανές. Η έρευνα που διεξάγαμε ακολούθησε αυτή την αλλαγή, μελετώντας αλγοριθμικά θέματα για δίκτυα πλέγματος και υποδομές Νεφών και αναπτύσσοντας μια σειρά από εργαλεία και εφαρμογές που διαχειρίζονται, παρακολουθούν και αξιοποιούν τους πόρους που προσφέρουν οι συγκεκριμένες υποδομές. Αρχικά, μελετούμε τα ζητήματα που προκύπτουν κατά την υλοποίηση αλγορίθμων χρονοπρογραμματισμού, που είχαν προηγουμένως μελετηθεί σε περιβάλλοντα προσομοίωσης, σε ένα πραγματικό σύστημα ενδιάμεσου λογισμικού για δίκτυα πλέγματος, και συγκεκριμένα το gLite. Το πρώτο ζήτημα που αντιμετωπίσαμε είναι το γεγονός ότι οι πληροφορίες που παρέχει το ενδιάμεσο λογισμικό gLite στους αλγορίθμους χρονοπρογραμματισμού δεν είναι πάντα έγκυρες, γεγονός που επηρεάζει την αποδοσή τους. Για την αντιμετώπιση του προβλήματος αναπτύξαμε ένα εσωτερικό, στο χρονοπρογραμματιστή, μηχανισμό που καταγράφει τις αποφάσεις του σχετικά με ποιές εργασίες ανατέθηκαν σε ποιούς υπολογιστικούς πόρους και λειτουργεί συµπληρωµατικά µε την υπηρεσία πληροφοριών του gLite. Επιπλέον, εξετάζουμε το ζήτημα του δίκαιου διαμοιρασμού της υπολογιστικής χωρητικότητας ενός πόρου στις εργασίες που έχουν ανατεθεί σε αυτόν. Για το σκοπό αυτό, επεκτείνουμε το ενδιάμεσο λογισμικό gLite ώστε να περιλαμβάνει ένα νέο μηχανισμό που μέσω της αξιοποίησης της τεχνολογίας εικονικοποίησης επιτρέπει τον ταυτόχρονο διαμοιρασμό της υπολογιστικής χωρητικότητας ενός κόμβου σε πολλές εργασίες. Στην συνέχεια εξατάζουμε το πρόβλημα της συνδυασμένης μεταφοράς πολλαπλών εικονικών μηχανών σε σύγχρονες υπολογιστικές υποδομές. Πιο συγκεκριμένα, προτείνουμε μια μεθοδολογία που στοχεύει στην καλύτερη χρησιμοποίηση των διαθέσιμων υπολογιστικών και δικτυακών πόρων, λαμβάνοντας υπόψη στις αποφάσεις σχετικά με τη συνδυασμένη μεταφορά εικονικών μηχανών τις αλληλεξαρτήσεις που δημιουργούνται από την επικοινωνία τους. Η προτεινόμενη μεθοδολογία χρησιμοποιεί την προσέγγιση πολλαπλών κριτηρίων για την επιλογή των εικονικών μηχανών που θα μετακινηθούν, αναθέτοντας διαφορετικά βάρη στα διάφορα κριτήρια ενδιαφέροντος. Επιπλέον, επιλέγει τους υπολογιστικούς κόμβους όπου οι μετακινούμενες εικονικές μηχανές θα φιλοξενηθούν, λαμβάνοντας υπόψη τον τρόπο με τον οποίο οι μετακινήσεις επηρεάζουν τις λογικές (ή εικονικές) τοπολογίες που σχηματίζονται από την επικοινωνία τους και αντιμετωπίζοντας τη συγκεκριμένη επιλογή ως ένα πρόβλημα αναδιάρθρωσης λογικών τοπολογιών. Η αξιολόγηση επιβεβαίωσε τη δυνατότητα της μεθοδολογίας να επιλύει, μέσω των κατάλληλων μετακινήσεων, ένα σημαντικό αριθμό προβλημάτων που οφείλονται σε ελλείψεις υπολογιστικών ή επικοινωνιακών πόρων, ελαχιστοποιώντας παράλληλα τον αριθμό των μετακινήσεων και την προκαλούμενη επιβάρυνση του δικτύου. Το επόμενο θέμα που εξετάζουμε αφορά το πρόβλημα της ανάλυσης δεδομένων επικοινωνίας μεταξύ εικονικών μηχανών οι οποίες φιλοξενούνται σε ένα κέντρο δεδομένων. Προτείνουμε και αξιολογούμε, μέσω της ανάλυσης δεδομένων από ένα πραγματικό κέντρο δεδομένων, την εφαρμογή μετρικών και τεχνικών από τη θεωρία ανάλυσης κοινωνικών δικτύων για τον προσδιορισμό σημαντικών εικονικών μηχανών, για παράδειγμα εικονικές μηχανές οι οποίες απαιτούν περισσότερο εύρος ζώνης σε σχέση με άλλες, και ομάδων εικονικών μηχανών που συσχετίζονται με κάποιο τρόπο μεταξύ τους. Μέσω της συγκεκριμένης προσέγγισης έχουμε τη δυνατότητα να εξάγουμε σημαντικές πληροφορίες οι οποίες μπορούν να αξιοποιηθούν για τη λήψη καλύτερων αποφάσεων σχετικά με τη διαχείριση του πολύ μεγάλου πλήθους των εικονικών μηχανών που φιλοξενούνται στα σύγχρονα κέντρα δεδομένων. Στη συνέχεια προσδιορίζουμε τρόπους με τους οποίους οι πληροφορίες παρακολούθησης που συλλέγονται από τη λειτουργία μιας δημόσιας υποδομής Υπολογιστικού Νέφους, και ιδίως από την υπηρεσία Amazon Web Services (AWS), μπορούν να χρησιμοποιηθούν με ένα αποδοτικό τρόπο προκειμένου να εξάγουμε πολύτιμες πληροφορίες, που μπορούν να αξιοποιηθούν από τους τελικούς χρήστες για την αποτελεσματικότερη διαχείριση των εικονικών πόρων τους. Πιο συγκεκριμένα, παρουσιάζουμε το σχεδιασμό και την υλοποίηση ενός εργαλείου ανοιχτού κώδικα, του SuMo, στο όποιο έχουμε υλοποίησει όλη την απαραίτητη λειτουργικότητα για τη συλλογή και ανάλυση δεδομένων παρακολούθησης από την υπηρεσία AWS. Επιπλέον, προτείνουμε ένα μηχανισμό για τη βελτιστοποίηση του κόστους και της αξιοποίησης (Cost and Utilization Optimization - CUO) των εικονικών υπολογιστικών πόρων της υπηρεσίας AWS. Ο μηχανισμός CUO χρησιμοποιεί πληροφορίες (πλήθος, ακριβή χαρακτηριστικά, ποσοστό αξιοποίησης) για τους διαθέσιμους εικονικούς πόρους ενός χρήστη και προτείνει ένα νέο (βέλτιστο) σύνολο πόρων που θα μπορούσαν να χρησιμοποιηθούν για την αποδοτικότερη εξυπηρέτηση του ίδιου φορτίου εργασίας με μειωμένο κόστος. Τέλος, παρουσιάζουμε την υλοποίηση ενός ολοκληρωμένου εργαλείου, που ονομάζουμε Mantis, για το σχεδιασμό και τη λειτουργία των μελλοντικών ευέλικτων (flex-grid) οπτικών δικτύων που υποστηρίζει επιπλέον οπτικά δίκτυα σταθερού πλέγματος τόσο μοναδικού ρυθμού μετάδοσης όσο και πολλαπλών ρυθμών μετάδοσης. Οι χρήστες έχουν τη δυνατότητα να καθορίζουν δικτυακές τοπολογίες, απαιτήσεις κίνησης, παραμέτρους για το κόστος απόκτησης και λειτουργίας των δικτυακών συσκευών, ενώ επιπλέον έχουν πρόσβαση σε αρκετούς αλγορίθμους για το σχεδιασμό, λειτουργία και αξιολόγηση διαφόρων οπτικών δικτύων. Το εργαλείο έχει σχεδιαστεί ώστε να μπορεί να λειτουργεί είτε ως υπηρεσία (Software as a Service) είτε ως κλασσική εφαρμογή (Desktop Application). Λειτουργώντας ως υπηρεσία παρέχει κλιμάκωση με βάση τις απαιτήσεις των χρηστών, αξιοποιώντας τα πλεονεκτήματα των υποδομών Υπολογιστικού Νέφους, εκτελώντας γρήγορα και αποτελεσματικά τις εργασίες των χρηστών. Για τη λειτουργία αυτή, μπορεί να χρησιμοποιεί τόσο δημόσιες υποδομές Υπολογιστικού Νέφους όπως η υπηρεσία Amazon Web Services (AWS) και η υπηρεσία της ΕΔΕΤ (~okeanos), όσο και ιδιωτικές που βασίζονται στο OpenStack. Επιπλέον, η αρθρωτή αρχιτεκτονική και η υλοποίηση των διαφόρων λειτουργικών τμημάτων επιτρέπουν την εύκολη επέκταση του εργαλείου ώστε να υποστηρίζει μελλοντικά περισσότερες υποδομές Υπολογιστικού Νέφους. / Distributed computing technologies, like grids and clouds, shape today a new environment, regarding the way tasks are executed, data are stored and retrieved, and applications are used. Though grids and desktop grids have been the focus of the research community for a long time, a shift has become evident today towards cloud and virtualization related technologies in general, which are supported by large computing factories, namely the data centers. As a result there is also a shift from the model of several powerful resources distributed at various locations in the world (as in grids) towards fewer huge data centers consisting of thousands of “simple” computers that host Virtual Machines. The research performed over the course of my PhD followed this shift, investigating algorithmic issues in the context of grids and then of clouds and developing a number of tools and applications that manage, monitor and utilize these kinds of resources. Initially, we describe the steps followed, the difficulties encountered, and the solutions provided in developing and evaluating a scheduling policy, initially implemented in a simulation environment, in the gLite grid middleware. Our focus is on a scheduling algorithm that allocates in a fair way the available resources among the requested users or jobs. During the actual implementation of this algorithm in gLite, we observed that the validity of the information used by the scheduler for its decisions affects greatly its performance. To improve the accuracy of this information, we developed an internal feedback mechanism that operates along with the scheduling algorithm. Also, a Grid computation resource cannot be shared concurrently between different users or jobs, making it difficult to provide actual fairness. For this reason we investigated the use of virtualization technology in the gLite middleware. We implement and evaluate our scheduling algorithm and the proposed mechanisms in a small gLite testbed. Next, we present a methodology, called communication-aware virtual infrastructures (COMAVI), for the concurrent migration of multiple Virtual Machines (VMs) in computing infrastructures, which aims at the optimum use of the available computational and network resources, by capturing the interdependencies between the communicating VMs. This methodology uses multiple criteria for selecting the VMs that will migrate, with different weights assigned to each of them. COMAVI also selects the computing sites where the migrating VMs will be hosted, by accounting for the way migration affects the logical (or virtual) topologies formed by the communicating VMs and viewing this selection as a logical topology reconfiguration problem. We apply COMAVI to two basic computing infrastructures that exhibit different constraints/criteria and characteristics: a grid infrastructure operating over a wide area network (WAN) and a data center infrastructure operating over a local area network (LAN). Through the presented methodology different communication-aware VM migration algorithms can be tailored to the needs of the resource provider. The algorithms presented resolve the maximum possible number of VM violations (due to computing or communication resource shortages), while tending to minimize the number of migrations performed, the induced network overhead, the logical topology reconfigurations required, and the corresponding service interruptions. We evaluate the proposed methods through simulations in realistic computing environments, and we exhibit their performance benefits. We also consider the use of social network analysis methods on communication traces, collected from Virtual Machines (VMs) located in computing infrastructures, like a data center. Our aim is to identify important VMs, for example VMs that require more bandwidth than other VMs or VMs that communicate often with other VMs. We believe that this approach can handle the large number of VMs present in computing infrastructures and their interactions in the same way social interactions of millions of people are analyzed in today’s social networks. We are interested in identifying measures that can locate these important VMs or groups of interacting VMs, missed through other usual metrics and also capture the time-dynamicity of their interactions. In our work we use real traces and evaluate the applicability of the considered methods and measures. In addition, we consider the analysis and optimization of public clouds. For this reason, we identify important algorithmic operations that should be part of a cloud analysis and optimization tool, including resource profiling, performance spike detection and prediction, resource resizing, and others, and we investigate ways in which the collected monitoring information can be processed towards these purposes. The analyzed information is valuable since it can drive important virtual resource management decisions. We also present an open-source tool we developed, called SuMo, which contains the necessary functionalities for collecting monitoring data from Amazon Web Services (AWS), analyzing them and providing resource optimization suggestions. We also present a Cost and Utilization Optimization (CUO) mechanism for optimizing the cost and the utilization of a set of running Amazon EC2 instances, which is formulated as an Integer Linear Programming (ILP) problem. This CUO mechanism receives information regarding the current set of instances used (their number, type, utilization) and proposes a new set of instances for serving the same load, so as to minimize cost and maximize utilization and performance efficiency. Finally, we present a network planning and operation tool, called Mantis, for designing the next generation optical networks, supporting both flexible and mixed line rate WDM networks. Through Mantis, the user is able to define the network topology, current and forecasted traffic matrices, CAPEX/OPEX parameters, set up basic configuration parameters, and use a library of algorithms to plan, operate, or run what-if scenarios for an optical network of interest. Mantis is designed to be deployed either as a cloud service or as a desktop application. Using the cloud infrastructures features Mantis can scale according to the user demands, executing fast and efficiently the scenarios requested. Mantis supports different cloud platforms either public such as Amazon Elastic Compute Cloud (Amazon EC2) and ~okeanos the GRNET’s cloud service or private based on OpenStack, while its modular architecture allows other cloud infrastructures to be adopted in the future with minimum effort.

Page generated in 0.0572 seconds