• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Διαχείριση πόρων σε δίκτυα πλέγματος , χρησιμοποιώντας το ενδιάμεσο λογισμικό gLite

Κρέτσης, Αριστοτέλης 27 April 2009 (has links)
Τα τελευταία χρόνια η ραγδαία αύξηση της υπολογιστικής ισχύος, των αποθηκευτικών μέσων καθώς και των τηλεπικοινωνιών έχει δημιουργήσει γόνιμο έδαφος για την ανάπτυξη πολύπλοκων, απαιτητικών εφαρμογών, τόσο στον χώρο της επιστημονικής έρευνας, όσο και στα πλαίσια της παραγωγής εμπορικών λύσεων. Ως αποτέλεσμα αυτού, πραγματοποιείται μετάβαση από το μοντέλο των μεμονωμένων διακριτών πόρων στο μοντέλο της συνεργασίας κατανεμημένων πόρων το οποίο υλοποιείται από την τεχνολογία πλέγματος (Grid Computing). Ένα πολύ σημαντικό θέμα που επηρεάζει την συνολική απόδοση των δικτύων πλέγματος είναι η χρονοδρομολόγηση των εργασιών που υποβάλλουν οι χρήστες στους διαθέσιμους πόρους του δικτύου. Στόχος της παρούσας διπλωματικής εργασίας ήταν η μελέτη της χρονοδρομολόγησης στα δίκτυα πλέγματος όχι μέσω προγραμμάτων προσομοίωσης αλλά χρησιμοποιώντας το ενδιάμεσο λογισμικό gLite. Βασικό αντικείμενο μελέτης ήταν η υπηρεσία Workload Management System (WMS) στην οποία υλοποιούνται οι αλγόριθμοι χρονοπρογραμματισμού που παρέχει το gLite. Στόχος ήταν η ανάλυση της λειτουργίας των δύο αλγορίθμων χρονοπρογραμματισμού που παρέχει το ενδιάμεσο λογισμικό και η κατανόηση τόσο της αρχιτεκτονικής της WMS υπηρεσίας, που είναι μια από τις πιο σημαντικές για την λειτουργία ολόκληρου του δικτύου, αλλά και του τρόπου υλοποίησης των δύο αλγορίθμων του gLite. Στην συνέχεια προσθέσαμε στην υπηρεσία WMS ένα νέο δίκαιο αλγόριθμο ανάθεσης εργασιών στους διαθέσιμους πόρους του δικτύου πλέγματος. Τέλος αναπτύξαμε ένα μικρής κλίμακας δίκτυο πλέγματος για την πειραματική αξιολόγηση του νέου αλγορίθμου και την σύγκριση του με τους δύο βασικούς αλγορίθμους του gLite. Τα αποτελέσματα δείχνουν ότι ο αλγόριθμος μας παρέχει καλύτερη αξιοποίηση των πόρων του δικτύου, μειώνοντας παράλληλα το μέσο χρόνο εκτέλεσης μιας εργασίας στο δίκτυο. / The emergence of high speed optical networks is making the vision of Grids a reality. Grids consist of geographically distributed and heterogeneous computational and storage resources that may belong to different administrative domains, but can be shared among users by establishing global resource management architecture. An important issue in the performance of Grids is the scheduling of application tasks to the available resources. The Grid environment is quite dynamic, with resource availability and load varying rapidly with time, and application tasks have very different characteristics and requirements. Scheduling is a key to the success of Grid Networks, since it determines the efficiency in the use of the resources and the QoS provided to the users. In this work we present our experiences from implementing and integrating a new job scheduling algorithm in the gLite Grid middleware and present experimental results that compare it to the existing gLite scheduling algorithms. It is the first time that gLite scheduling algorithms are put under test and compared with a new algorithm under the same conditions. We describe the problems that were encountered and solved, going from theory and simulations to practice and the actual implementation of our fair scheduling algorithm. In this work we also describe the steps one needs to follow in order to develop and test a new scheduling algorithm in gLite. We present the methodology followed and the testbed set up for the comparisons. Our research sheds light on some of the problems of the existing gLite scheduling algorithms and makes clear the need for the development of new.
2

Σχεδιασμός και υλοποίηση μιας αρχιτεκτονικής δικτύων αισθητήρων για ανάπτυξη εφαρμογών και πρωτοκόλλων με έμφαση στη διασύνδεση ετερογενών δικτύων

Αντωνίου, Αθανάσιος 19 April 2010 (has links)
Τα δίκτυα αισθητήρων είναι μια εξειδικευμένη κατηγορία κατανεμημένων δικτύων, η οποία τα τελευταία χρόνια έχει συγκεντρώσει το ενδιαφέρον της ερευνητικής κοινότητας, λόγω του ευρύτατου πεδίου εφαρμογών της. Τα δίκτυα αυτά αποτελούνται από συσκευές που διαθέτουν αισθητήρες (sensors) και ενδεχομένως μηχανισμούς δράσης (actuators) και είναι διασκορπισμένες στο χώρο, με δυνατότητα επικοινωνίας μεταξύ τους και επεξεργασίας σε ένα βαθμό της πληροφορίας που διακινούν στο δίκτυο. Στόχος των δικτύων αυτών είναι η παρακολούθηση της εξέλιξης ενός φαινόμενου, ή η ανίχνευση περιβαλλοντικών συνθηκών και η αποστολή των δεδομένων που συλλέγονται σε έναν κεντρικό κόμβο, το κέντρο ελέγχου. Οι δυνατότητες των συσκευών είναι κατά κανόνα περιορισμένες, λόγω του μικρού μεγέθους τους, του χαμηλού κόστους τους και ενίοτε του αναλώσιμου ρόλου τους. Οι εφαρμογές των δικτύων αυτών ποικίλουν, από εφαρμογές στην επιστήμη γεωργίας ακριβείας, στην πυρανίχνευση και την παρακολούθηση συνθηκών περιβάλλοντος σε κτιριακές εγκαταστάσεις, μέχρι εφαρμογές ανίχνευσης κίνησης των εχθρικών μονάδων σε πεδίο μάχης, ή παρακολούθησης φαινόμενου που εξελίσσεται σε δυσπρόσιτη περιοχή. Μερικές από τις βασικές προκλήσεις που προκύπτουν σε αυτά τα δίκτυα, λόγω της φύσης τους, είναι η βέλτιστη διαχείριση των ενεργειακών πόρων κάθε κόμβου, η αποδοτική συνδυαστική επεξεργασία των διακινούμενων μηνυμάτων και η αξιόπιστη δρομολόγηση της πληροφορίας που συλλέγεται προς το κέντρο ελέγχου, καθώς και η δυναμική και αυτόνομη οργάνωση του δικτύου. Η εξέλιξη των δικτύων αισθητήρων σε συνδυασμό με την επιθυμία υλοποίησης περίπλοκων και περισσότερο ολοκληρωμένων εφαρμογών, οδήγησε σε δίκτυα που περιέχουν ετερογενείς κόμβους, όπως για παράδειγμα κόμβους με διαφορετική αρχιτεκτονική, διαφορετικούς αισθητήρες, με διαφορετικές επεξεργαστικές και επικοινωνιακές ικανότητες ή και κόμβους με δυνατότητες κίνησης ή επιτέλεσης εργασιών (actuators) σε απόκριση εντολών που λαμβάνουν από το κέντρο ελέγχου. Επιπρόσθετα, σε πολλές εφαρμογές διαφαίνεται η ανάγκη για διασύνδεση πολλαπλών δικτύων αισθητήρων και διάδοση της πληροφορίας που συλλέγουν μέσω του διαδικτύου προς απομακρυσμένους εξυπηρετητές με αυξημένες επεξεργαστικές ικανότητες, προς βάσεις δεδομένων, συσκευές pda ή κινητά τηλέφωνα, σταθμούς εργασίας τελικών χρηστών και άλλες συσκευές. Δημιουργείται με αυτόν τον τρόπο ένα ευρύτερο ετερογενές δίκτυο επικάλυψης (overlay sensor network), η διαχείριση και αποδοτική χρήση του οποίου απαιτεί νέες αρχιτεκτονικές οργάνωσης των επιμέρους δικτύων, προσαρμοσμένα πρωτόκολλα διάδοσης πληροφορίας και πλατφόρμες που διευκολύνουν τον προγραμματισμό των δικτύων αυτών. Για το λόγο αυτό η επιστημονική κοινότητα επικεντρώνει το ενδιαφέρον της στο σχεδιασμό ειδικών περιβαλλόντων λογισμικού που μεσολαβούν ανάμεσα στον προγραμματιστή εφαρμογών και τα ετερογενή δίκτυα αισθητήρων, τα οποία ανήκουν στην κατηγορία των middleware. Τα περιβάλλοντα αυτά αναλαμβάνουν να διαχειριστούν θέματα χαμηλού επιπέδου ή και ανώτερων επιπέδων στα δίκτυα αισθητήρων, που δεν θα έπρεπε να απασχολούν τον προγραμματιστή κάθε φορά που επιθυμεί να υλοποιήσει μια εφαρμογή. Απώτερος σκοπός είναι να παρέχουν υπηρεσίες υψηλού επιπέδου και ομοιογενείς λογικές αφαιρέσεις πάνω στα ετερογενή δίκτυα, ενώ είναι επιθυμητή η αποδοτική λειτουργία τους σε παγκόσμια κλίμακα όπου πολλά γεωγραφικά διάσπαρτα δίκτυα συνεργάζονται για να παρέχουν τις υπηρεσίες τους με οργανωμένο και καλά ορισμένο τρόπο. Η δική μας συνεισφορά στην έρευνα του πεδίου αυτού, έγκειται πρώτα στη μελέτη ήδη διαθέσιμων προτάσεων middleware για τον προγραμματισμό και τη διασύνδεση πολλαπλών και ετερογενών δικτύων αισθητήρων, με σκοπό τον εντοπισμό των θεμάτων και προβλημάτων που αντιμετώπισαν κατά το σχεδιασμό τους, την ανάλυση της αρχιτεκτονικής τους και την αξιολόγηση της απόδοσής τους. Επιθυμώντας να δώσουμε τη δική μας πρόταση στο πεδίο των middleware για δίκτυα αισθητήρων και αξιοποιώντας τα συμπεράσματά μας από την μελέτη των άλλων προτάσεων, σχεδιάσαμε και υλοποιήσαμε το middleware σύστημα ShareSense II. Το σύστημα ShareSense II προέρχεται από τον επανασχεδιασμό τού αρχικού και απλούστερου ShareSense και ενσωματώνει το middleware jWebDust επεκτείνοντας κατά ένα τρόπο την αρχιτεκτονική του, ώστε να υποστηρίζει δίκτυα επικάλυψης (overlay sensor networks) μεγάλης κλίμακας. Η πλατφόρμα του ShareSense II σχεδιάστηκε για να παρέχει λογική αφαίρεση των δικτύων αισθητήρων, ώστε ο προγραμματιστής να μπορεί εύκολα να ρυθμίσει τις υπηρεσίες που παρέχει ένα δίκτυο επικάλυψης, να διαχειρίζεται τις λειτουργίες των επιμέρους δικτύων, να μπορεί να προγραμματίσει δυναμικά τη συμπεριφορά τους και να καθορίσει τον τρόπο παρουσίασης της χρήσιμης πληροφορίας που αποκομίζει από αυτά, στον τελικό χρήστη. Βασιζόμενοι στην ευέλικτη υποδομή των peer-to-peer δικτύων, προτείνουμε μια λύση για τη διασύνδεση πολλαπλών ετερογενών δικτύων αισθητήρων με συσκευές και σταθμούς εργασίας πάνω από το διαδίκτυο. Δώσαμε έμφαση στην επεκτασιμότητα της αρχιτεκτονικής ως προς τις υποστηριζόμενες υπηρεσίες και τύπους δικτύων, την αξιοποίηση και τη συνεργασία με υπάρχοντα middleware που διαχειρίζονται κάποια επιμέρους δίκτυα και την παροχή χρήσιμων διεπαφών για την εύκολη υλοποίηση πρακτικών εφαρμογών. Υλοποιήσαμε, τέλος, μια εφαρμογή η οποία στηρίζεται στην πλατφόρμα του ShareSense II για να τεκμηριώσουμε την επάρκεια της αρχιτεκτονικής του συστήματός μας και να εντοπίσουμε τα σημεία όπου απαιτείται βελτίωσή της. Η εφαρμογή χρησιμοποιεί το περιβάλλον του Google Earth για την παρακολούθηση των επιμέρους δικτύων που συμμετέχουν στο σύστημα, επιτρέποντας παράλληλα τη δυναμική υποβολή ερωτημάτων και την αντιστοίχιση των δικτύων σε τρισδιάστατα μοντέλα κτιρίων και άλλων περιοχών, ώστε να είναι άμεση και εύληπτη η παρουσίαση της πληροφορίας στον τελικό χρήστη. / Sensor networks are a special case of distributed networks, which in the recent years have become increasingly interesting to the scientific community, due to their wide range of applications. These networks are comprised of devices that have sensors attached to them and possibly even actuators, and are scattered in a field, being able to comminucate with each other and process -to a certain degree- information that they forward in the network. Among the goals of these networks are the monitoring of physical phenomena, the detection of special events or conditions and consequently the communication of the acquired information towards a control center. These devices usually have strict constraints on their capabilities due to their small size, their low production cost and quite often their expendable role. The applications of these networks vary, from applications in the precision agriculture field, fire detection and monitoring environmental conditions in buildings and offices, to applications for the detection of enemy units' movements in the battlefield or observing a physical phenomenon in a inaccessible location. Some of the important challeges that emerge for these networks are the optimal management of the power resources of each node, the efficient aggregation of the in-network messages and the reliable routing of information acquired towards the control center, as well as the autonomous and adaptive network operation. The evolution in the sensor netorks research in combination with the desire to implement even more sophisticated applications, has led to highly heterogeneous networks, where nodes belong to different architectures, they use various sensor models, and they have different processing and communicating capabilities. Additionally, in many applications there is the need to interconnect multiple sensor networks and to distribute the information collected locally towards remote servers, databases, pda devices or cell phones, workstations and other end user devices. Thus, a new type of networks, the overlay networks, emerges. The administration and effecient usage of these networks require new management architectures for the local networs, adaptive protocols for the distribution of information and new software platforms that simplify application programming. Following these developments, the scientific community has focused in designing middleware software for the sensor networks. Such software have the role of managing low level or intermediate level issues, that should not burden a programmer every time s/he needs to design and implement a new application. The main goal of middleware is to provide high level services and unified logical abstractions over heterogeneous sensor networks, and to perform well in a global scale where multiple geographically disparate networks cooperate to provide services in an organized and well defined manner. Our contribution to this field, is foremost to study the state of the art middleware projects for overlay sensor networks, in an effort to understand the issues and problems that were faced during their design, to analyze their architecure and evaluate their performance. We have used the results of this study to design and implement a new middleware architecture, which we have named ShareSense II. Our middleware comes from the redesign and expansion of its simpler predecessor, the original ShareSense middleware, and also integrates the jwebdust middleware, bringing the services of that middleware to the large scal overlay networks. The ShareSense II platfrom was designed to provide logical abstractions for sensor networks, so that the programmer is able to tweak their services, maange the resources of the local networks and build flexible applications. For our overlay netowrk we have embedded an efficient peer-to-peer infrastructure that performs well in networks with frequent and temporary node disconnections and large scale applications. Finally, we implemented an application that uses the ShareSense II middleware, in order to show the benefits of our design and also locate the parts of the architecture that need further optimization. Our application uses the Google Earth software to monitor geographically disparate networks that participate in ShareSense II, allowing the online issuing of queries, as well as matching 3d models of buildings (and other areas) to local networks, in order to display information to the end user in an interesting and exciting way.
3

Χρονοπρογραμματισμός και δρομολόγηση σε δίκτυα πλέγματος και δίκτυα δεδομένων

Κόκκινος, Παναγιώτης 05 January 2011 (has links)
Τα δίκτυα πλέγματος (grid networks) αποτελούνται από ένα σύνολο ισχυρών υπολογιστικών, αποθηκευτικών και άλλων πόρων. Οι πόροι αυτοί είναι συνήθως γεωγραφικά αλλά και διοικητικά διασκορπισμένοι και συνδέονται με ένα δίκτυο δεδομένων. Τα δίκτυα πλέγματος το τελευταίο καιρό έχουν αποκτήσει μία δυναμική, η οποία εντάσσεται μέσα σε ένα γενικότερο πλαίσιο, αυτό της κατανεμημένης επεξεργασίας και αποθήκευσης δεδομένων. Επιστήμονες, ερευνητές αλλά και απλοί χρήστες χρησιμοποιούν από κοινού τους κατανεμημένους πόρους για την εκτέλεση διεργασιών ή τη χρήση εφαρμογών, για τις οποίες δεν μπορούν να χρησιμοποιήσουν τους τοπικά διαθέσιμους υπολογιστές τους λόγω των περιορισμένων δυνατοτήτων τους. Στην παρούσα διδακτορική διατριβή εξετάζουμε ζητήματα που σχετίζονται με το χρονοπρογραμματισμό (scheduling) των διεργασιών στους διαθέσιμους πόρους, καθώς και με τη δρομολόγηση (routing) των δεδομένων που οι διεργασίες χρειάζονται. Εξετάζουμε τα ζητήματα αυτά είτε χωριστά, είτε σε συνδυασμό, μελετώντας έτσι τις αλληλεπιδράσεις τους. Αρχικά, προτείνουμε ένα πλαίσιο παροχής ποιότητας υπηρεσιών στα δίκτυα πλέγματος, το οποίο μπορεί να εγγυηθεί σε ένα χρήστη μία μέγιστη χρονική καθυστέρηση εκτέλεσης των διεργασιών του. Με τον τρόπο αυτό, ένας χρήστης μπορεί να επιλέξει με απόλυτη βεβαιότητα εκείνον τον υπολογιστικό πόρο που μπορεί να εκτελέσει τη διεργασία του πριν τη λήξη της προθεσμίας της. Το προτεινόμενο πλαίσιο δεν στηρίζεται στην εκ των προτέρων δέσμευση των υπολογιστικών πόρων, αλλά στο ότι οι χρήστες μπορούν να αυτό-περιορίσουν το ρυθμό δημιουργίας διεργασιών τους, ο οποίος συμφωνείται ξεχωριστά με κάθε πόρο κατά τη διάρκεια μίας φάσης εγγραφής τους. Πραγματοποιούμε έναν αριθμό πειραμάτων προσομοίωσης που αποδεικνύουν ότι το προτεινόμενο πλαίσιο μπορεί πράγματι να παρέχει στους χρήστες εγγυημένο μέγιστο χρόνο καθυστέρησης εκτέλεσης των διεργασιών τους, ενώ με τις κατάλληλες επεκτάσεις το πλαίσιο μπορεί να χρησιμοποιηθεί ακόμα και όταν το φορτίο των διεργασιών δεν είναι εκ των προτέρων γνωστό. Στη συνέχεια εξετάζουμε το πρόβλημα της ``Συγκέντρωσης Δεδομένων'' (ΣΔ), που εμφανίζεται όταν μία διεργασία χρειάζεται περισσότερα του ενός τμήματα δεδομένων να μεταφερθούν σε έναν υπολογιστικό πόρο, πριν η διεργασία ξεκινήσει την εκτέλεσή της σε αυτόν. Μελετάμε τα υπό-προβλήματα της επιλογής των αντιγράφων των δεδομένων, του χρονοπρογραμματισμού της διεργασίας και της δρομολόγησης των δεδομένων της και προτείνουμε έναν αριθμό πλαισίων ``Συγκέντρωσης Δεδομένων''. Μερικά πλαίσια εξετάζουν μόνο τις υπολογιστικές ή μόνο τις επικοινωνιακές απαιτήσεις των διεργασιών, ενώ άλλα εξετάζουν και τα δύο είδη απαιτήσεων. Επιπλέον, προτείνονται πλαίσια ``Συγκέντρωσης Δεδομένων'' τα οποία βασίζονται στην κατασκευή ελαχίστων γεννητικών δέντρων(Minimum Spanning Tree - MST), με σκοπό τη μείωση της συμφόρησης στο δίκτυο δεδομένων, που εμφανίζεται κατά την ταυτόχρονη μεταφορά των δεδομένων μίας διεργασίας. Στα πειράματα προσομοίωσης μας αξιολογούμε τα προτεινόμενα πλαίσια και δείχνουμε ότι αν η διαδικασία της ``Συγκέντρωση Δεδομένων'' πραγματοποιηθεί σωστά, τότε η απόδοση του δικτύου πλέγματος, όσον αφορά τη χρήση των πόρων και την εκτέλεση των διεργασιών, μπορεί να βελτιωθεί. Επιπλέον, ερευνούμε την εφαρμογή τεχνικών σύνοψης της πληροφορίας των χαρακτηριστικών των πόρων στα δίκτυα πλέγματος. Προτείνουμε ένα σύνολο μεθόδων και τελεστών σύνοψης, προσπαθώντας να μειώσουμε τον όγκο των πληροφοριών πόρων που μεταφέρονται πάνω από το δίκτυο, ενώ παράλληλα επιθυμούμε οι συνοπτικές πληροφορίες που παράγονται να βοηθούν το χρονοπρογραμματιστή να παίρνει αποδοτικές αποφάσεις ανάθεσης διεργασιών στους διαθέσιμους πόρους. Οι τεχνικές αυτές μπορούν να συνδυαστούν και με τις αντίστοιχες τεχνικές που εφαρμόζονται στα ιεραρχικά δίκτυα δεδομένων για τη δρομολόγηση, εξασφαλίζοντας έτσι τη διαλειτουργικότητα μεταξύ διαφορετικών δικτύων πλέγματος καθώς και το απόρρητο των πληροφοριών που ανήκουν σε διαφορετικούς παρόχους πόρων. Στα πειράματα προσομοίωσης μας χρησιμοποιούμε σαν μετρική της ποιότητας / αποδοτικότητας των αποφάσεων του χρονοπρογραμματιστή τον Stretch Factor (SF), που ορίζεται ως ο λόγος της μέσης καθυστέρησης εκτέλεσης των διεργασιών όταν αυτές χρονοπρογραμματίζονται με βάση ακριβείς πληροφορίες πόρων, προς τη μέση καθυστέρηση τους όταν χρησιμοποιούνται συνοπτικές πληροφορίες. Ακόμα, μετράμε τη συχνότητα με την οποία ο χρονοπρογραμματιστής ενημερώνεται για τις αλλαγές στην κατάσταση των πόρων καθώς και τον όγκο των πληροφοριών πόρων που μεταφέρονται. Μελετάμε, ακόμα, ζητήματα που προκύπτουν από την υλοποίηση αλγορίθμων χρονοπρογραμματισμού που έχουν αρχικά μελετηθεί σε περιβάλλοντα προσομοίωσης, σε πραγματικά συστήματα ενδιάμεσου λογισμικού (middleware) για δίκτυα πλέγματος, όπως το gLite. Το πρώτο ζήτημα που εξετάζουμε είναι το γεγονός ότι οι πληροφορίες που παρέχονται στους αλγορίθμους χρονοπρογραμματισμού στα συστήματα αυτά δεν είναι πάντα έγκυρες, ενώ το δεύτερο ζήτημα είναι ότι δεν υπάρχει ευελιξία στο διαμοιρασμό των πόρων μεταξύ διαφορετικών διεργασιών. Η μελέτη μας δείχνει ότι με απλές αλλαγές στους μηχανισμούς διαχείρισης διεργασιών ενός συστήματος ενδιάμεσου λογισμικού, αυτά αλλά και άλλα ζητήματα μπορούν να αντιμετωπιστούν, επιτυγχάνοντας σημαντικές βελτιώσεις στην απόδοση των δικτύων πλέγματος. Στα πλαίσια αυτά μάλιστα, εξετάζουμε τη χρήση της τεχνολογίας της εικονικοποίησης (virtualization). Υλοποιούμε και αξιολογούμε τους προτεινόμενους μηχανισμούς σε ένα μικρό δοκιμαστικό δίκτυο πλέγματος. Τέλος, προτείνουμε έναν αλγόριθμο πολλαπλών κριτηρίων για τη δρομολόγηση και ανάθεση μήκους κύματος υπό την παρουσία φυσικών εξασθενήσεων (Impairment-Aware Routing and Wavelength Assignment, IA-RWA) για οπτικά δίκτυα δεδομένων. Τα οπτικά δίκτυα είναι η δικτυακή τεχνολογία που χρησιμοποιείται σήμερα για τη διασύνδεση των υπολογιστικών και αποθηκευτικών πόρων των δικτύων πλέγματος, ενώ οι διάφορες φυσικές εξασθενήσεις τείνουν να μειώνουν την ποιότητα μετάδοσης (Quality of Transmission - QoT) των οπτικών σημάτων. Κύριο χαρακτηριστικό του προτεινόμενου αλγορίθμου είναι ότι υπολογίζει την ποιότητα μετάδοσης (Quality of Transmission - QoT) ενός υποψήφιου οπτικού μονοπατιού (lightpath) μη βασιζόμενο σε πραγματικές μετρήσεις ή εκτιμήσεις μέσω αναλυτικών μοντέλων των διαφόρων φυσικών εξασθενήσεων, αλλά μετρώντας τις αιτίες στις οποίες αυτά οφείλονται. Με τον τρόπο αυτό ο αλγόριθμος γίνεται πιο γενικός και εφαρμόσιμος σε διαφορετικές συνθήκες (μέθοδοι διαμόρφωσης του οπτικού σήματος, ρυθμοί μετάδοσης, τιμές διαφόρων φυσικών παραμέτρων, κ.α.). Τα πειράματα προσομοίωσης μας δείχνουν ότι ο προτεινόμενος αλγόριθμος μπορεί να εξυπηρετήσει τις περισσότερες δυναμικές αιτήσεις σύνδεσης, υπολογίζοντας γρήγορα, μονοπάτια με καλή ποιότητα μετάδοσης σήματος. Γενικά, η παρούσα διδακτορική διατριβή παρουσιάζει έναν αριθμό σημαντικών και καινοτόμων μεθόδων, πλαισίων και αλγορίθμων που αφορούν τα δίκτυα πλέγματος. Παράλληλα ωστόσο αποκαλύπτει το εύρος των ζητημάτων και ως ένα βαθμό και τις αλληλεπιδράσεις τους, που σχετίζονται με την αποδοτική λειτουργία των δικτύων πλέγματος, τα οποία απαιτούν τη σύνθεση και τη συνεργασία ερευνητών, μηχανικών και επιστημόνων από διάφορα πεδία. / Grid networks consist of several high capacity, computational, storage and other resources, which are geographically distributed and may belong to different administrative domains. These resources are usually connected through high capacity optical networks. The grid networks evolution follows the current trend of distributedly performed computation and storage. This trend provides several new possibilities to scientists, researchers and to simple users around the world, so as to use the shared resources for executing their tasks and running their applications. These operations are not always possible to perform in local, limited capacity, resources. In this thesis we study issues related to the scheduling of tasks and the routing of their datasets. We study these issues both separately and jointly, along with their interactions. Initially, we present a Quality of Service (QoS) framework for grids that guarantees to users an upper bound on the execution delay of their submitted tasks. Such delay guarantees imply that a user can choose, with absolute certainty, a resource to execute a task before its deadline expires. Our framework is not based on the advance reservation of resources, instead, the users follow a self constrained task generation pattern, which is agreed separately with each resource during a registration phase. We validate experimentally the proposed Quality of Service (QoS) framework for grids, verifying that it satisfies the delay guarantees promised to users. In addition, when the proposed extensions are used, the framework also provides delay guarantees without exact a-priori knowledge of the task workloads. Next, we examine a task scheduling and data migration problem for grid networks, which we refer to as the Data Consolidation (DC) problem. Data Consolidation arises when a task requests concurrently multiple pieces of data, possibly scattered throughout the grid network that have to be present at a selected site before the task's execution starts. In such a case, the scheduler must select the data replicas to be used, the site where these data will be gathered for the task to be executed, and the routing paths to be followed. We propose and experimentally evaluate several Data Consolidation schemes. Some consider only the computational or only the communication requirements of the tasks, while others consider both kinds of requirements. We also propose Data Consolidation (DC) schemes, which are based on Minimum Spanning Trees (MST) that route concurrently the datasets so as to reduce the congestion that may appear in the future, due to these transfers. In our simulation experiments we validate the proposed schemes and show that if the Data Consolidation operation is performed efficiently, then significant benefits can be achieved, in terms of the resources' utilization and task delay. We also consider the use of resource information aggregation in grid networks. We propose a number of aggregation schemes and operators for reducing the information exchanged in a grid network and used by the resource manager in order to make efficient scheduling decisions. These schemes can be integrated with the schemes utilized in hierarchical data networks for data routing, providing interoperability between different grid networks, while the sensitive or detailed information of resource providers is kept private. We perform a large number of experiments to evaluate the proposed aggregation schemes and the used operators. As a metric of the quality of the aggregated information we introduce the Stretch Factor (SF), defined as the ratio of the task delay when the task is scheduled using complete resource information over the task delay when an aggregation scheme is used. We also measure the number of resource information updates triggered by each aggregation scheme and the amount of resource information transferred. In addition, we are interested in the difficulties encountered and the solutions provided in order to develop and evaluate scheduling policies, initially implemented in a simulation environment, in the gLite grid middleware. We identify two important such implementation issues, namely the inaccuracy of the information provided to the scheduler by the information system, and the inflexibility in the sharing of a resource among different jobs. Our study indicates that simple changes in the gLite's scheduling procedures can solve these and other similar issues, yielding significant performance gains. We also investigate the use of the virtualization technology in the gLite middleware. We implement and evaluate the proposed mechanisms in a small gLite testbed. Finally, we propose a multicost impairment-aware routing and wavelength assignment (IA-RWA) algorithm in optical networks. In general, physical impairments tend to degrade the optical signal quality. Also, optical networks is the main networking technology used today for the interconnection of the grid's, computational and storage, resources around the world. The main characteristic of the proposed algorithm is that it calculates the quality of transmission (QoT) of a candidate lightpath by measuring several impairment-generating source parameters and not by using complex formulas to directly account for the effects of physical impairments. In this way, this approach is more generic and more easily applicable to different conditions (modulation formats, bit rates). Our results indicate that the proposed impairment-aware routing and wavelength assignment (IA-RWA) algorithm can efficiently serve the online traffic in an optical network and to guarantee the transmission quality of the found lightpaths, with low running times. In general, in this thesis we present several novel mechanisms and algorithms for grid networks. At the same time, this Thesis reveals the variety of the issues that relate to the efficient operation of the grid networks and their interdependencies. For handling all these issues the cooperation of researches, scientists and engineers from various fields, is required.
4

Μελέτη και ανάπτυξη τεχνικών για την αποτελεσματική διαχείριση πόρων σε δίκτυα πλέγματος και υποδομές υπολογιστικών νεφών

Κρέτσης, Αριστοτέλης 25 February 2014 (has links)
Οι τεχνολογίες κατανεμημένου υπολογισμού, όπως τα δίκτυα πλέγματος και οι υποδομές Νέφους, έχουν διαμορφώσει πλέον ένα καινούργιο περιβάλλον σχετικά με τον τρόπο που εκτελούνται οι εργασίες των χρηστών, αποθηκεύονται τα δεδομένα και γενικότερα χρησιμοποιούνται οι εφαρμογές. Τα δίκτυα πλέγματος αποτέλεσαν το επίκεντρο της σχετικής ερευνητικής δραστηριότητας για μεγάλο χρονικό διάστημα, με βασικό στόχο τη δημιουργία υποδομών για την εκτέλεση ερευνητικών εφαρμογών με πολύ υψηλές υπολογιστικές και αποθηκευτικές απαιτήσεις. Ωστόσο είναι πλέον προφανές ότι υπάρχει μια στροφή προς τις υποδομές Νέφους που προσφέρουν υπηρεσίες κατανεμημένου υπολογισμού και αποθήκευσης μέσω πλήρως διαχειρίσιμων πόρων. Η συγκεκριμένη μετάβαση έχει ως αποτέλεσμα μια μετατόπιση από το μοντέλο των πολλών και ισχυρών πόρων που βρίσκονται κατανεμημένοι σε διάφορες περιοχές του κόσμου (όπως στα δίκτυα πλέγματος) προς σχετικά λιγότερα αλλά πολύ μεγαλύτερα ως προς το μέγεθος κέντρα δεδομένων τα οποία αποτελούνται από χιλιάδες υπολογιστικούς πόρους οι οποίοι φιλοξενούν ακόμη περισσότερες εικονικές μηχανές. Η έρευνα που διεξάγαμε ακολούθησε αυτή την αλλαγή, μελετώντας αλγοριθμικά θέματα για δίκτυα πλέγματος και υποδομές Νεφών και αναπτύσσοντας μια σειρά από εργαλεία και εφαρμογές που διαχειρίζονται, παρακολουθούν και αξιοποιούν τους πόρους που προσφέρουν οι συγκεκριμένες υποδομές. Αρχικά, μελετούμε τα ζητήματα που προκύπτουν κατά την υλοποίηση αλγορίθμων χρονοπρογραμματισμού, που είχαν προηγουμένως μελετηθεί σε περιβάλλοντα προσομοίωσης, σε ένα πραγματικό σύστημα ενδιάμεσου λογισμικού για δίκτυα πλέγματος, και συγκεκριμένα το gLite. Το πρώτο ζήτημα που αντιμετωπίσαμε είναι το γεγονός ότι οι πληροφορίες που παρέχει το ενδιάμεσο λογισμικό gLite στους αλγορίθμους χρονοπρογραμματισμού δεν είναι πάντα έγκυρες, γεγονός που επηρεάζει την αποδοσή τους. Για την αντιμετώπιση του προβλήματος αναπτύξαμε ένα εσωτερικό, στο χρονοπρογραμματιστή, μηχανισμό που καταγράφει τις αποφάσεις του σχετικά με ποιές εργασίες ανατέθηκαν σε ποιούς υπολογιστικούς πόρους και λειτουργεί συµπληρωµατικά µε την υπηρεσία πληροφοριών του gLite. Επιπλέον, εξετάζουμε το ζήτημα του δίκαιου διαμοιρασμού της υπολογιστικής χωρητικότητας ενός πόρου στις εργασίες που έχουν ανατεθεί σε αυτόν. Για το σκοπό αυτό, επεκτείνουμε το ενδιάμεσο λογισμικό gLite ώστε να περιλαμβάνει ένα νέο μηχανισμό που μέσω της αξιοποίησης της τεχνολογίας εικονικοποίησης επιτρέπει τον ταυτόχρονο διαμοιρασμό της υπολογιστικής χωρητικότητας ενός κόμβου σε πολλές εργασίες. Στην συνέχεια εξατάζουμε το πρόβλημα της συνδυασμένης μεταφοράς πολλαπλών εικονικών μηχανών σε σύγχρονες υπολογιστικές υποδομές. Πιο συγκεκριμένα, προτείνουμε μια μεθοδολογία που στοχεύει στην καλύτερη χρησιμοποίηση των διαθέσιμων υπολογιστικών και δικτυακών πόρων, λαμβάνοντας υπόψη στις αποφάσεις σχετικά με τη συνδυασμένη μεταφορά εικονικών μηχανών τις αλληλεξαρτήσεις που δημιουργούνται από την επικοινωνία τους. Η προτεινόμενη μεθοδολογία χρησιμοποιεί την προσέγγιση πολλαπλών κριτηρίων για την επιλογή των εικονικών μηχανών που θα μετακινηθούν, αναθέτοντας διαφορετικά βάρη στα διάφορα κριτήρια ενδιαφέροντος. Επιπλέον, επιλέγει τους υπολογιστικούς κόμβους όπου οι μετακινούμενες εικονικές μηχανές θα φιλοξενηθούν, λαμβάνοντας υπόψη τον τρόπο με τον οποίο οι μετακινήσεις επηρεάζουν τις λογικές (ή εικονικές) τοπολογίες που σχηματίζονται από την επικοινωνία τους και αντιμετωπίζοντας τη συγκεκριμένη επιλογή ως ένα πρόβλημα αναδιάρθρωσης λογικών τοπολογιών. Η αξιολόγηση επιβεβαίωσε τη δυνατότητα της μεθοδολογίας να επιλύει, μέσω των κατάλληλων μετακινήσεων, ένα σημαντικό αριθμό προβλημάτων που οφείλονται σε ελλείψεις υπολογιστικών ή επικοινωνιακών πόρων, ελαχιστοποιώντας παράλληλα τον αριθμό των μετακινήσεων και την προκαλούμενη επιβάρυνση του δικτύου. Το επόμενο θέμα που εξετάζουμε αφορά το πρόβλημα της ανάλυσης δεδομένων επικοινωνίας μεταξύ εικονικών μηχανών οι οποίες φιλοξενούνται σε ένα κέντρο δεδομένων. Προτείνουμε και αξιολογούμε, μέσω της ανάλυσης δεδομένων από ένα πραγματικό κέντρο δεδομένων, την εφαρμογή μετρικών και τεχνικών από τη θεωρία ανάλυσης κοινωνικών δικτύων για τον προσδιορισμό σημαντικών εικονικών μηχανών, για παράδειγμα εικονικές μηχανές οι οποίες απαιτούν περισσότερο εύρος ζώνης σε σχέση με άλλες, και ομάδων εικονικών μηχανών που συσχετίζονται με κάποιο τρόπο μεταξύ τους. Μέσω της συγκεκριμένης προσέγγισης έχουμε τη δυνατότητα να εξάγουμε σημαντικές πληροφορίες οι οποίες μπορούν να αξιοποιηθούν για τη λήψη καλύτερων αποφάσεων σχετικά με τη διαχείριση του πολύ μεγάλου πλήθους των εικονικών μηχανών που φιλοξενούνται στα σύγχρονα κέντρα δεδομένων. Στη συνέχεια προσδιορίζουμε τρόπους με τους οποίους οι πληροφορίες παρακολούθησης που συλλέγονται από τη λειτουργία μιας δημόσιας υποδομής Υπολογιστικού Νέφους, και ιδίως από την υπηρεσία Amazon Web Services (AWS), μπορούν να χρησιμοποιηθούν με ένα αποδοτικό τρόπο προκειμένου να εξάγουμε πολύτιμες πληροφορίες, που μπορούν να αξιοποιηθούν από τους τελικούς χρήστες για την αποτελεσματικότερη διαχείριση των εικονικών πόρων τους. Πιο συγκεκριμένα, παρουσιάζουμε το σχεδιασμό και την υλοποίηση ενός εργαλείου ανοιχτού κώδικα, του SuMo, στο όποιο έχουμε υλοποίησει όλη την απαραίτητη λειτουργικότητα για τη συλλογή και ανάλυση δεδομένων παρακολούθησης από την υπηρεσία AWS. Επιπλέον, προτείνουμε ένα μηχανισμό για τη βελτιστοποίηση του κόστους και της αξιοποίησης (Cost and Utilization Optimization - CUO) των εικονικών υπολογιστικών πόρων της υπηρεσίας AWS. Ο μηχανισμός CUO χρησιμοποιεί πληροφορίες (πλήθος, ακριβή χαρακτηριστικά, ποσοστό αξιοποίησης) για τους διαθέσιμους εικονικούς πόρους ενός χρήστη και προτείνει ένα νέο (βέλτιστο) σύνολο πόρων που θα μπορούσαν να χρησιμοποιηθούν για την αποδοτικότερη εξυπηρέτηση του ίδιου φορτίου εργασίας με μειωμένο κόστος. Τέλος, παρουσιάζουμε την υλοποίηση ενός ολοκληρωμένου εργαλείου, που ονομάζουμε Mantis, για το σχεδιασμό και τη λειτουργία των μελλοντικών ευέλικτων (flex-grid) οπτικών δικτύων που υποστηρίζει επιπλέον οπτικά δίκτυα σταθερού πλέγματος τόσο μοναδικού ρυθμού μετάδοσης όσο και πολλαπλών ρυθμών μετάδοσης. Οι χρήστες έχουν τη δυνατότητα να καθορίζουν δικτυακές τοπολογίες, απαιτήσεις κίνησης, παραμέτρους για το κόστος απόκτησης και λειτουργίας των δικτυακών συσκευών, ενώ επιπλέον έχουν πρόσβαση σε αρκετούς αλγορίθμους για το σχεδιασμό, λειτουργία και αξιολόγηση διαφόρων οπτικών δικτύων. Το εργαλείο έχει σχεδιαστεί ώστε να μπορεί να λειτουργεί είτε ως υπηρεσία (Software as a Service) είτε ως κλασσική εφαρμογή (Desktop Application). Λειτουργώντας ως υπηρεσία παρέχει κλιμάκωση με βάση τις απαιτήσεις των χρηστών, αξιοποιώντας τα πλεονεκτήματα των υποδομών Υπολογιστικού Νέφους, εκτελώντας γρήγορα και αποτελεσματικά τις εργασίες των χρηστών. Για τη λειτουργία αυτή, μπορεί να χρησιμοποιεί τόσο δημόσιες υποδομές Υπολογιστικού Νέφους όπως η υπηρεσία Amazon Web Services (AWS) και η υπηρεσία της ΕΔΕΤ (~okeanos), όσο και ιδιωτικές που βασίζονται στο OpenStack. Επιπλέον, η αρθρωτή αρχιτεκτονική και η υλοποίηση των διαφόρων λειτουργικών τμημάτων επιτρέπουν την εύκολη επέκταση του εργαλείου ώστε να υποστηρίζει μελλοντικά περισσότερες υποδομές Υπολογιστικού Νέφους. / Distributed computing technologies, like grids and clouds, shape today a new environment, regarding the way tasks are executed, data are stored and retrieved, and applications are used. Though grids and desktop grids have been the focus of the research community for a long time, a shift has become evident today towards cloud and virtualization related technologies in general, which are supported by large computing factories, namely the data centers. As a result there is also a shift from the model of several powerful resources distributed at various locations in the world (as in grids) towards fewer huge data centers consisting of thousands of “simple” computers that host Virtual Machines. The research performed over the course of my PhD followed this shift, investigating algorithmic issues in the context of grids and then of clouds and developing a number of tools and applications that manage, monitor and utilize these kinds of resources. Initially, we describe the steps followed, the difficulties encountered, and the solutions provided in developing and evaluating a scheduling policy, initially implemented in a simulation environment, in the gLite grid middleware. Our focus is on a scheduling algorithm that allocates in a fair way the available resources among the requested users or jobs. During the actual implementation of this algorithm in gLite, we observed that the validity of the information used by the scheduler for its decisions affects greatly its performance. To improve the accuracy of this information, we developed an internal feedback mechanism that operates along with the scheduling algorithm. Also, a Grid computation resource cannot be shared concurrently between different users or jobs, making it difficult to provide actual fairness. For this reason we investigated the use of virtualization technology in the gLite middleware. We implement and evaluate our scheduling algorithm and the proposed mechanisms in a small gLite testbed. Next, we present a methodology, called communication-aware virtual infrastructures (COMAVI), for the concurrent migration of multiple Virtual Machines (VMs) in computing infrastructures, which aims at the optimum use of the available computational and network resources, by capturing the interdependencies between the communicating VMs. This methodology uses multiple criteria for selecting the VMs that will migrate, with different weights assigned to each of them. COMAVI also selects the computing sites where the migrating VMs will be hosted, by accounting for the way migration affects the logical (or virtual) topologies formed by the communicating VMs and viewing this selection as a logical topology reconfiguration problem. We apply COMAVI to two basic computing infrastructures that exhibit different constraints/criteria and characteristics: a grid infrastructure operating over a wide area network (WAN) and a data center infrastructure operating over a local area network (LAN). Through the presented methodology different communication-aware VM migration algorithms can be tailored to the needs of the resource provider. The algorithms presented resolve the maximum possible number of VM violations (due to computing or communication resource shortages), while tending to minimize the number of migrations performed, the induced network overhead, the logical topology reconfigurations required, and the corresponding service interruptions. We evaluate the proposed methods through simulations in realistic computing environments, and we exhibit their performance benefits. We also consider the use of social network analysis methods on communication traces, collected from Virtual Machines (VMs) located in computing infrastructures, like a data center. Our aim is to identify important VMs, for example VMs that require more bandwidth than other VMs or VMs that communicate often with other VMs. We believe that this approach can handle the large number of VMs present in computing infrastructures and their interactions in the same way social interactions of millions of people are analyzed in today’s social networks. We are interested in identifying measures that can locate these important VMs or groups of interacting VMs, missed through other usual metrics and also capture the time-dynamicity of their interactions. In our work we use real traces and evaluate the applicability of the considered methods and measures. In addition, we consider the analysis and optimization of public clouds. For this reason, we identify important algorithmic operations that should be part of a cloud analysis and optimization tool, including resource profiling, performance spike detection and prediction, resource resizing, and others, and we investigate ways in which the collected monitoring information can be processed towards these purposes. The analyzed information is valuable since it can drive important virtual resource management decisions. We also present an open-source tool we developed, called SuMo, which contains the necessary functionalities for collecting monitoring data from Amazon Web Services (AWS), analyzing them and providing resource optimization suggestions. We also present a Cost and Utilization Optimization (CUO) mechanism for optimizing the cost and the utilization of a set of running Amazon EC2 instances, which is formulated as an Integer Linear Programming (ILP) problem. This CUO mechanism receives information regarding the current set of instances used (their number, type, utilization) and proposes a new set of instances for serving the same load, so as to minimize cost and maximize utilization and performance efficiency. Finally, we present a network planning and operation tool, called Mantis, for designing the next generation optical networks, supporting both flexible and mixed line rate WDM networks. Through Mantis, the user is able to define the network topology, current and forecasted traffic matrices, CAPEX/OPEX parameters, set up basic configuration parameters, and use a library of algorithms to plan, operate, or run what-if scenarios for an optical network of interest. Mantis is designed to be deployed either as a cloud service or as a desktop application. Using the cloud infrastructures features Mantis can scale according to the user demands, executing fast and efficiently the scenarios requested. Mantis supports different cloud platforms either public such as Amazon Elastic Compute Cloud (Amazon EC2) and ~okeanos the GRNET’s cloud service or private based on OpenStack, while its modular architecture allows other cloud infrastructures to be adopted in the future with minimum effort.
5

Υλοποίηση της βαθμίδας middleware σε wireless sensor networks με έμφαση στον ασύρματο προγραμματισμό των motes / Implementation of middleware layer in wireless sensor networks laying emphasis on wireless programming of motes

Βασιλόπουλος, Βασίλειος 08 July 2011 (has links)
Τα ασύρματα δίκτυα αισθητήρων αποτελούν μία πρωτοποριακή τεχνολογία που ήρθε στο προσκήνιο πριν από μία περίπου δεκαετία. Η καινοτομία της τεχνολογίας αυτής έγκειται στη συνεργασία μεγάλου αριθμού κόμβων περιορισμένων πόρων χαμηλής κατανάλωσης ισχύος σε μία μόνο εφαρμογή. Η εργασία αυτή ασχολείται με θέματα ενδιάμεσου λογισμικού σε ασύρματα δίκτυα αισθητήρων. Συγκεκριμένα, μελετάται το πρωτόκολλο Deluge που αποτελεί τη βασική επιλογή για ασύρματο προγραμματισμό δικτύων αισθητήρων που «τρέχουν» το λειτουργικό σύστημα πραγματικού χρόνου TinyOS. Παρέχοντας έναν αξιόπιστο και αποδοτικό μηχανισμό διάδοσης δεδομένων μέσω της δυαδικής εικόνας του κώδικα, το Deluge κατέχει ρόλο-κλειδί στη βαθμίδα ενδιάμεσου λογισμικού των ασύρματων δικτύων αισθητήρων. Η μελέτη και κατανόηση του πρωτοκόλλου αυτού επέτρεψε την υλοποίηση σε nesC ενός απλούστερου πρωτοκόλλου που αξιοποιεί τα βασικά χαρακτηριστικά του μηχανισμού μετάδοσης δεδομένων του Deluge. Σε συνέχεια αυτής της υλοποίησης, αξιολογήθηκε εκ νέου η διαδικασία μετάδοσης πραγματοποιώντας δοκιμές τόσο σε πραγματικές τοπολογίες κόμβων αισθητήρων (motes) που υποστηρίζουν το πρότυπο ασύρματης επικοινωνίας IEEE 802.15.4 όσο και σε περιβάλλον προσομοίωσης (TOSSIM). Τα προκύπτοντα αποτελέσματα επιβεβαιώνουν την αποδοτική μετάδοση δεδομένων σε δίκτυα αισθητήρων αξιοποιώντας το πρωτόκολλο Deluge. Η παρούσα εργασία αποτελείται από έξι κεφάλαια. Το πρώτο κεφάλαιο παρέχει πληροφορίες για το γνωστικό αντικείμενο της εργασίας. Στο δεύτερο κεφάλαιο παρουσιάζεται μία μελέτη στην ερευνητική περιοχή των ασύρματων δικτύων αισθητήρων και στο τρίτο κεφάλαιο εξετάζονται τα βασικά χαρακτηριστικά ενός κόμβου αισθητήρων που υποστηρίζει το πρότυπο IEEE 802.15.4. Στο τέταρτο κεφάλαιο παρουσιάζεται η έννοια του ασύρματου προγραμματισμού στα δίκτυα αισθητήρων και μελετάται εκτενώς το πρωτόκολλο Deluge. Στο πέμπτο κεφάλαιο περιγράφεται η υλοποίηση που έλαβε χώρα και η αξιολόγηση αυτής με τους μηχανισμούς που αναφέρθηκαν παραπάνω. Τέλος, στο έκτο κεφάλαιο παρατίθενται τα συμπεράσματα που εξήχθησαν από την εκπόνηση της εν λόγω εργασίας και δίνονται ορισμένες κατευθύνσεις για μελλοντική ενασχόληση με το Deluge και με το ενδιάμεσο λογισμικό στα δίκτυα αισθητήρων γενικότερα. / Wireless sensor networks (WSNs) emerged about a decade ago, representing a new class of computing with large numbers of resource-constrained computing nodes cooperating on a single application. This thesis deals with middleware issues in wireless sensor networks. Specifically, we study Deluge that suggests the de facto over-the-air programming protocol for WSNs working under TinyOS. Providing a reliable and efficient data dissemination mechanism via the binary image of the program code, Deluge plays a key role in the middleware layer of WSNs. Gaining insight into Deluge, we implemented in the nesC programming language a simplified protocol that incorporates the main features of Deluge data dissemination mechanism. This implementation allowed us to evaluate further the propagation procedure of Deluge using a two-mechanism evaluation framework. Carrying out experiments both in real-world deployments being compatible with IEEE 802.15.4 radio and in a simulation environment (TOSSIM), we verified the efficient data propagation in WSNs, using Deluge. This dissertation follows a structure of six chapters. In the first chapter, we give a piece of information about the subject field of this thesis. In the second chapter, we present an overall survey of the research area of WSNs and in the third chapter we examine the basic features of a sensor node (mote) whose wireless communication is based on an IEEE 802.15.4 compliant radio. In the fourth chapter, we discuss network programming in WSNs and we analyze the data dissemination mechanism of Deluge. In the fifth chapter, we discuss our implementation and its evaluation. Finally, in the sixth chapter, we conclude the thesis emphasizing the experience derived from that and we give some directions for future work with Deluge and middleware in WSNs generally.

Page generated in 0.4546 seconds