• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 2
  • Tagged with
  • 42
  • 33
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Υλοποίηση συστήματος ασύρματων αισθητήρων για έλεγχο δομικής ακεραιότητας μέσω ακουστικής εκπομπής

Παλληκάρης, Αλέξιος 01 August 2014 (has links)
Ο Έλεγχος Δομικής Ακεραιότητας (ΕΔΤ) μέσω Ακουστικής Εκπομπής, αποτελεί ένα σημαντικό εργαλείο της μηχανικής στην έγκαιρη διάγνωση δομικών σφαλμάτων και στην αύξηση της διάρκειας ζωής κτηρίων. Οι σύγχρονες εφαρμογές συστημάτων ΕΔΤ χαρακτηρίζονται από μεγάλο κόστος εφαρμογής και συντήρησης. Χρησιμοποιώντας νέες τεχνολογίες ολοκληρωμένων συστημάτων χαμηλής κατανάλωσης ισχύος, ασύρματης επικοινωνίας, καθώς επίσης και τεχνικών ψηφιακής επεξεργασίας σημάτων και αναγνώρισης προτύπων, μπορεί να δημιουργηθεί ένα σύστημα ΕΔΤ φθηνό και αποδοτικό. Στόχος μας σε αυτή την διπλωματική είναι η υλοποίηση ενός συστήματος ασύρματων αισθητήρων, ικανών να επιτελέσουν έλεγχο δομικής ακεραιότητας μέσω ακουστικής εκπομπής, χρησιμοποιώντας μικροελεγκτές LPC2148 και πομποδέκτες nRF24L01. / Structural health monitoring with acoustic emission techniques is an important engineering tool in the diagnosis of structural faults. Modern applications of SHM systems are difficult to implement and cost inefficient. By using new integrated systems technologies, wireless communications, coupled with better techniques in signal processing and pattern recognition, a much more cheap and efficient SHM system may be build. Our target in this thesis, is to implement a wireless sensor system, capable of SHM with acoustic emission, by using LPC2148 microcontrollers and nRF24L01 transceivers.
12

Ανάπτυξη συστήματος διαχείρισης οδοστρωμάτων με αξιολόγηση στοιχείων βιωσιμότητας

Σωτηροπούλου, Μαρία Ιωάννα 26 May 2015 (has links)
Τα συστήματα διαχείρισης οδοστρωμάτων χρησιμοποιούνται ευρύτατα από τους φορείς οδοποιίας και συνεχώς βελτιώνονται επειδή μπορούν να οδηγήσουν σε σημαντική εξοικονόμηση κεφαλαίου και σε υψηλά επίπεδα εξυπηρέτησης του οδικού δικτύου. Στόχος τους είναι η αξιολόγηση των αποφάσεων συντήρησης και διαχείρισης των οδοστρωμάτων για την αποτελεσματική κατανομή των περιορισμένων διαθέσιμων πόρων. Τα σύγχρονα συστήματα που έχουν αναπτυχθεί χρησιμοποιούν μεθόδους τεχνητής νοημοσύνης για την επίλυση του προβλήματος αφού αποτελούν ισχυρά εργαλεία βελτιστοποίησης με μεγάλες υπολογιστικές ικανότητες. Η πλειοψηφία των συστημάτων που έχουν δημιουργηθεί εντοπίζει τη βέλτιστη λύση που ελαχιστοποιεί το κόστος συντήρησης χωρίς να λαμβάνεται υπόψη το αντίκτυπο της επιδείνωσης της κατάστασης του οδοστρώματος στο χρήστη και στο περιβάλλον. Ωστόσο, τα σύγχρονα οδικά έργα είναι αναγκαίο να χαρακτηρίζονται από βιωσιμότητα που απαιτεί την ελαχιστοποίηση των αρνητικών επιπτώσεων που οφείλονται στην κατάσταση του οδοστρώματος. Στόχος της παρούσας μεταπτυχιακής εργασίας είναι η ανάπτυξη ενός συστήματος διαχείρισης οδοστρωμάτων το οποίο αποσκοπεί στην παροχή υποστήριξης αποφάσεων για τις κατάλληλες στρατηγικές συντήρησης ώστε να εξασφαλιστούν αποδεκτά επίπεδα ασφάλειας και λειτουργικότητας του δικτύου των αυτοκινητοδρόμων στη διάρκεια του χρόνου καθώς και μείωση των περιβαλλοντικών επιπτώσεων. Το μοντέλο που παρουσιάζεται δεν περιορίζεται μόνο στο κόστος συντήρησης, όπως οι περισσότερες μελέτες, αλλά επικεντρώνεται στο γενικευμένο κόστος που περιλαμβάνει το κόστος συντήρησης, το κόστος χρήστη και το περιβαλλοντικό κόστος. Το κόστος χρήστη αποτελείται από το κόστος λειτουργίας οχήματος, το κόστος μετακίνησης και το κόστος ατυχημάτων. Το κόστος του περιβάλλοντος συνίσταται από το κόστος εκπομπής των αέριων ρύπων, το κόστος θορύβου και το κόστος στην οικονομική, κοινωνική και πολιτική ζωή. Τα δεδομένα του προβλήματος σχετίζονται με την αρχική κατάσταση των οδοστρωμάτων που πρόκειται να συντηρηθούν, το είδος και τα χαρακτηριστικά της οδού, το είδος και τα χαρακτηριστικά των οχημάτων, τα διαθέσιμα είδη συντήρησης και το ύψος της χρηματοδότησης. Εξαιτίας του μεγέθους και της πολυπλοκότητας του προβλήματος, η βελτιστοποίηση πραγματοποιήθηκε με την εφαρμογή ενός γενετικού αλγορίθμου που έχει τη δυνατότητα να εξετάσει πλήθος οδικών τμημάτων αναζητώντας ένα ευρύ φάσμα πιθανών λύσεων μέσα σε ένα εύλογο χρονικό διάστημα υπολογισμού. Ο αλγόριθμος καταφέρνει να εντοπίζει τον κατάλληλο συνδυασμό συντηρήσεων ώστε το γενικευμένο κόστος να ελαχιστοποιείται ενώ ταυτόχρονα το οδόστρωμα να διατηρείται σε καλή κατάσταση. Για την αξιολόγηση του μοντέλου ερευνήθηκαν πολλές διαφορετικές περιπτώσεις ενώ στο τέλος σχεδιάστηκε η καμπύλη Pareto. Τα αποτελέσματα απέδειξαν ότι το προτεινόμενο σύστημα μπορεί να βοηθήσει αποτελεσματικά στη διατήρηση των οδοστρωμάτων σε ικανοποιητικά επίπεδα λειτουργικότητας και κόστους μέσω των αποφάσεων συντήρησης που προτείνει. / Pavement management systems are widely used by road agencies and are improved continuously as they can lead to money savings and high levels of road services. The aim is to provide assistance to decision makers for selecting optimum strategies in the design, evaluation, and maintenance of pavements in order to maintain them in serviceable condition over a given period of time for the least cost. Nowadays, the developed systems use artificial intelligent methods to solve the problem which are powerful optimization tools with large computational abilities. The majority of pavement management systems detect the optimal solution that minimizes the maintenance cost without considering the impact of pavement deterioration in the user and the environment. However, they should be characterized by sustainability that requires an efficient use of resources and sensitivity to environmental and social constraints. In this paper, an optimisation model is developed that aims to provide decision support to engineers in developing appropriate pavement maintenance strategies to ensure acceptable levels of safety and functionalism of the highway network in time as well as reduction of environmental impacts. The model supersedes previous ones in considering the generalised cost, which includes the agency cost, the user cost, and the environmental impacts, as the main decision parameter. The user cost consists of three main components, the vehicle operation cost, the travel cost and the accident cost. The environmental cost consists of the air pollution cost and the noise cost. The input data are related to the initial pavement condition, the type and characteristics of the road, the type and characteristics of vehicles, the maintenance types and the budget limit. Due to the problem size and complexity, the optimisation is done with the employment of a genetic algorithm which can handle a large number of road sections, search a wide range of possible solutions, and reach a solution within reasonable computation time. The genetic algorithm can find the appropriate maintenance types in order to minimize the generalized cost while the pavement is kept in good condition. The model has been evaluated with several test cases and Pareto curves have been developed. The results indicate that the proposed model can effectively assist pavement preservation and management decisions in highway networks.
13

Τεχνικές και κυκλώματα εμφώλευσης συνόλου δοκιμής για τον έλεγχο VLSI συστημάτων

Παπαδημητρίου, Αθανασία 07 July 2009 (has links)
Η συνεχής μείωση των διαστάσεων των ψηφιακών κυκλωμάτων σε συνδυασμό με την ολοένα αυξανόμενη πολυπλοκότητά τους, έχει οδηγήσει στην απαίτηση για αξιοπιστία και συνεπώς στην εφαρμογή τεχνικών ελέγχου για την εξασφάλιση της ορθής λειτουργίας τους. Οι βασικοί τρόποι εφαρμογής του ελέγχου σε ένα κύκλωμα μετά την κατασκευή του και την τοποθέτησή του στη συσκευασία είναι ο εξωτερικός (off-chip – εξολοκλήρου χρήση εξωτερικού ελεγκτή ATE), ο BIST (Built-In Self Test – μηδενική χρήση ATE) και ο ενσωματωμένος (embedded – συνδυασμός χρήσης ATE με ενσωματωμένες δομές ελέγχου). Η συγκεκριμένη διπλωματική εργασία επικεντρώνεται στη χρήση του ενσωματωμένου ελέγχου και συγκεκριμένα σε μια κατηγορία αυτού που ονομάζεται εμφώλευση συνόλου δοκιμής (test set embedding) στην οποία το σύνολο δοκιμής ενσωματώνεται σε μια μεγαλύτερη ακολουθία καταστάσεων ενός κυκλώματος παραγωγής διανυσμάτων δοκιμής. Σε αυτή τη διπλωματική εργασία προτείνεται μια νέα μέθοδος για ενσωματωμένο έλεγχο που κάνει χρήση της ανατροφοδότησης (reseeding) για έλεγχο με χρήση ολισθητή γραμμικής ανάδρασης (LFSR). Η μέθοδος αυτή χρησιμοποιείται είτε σε απλές αρχιτεκτονικές ελέγχου με LFSR, είτε σε πολυφασικές αρχιτεκτονικές, πάντα για κυκλώματα με πολλαπλές αλυσίδες. Στην πολυφασική αρχιτεκτονική εκμεταλλευόμαστε τις ακολουθίες από bits που εξάγονται από διάφορες βαθμίδες ενός LFSR, το οποίο χρησιμοποιείται για την παραγωγή διανυσμάτων δοκιμής, για να κωδικοποιήσουμε το σετ ελέγχου της υπό δοκιμή λειτουργικής μονάδας. Παρουσιάζεται ένας νέος αλγόριθμος, ο οποίος περιλαμβάνει τέσσερα κριτήρια για την αποδοτική επιλογή νέων αρχικών καταστάσεων και των βαθμίδων του LFSR. Τέλος παρουσιάζεται και μια μεθοδολογία μείωσης του μήκους της παραγόμενης ακολουθίας δοκιμής. Στη συνέχεια και για να συγκρίνουμε τα αποτελέσματα που εξάγονται από την παραπάνω μέθοδο υλοποιήθηκε μια νέα τεχνική που έχει προταθεί πρόσφατα στη βιβλιογραφία. Η μέθοδος αυτή καλείται REusing Scan chains for test Pattern decompressIoN (RESPIN) και έχει κύριο χαρακτηριστικό την εμφώλευση του συνόλου δοκιμής. Σύμφωνα με τη μέθοδο αυτή η αποσυμπίεση των διανυσμάτων που ελέγχουν μια λειτουργική μονάδα γίνεται με τη χρήση αλυσίδων ελέγχου μιας δεύτερης λειτουργικής μονάδας που βρίσκεται μέσα στο chip και που τη στιγμή του ελέγχου είναι σε αδρανή κατάσταση. Έπειτα από εκτενή σύγκριση των δυο προαναφερθέντων τεχνικών καθώς και άλλων τεχνικών που αναφέρονται στη βιβλιογραφία καταλήξαμε στο συμπέρασμα ότι ο συνδυασμός του αλγόριθμου επιλογής νέων αρχικών καταστάσεων ενός LFSR με την τεχνική μείωσης των ακολουθιών ελέγχου αποτελεί ελκυστική λύση και παρέχει καλύτερα αποτελέσματα τόσο ως προς το πλήθος των δεδομένων που αποθηκεύονται στο ΑΤΕ, όσο και ως προς το μήκος των ακολουθιών δοκιμής. / The continual reduction of digital systems’ size in combination to the increase of their complexity, leads to the need of reliability. Consequently it is necessary to apply testing techniques in order to ensure the right functionality. The ways to apply the testing in an in package circuit is the external (off-chip – total use of the external ATE), the BIST (Built-In Self Test – no use of ATE) and the embedded (use of external ATE in combination to embedded test structures). This diploma thesis focus in the embedded testing and particular in test set embedding. In this technique the test set is embodied in a larger state sequence of a test pattern generator circuit. In this diploma thesis we suggest a new method of embedded testing which uses the reseeding of a LFSR. This method is used either in simple architectures with LFSR, or in multiphase architectures, always for circuits with multiple scan chains. In the multiphase architecture we take advantage of the sequence of bits that are driven by the various stages of a LFSR, which is used to generate test patterns, in order to embody the test set of the circuit under test. We present a new algorithm, which include four standards for the efficient selection of new seeds and states of the LFSR. Finally, we present a new method for test sequence length reduction. After that and in order to compare the results of the above method we implement a new technique, which has been suggested recently in the bibliography. This method is called REusing Scan chains for test Pattern decompressIoN (RESPIN) and its main characteristic is the test set embedding. According to this method, the decompression of test patterns is accomplished using the scan chains of another on-chip module, which is in idle state during the test. After a thorough comparison of these two techniques we conclude that the combination of the seed selection algorithm with the test sequence length reduction technique comprise an attractive solution and gives better results for the amount of data to be stored in the external ATE and for the test sequence length.
14

Σχεδιασμός και ανάλυση αλγορίθμων σε Τυχαία Γραφήματα Τομής / Design and analysis of algorithms on Random Intersection Graphs

Ραπτόπουλος, Χριστόφορος 16 May 2007 (has links)
Στη διπλωματική αυτή εργασία ορίζουμε δυο νέα μοντέλα τυχαίων γραφημάτων τομής ετικετών και εξετάζονται ως προς ορισμένες σημαντικές γραφοθεωρητικές ιδιότητές τους. Ένα τυχαίο γράφημα τομής ετικετών παράγεται αντιστοιχώντας σε κάθε κορυφή ένα \\\\emph{τυχαίο} υποσύνολο ενός πεπερασμένου) σύμπαντος $M$ από $m$ στοιχεία και βάζοντας μια ακμή μεταξύ δυο κορυφών αν και μόνον εάν τα αντίστοιχα σύνολά τους έχουν μη κενή τομή. Συγκεκριμενοποιώντας την κατανομή που ακολουθεί το τυχαίο υποσύνολο που αντιστοιχείται σε κάθε κορυφή παίρνουμε διαφορετικά μοντέλα τυχαίων γραφημάτων τομής. Στο γενικευμένο μοντέλο τυχαίων γραφημάτων τομής κάθε στοιχείο $i$ του $M$ επιλέγεται ανεξάρτητα από κάθε κορυφή με πιθανότητα $p_i$. Το ομοιόμορφο μοντέλο τυχαίων γραφημάτων τομής ετικετών αποτελεί μια ειδική περίπτωση του γενικευμένου μοντέλου όπου η πιθανότητα επιλογής των στοιχείων του $M$ είναι ίση με $p$, δηλαδή ίδια για όλα τα στοιχεία του $M$. Όπως θα δούμε, για ορισμένες τιμές των παραμέτρων $m$ και $p$, το ομοιόμορφο μοντέλο είναι ισοδύναμο με το μοντέλο $G_{n, \\\\hat{p}}$, δηλαδή με το μοντέλο τυχαίων γραφημάτων στο οποίο κάθε πλευρά εμφανίζεται στοχαστικά ανεξάρτητα με πιθανότητα $\\\\hat{p}$. Τέλος, στο κανονικό μοντέλο τυχαίων γραφημάτων τομής ετικετών το υποσύνολο του $M$ που αντιστοιχείται σε κάθε κορυφή έχει σταθερό αριθμό στοιχείων. Λόγω της στοχαστικής εξάρτησης που υποννοείται για την ύπαρξη πλευρών, τα γραφήματα αυτά θεωρούνται αρκετά ρεαλιστικά μοντέλα (σε σχέση με τα κλασσικά τυχαία γραφήματα) σε πολλές πρακτικές εφαρμογές, ιδιαίτερα σε αλγοριθμικά θέματα δικτύων. Στην εργασία αυτή αρχικά παρουσιάζουμε μερικά χαρακτηριστικά αποτελέσματα από τη σχετική βιβλιογραφία για τα μοντέλα αυτά. Ακόμα, μελετάμε, για πρώτη φορά στη βιβλιογραφία, την ύπαρξη ανεξάρτητων συνόλων κορυφών μεγέθους $k$ στο γενικευμένο μοντέλο τυχαίων γραφημάτων τομής ετικετών, υπολογίζοντας τη μέση τιμή και τη διασπορά του αριθμού τους. Επίσης, προτείνουμε και αναλύουμε τρείς πιθανοτικούς αλγόριθμους που τρέχουν σε μικρό πολυωνυμικό χρόνο (ως προς τον αριθμό των κορυφών και τον αριθμό των στοιχείων του $M$) για την εύρεση αρκετά μεγάλων συνόλων ανεξάρτητων κορυφών. / In this Master thesis we define and analyse two new models of random intersection graphs. A random intersection graph is produced by assigning to each vertex a random subset of a (finite) universe $M$ of $m$ elements and by drawing an edge between two vertices if and only if their corresponding subsets have some elements in common. By specifying the distribution of the subsets assigned to each vertex, we get various models of random intersection graphs. In the generalized random intersection graphs model each element $i$ in $M$ is chosen independently with probability $p_i$. The uniform random intersection graphs model is a special case of the generalized model where the probability of selecting an element of $M$ is $p$, i.e. the same for every element. As we will see, for some range of values of the parameters $m$ and $p$, the uniform model is equivalent in some sense with the model $G_{n, \\\\hat{p}}$, i.e. the random graphs model in which each edge appears independently with probability $\\\\hat{p}$. Finally, in the regular random intersection graphs model, the subset of $M$ assigned to each vertex has a fixed number of elements. Due to the dependence implied in the appearance of edges, these models are considered to be more realistic (than classic random graphs) in many applications. This thesis begins by presenting several important results concearning these models. Also, we study for the first time the existence of independent sets of size $k$ in the generalized random intersection graphs model, and we give exact formulae for the mean and variance of their number. Additionally, we propose three randomized algorithms, that run in small polynomial time (with respect to the number of vertices and the number of elements of $M$), for finding large independent sets of vertices.
15

Χρήση θεματικών ταξινομιών για την αυτόματη δημιουργία και οργάνωση εξατομικευμένων καταλόγων διαδικτύου : ένας πρότυπος αλγόριθμος ταξινόμησης / Usage of thematic taxonomy for the automatic creation and organization of specialized network catalogs

Κρίκος, Βλάσης 16 May 2007 (has links)
Οι εξατομικευμένοι κατάλογοι διαδικτύου εμφανίστηκαν σχεδόν ταυτόχρονα με την εμφάνιση των φυλλομετρητών διαδικτύων, και από τότε όλοι οι φυλλομετρητές ενσωματώνουν απλά συστήματα διαχείρισης των εξατομικευμένων καταλόγων. Με τον όρο εξατομικευμένοι κατάλογοι εννοούμε τις προσωπικές συλλογές από ιστοσελίδες που ένας χρήστης διαδικτύου αποθηκεύει κατά την ώρα της πλοήγησης στον Παγκόσμιο Ιστό. Οι εξατομικευμένοι κατάλογοι διαδικτύου χρησιμοποιούνται σαν «προσωπικός χώρος πληροφορίας του δικτύου» για να βοηθούν τους ανθρώπους να θυμούνται και να ανακτούν ενδιαφέρουσες ιστοσελίδες από το διαδίκτυο. Στην εργασία αυτή παρουσιάζουμε ένα πρότυπο σύστημα διαχείρισης εξατομικευμένων καταλόγων διαδικτύου ορίζοντας τις προϋποθέσεις που πρέπει να πληρεί ώστε να είναι εύχρηστο και αποτελεσματικό. Το σύστημα αυτό έχει όλες τις δυνατότητες που έχουν τα εμπορικά αλλά και τα πρότυπα συστήματα διαχείρισης bookmarks. Επιπλέον διαθέτει καινοτόμες λειτουργίες που το καθιστούν μοναδικό. Παράλληλα παρουσιάζουμε αναλυτικά έναν πρότυπο αλγόριθμο κατάταξης, τον αλγόριθμο κατάταξης με βάση την συνάφεια των σελίδων με τις κατηγορίες στις οποίες ανήκουν. Τον αλγόριθμο αυτόν τον συγκρίνουμε με τον δημοφιλή αλγόριθμος γενικής κατάταξης το PageRank. Από το πείραμα που κάναμε προκύπτει ότι ο αλγόριθμος που προτείνουμε είναι πιο κατάλληλος για την ταξινόμηση των σελίδων σε θεματικές κατηγορίες από το PageRank. / The individualised lists of internet were presented almost simultaneously with the appearance of browser internets, and from then all browser incorporate simple systems of management of individualised lists. With the term individualised lists we mean the personal collections from web pages that a user of internet stores at the hour of pilotage in the World Web. The individualised lists of internet are used as \"personal space of information of network\" in order to they help the persons to remember and to recover interesting web pages from the internet. In this work we present a model system of management of individualised lists of internet horizon the conditions that should plirej
16

Αποδοτικοί αλγόριθμοι εξατομίκευσης βασισμένοι σε εξόρυξη γνώσης απο δεδομένα χρήσης Web / Effective personalization algorithms based on Web usage mining

Ρήγκου, Μαρία 25 June 2007 (has links)
Το Web αποτελεί πλέον µια τεράστια αποθήκη πληροφοριών και συνεχίζει να µεγαλώνει εκθετικά, ενώ η ανθρώπινη ικανότητα να εντοπίζει, να επεξεργάζεται και να αντιλαµβάνεται τις πληροφορίες παραµένει πεπερασµένη. Το πρόβληµα στις µέρες µας δεν είναι η πρόσβαση στην πληροφορία, αλλά το ότι όλο και περισσότεροι άνθρωποι µε διαφορετικές ανάγκες και προτιµήσεις πλοηγούνται µέσα σε περίπλοκες δοµές Web χάνοντας στην πορεία το στόχο της αναζήτησής τους. Η εξατοµίκευση, µια πολυσυλλεκτική ερευνητική περιοχή, αποτελεί µια από τις πιο πολλά υποσχόµενες προσεγγίσεις για τη λύση του προβλήµατος του πληροφοριακού υπερφόρτου, παρέχοντας κατάλληλα προσαρµοσµένες εµπειρίες πλοήγησης. Η διατριβή εξετάζει αλγοριθµικά θέµατα που σχετίζονται µε την υλοποίηση αποδοτικών σχηµάτων εξατοµίκευσης σε περιβάλλον web, βασισµένων σε εξόρυξη γνώσης από δεδοµένα χρήσης web. Οι τεχνικές ανακάλυψης προτύπων που µελετώνται περιλαµβάνουν το clustering, την εξόρυξη κανόνων συσχέτισης και την ανακάλυψη σειριακών προτύπων, ενώ οι προτεινόµενες λύσεις εξατοµίκευσης που βασίζονται στις δύο τελευταίες τεχνικές συνδυάζουν τα δεδοµένα χρήσης µε δεδοµένα περιεχοµένου και δοµής. Ειδικότερα, στο πρώτο κεφάλαιο της διατριβής, ορίζεται το επιστηµονικό πεδίο των σύγχρονων τεχνολογιών εξατοµίκευσης στο περιβάλλον του web, εστιάζοντας στη στενή σχέση τους µε το χώρο του web mining, στοιχειοθετώντας µε αυτό τον τρόπο το γενικότερο πλαίσιο αναφοράς. Στη συνέχεια, περιγράφονται τα διαδοχικά στάδια της τυπικής διαδικασίας εξατοµίκευσης µε έµφαση στη φάση ανακάλυψης προτύπων και τις τεχνικές machine learning που χρησιµοποιούνται σε δεδοµένα χρήσης web και το κεφάλαιο ολοκληρώνεται µε µια συνοπτική περιγραφή της συµβολής της διατριβής στο πεδίο της εξατοµίκευσης σε περιβάλλον web. Στο δεύτερο κεφάλαιο προτείνεται ένας αλγόριθµος για εξατοµικευµένο clustering, που βασίζεται σε µια δοµή range tree που διατρέχεται σε πρώτη φάση για τον εντοπισµό των web αντικειµένων που ικανοποιούν τα ατοµικά κριτήρια του χρήστη. Στα αντικείµενα αυτά, εφαρµόζεται στη συνέχεια clustering, ώστε να είναι δυνατή η αποδοτικότερη διαχείρισή τους και να διευκολυνθεί η διαδικασία λήψης αποφάσεων από πλευράς χρήστη. O αλγόριθµος που προτείνεται αποτελεί βελτίωση του αλγόριθµου kmeans range, καθώς εκµεταλλεύεται το range tree που έχει ήδη κατασκευαστεί κατά το βήµα της εξατοµίκευσης και το χρησιµοποιεί ως τη βασική δοµή πάνω στην οποία στηρίζεται το βήµα του clustering χρησιµοποιώντας εναλλακτικά του k-means, τον αλγόριθµο k-windows. Ο συνολικός αριθµός παραµέτρων που χρησιµοποιούνται για την µοντελοποίηση των αντικειµένων υπαγορεύει και τον αριθµό των διαστάσεων του χώρου εργασίας. Η συνολική πολυπλοκότητα χρόνου του αλγορίθµου είναι ίση µε O(logd-2n+v), όπου n είναι ο συνολικός αριθµός των στοιχείων που δίνονται σαν είσοδος και v είναι το µέγεθος της απάντησης. Στο τρίτο κεφάλαιο της διατριβής προτείνεται ένα αποδοτικό σχήµα πρόβλεψης µελλοντικών δικτυακών αιτήσεων βασισµένο στην εξόρυξη σειριακών προτύπων πλοήγησης (navigation patterns) από αρχεία server log, σε συνδυασµό µε την τοπολογία των συνδέσµων του website και τη θεµατική κατηγοριοποίηση των σελίδων του. Τα µονοπάτια που ακολουθούν οι χρήστες κατά την πλοήγηση καταγράφονται, συµπληρώνονται µε τα κοµµάτια που λείπουν λόγω caching και διασπώνται σε συνόδους και σε επεισόδια, ώστε να προκύψουν σηµασιολογικά πλήρη υποσύνολά τους. Τα πρότυπα που εντοπίζονται στα επεισόδια µοντελοποιούνται µε τη µορφή n-grams και οι αποφάσεις πρόβλεψης βασίζονται στη λογική ενός µοντέλου n-gram+ που προσοµοιάζει το all Kth-τάξης µοντέλο Markov και πιο συγκεκριµένα, το επιλεκτικό µοντέλο Markov. Η υβριδική προσέγγιση που υιοθετεί το προτεινόµενο σχήµα, επιτυγχάνει 100% coverage, ενώ κατά τις πειραµατικές µετρήσεις το άνω όριο της ακρίβειας έφθασε το 71,67% στο σύνολο των προβλέψεων που επιχειρήθηκαν. Το χαρακτηριστικό του πλήρους coverage καθιστά το σχήµα κατάλληλο για συστήµατα παραγωγής συστάσεων, ενώ η ακρίβεια µπορεί να βελτιωθεί περαιτέρω αν µεγαλώσει το παράθυρο πρόβλεψης. Στο τέταρτο κεφάλαιο της διατριβής, εξετάζεται η ενσωµάτωση λειτουργιών εξατοµίκευσης στις ηλεκτρονικές µαθησιακές κοινότητες και προτείνεται ένα σύνολο από δυνατότητες εξατοµίκευσης που διαφοροποιούνται ως προς τα δεδοµένα στα οποία βασίζονται, την τεχνική εξόρυξης προτύπων που χρησιµοποιούν και την αντίστοιχη πολυπλοκότητα υλοποίησης. Οι υπηρεσίες αυτές περιλαµβάνουν: (α) εξατοµίκευση µε βάση το ρόλο του χρήστη, (β) εξατοµίκευση µε βάση το βαθµό δραστηριοποίησης του χρήστη, (γ) εξατοµίκευση µε βάση την ανακάλυψη προτύπων στα ατοµικά ιστορικά µελέτης των εκπαιδευόµενων και (δ) εξατοµίκευση µε βάση συσχετίσεις του περιεχοµένου των µαθηµάτων. / The Web has become a huge repository of information and keeps growing exponentially under no editorial control, while the human capability to find, read and understand content remains constant. Providing people with access to information is not the problem; the problem is that people with varying needs and preferences navigate through large Web structures, missing the goal of their inquiry. Web personalization is one of the most promising approaches for alleviating this information overload, providing tailored Web experiences. The present dissertation investigates algorithmic issues concerning the implementation of effective personalization scenarios in the web environment, based on web usage mining. The pattern discovery techniques deployed comprise clustering, association rule mining and sequential pattern discovery, while the proposed personalization schemas based on the latter two techniques integrate usage data with content and structure information. The first chapter introduces the scientific field of current web personalization technology, focusing on its close relation with the web mining domain, providing this way the general framework of the dissertation. Next, the typical web personalization process is described with emphasis on the pattern discovery phase along with an overview of the machine learning techniques applied on web usage data. The chapter concludes with a synoptic description of the contribution of the dissertation to web personalization research and applications domian. The second chapter introduces an algorithm for personalized clustering based on a range tree structure, used for identifying all web objects satisfying a set of predefined personal user preferences. The returned objects go through a clustering phase before reaching the end user, thus allowing more effective manipulation and supporting the decision making process. The proposed algorithm improves the k-means range algorithm, as it uses the already constructed range tree (i.e. during the personalized filtering phase) as the basic structure on which the clustering step is based, applying instead of the kmeans, the k-windows algorithm. The total number of parameters used for modeling the web objects dictates the number of dimensions of the Euclidean space representation. The time complexity of the algorithm is O(logd-2n+v), where d is the number of dimensions, n is the total number of web objects and v is the size of the answer. The third chapter proposes an effective prediction schema for web requests based on extracting sequential navigational patterns from server log files, combined with the website link structure and the thematic categorization of its content pages. The schema records the paths followed by users when browsing through the website pages, completes them with the missing parts (due to caching) and identifies sessions and episodes, so as to derive meaningful path subsets. The patterns extracted from the episodes are modeled in the form of n-grams and the prediction decisions are based on an n-gram+ model that resembles an all Kth-order Markov model and more specifically a selective Markov model. The hybrid approach adapted achieves full-coverage prediction, and reached the upper limit of 71,67% presicion when tested at an experimental setting. The full-coverage feature makes the proposed schema quite suitable for recommendation engines, while precision is further improved when using a larger prediction window. The fourth chapter examines the integration of personalized functionalities in the framework of electronic learning communities and studies the advantages derived from generating dynamic adaptations on the layout, the content as well as the learning scenarios delivered to each community student based on personal data, needs and preferences. More specifically, the chapter proposes a set of personalization functions differentiated by the data they use, the pattern discovery technique they apply and the resulting implementation complexity. These services comprise: (a) personalization based on the user role in the community, (b) personalization based on the level of user activity, (c) personalization based on discovery of association rules in the personal progress files of students, and (d) personalization based on predefined content correlations among learning topics.
17

Ανάπτυξη χρονοπρογραμματιστή ROLM για ενσωματωμένους μεταγωγείς ΑΤΜ

Στούμπου, Κωνσταντίνα 07 September 2009 (has links)
Στη μεταπτυχιακή αυτή εργασίας γίνεται μελέτη και υλοποίηση ενός αλγορίθμου χρονοπρογραμματισμού για μεταγωγέα ΑΤΜ της κατηγορίας αλγορίθμων ranking, ο οποίος χρησιμοποιεί μνήμη οργανωμένη σε πολλαπλές ουρές εισόδου για την αποθήκευση των πακέτων πριν την δρομολόγησή τους. O αλγόριθμος ROLM (Randomized On – Line Matching) επιτυγχάνει μέγιστο ταίριασμα εισόδων – εξόδων λόγω του permutation των εισόδων που γίνεται πριν την είσοδο των αιτήσεων. Επίσης, στοχεύει στη μείωση του latency που αφορά τη hardware υλοποίηση (χάρις στον υπολογισμό του τυχαίου permutation) και σε υψηλά ποσοστά δικαιοσύνης και throughput. Η υλοποίησηση του αλγορίθμου ROLM εκτελείται με δύο τρόπους: α) σε υλικό (FPGA) και β) σε λογισμικό (κώδικας C για AVR). Η πλατφόρμα FPSLIC μας επιτρέπει να αξιολογήσουμε και να συγκρίνουμε τις hardware και software υλοποιήσεις του αλγορίθμου κατά έναν ρεαλιστικό τρόπο, καθώς τόσο ο μικροελεγκτής ΑVR, όσο και η προγραμματιζόμενη λογική FPGA είναι κατασκευασμένα με την ίδια ακριβώς τεχνολογία, ενσωματωμένα σε μια μονολιθική συσκευή. Εξάγονται τα αποτελέσματα μετρήσεων της ταχύτητας και επιφάνειας του χρονοπρογραμματιστή και γίνεται σύγκριση για διαφορετικά μεγέθη μεταγωγέα στην απόδοση μεταξύ των δύο υλοποιήσεων του αλγορίθμου μεταξύ τους. Γίνεται επίσης σύγκριση μεταξύ αποτελεσμάτων του αλγόριθμου ROLM και του αλγορίθμου FIRM, που έχουν ληφθεί από παρεμφερή εργασία. / In this study the design and implementation of a scheduler ranking algorithm for ATM switches is presented. The algorithm employs a multiple-queue input memory for storing packets prior to sending them out. It is the ROLM (Randomized On-Line Matching) algorithm, which performs a high level of input-output matching due to pre-request input permutation. It also reduces hardware-related latency (due to the calculation of random permutation), and achieves fairness and high throughput. The ROLM algorithm was implemented in two ways: one implementation for hardware (FPGA) and one for software (using code C for AVR). The FPSLIC platform allowed for a reliable assessment of the algorithm's hardware and software implementation since the AVR microcontroller and the FGPA programming logic are technologically compatible and integrated on a single device. Measurement results are presented on the controller's surface and speed for different switch sizes as well as a performance comparison is conducted on published results between ROLM and FIRM algorithms.
18

Συμμετρικοί αλγόριθμοι κρυπτογράφησης δεδομένων : η περίπτωση του αλγορίθμου AES

Λυκούδης, Κωνσταντίνος 28 February 2013 (has links)
Στη σύγχρονη ζωή του ανθρώπου η ανταλλαγή και η διακίνηση της πληροφορίας αποτελεί πλέον αναπόσπαστο κομμάτι. Η τεράστια ανάπτυξη των δικτύων υπολογιστών και η επικοινωνία πληροφοριών κάθε μορφής έφερε ένα τεράστιο πρόβλημα στην επιφάνεια, την ανάγκη για προστασία αυτής της πληροφορίας. Το πρόβλημα αυτό καλείται να το αντιμετωπίσει η επιστήμη της Κρυπτογραφίας όπου μέσα από διάφορους μετασχηματισμούς προσπαθεί θα μετατρέψει τα δεδομένα σε μια ακατανόητη μορφή η οποία θα είναι δυνατόν να αντιστραφεί μόνο από τον νόμιμο παραλήπτη. Για το λόγο αυτό έχουν αναπτυχθεί πληθώρα αλγορίθμων κρυπτογράφησης όπου παρόλο που η δουλειά τους είναι η ίδια, χειρίζονται και μετασχηματίζουν τα δεδομένα με διαφορετικό τρόπο. Στην παρούσα εργασία γίνεται παρουσίαση του αλγορίθμου AES (Advanced Encryption Standard) που αποτελεί το τρέχον πρότυπο από το NIST (National Institute of Standards and Technology). Ο AES ο οποίος είναι και γνωστός ως Rijndael, είναι ένας συμμετρικός αλγόριθμος τμήματος και βασίζεται στα δίκτυα μετάθεσης – αντικατάστασης, ενώ είναι υλοποιήσιμος και γρήγορος τόσο σε λογισμικό όσο και σε υλικό. Αντίθετα με τον προκάτοχο του DES, δεν χρησιμοποιεί το δίκτυο Feistel. Εφαρμόζεται σε έναν πίνακα Bytes 4x4 (128 bits), που ορίζεται ως κατάσταση (state), με τους περισσότερους μετασχηματισμούς να πραγματοποιούνται σε ένα πεπερασμένο πεδίο. Ο αλγόριθμος AES, δίνει τη δυνατότητα κρυπτογράφησης με τρία κλειδιά διαφορετικού μήκους, 128 bits κλειδί με 10 κύκλους επανάληψης, 192 bits κλειδί με 12 κύκλους επανάληψης και 256 bits κλειδί με 14 κύκλους επανάληψης παρουσιάζοντας κάθε φορά μεγάλη ανθεκτικότητα σε κρυπταναλυτικές επιθέσεις.Στα πλαίσια της εργασίας έγινε λεπτομερής ανάλυση των μετασχηματισμών που χρησιμοποιεί ο AES στην κρυπτογράφηση και αποκρυπτογράφηση σύμφωνα με το πρότυπο Fips-197 αρχικά σε θεωρητικό επίπεδο και έπειτα πραγματοποιήθηκαν υλοποιήσεις σε λογισμικό και σε υλικό. Συγκεκριμένα, στο 1ο κεφάλαιο της εργασίας γίνεται μια εισαγωγή στην Κρυπτογραφία, παρουσιάζοντας τις βασικές της έννοιες και την ιστορική της εξέλιξη από τα πρώτα χρόνια εμφάνισης της ως σήμερα. Στο κεφάλαιο 2, αρχικά παρουσιάζονται τα υπάρχοντα κρυπτοσυστήματα, αναδεικνύοντας κάθε φορά τον τρόπο με τον οποίο λειτουργούν, τους αλγόριθμους που υπάγονται σε αυτά και τις εφαρμογές που έχουν. Στη συνέχεια γίνεται σύγκριση μεταξύ των αλγορίθμων ενός συστήματος αλλά και μεταξύ των κρυπτοσυστημάτων. Το κεφάλαιο 3 αποτελεί το κυρίως σώμα της εργασίας καθώς σε αυτό παρουσιάζεται και επεξηγείται ο αλγόριθμος AES. Δίνεται το απαραίτητο μαθηματικό υπόβαθρο και αναλύονται οι μετασχηματισμοί του αλγορίθμου. Παρουσιάζεται ο τρόπος που επεκτείνονται τα κλειδιά του αλγορίθμου καθώς και οι διαδικασίες κρυπτογράφησης και αποκρυπτογράφησης. Τέλος γίνεται αναφορά σε ζητήματα ασφάλειας και στην αντοχή του AES σε κρυπταναλυτικές επιθέσεις, καθώς και στις εφαρμογές που χρησιμοποιείται. Στο 4ο κεφάλαιο παρουσιάζονται και συγκρίνονται οι μέθοδοι υλοποίησης του αλγορίθμου. Περιγράφεται μια υλοποίηση σε λογισμικό με τη χρήση της γλώσσας προγραμματισμού C++, η οποία επεκτείνεται και σε μια διαδικτυακή υλοποίηση και μια υλοποίηση σε υλικό με τη χρήση της περιγραφικής γλώσσας VHDL και το σχεδιαστικό εργαλείο Quartus II. Τέλος στο 5ο κεφάλαιο εξάγονται συμπεράσματα και γίνονται προτάσεις για μελλοντική εργασία. / In modern life the exchange and transfer of information has become an integral part. The enormous development of computer networks and the information communication of every form, has brought a new massive problem on the surface, the need to protect this information.The science of Cryptography is challenged to face this problem, so through various transformations is trying to convert tha data in a incomprehensive form, which will be possible to be inverted only from the legal receiver. For this reason a variety of algorithms have been developed and although their work is the same, they handle and convert data in different ways. In the present thesis the AES (Advanced Encryption Standard) algorithm is presented, which is the current standard of NIST (National Institute of Standards and Technology). AES, which is also known as Rijndael, is a symmetric block cipher and is based on substitution - permutation networks, while it can be efficiently implemented both in software and hardware. Unlike it's predecessor DES, it does not use Feistel network. It is applied in 4x4 Bytes matrix (128 bits), which is defined as state, with the most transformations to be performed in a finite field. AES algorithm provides encryption capability with three keys of different size: key of 128 bits with 10 rounds, key of 192 bits with 12 rounds and key of 256 bits with 14 rounds. This thesis includes detailed analysis of transformations that AES uses in ecryption and decryption according to the Fips-197 standard, along with software and hardware implementations. Specifically, in the first chapter an introduction to Cryptography is made, presenting basic concepts and a historical overview. In chapter 2, contemporary cryptosystems are introduced. In chapter 3 the AES algorithm is presented and explained. The necessary mathematical background is provided and the transformations of the algorithm are analysed. The way the algorithm keys are expanded is presented, as well as the encryption and decryption processes. In chapter 4 the implementations of AES are presented and compared. An implementation in software is described using the programming language C++, and an implementation in hardware is given using the VHDL language and the design tool Altera Quartus II. Finally in chapter 5 the conclusions are given and proposals are made for future work.
19

Μηχανική μάθηση σε ανομοιογενή δεδομένα / Machine learning in imbalanced data sets

Λυπιτάκη, Αναστασία Δήμητρα Δανάη 07 July 2015 (has links)
Οι αλγόριθμοι μηχανικής μάθησης είναι επιθυμητό να είναι σε θέση να γενικεύσουν για οποιασδήποτε κλάση με ίδια ακρίβεια. Δηλαδή σε ένα πρόβλημα δύο κλάσεων - θετικών και αρνητικών περιπτώσεων - ο αλγόριθμος να προβλέπει με την ίδια ακρίβεια και τα θετικά και τα αρνητικά παραδείγματα. Αυτό είναι φυσικά η ιδανική κατάσταση. Σε πολλές εφαρμογές οι αλγόριθμοι καλούνται να μάθουν από ένα σύνολο στοιχείων, το οποίο περιέχει πολύ περισσότερα παραδείγματα από τη μια κλάση σε σχέση με την άλλη. Εν γένει, οι επαγωγικοί αλγόριθμοι είναι σχεδιασμένοι να ελαχιστοποιούν τα σφάλματα. Ως συνέπεια οι κλάσεις που περιέχουν λίγες περιπτώσεις μπορούν να αγνοηθούν κατά ένα μεγάλο μέρος επειδή το κόστος λανθασμένης ταξινόμησης της υπερ-αντιπροσωπευόμενης κλάσης ξεπερνά το κόστος λανθασμένης ταξινόμησης της μικρότερη κλάση. Το πρόβλημα των ανομοιογενών συνόλων δεδομένων εμφανίζεται και σε πολλές πραγματικές εφαρμογές όπως στην ιατρική διάγνωση, στη ρομποτική, στις διαδικασίες βιομηχανικής παραγωγής, στην ανίχνευση λαθών δικτύων επικοινωνίας, στην αυτοματοποιημένη δοκιμή του ηλεκτρονικού εξοπλισμού, και σε πολλές άλλες περιοχές. Η παρούσα διπλωματική εργασία με τίτλο ‘Μηχανική Μάθηση με Ανομοιογενή Δεδομένα’ (Machine Learning with Imbalanced Data) αναφέρεται στην επίλυση του προβλήματος αποδοτικής χρήσης αλγορίθμων μηχανικής μάθησης σε ανομοιογενή/ανισοκατανεμημένα δεδομένα. Η διπλωματική περιλαμβάνει μία γενική περιγραφή των βασικών αλγορίθμων μηχανικής μάθησης και των μεθόδων αντιμετώπισης του προβλήματος ανομοιογενών δεδομένων. Παρουσιάζεται πλήθος αλγοριθμικών τεχνικών διαχείρισης ανομοιογενών δεδομένων, όπως οι αλγόριθμοι AdaCost, Cost Senistive Boosting, Metacost και άλλοι. Παρατίθενται οι μετρικές αξιολόγησης των μεθόδων Μηχανικής Μάθησης σε ανομοιογενή δεδομένα, όπως οι καμπύλες διαχείρισης λειτουργικών χαρακτηριστικών (ROC curves), καμπύλες ακρίβειας (PR curves) και καμπύλες κόστους. Στο τελευταίο μέρος της εργασίας προτείνεται ένας υβριδικός αλγόριθμος που συνδυάζει τις τεχνικές OverBagging και Rotation Forest. Συγκρίνεται ο προτεινόμενος αλγόριθμος σε ένα σύνολο ανομοιογενών δεδομένων με άλλους αλγόριθμους και παρουσιάζονται τα αντίστοιχα πειραματικά αποτελέσματα που δείχνουν την καλύτερη απόδοση του προτεινόμενου αλγόριθμου. Τελικά διατυπώνονται τα συμπεράσματα της εργασίας και δίνονται χρήσιμες ερευνητικές κατευθύνσεις. / Machine Learning (ML) algorithms can generalize for every class with the same accuracy. In a problem of two classes, positive (true) and negative (false) cases-the algorithm can predict with the same accuracy the positive and negative examples that is the ideal case. In many applications ML algorithms are used in order to learn from data sets that include more examples from the one class in relationship with another class. In general inductive algorithms are designed in such a way that they can minimize the occurred errors. As a conclusion the classes that contain some cases can be ignored in a large percentage since the cost of the false classification of the super-represented class is greater than the cost of false classification of lower class. The problem of imbalanced data sets is occurred in many ‘real’ applications, such as medical diagnosis, robotics, industrial development processes, communication networks error detection, automated testing of electronic equipment and in other related areas. This dissertation entitled ‘Machine Learning with Imbalanced Data’ is referred to the solution of the problem of efficient use of ML algorithms with imbalanced data sets. The thesis includes a general description of basic ML algorithms and related methods for solving imbalanced data sets. A number of algorithmic techniques for handling imbalanced data sets is presented, such as Adacost, Cost Sensitive Boosting, Metacost and other algorithms. The evaluation metrics of ML methods for imbalanced datasets are presented, including the ROC (Receiver Operating Characteristic) curves, the PR (Precision and Recall) curves and cost curves. A new hybrid ML algorithm combining the OverBagging and Rotation Forest algorithms is introduced and the proposed algorithmic procedure is compared with other related algorithms by using the WEKA operational environment. Experimental results demonstrate the performance superiority of the proposed algorithm. Finally, the conclusions of this research work are presented and several future research directions are given.
20

Προσαρμοστικές τεχνικές για δέκτες τύπου V-BLAST σε συστήματα MIMO

Βλάχος, Ευάγγελος 03 August 2009 (has links)
Τα ασύρματα συστήματα πολλαπλών κεραιών MIMO αποτελούν ένα από τα βασικά μέτωπα ανάπτυξης των τηλεπικοινωνιών. Ωστόσο η εξαιρετικά τυχαία φύση τους καθώς και η αλληλεπίδραση μεταξύ των πολλαπλών ροών δεδομένων επιβάλει την χρήση σύγχρονων τεχνικών ισοστάθμισης. Η προσαρμοστική ισοστάθμιση στο δέκτη ενός τηλεπικοινωνιακού συστήματος χρησιμοποιείται για την αντιμετώπιση της δυναμικής φύσης του ασύρματου καναλιού και την ανίχνευση των αλλαγών στα χαρακτηριστικά του. Επίσης, μη γραμμικές τεχνικές ισοστάθμισης ανατροφοδότησης συμβόλων είναι απαραίτητες για την απομάκρυνση της διασυμβολικής παρεμβολής που παρουσιάζεται στα συγκεκριμένα συστήματα. Η παρούσα εργασία ασχολείται με μεθόδους προσαρμοστικής ισοστάθμισης στο δέκτη ενός τηλεπικοινωνιακού συστήματος. Διακρίνουμε τις εξής περιπτώσεις προσαρμοστικών αλγορίθμων για την ελαχιστοποίηση του σφάλματος, του αλγορίθμου Αναδρομικών Ελαχίστων Τετραγώνων (RLS), του επαναληπτικού αλγορίθμου Συζυγών Κλίσεων (CG) και του επαναληπτικού αλγορίθμου τροποποιημένων Συζυγών Κλίσεων (MCG). Όπως διαπιστώνουμε, όταν οι παραπάνω αλγόριθμοι χρησιμοποιηθούν με γραμμικές τεχνικές ισοστάθμισης έχουμε πολύ αργή σύγκλιση και γενικά υψηλό όριο σφάλματος. Συμπεραίνουμε λοιπόν ότι, προκειμένου να έχουμε γρήγορη σύγκλιση των προσαρμοστικών αλγορίθμων και αντιμετώπιση της διασυμβολικής παρεμβολής για τα συστήματα MIMO, είναι απαραίτητη η χρήση μη γραμμικών τεχνικών ισοστάθμισης. Αρχικά χρησιμοποιούμε την μέθοδο της γενικευμένης ανατροφοδότησης συμβόλων GDFE ενώ στη συνέχεια μελετάμε μία σύγχρονη τεχνική ανατροφοδότησης συμβόλων που χρησιμοποιεί ένα κριτήριο διάταξης για την ακύρωση των συμβόλων (OSIC ή V-BLAST). Όπως διαπιστώνεται και από τις εξομοιώσεις η συγκεκριμένη τεχνική επιτυγχάνει το χαμηλότερο όριο σφάλματος, αλλά με αυξημένο υπολογιστικό κόστος. Επίσης, διαπιστώνουμε ότι η εφαρμογή της τεχνικής αυτής με χρήση του τροποποιημένου αλγορίθμου Συζυγών Κλίσεων δεν είναι εφικτή. Στα πλαίσια αυτής της εργασίας, περιγράφουμε μια συγκεκριμένη υλοποίηση της τεχνικής διατεταγμένης ακύρωσης που κάνει χρήση του αλγορίθμου Αναδρομικών Ελαχίστων Τετραγώνων με μειωμένη πολυπλοκότητα. Στη συνέχεια γενικεύουμε την εφαρμογή της για την περίπτωση των αλγορίθμων Συζυγών Κλίσεων, και διαπιστώνουμε ότι ο τροποποιημένος αλγόριθμος Συζυγών Κλίσεων δεν μπορεί να χρησιμοποιηθεί ούτε σε αυτήν την περίπτωση. Για την υλοποίηση ενός συστήματος OSIC με χρήση του αλγορίθμου Συζυγών Κλίσεων είναι απαραίτητη η χρήση ενός αλγορίθμου που δεν έχει χρονική εξάρτηση σύγκλισης, όπως είναι ο βασικός αλγόριθμος Συζυγών Κλίσεων. / Wireless systems with multiple antenna configurations has recently emerged as one of the most significant technical breaktroughs in modern communications. However, because of the extremly random nature of the wireless channels, we have to use modern equalization methods in order to defeat the signal degradation. Adaptive equalization at the receiver of the telecommunication system can be used to compete this dynamic nature of the wireless channel and track the changes of its characteristics. Furthermore, nonlinear decision feedback methods are nessesary for the cancellation of the intersymbol interference which occurs with these systems. This work involves with adaptive equalization methods at the receiver of the telecommunication system. We use the following adaptive algorithms so as to minimize the error : the Recursive Least Squares algorithm (RLS), the iterative Conjugate Gradient algorithm (CG) and the iterative Modified Conjugate Gradient algorithm (MCG). When these algorithms are used with linear methods, they give very slow converge and high final error. So, it is neccessary to use nonlinear equalization methods in order to succeed fast converge rate and deal with the increazed intersymbol interference for MIMO systems. Firstly we use the generalized decision feedback method (GDFE), and then the modern method of ordered successive cancellation method (OSIC or V-BLAST). Based on the emulations we conclude that the last method succeed the lower error, but with high computational cost. Furthermore, we can't use OSIC method with Modified Conjugate Gradient algorithm. In this work, we describe a specific implementation of the OSIC method which uses RLS algorithm with low computational complexity. So we generalize its usage with the Conjugate Gradient algorithms. Finaly, we conclude that we can't also use MCG with OSIC method with low computational complexity. In order to construct an OSIC system based on Conjugate Gradient algorithm, the algorithm must not operate on time basis, like basic Conjugate Gradient algorithm does.

Page generated in 0.0415 seconds