• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 1
  • 1
  • Tagged with
  • 30
  • 9
  • 7
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Μεθοδολογία αυτόματου σημασιολογικού σχολιασμού στο περιεχόμενο ιστοσελίδων

Σπύρος, Γεώργιος 14 December 2009 (has links)
Στις μέρες μας η χρήση του παγκόσμιου ιστού έχει εξελιχθεί σε ένα κοινωνικό φαινόμενο. Η εξάπλωσή του είναι συνεχής και εκθετικά αυξανόμενη. Στα χρόνια που έχουν μεσολαβήσει από την εμφάνισή του, οι χρήστες έχουν αποκτήσει ένα βαθμό εμπειρίας και έχει γίνει από πλευράς τους ένα σύνολο αποδοχών βασισμένων σε αυτή ακριβώς την εμπειρία από τη χρήση του παγκόσμιου ιστού. Πιο συγκεκριμένα έχει γίνει αντιληπτό από τους χρήστες το γεγονός ότι οι ιστοσελίδες με τις οποίες αλληλεπιδρούν καθημερινά σχεδόν είναι δημιουργήματα κάποιων άλλων χρηστών. Επίσης έχει γίνει αντιληπτό ότι ο κάθε χρήστης μπορεί να δημιουργήσει τη δική του ιστοσελίδα και μάλιστα να περιλάβει σε αυτή αναφορές προς μια άλλη ιστοσελίδα κάποιου άλλου χρήστη. Οι αναφορές αυτές όμως, συνήθως δεν εμφανίζονται απλά και μόνο με τη μορφή ενός υπερσυνδέσμου. Τις περισσότερες φορές υπάρχει και κείμενο που τις συνοδεύει και που παρέχει πληροφορίες για το περιεχόμενο της αναφερόμενης ιστοσελίδας. Σε αυτή τη διπλωματική εργασία περιγράφουμε μια μεθοδολογία για τον αυτόματο σημασιολογικό σχολιασμό του περιεχομένου ιστοσελίδων. Τα εργαλεία και οι τεχνικές που περιγράφονται βασίζονται σε δύο κύριες υποθέσεις. Πρώτον, οι άνθρωποι που δημιουργούν και διατηρούν ιστοσελίδες περιγράφουν άλλες ιστοσελίδες μέσα σε αυτές. Δεύτερον, οι άνθρωποι συνδέουν τις ιστοσελίδες τους με την εκάστοτε ιστοσελίδα την οποία περιγράφουν μέσω ενός συνδέσμου αγκύρωσης (anchor link) που είναι καθαρά σημαδεμένος με μία συγκεκριμένη ετικέτα (tag) μέσα στον εκάστοτε HTML κώδικα. Ο αυτόματος σημασιολογικός σχολιασμός που επιχειρούμε για μια ιστοσελίδα ισοδυναμεί με την εύρεση μιας ετικέτας (tag) ικανής να περιγράψει το περιεχόμενο της. Η εύρεση αυτής της ετικέτας είναι μια διαδικασία που βασίζεται σε μία συγκεκριμένη μεθοδολογία που αποτελείται από ένα συγκεκριμένο αριθμό βημάτων. Κάθε βήμα από αυτά υλοποιείται με τη χρήση διαφόρων εργαλείων και τεχνικών και τροφοδοτεί με την έξοδό του την είσοδο του επόμενου βήματος. Βασική ιδέα της μεθοδολογίας είναι η συλλογή αρκετών κειμένων αγκύρωσης (anchor texts), καθώς και ενός μέρους του γειτονικού τους κειμένου, για μία ιστοσελίδα. Η συλλογή αυτή προκύπτει ύστερα από επεξεργασία αρκετών ιστοσελίδων που περιέχουν υπερσυνδέσμους προς τη συγκεκριμένη ιστοσελίδα. Η σημασιολογική ετικέτα για μια ιστοσελίδα προκύπτει από την εφαρμογή διαφόρων τεχνικών γλωσσολογικής επεξεργασίας στη συλλογή των κειμένων που την αφορούν. Έτσι προκύπτει το τελικό συμπέρασμα για το σημασιολογικό σχολιασμό του περιεχομένου της ιστοσελίδας. / Nowadays the World Wide Web usage has evolved into a social phenomenon. It’s spread is constant and it’s increasing exponentially. During the years that have passed since it’s first appearance, the users have gained a certain level of experience and they have made some acceptances through this experience. They have understood that the web pages with which they interact in their everyday web activities, are creations from some other users. It has also become clear that every user can create his own web page and include in it references to some other pages of his liking. These references don’t simply exist as hyperlinks. Most of the time they are accompanied by some text which provides useful information about the referenced page’s content. In this diploma thesis we describe a methodology for the automatic annotation of a web page’s contents. The tools and techniques that are described, are based in two main hypotheses. First, humans that create web pages describe other web pages inside them. Second, humans connect their web pages with any web page they describe via an anchor link which is clearly described with a tag in each page’s HTML code. The automatic semantic annotation that we attempt here for a web page is the process of finding a tag able to describe the page’s contents. The finding of this tag is a process based in a certain methodology which consists of a number of steps. Each step of these is implemented using various tools and techniques and his output is the next step’s input. The basic idea behind our methodology is to collect as many anchor texts as possible, along with a window of words around them, for each web page. This collection is the result of a procedure which involves the processing of many web pages that contain hyperlinks to the web page which we want to annotate. The semantic tag for a web page is derived from the usage of certain natural language processing techniques in the collection of documents that refer to the web page. Thus the final conclusion for the web page’s contents annotation is extracted.
22

Μελέτη και ανάπτυξη διαδικτυακού συστήματος αξιολόγησης ιστοσελίδων : εφαρμογή τεχνικών πολυδιάστατης σταδιακής ανάλυσης μέσω ιστοσελίδων πλούσιας διαδραστικότητας

Σπηλιόπουλος, Αλέξανδρος 07 July 2010 (has links)
Στόχος της παρούσης διπλωματικής εργασίας είναι η διερεύνηση καταλληλότητας της μεθόδου πολυδιάστατης σταδιακής ανάλυσης για την αξιολόγηση σχεδιασμού ιστοσελίδων. Για την επίτευξη του στόχου, αναπτύχθηκε διαδικτυακή εφαρμογή αξιολόγησης με χρήση μεθόδων πολυδιάστατης σταδιακής ανάλυσης και αξιολογήθηκε τόσο η μέθοδος όσο και η εφαρμογή ως προς την χρησιμότητα της στο πλαίσιο που μας ενδιαφέρει, δηλαδή την αξιολόγηση σχεδιασμού ιστοσελίδων. Η εφαρμογή εκμεταλλεύεται τα πλεονεκτήματα των ιστοσελίδων πλούσιας διαδραστικότητας για την πλήρη υποστήριξη της διαδικασίας αξιολόγησης. / -
23

Ανίχνευση και διόρθωση σφαλμάτων σε συστήματα επικοινωνιών με κωδικοποίηση Reed-Solomon

Βασιλείου, Αλέξανδρος 09 January 2012 (has links)
Στην εργασία αυτή, μελετώνται διαφορετικοί αποκωδικοποιητές για κώδικες Reed-Solomon. Αφού γίνει μια εισαγωγή στο σύστημα επικοινωνίας, στα πεπερασμένα σώματα και στη θεωρία κωδίκων, παρουσιάζονται αλγόριθμοι που υλοποιούν αποκωδικοποιητές περιορισμένης απόστασης, λίστας και soft decoders. Συγκεκριμένα, μελετώνται κλασσικοί αποκωδικοποιητές, αποκωδικοποιητές βασισμένοι στον αλγόριθμο Guruswami-Sudan, και αποκωδικοποιητές βασισμένοι στον αλγόριθμο Koetter-Vardy. Η σύγκριση γίνεται ως προς τη διορθωτική ικανότητα και τη χρονική πολυπλοκότητα. Στα πλαίσια της εργασίας αυτής, σε συνέχεια της μελέτης υπαρχόντων αποκωδικοποιητών προτείνεται ένα είδος προσαρμοστικού αποκωδικοποιητή: φέρει την ίδια διορθωτική ικανότητα με έναν αποκωδικοποιητή λίστας, αλλά σε ορισμένες περιπτώσεις έχει ικανοποιητικά μικρότερη χρονική πολυπλοκότητα. Επίσης γίνεται μία ποιοτική διερεύνηση για το πότε πρέπει να προτιμάται ο προσαρμοστικός αποκωδικοποιητής. Προτείνονται δύο διαφορετικοί προσαρμοστικοί αποκωδικοποιητές. Η πρώτη εκδοχή, είναι μία διάταξη με δύο αποκωδικοποιητές. Αρχικά το ληφθέν διάνυσμα από το κανάλι, εισέρχεται ως είσοδος σε έναν κλασσικό αποκωδικοποιητή. Αν ο κλασσικός παρουσιάσει αδυναμία αποκωδικοποίησης, τότε επιχειρεί να διορθώσει το ίδιο διάνυσμα ένας αποκωδικοποιητής λίστας. Η δέυτερη εκδοχή, μοιάζει με την πρώτη, με τη διαφορά ότι ο δεύτερος αποκωδικοποιητής χρησιμοποιεί αποτελέσματα που έχουν ήδη υπολογιστεί από τον πρώτο, μειώνοντας έτσι την συνολική χρονική πολυπλοκότητα, σχετικά με την πρώτη εκδοχή. / In this thesis we study a family of linear block codes, the Reed-Solomon(RS) codes. RS codes are q-ary codes over some finite field GF(q). Therefore, they have strong burst-error correction capability, because they deal with groups of bits instead of single bits. Initially, we describe the employed communication system model, and introduce basic from finite field theory (construction and identities) and coding theory. After describing the RS encoding process, we describe different RS decoders (bounded distance decoder, list decoder and soft-input decoder). Specifically, in addition to traditional approaches, we focus on decoders based on Guruswami-Sudan and Koetter – Vardy algorithms. We compare them according to their complexity and performance, both in theory and experimentally. Furthermore, in this thesis, we propose an adaptive decoder, which has the same performance as a list decoder but in some cases it achieves much lower average time complexity. We present the experimental results, highlighting the cases where the adaptive decoder outperforms conventional decoders. The adaptive decoder comes in two different types. The first type is a system with two different decoders: the low complexity decoder attempts to decode a received vector and in case of decoding failure the subsequent decoder tries to decode the same received vector. The second type resembles the general organization of the above system; the second decoder re-uses intermediate results, previously computed by the first one.
24

Reconnaissance de codes correcteurs / Blind reconstruction of error-correcting codes

Tixier, Audrey 14 October 2015 (has links)
Dans cette thèse, nous nous intéressons au problème de la reconnaissance de code. Ce problème se produit principalement lorsqu'une communication est observée dans un milieu non-coopératif. Une liste de mots bruités issus d'un code inconnu est obtenue, l'objectif est alors de retrouver l'information contenue dans ces mots bruités. Pour cela, le code utilisé est reconstruit afin de décoder les mots observés. Nous considérons ici trois instances de ce problème et proposons pour chacune d'elle une nouvelle méthode. Dans la première, nous supposons que le code utilisé est un turbo-code et nous proposons une méthode pour reconstruire la permutation interne (les autres éléments du turbo-codeur pouvant être facilement reconstruits grâce aux méthodes existantes). Cette permutation est reconstruite pas à pas en recherchant l'indice le plus probable à chaque instant. Plus précisément, la probabilité de chaque indice est déterminée avec l'aide de l'algorithme de décodage BCJR. Dans la seconde, nous traitons le problème de la reconnaissance des codes LDPC en suggérant une nouvelle méthode pour retrouver une liste d'équations de parité de petits poids. Celle-ci généralise et améliore les méthodes existantes. Finalement, avec la dernière méthode, nous reconstruisons un code convolutif entrelacé. Cette méthode fait appel à la précédente pour retrouver une liste d'équations de parité satisfaites par le code entrelacé. Puis, en introduisant une représentation sous forme de graphe de l'intersection de ces équations de parité, nous retrouvons simultanément l'entrelaceur et le code convolutif. / In this PhD, we focus on the code reconstruction problem. This problem mainly arises in a non-cooperative context when a communication consisting of noisy codewords stemming from an unknown code is observed and its content has to be retrieved by recovering the code that is used for communicating and decoding with it the noisy codewords. We consider here three possible scenarios and suggest an original method for each case. In the first one, we assume that the code that is used is a turbo-code and we propose a method for reconstructing the associated interleaver (the other components of the turbo-code can be easily recovered by the existing methods). The interleaver is reconstructed step by step by searching for the most probable index at each time and by computing the relevant probabilities with the help of the BCJR decoding algorithm. In the second one, we tackle the problem of reconstructing LDPC codes by suggesting a new method for finding a list of parity-check equations of small weight that generalizes and improves upon all existing methods. Finally, in the last scenario we reconstruct an unknown interleaved convolutional code. In this method we used the previous one to find a list of parity-check equations for this code. Then, by introducing a graph representing how these parity-check equations intersect we recover at the same time the interleaver and the convolutional code.
25

Ανάλυση, σχεδιασμός και υλοποίηση κωδίκων διόρθωσης λαθών για τηλεπικοινωνιακές εφαρμογές υψηλών ταχυτήτων

Αγγελόπουλος, Γεώργιος 20 October 2009 (has links)
Σχεδόν όλα τα σύγχρονα τηλεπικοινωνιακά συστήματα, τα οποία προορίζονται για αποστολή δεδομένων σε υψηλούς ρυθμούς, έχουν υιοθετήσει κώδικες διόρθωσης λαθών για την αύξηση της αξιοπιστίας και τη μείωση της απαιτούμενης ισχύος εκπομπής τους. Μια κατηγορία κωδίκων, και μάλιστα με εξαιρετικές επιδόσεις, είναι η οικογένεια των LPDC κωδίκων (Low-Density-Parity-Check codes). Οι κώδικες αυτοί είναι γραμμικοί block κώδικες με απόδοση πολύ κοντά στο όριο του Shannon. Επιπλέον, ο εύκολος παραλληλισμός της διαδικασίας αποκωδικοποίησής τους, τους καθιστά κατάλληλους για υλοποίηση σε υλικό. Στην παρούσα διπλωματική μελετούμε τα ιδιαίτερα χαρακτηριστικά και τις παραμέτρους των κωδίκων αυτών, ώστε να κατανοήσουμε την εκπληκτική διορθωτική ικανότητά τους. Στη συνέχεια, επιλέγουμε μια ειδική κατηγορία κωδίκων LDPC, της οποίας οι πίνακες ελέγχου ισοτιμίας έχουν δημιουργηθεί ώστε να διευκολύνουν την υλοποίησή τους, και προχωρούμε στο σχεδιασμό αυτής σε υλικό. Πιο συγκεκριμένα, υλοποιούμε σε VHDL έναν αποκωδικοποιητή σύμφωνα με τον rate ½ και block_lenght 576 bits πίνακα του προτύπου WiMax 802.16e, με στόχο κυρίως την επίτευξη πολύ υψηλού throughput. Στο χρονοπρογραμματισμό της μετάδοσης των μηνυμάτων μεταξύ των κόμβων του κυκλώματος χρησιμοποιούμε το two-phase scheduling και προτείνουμε δύο τροποποιήσεις αυτού για την επιτάχυνση της διαδικασίας αποκωδικοποίησης, οι οποίες καταλήγουν σε 24 και 50% βελτίωση του απαιτούμενου χρόνου μιας επανάληψης με μηδενική και σχετικά μικρή αύξηση της επιφάνειας ολοκλήρωσης αντίστοιχα. Ο όλος σχεδιασμός είναι πλήρως συνθέσιμος και η σωστή λειτουργία αυτού έχει επιβεβαιωθεί σε επίπεδο λογικής εξομοίωσης. Κατά τη διάρκεια σχεδιασμού, χρησιμοποιήθηκαν εργαλεία της Xilinx και MentorGraphics. / Αlmost all the modern telecommunication systems, which are designed for high data rate transmissions, have adopted error correction codes for improving the reliability and the required power of transmission. One special group of these codes, with extremely good performance, is the LDPC codes (Low-Density-Parity-Check codes). These codes are linear block codes with performance near to the theoretical Shannon limit. Furthermore, the inherent parallelism of the decoding procedure makes them suitable for implementation on hardware. In this thesis, we study the special characteristics of these codes in order to understand their astonishing correcting capability. Then, we choose a special category of these codes, whose parity check matrix are special designed to facilitate their implementation on hardware, and we design a high-throughput decoder. More specifically, we implement in VHDL an LDPC decoder according to the rate ½ and block_length 576 bits code of WiMax IEEE802.16e standard, with main purpose to achieve very high throughput. We use the two-phase scheduling at the message passing and we propose 2 modifications for reducing the required decoding time, which result in 25 and 50% improving of the required decoding time of one iteration with zero and little increasing in the decoder’s area respectively. Our design has been successfully simulated and synthesized. During the design process, we used Xiinx and MentorGraphics’s tools.
26

Αλγόριθμοι επαναληπτικής αποκωδικοποίησης κωδικών LDPC και μελέτη της επίδρασης του σφάλματος κβαντισμού στην απόδοση του αλγορίθμου Log Sum-Product

Κάνιστρας, Νικόλαος 25 May 2009 (has links)
Οι κώδικες LDPC ανήκουν στην κατηγορία των block κωδικών. Πρόκειται για κώδικες ελέγχου σφαλμάτων μετάδοσης και πιο συγκεκριμένα για κώδικες διόρθωσης σφαλμάτων. Αν και η εφεύρεσή τους (από τον Gallager) τοποθετείται χρονικά στις αρχές της δεκαετίας του 60, μόλις τα τελευταία χρόνια κατάφεραν να κεντρίσουν το έντονο ενδιαφέρον της επιστημονικής-ερευνητικής κοινότητας για τις αξιόλογες επιδόσεις τους. Πρόκειται για κώδικες ελέγχου ισοτιμίας με κυριότερο χαρακτηριστικό τον χαμηλής πυκνότητας πίνακα ελέγχου ισοτιμίας (Low Density Parity Check) από τον οποίο και πήραν το όνομά τους. Δεδομένου ότι η κωδικοποίηση των συγκεκριμένων κωδικών είναι σχετικά απλή, η αποκωδικοποίηση τους είναι εκείνη η οποία καθορίζει σε μεγάλο βαθμό τα χαρακτηριστικά του κώδικα που μας ενδιαφέρουν, όπως είναι η ικανότητα διόρθωσης σφαλμάτων μετάδοσης (επίδοση) και η καταναλισκόμενη ισχύς. Για το λόγο αυτό έχουν αναπτυχθεί διάφοροι αλγόριθμοι αποκωδικοποίησης, οι οποίοι είναι επαναληπτικοί. Παρόλο που οι ανεπτυγμένοι αλγόριθμοι και οι διάφορες εκδοχές τους δεν είναι λίγοι, δεν έχει ακόμα καταστεί εφικτό να αναλυθεί θεωρητικά η επίδοσή τους. Στην παρούσα εργασία παρατίθενται οι κυριότεροι αλγόριθμοι αποκωδικοποίησης κωδικών LDPC, που έχουν αναπτυχθεί μέχρι σήμερα. Οι αλγόριθμοι αυτοί υλοποιούνται και συγκρίνονται βάσει των αποτελεσμάτων εξομοιώσεων. Ο πιο αποδοτικός από αυτούς είναι ο αποκαλούμενος αλγόριθμος log Sum-Product και στηρίζει σε μεγάλο βαθμό την επίδοσή του σε μία αρκετά πολύπλοκή συνάρτηση, την Φ(x). Η υλοποίηση της τελευταίας σε υλικό επιβάλλει την πεπερασμένη ακρίβεια αναπαράστασής της, δηλαδή τον κβαντισμό της. Το σφάλμα κβαντισμού που εισάγεται από την διαδικασία αυτή θέτει ένα όριο στην επίδοση του αλγορίθμου. Η μελέτη που έγινε στα πλαίσια της εργασίας οδήγησε στον προσδιορισμό δύο μηχανισμών εισαγωγής σφάλματος κβαντισμού στον αλγόριθμο log Sum-Product και στη θεωρητική έκφραση της πιθανότητας εμφάνισης κάθε μηχανισμού κατά την πρώτη επανάληψη του αλγορίθμου. Μελετήθηκε επίσης ο τρόπος με τον οποίο το εισαγόμενο σφάλμα κβαντισμού επιδρά στην απόφαση του αλγορίθμου στο τέλος της κάθε επανάληψης και αναπτύχθηκε ένα θεωρητικό μοντέλο αυτού του μηχανισμού. Το θεωρητικό μοντέλο δίνει την πιθανότητα αλλαγής απόφασης του αλγορίθμου λόγω του σφάλματος κβαντισμού της συνάρτησης Φ(x), χωρίς όμως να είναι ακόμα πλήρες αφού βασίζεται και σε πειραματικά δεδομένα. Η ολοκλήρωση του μοντέλου, ώστε να είναι πλήρως θεωρητικό, θα μπορούσε να αποτελέσει αντικείμενο μελλοντικής έρευνας, καθώς θα επιτρέψει τον προσδιορισμό του περιορισμού της επίδοσης του αλγορίθμου για συγκεκριμένο σχήμα κβαντισμού της συνάρτησης, αποφεύγοντας χρονοβόρες εξομοιώσεις. / Low-Density Parity-Check (LDPC) codes belong to the category of Linear Block Codes. They are error detection and correction codes. Although LDPC codes have been proposed by R. Gallager since 1962, they were scarcely considered in the 35 years that followed. Only in the end-90's they were rediscovered due to their decoding performance that approaches Shannon limit. As their name indicates they are parity check codes whose parity check matrix is sparse. Since the encoding process is simple, the decoding procedure determines the performance and the consumed power of the decoder. For this reason several iterative decoding algorithms have been developed. However theoretical determination of their performance has not yet been feasible. This work presents the most important iterative decoding algorithms for LDPC codes, that have been developed to date. These algorithms are implemented in matlab and their performance is studied through simulation. The most powerful among them, namely Log Sum-Product, uses a very nonlinear function called Φ(x). Hardware implementation of this function enforces finite accuracy, due to finite word length representation. The roundoff error that this procedure imposes, impacts the decoding performance by means of two mechanisms. Both mechanisms are analyzed and a theoretical expression for each mechanism activation probability, at the end of the first iteration of the algorithm, is developed. The impact of the roundoff error on the decisions taken by the log Sum-Product decoding algorithm at the end of each iteration is also studied. The mechanism by means of which roundoff alters the decisions of a finite word length implementation of the algorithm compared to the infinite precision case, is analyzed and a corresponding theoretical model is developed. The proposed model computes the probability of changing decisions due to finite word length representation of Φ(x), but it is not yet complete, since the determination of the corresponding parameters is achieved through experimental results. Further research focuses on the completion of the theoretical model, since it can lead to a tool that computes the expected degradation of the decoding performance for a particular implementation of the decoder, without the need of time-consuming simulations.
27

Σχεδίαση δικτυακής πύλης θεατρικής ομάδας

Γιαννακάς, Φίλιππος 13 September 2011 (has links)
Αντικείμενο της διπλωματικής εργασίας είναι η ανάπτυξη μιας δικτυακής πύλης της Θεατρικής Ερασιτεχνικής Ομάδας του Πανεπιστημίου Πατρών. Επόμενος στόχος είναι η σχεδίαση και η υλοποίηση ενός πρωτοτύπου περιβάλλοντος που περιλαμβάνει εργαλεία για την αποθήκευση, διαχείριση και επεξεργασία των δεδομένων από προηγούμενες θεατρικές παραστάσεις. Συγκεκριμένα, το περιβάλλον αυτό θα πρέπει να παρέχει τις παρακάτω λειτουργίες: • ιστορικό παραστάσεων • διαχείριση πληροφορίας • αναζήτηση Για το σκοπό αυτό χρησιμοποιήθηκε το εργαλείο ανάπτυξης εφαρμογών διαδικτύου (PHP), βάση δεδομένων (MySQL) και το εργαλείο διαχείρισης περιεχομένου (Content Management) Mod-X Revolution. / --
28

Ανάπτυξη και υλοποίηση δικτυακής πύλης αναζήτησης και εύρεσης βιβλίων βασισμένη σε τεχνολογίες Web 2.0 και σε οντολογίες με χαρακτήρα εξατομίκευσης

Καλού, Αικατερίνη 13 July 2010 (has links)
Στη παρούσα διπλωματική εργασία, πραγματοποιείται μία ποιοτική επισκόπηση του όρου Σημαντικός Ιστός και των τεχνολογιών αναπαράστασης γνώσης και συμπερασμού που υπόκεινται σε αυτόν, όπως οντολογίες, μέθοδοι και εργαλεία ανάπτυξης οντολογιών, γλώσσες αναπαράστασης οντολογιών καθώς και η επέκταση της εκφραστικότητας των οντολογιών με την προσθήκη κανόνων. Επίσης, γίνεται εκτενής αναφορά σε μία άλλη εξελικτική τάση, που κυριαρχεί στο χώρο του Web, το Web 2.0. Στα πλαίσια του Web 2.0, αναλύονται έννοιες όπως mashups και Web APIs. Ειδικά για την έννοια των Web APIs, γίνεται αναφορά και ανάλυση συγκεκριμένων APIs, όπως αυτά της Amazon και του EBay. Οι έννοιες του Σημαντικού Ιστού και του Web 2.0 παρουσιάζονται πολλές φόρες ως ανταγωνιστικές για το μέλλον του Ιστού. Εντούτοις, γίνεται σαφές όλο και περισσότερο ότι οι δύο αυτές έννοιες είναι συμπληρωματικές. Στα πλαίσια της διπλωματικής εργασίας, αναπτύχθηκε μια εφαρμογή η οποία θα συνδυάζει αυτές τις δύο κυρίαρχες τεχνολογικές τάσεις. Πιο συγκεκριμένα, η εφαρμογή αποτελεί ένα πλαίσιο αναζήτησης βιβλίων από το Amazon και το Half eBay με χαρακτήρα εξατομίκευσης. Για την εφαρμογή, κάθε χρήστης αποτελεί μία αυτόνομη οντότητα. Συνεπώς, το περιεχόμενο της εφαρμογής προσαρμόζεται ανάλογα με το προφίλ του χρήστη κάθε φορά. Η υλοποίηση της εφαρμογής στηρίζεται αποκλειστικά στην ανάπτυξη οντολογιών, στη συγγραφή κανόνων (για την εξατομίκευση), στη δημιουργία ενός mashup και στα Web APIs. Τέλος, να σημειωθεί ότι η εφαρμογή στηρίζεται σε μία κατανεμημένη αρχιτεκτονική 3-επιπέδων. / In the present diploma thesis, one qualitative review is realised for the concepts of Semantic Web and of technologies of representation of knowledge and reasoning that being in this, such as ontologies, methods and tools for ontology development, representation languages of ontologies as well as the extension of expressiveness of ontologies with the addition of rules. Also, it becomes an extensive report in an other evolutionary tendency, that dominates in the space of Web, Web 2.0. In the scope of Web 2.0, concepts such as mashups and Web APIs are analyzed. Specifically for the concept of Web APIs, we make a report and an analysis of concrete APIs, as those of Amazon and EBay. The concepts of Semantic Web and Web 2.0 are presented a lot of times as competitive for the future of Web. Nevertheless, it becomes more and more obvious that these two concepts are complemental. In the scope of these diploma thesis, was developed an application which combines these two dominant technological tendencies. In particular, the application constitutes a framework of searching books from Amazon and Half eBay with a personalised character. For the application, each user constitutes an autonomous entity. Consequently, the content of application is adapted depending on the profile of user each time. The implementation of application is supported exclusively in the ontology development, in the writing of rules (for the personalisation), in the creation of a mashup and in Web APIs. Finally, it is marked that the application is supported in a distributed 3-tier architecture.
29

Enhancing small business through mobile apps: a case study from Lagos, Nigeria

Owoseni, Adebowale Oluropo 02 1900 (has links)
This thesis draws on the framework of dynamic capability (DC) in an effort to make sense of how small and medium scale enterprises (SMEs) use mobile apps in Lagos, Nigeria. There exists significant knowledge regarding the application of the DC framework in large firms but its application in smaller organisations has scarcely been researched. The knowledge of how SMEs use mobile apps is important at this time because it could help these SMEs compete favourably, despite unpredictable environments. Based on pragmatic philosophy and a mixed-methods research approach, the research was conducted in two phases. The first phase of the research used qualitative methods to identify the absorptive, adaptive and innovative capabilities of SMEs in Lagos with a view to discover the extent to which mobile apps are used as enablers and/or drivers of these capabilities. The findings from 20 SMEs identified 15 DC constructs whose impact on SMEs could be enhanced using appropriated mobile apps. The SMEs manifest adaptive capabilities, mainly through using appropriated mobile apps. The SMEs manifest adaptive capabilities, mainly through customer feedback and referrals, and demonstrate absorptive capabilities through the repackaging and repricing of their goods and/or service offerings. The innovative capabilities of SMEs became evident through the imitation and adaptation of offerings. The second phase of this research surveyed 1 162 SMEs in Lagos in an effort to validate the identified constructs through quantitative methods. Descriptive statistics of survey responses affirm the use of mobile apps by SMEs and it also indicated the underutilisation of mobile apps as a DC enabler. Further analysis, using covariance-based structural equation modelling (SEM) techniques and confirmatory factor analysis (CFA), explored the fitness of a conceptual SME model. The model assembled seven latent variables namely: mobile app usage, adaptive capability, absorptive capability, innovative capability, opportunity sensing ability, opportunity shaping ability and opportunity seizing ability. Subsequently, 15 hypotheses aimed at understanding the relationships between the variables were developed. The findings from the quantitative analysis revealed that mobile app usage increases the adaptive, absorptive and innovative capabilities of SMEs. The results failed to establish a direct relationship between mobile app usage and opportunity sensing, shaping and seizing abilities. Furthermore, the use of the adaptive capability in taking advantage of opportunities could not be generalised in SMEs’ context. The research findings imply the existence of an untapped potential as far as the use of mobile apps by SMEs in Lagos is concerned. The findings suggest that SMEs in Lagos respond to opportunities by becoming innovative and they seldom exhibit innovation in order to create opportunities. Based on the heterogeneous nature of SMEs, it is difficult to suggest a clear-cut narrative as to how all SMEs should employ mobile apps to create and maximise opportunities. However, mobile apps could induce creativity when developed and applied to the contextual requirements of SMEs. The outcome of this research reflects a multidisciplined research experience. The study contributed to IS through the creation of a model for investigating mobile app usage by organisations from a DC perspective. The conceptual model designed in this study could be adapted to investigate the way in which mobile app usage influences organisations in other contexts. The study contributed to the area of Information Systems by revealing the application of the DC framework to SMEs in contrast to the usual practice of researching DC with large organisations in mind. This research work suggests implicit ways of enhancing SMEs which could aid policy makers. This study was limited in that it gathered data from SMEs in Lagos alone as Lagos represents the commercial centre of Nigeria. Considerations for future research include the comparison of DC of large and small organisations in Lagos to examine if similarities and/or contrasts exist. Furthermore, due to the evasive and heterogeneous nature of SMEs, it would be beneficial to delimit future research on SMEs along specific domains of interest. / Iqoqa Lolu cwaningo lususelwa ohlakeni lokuthiwa ngamandla aphilayo (dynamic capability [DC]) emzameni wokuba umuntu aqonde ukuthi amabhizinisi amancane namaphakathi (ama-SME) awasebenzisa kanjani ama-apps ahanjiswayo eLagos, eNigeria. Lolu lwazi lubalulekile ngoba lungasiza la mabhizinisi ukuba ancintisane namanye ngokunempumelelo, noma izimo akuzo wona zingaqondakali kahle. Ucwaningo lwenziwa ngezigaba ezimbili. Isigaba sokuqala sahlonza ama-DC ama-SMSE eLagos, ngenhloso yokuthola ukuthi ngabe ama-apps ahanjiswayo asetshenziswa kangakanani ukukhuthaza kanye/noma ukuqhubela phambili la mandla aphilayo. Okwatholakala kuma-SME angama-20 kwaba ukuhlonzwa kwezinhlelo zama-DC ithonya lazo kuma-SME elalingase liphakame ngokusebenzisa ama-apps ahanjiswayo afanele. Ama-SME afakazela ama-DC ikakhulu ngokushiwo ngamakhasimende nalabo abathintiwe, nokuba kubonakale ngokuba impahla ekhishwayo ipakishwe kabusha, ifakelwe intengo entsha, noma kube yimpahla engukulingisa eyokuqala noma ilungiswe ifane neyokuqala. Ibanga lesibili lalolu cwaningo lwahlola ama-SME ayi-1 162 eLagos ukuzama ukuqinisekisa ngezinga lezinhlaka ezihlonziweyo. Izimpendulo ezavezwa ucwaningo zakwesekela ukusetshenziswa ngama-SME kwama-apps ahanjiswayo, zakhomba nokuthi awasetshenziswa ngokugcwele ama-apps ahanjiswayo njengokunika i-DC amandla. Okunye ukuhlaziya kwakhombiisa ukuthi ukusebenzisa ama-apps ahanjiswayo kwakungasiza ama-SME ngokwandisa amathuba awo. Nokho phela ukusebenzisa amathuba avelayo kwakungeke kwenzeke yonke indawo kuma-SME. Okuvezwa ucwaningo kukhombisa ukuthi kukhona ukusizakala okukhulu okungakafinyelelwa kukho mayelana nokusetshenziswa ngama-SME kwama-apps ahanjiswayo eLagos. Ucwaningo luphonsa itshe esivivaneni enkundleni yezinhlelo zokusebenza ngezolwazi ngokwembula ukusetshenziswa kohlaka lwe-DC kuma-SME uma kuqhathaniswa ngokuphambene nalokhu, okungukucwaninga okwejwayelekile nge-DC ezinhlanganweni ezinkulu. Lolu cwaningo luveza izindlela ezingekho obala zokuthuthukisa ama-SME, okungaba usizo kulabo ababhekene nokusungula imigomo yezwe. / School of Computing / Ph. D. (Information Systems)
30

Ανάπτυξη συστημάτων κωδίκων για την ανίχνευση και διόρθωση σφαλμάτων σε δεδομένα μετάδοσης

Τυχόπουλος, Αυξέντιος 16 June 2010 (has links)
Το ερευνητικό αντικείμενο της παρούσας διατριβής υπάγεται στον «Έλεγχο Σφαλμάτων» (Error Control), έναν επιστημονικό χώρο με καθοριστικής σημασίας συνεισφορά στην εξέλιξη των ψηφιακών τηλεπικοινωνιών. Πιο συγκεκριμένα, η παρούσα διατριβή πραγματεύεται την εφαρμογή του «ελέγχου σφαλμάτων» στην οπτική μετάδοση. Κατά τη διάρκεια της τελευταίας δεκαπενταετίας (‘93-‘08), τρεις γενιές «άμεσης διόρθωσης σφαλμάτων» (FEC) έχουν διαδεχθεί η μία την άλλη, σε ανταπόκριση προς τις ολοένα απαιτητικότερες προδιαγραφές των οπτικών ζεύξεων (υψηλότεροι ρυθμοί μετάδοσης και πυκνότερα οπτικά πλέγματα). Κατά κανόνα, οι μέθοδοι FEC κωδικοποιούν τα δεδομένα εισόδου χωρίς να έχουν γνώση γι’ αυτά (π.χ. δομή, πρωτόκολλο) και χωρίς να επεμβαίνουν σ’ αυτά. Η προσέγγιση αυτή καλείται «κωδικοποίηση εκτός ζώνης» (Out-Band Coding – OBC) και συνεπάγεται αύξηση του ρυθμού μετάδοσης στο οπτικό κανάλι σε σχέση με το ρυθμό των δεδομένων εισόδου, ανάλογα με το ποσοστό πλεονασμού του κώδικα. Ωστόσο, ο τελικός ρυθμός μετάδοσης στο κανάλι μπορεί να διατηρηθεί αμετάβλητος, αν το πρωτόκολλο μετάδοσης προβλέπει την ύπαρξη πλεονάσματος και μέρος αυτού μπορεί να διατεθεί για κωδικοποίηση FEC. Η εναλλακτική αυτή προσέγγιση καλείται «κωδικοποίηση εντός ζώνης» (In-Band Coding – IBC). Η «σύγχρονη ψηφιακή ιεραρχία» (SDH) και το «σύγχρονο οπτικό δίκτυο» (SONET) είναι τα πρότυπα, που σήμερα κυριαρχούν στις οπτικές τηλεπικοινωνίες. Με αφθονία πλεονάσματος στα πλαίσια μετάδοσης, τα παραπάνω σύγχρονα δίκτυα προσφέρονται για την IBC. Στα πλαίσια της παρούσας διατριβής, τα SDH & SONET αναλύθηκαν από κοινού για την εύρεση της βέλτιστης μεθόδου IBC με βάση έναν αριθμό από κριτήρια. Καταρχήν εξετάστηκε διεξοδικά το πλεόνασμα μετάδοσης για να εντοπιστούν τα διαθέσιμα bytes και να αιτιολογηθεί η δέσμευσή τους για την IBC. Στη συνέχεια, αναζητήθηκε ο βέλτιστος κώδικας FEC για τα δεδομένα πλαίσια μετάδοσης και με το δεδομένο πλεόνασμα (για την αποθήκευση των bits ισοτιμίας του κώδικα). Η βελτιστοποίηση κάλυψε όλους τους γραμμικούς και συστηματικούς κώδικες ανά κατηγορίες – ο χωρισμός τους σε κατηγορίες έγινε με βάση τις εξής βασικές ιδιότητες: α) την αλφάβητο: «δυαδικοί» έναντι «μη-δυαδικών», και β) τη διορθωτική ικανότητα: κώδικες κατάλληλοι για «τυχαία» (μεμονωμένα) σφάλματα έναντι κατάλληλων για «ομοβροντίες» (ριπές) σφαλμάτων. iii Από την παραπάνω διαδικασία βελτιστοποίησης προέκυψε μία μέθοδος IBC, που βασίζεται στο συρρικνωμένο Reed-Solomon κώδικα RS(240,236,9). Πρόκειται για μία εντελώς νέα μέθοδο και δικαιολογεί τη διάκρισή της ως βέλτιστη, έχοντας σαφή πλεονεκτήματα έναντι των μεθόδων, που είχαν προταθεί στο παρελθόν. Στα πλαίσια της παρούσας διατριβής, η παραπάνω βέλτιστη μέθοδος προτείνεται με το όνομα «FOCUS» για την κωδικοποίηση IBC στα δίκτυα SDH/SONET. Με στόχο την ακριβή πειραματική αξιολόγηση της προτεινόμενης μεθόδου FOCUS, υλοποιήθηκε κατόπιν ένας αριθμός από πρωτότυπα συστήματα, χρησιμοποιώντας τις διαθέσιμες μικροκυματικές κάρτες «10g-Tester». Αναλυτικότερα, η μοντελοποίηση έγινε στη γλώσσα περιγραφής υλικού VHDL και η υλοποίηση με προγραμματιζόμενη λογική (Xilinx® XC2V3000-4 FPGA). Τέλος, η πειραματική αξιολόγηση της προτεινόμενης μεθόδου FOCUS πραγματοποιήθηκε σε δύο διαδοχικές φάσεις: Στην πρώτη φάση, το σύστημα FOCUS αξιολογήθηκε ως μία «ανεξάρτητη» μέθοδος κωδικοποίησης FEC (stand-alone IBC evaluation). Η αξιολόγηση έγινε με ρυθμό μετάδοσης STM-64 σε κατάλληλα διαμορφωμένη, πειραματική οπτική ζεύξη «από-σημείο σε-σημείο» (point-to-point optical link), συνολικού μήκους ~88 χμ. Στην παραπάνω ζεύξη μετρήθηκαν οι επιδόσεις του FOCUS κατά την αντιστάθμιση των κυριότερων ατελειών της οπτικής μετάδοσης: α) της χρωματικής διασποράς (CD), β) της «παρασιτικής» ενίσχυσης του θορύβου από οπτικούς ενισχυτές (ASE) και γ) της μη-γραμμικής συμπεριφοράς (WDM -NL). Στη δεύτερη φάση, το σύστημα FOCUS αξιολογήθηκε ως μία «αναβάθμιση» για οπτικές ζεύξεις, οι οποίες διαθέτουν ήδη κωδικοποίηση OBC (evaluation of IBC and OBC in concatenation). Πιο συγκεκριμένα, το σύστημα FOCUS συνδέθηκε σε σειρά (ως εξωτερικός κώδικας) με το κατά ITU-T G.975 (2000) πρότυπο σύστημα κωδικοποίησης (OBC). Σε αυτή τη συνδεσμολογία, το σύστημα FOCUS αποτελεί τη δικλείδα ασφαλείας, που επεμβαίνει όταν ο εσωτερικός αποκωδικοποιητής (G.975) υπερχειλίζεται από τα σφάλματα του καναλιού. Η αξιολόγηση της υβριδικής αυτής μεθόδου κωδικοποίησης έγινε με ρυθμό μετάδοσης 10.66 Gb/s (SDH STM-64 x 15/14) σε μία καθαρά οπτική διάταξη μετατροπής μήκους κύματος, που αποτελείται από δύο οπτικούς ενισχυτές πυριτίου (SOA-based MZI). Ειδικότερα, μετρήθηκαν: α) η μείωση της ευαισθησίας της οπτικής διάταξης στις (τυχαίες) μεταβολές φάσης των δύο σημάτων εισόδου και β) η καθαρή συνεισφορά του συστήματος FOCUS, όταν αυτό επεμβαίνει ως δικλείδα ασφαλείας. Το FOCUS συγκεντρώνει σημαντική καινοτομία, τόσο στην επινόηση όσο και στην υλοποίηση. Όλα τα συμπεράσματα της αξιολόγησης έχουν δημοσιευτεί σε έγκυρα διεθνή περιοδικά και συνέδρια. / This Ph.D. thesis falls into “Error Control”, a scientific field with key contribution to the evolution of digital telecommunications. In specific, this thesis treats optical transmission in terms of “Error Control”. Noteworthy is the fact that during the last fifteen years (‘93-‘08), three generations of “Forward Error Correction” (FEC) methods for optical transmission have succeeded one another, in response to the increasingly demanding optical link specifications (higher transmission rates, denser wavelength mesh). In general, FEC-methods assume no prior knowledge of the input data (e.g. structure, protocol); in addition, input data are not modified at all (i.e. under normal channel conditions, output-data will be identical to the input data). This approach is called “Out-Band Coding” (OBC) and incurs an increase of the optical channel data-rate relatively to the input data-rate, inversely proportional to the coding-rate. Notwithstanding, the rate of the optical-channel can be kept unchanged, on condition that the transmission protocol provides “overhead” and part of this “overhead” can be allocated for parity-information. This alternative approach is called “In-Band Coding” (IBC). The “Synchronous Digital Hierarchy” (SDH) and the “Synchronous Optical Network” (SONET) are currently the dominant standards in optical communications. The abundance of overhead in transmission-frames renders these synchronous networks suitable for IBC. In this thesis, SDH and SONET were analyzed together to determine the optimum IBC method with respect to a number of criteria. Firstly, SDH/SONET transmission-overhead was scrutinized in order to identify available bytes and justify their commitment to implement IBC. Next, the optimum FEC-code was sought, given the size of the transmission-frames and the availability of overhead (to allocate the parity bits). Optimization spanned all linear and systematic codes. The codes were divided in groups according to the following fundamental properties: a) the underlying alphabet: “binary” versus “non-binary” codes, and b) the corrective power: codes, appropriate for “random” (isolated) errors versus codes, appropriate for “burst-form” errors. Optimization resulted in an IBC-method, which relies on the shortened Reed-Solomon code RS(240,236,9). This IBC-method is completely novel and its optimality can be verified by the clear advantages, it presents over methods that were proposed in the past. In this thesis, the above IBC-method is given the name “FOCUS” and proposed for IBC in SDH/SONET networks. In order to accurately measure the performance of the proposed method “FOCUS”, a number of prototypes were implemented by making use of microwave cards, called “10gv Tester”. More specifically, “FOCUS” was modelled in the “VHDL” hardware description language and its prototypes were implemented by means of a Xilinx® “XC2V3000-4” FPGA. The experimental evaluation of the proposed method was conducted in two successive phases: During the first phase, “FOCUS” was evaluated as an independent (stand-alone) FEC method. This evaluation took place at an STM-64 transmission-rate in a suitable experimental “point-to-point” optical link, whose length was ~88 km. In the above link, the performance of “FOCUS” was measured, in compensating the principal impairments of optical transmission: a) the chromatic dispersion (CD), b) the parasitic amplification of noise by optical amplifiers (ASE), and c) the non-linear behavior (WDM-NL). During the second phase, “FOCUS” was evaluated as an “upgrade” for optical links, which have already been equipped with OBC (evaluation of IBC and OBC in concatenation). Specifically, “FOCUS” was concatenated with the OBC-method, which has been proposed in rec. G.975 (ITU-T, 2000) with “FOCUS” as the outer- and “G.975” as the inner-code. In this arrangement, “FOCUS” plays the role of the “safety-valve”, which prevents the inner decoder (G.975) from deteriorating the error-rate of the optical link, when it is overwhelmed by severe channel-conditions. The evaluation of this hybrid coding-method took place at a transmissionrate of 10.66 Gb/s (SDH STM-64 x 15/14) in a purely optical wavelength conversion device, which consists of two silicon optical amplifiers (SOA-based MZI). In the above wavelengthconversion device, the following measurements were obtained: a) the reduction of sensitivity of the optical wavelength converter to the (random) phase-changes of the two input signals, and b) the net contribution of “FOCUS”, when acting as a “safety valve”. “FOCUS” has many innovative aspects, both in its conception and the implementation of its prototypes. All conclusions of the above two-phased experimental evaluation have been published in international journals and conferences.

Page generated in 0.0287 seconds