• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • Tagged with
  • 40
  • 25
  • 16
  • 13
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Αποδοτικοί αλγόριθμοι και προσαρμοστικές τεχνικές διαχείρισης δικτυακών πληροφοριακών συστημάτων και εφαρμογών παγκόσμιου ιστού / Efficient algorithms and adaptive techniques for net-centric information systems and web applications management

Σακκόπουλος, Ευάγγελος 25 June 2007 (has links)
Στα πλαίσια της διδακτορικής μας διατριβής ασχοληθήκαμε με προβλήματα διαχείρισης δικτυακών πληροφοριακών συστημάτων που βασίζονται σε τεχνολογίες παγκόσμιου ιστού (network-centric information systems, netcentric information systems, web information systems). Η έννοια της δικτυο-κεντρικής προσέγγισης (netcentric) προσπαθεί να αποδώσει την τάση να χρησιμοποιείται η δικτυακή υποδομή και τεχνολογία όλο και περισσότερο στα πληροφοριακά συστήματα και τις εφαρμογές παγκόσμιου ιστού για να παρέχουν, να δημοσιοποιούν, να διαμοιράζουν και να επικοινωνούν online υπηρεσίες και πληροφορίες. Κύριος στόχος της διατριβής είναι α) η διασφάλιση της ποιότητας κατά την εξυπηρέτηση, β) η μείωση του χρόνου εντοπισμού και γ) η εξατομίκευση υπηρεσιών και πληροφοριών σε δικτυακά πληροφοριακά περιβάλλοντα και εφαρμογές που βασίζονται σε τεχνολογίες μηχανικής Παγκόσμιου Ιστού. Σε πρώτο επίπεδο, οι αποδοτικοί αλγόριθμοι που αναπτύξαμε αφορούν τις υπηρεσίες Web Services που έχουν σχεδιαστεί να υποστηρίζουν διαλειτουργική αλληλεπίδραση μεταξύ μηχανών με χρήση δικτυακής υποδομής. Πρόκειται ένα τεχνολογικό πλαίσιο το οποίο προτυποποιήθηκε από το W3 Consortium (http://www.w3.org) και γνωρίζει την ευρεία υποστήριξη τόσο της επιστημονικής κοινότητας τεχνολογιών πληροφορικής και επικοινωνιών όσο και των επαγγελματιών μηχανικών Η/Υ και της βιομηχανίας πληροφορικής παγκοσμίως. Αναλυτικότερα στο πρώτο μέρος της διατριβής δίνουμε αρχικά μία νέα κατηγοριοποίηση και συγκριτική παρουσίαση των λύσεων και προβλημάτων που αφορούν αποδοτικές λύσεις αλγορίθμων διαχείρισης και αναζήτησης υπηρεσιών. Στη συνέχεια, εισάγουμε μια σειρά από νέους αποδοτικούς αλγορίθμους διαχείρισης και αναζήτησης υπηρεσιών που διασφαλίζουν την ποιότητα της παρεχόμενης υπηρεσίας και βελτιώνουν την πολυπλοκότητα στο χρόνο εντοπισμού μιας υπηρεσίας. Συνολικά στο πρώτο μέρος παρουσιάζουμε: - Αποδοτικούς αλγορίθμους δυναμικής επιλογής Web Service που λαμβάνουν υπόψη μη λειτουργικές προδιαγραφές για ποιότητα και απόδοση κατά την προσπάθεια χρήσης (consumption) του Web Service (QoWS enabled WS discovery). - Αποδοτικούς αλγορίθμους διαχείρισης και αναζήτησης υπηρεσιών δικτυο-κεντρικών πληροφοριακών συστημάτων οι οποίοι βασίζονται σε αποκεντρικοποιημένες δικτυακές λύσεις ειδικά σχεδιασμένες για WS καταλογογράφηση (decentralized WS discovery). Σε δεύτερο επίπεδο, δίνουμε αποδοτικές προσαρμοστικές μεθόδους για την εξατομίκευση των αποτελεσμάτων αναζήτησης πληροφοριών στον Παγκόσμιο Ιστό. Με τον τρόπο αυτό επιτυγχάνουμε βελτίωση της απόδοσης τόσο για τις εσωτερικές λειτουργίες διαχείρισης και αναζήτησης των δικτυακών πληροφοριακών συστημάτων όσο και του τελικού αποτελέσματος, της πληροφορίας δηλαδή, που παρουσιάζουν τα συστήματα αυτά στον τελικό χρήστη. Συγκεκριμένα, στο δεύτερο μέρος της διατριβής εισάγουμε μια σειρά από τρεις αλγορίθμους εξατομίκευση των αποτελεσμάτων αναζήτησης, οι οποίοι βασίζονται σε τεχνικές μετρικών συνδέσμων (link metrics). Το κύριο πλεονέκτημα των τεχνικών που προτείνουμε είναι ότι επιτρέπουν, με τη χρήση μιας αρκετά απλής μεθοδολογίας, την εξατομίκευση των αποτελεσμάτων αναζήτησης, χωρίς να επιβαρύνονται οι χρήστες σε όγκο αποθήκευσης ή με καθυστερήσεις λόγου χρόνου εκτέλεσής τους. Επιτυγχάνουμε εξατομικευμένη αναζήτηση εφαρμόζοντας τεχνικές ανάλυσης και επεξεργασίας συνδέσμων όχι στο γράφο ιστού αλλά για πρώτη φορά σε αρκετά μικρότερους εξατομικευμένους γράφους που σχηματίζονται από διαθέσιμες σημασιολογικές ταξονομίες. Συνοψίζοντας τα ερευνητικά αποτελέσματα του δεύτερου μέρους παρουσιάζουμε τα ακόλουθα: - Αποδοτικοί αλγόριθμοι για εξατομικευμένη αναζήτηση πληροφορίας (personalized searching) στον Παγκόσμιο Ιστό. - Μηχανισμός προσαρμοστικής παρουσίασης αποτελεσμάτων αναζήτησης με χρήση πολλαπλών επιπέδων κατηγοριοποίησης. - Επέκταση των αλγορίθμων για μηχανισμούς στοχευμένης συλλογής σελίδων (focused web crawlers) που αποτελούν εναλλακτική της εξατομικευμένης αναζήτησης πληροφοριών. Τέλος στο τρίτο και τελευταίο μέρος της διατριβής παρουσιάζουμε μια σειρά από εφαρμογές, αρχιτεκτονικές και λειτουργικά πλαίσια τα οποία αφορούν δικτυακά πληροφοριακά περιβάλλοντα στα οποία εφαρμόζουμε τεχνικές διαχείρισης υπηρεσιών και μηχανισμούς εξατομίκευσης πληροφοριών. O κύριος στόχος της παρουσίασης των λύσεων αυτών είναι να επιδειχθεί ότι οι προτεινόμενοι αποδοτικοί αλγόριθμοι, που παρουσιάστηκαν στα προηγούμενα κεφάλαια, έχουν εφαρμογή σε πολλαπλά προβλήματα διαφορετικών επιστημονικών και τεχνολογικών πεδίων που χρησιμοποιούν δικτυακά πληροφοριακά συστήματα και εφαρμογές παγκόσμιου ιστού. / In our PhD dissertation we dealt with performance issues in network - centric information systems, netcentric information systems and web information systems. Netcentric approach attempts to depict the augmenting tendency to use the network communication in information systems and web applications in order to provide, to publish, to distribute and to communicate online services and information. The key aim of our doctoral thesis is a) the quality at the service provision, v) the reduction of discovery time and c) the personalization of services and information in network information systems and applications that are based on web engineering technologies. Initially, we studied, designed and implemented efficient algorithms concerning Web Services technologies that have been designed to facilitate interoperable service integration using network infrastructure. Web Services Architecture has been standardized by W3 Consortium (http://www.w3.org) as the technological framework and it has received the wide support of the information technology scientific community as well as the information technology (IT) professionals and industry worldwide. In the first section we introduce a new categorization and comparative presentation of the available algorithmic solutions for service management and discovery. Then, we introduce a series of new efficient algorithms that ensure quality of service provision and improve time complexity in service discovery. Overall in the first part of the thesis we present: - Efficient algorithms for dynamic Web Service selection taking into account non-functional specifications (Quality of Web Service – QoWS) and performance issues during Web Service (WS) consumption attempt (i.e. QoWS enabled WS discovery). - Efficient algorithms for service management and discovery in network centric information systems that are based on decentralized network approaches specifically designed for WS discovery. In the sequel, we propose efficient adaptive methods for personalized web searching. In this way we provide performance improvement both for the internal management and discovery functionality of web based net-centric information systems as well as for the systems’ output that is the end-user information. In particular, in the second section, we introduce a series of three new algorithms for personalized searching. The proposed algorithms are mainly based on link metrics techniques. Their main advantage is that they allow, with the use of a simple methodology, search results personalization, with minimum overhead in terms of storage volume and computation time. We achieve personalized search using link analysis in a personalized graph much smaller one than the whole web graph. The personalized graph is shaped taking advantage of semantic taxonomies. Summarizing the novel research results of this second section are the following: - Efficient algorithms for personalized web information searching. - Adaptive presentation mechanisms of search results with the use of multiple levels of novel categorization. - Extension that allows the adoption of the algorithms for the case of focused web crawling mechanisms, which constitute an alternative personalized searching approach. Finally in the third and last section of our thesis, we present a series of applications, architectures and frameworks of different web based net-centric information environments cases, in which we apply our techniques for service management and personalized information discovery. The main objective of this presentation is to show that the efficient algorithms presented in the previous sections, have multiple potentials of application in problems of different research and technological areas using web based net-centric informative systems and web applications. Cases presented include network management information systems, e-learning approaches, semantic mining and multimedia retrieval systems, web content and structure maintenance solutions and agricultural information systems.
32

Σύστημα υλοποίησης και γραφικής αναπαράστασης αλγορίθμων ανάθεσης υπερσυνδέσμων στον παγκόσμιο ιστό

Τριανταφυλλίδης, Γρηγόριος 02 September 2008 (has links)
Ο παγκόσμιος ιστός έχει εδραιωθεί πλέον ως το δημοφιλέστερο μέσο ανάκτησης πληροφοριών. Όπως είναι λογικό, όσο παλαιώνει τόσο μεγαλύτερη πληροφορία εμπεριέχει. Πληθαίνουν έτσι εκείνοι οι ιστότοποι που γιγαντώνονται άναρχα και ενώ σαν στόχο έχουν να προσφέρουν την πληροφορία στον χρήστη που τους επισκέπτεται, λόγω του τεράστιου όγκου της, κάνουν συχνά δύσκολη την πρόσβαση σε συγκεκριμένα κομμάτια αυτής. Με στόχο την αντιμετώπιση αυτής της κατάστασης, αναπτύσσονται τα τελευταία χρόνια αλγόριθμοι ανάθεσης υπερσυνδέσμων σε ιστοτόπους. Η λογική τους είναι ο εντοπισμός της πιο δημοφιλούς ή πιθανής πληροφορίας και η εξασφάλιση καλύτερης πρόσβασης σε αυτήν, αναθέτοντας υπερσυνδέσμους (hotlinks) προς τις ιστοσελίδες που την περιέχουν. Οι αλγόριθμοι αυτοί εφαρμόζονται όχι σε πραγματικές αναπαραστάσεις ιστοτόπων, αλλά κατά κανόνα στα αντίστοιχα κατευθυνόμενα άκυκλα γραφήματα (DAG) αυτών. Όπως είναι γνωστό κανένας ιστότοπος δεν έχει μορφή DAG, με συνέπεια να υπάρχει μία απόσταση από τη θεωρητική ανεύρεση υπερσυνδέσμων και την πιθανή εφαρμογή τους στην πραγματικότητα. Σε αυτήν την εργασία ασχολούμαστε αρχικά με την μεθοδική καταγραφή της πραγματικής συνδεσμολογίας ενός ιστότοπου, που αποτελεί ένα πρώτο βήμα στην ανάθεση υπερσυνδέσμων σε πραγματικούς ιστοτόπους. Αυτό επιτυγχάνεται με την κατάλληλη προδιαγραφή και υλοποίηση μιας δικτυακής μηχανής αναζήτησης, ώστε να ανταποκρίνεται στις ανάγκες μας. Προτείνουμε στη συνέχεια το εργαλείο ‘HotLink Visualizer’, το οποίο αρχικά μετατρέπει την πληροφορία της συνδεσμολογίας ενός ιστοτόπου σε απλά δεδομένα μορφής πίνακα και στη συνέχεια οπτικοποιεί το αποτέλεσμα. Τέλος, υλοποιεί την απευθείας ανάθεση υπερσυνδέσμων προσθέτοντας αυτόματα μέσα στις σελίδες του ιστοτόπου τους υπερσυνδέσμους και οπτικοποιεί εκ νέου το αποτέλεσμα. Παρέχει έτσι τη δυνατότητα διατήρησης διαφορετικών εκδόσεων της μορφής ενός ιστοτόπου, ανάλογα με το σύνολο από υπερσυνδέσμους που έχουν ανατεθεί σε αυτό. / The World Wide Web has become established as the most popular source of information retrieval. As expected, the older it gets the more information it contains and thus the number of the web sites with gigantic growth and bad information access rates is constantly increased within it. During the last years the matter is being addressed with the development of several hotlink assignment algorithms for web sites. The main idea behind those algorithms is to spot the most popular or more likely to be accessed piece of information and provide better access to it by assigning links (hotlinks) to the web pages containing it. These algorithms are not applied to the actual representations of these web sites but usually to their corresponding direct acyclic graphs (DAGs). However, it is widely known that a web site in its true form is not a DAG, since there can be found hundreds of links pointing to just one page. Hence, there is a gap between the theoretical determination of a set of hotlinks and the possible application of this set to a real web site. In this paper we first address the issue of recording and persisting the exact map of a web site with its full connectivity, which can be considered as a first step towards the assignment of hotlinks in real web sites. We succeed in that, with the appropriate specification and implementation of a web crawler, with functionality suited to our specific needs. We then propose an administrative tool, the ‘Hotlink Visualizer’, which, after persisting in tabular data all the necessary information to capture a web site’s real map, visualizes the outcome and implements hotlink additions by adding with an automated procedure the generated hotlinks in the web pages of the site. Thus we have the ability to maintain in row data different forms and versions of the originally parsed web site, as it can be formed from the assignment of different hotlink sets to it.
33

Σχεδιασμός και υλοποίηση ενός συστήματος αποκομιδής ορισμένης πληροφορίας από τον παγκόσμιο ιστό, με τη χρήση σημασιολογικών δικτύων λημμάτων / Design and implementation of a topical-focused web crawler through the use of semantic networks

Κοζανίδης, Ελευθέριος 28 February 2013 (has links)
Η συγκεκριμένη διατριβή στοχεύει στον σχεδιασμό της μεθοδολογίας που θα εφαρμοστεί για την υλοποίηση ενός προσκομιστή πληροφορίας από τον Παγκόσμιο Ιστό, ο οποίος θα λειτουργεί λαμβάνοντας υπόψη θεματικά κριτήρια. Τέτοιου είδους προγράμματα ανίχνευσης πληροφορίας, είναι ευρέως γνωστά ως θεματικά εστιασμένοι προσκομιστές ιστοσελίδων. Κατά τη διάρκεια της μελέτης μας, σχεδιάσαμε και υλοποιήσαμε ένα καινοτόμο σύστημα θεματικής κατηγοριοποίησης ιστοσελίδων που κάνει εκτεταμένη χρήση των σημασιολογικών δεδομένων τα οποία περιέχονται στο σημασιολογικό δίκτυο WordNet. Η απόφαση για την αξιοποίηση του WordNet ελήφθη με τη φιλοδοξία να αντιμετωπιστούν αποτελεσματικά φαινόμενα ασάφειας εννοιών που μειώνουν τις επιδόσεις των διαθέσιμων θεματικών κατηγοριοποιητών. Η καταλληλότητα του WordNet για την επίλυση της σημασιολογικής ασάφειας έχει αποδειχθεί στο παρελθόν, αλλά ποτέ δεν εξετάστηκε σε ένα σύστημα εστιασμένης προσκόμισης ιστοσελίδων με τον συγκεκριμένο τρόπο, ενώ ποτέ δεν έχει αξιοποιηθεί στην κατηγοριοποίηση ιστοσελίδων για την ελληνική γλώσσα. Ως εκ τούτου, ο θεματικός κατηγοριοποιητής που υλοποιήσαμε, και κατά συνέπεια, και ο εστιασμένος προσκομιστής στον οποίο ενσωματώνεται ο κατηγοριοποιητής, είναι καινοτόμοι όσο αφορά τον τρόπο με τον οποίο αποσαφηνίζουν έννοιες λέξεων με στόχο την αποτελεσματική ανίχνευση του θεματικού προσανατολισμού μίας ιστοσελίδας . Ένας προσκομιστής ιστοσελίδων είναι ένα πρόγραμμα που με αφετηρία μία λίστα διευθύνσεων ιστοσελίδων (URLs) αρχικοποίησης προσκομίζει το περιεχόμενο των ιστοσελίδων που συναντά και συνεχίζει ακολουθώντας τους εσωτερικούς τους συνδέσμους με απώτερο σκοπό την προσκόμιση όσο το δυνατό μεγαλύτερου υποσυνόλου δεδομένων του Παγκόσμιου Ιστού (ανάλογα με τους διαθέσιμους πόρους, την χωρητικότητα του δικτύου, κλπ.). Δεδομένου ότι ο όγκος των δεδομένων που είναι διαθέσιμα στον Παγκόσμιο Ιστό αυξάνεται με εκθετικό ρυθμό, είναι πρακτικά αδύνατο να προσκομιστούν όλες οι ζητούμενες πηγές πληροφορίας ανά πάσα στιγμή. Ένας τρόπος για να αντιμετωπίσουμε το συγκεκριμένο πρόβλημα είναι η εκμετάλλευση συστημάτων εστιασμένης προσκόμισης ιστοσελίδων που στοχεύουν στη λήψη ιστοσελίδων συγκεκριμένης θεματολογίας που εκφράζουν κάθε φορά το θεματικό προφίλ του χρήστη, σε αντίθεση με τους προσκομιστές ιστοσελίδων γενικού σκοπού που καταναλώνουν πόρους άσκοπα προσπαθώντας να προσκομίσουν κάθε πιθανή πηγή πληροφορίας που συναντούν. Οι εστιασμένοι προσκομιστές χρησιμοποιούνται εκτενώς, για την κατασκευή θεματικά προσανατολισμένων ευρετηρίων ιστοσελίδων, κάθε ένα από τα οποία έχει την δυνατότητα να εξυπηρετήσει αιτήσεις χρηστών με συγκεκριμένο θεματικό προσανατολισμό. Με αυτό τον τρόπο είναι δυνατόν να αντιμετωπιστεί το πρόβλημα της υπερφόρτωσης πληροφοριών. Προκειμένου να επιτελέσουμε την συγκεκριμένη εργασία μελετήσαμε εκτενώς υπάρχουσες τεχνικές εστιασμένης προσκόμισης, στις οποίες στηριχθήκαμε ώστε να ορίσουμε την μεθοδολογία που θα ακολουθήσουμε. Το αποτέλεσμα είναι η υλοποίηση ενός θεματικά εστιασμένου πολυνηματικού προσκομιστή, ο οποίος ενσωματώνει τις εξής καινοτομίες: είναι ρυθμισμένος προκειμένου να εκτελεί εστιασμένες προσκομίσεις σε ιστοσελίδες ελληνικού ενδιαφέροντος, αποσαφηνίζει το κείμενο που αντιστοιχεί σε ιστοσελίδες προκειμένου να ανακαλύψει τον θεματικό τους προσανατολισμό. Επιπλέον προτείνουμε μία σειρά υποσυστημάτων τα οποία θα μπορούσαν να ενσωματωθούν στο σύστημα εστιασμένης προσκόμισης προκειμένου να ενισχύσουμε την απόδοσή του. Τέτοια συστήματα είναι το υποσύστημα ανίχνευσης όψεων που αντιστοιχίζονται σε επώνυμες οντότητες καθώς και το υποσύστημα εξαγωγής λέξεων κλειδιών που μπορούν να χρησιμοποιηθούν ως χαρακτηριστικά κατηγοριοποίσης από το αλφαριθμητικό των διευθύνσεων (URL) ιστοσελίδων. Για να παρουσιάσουμε την αποτελεσματικότητα της προτεινόμενης μεθόδου, διενεργήσαμε μία σειρά πειραματικών μετρήσεων. Συγκεκριμένα αξιολογήσαμε πειραματικά τα ακόλουθα: την αποτελεσματικότητα του αλγορίθμου αποσαφήνισης που ενσωματώσαμε στον προσκομιστή, την απόδοση του θεματικού κατηγοριοποιητή ο οποίος καθορίζει την συμπεριφορά του εστιασμένου προσκομιστή σχετικά με το αν μια σελίδα θα πρέπει να κατέβει ως θεματικά σχετική με το θέμα ενδιαφέροντος ή όχι, την απόδοση του εστιασμένου προσκομιστή καταγράφοντας τον ρυθμό απόκτησης που επιτυγχάνει κατά την διάρκεια της εστιασμένης προσκόμισης χρησιμοποιώντας κάθε φορά διαφορετικά χαρακτηριστικά κατηγοριοποίησης, την καταλληλότητα του υποσυστήματος εξαγωγής λέξεων-κλειδιών από το αλφαριθμητικό URL για την περιγραφή του θεματικού προσανατολισμού της ιστοσελίδας και τέλος τη χρησιμότητα του συστήματος αναγνώρισης επώνυμων οντοτήτων στην οργάνωση ιστοσελίδων των οποίων η σημασιολογία δεν αναπαρίσταται ικανοποιητικά σε σημασιολογικούς πόρους γενικού σκοπού συμπεριλαμβανομένου του σημασιολογικού δικτύου WordNet. Τα πειραματικά αποτελέσματα επιβεβαιώνουν τη συμβολή του θεματικά εστιασμένου προσκομιστή που προτείνουμε στην προσκόμιση περιεχομένου ειδικού ενδιαφέροντος από τον Παγκόσμιο Ιστό. Παράλληλα αποδεικνύουμε ότι όλες οι μέθοδοι που ενσωματώσαμε στο σύστημα εστιασμένης προσκόμισης είναι δυνατό να συνεργαστούν κατά τρόπο που να βελτιώνει την απόδοση του προσκομιστή . Τέλος από τα πειραματικά αποτελέσματα αποδεικνύεται ότι η προτεινόμενη τεχνική είναι εξίσου αποτελεσματική για ιστοσελίδες στα αγγλικά και στα ελληνικά. Επιπλέον πιστεύουμε ότι μπορεί να εφαρμοστεί με επιτυχία και σε ιστοσελίδες που περιέχουν κείμενα άλλων φυσικών γλωσσών, με προϋπόθεση την ύπαρξη σημασιολογικών πόρων, αντίστοιχων με το WordNet και διαθέσιμων εργαλείων που θα επιτρέπουν την ανάλυση των δεδομένων κειμένου τους. / This dissertation aims at the specification of an algorithmic methodology that will be applied towards the implementation of a web crawler, which will operate upon thematic criteria. Such crawlers are widely known as topical focused web crawlers. To realize our objective, the utilization of a web page thematic classification system (either existing or newly developed one) is imperative. In the course of our study, we designed and implemented a novel thematic classifier that makes extensive use of the semantic data encoded in WordNet semantic network and such decision was taken with the aspiration of tackling effectively sense ambiguity phenomena that degrade the performance of available classifiers. The suitability of WordNet towards resolving semantic ambiguity has been previously proven but never examined in a focused web crawling application and has never been exploited for the Greek language. Therefore, our thematic classifier and consequently our focused crawler that integrates it are innovative in the way in which they perform word sense disambiguation for achieving the effective detection of the web page topics (themes). In a broad sense, a web crawler is a program that based on a seed list of URLs it downloads the contents of the web pages it comes across and continues following their internal links with the utmost objective of fetching as much as web data as possible (depending on available resources, network capacity, etc.). Given that the web data grows at exponential rates, it is practically impossible to download all the web sources at any given time. One way to tackle such difficulty is to implement and employ topical focused crawlers that aim at downloading content of specific topics (potentially of interest to the user) rather than waste resources trying to download every single data source that is available on the web. Topically focused crawlers are extensively used for building topical focused indices, each of which can serve specialized user search requests, therefore dealing partially with the information overload problem. To carry out our work, we have extensively reviewed existing approaches with respect to topically focused crawling techniques upon which we relied for defining our own focused crawling methodology, which resulted into the implementation of a topical focused crawler that incorporates the following innovate features: it is tailored to operate on the Greek web, it disambiguates the web pages in order to uncover their topic and it incorporates numerous features, such as a named entities recognizer, a URL keyword extractor, personalization techniques, etc., in order to maximize its performance. To demonstrate the effectiveness of our method, we have applied our topical focused crawler on several datasets and experimentally evaluated the following issues: the efficiency of the sense resolution algorithm incorporated into our crawler, the performance of the topical classifier that the crawler consults prior to making a final decision as to whether a page should be downloaded as topically relevant to a subject of interest or not, the suitability of the URL keyword extractor module for judging the subject of a web page based entirely on the analysis of its URL, the usefulness of the named entities recognizer in organizing pages whose semantics are poorly represented within the contents of general-purpose semantic resources (including WordNet semantic network). Experimental results confirm the contribution of our topically focused crawler in downloading web content of specific interest and show that all the methods and techniques that we have successfully integrated into the crawler can interoperate with its other in a manner that improves the crawling performance while allowing for flexibility in the downloading process at the same time. Last but not least, experimental results showcase that our crawling methodology is equally effective for both English and Greek and we believe that it can be fruitfully applied to other natural languages provided that there the respective semantic resources and tools are available for analyzing their textual data.
34

Σπειροειδής κίνηση και έλεγχος σε μικρο/νανο-ηλεκτρομηχανικά συστήματα αποθήκευσης πληροφορίας

Κωτσόπουλος, Ανδρέας 16 April 2013 (has links)
Οι τεχνικές Μικροσκοπίας Ατομικής Δύναμης που χρησιμοποιούν ακίδες σάρωσης έχουν την ικανότητα όχι μόνο να παρατηρούν επιφάνειες σε ατομικό επίπεδο αλλά και να τις τροποποιούν σε πολύ μικρή κλίμακα. Αυτό αποτελεί και το κίνητρο για τη χρησιμοποίηση των τεχνικών αυτών στη δημιουργία συσκευών αποθήκευσης με πολύ μεγαλύτερη πυκνότητα από τις συμβατικές συσκευές. Σε διάφορα ερευνητικά προγράμματα αποθήκευσης δεδομένων τεχνολογίας MEMS/NEMS με ακίδες, η σχετική τροχιά κίνησης της ακίδας ως προς το αποθηκευτικό μέσο ακολουθεί ένα μοτίβο raster. Παρά την απλή υλοποίησή της, η προαναφερθείσα κίνηση σάρωσης έχει σημαντικά μειονεκτήματα. Στο πλαίσιο της εργασίας αυτής προτείνεται μια εναλλακτική τοπολογία σπειροειδούς κίνησης. Η προτεινόμενη μέθοδος μπορεί να εφαρμοσθεί σε οποιοδήποτε σύστημα που βασίζεται σε διαδικασίες σάρωσης, όπως συστήματα αποθήκευσης και AFM συστήματα απεικόνισης. Στην εργασία αυτή μελετάται η περίπτωση των συσκευών αποθήκευσης με ακίδες, όπου η τροχιά που διαγράφει η ακίδα σε σχέση με το επίπεδο x/y που ορίζεται από το μέσο αποθήκευσης, είναι η σπειροειδής καμπύλη του Αρχιμήδη. Η χρήση μιας τέτοιας σπειροειδούς τροχιάς οδηγεί σε σήμα θέσης αναφοράς με εξαιρετικά στενό συχνοτικό περιεχόμενο, το οποίο ολισθαίνει πολύ αργά στον χρόνο. Για πειραματική επιβεβαίωση, ο προτεινόμενος τρόπος σπειροειδούς κίνησης εφαρμόστηκε σε σύστημα αποθήκευσης πληροφορίας με ακίδες με δυνατότητες θερμομηχανικής εγγραφής και ανάγνωσης δεδομένων σε φιλμ πολυμερούς. Επιπλέον, μελετήθηκε η αξιοποίηση των ιδιοτήτων του νέου τύπου κίνησης από αρχιτεκτονικές ελέγχου ειδικά σχεδιασμένες και βελτιστοποιημένες για τη συγκεκριμένη οικογένεια τροχιών αναφοράς, με στόχο την επίτευξη πολύ υψηλότερων συχνοτήτων σάρωσης για την ίδια ακρίβεια θέσης. Προς επιβεβαίωση των θεωρητικών αναλύσεων, παρουσιάζονται αποτελέσματα εξομοιώσεων καθώς και πειραματικά αποτελέσματα από πειραματική διάταξη. Στο πλαίσιο της διατριβής πραγματοποιήθηκε και η μοντελοποίηση του καναλιού θερμομηχανικής αποθήκευσης με ακίδες σε μεμβράνες πολυμερούς υλικού. Ενώ η θεωρητική μορφή των θερμομηχανικά εγγεγραμμένων κοιλωμάτων είναι κωνική, στην πράξη η μορφή του απέχει πολύ από το θεωρητικό μοντέλο. Για τον λόγο αυτό, αναπτύχθηκε μοντέλο του συμβόλου ως προς την ταχύτητα σάρωσης κατά τη διαδικασία εγγραφής, με βάση πειραματικά δεδομένα. Στο πλαίσιο της διατριβής μελετήθηκε επίσης η δυνατότητα ανάπτυξης συνδυασμένων αρχιτεκτονικών ελέγχου παρακολούθησης και ανάκτησης χρονισμού συμβόλου, όπου η πληροφορία για τη στιγμιαία ταχύτητα του σαρωτή παρέχεται από το μέσο αποθήκευσης μέσω των κυκλωμάτων συγχρονισμού. Τα αποτελέσματα των εξομοιώσεων επιβεβαιώνουν την δυνατότητα αυτή, και επιπλέον δείχνουν ότι υπό προϋποθέσεις η ακρίβεια παρακολούθησης του συστήματος βελτιώνεται. Τέλος, διερευνήθηκε η απόδοση των προτεινόμενων μεθόδων στην περίπτωση φορητών συσκευών, τα οποία υπόκεινται σε εξωτερικές διαταραχές. Στο πλαίσιο της διερεύνησης αυτής, συλλέχθηκαν πειραματικά αποτελέσματα και αναλύθηκαν μετρήσεις τυπικών εξωτερικών διαταραχών. / The AFM techniques using scanning probes have the capacity not only to observe surfaces in atomic level but also to modify them at a very small scale. This feature motivates the use of these techniques to create storage devices capable of storing data in a much higher density than conventional devices. In various MEMS/NEMS-based data storage technology research projects with probes, the relative trajectory follows a raster pattern or similar. Despite its simple implementation, the aforementioned scanning pattern has significant disadvantages. In this work, an alternative spiral motion topology is proposed. The proposed method can be applied to any system based on scanning probes, such as storage systems and AFM imaging systems. In this work, the case of storage devices with probes is studied, in which the trajectory of the probe with respect to the x/y plane of the storage medium, is the spiral curve of Archimedes. The use of such a spiral trajectory leads to a reference position signal with extremely narrowband frequency content, which slides very slowly in time. For experimental verification, the proposed method of spiral motion was applied on a single probe experimental setup, with read and writes data thermomechanical capabilities on very thin polymer films. The aforementioned inherent properties of the proposed approach enable system designs with improved tracking performance and with non-intermittent, high-speed storage capabilities. Thus, the exploitation of these properties by architectures specifically designed and optimized for the particular reference trajectory is studied, in order to achieve much higher scanning frequencies for the same positioning accuracy. To verify the theoretical analysis, simulation results are presented as well as experimental results from the application of the proposed techniques and architectures in experimental AFM systems with a single probe. In this dissertation the modeling of the thermomechanical storage channel with probes in thin polymer films was also carried out. While the theoretical form of thermomechanically engraved indentations is conical, in practice its form is far from this theoretical model. Hence, a symbol model was developed in respect to the scanning speed during the write process, based on experimental data. This model can be used to properly design the equalization circuits depending on the motion speed of operation. Moreover, the possibility of developing combined architectures of tracking control and symbol timing recovery was also investigated, where the information regarding the scanner speed is provided from the storage medium via symbol timing synchronization circuits. The simulation results confirm this approach and, furthermore, show that, under certain conditions, the system’s tracking accuracy is improved. Finally, the performance of the proposed methods in the case of portable storage devices was investigated, where the systems are subjected to external disturbances. As part of this investigation, experimental results were collected and measurements of external disturbances, typical for such devices, were analyzed.
35

Σχεδιασμός και υλοποίηση δημοσιογραφικού RDF portal με μηχανή αναζήτησης άρθρων

Χάιδος, Γεώργιος 11 June 2013 (has links)
Το Resource Description Framework (RDF) αποτελεί ένα πλαίσιο περιγραφής πόρων ως μεταδεδομένα για το σημασιολογικό ιστό. Ο σκοπός του σημασιολογικού ιστού είναι η εξέλιξη και επέκταση του υπάρχοντος παγκόσμιου ιστού, έτσι ώστε οι χρήστες του να μπορούν ευκολότερα να αντλούν συνδυασμένη την παρεχόμενη πληροφορία. Ο σημερινός ιστός είναι προσανατολισμένος στον άνθρωπο. Για τη διευκόλυνση σύνθετων αναζητήσεων και σύνθεσης επιμέρους πληροφοριών, ο ιστός αλλάζει προσανατολισμό, έτσι ώστε να μπορεί να ερμηνεύεται από μηχανές και να απαλλάσσει το χρήστη από τον επιπλέον φόρτο. Η πιο φιλόδοξη μορφή ενσωμάτωσης κατάλληλων μεταδεδομένων στον παγκόσμιο ιστό είναι με την περιγραφή των δεδομένων με RDF triples αποθηκευμένων ως XML. Το πλαίσιο RDF περιγράφει πόρους, ορισμένους με Uniform Resource Identifiers (URI’s) ή literals με τη μορφή υποκείμενου-κατηγορήματος-αντικειμένου. Για την ορθή περιγραφή των πόρων ενθαρρύνεται από το W3C η χρήση υπαρχόντων λεξιλογίων και σχημάτων , που περιγράφουν κλάσεις και ιδιότητες. Στην παρούσα εργασία γίνεται υλοποίηση ενός δημοσιογραφικού RDF portal. Για τη δημιουργία RDF/XML, έχουν χρησιμοποιηθεί τα λεξιλόγια και σχήματα που συνιστούνται από το W3C καθώς και των DCMI και PRISM. Επίσης χρησιμοποιείται για την περιγραφή typed literals to XML σχήμα του W3C και ένα σχήμα του portal. Η δημιουργία των μεταδεδομένων γίνεται αυτόματα από το portal με τη χρήση των στοιχείων που συμπληρώνονται στις φόρμες δημοσίευσης άρθρων και δημιουργίας λογαριασμών. Για τον περιορισμό του χώρου αποθήκευσης τα μεταδεδομένα δεν αποθηκεύονται αλλά δημιουργούνται όταν ζητηθούν. Στην υλοποίηση έχει δοθεί έμφαση στην ασφάλεια κατά τη δημιουργία λογαριασμών χρήστη με captcha και κωδικό ενεργοποίησης με hashing. Για τη διευκόλυνση του έργου του αρθρογράφου, έχει εισαχθεί και επεκταθεί ο TinyMCE Rich Text Editor, o οποίος επιτρέπει τη μορφοποίηση του κειμένου αλλά και την εισαγωγή εικόνων και media. Ο editor παράγει αυτόματα HTML κώδικα από το εμπλουτισμένο κείμενο. Οι δυνατότητες του editor επεκτάθηκαν κυρίως με τη δυνατότητα για upload εικόνων και media και με την αλλαγή κωδικοποίησης για συμβατότητα με τα πρότυπα της HTML5. Για επιπλέον συμβατότητα με την HTML5 εισάγονται από το portal στα άρθρα ετικέτες σημασιολογικής δομής. Εκτός από τα άρθρα που δημιουργούνται με τη χρήση του Editor, δημοσιοποιούνται και άρθρα από εξωτερικές πηγές. Στη διαδικασία που είναι αυτόματη και επαναλαμβανόμενη, γίνεται επεξεργασία και αποθήκευση μέρους των δεδομένων των εξωτερικών άρθρων. Στον αναγνώστη του portal παρουσιάζεται ένα πρωτοσέλιδο και σελίδες ανά κατηγορία με τα πρόσφατα άρθρα. Στο portal υπάρχει ενσωματωμένη μηχανή αναζήτησης των άρθρων, με πεδία για φιλτράρισμα χρονικά, κατηγορίας, αρθρογράφου-πηγής αλλά και λέξεων κλειδιών. Οι λέξεις κλειδιά προκύπτουν από την περιγραφή του άρθρου στη φόρμα δημιουργίας ή αυτόματα. Όταν τα άρθρα προέρχονται από εξωτερικές πηγές, η διαδικασία είναι υποχρεωτικά αυτόματη. Για την αυτόματη ανεύρεση των λέξεων κλειδιών από ένα άρθρο χρησιμοποιείται η συχνότητα της λέξης στο άρθρο, με τη βαρύτητα που δίνεται από την HTML για τη λέξη (τίτλος, έντονη γραφή), κανονικοποιημένη για το μέγεθος του άρθρου και η συχνότητα του λήμματος της λέξης σε ένα σύνολο άρθρων που ανανεώνεται. Για την ανάκτηση των άρθρων χρησιμοποιείται η τεχνική των inverted files για όλες τις λέξεις κλειδιά. Για τη μείωση του όγκου των δεδομένων και την επιτάχυνση απάντησης ερωτημάτων, αφαιρούνται από την περιγραφή λέξεις που παρουσιάζουν μεγάλη συχνότητα και μικρή αξία ανάκτησης πληροφορίας “stop words”. Η επιλογή μιας αντιπροσωπευτικής λίστας με stop words πραγματοποιήθηκε με τη χρήση ενός σώματος κειμένων από άρθρα εφημερίδων, τη μέτρηση της συχνότητας των λέξεων και τη σύγκριση τους με τη λίστα stop words της Google. Επίσης για τον περιορισμό του όγκου των δεδομένων αλλά και την ορθότερη απάντηση των ερωτημάτων, το portal κάνει stemming στις λέξεις κλειδιά, παράγοντας όρους που μοιάζουν με τα λήμματα των λέξεων. Για to stemming έγινε χρήση της διατριβής του Γεώργιου Νταή του Πανεπιστημίου της Στοκχόλμης που βασίζεται στη Γραμματική της Νεοελληνικής Γραμματικής του Μανώλη Τριανταφυλλίδη. Η επιστροφή των άρθρων στα ερωτήματα που περιλαμβάνουν λέξεις κλειδιά γίνεται με κατάταξη εγγύτητας των λέξεων κλειδιών του άρθρου με εκείνο του ερωτήματος. Γίνεται χρήση της συχνότητας των λέξεων κλειδιών και της συχνότητας που έχουν οι ίδιες λέξεις σε ένα σύνολο άρθρων που ανανεώνεται. Για την αναζήτηση γίνεται χρήση θησαυρού συνώνυμων λέξεων. / The Resource Description Framework (RDF) is an appropriate framework for describing resources as metadata in the Semantic Web. The aim of semantic web is the development and expansion of the existing web, so users can acquire more integrated the supplied information. Today's Web is human oriented. In order to facilitate complex queries and the combination of the acquired data, web is changing orientation. To relieve the user from the extra burden the semantic web shall be interpreted by machines. The most ambitious form incorporating appropriate metadata on the web is by the description of data with RDF triples stored as XML. The RDF framework describes resources, with the use of Uniform Resource Identifiers (URI's) or literals as subject-predicate-object. The use of existing RDF vocabularies to describe classes and properties is encouraged by the W3C. In this work an information-news RDF portal has been developed. The RDF / XML, is created using vocabularies and schemas recommended by W3C and the well known DCMI and PRISM. The metadata is created automatically with the use of data supplied when a new articles is published. To facilitate the journalist job, a Rich Text Editor, which enables formatting text and inserting images and media has been used and expanded. The editor automatically generates HTML code from text in a graphic environment. The capabilities of the editor were extended in order to support images and media uploading and media encoding changes for better compatibility with the standards of HTML5. Apart from uploading articles with the use of the editor the portal integrates articles published by external sources. The process is totally automatic and repetitive. The user of the portal is presented a front page and articles categorized by theme. The portal includes a search engine, with fields for filtering time, category, journalist-source and keywords. The keywords can be supplied by the publisher or selected automatically. When the articles are integrated from external sources, the process is necessarily automatic. For the automatic selection of the keywords the frequency of each word in the article is used. Extra weight is given by the HTML for the words stressed (e.g. title, bold, underlined), normalized for the size of the article and stem frequency of the word in a set of articles that were already uploaded. For the retrieval of articles by the search engine the portal is using an index as inverted files for all keywords. To reduce the data volume and accelerate the query processing words that have high frequency and low value information retrieval "stop words" are removed. The choice of a representative list of stop words is performed by using a corpus of newspaper articles, measuring the frequency of words and comparing them with the list of stop words of Google. To further reduce the volume of data and increase the recall to questions, the portal stems the keywords. For the stemming the rule based algorithm presented in the thesis of George Ntais in the University of Stockholm -based Grammar was used. The returned articles to the keywords queried by the search engine are ranked by the proximity of the keywords the article is indexed. To enhance the search engine synonymous words are also included by the portal.
36

Η αντιμετώπιση της πληροφοριακής υπερφόρτωσης ενός οργανισμού με χρήση ευφυών πρακτόρων

Κόρδαρης, Ιωάννης 26 August 2014 (has links)
Η πληροφοριακή υπερφόρτωση των χρηστών αποτελεί βασικό πρόβλημα ενός οργανισμού. Η συσσώρευση μεγάλου όγκου πληροφορίας στα πληροφοριακά συστήματα, προκαλεί στους χρήστες άγχος και υπερένταση, με αποτέλεσμα να δυσχεραίνει την ικανότητά τους για λήψη αποφάσεων. Λόγω αυτού, η επίδραση της πληροφοριακής υπερφόρτωσης στους οργανισμούς είναι καταστροφική και απαιτείται η αντιμετώπισή της. Υπάρχουν διάφοροι τρόποι αντιμετώπισης της πληροφοριακής υπερφόρτωσης όπως τα συστήματα υποστήριξης λήψης αποφάσεων, τα συστήματα φιλτραρίσματος πληροφορίας, οι αποθήκες δεδομένων και άλλες τεχνικές της εξόρυξης δεδομένων και της τεχνητής νοημοσύνης, όπως είναι οι ευφυείς πράκτορες. Οι ευφυείς πράκτορες αποτελούν εφαρμογές που εφάπτονται της τεχνικής νοημοσύνης, οι οποίες έχουν την ικανότητα να δρουν αυτόνομα, συλλέγοντας πληροφορίες, εκπαιδεύοντας τον εαυτό τους και επικοινωνώντας με τον χρήστη και μεταξύ τους. Συχνά, υλοποιούνται πολυπρακτορικά συστήματα προκει-μένου να επιλυθεί ένα πρόβλημα του οργανισμού. Στόχος τους είναι να διευκολύνουν τη λήψη αποφάσεων των χρηστών, προτείνοντας πληροφορίες βάσει των προτιμήσεών τους. Ο σκοπός της παρούσας διπλωματικής εργασίας είναι να αναλύσει σε βάθος τους ευφυείς πράκτορες, σαν μία αποτελεσματική μέθοδο αντιμετώπισης της πληροφοριακής υπερφόρτωσης, να προτείνει πειραματικούς πράκτορες προτά-σεων και να εξετάσει επιτυχημένες υλοποιήσεις. Συγκεκριμένα, παρουσιάζεται ένα ευφυές σύστημα διδασκαλίας για την ενίσχυση του e-Learning/e-Teaching, προτείνεται ένα σύστημα πρακτόρων για τον οργανισμό Flickr, ενώ εξετάζεται το σύστημα προτάσεων του Last.fm και ο αλγόριθμος προτάσεων του Amazon. Τέλος, αναλύεται μια πειραματική έρευνα ενός ευφυούς πράκτορα προτάσεων, ο οποίος αντιμετώπισε με επιτυχία την αντιληπτή πληροφοριακή υπερφόρτωση των χρηστών ενός θεωρητικού ηλεκτρονικού καταστήματος. Τα αποτελέσματα του πειράματος παρουσίασαν την επίδραση της αντιληπτής πληροφοριακής υπερφόρτωσης και του φορτίου πληροφορίας στην ποιότητα επιλογής, στην εμπιστοσύνη επιλογής και στην αντιληπτή αλληλεπίδραση μεταξύ ηλεκτρονικού καταστήματος και χρήστη, ενώ παρατηρήθηκε η καθοριστική συμβολή της χρήσης των ευφυών πρακτόρων στην αντιμετώπιση της πληροφοριακής υπερφόρτωσης. / -
37

Αξιολόγηση της απόδοσης των ηλεκτρονικών τραπεζικών συστημάτων

Χαλικιά, Ναυσικά 12 June 2015 (has links)
Η είσοδος των ηλεκτρονικών λύσεων, εφαρμογών και διευκολύνσεων στις τραπεζικές συναλλαγές δεν είναι κάποια νέα υπόθεση. Το διαφορετικό, σήμερα, βρίσκεται στις τεράστιες δυνατότητες, που προσφέρει η τεχνολογία για την άμεση και συνεχόμενη διασύνδεση της τρα-πεζικής πελατείας με όλα τα προϊόντα και υπηρεσίες του τραπεζικού συστήματος. Οι νέες αυτές δυνατότητες περιγράφονται με τον όρο ηλεκτρονική τραπεζική. Αυτόματες ταμειακές μηχανές σε όλα τα τραπεζικά καταστήματα, ηλεκτρονικές αγορές μέσω καρτών και τηλεφωνικές συναλλαγές προσφέρουν υπηρεσίες που εφαρμόζονται ήδη με μεγάλη επιτυχία. Επίσης και η τραπεζική μέσω του Διαδικτύου αναπτύσσεται με αξιοσημείωτους βαθμούς. Η σχέση των πελατών με την τράπεζά τους ενδύεται πλέον τις ανάγκες της εποχής και προσαρμόζονται στους ρυθμούς με τους οποίους εργάζεται η σύγχρονη, παγκοσμοποιούμενη και συνεχώς ανταγωνιστικότερη οικονομία. Συνεχής λειτουργία επί 24 ώρες και για τις 7 ημέρες της εβδομάδες, με παράλληλη εντυπωσιακή μείωση του χρόνου εκτέλεσης των εντολών και περιορισμού του κόστους. Το ηλεκτρονικό δίκτυο, όπως απεικονίζεται στη φιλική μορφή του Διαδίκτυο (internet) προσφέρει πολλαπλές δυνατότητες εμπορικής ανάπτυξης των ηλεκτρονικών συναλλαγών. Με το ηλεκτρονικό χρήμα να αποτελεί, εδώ και πολύ καιρό, μια καθημερινή συνήθεια ο δρόμος για ριζοσπαστικές αλλαγές έχει ανοίξει. / The entrance of electronic solutions, applications and facilities in banking is not a new case. The different today is the enormous possibilities offered by technology for direct and con-tinuous connection of bank customers with all products and services of the banking system. These new features are described by the term electronic banking. Cash machines in all bank branches, electronic shopping cards and telephone transactions offer services that are be-ing applied with great success. Also the bank via the Internet is growing at a remarkable degree. The customer relationship with their bank now wears the needs of the times and adapt to the rhythms with which modern works, globalized and increasingly competitive economy. Contin-uous operation for 24 hours and 7 days of the week, while striking reduction in the time of exe-cution and cost containment. The electronic network, as illustrated in the friendly form of Internet offers multiple pos-sibilities for commercial development of electronic transactions. With electronic money to be here a long time, a daily habit the way for radical changes has opened.
38

Αλγόριθμοι κατανομών ισχύος και ρυθμού μετάδοσης δεδομένων για πολυκαναλικά συστήματα / Rate and power allocation algorithms for multicarrier communication systems

Παπανδρέου, Νικόλαος Ι. 25 June 2007 (has links)
Το αντικείµενο αυτής της διδακτορικής διατριβής είναι η σχεδίαση και η ανάλυση νέων αλγορίθµων υπολογισµού των κατανοµών ισχύος και πληροφορίας σε πολυκαναλικά συστήµατα τεχνολογίας ψηφιακών συνδροµητικών γραµµών DSL. Η αρχή λειτουργίας των πολυκαναλικών συστηµάτων βασίζεται στη διαίρεση του συνολικού φάσµατος σε επιµέρους υποκανάλια χαµηλού ρυθµού µετάδοσης, τα οποία µεταφέρουν τη συνολική πληροφορία µέσω ειδικών τεχνικών διαµόρφωσης. Ο υπολογισµός των κατανοµών της ισχύος εκποµπής και της πληροφορίας στα υποκανάλια του συστήµατος βασίζεται σε αλγορίθµους που είναι γνωστοί µε τον όρο αλγόριθµοι bit-loading. Η πλειοψηφία των αλγορίθµων bit-loading που χρησιµοποιούνται σήµερα είναι αλγόριθµοι ενός χρήστη, δηλαδή εκτελούνται στο δέκτη της γραµµής ενδιαφέροντος, χωρίς να λαµβάνουν υπόψη τα χαρακτηριστικά των πηγών θορύβου (π.χ. παρεµβολή διαφωνίας από γειτονικά συστήµατα στην ίδια δέσµη), παρά µόνο το αποτέλεσµα αυτών (µείωση του λόγου σήµατος-προς- θόρυβο). Για τα πολυκαναλικά συστήµατα ορίζονται δύο βασικές κατηγορίες προβληµάτων bitloading: το πρόβληµα µεγιστοποίησης του ρυθµού µετάδοσης για δεδοµένη ισχύ εκποµπής και το πρόβληµα ελαχιστοποίησης της συνολικής ισχύος για δεδοµένο ρυθµό µετάδοσης. Σε κάθε περίπτωση ένα σύνολο από περιορισµούς (π.χ. µέγιστη ισχύς ανά υποκανάλι, ακέραιες τιµές στην κατανοµή της πληροφορίας) ορίζουν τη βέλτιστη λύση, η οποία ικανοποιεί όλες τις συνθήκες. Οι αλγόριθµοι που έχουν προταθεί βασίζονται σε µεθόδους τύπου greedy bit-filling, οι οποίες υπολογίζουν τη βέλτιστη λύση µε ακέραιες τιµές στην κατανοµή πληροφορίας, και σε µεθόδους τύπου water-filling, οι οποίες οδηγούν σε λύση µε πραγµατικές τιµές στην κατανοµή πληροφορίας, οπότε η τελική “ηµι-βέλτιστη” λύση προκύπτει µε κατάλληλη διακριτοποίηση. Η ραγδαία εξάπλωση των συνδέσεων DSL, καθώς και η ανάγκη για παροχή υψηλότερων ρυθµών µετάδοσης έχει οδηγήσει την επιστηµονική και βιοµηχανική κοινότητα στη διερεύνηση µεθόδων για τη διαχείριση ολόκληρου του φάσµατος µιας δέσµης αγωγών µε στόχο τη βελτιστοποίηση της απόδοσης του συνολικού δικτύου. Ο σηµαντικότερος παράγοντας που περιορίζει τον προσφερόµενο ρυθµό µετάδοσης στα συστήµατα DSL είναι ο θόρυβος διαφωνίας µεταξύ γειτονικών συστηµάτων που λειτουργούν στην ίδια δέσµη. Στα πλαίσια αυτά ανήκει και η σχεδίαση κεντρικών αλγορίθµων bit-loading πολλών χρηστών, µε στόχο τον υπολογισµό των βέλτιστων κατανοµών όλων των συνδέσεων της δέσµης, ώστε να ελαχιστοποιούνται οι συνολικές παρεµβολές διαφωνίας. Σε αντίθεση µε τους αλγορίθµους ενός χρήστη, η διατύπωση του προβλήµατος bit-loading της δέσµης απαιτεί τη γνώση των συναρτήσεων διαφωνίας, ώστε να ορισθεί η αλληλεπίδραση µεταξύ των σηµάτων στις επιµέρους γραµµές. Οι αλγόριθµοι bit-loading πολλών χρηστών που έχουν παρουσιαστεί µέχρι σήµερα βασίζονται στις αρχές λειτουργίας των µεθόδων ενός χρηστή και θεωρούν ότι οι συναρτήσεις διαφωνίας είναι γνωστές. Για τον υπολογισµό των τελευταίων οι τεχνικές που συναντώνται στη βιβλιογραφία δεν εκτελούνται στις διατάξεις µετάδοσης, αλλά βασίζονται στη συλλογή και επεξεργασία σηµάτων σε εξωτερικά συστήµατα. Στα πλαίσια της διδακτορικής διατριβής έγινε ανάλυση των πολυκαναλικών συστηµάτων δέσµης ψηφιακών συνδροµητικών γραµµών (τεχνολογίας ADSL) και προτάθηκαν νέοι αλγόριθµοι bit-loading ενός χρήστη και πολλών χρηστών. Ειδικότερα, παρουσιάζονται λύσεις που αφορούν τα παρακάτω θέµατα: 􀂃 Ανάπτυξη νέου ταχύ αλγόριθµου bit-loading ενός χρήστη. Ο νέος αλγόριθµος επιλύει το πρόβληµα ελαχιστοποίησης της συνολικής ισχύος εκποµπής για δεδοµένο ρυθµό µετάδοσης και ανήκει στην κατηγορία των βέλτιστων αλγορίθµων. 􀂃 ∆ιερεύνηση της απόδοσης συστηµάτων δέσµης συνδροµητικών γραµµών, ως προς την εκµετάλλευση της συνολικής χωρητικότητας της δέσµης, όταν εφαρµόζεται αυτόνοµη διαχείριση του φάσµατος σε κάθε σύνδεση µέσω αλγορίθµων bit-loading ενός χρήστη. 􀂃 Ανάπτυξη νέου κεντρικού αλγόριθµου bit-loading πολλών χρηστών. Ο νέος αλγόριθµος αντιµετωπίζει το πρόβληµα της ανισοκατανοµής των ρυθµών µετάδοσης µεταξύ των συνδέσεων µιας δέσµης, εξ αιτίας της µη κεντρικής διαχείρισης του φάσµατος. 􀂃 Ανάπτυξη νέας µεθόδου για την αναγνώριση των συναρτήσεων διαφωνίας µεταξύ των αγωγών µιας δέσµης συνδροµητικών γραµµών. Η νέα µέθοδος εκτελείται στις διατάξεις µετάδοσης και βασίζεται σε κυκλώµατα επεξεργασίας πραγµατικού χρόνου. Οι νέοι αλγόριθµοι που προτείνονται αποτελούν πρωτότυπες λύσεις στην περιοχή των ψηφιακών επικοινωνιών για πολυκαναλικά συστήµατα µετάδοσης και βασίζονται σε µεθόδους, οι οποίες παρουσιάζουν συγκριτικά πλεονεκτήµατα µε άλλες υφιστάµενες λύσεις. Ειδικότερα: 􀂃 Ο νέος αλγόριθµος bit-loading ενός χρήστη υπολογίζει τη βέλτιστη λύση µε όλους τους περιορισµούς του συστήµατος επικοινωνίας, σε αντίθεση µε άλλους αλγορίθµους που υποστηρίζουν µόνο µέρος των περιορισµών. Επιπλέον, εµφανίζει µικρή πολυπλοκότητα και µεγάλη ταχύτητα εκτέλεσης συγκριτικά µε άλλες µεθόδους. 􀂃 Η διερεύνηση των συστηµάτων δέσµης, ως προς τη µεγιστοποίηση των ρυθµών µετάδοσης όταν δεν εφαρµόζεται κεντρική διαχείριση του φάσµατος, αναδεικνύει το πρόβληµα της ανισοκατανοµής της συνολικής χωρητικότητας στις επιµέρους συνδέσεις. 􀂃 Ο νέος κεντρικός αλγόριθµος bit-loading πολλών χρηστών αντιµετωπίζει το πρόβληµα της µη δίκαιης κατανοµής των ρυθµών µετάδοσης και ταυτόχρονα εξασφαλίζει ένα ελάχιστο περιθώριο µείωσης του λόγου σήµατος-προς-θόρυβο σε κάθε σύνδεση. 􀂃 Η νέα µέθοδος αναγνώρισης των συναρτήσεων διαφωνίας εκτελείται στις συσκευές µετάδοσης σε πραγµατικό χρόνο σε αντίθεση µε άλλες µεθόδους, οι οποίες εκτελούνται σε εξωτερικά συστήµατα µετρήσεων, και βασίζεται σε µια νέα µέθοδο εκτίµησης και αναγνώρισης των σηµάτων παρεµβολής. / The objective of this dissertation is the development of new algorithms for the calculation of the power and rate distributions in multicarrier systems with application in the Asymmetric Digital Subscriber Line (ADSL) technology. In multicarrier systems the spectrum is divided into narrowband subchannels and the total data-load is transmitted by modulating a set of independent subcarriers. The allocation of the total rate and power into the subchannels is based on bit-loading algorithms. The bit-loading algorithms used in multicarrier modems are mainly single-user algorithms: they do not take into account the decisions of the neighboring lines in the binder. In multicarrier systems two bit-loading problems are of main interest: rate-maximization subject to a total power constraint and margin-maximization subject to a given data rate. In both cases, a number of system constraints (e.g. power spectral density mask, integer bit values) determine the unique optimum solution. The bit-loading algorithms presented in the literature are based either on greedy methods, which provide the optimum discrete bit-allocation, or on water-filling methods, which in general provide non-integer bit-allocation. In this case, a final sub-optimum solution is provided using bit rounding. The rapid growth of the DSL users as well as the increasing demand for higher speed services has led the research and industry community in the investigation of methods for dynamic spectrum control of the modems operating in the same binder. In DSL systems, crosstalk interference induced by adjacent lines is one of the largest noise impairments that reduce the performance of services supported by the same binder. Therefore dynamic management incorporates methods for modem coordination and multi-user bit-loading in order to calculate the rate and power allocations of all activated lines, so that the total interference is reduced for a common global-binder benefit. In contrast to the single-user case, the formulation of the multi-user bit-loading problem requires the knowledge of the crosstalk transfer functions between the lines of the binder. The multi-user bitloading algorithms presented in the literature assume that the crosstalk transfer functions are known. In addition, the methods presented for crosstalk identification in DSL systems are based on data collection and processing in third-party systems. In this dissertation, the multicarrier system of an ADSL binder is studied and new single-user and multi-user bit-loading algorithms are developed. In particular, this dissertation presents solutions in the following problems: .. Development of a new computationally efficient single-user bit-loading algorithm. The proposed algorithm provides the optimum discrete solution to the margin-maximization problem. .. Investigation of the capacity and rate-region performance of ADSL binder systems when no overall spectrum control and no modem coordination are used (each modem performs single-user bit-loading). .. Development of a new multi-user bit-loading algorithm. The proposed algorithm resolves the problem of the non-uniform distribution of the achievable data rates experienced for a region of target-rate values, as a result of the no modem-coordination strategy. .. Development of a new crosstalk identification method for DSL binder systems. The proposed method is executed in the operating modems and is based on real time signal processing. This dissertation presents new algorithms which provide advantages compared to other solutions in the multicarrier DSL technology. In particular: .. The new single-user bit-loading algorithm provides the optimum discrete solution under the complete set of system constraints, in contrast to other solutions that consider only a subset of constraints. Moreover, the new algorithm is of low computational complexity compared with other methods. .. The investigation of the rate-region performance of ADSL binder systems under no overall spectrum control reports the problem of the non-uniform distribution of the achievable data rates. This “unfairness” is experienced as a result of the no modemcoordination strategy. .. The new multi-user bit-loading algorithm resolves the problem of the non-uniform distribution of the achievable data rates and guarantees a minimum SNR margin for each activated link in the binder. .. The new crosstalk identification method is based on a new technique for estimating the interference signals and is executed in the operating modems using real-time signal processing, in contrast to other methods which are executed in third-party systems.
39

Ανάπτυξη συστημάτων δημοσιεύσεων/συνδρομών σε δομημένα δίκτυα ομοτίμων εταίρων / Content-based publish/subscribe systems over DHT-based Peer-to-Peer Networks

Αικατερινίδης, Ιωάννης 18 April 2008 (has links)
Τα τελευταία χρόνια οι εφαρμογές συνεχούς μετάδοσης ροών πληροφορίας στο διαδίκτυο έχουν γίνει ιδιαίτερα δημοφιλείς. Με τον συνεχώς αυξανόμενο ρυθμό εισόδου νέων αντικειμένων πληροφορίας, γίνεται ολοένα και πιο επιτακτική η ανάγκη για την ανάπτυξη πληροφορικών συστημάτων που να μπορούν να προσφέρουν στους χρήστες τους μόνο εκείνες τις πληροφορίες που τους ενδιαφέρουν, φιλτράροντας τεράστιους όγκους από άσχετες για τον κάθε χρήστη, πληροφορίες. Ένα μοντέλο διάδοσης πληροφορίας ικανό να ενσωματώσει τέτοιου είδους ιδιότητες, είναι το μοντέλο δημοσιεύσεων/συνδρομών βασισμένο στο περιεχόμενο ( content-based publish/subscribe) Βασική συνεισφορά μας στο χώρο είναι η εφαρμογή του μοντέλου δημοσιεύσεων/συνδρομών βασισμένου στο περιεχόμενο (content-based publish/subscribe) πάνω στα δίκτυα ομοτίμων ώστε να μπορέσουμε να προσφέρουμε στους χρήστες υψηλή εκφραστικότητα κατά την δήλωση των ενδιαφερόντων τους, λειτουργώντας σε ένα πλήρως κατανεμημένο και κλιμακώσιμο περιβάλλον. Ο κορμός των προτεινόμενων λύσεων σε αυτή τη διατριβή είναι: (α) η ανάπτυξη αλγορίθμων για την αποθήκευση των κλειδιών των δημοσιεύσεων σε κατάλληλους κόμβους του δικτύου με βάση τις συνθήκες στο περιεχόμενο που έχουν δηλωθεί και (β) αλγορίθμων δρομολόγησης δημοσιεύσεων στο διαδίκτυο έτσι ώστε να ((συναντούν)) αυτούς τους κόμβους οι οποίοι περιέχουν συνδρομές που ικανοποιούνται από την πληροφορία της δημοσίευσης. Οι προτεινόμενοι αλγόριθμοι υλοποιήθηκαν και εξετάσθηκαν ενδελεχώς με προσομοίωση μελετώντας την απόδοσή τους με βάση μετρικές όπως: η δίκαιη κατανομή του φόρτου στους κόμβους του δικτύου από τη διακίνηση μηνυμάτων κατά την επεξεργασία των συνδρομών/δημοσιεύσεων, ο συνολικός αριθμός μηνυμάτων που διακινούνται, ο συνολικός όγκος επιπλέον πληροφορίας που απαιτούν οι αλγόριθμοι να εισέλθει στο δίκτυο (network bandwidth), και ο χρόνος που απαιτείται για την ανεύρεση των συνδρομών που συζευγνύουν με κάθε δημοσίευση. / In the past few years the continuous data streams applications have become particularly popular. With the continuously increasing rate of entry of new information, it becomes imperative the need for developing appropriate infrastructures that will offer only the information that users are interested for, filtering out large volumes of irrelevant for each user, information. The content-based publish/subscribe model, is capable of handling large volumes of data traffic in a distributed, fully decentralized manner. Our basic contribution in this research area is the coupling of the content-based publish/subscribe model with the structured (DHT-based) peer-to-peer networks, offering high expressiveness to users on stating their interests. The proposed infrastructure operated in a distributed and scalable environment. The proposed solutions in this thesis are related to the development and testing: (a) of a number of algorithms for subscription processing in the network and (b) of a number of algorithms for processing the publication events. The proposed algorithms were developed and thoroughly tested with a detailed simulation-based experimentation. The performance metrics are: the fair distribution of load in the nodes of network from the distribution of messages while processing subscriptions and publication events, the total number of messages that are generated, the total volume of additional information that is required from the algorithms to operate, and the time that is required for matching publication events to subscriptions.
40

Ενδοκλαδική δυναμική ανάλυση της μεγέθυνσης των επιχειρήσεων στον τομέα της μεταποίησης και των υπηρεσιών: ο ρόλος των χρηματοδοτικών περιορισμών και των τεχνολογιών πληροφορίας και επικοινωνίας

Γιωτόπουλος, Ιωάννης 19 April 2010 (has links)
Κύριο αντικείμενο της παρούσας διδακτορικής διατριβής είναι να εξετασθεί και να αξιολογηθεί η επίδραση ποικίλων παραγόντων στην πορεία μεγέθυνσης των επιχειρήσεων. Για την πραγματοποίηση της έρευνας χρησιμοποιείται ένα σύνολο δεδομένων για επιχειρήσεις που δραστηριοποιούνται στους ελληνικούς τομείς μεταποίησης και υπηρεσιών κατά την διάρκεια της χρονικής περιόδου 1995-2001. Η ενδοκλαδική δυναμική μεγέθυνση των επιχειρήσεων αναλύεται στο πλαίσιο της στοχαστικής θεωρίας της μεγέθυνσης, η οποία εκφράζεται κυρίως από το νόμο του Gibrat. Σε αυτό το πλαίσιο, το αρχικό μέγεθος των επιχειρήσεων θεωρείται ως κρίσιμη μεταβλητή για την διερεύνηση της συμπεριφοράς μεγέθυνσης των επιχειρήσεων. Παράλληλα, η παρούσα διατριβή διερευνά εάν κάποιοι παράγοντες - όπως είναι το μέγεθος και η ηλικία των επιχειρήσεων, η διατήρηση της μεγέθυνσης των επιχειρήσεων, η ύπαρξη χρηματοδοτικών περιορισμών και η ένταση χρησιμοποίησης Τεχνολογιών Πληροφορίας και Επικοινωνίας (ΤΠΕ) - διαδραματίζουν οποιοδήποτε ρόλο στη μεγέθυνση των επιχειρήσεων. Η διδακτορική διατριβή αποτελείται από 6 κεφάλαια. Το πρώτο κεφάλαιο προσφέρει μια σύντομη εισαγωγή στο θέμα της διατριβής. Το κεφάλαιο 2 προσφέρει μια εκτενή παρουσίαση της θεωρητικής και εμπειρικής βιβλιογραφίας αναφορικά με την μεγέθυνση των επιχειρήσεων. Το κεφάλαιο 3 διερευνά τη δυναμική διαδικασία μεγέθυνσης των επιχειρήσεων στο πλαίσιο του νόμου του Gibrat και λαμβάνει υπόψη την πιθανή διατήρηση της μεγέθυνσης με την πάροδο του χρόνου, χρησιμοποιώντας ένα σύνολο δεδομένων από 3685 επιχειρήσεις που λειτουργούν στον ελληνικό τομέα μεταποίησης. Σε αυτό το εμπειρικό κεφάλαιο, εφαρμόζοντας την Μέθοδο των Ελαχίστων Τετραγώνων και την Δέλτα Μέθοδο, τα αποτελέσματα προτείνουν ότι στο συνολικό δείγμα οι μικρές επιζούσες επιχειρήσεις παρουσιάζουν μία υψηλότερη εν δυνάμει μεγέθυνση σε σχέση με τις μεγαλύτερες επιχειρήσεις. Η ταξινόμηση των επιχειρήσεων σε 4 κατηγορίες μεγέθους και σε 4 κατηγορίες ηλικίας αποδίδει ενδιαφέροντα ευρήματα. Συγκεκριμένα, παρατηρείται για τις μικρές, τις μίκρο και τις νέες επιχειρήσεις μία τάση διατήρησης των ποσοστών μεγέθυνσής τους στις επόμενες χρονικές περιόδους. Από την άλλη πλευρά, οι πορείες μεγέθυνσης των μεγάλων, μεσαίων και ηλικιωμένων επιχειρήσεων ακολουθούν έναν τυχαίο περίπατο. Στο κεφάλαιο 4 εξετάζονται οι πορείες μεγέθυνσης 4975 επιχειρήσεων που δραστηριοποιούνται στον ελληνικό τομέα των υπηρεσιών, δίνοντας ιδιαίτερη έμφαση στον ρόλο των ΤΠΕ. Η συγκεκριμένη εμπειρική ανάλυση χρησιμοποιεί τη Γενικευμένη Μέθοδος Ροπών συστήματος εφαρμόζοντας ξεχωριστές εκτιμήσεις για κάθε έναν από τους 14 διαθέσιμους κλάδους των υπηρεσιών. Τα αποτελέσματα προτείνουν ότι οι πορείες μεγέθυνσης των επιχειρήσεων εμφανίζονται να είναι ετερογενείς ανάλογα με τον τύπο ΤΠΕ των κλάδων και ότι η δυναμική διαδικασία μεγέθυνσης των επιχειρήσεων στις υπηρεσίες που σχετίζονται με ΤΠΕ μπορεί να μην απεικονίζει την αντίστοιχη που ισχύει στην μεταποίηση. Στο κεφάλαιο 5 εξετάζεται η επίδραση των χρηματοδοτικών περιορισμών στην μεγέθυνση 1734 επιχειρήσεων που δραστηριοποιούνται στον ελληνικό τομέα μεταποίησης. Ταυτόχρονα, η συγκεκριμένη εμπειρική ανάλυση διερευνά πιθανούς παράγοντες που επηρεάζουν την δυνατότητα πρόσβασης των επιχειρήσεων σε εξωτερική χρηματοδότηση, χρησιμοποιώντας την Γενικευμένη Μέθοδο Ροπών συστήματος για την εκτίμηση των υπό εξέταση υποδειγμάτων μεγέθυνσης. Ταξινομώντας τις επιχειρήσεις σε 3 ηλικιακές ομάδες επιχειρήσεων και σε 2 μεγάλες ομάδες κλάδων με κριτήριο την έντασή τους σε ΤΠΕ, αποδεικνύεται ότι στους μη-ΤΠΕ κλάδους οι νέες επιχειρήσεις αντιμετωπίζουν μεγαλύτερα προβλήματα χρηματοδότησης σε σχέση με τις πιο ηλικιωμένες επιχειρήσεις. Αντίθετα, στους ΤΠΕ κλάδους οι νέες επιχειρήσεις εμφανίζονται να είναι ικανές να αποκτήσουν όμοια πρόσβαση σε εξωτερική χρηματοδότηση όπως οι ηλικιωμένες επιχειρήσεις. Στο τελευταίο κεφάλαιο συνοψίζονται αρχικά τα βασικά ευρήματα και τα συμπεράσματα που προκύπτουν από τα τρία εμπειρικά κεφάλαια της διατριβής, κατόπιν διατυπώνονται κάποιες προτάσεις αξιοποίησης των ευρημάτων της παρούσας διατριβής στο πλαίσιο της οικονομικής πολιτικής, μετέπειτα αναφέρονται κάποιοι περιοριστικοί παράγοντες που παρουσιάστηκαν κατά την εκπόνηση της διατριβής, και τέλος προτείνονται κάποιες κατευθύνσεις για μελλοντική έρευνα. / The main objective of the present thesis is to examine and evaluate the impact of various factors on the growth patterns of firms. In doing so, we make use of a dataset on firms that operate in the Greek sectors of manufacturing and services during the period 1995-2001. Intra-industry growth dynamics of firms are analyzed in the context of the stochastic theory of growth, which is expressed mainly by Gibrat’s Law. In this framework, initial firm size is considered as a critical variable for the investigation of the behaviour of firm growth. At the same time, the present thesis investigates whether relevant factors - such as firm size, firm age, persistence of firm growth, financing constraints, Information and Communication Technologies (ICT) - play any role in the growth process of firms. The thesis consists of 6 chapters. The first chapter provides a short introduction in the subject of thesis. Chapter 2 provides an extensive empirical and theoretical literature review on firm growth. Chapter 3 investigates the dynamic growth process of firms in the context of Gibrat’s Law and considers the potential persistence of firm growth over time, using a dataset of 3685 firms that operate in the Greek manufacturing sector. In this empirical chapter, applying the OLS and the delta method, the results suggest for the total sample that small surviving firms have a higher potential of growth than larger ones. The classification of firms in 4 size groups and 4 age groups yields interesting findings. In particular, it is observed that the growth rates of micro, small and young firms tend to persist in subsequent periods. On the other hand, the growth patterns of medium, large and old firms follow a random walk. Chapter 4 examines the growth patterns of 4975 firms that act in the Greek service sector, focusing particularly on the role of ICT. This empirical analysis uses the GMM system technique to estimate separately each of the 14 available disaggregated service industries. The results show that the firm growth patterns are heterogeneous for different ICT groups of industries and the dynamic growth process of firms in ICT-related services might not resemble the firm growth patterns holding in manufacturing. Chapter 5 examines the impact of financing constraints on the growth of 1734 firms that operate in the Greek manufacturing sector. At the same time, this empirical analysis investigates possible factors that affect the ability of firms to have access to external finance, using the GMM system method in order to estimate the examined growth models. By classifying firms in 3 age groups and in 2 major groups of industries with respect to their intensity in the use of ICT, it is found that young firms face greater financing constraints than their older counterparts. On the contrary, in ICT sectors young firms appear to be able to acquire similar access to external finance as the older firms. The last chapter, summarizes the main findings of the three empirical chapters, points at relevant policy implications, limitations and directions for further research.

Page generated in 0.031 seconds