Spelling suggestions: "subject:"παγκόσμιος ιστός"" "subject:"παγκόσμιος μαστός""
1 |
Σχεδίαση μοντέλων και ανάπτυξη παγκόσμιου ιστούΜάνεσης, Χαράλαμπος 16 June 2011 (has links)
Η παρούσα διπλωματική εργασία ασχολείται με την ανάλυση του παγκόσμιου ιστού και της διερεύνησης του ως γράφου.
Το 1ο κεφάλαιο αποτελεί μια εισαγωγή στην έννοια του παγκόσμιου ιστού. Παρατίθενται ιστορικά στοιχεία όσον αφορά την δημιουργία του ίντερνετ καθώς και την εξέλιξή του και τα στάδια αυτής.
Στο 2ο κεφάλαιο δίδεται στον αναγνώστη το απαραίτητο μαθηματικό υπόβαθρο που θα χρησιμοποιηθεί στην συνέχεια και θα τον βοηθήσει στην ομαλή κατανόηση των επόμενων κεφαλαίων.
Στο 3ο κεφάλαιο έχουμε την αναπαράσταση του ίντερνετ ως γράφου. Γίνεται ανάλυση όλων των ποιοτικών χαρακτηριστικών ενός τέοιου γράφου και πως αυτά συνεισφέρουν στην δομή του.
Στο 4ο κεφάλαιο, έχουμε παράθεση κάποιων παραγωγικών μοντέλων δημιουργίας γράφων που είναι ικανοί να αναπαραστήσουν το ίντερνετ και πως αυτά εξελίσσονται και διαμορφώνονται μέχρι την οριστικοποίησή τους.
Τέλος, στο 5ο κεφάλαιο εισάγουμε την έννοια της εντροπίας πάνω σε ποιοτικά χαρακτηριστικά τέτοιων γράφων, και γίνεται σύνδεση με την παράμετρο της σταθερότητας γράφων. Επιπροσθέτως, αναπτύσσεται ένα παραγωγικό μοντέλο που λαμβάνει υπόψην την εντροπία και την σταθερότητα ως πρωτεύοντα δομικά χαρακτηριστικά. / This thesis deals with the analysis of web and investigation as a graph.
The first chapter is an introduction to the concept of world wide web. Here there are historical data for the creation of the Internet and its evolution and stages thereof.
In the second chapter the reader is given the necessary mathematical background that will be used.
In the third chapter we have a representation of the Internet as a graph. Analyzing all the qualities of such a graph and how they contribute to the structure.
In the fourth chapter, we quote some production models to create graphics that are able to represent the Internet and how they evolve and are shaped.
Finally, in the fifth chapter we introduce the concept of entropy on qualities of such graphs, and how entropy is connected to the stability of a graph. In addition, we develop a production model that takes into consideration the entropy and stability as its primary structural features.
|
2 |
Πολιτισμικοί αλγόριθμοι : Εφαρμογή στην ανάλυση της ελληνικότητας του παγκόσμιου ιστούΚατσικούλη, Παναγιώτα 12 October 2013 (has links)
Οι πολιτισμικοί αλγόριθμοι είναι εξελικτικοί αλγόριθμοι εμπνευσμένοι από την κοινωνική εξέλιξη. Περιλαμβάνουν ένα χώρο πεποιθήσεων, ένα πληθυσμό και ένα πρωτόκολλο επικοινωνίας που περιέχει συναρτήσεις που επιτρέπουν την ανταλλαγή γνώσης μεταξύ του πληθυσμού και του χώρου πεποιθήσεων. Στην παρούσα εργασία οι πολιτισμικοί αλγόριθμοι χρησιμοποιούνται για την ανάλυση της ελληνικότητας του παγκόσμιου ιστού. Είναι γνωστό πως η ελληνική γλώσσα αποτελεί πηγή άντλησης πληθώρας λέξεων για τα λεξιλόγια πολλών γλωσσών. Ο παγκόσμιος ιστός αποτελεί πλέον κλαθολικό μέσο επικοινωνίας, χώρο διακίνησης τεράστιου όγκου πληροφορίας και δεδομένων και σύγχρονο μέσο οικονομικής, πολιτικής και κοινωνικής δραστηριοποίησης. Με άλλα λόγια, ο παγκόσμιος ιστός αποτελεί σήμερα το χώρο εκείνο όπου η επίδραση του πολιτισμού, μέσω της γλώσσας, είναι εμφανής στα διάφορα κείμενα που φιλοξενούνται σε αυτόν. Η παρούσα διπλωματικής επιχειρεί να "μετρήσει" το ποσοστό των λέξεων με ελληνική προέλευση που χρησιμοποιούνται στα κάθε είδους κείμενα που εμφανίζονται στις ιστοσελίδες του παγκόσμιου ιστου. Στόχος της εργασίας είναι η διερεύνηση του κατά πόσον είναι εφικτός ο σχεδιασμός κατάλληλου μοντέλου και αντίστοιχων αλγορίθμων που θα επιτρέψουν να εκτιμηθεί η "ελληνικότητα" του παγκόσμιου ιστού. Η μεθοδολογία προσέγγισης του θέματος περιλαμβάνει το σχεδιασμό και την υλοποίηση ενός πολιτισμικού αλγορίθμου και χρήση του περιβάλλοντος προγραμματισμού Python για σχεδιασμό και υλοποίηση κατάλληλης εφαρμογής και για πειραματικό έλεγχο. / Cultural Algorithms are Evolutionary Αlgorithms inspired from societal evolution. They involve a belief space, a population space and a communication protocol which provides functions that enable exchange of knowledge between population and belief space. In this thesis cultural algorithms are used in order to analyze how greek the web is. It is commonly known that the greek language is the source of a plethora of words for other languages' dictionaries. The World Wide Web is, nowadays, a universal means of communication, a place where huge amounts of information and data are transmitted and a modern means of economical, political and social activity. In other words, the world wide web has emerged as a new kind of society. As such, it
has become the place where any culture's in
uence, throuh their language, is obvious in hosted texts. This thesis attempts to "count" the percentage of words with greek origin used in web hosted texts of any kind. The main objective is to investigate whether it is possible to design a proper model and corresponding algorithms that allow to evaluate how greek the web is. The methodology followed in this approach consists of the design and implementation of a Cultural Algorithm and of the use of the programming language Python for designing and implementing a proper application and for experimental evaluation.
|
3 |
Ανάπτυξη μεθόδων αυτόματης αναγνώρισης του φύλου χρηστών σε κείμενα του Παγκοσμίου ιστούΜαλαγκονιάρη, Διονυσία 15 December 2014 (has links)
Είναι γεγονός ότι ολοένα και περισσότεροι άνθρωποι επιλέγουν καθημερινά να χρησιμοποιήσουν τον Παγκόσμιο Ιστό προκειμένου να εκτελέσουν ένα ευρύ φάσμα δραστηριοτήτων το οποίο προσφέρεται μέσα από αυτόν. Ο αριθμός των χρηστών του διαδικτύου αυξάνεται συνεχώς, καθώς επίσης και το σύνολο των ποικίλων δραστηριοτήτων που μπορούν να εκτελεστούν μέσω των ιστοσελίδων. Όμως, έχει παρατηρηθεί ότι τα τελευταία χρόνια πέρα από πηγή πληροφόρησης, ο Παγκόσμιος Ιστός αποτελεί και ένα σημαντικότατο μέσο έκφρασης για τους ανθρώπους αλλά και επικοινωνίας μεταξύ τους. Εκατομμύρια χρηστών του Παγκόσμιου Ιστού χρησιμοποιούν καθημερινά εφαρμογές του διαδικτύου μέσω των οποίων αλληλεπιδρούν. Κάθε ένας λοιπόν από αυτούς τους χρήστες μπορεί ελεύθερα να εκφράσει την άποψή του πάνω σε διάφορα ζητήματα που τον απασχολούν, να σχολιάσει της απόψεις των άλλων χρηστών αλλά και να επικοινωνήσει με αυτούς. Σύμφωνα με τα παραπάνω λοιπόν, οι χρήστες του διαδικτύου μπορούν να επιλέξουν ανάμεσα σε πολλά μέσα που είναι διαθέσιμα όπως ιστολόγια, φόρουμ, ιστότοπους και μέσα κοινωνικής δικτύωσης προκειμένου να επικοινωνούν.
Αρκετό ερευνητικό ενδιαφέρον παρουσιάζει η συλλογή, ανάλυση και αξιολόγηση δεδομένων από τον Παγκόσμιο Ιστό που έχουν παραχθεί από χρήστες. Επίσης ιδιαίτερο ενδιαφέρον παρουσιάζει ο συσχετισμός του χρήστη με το κείμενο που έχει παράξει, και η αναγνώριση κάποιων κοινωνικών χαρακτηριστικών του, όπως για παράδειγμα, αν ο χρήστης του κειμένου χ είναι άνδρας ή γυναίκα. Μια τέτοια αναγνώριση είναι δυνατή με τον εντοπισμό αντιπροσωπευτικών γνωρισμάτων ανδρικής ή γυναικείας γραφής και λόγου σε κειμενικά δεδομένα χρηστών. Η μελέτη λοιπόν των χαρακτηριστικών του περιεχομένου το οποίο έχει παραχθεί από χρήστες είναι κομβικό σημείο σε μια σειρά ερευνητικών πεδίων. Χαρακτηριστικό παράδειγμα αποτελούν οι μελέτες στα πλαίσια του πεδίου της εξόρυξης πληροφορίας (text mining), οι οποίες βασίζονται στο περιεχόμενο των χρηστών για να αλιεύσουν τις απόψεις για ένα θέμα ή για ένα προϊόν. Ως αποτέλεσμα λοιπόν, της συνεχώς αυξανόμενης δραστηριοποίησης των χρηστών είναι η συνεχής αύξηση του όγκου δεδομένων που έχουν παραχθεί από χρήστες (User Generated Content - UGC) στις ιστοσελίδες του Παγκόσμιου Ιστού. Συγκεκριμένα, το πεδίο UGC ([1],[2]) ασχολείται με την αναγνώριση και εξόρυξη web περιεχομένου που έχει παραχθεί από τους χρήστες. Σε αυτό το σημείο είναι σημαντικό να αναφέρουμε ότι οι παραπάνω μελέτες που αναφέραμε είναι αρκετά χρήσιμες στην ανάπτυξη ερευνητικών αλλά και εμπορικών εφαρμογών.
Στόχος της προτεινόμενης διπλωματικής εργασίας είναι η μελέτη δεδομένων κειμένου τα οποία θα αντλήσουμε από τον Παγκόσμιο Ιστό, εστιάζοντας στα διαφοροποιητικά χαρακτηριστικά που θα εντοπιστούν τα οποία στη συνέχεια θα βοηθήσουν στην υλοποίηση του συστήματος το οποίο θα μπορεί με όσο το δυνατόν μεγαλύτερο ποσοστό ακρίβειας να εντοπίζει το φύλο του χρήστη που έχει δημιουργήσει κείμενο στον Παγκόσμιο Ιστό. Μια τέτοια προσπάθεια είναι ιδιαίτερα ενδιαφέρουσα και σημαντική, καθώς καλείται να συμβάλλει στην ερευνητική δραστηριότητα σε αυτό το σχετικά νέο πεδίο ([3], [4]). Η αναγνώριση του φύλου ενός χρήστη, χωρίς σε καμία περίπτωση να θίγεται η ανωνυμία του και τα προσωπικά του δεδομένα, βασίζεται μόνο σε κειμενικά του δεδομένα μπορεί να αποτελέσει ένα ιδιαίτερο εργαλείο με πολλές εφαρμογές. Μια σημαντική εφαρμογή αυτού εργαλείου μπορεί να αποτελέσει και η στοχευμένη διαφήμιση.
Στα πλαίσια της προτεινόμενης διπλωματικής θα ακολουθηθούν τα παρακάτω βήματα. Αρχικά θα μελετηθεί η απαραίτητη βιβλιογραφία, η οποία θα μας παρέχει την απαραίτητη θεωρητική γνώση των επιστημονικών πεδίων που αφορούν στην έρευνά μας, αλλά και τις υπάρχουσες μεθοδολογίες και τεχνικές. Στη συνέχεια θα προχωρήσουμε με τη συλλογή των δεδομένων που θα χρησιμοποιήσουμε κατά τη διάρκεια της εργασίας μας. Από τα κειμενικά δεδομένα που θα συλλέξουμε αλλά και τη βιβλιογραφική επισκόπηση θα προκύψει και η αναγνώριση και η εξαγωγή των χαρακτηριστικών που θα μας βοηθήσουν στην ανίχνευση του γυναικείου/ανδρικού λόγου σε ένα δοκιμαστικό σύνολο δεδομένων. Το επόμενο βήμα θα αποτελεί η ανάπτυξη μετρικών κατηγοριοποίησης κειμένων χρήστη ανάλογα με το φύλο του. Τελειώνοντας, θα αξιολογηθεί αυτή η προσπάθεια κατηγοριοποίησης, ώστε να υλοποιηθεί κατάλληλο σύστημα αναγνώρισης του φύλου χρηστών σε κείμενα του Παγκόσμιου Ιστού. / It is a fact that more and more people choose daily to use the World Wide Web to perform a wide range of activities which are offered through it. The number of internet users is increasing, as well as all the various activities that can be performed through the WebPages. However, it has been observed recently that apart from an information source, the Web is a very important expression tool for people and communication between them. Millions of web users use daily internet applications through which they interact. Each of these users can freely express his opinion on various issues that concern him, to comment on the opinions of other users and communicate with them. According to the above, Internet users can choose among many available means to communicate such as blogs , forums , websites and social media.
The collection, analysis and evaluation of data from the Web produced by users, is interesting in terms of research. Also of particular interest is the correlation between the user and the text that has produced, and the recognition of some social features, such as if the user of the text x is a man or woman. Such recognition is possible by identifying representative features of male or female writing and speech in user’s text data. Therefore the study of content characteristics that have been produced by users is a key point in a number of research fields. An example are the studies within the field of data mining (text mining), which are based on the users content in order to fish their opinions on a topic or product. As a result, the growing user activity is constantly increasing the volume of data generated by users (User Generated Content - UGC) sites on the Web. Specifically, the scope UGC ([1], [2]) deals with the recognition and extraction of web content produced by users. At this point it is important to mention that the above studies are quite useful in developing research and commercial applications.
The purpose of this project is to analyze the text data that we took from the Web, focusing on distinctive features that will be identified, which will later help to be implemented into the system resulting in the gender of the user who created the text on the Web. Such effort is particularly interesting and important, as contributes to research in this relatively new field ( [3 ] , [4 ] ) . Recognizing the gender of a user, without in any way affecting the anonymous and personal data, based only on text data can be a special tool with many applications. A major application of this tool can also be targeted advertising.
This thesis will follow the steps below. Initially we will study the necessary literature, which will provide us with the necessary theoretical knowledge in scientific fields related to our research, but also the existing methodologies and techniques. Then we will proceed with the collection of data that will be used during our work. From the text data we collected and literature review, the recognition and extraction of features will occur that will help us to detect the female / male ratio in a test dataset. The next step is to develop categorizing text metrics according to user’s gender. Finally, we evaluate this categorization effort in order to implement an appropriate system that identifies the sex of users in texts of the Web.
|
4 |
Η χρήση σημασιολογικών δικτύων για τη διαχείριση του περιεχομένου του παγκόσμιου ιστού / Managing the web content through the use of semantic networksΣτάμου, Σοφία 25 June 2007 (has links)
Η παρούσα διατριβή πραγματεύεται την ενσωμάτωση ενός σημασιολογικού δικτύου λημμάτων σ’ ένα σύνολο εφαρμογών Διαδικτύου για την αποτελεσματική διαχείριση του περιεχομένου του Παγκόσμιου Ιστού. Τα δίκτυα σημασιολογικά συσχετισμένων λημμάτων αποτελούν ένα είδος ηλεκτρονικών λεξικών στα οποία καταγράφεται σημασιολογική πληροφορία για τα λήμματα που περιλαμβάνουν, όπου τα τελευταία αποθηκεύονται σε μια δενδρική δομή δεδομένων. Ο τρόπος δόμησης του περιεχομένου των σημασιολογικών δικτύων παρουσιάζει αρκετές ομοιότητες με την οργάνωση που ακολουθούν οι ιστοσελίδες στον Παγκόσμιο Ιστό, με αποτέλεσμα τα σημασιολογικά δίκτυα να αποτελούν έναν σημασιολογικό πόρο άμεσα αξιοποιήσιμο από ένα πλήθος εφαρμογών Διαδικτύου που καλούνται να διαχειριστούν αποδοτικά το πλήθος των δεδομένων που διακινούνται στον Παγκόσμιο Ιστό. Μετά από επισκόπηση των τεχνικών που παρουσιάζονται στη διεθνή βιβλιογραφία για τη διαχείριση του περιεχομένου του Παγκόσμιου Ιστού, προτείνεται και υλοποιείται ένα πρότυπο μοντέλο διαχείρισης ιστοσελίδων, το οποίο κάνοντας εκτεταμένη χρήση ενός εμπλουτισμένου σημασιολογικού δικτύου λημμάτων, εντοπίζει εννοιολογικές ομοιότητες μεταξύ του περιεχομένου διαφορετικών ιστοσελίδων και με βάση αυτές επιχειρεί και κατορθώνει την αυτοματοποιημένη και αποδοτική δεικτοδότηση, κατηγοριοποίηση και ταξινόμηση του πλήθους των δεδομένων του Παγκόσμιου Ιστού. Για την επίδειξη του μοντέλου διαχείρισης ιστοσελίδων που παρουσιάζεται, υιοθετούμε το μοντέλο πλοήγησης στους θεματικούς καταλόγους του Παγκόσμιου Ιστού και καταδεικνύουμε πειραματικά τη συμβολή των σημασιολογικών δικτύων σε όλα τα στάδια της δημιουργίας θεματικών καταλόγων Διαδικτύου. Συγκεκριμένα, εξετάζεται η συνεισφορά των σημασιολογικών δικτύων: (i) στον ορισμό και εμπλουτισμό των θεματικών κατηγοριών των καταλόγων του Παγκόσμιου Ιστού, (ii) στην επεξεργασία και αποσαφήνιση του περιεχομένου των ιστοσελίδων, (iii) στον αυτόματο εμπλουτισμό των θεματικών κατηγοριών ενός δικτυακού καταλόγου, (iv) στην ταξινόμηση των ιστοσελίδων που έχουν δεικτοδοτηθεί στις αντίστοιχες θεματικές κατηγορίες ενός καταλόγου, (v) στη διαχείριση των περιεχομένων των θεματικών καταλόγων με τρόπο που να διασφαλίζει την παροχή χρήσιμων ιστοσελίδων προς τους χρήστες, και τέλος (vi) στην αναζήτηση πληροφορίας στους θεματικούς καταλόγους του Παγκόσμιου Ιστού. Η επιτυχία του προτεινόμενου μοντέλου επιβεβαιώνεται από τα αποτελέσματα ενός συνόλου πειραματικών εφαρμογών που διενεργήθηκαν στο πλαίσιο της παρούσας διατριβής, όπου καταδεικνύεται η συμβολή των σημασιολογικών δικτύων στην αποτελεσματική διαχείριση των πολυάριθμων και δυναμικά μεταβαλλόμενων ιστοσελίδων του Παγκόσμιου Ιστού. Η σπουδαιότητα του προτεινόμενου μοντέλου διαχείρισης ιστοσελίδων, έγκειται στο ότι, εκτός από αυτόνομο εργαλείο διαχείρισης και οργάνωσης ιστοσελίδων, συνιστά το πρώτο επίπεδο επεξεργασίας σε ευρύτερο πεδίο εφαρμογών, όπως είναι η εξαγωγή περιλήψεων, η εξόρυξη πληροφορίας, η θεματικά προσανατολισμένη προσκομιδή ιστοσελίδων, ο υπολογισμός του ρυθμού μεταβολής των δεδομένων του Παγκόσμιου Ιστού, η ανίχνευση ιστοσελίδων με παραποιημένο περιεχόμενο, κτλ. / This dissertation addresses the incorporation of a semantic network into a set of Web-based applications for the effective management of Web content. Semantic networks are a kind of machine readable dictionaries, which encode semantic information for the lemmas they contain, where the latter are stored in a tree structure. Semantic networks store their contents in a similar way to the organization that Web pages exhibit on the Web graph; a feature that makes semantic networks readily usable by several Web applications that aim at the efficient management of the proliferating and constantly changing Web data. After an overview of the techniques that have been employed for managing the Web content, we propose and implement a novel Web data management model, which relies on an enriched semantic network for locating semantic similarities in the context of distinct Web pages. Based on these similarities, our model attempts and successfully achieves the automatic and effective indexing, categorization and ranking of the numerous pages that are available on the Web. For demonstrating the potential of our Web data management model, we adopt the navigation model in Web thematic directories and we experimentally show the contribution of semantic networks throughout the construction of Web catalogs. More specifically, we study the contribution of semantic networks in: (i) determining and enriching the thematic categories of Web directories, (ii) processing and disambiguating the contents of Web pages, (iii) automatically improving the thematic categories of Web directories, (iv) ordering Web pages that have been assigned in the respective categories of a Web directory, (v) managing the contents of Web directories in a way that ensures the availability of useful Web data to the directories’ users, and (vi) searching for information in the contents of Web directories. The contribution of our model is certified by the experimental results that we obtained from a numerous of testing applications that we run in the framework of our study. Obtained results demonstrate the contribution of semantic networks in the effective management of the dynamically evolving Web content. The practical outcome of the research presented herein, besides offering a fully-fledge infrastructure for the efficient manipulation and organization of the Web data, it can play a key role in the development of numerous applications, such as text summarization, information extraction, topical-focused crawling, measuring the Web’s evolution, spam detection, and so forth.
|
5 |
Αποδοτικοί αλγόριθμοι εξατομίκευσης βασισμένοι σε εξόρυξη γνώσης απο δεδομένα χρήσης Web / Effective personalization algorithms based on Web usage miningΡήγκου, Μαρία 25 June 2007 (has links)
Το Web αποτελεί πλέον µια τεράστια αποθήκη πληροφοριών και συνεχίζει να µεγαλώνει εκθετικά, ενώ η ανθρώπινη ικανότητα να εντοπίζει, να επεξεργάζεται και να αντιλαµβάνεται τις πληροφορίες παραµένει πεπερασµένη. Το πρόβληµα στις µέρες µας δεν είναι η πρόσβαση στην πληροφορία, αλλά το ότι όλο και περισσότεροι άνθρωποι µε διαφορετικές ανάγκες και προτιµήσεις πλοηγούνται µέσα σε περίπλοκες δοµές Web χάνοντας στην πορεία το στόχο της αναζήτησής τους. Η εξατοµίκευση, µια πολυσυλλεκτική ερευνητική περιοχή, αποτελεί µια από τις πιο πολλά υποσχόµενες προσεγγίσεις για τη λύση του προβλήµατος του πληροφοριακού υπερφόρτου, παρέχοντας κατάλληλα προσαρµοσµένες εµπειρίες πλοήγησης. Η διατριβή εξετάζει αλγοριθµικά θέµατα που σχετίζονται µε την υλοποίηση αποδοτικών σχηµάτων εξατοµίκευσης σε περιβάλλον web, βασισµένων σε εξόρυξη γνώσης από δεδοµένα χρήσης web. Οι τεχνικές ανακάλυψης προτύπων που µελετώνται περιλαµβάνουν το clustering, την εξόρυξη κανόνων συσχέτισης και την ανακάλυψη σειριακών προτύπων, ενώ οι προτεινόµενες λύσεις εξατοµίκευσης που βασίζονται στις δύο τελευταίες τεχνικές συνδυάζουν τα δεδοµένα χρήσης µε δεδοµένα περιεχοµένου και δοµής. Ειδικότερα, στο πρώτο κεφάλαιο της διατριβής, ορίζεται το επιστηµονικό πεδίο των σύγχρονων τεχνολογιών εξατοµίκευσης στο περιβάλλον του web, εστιάζοντας στη στενή σχέση τους µε το χώρο του web mining, στοιχειοθετώντας µε αυτό τον τρόπο το γενικότερο πλαίσιο αναφοράς. Στη συνέχεια, περιγράφονται τα διαδοχικά στάδια της τυπικής διαδικασίας εξατοµίκευσης µε έµφαση στη φάση ανακάλυψης προτύπων και τις τεχνικές machine learning που χρησιµοποιούνται σε δεδοµένα χρήσης web και το κεφάλαιο ολοκληρώνεται µε µια συνοπτική περιγραφή της συµβολής της διατριβής στο πεδίο της εξατοµίκευσης σε περιβάλλον web. Στο δεύτερο κεφάλαιο προτείνεται ένας αλγόριθµος για εξατοµικευµένο clustering, που βασίζεται σε µια δοµή range tree που διατρέχεται σε πρώτη φάση για τον εντοπισµό των web αντικειµένων που ικανοποιούν τα ατοµικά κριτήρια του χρήστη. Στα αντικείµενα αυτά, εφαρµόζεται στη συνέχεια clustering, ώστε να είναι δυνατή η αποδοτικότερη διαχείρισή τους και να διευκολυνθεί η διαδικασία λήψης αποφάσεων από πλευράς χρήστη. O αλγόριθµος που προτείνεται αποτελεί βελτίωση του αλγόριθµου kmeans range, καθώς εκµεταλλεύεται το range tree που έχει ήδη κατασκευαστεί κατά το βήµα της εξατοµίκευσης και το χρησιµοποιεί ως τη βασική δοµή πάνω στην οποία στηρίζεται το βήµα του clustering χρησιµοποιώντας εναλλακτικά του k-means, τον αλγόριθµο k-windows. Ο συνολικός αριθµός παραµέτρων που χρησιµοποιούνται για την µοντελοποίηση των αντικειµένων υπαγορεύει και τον αριθµό των διαστάσεων του χώρου εργασίας. Η συνολική πολυπλοκότητα χρόνου του αλγορίθµου είναι ίση µε O(logd-2n+v), όπου n είναι ο συνολικός αριθµός των στοιχείων που δίνονται σαν είσοδος και v είναι το µέγεθος της απάντησης. Στο τρίτο κεφάλαιο της διατριβής προτείνεται ένα αποδοτικό σχήµα πρόβλεψης µελλοντικών δικτυακών αιτήσεων βασισµένο στην εξόρυξη σειριακών προτύπων πλοήγησης (navigation patterns) από αρχεία server log, σε συνδυασµό µε την τοπολογία των συνδέσµων του website και τη θεµατική κατηγοριοποίηση των σελίδων του. Τα µονοπάτια που ακολουθούν οι χρήστες κατά την πλοήγηση καταγράφονται, συµπληρώνονται µε τα κοµµάτια που λείπουν λόγω caching και διασπώνται σε συνόδους και σε επεισόδια, ώστε να προκύψουν σηµασιολογικά πλήρη υποσύνολά τους. Τα πρότυπα που εντοπίζονται στα επεισόδια µοντελοποιούνται µε τη µορφή n-grams και οι αποφάσεις πρόβλεψης βασίζονται στη λογική ενός µοντέλου n-gram+ που προσοµοιάζει το all Kth-τάξης µοντέλο Markov και πιο συγκεκριµένα, το επιλεκτικό µοντέλο Markov. Η υβριδική προσέγγιση που υιοθετεί το προτεινόµενο σχήµα, επιτυγχάνει 100% coverage, ενώ κατά τις πειραµατικές µετρήσεις το άνω όριο της ακρίβειας έφθασε το 71,67% στο σύνολο των προβλέψεων που επιχειρήθηκαν. Το χαρακτηριστικό του πλήρους coverage καθιστά το σχήµα κατάλληλο για συστήµατα παραγωγής συστάσεων, ενώ η ακρίβεια µπορεί να βελτιωθεί περαιτέρω αν µεγαλώσει το παράθυρο πρόβλεψης. Στο τέταρτο κεφάλαιο της διατριβής, εξετάζεται η ενσωµάτωση λειτουργιών εξατοµίκευσης στις ηλεκτρονικές µαθησιακές κοινότητες και προτείνεται ένα σύνολο από δυνατότητες εξατοµίκευσης που διαφοροποιούνται ως προς τα δεδοµένα στα οποία βασίζονται, την τεχνική εξόρυξης προτύπων που χρησιµοποιούν και την αντίστοιχη πολυπλοκότητα υλοποίησης. Οι υπηρεσίες αυτές περιλαµβάνουν: (α) εξατοµίκευση µε βάση το ρόλο του χρήστη, (β) εξατοµίκευση µε βάση το βαθµό δραστηριοποίησης του χρήστη, (γ) εξατοµίκευση µε βάση την ανακάλυψη προτύπων στα ατοµικά ιστορικά µελέτης των εκπαιδευόµενων και (δ) εξατοµίκευση µε βάση συσχετίσεις του περιεχοµένου των µαθηµάτων. / The Web has become a huge repository of information and keeps growing exponentially under no editorial control, while the human capability to find, read and understand content remains constant. Providing people with access to information is not the problem; the problem is that people with varying needs and preferences navigate through large Web structures, missing the goal of their inquiry. Web personalization is one of the most promising approaches for alleviating this information overload, providing tailored Web experiences. The present dissertation investigates algorithmic issues concerning the implementation of effective personalization scenarios in the web environment, based on web usage mining. The pattern discovery techniques deployed comprise clustering, association rule mining and sequential pattern discovery, while the proposed personalization schemas based on the latter two techniques integrate usage data with content and structure information. The first chapter introduces the scientific field of current web personalization technology, focusing on its close relation with the web mining domain, providing this way the general framework of the dissertation. Next, the typical web personalization process is described with emphasis on the pattern discovery phase along with an overview of the machine learning techniques applied on web usage data. The chapter concludes with a synoptic description of the contribution of the dissertation to web personalization research and applications domian. The second chapter introduces an algorithm for personalized clustering based on a range tree structure, used for identifying all web objects satisfying a set of predefined personal user preferences. The returned objects go through a clustering phase before reaching the end user, thus allowing more effective manipulation and supporting the decision making process. The proposed algorithm improves the k-means range algorithm, as it uses the already constructed range tree (i.e. during the personalized filtering phase) as the basic structure on which the clustering step is based, applying instead of the kmeans, the k-windows algorithm. The total number of parameters used for modeling the web objects dictates the number of dimensions of the Euclidean space representation. The time complexity of the algorithm is O(logd-2n+v), where d is the number of dimensions, n is the total number of web objects and v is the size of the answer. The third chapter proposes an effective prediction schema for web requests based on extracting sequential navigational patterns from server log files, combined with the website link structure and the thematic categorization of its content pages. The schema records the paths followed by users when browsing through the website pages, completes them with the missing parts (due to caching) and identifies sessions and episodes, so as to derive meaningful path subsets. The patterns extracted from the episodes are modeled in the form of n-grams and the prediction decisions are based on an n-gram+ model that resembles an all Kth-order Markov model and more specifically a selective Markov model. The hybrid approach adapted achieves full-coverage prediction, and reached the upper limit of 71,67% presicion when tested at an experimental setting. The full-coverage feature makes the proposed schema quite suitable for recommendation engines, while precision is further improved when using a larger prediction window. The fourth chapter examines the integration of personalized functionalities in the framework of electronic learning communities and studies the advantages derived from generating dynamic adaptations on the layout, the content as well as the learning scenarios delivered to each community student based on personal data, needs and preferences. More specifically, the chapter proposes a set of personalization functions differentiated by the data they use, the pattern discovery technique they apply and the resulting implementation complexity. These services comprise: (a) personalization based on the user role in the community, (b) personalization based on the level of user activity, (c) personalization based on discovery of association rules in the personal progress files of students, and (d) personalization based on predefined content correlations among learning topics.
|
6 |
Μελέτη περιπτώσεων και ανάλυση δυνατοτήτων λογισμικών υποδομής για εφαρμογές δημιουργίας και υποστήριξης ερωτηματολογίων στον παγκόσμιο ιστόΛουκοπούλου, Μαρία 25 January 2010 (has links)
Στόχος της παρούσας διπλωματικής εργασίας είναι να γίνει μια μελέτη πάνω στο υπάρχον λογισμικό για τη δημιουργία και υποστήριξη ερωτηματολογίων στον Παγκόσμιο Ιστό. Θα μελετηθούν οι δυνατότητες που προσφέρουν τα διαδικτυακά ερωτηματολόγια όπως επίσης και οι περιορισμοί τους και θα παρουσιαστούν τα κριτήρια που μπορούν να βοηθήσουν έναν ερευνητή να επιλέξει το κατάλληλο για την έρευνά του εργαλείο ανάπτυξης και υποστήριξης online ερωτηματολογίων. Στη συνέχεια θα γίνει μια παρουσίαση κάποιων open source εργαλείων δημιουργίας και υποστήριξης διαδικτυακών ερωτηματολογίων και θα γίνει μία σύγκριση μεταξύ αυτών. Θα παρουσιαστεί μια πιλοτική εφαρμογή, χρησιμοποιώντας το επιλεγμένο ως ισχυρότερο open source εργαλείο από τα παραπάνω και κατά τη δημιουργία του ερωτηματολογίου θα γίνει και παρουσίαση του συγκεκριμένου εργαλείου. / The aim of this paper is to examine the existant software for online surveys.The benefits of the web-based surveys will be examined as well as their limitations and the criteria for choosing the appropriate tool for each research are going to be presented. There will also be presented some open source tools for online surveys and following that, these tools are going to be compared with each other. At the end of this paper with the chosen as the most powerful tool of the above, a survey is going to be created and at the same time the characteristics of this software will be demonstrated.
|
7 |
Αναγνώριση επιθέσεων σε δίκτυα εφαρμογών με δίκτυα κατανεμημένων αισθητήρωνΣπανός, Δημήτρης 19 July 2012 (has links)
Η αλματώδης ανάπτυξη του Παγκόσμιου Ιστού και των εφαρμογών του καθιστούν απαραίτητη τη συζήτηση για την ασφάλεια πληροφοριών στα πλαίσιά του. Στην εργασία αυτή παρουσιάζονται τα δομικά κομμάτια που υλοποιούν τον Παγκόσμιο Ιστό, η υποδομή του Διαδικτύου, το περιβάλλον του χρήστη και το περιβάλλον των εξυπηρετητών Ιστού (web browsers). Κάθε ένα από αυτά τα μέρη έχει τις δικές του ευπάθειες ασφάλειας και τις μεθόδους αντιμετώπισης κάθε μιας. Παρουσιάζονται οι κυριότερες απειλές ανά δομικό στοιχείο του Ιστού και κάποιες τεχνικές προφύλαξης από αυτές. Κυρίαρχο ρόλο στις τεχνικές αντιμετώπισης επιθέσεων στον Παγκόσμιο Ιστό παίζουν ο ορθός σχεδιασμός, η ενίσχυση της ασφάλειας των εμπλεκόμενων πρωτοκόλλων, οι τεχνικές κρυπτογράφισης αλλά και η προσωπική ευθύνη κάθε χρήστη του Ιστού. / Rapid growth of World Wide Web leads to a continuous discussion on maintaining information security through it. This essay presents the parts which implement World Wide Web, thus Internet structure, end user environment and web server environment. Each of these parts has different security vulnerabilities and measures of their mitigation. The most important security threats along with mitigation techniques are described. Almost all mitigation techniques come down to use of proper application design, cryptography and personal responsibility of every use and administrator.
|
8 |
Μεθοδολογία αυτόματου σημασιολογικού σχολιασμού στο περιεχόμενο ιστοσελίδωνΣπύρος, Γεώργιος 14 December 2009 (has links)
Στις μέρες μας η χρήση του παγκόσμιου ιστού έχει εξελιχθεί σε ένα κοινωνικό φαινόμενο. Η εξάπλωσή του είναι συνεχής και εκθετικά αυξανόμενη. Στα χρόνια που έχουν μεσολαβήσει από την εμφάνισή του, οι χρήστες έχουν αποκτήσει ένα βαθμό εμπειρίας και έχει γίνει από πλευράς τους ένα σύνολο αποδοχών βασισμένων σε αυτή ακριβώς την εμπειρία από τη χρήση του παγκόσμιου ιστού. Πιο συγκεκριμένα έχει γίνει αντιληπτό από τους χρήστες το γεγονός ότι οι ιστοσελίδες με τις οποίες αλληλεπιδρούν καθημερινά σχεδόν είναι δημιουργήματα κάποιων άλλων χρηστών. Επίσης έχει γίνει αντιληπτό ότι ο κάθε χρήστης μπορεί να δημιουργήσει τη δική του ιστοσελίδα και μάλιστα να περιλάβει σε αυτή αναφορές προς μια άλλη ιστοσελίδα κάποιου άλλου χρήστη. Οι αναφορές αυτές όμως, συνήθως δεν εμφανίζονται απλά και μόνο με τη μορφή ενός υπερσυνδέσμου. Τις περισσότερες φορές υπάρχει και κείμενο που τις συνοδεύει και που παρέχει πληροφορίες για το περιεχόμενο της αναφερόμενης ιστοσελίδας.
Σε αυτή τη διπλωματική εργασία περιγράφουμε μια μεθοδολογία για τον αυτόματο σημασιολογικό σχολιασμό του περιεχομένου ιστοσελίδων. Τα εργαλεία και οι τεχνικές που περιγράφονται βασίζονται σε δύο κύριες υποθέσεις. Πρώτον, οι άνθρωποι που δημιουργούν και διατηρούν ιστοσελίδες περιγράφουν άλλες ιστοσελίδες μέσα σε αυτές. Δεύτερον, οι άνθρωποι συνδέουν τις ιστοσελίδες τους με την εκάστοτε ιστοσελίδα την οποία περιγράφουν μέσω ενός συνδέσμου αγκύρωσης (anchor link) που είναι καθαρά σημαδεμένος με μία συγκεκριμένη ετικέτα (tag) μέσα στον εκάστοτε HTML κώδικα.
Ο αυτόματος σημασιολογικός σχολιασμός που επιχειρούμε για μια ιστοσελίδα ισοδυναμεί με την εύρεση μιας ετικέτας (tag) ικανής να περιγράψει το περιεχόμενο της. Η εύρεση αυτής της ετικέτας είναι μια διαδικασία που βασίζεται σε μία συγκεκριμένη μεθοδολογία που αποτελείται από ένα συγκεκριμένο αριθμό βημάτων. Κάθε βήμα από αυτά υλοποιείται με τη χρήση διαφόρων εργαλείων και τεχνικών και τροφοδοτεί με την έξοδό του την είσοδο του επόμενου βήματος.
Βασική ιδέα της μεθοδολογίας είναι η συλλογή αρκετών κειμένων αγκύρωσης (anchor texts), καθώς και ενός μέρους του γειτονικού τους κειμένου, για μία ιστοσελίδα. Η συλλογή αυτή προκύπτει ύστερα από επεξεργασία αρκετών ιστοσελίδων που περιέχουν υπερσυνδέσμους προς τη συγκεκριμένη ιστοσελίδα. Η σημασιολογική ετικέτα για μια ιστοσελίδα προκύπτει από την εφαρμογή διαφόρων τεχνικών γλωσσολογικής επεξεργασίας στη συλλογή των κειμένων που την αφορούν. Έτσι προκύπτει το τελικό συμπέρασμα για το σημασιολογικό σχολιασμό του περιεχομένου της ιστοσελίδας. / Nowadays the World Wide Web usage has evolved into a social phenomenon. It’s spread is constant and it’s increasing exponentially. During the years that have passed since it’s first appearance, the users have gained a certain level of experience and they have made some acceptances through this experience. They have understood that the web pages with which they interact in their everyday web activities, are creations from some other users. It has also become clear that every user can create his own web page and include in it references to some other pages of his liking. These references don’t simply exist as hyperlinks. Most of the time they are accompanied by some text which provides useful information about the referenced page’s content.
In this diploma thesis we describe a methodology for the automatic annotation of a web page’s contents. The tools and techniques that are described, are based in two main hypotheses. First, humans that create web pages describe other web pages inside them. Second, humans connect their web pages with any web page they describe via an anchor link which is clearly described with a tag in each page’s HTML code.
The automatic semantic annotation that we attempt here for a web page is the process of finding a tag able to describe the page’s contents. The finding of this tag is a process based in a certain methodology which consists of a number of steps. Each step of these is implemented using various tools and techniques and his output is the next step’s input.
The basic idea behind our methodology is to collect as many anchor texts as possible, along with a window of words around them, for each web page. This collection is the result of a procedure which involves the processing of many web pages that contain hyperlinks to the web page which we want to annotate. The semantic tag for a web page is derived from the usage of certain natural language processing techniques in the collection of documents that refer to the web page. Thus the final conclusion for the web page’s contents annotation is extracted.
|
9 |
Αποτελεσματικές τεχνικές διαχείρισης δεδομένων στον Παγκόσμιο Ιστό / Efficient techniques for Web data managementΙωάννου, Ζαφειρία-Μαρίνα 24 November 2014 (has links)
Η εξέλιξη της τεχνολογίας των υπολογιστών σε συνδυασμό με την πρόοδο της τεχνολογίας των βάσεων δεδομένων έχουν συμβάλει στην ανάπτυξη νέων αποδοτικών και αυτοματοποιημένων τεχνικών για την αποτελεσματική συλλογή, αποθήκευση και διαχείριση των δεδομένων. Ως συνέπεια, ο όγκος των δεδομένων που αποθηκεύονται και είναι ευρέως διαθέσιμα ηλεκτρονικά αυξάνεται ραγδαία και η ανάγκη ανάπτυξης και χρήσης αποδοτικών μεθόδων ανάλυσης για την εξαγωγή χρήσιμης πληροφορίας καθίσταται ολοένα και πιο επιτακτική.
Η εξόρυξη δεδομένων (data mining) ως ένα αναδυόμενο πεδίο διεπιστημονικών εφαρμογών συνδυάζει παραδοσιακές μεθόδους ανάλυσης δεδομένων με εξελιγμένους αλγόριθμους και διαδραματίζει σημαντικό ρόλο στην επεξεργασία μεγάλου όγκου δεδομένων.
Ο όρος οπτικοποίηση δεδομένων (data visualization) αναφέρεται στη μελέτη τεχνικών οπτικής αναπαράστασης δεδομένων χρησιμοποιώντας γραφικά, κίνηση, τρισδιάστατες απεικονίσεις και άλλα πολυμεσικά εργαλεία. Στόχος των τεχνικών οπτικοποίησης είναι παρουσίαση ενός συνόλου δεδομένων με τρόπο σαφή και αποτελεσματικό που να παρέχει τη δυνατότητα εξαγωγής συμπερασμάτων και ανακάλυψης συσχετίσεων που διαφορετικά θα παρέμεναν άγνωστες. Στη διεθνή βιβλιογραφία, έχουν παρουσιαστεί αρκετές τεχνικές οπτικοποίησης δεδομένων, ενώ τα τελευταία χρόνια η επιστημονική κοινότητα έχει εστιάσει το ενδιαφέρον της και στην οπτικοποίηση των αποτελεσμάτων της εξόρυξης δεδομένων.
Στα πλαίσια αυτής της μεταπτυχιακής διπλωματικής εργασίας, προτείνεται μια αποδοτική τεχνική εξόρυξης δεδομένων που βασίζεται σε γνωστές μεθόδους συσταδοποίησης, όπως ο Ιεραρχικός αλγόριθμος και o αλγόριθμος Spherical K-means και είναι κατάλληλη να εφαρμοστεί για την ανάλυση και εξαγωγή χρήσιμης γνώσης σε διαφορετικά σύνολα δεδομένων. Η προτεινόμενη τεχνική εφαρμόστηκε σε δύο διαφορετικούς τύπους δεδομένων: α) κειμενικά δεδομένα (textual data) που προέρχονται από τη βάση δεδομένων του PubMed, β) αριθμητικά δεδομένα (numerical data) από τη βάση δεδομένων της FINDbase. Επιπλέον, παρουσιάζεται μια μελέτη τεχνικών οπτικοποίησης και η ανάπτυξη σύγχρονων εφαρμογών οπτικοποίησης, τόσο για την αποτελεσματική αναπαράσταση των αρχικών δεδομένων μιας συλλογής (πριν από την επεξεργασία τους), όσο και των αποτελεσμάτων που προέκυψαν από την προτεινόμενη τεχνική συσταδοποίησης. / The evolution of computer technology along with advances in database technology have contributed to the development of new efficient and automated techniques for the effective collection, storage and management of data. As a result, the volume of stored and widely available online data is growing rapidly, and the need for effective analytical methods for extracting relevant information is becoming increasingly urgent.
As an emerging field of interdisciplinary applications, data mining combines traditional data analysis methods with sophisticated algorithms and plays an important role in the processing of large volumes of data.
Data visualization refers to the study of the techniques used for the visual representation of data, including graphics, animation, 3D depictions and other multimedia tools. The main goal of data visualization techniques is to present a set of data in a clear and effective way, so that the extraction of conclusions and discovery of correlations that would otherwise remain unknown, are enabled. While several data visualization techniques have been presented in the relative literature, in recent years the scientific community has been focusing on the visualization of the results obtained by the application of data mining techniques.
In the present thesis, we propose an efficient data mining technique that is based on well-known clustering methods, such as the Hierarchical and Spherical K-means ones, and is suitable for the analysis and extraction of useful knowledge from different types of datasets. The proposed technique was applied into two different types of data including: a) textual data from the PubMed database, b) numerical data from the FINDbase database. Furthermore, we present a study of visualization techniques and the development of modern visualization tools for the effective representation of the original dataset (before processing) and the results obtained by the proposed clustering technique.
|
10 |
Βελτίωση απόδοσης και αποτελεσματικές σχεδιαστικές λύσεις για εφαρμογές Παγκόσμιου Ιστού / Performance improvement and effective design solutions for Web ApplicationsΤζήμας, Γιάννης 25 June 2007 (has links)
Η εκθετική ανάπτυξη του Παγκόσμιου Ιστού και η συνεχής διασπορά του σε διάφορους τομείς της καθημερινότητας, έχει τροφοδοτήσει την ανάπτυξη μίας νέας γενιάς εφαρμογών, οι οποίες χαρακτηρίζονται πλέον από μεγάλο βαθμό πολυπλοκότητας. Η ανάπτυξη τέτοιων εφαρμογών είναι στην ουσία ένα υβρίδιο που συνδυάζει παραδοσιακά Πληροφοριακά Συστήματα με εφαρμογές Υπερμέσων (Hypermedia). Αυτός ο συνδυασμός θέτει νέες προκλήσεις στις υπάρχουσες προσεγγίσεις σχεδιασμού και παραγωγής λογισμικού. Στα πλαίσια της συγκεκριμένης διδακτορικής διατριβής, διερευνώνται θέματα βελτίωσης της απόδοσης εφαρμογών Παγκόσμιου Ιστού (ιδιαίτερα απαιτητικών σε δεδομένα - data intensive), σε ολόκληρο τον κύκλο ζωής τους. Βασικός στόχος είναι η βελτίωση της απόδοσης εφαρμογών, σε πρώτο επίπεδο στα πλαίσια του σχεδιασμού, ανάπτυξης και συντήρησης τους και σε δεύτερο επίπεδο στα πλαίσια της διάθεσής τους προς τον τελικό χρήστη. Στο πρώτο κεφάλαιο της διδακτορικής διατριβής παρουσιάζεται η τρέχουσα κατάσταση σε σχέση με τις μεθοδολογίες σχεδιασμού και ανάπτυξης εφαρμογών Παγκόσμιου Ιστού που έχουν προταθεί από την ερευνητική κοινότητα μέχρι σήμερα. Γίνεται μία προσπάθεια να αναγνωριστούν και να χαρακτηριστούν οι διάφορες κατηγορίες λύσεων και παρουσιάζεται μία πρώτου επιπέδου αξιολόγηση σε σχέση με την επάρκεια που παρουσιάζουν στις απαιτήσεις της διαδικασίας ανάπτυξης εφαρμογών Παγκόσμιου Ιστού. Επιπλέον, επισημαίνονται διάφορα ανοιχτά προβλήματα και αναλύονται οι πιθανές μελλοντικές τάσεις. Ακόμη, αναλύεται σε μεγαλύτερο βάθος η μεθοδολογία και η αντίστοιχη γλώσσα μοντελοποίησης εφαρμογών Παγκόσμιου Ιστού WebML, καθώς αποτελεί τη βάση (γλώσσα επίδειξης) πάνω στην οποία θα στηριχτεί η παρουσίαση των τεχνικών και μεθόδων που προτείνονται στα επόμενα δύο κεφάλαια της διδακτορικής διατριβής. Στη συνέχεια, συζητούνται θέματα σε σχέση με τη μεθοδολογική προσέγγιση που χρησιμοποιήθηκε για το σχεδιασμό συγκεκριμένων παραδειγμάτων πραγματικών εφαρμογών και αναλύονται τα πλεονεκτήματα και τα αντίστοιχα μειονεκτήματα που παρουσιάστηκαν. Το δεύτερο κεφάλαιο επικεντρώνεται σε θέματα αξιολόγησης και αναδιάταξης του εννοιολογικού σχήματος-μοντέλου εφαρμογών Παγκόσμιου Ιστού. Εισάγεται η έννοια των Κλώνων Μοντέλου (Model Clones), ως μικρότερα μοντέλα υπερκειμένου που επαναλαμβάνονται σε ένα ευρύτερο μοντέλο εφαρμογής και η έννοια των Οσμών Μοντέλου (Model Smells), ως ενδείξεις ύπαρξης κλώνων. Παρουσιάζεται μία μέθοδος ανίχνευσης πιθανών προβλημάτων αποδοτικότητας, συνέπειας, ευχρηστίας και ποιότητας στο επίπεδο του σχήματος υπερκειμένου της εφαρμογής μέσω της εξόρυξης κλώνων μοντέλου. Έτσι μπορεί να επιτευχθεί ο αποδοτικός επανασχεδιασμός και η βελτίωση της συνολικής ποιότητάς της, σε επίπεδο διαχείρισης δεδομένων, διάταξης του υπερκειμένου και παρουσίασης του περιεχομένου. Επιπλέον, παρέχονται μετρικές αξιολόγησης, οι οποίες δίνουν τη δυνατότητα ποσοτικοποίησης της "ακατάλληλης" επαναχρη-σιμοποίησης των κλώνων και προτείνονται κανόνες αναδιάταξης του μοντέλου της εφαρμογής. Τέλος, αναλύονται θέματα αυτοματοποίησης της διαδικασίας αναδιάταξης του μοντέλου της εφαρμογής με βάση τους κλώνους μοντέλου που έχουν ανιχνευθεί. Οι τεχνικές που παρουσιάζονται μπορούν να εφαρμοστούν κατά τη διάρκεια σχεδιασμού της εφαρμογής, καθώς και κατά τη διάρκεια συντήρησης και επανασχεδιασμού της. Βασικός στόχος είναι να υποστηριχτεί η ανάγκη να προσεγγιστούν όλες οι πτυχές αποδοτικού και ποιοτικού σχεδιασμού από την αρχή του κύκλου ανάπτυξης εφαρμογών Παγκόσμιου Ιστού. Στο τρίτο κεφάλαιο μελετάται το πρόβλημα εντοπισμού αποδοτικών σχεδιαστικών λύσεων και σχεδιαστικών προτύπων μέσα στο εννοιολογικό σχήμα-μοντέλο μίας ή περισσότερων εφαρμογών Παγκόσμιου Ιστού. Τα σχεδιαστικά πρότυπα παράγονται από πεπειραμένους σχεδιαστές λογισμικού, οι οποίοι εμπειρικά μελετούν μια σειρά από επιτυχημένες εφαρμογές και στη συνέχεια ορίζουν ένα ή περισσότερα από αυτά. Επιπλέον, το μεγαλύτερο ποσοστό σχεδιαστικών προτύπων μέχρι σήμερα, έχει προταθεί από ένα πολύ μικρό αριθμό σχεδιαστών. Με στόχο την αντιμετώπιση του παραπάνω προβλήματος, προτείνεται μία μέθοδος αυτόματης εξόρυξης αποτελεσματικών σχεδιαστικών λύσεων κατά τη διάρκεια σχεδίασης (ή συντήρησης και επανασχεδιασμού) μίας εφαρμογής, στο επίπεδο του μοντέλου της. Η συγκεκριμένη μεθοδολογική προσέγγιση, στην περίπτωση που εφαρμοστεί σε εννοιολογικά σχήματα πολλών εφαρμογών μίας συγκεκριμένης κατηγορίας, μπορεί να οδηγήσει στον προσδιορισμό Πλαισίων Ανάπτυξης Εφαρμογών για τον αποδοτικό σχεδιασμό εφαρμογών της συγκεκριμένης αυτής κατηγορίας, ή ακόμα και στον αυτόματο εντοπισμό σχεδιαστικών προτύπων. Τέλος, παρουσιάζεται ο συνδυασμός της μεθόδου με υψηλότερου επιπέδου γλώσσες χειρισμού μοντέλου εφαρμογών, ώστε να επιτευχθεί η αυτοματοποίηση της εφαρμογής των αποδοτικών σχεδιαστικών λύσεων που ανακτήθηκαν με τη χρήση της, για τη δημιουργία ή επέκταση του εννοιολογικού σχήματος μίας εφαρμογής. Στο τελευταίο κεφάλαιο της διδακτορικής διατριβής γίνεται διερεύνηση του προβλήματος της συνεχώς αυξανόμενης κίνησης στον Παγκόσμιο Ιστό και της επίδρασης που έχει αυτό στην ποιότητα των εφαρμογών που βασίζονται στο συγκεκριμένο περιβάλλον. Σύμφωνα με πρόσφατες έρευνες, η κίνηση στον Παγκόσμιο Ιστό διπλασιάζεται κάθε χρόνο. Οι χρήστες απαιτούν όλο και μεγαλύτερο όγκο πληροφορίας από τους Ιστοχώρους του Παγκόσμιου Ιστού, ενώ παράλληλα θέλουν να ξοδέψουν όσο το δυνατόν μικρότερο χρόνο για την καταφόρτωση δεδομένων (downloading). Για το λόγο αυτό, όλο και περισσότερο εύρος ζώνης Διαδικτύου απαιτείται και οι παροχείς πρόσβασης στο Διαδίκτυο (ISPs) προσπαθούν να λύσουν το πρόβλημα κατασκευάζοντας δίκτυα υψηλών ταχυτήτων. Στο συγκεκριμένο κεφάλαιο παρουσιάζεται μία μέθοδος μείωσης του χρόνου καταφόρτωσης ιστοσελίδων με τη χρήση αλγορίθμων συμπίεσης δεδομένων. Επίσης, παρουσιάζεται μια περιπτωσιολογική μελέτη (case study) που υπολογίζει τη μείωση του χρόνου που απαιτείται για να καταφορτωθεί πλήρως μία ιστοσελίδα και να παραδοθεί στον τελικό χρήστη. Επιπλέον, αναλύεται ο τρόπος υπολογισμού του ποσοστού μείωσης του όγκου των μεταφερόμενων δεδομένων, των πόρων σε εύρος ζώνης και του χρόνου απόκρισης, όταν το χαρακτηριστικό συμπίεσης του πρωτοκόλλου HTTP/1.1 ενεργοποιηθεί. / The exponential growth of the Web and its capillar diffusion in a variety of productive contexts are nurturing a novel generation of applications, characterized by a large degree of complexity. The development of such applications is a hybrid between traditional Information Systems development and Hypermedia authoring. This combination challenges the existing tools and approaches for software production. In this dissertation we take an in-depth look at a wide range of aspects concerning the performance improvement of data-intensive Web applications. The main goal is to improve the performance at all levels of the application life-cycle. At a first level we focus on the processes of design, development and maintenance of Web applications and at a second level on their effective delivery to their end users. In the first chapter we present the current practices and methodological approaches proposed by the research community, in order to provide a firm and effective framework for the design/modeling and development of Web applications. We evidentiate the software engineering, architectural, and applicative issues of Web development, and compare the current approaches on Web modeling, in order to identify open problems and potential extensions. We provide an in-depth analysis of Web Modeling Language (WebML), as it will be utilized for the demonstration of the methods and techniques proposed in the next two chapters. Finally, we summarize the results and report on the advantages and disadvantages identified during the design and development of four real life web applications using a modeling language. The second chapter focuses on evaluating and refactoring the conceptual schemas of Web applications. We introduce the notion of Model Clones, as partial conceptual schemas that are repeated within a broader application model and the notion of Model Smells, as certain blocks in the Web applications model, that imply the possibility of refactoring. We illustrate a methodology for detecting and evaluating the existence of potential model clones, in order to identify problems in an application
|
Page generated in 0.0306 seconds