21 |
Μελέτη τεχνολογιών σημασιολογικού ιστού και ανάπτυξη συστήματος διαχείρισης πολιτισμικών δεδομένωνΜερτής, Αριστοτέλης 07 April 2011 (has links)
Η ψηφιακή εποχή έχει διεισδύσει σε όλες τις πτυχές της ανθρώπινης δραστηριότητας και τις μεταμορφώνει με έναν επαναστατικό και πρωτόγνωρο τρόπο. Ένας ιδιαίτερος ευαίσθητος τομέας για εμάς τους Έλληνες, ο πολιτισμός, δεν θα μπορούσε να μείνει ανεπηρέαστος από το κύμα της ψηφιακής εποχής. Η ψηφιακή εποχή έχει μεταμορφώσει τη πολιτιστική κληρονομιά τόσο από άποψη δημιουργίας όσο και από άποψη διατήρησης πολιτισμού. Ενώ κάποτε συλλέγαμε φυσικά αντικείμενα όπως ζωγραφιές, βιβλία και αγάλματα, τώρα πλέον διατηρούμε και ψηφιακές αναπαραστάσεις των πολιτιστικών αντικειμένων. Μέσω των νέων τεχνολογιών της Πληροφορικής και των Επικοινωνιών μπορούν να δημιουργηθούν, ταυτοποιηθούν και να ανακτηθούν τα ψηφιακά αυτά αγαθά.
Η πολιτιστική κληρονομιά έχει κερδίσει μεγάλο ενδιαφέρον τα τελευταία χρόνια. Η επιστημονική κοινότητα ερευνά τις πιθανότητες για παροχή κατάλληλων τεχνολογιών για ολοκληρωμένη πρόσβαση στις συλλογές πολιτισμικής κληρονομιάς, ενώ οι οργανισμοί πολιτισμικής κληρονομιάς γίνονται ολοένα πιο πρόθυμοι να συνεργαστούν και να παρέχουν την καλύτερη δυνατή πρόσβαση στις συλλογές τους μέσα από εξατομικευμένη παρουσίαση και πλοήγηση.
Ο Σημασιολογικός Ιστός βρίσκεται στο επίκεντρο της προσπάθειας αυτής. Ο Σημασιολογικός Ιστός είναι το επόμενο στάδιο του σημερινού Διαδικτύου κατά το οποίο, τα δεδομένα θα επισημειώνονται με μεταδεδομένα, τα οποία θα επιτρέπουν στις εφαρμογές του Διαδικτύου να προσφέρουν καλύτερες υπηρεσίες αναζήτησης στο χρήστη.
Η διπλωματική αυτή πραγματεύεται τη χρήση των τεχνολογιών του Σημασιολογικού Ιστού για την βελτίωση της πρόσβασης σε πολιτισμικά δεδομένα. Έχει ως στόχο την εμβάθυνση στις τεχνολογίες Σημασιολογικού Ιστού, στην ανάπτυξη μιας καινοτόμου εφαρμογής και στην ανάδειξη των πλεονεκτημάτων.
Στο δεύτερο κεφάλαιο παρουσιάζεται πως ο Σημασιολογικός Ιστός λύνει το πρόβλημα της συντακτικής συμβατότητας. Συγκεκριμένα, παρουσιάζεται η τεχνολογία της XML και των διάφορων τεχνολογιών γύρω από αυτήν.
Στο τρίτο και στο τέταρτο κεφάλαιο παρουσιάζεται πως επιτυγχάνεται η Σημασιολογική Συμβατότητα. Στο τρίτο κεφάλαιο μελετάται το RDF μοντέλο δεδομένων, η μοντελοποίηση δεδομένων στο Σημασιολογικό Ιστό. Παρουσιάζονται οι διάφοροι τρόποι σύνταξης του καθώς και πως γίνεται αναζήτηση σε γράφους RDF με το πρωτόκολλο SPARQL. Στο τέταρτο κεφάλαιο παρουσιάζεται η έννοια της οντολογίας. Παρουσιάζονται διάφορες γλώσσες περιγραφής οντολογιών ενώ μελετάται σε βάθος η OWL.
Στο πέμπτο κεφάλαιο παρουσιάζεται ένα σύνολο θησαυρών και οντολογιών που χρησιμοποιούνται περισσότερο από τους οργανισμούς. Παρουσιάζεται η οντολογία SKOS καθώς και μέθοδοι για τη μεταφορά παραδοσιακών θησαυρών στο Σημασιολογικό Ιστό μέσω του SKOS. Τέλος, παρουσιάζεται το CIDOC-CRM ως μία λύση για την ολοκλήρωση θησαυρών ποικιλίας γνωστικών πεδίων.
Στο έκτο κεφάλαιο γίνεται μία ανασκόπηση από επιλεγμένα έργα των τελευταίων ετών που χαρακτηρίζονται από την εφαρμογή των τεχνολογιών του Σημασιολογικού Ιστού στο τομέα του Πολιτισμού και της Πολιτισμικής Κληρονομιάς.
Τέλος στο έβδομο κεφάλαιο παρουσιάζεται μία εφαρμογή διαχείρισης πολιτιστικών δρώμενων. Επίσης παρουσιάζεται η πρωτοβουλία των Διασυνδεδεμένων Δεδομένων και πως γίνεται η εφαρμογή μας γίνεται μέρος του Σημασιολογικού Ιστού μέσω της πρωτοβουλίας αυτής. / The digital age has influenced every aspect of human activity and has transformed them in a revolutionary, previously unseen way. A special for us Greeks sector, cultural heritage, could not stay unaffected from the wave of the digital age. The Digital age has transformed Cultural Heritage both from the aspect of creation and the aspect of conservation of civilization. While once we collected only physical objects like paintings, books and statues, now we also collect digital representations of cultural objects. Through the new ICTs the objects can be created, authenticated and retrieved.
The domain of Cultural Heritage has gained a lot of popularity during the last years. The scientific community researches new possibilities for integrated access of collections of cultural heritage, while the organizations of cultural heritage are increasingly eager to cooperate and provide the best possible access to their collections through personalized presentation and navigation.
The Semantic Web stands in the center of this effort. The Semantic Web is the next stage of today’s Internet, in which, data are annotated with metadata that enable novel applications of the Internet to provide better search services to the user.
This thesis researches the usage of Semantic Web technologies for the enhancement of the access to cultural data. Its goal is the study of Semantic Web technologies and the development of a novel application to emphasize its advantages.
In the second chapter is presented the XML, which is the vehicle of Semantic Web data representations .In the third chapter , the RDF model is presented. Specifically, the various syntaxes of RDF and how RDF graphs are queried. In the fourth chapter the concept of the ontology is studied. Many ontology description languages are presented and OWL is studied more in depth.
In the fifth chapter a number of thesaurus and ontologies are presented that are used by many CH organizations. The SKOS ontology is presented as well as the methods employed to migrate legacy thesauri to the Semantic Web. Also, the CIDOC-CRM ontology is presented as a solution for the integration of various domains.
In the sixth chapter a review of selected projects of the last years is presented, that are characterized by the application of the technologies of Semantic Web in the sector of Culture and Cultural heritage.
In the last chapter an application of cultural events management is presented. The initiative of Linked Data is also presented and how the application becomes a part of the Semantic Web through this initiative.
|
22 |
Μηχανισμοί και τεχνικές διαχείρισης, επεξεργασίας, ανάλυσης, κατηγοριοποίησης, εξαγωγής περίληψης και προσωποποίησης συχνά ανανεώσιμων δεδομένων του παγκόσμιου ιστού για παρουσίαση σε σταθερές και κινητές συσκευέςΠουλόπουλος, Βασίλειος 01 November 2010 (has links)
Ζούμε μία εποχή τεχνολογικών εξελίξεων και τεχνολογικών αλμάτων με το Διαδίκτυο να γίνεται ένας από τους βασικότερους εκφραστές των νέων τεχνολογικών τάσεων. Ωστόσο, ο τρόπος λειτουργίας του και δόμησής του παρουσιάζει εξαιρετικά μεγάλη ανομοιογένεια με αποτέλεσμα οι χρήστες να βρίσκονται συχνά μπροστά από αδιέξοδο στην προσπάθεια αναζήτησης πληροφορίας. Άλλωστε η ύπαρξη εκατομμυρίων domains οδηγεί σε δυσκολίες κατά την αναζήτηση πληροφορίας. Η έρευνα που πραγματοποιείται επικεντρώνεται στους δικτυακούς τόπους που αποτελούν πηγές ενημέρωσης και πιο συγκεκριμένα στα ειδησεογραφικά πρακτορεία ειδήσεων, αλλά και στα blogs. Μία απλή αναζήτηση αποκάλυψε περισσότερους από 40 δικτυακούς τόπους από μεγάλα ειδησεογραφικά πρακτορεία στην Αμερική. Αυτό σημαίνει πως στην προσπάθεια αναζήτησης μίας είδησης και δη, όλων των πτυχών της, κάποιος θα πρέπει να επισκεφθεί αν όχι όλους, τους περισσότερους από αυτούς τους δικτυακούς τόπους για να εντοπίσει στοιχεία για το θέμα που τον ενδιαφέρει. Σε αυτό το «πρόβλημα» ή έστω σε αυτή την επίπονη διαδικασία, έχει γίνει προσπάθεια να δοθούν λύσεις μέσα από τη χρήση των καναλιών επικοινωνίας RSS και μέσα από προσωποποιημένους δικτυακούς τόπους που διαθέτουν τα μεγάλα ειδησεογραφικά πρακτορεία ή ακόμα και από τους μηχανισμούς αναζήτησης που αυτοί διαθέτουν. Σε κάθε περίπτωση όμως, υπάρχουν σημαντικά μειονεκτήματα που συχνά οδηγούν και πάλι το χρήστη σε αδιέξοδο. Τα κανάλια επικοινωνίας δε φιλτράρουν πληροφορίες, τροφοδοτώντας τους RSS readers των χρηστών με πληθώρα πληροφοριών που δεν αφορούν τους χρήστες ή ακόμα είναι ενοχλητικές για αυτούς. Για παράδειγμα η προσθήκη δύο (2) μόνον καναλιών από Ελληνικά μεγάλα ειδησεογραφικά portals μας οδήγησε στη λήψη περισσότερων από 1000 ειδήσεων καθημερινά. Από την άλλη, η χρήση των microsites που έχουν οι δικτυακοί τόποι επιβάλει στους χρήστες την επίσκεψη σε όλους τους δικτυακούς τόπους που τους ενδιαφέρουν. Όσον αφορά στη χρήση των μηχανών αναζήτησης, ακόμα και οι πιο μεγάλες από αυτές συχνά επιστρέφουν εκατομμύρια αποτελέσματα στα ερωτήματα των χρηστών ή πληροφορίες που δεν είναι επικαιροποιημένες. Τέλος, επειδή οι δικτυακοί τόποι των ειδησεογραφικών πρακτορείων δεν έχουν κατασκευαστεί για να προσφέρουν εκτενείς υπηρεσίες αναζήτησης ειδήσεων, είναι συχνό το φαινόμενο είτε να μην προσφέρουν καθόλου υπηρεσία αναζήτησης, είτε η υπηρεσία που προσφέρουν να μη μπορεί να απαντήσει με δομημένα αποτελέσματα και αντί να βοηθά τους χρήστες να εντοπίσουν την πληροφορία που αναζητούν, να τους αποπροσανατολίζει. / We live an era of technology advances and huge technological steps where the
Internet becomes a basic place of demonstration of the technology trends. Nevertheless, the way
of operation and construction of the WWW is extremely uneven and this results in dead-ends
when the users are trying to locate information. Besides the existence of billions of domains
leads to difficulties in difficulties in recording all this information. The research that we are
doing, is focused on websites that are sources of information and specifically news portals and
informational blogs. A simple search on the Internet led to more than 40 large scale press agencies
in America. This means that when trying to search for information and more specifically a news
article in all its existences somebody has to visit all the websites. This problem, or at least this
tedious task is of major concern of the research community. Many solutions were proposed in
order to overcome the aforementioned issues with usage of RSS feeds or personalized microsites,
or even analytical search applications. In any occasion there are many disadvantages that lead
the user to a dead-end again. The RSS feeds do not filter information and they feed the user’s
RSS readers with large amounts of information that most of it is not of the user’s concern. For
example, a simple addition of 2 rss feeds from large Greek portals led to receipt of more that 1000
news articles within a day! On the other side, the usage of microsites that many websites support
is a solution if and only if the user visits every single website and of course have and maintain an
account to each one of them. The search engines are an alternative but lately, due to the expansion
of the WWW, the results to simple queries are often million or the first results retrieved are
outdated. Finally, the websites of the major news agencies are not directly constructed to offer
extensive searching facilities and thus they usually offer search results through support of a large
well-known search engine (eg. Google). According to the aforementioned the research that we
are conducting is furthermore focused on the study of techniques and mechanisms that try to give
a solution to the everyday issue of being informed about news and having a spherical opinion
about an issue. The idea is simple and lies on the problem of the Internet: instead of letting the user
do all the search of the news and information that meet their needs we collect all the informationand present them directly to the user, presenting only the information that meet their profile.
This sounds pretty simple and logical, but the implementation we have to think of a number of
prerequisites. The constraints are: the users of the Internet speak different languages and they
want to see the news in their mother language and the users want access to the information from
everywhere. This implies that we need a mechanism that would collect news articles from many
– if not all – news agencies worldwide so that everybody can be informed. The news articles
that we collect should be furthermore analyzed before presented to the users. In parallel we need
to apply text pre-processing techniques, categorization and automatic summarization so that the
news articles can be presented back to the user in a personalized manner. Finally, the mechanism
is able to construct and maintain a user profile and present only articles that meet the profile
of the user and not all the articles collected by the system. As it is obvious this is not a simple
procedure. Substantially it a multilevel modular mechanism that implements and uses advanced
algorithm on every level in order to achieve the required result. We are referring to eight different
mechanisms that lead to the desired result. The systems are:
1. Retrieve news and articles from the Internet –advaRSS system
2. HTML page analysis and useful text extraction – CUTER system.
3. Preprocess and Natural Language Processing in order to extract keywords.
4. Categorization subsystem in order to construct ontologies that assigns texts to categories
5. Article Grouping mechanism (web application level)
6. Automatic Text Summarization
7. Web based User Personalization Mechanism
8. Application based User Personalization Mechanism
The subsystems and system architecture is presented in figure 1: The procedure of fetching
articles and news from the WWW is a procedure that includes algorithms that fetch data of
the large database that is called internet. In this research we have included algorithms for
instant retrieval of articles and the mechanism has furthermore mechanism for fetching HTML
pages that include news articles. As a next step and provided that we own HTML pages with
articles we have procedures for efficient useful text extraction. The HTML pages include the
body of the article and information that are disrelated to the article like advertisements. Our
mechanism introduces algorithms and systems for extraction of the original body of the text
out of the aforementioned pages and omitting any irrelevant information. As a furthermore
procedure of the same mechanism we try and extract multimedia related to the article. The
aforementioned mechanism are communicating directly with the Internet.
|
23 |
Δημιουργία WEB περιβάλλοντος διαχείρισης για το πρωτόκολλο SIP / Designing a WEB user interface for management of SIP protocolΤσελώνης, Σωτήρης 11 January 2011 (has links)
Αντικείμενο της εργασίας μας, είναι η δημιουργία ενός γραφικού περιβάλλοντος για τη διαχείριση του συστήματος VOIP υπηρεσιών. Αυτό είναι ο Opensips Web Manager, μια ολοκληρωμένη λύση, από άποψη διαμόρφωσης, χρήσιμο για τον διαχειριστή ενός τηλεφωνικού συστήματος. Ο OWM είναι ένα web user interface, που έχει σχεδιαστεί με PHP. Χρησιμοποιείται για τη διαχείριση των πληροφοριών του συστήματος όσο και για τη διαχείριση της κατάστασης λειτουργίας των εξυπηρετητών, που στηρίζουν ένα VOIP σύστημα. O OWM.
Ο διαχειριστής έχει πρόσβαση στον OWM μέσω ενός web browser και έτσι η φυσική θέση του διαχειριστή δεν περιορίζεται από την φυσική θέση του SIP εξυπηρετητή. Η αναζήτηση πληροφοριών, που αφορούν συνδρομητές, στοιχεία κλήσεων κ.α. γίνεται με τη δημιουργία «query», προς τη βάση δεδομένων του SIP εξυπηρετητή.
Η μέθοδος ανάπτυξης της εφαρμογής μας ήταν δισδιάστατη. Αρχικά έγινε η υλοποίηση συστήματος VOIP υπηρεσιών, που περιελάμβανε τις διαμορφώσεις των εξυπηρετητών DHCPs , DNSs και OpenSIPs. Ακολούθησε η εγκατάσταση του WEBs εξυπηρετητή, που φιλοξενεί τον OWM. Τέλος σχεδιάστηκε το web user interface. / The subject of our project is to create a graphical user interface for managing systems that provide VOIP services. This is the Opensips Web Manager, a integrated solution regarding configuration, useful for the administration of a telephone system. OWM is a web user interface, designed using PHP. Especially OWM is used to manage system’s data and to control server’s status, which support a VOIP system.
The administrator has access to the OWM through a web browser, so the physical location of the manager is not limited by SIP server’s physical location. The search for subscriber’ s and calling feature’s data, is performed by creating «query», to SIP server’s database.
The method we use to develop our application has been two-dimensional. First was the implementation of VOIP service, which included the configurations of servers like DHCPs, DNSs and OpenSIPs. Next step was the installation of a WEB server that hosts OWM. Finally, we designed the web user interface.
|
24 |
Δημιουργία μηχανής αναζήτησης προσώπων στο social webΚαλόγηρος, Γεώργιος 07 April 2011 (has links)
Στην εργασία αυτή υλοποιήθηκε μια μηχανή αναζήτησης προσώπων στο Social web. Η αναζήτηση γίνεται σε ιστοσελίδες κοινωνικής δικτύωσης όπως το Twitter, το Myspace, και το Flickr με βάση το όνομα του χρήστη ή το ονοματεπώνυμό του. Η αναζήτηση αυτή επεκτείνεται και σε ιστολόγια που βρίσκονται στον παγκόσμιο ιστό. Ύστερα βρίσκουμε σε ποιες από τις παραπάνω ιστοσελίδες έχει λογαριασμό το προς αναζήτηση άτομο και παραθέτουμε τη διεύθυνση του προφίλ του. Εάν του ανήκει κάποιο ιστολόγιο ή συμμετέχει σε κάποιο άλλο, αποθηκεύουμε στη βάση δεδομένων τα Feeds τα οποία έχει δημιουργήσει. Με τον ίδιο τρόπο ενεργούμε εάν το συγκεκριμένο άτομο έχει λογαριασμό στην ιστοσελίδα Twitter. / In this work we materialized a search engine of persons in social web. The search involves web pages on social networking such as Twitter, Myspace and Flickr, using as a base the username or his full name. This search also extends in blogs that are to be found in the WWW. Then, we store the feeds we mine from the users' accounts.
|
25 |
Υλοποίηση προσωποποιημένης πολυμεσικής εφαρμογής ηλεκτρονικού εμπορίου με λειτουργίες χωρικής αναζήτησης / Implementation of personalized multimedia e-commerce application with spatial search featuresΜηναδάκης, Νίκος 25 January 2012 (has links)
Σκοπός την εργασίας είναι η δημιουργία ενός ολοκληρωμένου ηλεκτρονικού καταστήματος το οποίο θα παρέχει στους χρήστες μεταξύ άλλων, δυνατότητα χωρικής αναζήτησης προϊόντων, και προσωποποίησης.
Η εφαρμογή υποστηρίζει όλες τις λειτουργίες ενός σύγχρονου ηλεκτρονικού καταστήματος προσθέτοντας σε αυτές ένα πλήθος καινοτόμων λειτουργιών. Συγκεκριμένα υποστηρίζει λειτουργία καλαθιού αγορών και παραγγελιών μέσω πιστωτικής κάρτας χρησιμοποιώντας ένα εικονικό σύστημα τραπεζικών συναλλαγών, πλήθος λειτουργιών αναζήτησης προϊόντων, διαφορετικά είδη προσωποποίησης, πολλαπλά επίπεδα ασφάλειας με χρήση κρυπτογράφησης, δημιουργία λογαριασμών χρηστών, forum κα.
Στις καινοτομίες της εφαρμογής συγκαταλέγονται η χωρική αναζήτηση προϊόντων με χρήση Τ.Κ., η αναζήτηση αντίστοιχων τιμών σε άλλα καταστήματα και η social προσωποποίηση με χρήση βαρών στους παράγοντες προσωποποίησης. Ιδιαίτερη βαρύτητα έχει δοθεί επίσης στην συντηρησιμότητα του συστήματος και στη φιλικότητα προς τον χρήστη.
Οι τεχνολογίες που χρησιμοποιήθηκαν είναι κατά κύριο λόγο HTML, CSS, PHP, Postgresql, smarty και λειτουργικό σύστημα Linux. / The purpose of this thesis is the development of a comprehensive online store that supports all functions of a modern e-shop plus a host of innovative features.
Specifically, the application supports shopping cart, orders pipeline using a virtual banking system, many search products features, different kinds of personalization, multiple levels of security using encryption, user accounts, forum etc..
Innovations in the application include spatial search for products using postal codes, search for corresponding values in other e-shops and social personalization using weights to the personalization factors. Special attention was also given to the maintainability of the system and user friendliness.
For the implementation of the application were used HTML, CSS, PHP, Postgresql, smarty and Linux operating system.
|
26 |
Ανάπτυξη εφαρμογής για ηλεκτρονική συναλλαγή στο ΔιαδίκτυοΤόλλος, Κυριάκος 31 May 2012 (has links)
Στην παρούσα διπλωματική εργασία γίνεται η θεωρητική ανάλυση, μελέτη και κατασκευή μιας εφαρμογής ηλεκτρονικού καταστήματος (e-shop) και συγκεκριμένα μιας ηλεκτρονικής βιβλιοθήκης για τον τομέα Ηλεκτρονικής και Υπολογιστών του τμήματος Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών του Πανεπιστημίου Πατρών χρησιμοποιώντας την πλατφόρμα WebSphere Commerce της ΙΒΜ. Αρχικά, γίνεται η εισαγωγή στις έννοιες και τις λειτουργίες του ηλεκτρονικού εμπορίου καθώς και σε αυτές της πλατφόρμας WebSphere. Στη συνέχεια, παρουσιάζεται ο τρόπος υλοποίησης της ηλεκτρονικής βιβλιοθήκης αρχίζοντας από την εγκατάσταση και παραμετροποίηση των εργαλείων που χρησιμοποιήθηκαν, αναλύοντας τον τρόπο λειτουργίας τους και τέλος κατασκευάζοντας την βιβλιοθήκη (κατάλογο προϊόντων, ρόλους χρηστών, τρόπο αγοράς-δανεισμού κ.α.) σύμφωνα με τις απαιτήσεις που είχαν τεθεί. Η διπλωματική εργασία καταλήγει με την παρουσίαση των λειτουργιών, αυτής όσο από την πλευρά του χρήστη όσο και από την αντίστοιχη των διαχειριστών, εξάγοντας στο τελευταίο κεφάλαιο τα συμπεράσματα και τις προτάσεις. / In this thesis, there is the theoretical analysis, the design implementation and construction of an e-shop, specifically an online library for the area of Electronics and Computer Department of Electrical and Computer Engineering, University of Patras using the platform of IBM WebSphere Commerce. Initially, there is an introduction to the concepts and functions of electronic commerce as well as those of the platform WebSphere. It then shows how to implement the electronic library starting with the installation and configuration tools used by analyzing how they work and finally constructing the library (product catalog, user roles, how-lending market, etc.) according to the requirements set. The thesis concludes with the presentation of functions, such as by the user and the administrators, extracting the last chapter the conclusions and recommendations.
|
27 |
Ανάπτυξη συστήματος παροχής συστάσεων με χρήση τεχνικών σημασιολογικής ανάλυσηςΤουλιάτος, Γεράσιμος 09 July 2013 (has links)
Εξαιτίας του μεγάλου όγκου δεδομένων που υπάρχουν στον Παγκόσμιο Ιστό, η ανεύρεση της επιθυμητής πληροφορίας από ένα χρήστη μπορεί να αποδειχθεί χρονοβόρα. Διάφορα συστήματα προσωποποιημένης αναζήτησης έχουν προταθεί κατά καιρούς για να διευκολύνουν την επίλυση του συγκεκριμένου προβλήματος. Στόχος της παρούσας εργασίας ήταν η μελέτη διάφορων τεχνικών βελτίωσης των αποτελεσμάτων μιας αναζήτησης και η ανάπτυξη ενός συστήματος που θα προβλέπει την πληροφοριακή ανάγκη ενός χρήστη και θα του προτείνει ένα σύνολο από σελίδες που πιθανόν να τον ικανοποιούν.
Επειδή το Web αποτελεί ένα πολύ μεγάλο σύστημα, η μελέτη μας ξεκινάει από το επίπεδο ιστοτόπου. Για την ανάπτυξη του συστήματός μας θα κάνουμε χρήση σημασιολογικών τεχνικών ανάλυσης. Πιο συγκεκριμένα, με χρήση μιας οντολογίας θα χαρακτηρίσουμε εννοιολογικά τις σελίδες ενός ιστοτόπου και επιπλέον θα χρησιμοποιήσουμε την οντολογία για να εκφράσουμε την πληροφοριακή ανάγκη του χρήστη.
Κατά την περιήγησή του στον ιστότοπο ο χρήστης επιλέγει εκείνους τους συνδέσμους που θεωρεί ότι το φέρνουν πιο κοντά στο στόχο του. Εμείς, χαρακτηρίζουμε κάθε υπερσύνδεσμο με έννοιες που συνδέονται με το περιεχόμενο της σελίδας στην οποία αυτός δείχνει. Επειδή, ο κάθε χρήστης αναπαριστά την πληροφορία με ένα δικό του δίκτυο εννοιών, υιοθετήσαμε μια οντολογία που συγκεντρώνει αυτό που ονομάζουμε “κοινή γνώση” για ένα θέμα. Χρησιμοποιώντας, τις έννοιες από τους υπερσυνδέσμους που επέλεξε ο χρήστης, τις σχέσεις μεταξύ των εννοιών της οντολογίας εκτιμούμε τις πιθανές έννοιες – στόχους του χρήστη και προσδιορίζουμε με αυτόν τον τρόπο την πληροφοριακή του ανάγκη. Τέλος, κατατάσσουμε τις σελίδες ως προς τη εννοιολογική τους συσχέτιση με τα ενδιαφέροντα του χρήστη και δημιουργούμε τις προτάσεις μας. / Due to the large volume of data available on the Web, finding the desired information can be time consuming. Various personalized search systems have been proposed to help resolve this problem. The aim of this work was to study various techniques used to deal with the problem and also, develop a system that will predict a user's information need and propose a set of pages that might satisfy him.
Because the Web is a very large system, our study starts at the level of a site. In developing our system we will make use of semantic analysis techniques. Specifically, we will use an ontology to describe the contents of the pages of a website and we will also use the ontology to express the information need of the user.
While browsing, the user selects those links, that considers they will bring him closer to his goal. We characterize each link with concepts associated with the content of the page they point to. Because each user represents the information in his own concept network, we adopted an ontology to express what is said to be 'common knowledge' on a topic. Using the concepts of the hyperlinks that the user selected and the relations between the concepts of the ontology, we choose the possible concept that user has in mind, and thus determine his information needs. Finally, we rank the pages of the website against the estimated informational needs of the user, creating so our proposals.
|
28 |
Gestion d'identité dans des graphes de connaissances / Identity Management in Knowledge GraphsRaad, Joe 30 November 2018 (has links)
En l'absence d'une autorité de nommage centrale sur le Web de données, il est fréquent que différents graphes de connaissances utilisent des noms (IRIs) différents pour référer à la même entité. Chaque fois que plusieurs noms sont utilisés pour désigner la même entité, les faits owl:sameAs sont nécessaires pour déclarer des liens d’identité et améliorer l’exploitation des données disponibles. De telles déclarations d'identité ont une sémantique logique stricte, indiquant que chaque propriété affirmée à un nom sera également déduite à l'autre et vice versa. Bien que ces inférences puissent être extrêmement utiles pour améliorer les systèmes fondés sur les connaissances tels que les moteurs de recherche et les systèmes de recommandation, l'utilisation incorrecte de l'identité peut avoir des effets négatifs importants dans un espace de connaissances global comme le Web de données. En effet, plusieurs études ont montré que owl:sameAs est parfois incorrectement utilisé sur le Web des données. Cette thèse étudie le problème de liens d’identité erronés ou inappropriés qui sont exprimés par des liens owl:sameAs et propose des solutions différentes mais complémentaires. Premièrement, elle présente une ressource contenant la plus grande collection de liens d’identité collectés du LOD Cloud, avec un service Web à partir duquel les données et leur clôture transitive peuvent être interrogées. Une telle ressource a à la fois des impacts pratiques (elle aide les utilisateurs à trouver différents noms pour la même entité), ainsi qu'une valeur analytique (elle révèle des aspects importants de la connectivité du LOD Cloud). En outre, en s’appuyant sur cette collection de 558 millions liens d’identité, nous montrons comment des mesures de réseau telles que la structure de communauté du réseau owl:sameAs peuvent être utilisées afin de détecter des liens d’identité éventuellement erronées. Pour cela, nous attribuons un degré d'erreur pour chaque lien owl:sameAs en fonction de la densité de la ou des communautés dans lesquelles elles se produisent et de leurs caractéristiques symétriques. L'un des avantages de cette approche est qu'elle ne repose sur aucune connaissance supplémentaire. Finalement, afin de limiter l'utilisation excessive et incorrecte du owl:sameAs, nous définissons une nouvelle relation pour représenter l'identité de deux instances d’une classe dans un contexte spécifique (une sous-partie de l’ontologie). Cette relation d'identité s'accompagne d'une approche permettant de détecter automatiquement ces liens, avec la possibilité d'utiliser certaines contraintes expertes pour filtrer des contextes non pertinents. La détection et l’exploitation des liens d’identité contextuels détectés sont effectuées sur deux graphes de connaissances pour les sciences de la vie, construits en collaboration avec des experts du domaine de l’institut national de la recherche agronomique (INRA). / In the absence of a central naming authority on the Web of data, it is common for different knowledge graphs to refer to the same thing by different names (IRIs). Whenever multiple names are used to denote the same thing, owl:sameAs statements are needed in order to link the data and foster reuse. Such identity statements have strict logical semantics, indicating that every property asserted to one name, will also be inferred to the other, and vice versa. While such inferences can be extremely useful in enabling and enhancing knowledge-based systems such as search engines and recommendation systems, incorrect use of identity can have wide-ranging effects in a global knowledge space like the Web of data. With several studies showing that owl:sameAs is indeed misused for different reasons, a proper approach towards the handling of identity links is required in order to make the Web of data succeed as an integrated knowledge space. This thesis investigates the identity problem at hand, and provides different, yet complementary solutions. Firstly, it presents the largest dataset of identity statements that has been gathered from the LOD Cloud to date, and a web service from which the data and its equivalence closure can be queried. Such resource has both practical impacts (it helps data users and providers to find different names for the same entity), as well as analytical value (it reveals important aspects of the connectivity of the LOD Cloud). In addition, by relying on this collection of 558 million identity statements, we show how network metrics such as the community structure of the owl:sameAs graph can be used in order to detect possibly erroneous identity assertions. For this, we assign an error degree for each owl:sameAs based on the density of the community(ies) in which they occur, and their symmetrical characteristics. One benefit of this approach is that it does not rely on any additional knowledge. Finally, as a way to limit the excessive and incorrect use of owl:sameAs, we define a new relation for asserting the identity of two ontology instances in a specific context (a sub-ontology). This identity relation is accompanied with an approach for automatically detecting these links, with the ability of using certain expert constraints for filtering irrelevant contexts. As a first experiment, the detection and exploitation of the detected contextual identity links are conducted on two knowledge graphs for life sciences, constructed in a mutual effort with domain experts from the French National Institute of Agricultural Research (INRA).
|
29 |
Αλγόριθμοι και τεχνικές εξατομικευμένης αναζήτησης σε διαδικτυακά περιβάλλοντα με χρήση υποκείμενων σημασιολογιώνΠλέγας, Ιωάννης 06 December 2013 (has links)
Η τεράστια ανάπτυξη του Παγκόσμιου Ιστού τις τελευταίες δεκαετίες έχει αναδείξει την αναζήτηση πληροφοριών ως ένα από τα πιο σημαντικά ζητήματα στον τομέα της έρευνας στις Τεχνολογίες της Πληροφορικής.
Σήμερα, οι σύγχρονες μηχανές αναζήτησης απαντούν αρκετά ικανοποιητικά στα ερωτήματα των χρηστών, αλλά τα κορυφαία αποτελέσματα που επιστρέφονται δεν είναι πάντα σχετικά με τα δεδομένα που αναζητά ο χρήστης. Ως εκ τούτου, οι μηχανές αναζήτησης καταβάλλουν σημαντικές προσπάθειες για να κατατάξουν τα πιο σχετικά αποτελέσματα του ερωτήματος ως προς τον χρήστη στα κορυφαία αποτελέσματα της λίστας κατάταξης των αποτελεσμάτων. Η διατριβή αυτή ασχολείται κυρίως με το παραπάνω πρόβλημα, δηλαδή την κατάταξη στις υψηλότερες θέσεις των πιο σχετικών αποτελεσμάτων ως προς τον χρήστη (ειδικά για ερωτήματα που οι όροι τους έχουν πολλαπλές σημασίες).
Στο πλαίσιο της παρούσας έρευνας κατασκευάστηκαν αλγόριθμοι και τεχνικές που βασίζονται στην τεχνική της σχετικής ανατροφοδότησης (relevance feedback) για την βελτίωση των αποτελεσμάτων που επιστρέφονται από μια μηχανή αναζήτησης. Βασική πηγή της ανατροφοδότησης ήταν τα αποτελέσματα που επιλέγουν οι χρήστες κατά την διαδικασία πλοήγησης. Ο χρήστης επεκτείνει την αρχική πληροφορία αναζήτησης (λέξεις κλειδιά) με νέα πληροφορία που προέρχεται από τα αποτελέσματα που διαλέγει. Έχοντας ένα νέο σύνολο πληροφορίας που αφορά τις προτιμήσεις του χρήστη, συγκρίνεται η σημασιολογική πληροφορία του συνόλου αυτού με τα υπόλοιπα αποτελέσματα (αυτά που επιστράφηκαν πριν επιλέξει το συγκεκριμένο αποτέλεσμα) και μεταβάλλεται η σειρά των αποτελεσμάτων προωθώντας και προτείνοντας τα αποτελέσματα που είναι πιο σχετικά με το νέο σύνολο πληροφορίας.
Ένα άλλο πρόβλημα που πρέπει να αντιμετωπιστεί κατά την υποβολή ερωτημάτων από τους χρήστες σε μια μηχανή αναζήτησης είναι ότι τα ερωτήματα που υποβάλλονται στις μηχανές αναζήτησης είναι συνήθως μικρά σε αριθμό λέξεων και αμφίσημα. Συνεπώς, πρέπει να υπάρχουν τρόποι αποσαφήνισης των διαφορετικών εννοιών των όρων αναζήτησης και εύρεσης της έννοιας που ενδιαφέρει τον χρήστη. Η αποσαφήνιση των όρων αναζήτησης είναι μια διαδικασία που έχει μελετηθεί στην βιβλιογραφία με αρκετούς διαφορετικούς τρόπους. Στην διατριβή μου προτείνω νέες στρατηγικές αποσαφήνισης των εννοιών των όρων αναζήτησης των μηχανών αναζήτησης και εξερευνάται η αποδοτικότητά τους στις μηχανές αναζήτησης. Η καινοτομία τους έγκειται στη χρήση του Page-Rank σαν ενδείκτη της σημαντικότητας μιας έννοιας για έναν όρο του ερωτήματος.
Επίσης είναι ευρέως γνωστό ότι ο Παγκόσμιος Ιστός περιέχει έγγραφα με την ίδια πληροφορία και έγγραφα με σχεδόν ίδια πληροφορία. Παρά τις προσπάθειες των μηχανών αναζήτησης με αλγόριθμους εύρεσης των κειμένων που περιέχουν επικαλυπτόμενη πληροφορία, ακόμα υπάρχουν περιπτώσεις που τα κείμενα που ανακτώνται από μια μηχανή αναζήτησης περιέχουν επαναλαμβανόμενη πληροφορία. Στην διατριβή αυτή παρουσιάζονται αποδοτικές τεχνικές εύρεσης και περικοπής της επικαλυπτόμενης πληροφορίας από τα αποτελέσματα των μηχανών αναζήτησης χρησιμοποιώντας τις σημασιολογικές πληροφορίες των αποτελεσμάτων των μηχανών αναζήτησης. Συγκεκριμένα αναγνωρίζονται τα αποτελέσματα που περιέχουν την ίδια πληροφορία και απομακρύνονται, ενώ ταυτόχρονα τα αποτελέσματα που περιέχουν επικαλυπτόμενη πληροφορία συγχωνεύονται σε νέα κείμενα(SuperTexts) που περιέχουν την πληροφορία των αρχικών αποτελεσμάτων χωρίς να υπάρχει επαναλαμβανόμενη πληροφορία.
Ένας άλλος τρόπος βελτίωσης της αναζήτησης είναι ο σχολιασμός των κειμένων αναζήτησης έτσι ώστε να περιγράφεται καλύτερα η πληροφορία τους. Ο σχολιασμός κειμένων(text annotation) είναι μια τεχνική η οποία αντιστοιχίζει στις λέξεις του κειμένου επιπλέον πληροφορίες όπως η έννοια που αντιστοιχίζεται σε κάθε λέξη με βάση το εννοιολογικό περιεχόμενο του κειμένου. Η προσθήκη επιπλέον σημασιολογικών πληροφοριών σε ένα κείμενο βοηθάει τις μηχανές αναζήτησης να αναζητήσουν καλύτερα τις πληροφορίες που ενδιαφέρουν τους χρήστες και τους χρήστες να βρουν πιο εύκολα τις πληροφορίες που αναζητούν. Στην διατριβή αυτή αναλύονται αποδοτικές τεχνικές αυτόματου σχολιασμού κειμένων από τις οντότητες που περιέχονται στην Wikipedia, μια διαδικασία που αναφέρεται στην βιβλιογραφία ως Wikification. Με τον τρόπο αυτό οι χρήστες μπορούν να εξερευνήσουν επιπλέον πληροφορίες για τις οντότητες που περιέχονται στο κείμενο που τους επιστρέφεται.
Ένα άλλο τμήμα της διατριβής αυτής προσπαθεί να εκμεταλλευτεί την σημασιολογία των αποτελεσμάτων των μηχανών αναζήτησης χρησιμοποιώντας εργαλεία του Σημασιολογικού Ιστού. Ο στόχος του Σημασιολογικού Ιστού (Semantic Web) είναι να κάνει τους πόρους του Ιστού κατανοητούς και στους ανθρώπους και στις μηχανές. Ο Σημασιολογικός Ιστός στα πρώτα βήματά του λειτουργούσε σαν μια αναλυτική περιγραφή του σώματος των έγγραφων του Ιστού. Η ανάπτυξη εργαλείων για την αναζήτηση σε Σημασιολογικό Ιστό είναι ακόμα σε πρώιμο στάδιο. Οι σημερινές τεχνικές αναζήτησης δεν έχουν προσαρμοστεί στην δεικτοδότηση και στην ανάκτηση σημασιολογικής πληροφορίας εκτός από μερικές εξαιρέσεις. Στην έρευνά μας έχουν δημιουργηθεί αποδοτικές τεχνικές και εργαλεία χρήσης του Παγκόσμιου Ιστού. Συγκεκριμένα έχει κατασκευαστεί αλγόριθμος μετατροπής ενός κειμένου σε οντολογία ενσωματώνοντας την σημασιολογική και συντακτική του πληροφορία έτσι ώστε να επιστρέφονται στους χρήστες απαντήσεις σε ερωτήσεις φυσικής γλώσσας.
Επίσης στην διατριβή αυτή αναλύονται τεχνικές φιλτραρίσματος XML εγγράφων χρησιμοποιώντας σημασιολογικές πληροφορίες. Συγκεκριμένα παρουσιάζεται ένα αποδοτικό κατανεμημένο σύστημα σημασιολογικού φιλτραρίσματος XML εγγράφων που δίνει καλύτερα αποτελέσματα από τις υπάρχουσες προσεγγίσεις.
Τέλος, στα πλαίσια αυτής της διδακτορικής διατριβής γίνεται επιπλέον έρευνα για την βελτίωση της απόδοσης των μηχανών αναζήτησης από μια διαφορετική οπτική γωνία. Στην κατεύθυνση αυτή παρουσιάζονται τεχνικές περικοπής ανεστραμμένων λιστών ανεστραμμένων αρχείων. Επίσης επιτυγχάνεται ένας συνδυασμός των προτεινόμενων τεχνικών με υπάρχουσες τεχνικές συμπίεσης ανεστραμμένων αρχείων πράγμα που οδηγεί σε καλύτερα αποτελέσματα συμπίεσης από τα ήδη υπάρχοντα. / The tremendous growth of the Web in the recent decades has made the searching for information as one of the most important issues in research in Computer Technologies.
Today, modern search engines respond quite well to the user queries, but the results are not always relative to the data the user is looking for. Therefore, search engines are making significant efforts to rank the most relevant query results to the user in the top results of the ranking list. This work mainly deals with this problem, the ranking of the relevant results to the user in the top of the ranking list even when the queries contain multiple meanings. In the context of this research, algorithms and techniques were constructed based on the technique of relevance feedback which improves the results returned by a search engine. Main source of feedback are the results which the users selects during the navigation process. The user extends the original information (search keywords) with new information derived from the results that chooses. Having a new set of information concerning to the user's preferences, the relevancy of this information is compared with the other results (those returned before choosing this effect) and change the order of the results by promoting and suggesting the results that are more relevant to the new set of information.
Another problem that must be addressed when the users submit queries to the search engines is that the queries are usually small in number of words and ambiguous. Therefore, there must be ways to disambiguate the different concepts/senses and ways to find the concept/sense that interests the user. Disambiguation of the search terms is a process that has been studied in the literature in several different ways. This work proposes new strategies to disambiguate the senses/concepts of the search terms and explore their efficiency in search engines. Their innovation is the use of PageRank as an indicator of the importance of a sense/concept for a query term.
Another technique that exploits semantics in our work is the use of text annotation. The use of text annotation is a technique that assigns to the words of the text extra information such as the meaning assigned to each word based on the semantic content of the text. Assigning additional semantic information in a text helps users and search engines to seek or describe better the text information. In my thesis, techniques for improving the automatic annotation of small texts with entities from Wikipedia are presented, a process that referred in the literature as Wikification.
It is widely known that the Web contain documents with the same information and documents with almost identical information. Despite the efforts of the search engine’s algorithms to find the results that contain repeated information; there are still cases where the results retrieved by a search engine contain repeated information. In this work effective techniques are presented that find and cut the repeated information from the results of the search engines. Specifically, the results that contain the same information are removed, and the results that contain repeated information are merged into new texts (SuperTexts) that contain the information of the initial results without the repeated information.
Another part of this work tries to exploit the semantic information of search engine’s results using tools of the Semantic Web. The goal of the Semantic Web is to make the resources of the Web understandable to humans and machines. The Semantic Web in their first steps functioned as a detailed description of the body of the Web documents. The development of tools for querying Semantic Web is still in its infancy. The current search techniques are not adapted to the indexing and retrieval of semantic information with a few exceptions. In our research we have created efficient techniques and tools for using the Semantic Web. Specifically an algorithm was constructed that converts to ontology the search engine’s results integrating semantic and syntactic information in order to answer natural language questions.
Also this paper contains XML filtering techniques that use semantic information. Specifically, an efficient distributed system is proposed for the semantic filtering of XML documents that gives better results than the existing approaches.
Finally as part of this thesis is additional research that improves the performance of the search engines from a different angle. It is presented a technique for cutting the inverted lists of the inverted files. Specifically a combination of the proposed technique with existing compression techniques is achieved, leading to better compression results than the existing ones.
|
30 |
Σχεδιασμός και ανάπτυξη διεπαφής πελάτη-εξυπηρετητή για υποστήριξη συλλογισμού σε κατανεμημένες εφαρμογές του σημαντικού ιστούΑγγελόπουλος, Παναγιώτης 21 September 2010 (has links)
Η έρευνα αναφορικά με την εξέλιξη του Παγκόσμιου Ιστού (WWW) κινείται τα τελευταία χρόνια προς πιο ευφυείς και αυτοματοποιημένους τρόπους ανακάλυψης και εξαγωγής της πληροφορίας. Ο Σημαντικός Ιστός (Semantic Web) είναι μία επέκταση του σημερινού Ιστού, όπου στην πληροφορία δίνεται σαφώς προσδιορισμένη σημασία, δίνοντας έτσι τη δυνατότητα στις μηχανές να μπορούν πλέον να επεξεργάζονται καλύτερα και να «κατανοούν» τα δεδομένα, τα οποία μέχρι σήμερα απλώς παρουσιάζουν. Για να λειτουργήσει ο Σημαντικός Ιστός, οι υπολογιστές θα πρέπει να έχουν πρόσβαση σε οργανωμένες συλλογές πληροφοριών, που καλούνται οντολογίες (ontologies). Οι οντολογίες παρέχουν μια μέθοδο αναπαράστασης της γνώσης στο Σημαντικό Ιστό και μπορούν επομένως να αξιοποιηθούν από τα υπολογιστικά συστήματα για τη διεξαγωγή αυτοματοποιημένου συλλογισμού (automated reasoning).
Για την περιγραφή και την αναπαράσταση των οντολογιών του Σημαντικού Ιστού σε γλώσσες αναγνώσιμες από τη μηχανή, έχουν προταθεί και βρίσκονται υπό εξέλιξη διάφορες πρωτοβουλίες, με πιο σημαντική τη Γλώσσα Οντολογίας Ιστού (Web Ontology Language – OWL). H γλώσσα αυτή αποτελεί πλέον τη βάση για την αναπαράσταση γνώσης στο Σημαντικό Ιστό, λόγω της προώθησής της από το W3C, και του αυξανόμενου βαθμού υιοθέτησής της στις σχετικές εφαρμογές. Το βασικότερο εργαλείο για την υλοποίηση εφαρμογών που διαχειρίζονται OWL οντολογίες, είναι το OWL API. Το OWL API αποτελείται από προγραμματιστικές βιβλιοθήκες και μεθόδους, οι οποίες παρέχουν μια υψηλού επιπέδου διεπαφή για την πρόσβαση και τον χειρισμό OWL οντολογιών.
Το θεωρητικό υπόβαθρο που εγγυάται την εκφραστική και συλλογιστική ισχύ των οντολογιών, παρέχεται από τις Λογικές Περιγραφής (Description Logics). Οι Λογικές Περιγραφής αποτελούν ένα καλώς ορισμένο αποφασίσιμο υποσύνολο της Λογικής Πρώτης Τάξης και καθιστούν δυνατή την αναπαράσταση και ανακάλυψη γνώσης στο Σημαντικό Ιστό. Για την ανακάλυψη άρρητης πληροφορίας ενδείκνυται, επομένως, να αξιοποιηθούν συστήματα βασισμένα σε Λογικές Περιγραφής. Τα συστήματα αυτά ονομάζονται και εργαλεία Συλλογισμού (Reasoners). Χαρακτηριστικά παραδείγματα τέτοιων εργαλείων αποτελούν τα FaCT++ και Pellet.
Από τα παραπάνω γίνεται προφανής ο λόγος για τον οποίο, τόσο το OWL API, όσο και τα εργαλεία Συλλογισμού, χρησιμοποιούνται από προτεινόμενα μοντέλα υλοποίησης εφαρμογών του Σημαντικού Ιστού επόμενης γενιάς (WEB 3.0), για την επικοινωνία και την υποβολή «έξυπνων» ερωτημάτων σε βάσεις γνώσης (knowledge bases). Στα μοντέλα αυτά προτείνεται, επίσης, η χρήση κατανεμημένης αρχιτεκτονικής 3-επιπέδων (3-tier distributed architecture), για την υλοποίηση εφαρμογών του Σημαντικού Ιστού.
Σκοπός της διπλωματικής αυτής είναι ο σχεδιασμός και η ανάπτυξη μιας διεπαφής Πελάτη – Εξυπηρετητή (Client – Server interface) για την υποστήριξη υπηρεσιών Συλλογισμού (reasoning) σε κατανεμημένες εφαρμογές του Σημαντικού Ιστού. Πιο συγκεκριμένα, η διεπαφή που θα υλοποιήσουμε αποτελείται από δύο μέρη. Το πρώτο παρέχει τα απαραίτητα αρχεία για την εκτέλεση ενός εργαλείου Συλλογισμού σε κάποιο απομακρυσμένο μηχάνημα (Server). Με τον τρόπο αυτό, το συγκεκριμένο μηχάνημα θα παρέχει απομακρυσμένες (remote) υπηρεσίες Συλλογισμού. Το δεύτερο μέρος (Client) περιέχει αρχεία, που δρουν συμπληρωματικά στις βιβλιοθήκες του OWL API, και του δίνουν νέες δυνατότητες. Συγκεκριμένα, δίνουν την δυνατότητα σε μια εφαρμογή, που είναι υλοποιημένη με το OWL API, να χρησιμοποιήσει τις υπηρεσίες που προσφέρονται από κάποιο απομακρυσμένο εργαλείο Συλλογισμού. Συνεπώς, η διεπαφή μας θα δώσει την δυνατότητα υιοθέτησης της χρήσης του OWL API και των εργαλείων Συλλογισμού από κατανεμημένες αρχιτεκτονικές για την υλοποίηση εφαρμογών του Σημαντικού Ιστού. / In the past few years, the research that focus on the development of the World Wide Web (WWW) has moved towards more brilliant and automated ways of discovering and exporting the information. The Semantic Web is an extension of the current Web, that explicitly defines the information, thus providing the machines with the possibility to better process and “comprehend” the data, which until now they simply present. For the Semantic Web to function properly, computers must have access to organized collections of information, that are called ontologies. Ontologies provide a method of representing knowledge in the Semantic Web and, consequently, they can be used by computing systems in order to conduct automated reasoning.
In order to describe and represent the ontologies of the Semantic Web in machine-readable language, various initiatives have been proposed and are under development, most important of which is the Web Ontology Language - OWL. This language constitutes the base for representing knowledge in the Semantic Web, due to its promotion from the W3C, and its increasing degree of adoption from relative applications. The main tool for the development of applications that manages OWL ontologies, is the OWL API. The OWL API consists of programming libraries and methods, that provide a higher-level interface for accessing and handling OWL ontologies.
The theoretical background that guarantees the expressivity and the reasoning of ontologies, is provided from Description Logics. Description Logics constitute a well defined and decidable subset of First Order Logic and make possible the representation and discovery of knowledge in the Semantic Web. As a consequence, in order to discover “clever” information, we have to develop and use systems that are based in Description Logics. These systems are also called Reasoners. Characteristic examples of such tools are FaCT++ and Pellet.
From above, it must be obvious why both the OWL API and the Reasoners are used by proposed models of developing next generation (WEB 3.0) Semantic Web applications, for the communication and the submission of “intelligent” questions in knowledge bases. These models also propose the use of a 3-level distributed architecture (3-tier distributed architecture), for the development of Semantic Web applications.
Aim of this diploma thesis is to design and implement a Client-Server interface to support Reasoning in distributed applications of the Semantic Web. Specifically, the interface that we will implement consists of two parts. First part provides the essential files for a Reasoner to run in a remote machine (Server). As a result, this machine will provide remote Reasoning services. Second part (Client) contains files, that act additionally to (enhance) the libraries of the OWL API, and give them new features. More precisely, they provide an application, that is implemented with OWL API, with the possibility of using the services that are offered by a remote Reasoner. Consequently, our interface will make possible the use of the OWL API and the Reasoners from proposed distributed architectures for the development of Semantic Web applications.
|
Page generated in 0.0279 seconds