• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 150
  • 63
  • 32
  • 32
  • 23
  • 16
  • 7
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 2
  • 1
  • Tagged with
  • 364
  • 63
  • 50
  • 48
  • 47
  • 45
  • 45
  • 40
  • 40
  • 40
  • 39
  • 37
  • 32
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Strategies for enhancing consumer interaction in electronic retailing

Persson, Christian January 2001 (has links)
No description available.
112

Προσωποποιημένη προβολή περιεχομένου του διαδικτύου σε desktop εφαρμογή με τεχνικές ανάκτησης δεδομένων, προεπεξεργασίας κειμένου, αυτόματης κατηγοριοποίησης και εξαγωγής περίληψης

Τσόγκας, Βασίλειος 15 June 2009 (has links)
Με την πραγματικότητα των υπέρογκων και ολοένα αυξανόμενων πηγών κειμένου στο διαδίκτυο, καθίστανται αναγκαία η ύπαρξη μηχανισμών οι οποίοι βοηθούν τους χρήστες ώστε να λάβουν γρήγορες απαντήσεις στα ερωτήματά τους. Η παρουσίαση προσωποποιημένου, συνοψισμένου και προκατηγοριοποιημένου περιεχομένου στους χρήστες, κρίνεται απαραίτητη σύμφωνα με τις επιταγές της συνδυαστικής έκρηξης της πληροφορίας που είναι ορατή σε κάθε "γωνία" του διαδικτύου. Ζητούνται άμεσες και αποτελεσματικές λύσεις ώστε να "τιθασευτεί" αυτό το χάος πληροφορίας που υπάρχει στον παγκόσμιο ιστό, λύσεις που είναι εφικτές μόνο μέσα από ανάλυση των προβλημάτων και εφαρμογή σύγχρονων μαθηματικών και υπολογιστικών μεθόδων για την αντιμετώπισή τους. Στα πλαίσια της παρούσας εργασίας, δημιουργήθηκε ένας ολοκληρωμένος μηχανισμός ο οποίος μπορεί αυτόματα να αναλύει κείμενα του διαδικτύου προκειμένου να εξάγει λέξεις-κλειδιά. Μέσα από αυτή την ανάλυση προκύπτουν οι σημαντικότερες προτάσεις του κειμένου που το χαρακτηρίζουν και οι οποίες μπορούν, αν συνενωθούν, να αποτελέσουν μια σύντομη περίληψη του κειμένου. Ο μηχανισμός αξιοποιεί γνώσεις για την κατηγορία του κειμένου καθώς και για τις προτιμήσεις που παρουσιάζουν οι χρήστες του προκειμένου να βελτιώσει και να φιλτράρει τα αποτελέσματα που παρουσιάζονται. Το σύστημα που κατασκευάστηκε έχει τα εξής βασικά υποσυστήματα: μηχανισμός ανάκτησης δεδομένων και εξαγωγής χρήσιμου κειμένου από τον παγκόσμιο ιστό, μηχανισμός εξαγωγής λέξεων-κλειδιών από το πηγαίο κείμενο, μηχανισμός κατηγοριοποίησης κειμένου, ο οποίος μπορεί να συμμετάσχει στη διαδικασία εξαγωγής περίληψης και να ενδυναμώσει τα αποτελέσματά της, μηχανισμοί προσωποποίησης περιεχομένου στο χρήστη και φυσικά, μηχανισμός εξαγωγής περίληψης. Οι παραπάνω μηχανισμοί είναι ενσωματωμένοι σε ένα σύστημα αποδελτίωσης, το PeRSSonal, το οποίο χρησιμοποιείται για την ανάκτηση / προεπεξεργασία / κατηγοριοποίηση / προσωποποίηση και περίληψη άρθρων από ειδησεογραφικούς τόπους του διαδικτύου. Σκοπός της παρούσας εργασίας είναι η ενίσχυση των υπαρχόντων διαδικασιών του μηχανισμού με καλύτερες και αποτελεσματικότερες μεθόδους και αλγορίθμους, καθώς και η δημιουργία μιας desktop εφαρμογής που θα αξιοποιεί στο έπακρο τις δυνατότητες παρουσίασης του συστήματος μέσω του κλασικού client-server μοντέλου. Πιο συγκεκριμένα, αναβαθμίζονται όλα τα στάδια λειτουργίας του μηχανισμού. Έτσι, το στάδιο ανάκτησης δεδομένων από τον ιστό ενισχύεται με έναν νέο, πιο αποτελεσματικό crawler. Ο αλγόριθμος που υλοποιείται σε αυτό το στάδιο λαμβάνει υπ' όψιν του, μεταξύ άλλων, και τον ρυθμό μεταβολής των RSS Feeds που αναλύει προκειμένου να αποφανθεί αν θα επισκεφθεί τη σελίδα του νέου. Αποφεύγονται έτσι άσκοπες εκτελέσεις της διαδικασίας του crawling και ουσιαστικά εξοικονομούνται πόροι του συστήματος. Παράλληλα, οι αλγόριθμοι αναγνώρισης και εξαγωγής χρήσιμου κειμένου έχουν ενισχυθεί και βελτιστοποιηθεί ώστε να εκτελούνται ταχύτερα και να επιστρέφουν με υψηλότερη ακρίβεια το περιεχόμενο που ανταποκρίνεται στο ωφέλιμο κείμενο μιας ιστοσελίδας. Η διαδικασία προεπεξεργασίας του κειμένου και εξαγωγής των λέξεων-κλειδιών από αυτό, έχει επίσης βελτιωθεί σημαντικά. Οι αλγόριθμοι πλέον δέχονται ρύθμιση μέσω παραμέτρων που μεταβάλλονται ανάλογα με το κείμενο και την πηγή του. Επιπλέον, το σύστημα μπορεί να αναγνωρίσει κείμενα όλων των βασικών γλωσσών με μια αρθρωτή (modular) αρχιτεκτονική. Παράλληλα, η διαδικασία εύρεσης λέξεων-κλειδιών έχει ενισχυθεί με την δυνατότητα εξαγωγής των ουσιαστικών του κειμένου, που συνήθως φέρουν το μεγαλύτερο ποσοστό ``νοήματος'' μιας πρότασης, και γενικότερα δυνατότητα αναγνώρισης των μερών του λόγου των προτάσεων. Ακολουθώντας, βρίσκονται οι μηχανισμοί κατηγοριοποίησης κειμένου και εξαγωγής της περίληψης αυτού οι οποίοι επίσης έχουν ενισχυθεί και παρουσιάζουν καλύτερα αποτελέσματα σε σχέση με την αρχική έκδοση του συστήματος. Η διαδικασία περίληψης έχει βελτιωθεί σημαντικά με τεχνικές που αξιοποιούν τη γνώση του συστήματος τόσο για το ίδιο το κείμενο όσο και για τον χρήστη που ζητάει την περίληψη. Η διαδικασία κατηγοριοποίησης επίσης επωφελείται από την περίληψη του κειμένου αξιοποιώντας τη, ως μικρότερη και συνοπτικότερη έκδοση του αρχικού κειμένου, προκειμένου να αποφανθεί σε περιπτώσεις που δεν είναι εντελώς ξεκάθαρο σε ποια κατηγορία ανήκει το κείμενο. Η διαδικασία ολοκληρώνεται με την προσωποποιημένη παρουσίαση των αποτελεσμάτων στη μεριά του χρήστη. Ο αλγόριθμος προσωποποίησης λαμβάνει υπ' όψιν του πολλές παραμέτρους, μεταξύ των οποίων το ιστορικό περιήγησης, οι χρόνοι που μένει ο χρήστης σε κάποιο άρθρο και οι επιλογές του στην εφαρμογή για να παράγει το προφίλ του. Ο αλγόριθμος προσωποποίησης που προτείνεται ουσιαστικά ``μαθαίνει'' από τις επιλογές του χρήστη και προσαρμόζεται στις πραγματικές προτιμήσεις του με το πέρασμα του χρόνου. Έτσι το σύστημα μπορεί να ανταποκρίνεται στις διαρκώς μεταβαλλόμενες προτιμήσεις των χρηστών. Στην τελική φάση της ροής της πληροφορίας, τα αποτελέσματα επιστρέφονται στην εφαρμογή που τρέχει ο χρήστης στην επιφάνεια εργασίας του και που αποτελεί μέρος της παρούσας εργασίας. Ο σκοπός της client-side εφαρμογής είναι να αξιοποιήσει και να παρουσιάσει την πληροφορία που εκτιμάται ότι ενδιαφέρει τον χρήστη, μορφοποιώντας την κατάλληλα ώστε να είναι πραγματικά χρήσιμη και ευανάγνωστη. Σκοπός δεν είναι να ``πλημμυριστεί'' ο χρήστης με ακόμη περισσότερη πληροφορία από αυτή που μπορεί να βρει μόνος του στο διαδίκτυο, αλλά να φιλτραριστεί αυτή ώστε να αντιπροσωπεύει πραγματικά τα ενδιαφέροντα του χρήστη. Η εφαρμογή που αναπτύχθηκε στηρίζεται σε standard πρωτόκολλα τόσο μετάδοσης όσο και μορφοποίησης της πληροφορίας και είναι εύκολα παραμετροποιήσιμη από τον χρήστη, ενώ παράλληλα προσφέρει πλήθος λειτουργιών που την καθιστούν ικανή να αντικαταστήσει τις κοινές μεθόδους καθημερινής ενημέρωσης που χρησιμοποιούν οι χρήστες του διαδικτύου. / The aim of the current thesis is the amendment of the existing procedures of the mechanism that was constructed with better and more effective methods and algorithms, as well as the development of a desktop application which shall exploit to the maximum the presentation capabilities of the system though the classic client-server model. More specifically, all the operation stages of the mechanism are upgraded. Thus, the data retrieval stage is improved with a new, more effective web crawler. The implemented algorithm at this stage takes into consideration, among others, the modification rate of the RSS Feeds that are analyzed in order to decide if the article's page should be fetched. In this manner, unneeded crawling executions are bypassed and system resources are conserved. Furthermore, the recognition and useful text extraction algorithms are enhanced in order to run faster and return with higher precision the content which responds to the useful text of an article's page. The text preprocessing keyword extraction unneeded are also significantly improved. The algorithms now are parametrized and are adjusted according to the text and its origin. Moreover, the system can recognize the texts language through a modular architecture. In addition, the keyword extraction procedure is enhanced with noun retrieval capabilities. Nouns usually baring the most semantic meaning of the text are now identified and can be weighted accordingly. This subsystem is also designed to support multimedia content which will be correlated with keywords. One step more, the categorization and summarization mechanism are improved with heuristics that deliver better results than the initial version of the system. The summarization procedure has improved significantly with techniques that utilize the system's knowledge not only for the text itself, but also for the user requesting the summary. The categorization procedure is also benefitted by the text's summary using it as a shorter, more meaningful version of the initial text, in order to decide in occasions that the categorization of the full text does not give clear results. The procedure concludes with the personalized presentation of the results on the user's side. The personalization algorithm takes into consideration many parameters, along which the browsing history, the times spent by the user at a text's summary or full body, etc. The algorithm is also "leaning" by the user choices and adjusts itself to the real user preferences as time passes. Thus the system can actually respond positively to the continually changing user preferences. In the φnal stage of the show of information, the results are returned to the application that the user is running on his/her desktop and the development of which is part of this thesis. The aim of the client side application is to utilize and properly present the information that the system has decided to be user-interesting. This information is suitably formatted so as to be really useful and readable on the desktop application. We are not targetting to the "information flooding" of the user, but contrary, to the filtering of information in order to truly represent the user's interests. The developed application is based on standard protocols for the transmission and formatting of information and is easily adjustable by the user, while it also offers many functions which make it able to replace the common methods for the user's everyday internet news reading needs.
113

Αποδοτικοί αλγόριθμοι εξατομίκευσης βασισμένοι σε εξόρυξη γνώσης απο δεδομένα χρήσης Web / Effective personalization algorithms based on Web usage mining

Ρήγκου, Μαρία 25 June 2007 (has links)
Το Web αποτελεί πλέον µια τεράστια αποθήκη πληροφοριών και συνεχίζει να µεγαλώνει εκθετικά, ενώ η ανθρώπινη ικανότητα να εντοπίζει, να επεξεργάζεται και να αντιλαµβάνεται τις πληροφορίες παραµένει πεπερασµένη. Το πρόβληµα στις µέρες µας δεν είναι η πρόσβαση στην πληροφορία, αλλά το ότι όλο και περισσότεροι άνθρωποι µε διαφορετικές ανάγκες και προτιµήσεις πλοηγούνται µέσα σε περίπλοκες δοµές Web χάνοντας στην πορεία το στόχο της αναζήτησής τους. Η εξατοµίκευση, µια πολυσυλλεκτική ερευνητική περιοχή, αποτελεί µια από τις πιο πολλά υποσχόµενες προσεγγίσεις για τη λύση του προβλήµατος του πληροφοριακού υπερφόρτου, παρέχοντας κατάλληλα προσαρµοσµένες εµπειρίες πλοήγησης. Η διατριβή εξετάζει αλγοριθµικά θέµατα που σχετίζονται µε την υλοποίηση αποδοτικών σχηµάτων εξατοµίκευσης σε περιβάλλον web, βασισµένων σε εξόρυξη γνώσης από δεδοµένα χρήσης web. Οι τεχνικές ανακάλυψης προτύπων που µελετώνται περιλαµβάνουν το clustering, την εξόρυξη κανόνων συσχέτισης και την ανακάλυψη σειριακών προτύπων, ενώ οι προτεινόµενες λύσεις εξατοµίκευσης που βασίζονται στις δύο τελευταίες τεχνικές συνδυάζουν τα δεδοµένα χρήσης µε δεδοµένα περιεχοµένου και δοµής. Ειδικότερα, στο πρώτο κεφάλαιο της διατριβής, ορίζεται το επιστηµονικό πεδίο των σύγχρονων τεχνολογιών εξατοµίκευσης στο περιβάλλον του web, εστιάζοντας στη στενή σχέση τους µε το χώρο του web mining, στοιχειοθετώντας µε αυτό τον τρόπο το γενικότερο πλαίσιο αναφοράς. Στη συνέχεια, περιγράφονται τα διαδοχικά στάδια της τυπικής διαδικασίας εξατοµίκευσης µε έµφαση στη φάση ανακάλυψης προτύπων και τις τεχνικές machine learning που χρησιµοποιούνται σε δεδοµένα χρήσης web και το κεφάλαιο ολοκληρώνεται µε µια συνοπτική περιγραφή της συµβολής της διατριβής στο πεδίο της εξατοµίκευσης σε περιβάλλον web. Στο δεύτερο κεφάλαιο προτείνεται ένας αλγόριθµος για εξατοµικευµένο clustering, που βασίζεται σε µια δοµή range tree που διατρέχεται σε πρώτη φάση για τον εντοπισµό των web αντικειµένων που ικανοποιούν τα ατοµικά κριτήρια του χρήστη. Στα αντικείµενα αυτά, εφαρµόζεται στη συνέχεια clustering, ώστε να είναι δυνατή η αποδοτικότερη διαχείρισή τους και να διευκολυνθεί η διαδικασία λήψης αποφάσεων από πλευράς χρήστη. O αλγόριθµος που προτείνεται αποτελεί βελτίωση του αλγόριθµου kmeans range, καθώς εκµεταλλεύεται το range tree που έχει ήδη κατασκευαστεί κατά το βήµα της εξατοµίκευσης και το χρησιµοποιεί ως τη βασική δοµή πάνω στην οποία στηρίζεται το βήµα του clustering χρησιµοποιώντας εναλλακτικά του k-means, τον αλγόριθµο k-windows. Ο συνολικός αριθµός παραµέτρων που χρησιµοποιούνται για την µοντελοποίηση των αντικειµένων υπαγορεύει και τον αριθµό των διαστάσεων του χώρου εργασίας. Η συνολική πολυπλοκότητα χρόνου του αλγορίθµου είναι ίση µε O(logd-2n+v), όπου n είναι ο συνολικός αριθµός των στοιχείων που δίνονται σαν είσοδος και v είναι το µέγεθος της απάντησης. Στο τρίτο κεφάλαιο της διατριβής προτείνεται ένα αποδοτικό σχήµα πρόβλεψης µελλοντικών δικτυακών αιτήσεων βασισµένο στην εξόρυξη σειριακών προτύπων πλοήγησης (navigation patterns) από αρχεία server log, σε συνδυασµό µε την τοπολογία των συνδέσµων του website και τη θεµατική κατηγοριοποίηση των σελίδων του. Τα µονοπάτια που ακολουθούν οι χρήστες κατά την πλοήγηση καταγράφονται, συµπληρώνονται µε τα κοµµάτια που λείπουν λόγω caching και διασπώνται σε συνόδους και σε επεισόδια, ώστε να προκύψουν σηµασιολογικά πλήρη υποσύνολά τους. Τα πρότυπα που εντοπίζονται στα επεισόδια µοντελοποιούνται µε τη µορφή n-grams και οι αποφάσεις πρόβλεψης βασίζονται στη λογική ενός µοντέλου n-gram+ που προσοµοιάζει το all Kth-τάξης µοντέλο Markov και πιο συγκεκριµένα, το επιλεκτικό µοντέλο Markov. Η υβριδική προσέγγιση που υιοθετεί το προτεινόµενο σχήµα, επιτυγχάνει 100% coverage, ενώ κατά τις πειραµατικές µετρήσεις το άνω όριο της ακρίβειας έφθασε το 71,67% στο σύνολο των προβλέψεων που επιχειρήθηκαν. Το χαρακτηριστικό του πλήρους coverage καθιστά το σχήµα κατάλληλο για συστήµατα παραγωγής συστάσεων, ενώ η ακρίβεια µπορεί να βελτιωθεί περαιτέρω αν µεγαλώσει το παράθυρο πρόβλεψης. Στο τέταρτο κεφάλαιο της διατριβής, εξετάζεται η ενσωµάτωση λειτουργιών εξατοµίκευσης στις ηλεκτρονικές µαθησιακές κοινότητες και προτείνεται ένα σύνολο από δυνατότητες εξατοµίκευσης που διαφοροποιούνται ως προς τα δεδοµένα στα οποία βασίζονται, την τεχνική εξόρυξης προτύπων που χρησιµοποιούν και την αντίστοιχη πολυπλοκότητα υλοποίησης. Οι υπηρεσίες αυτές περιλαµβάνουν: (α) εξατοµίκευση µε βάση το ρόλο του χρήστη, (β) εξατοµίκευση µε βάση το βαθµό δραστηριοποίησης του χρήστη, (γ) εξατοµίκευση µε βάση την ανακάλυψη προτύπων στα ατοµικά ιστορικά µελέτης των εκπαιδευόµενων και (δ) εξατοµίκευση µε βάση συσχετίσεις του περιεχοµένου των µαθηµάτων. / The Web has become a huge repository of information and keeps growing exponentially under no editorial control, while the human capability to find, read and understand content remains constant. Providing people with access to information is not the problem; the problem is that people with varying needs and preferences navigate through large Web structures, missing the goal of their inquiry. Web personalization is one of the most promising approaches for alleviating this information overload, providing tailored Web experiences. The present dissertation investigates algorithmic issues concerning the implementation of effective personalization scenarios in the web environment, based on web usage mining. The pattern discovery techniques deployed comprise clustering, association rule mining and sequential pattern discovery, while the proposed personalization schemas based on the latter two techniques integrate usage data with content and structure information. The first chapter introduces the scientific field of current web personalization technology, focusing on its close relation with the web mining domain, providing this way the general framework of the dissertation. Next, the typical web personalization process is described with emphasis on the pattern discovery phase along with an overview of the machine learning techniques applied on web usage data. The chapter concludes with a synoptic description of the contribution of the dissertation to web personalization research and applications domian. The second chapter introduces an algorithm for personalized clustering based on a range tree structure, used for identifying all web objects satisfying a set of predefined personal user preferences. The returned objects go through a clustering phase before reaching the end user, thus allowing more effective manipulation and supporting the decision making process. The proposed algorithm improves the k-means range algorithm, as it uses the already constructed range tree (i.e. during the personalized filtering phase) as the basic structure on which the clustering step is based, applying instead of the kmeans, the k-windows algorithm. The total number of parameters used for modeling the web objects dictates the number of dimensions of the Euclidean space representation. The time complexity of the algorithm is O(logd-2n+v), where d is the number of dimensions, n is the total number of web objects and v is the size of the answer. The third chapter proposes an effective prediction schema for web requests based on extracting sequential navigational patterns from server log files, combined with the website link structure and the thematic categorization of its content pages. The schema records the paths followed by users when browsing through the website pages, completes them with the missing parts (due to caching) and identifies sessions and episodes, so as to derive meaningful path subsets. The patterns extracted from the episodes are modeled in the form of n-grams and the prediction decisions are based on an n-gram+ model that resembles an all Kth-order Markov model and more specifically a selective Markov model. The hybrid approach adapted achieves full-coverage prediction, and reached the upper limit of 71,67% presicion when tested at an experimental setting. The full-coverage feature makes the proposed schema quite suitable for recommendation engines, while precision is further improved when using a larger prediction window. The fourth chapter examines the integration of personalized functionalities in the framework of electronic learning communities and studies the advantages derived from generating dynamic adaptations on the layout, the content as well as the learning scenarios delivered to each community student based on personal data, needs and preferences. More specifically, the chapter proposes a set of personalization functions differentiated by the data they use, the pattern discovery technique they apply and the resulting implementation complexity. These services comprise: (a) personalization based on the user role in the community, (b) personalization based on the level of user activity, (c) personalization based on discovery of association rules in the personal progress files of students, and (d) personalization based on predefined content correlations among learning topics.
114

Εξατομικευμένη αναζήτηση πληροφορίας στο διαδίκτυο

Κάπρος, Παναγιώτης 18 September 2007 (has links)
Στην παρούσα εργασία αντιμετωπίζουμε την διαδικασία εξατομικευμένης αναζήτησης από την πλευρά της σημασιολογίας και του περιεχομένου των σελίδων. Συγκεκριμένα γίνεται χρήση μιας θεματικής ιεραρχίας για την αυτόματη δημιουργία των προφίλ αναζήτησης των χρηστών και χρησιμοποιείται η ίδια ιεραρχία για τον θεματικό χαρακτηρισμό του περιεχομένου ενός κειμένου. Στηριζόμενοι σε μία συνδυασμένη ανάλυση των ενδιαφερόντων του χρήστη και των θεμάτων των σελίδων εξατομικεύουμε τα ανακτώμενα αποτελέσματα δίνοντας προτεραιότητα σε εκείνα τα αποτελέσματα τα οποία το θεματικό τους περιεχόμενο ανταποκρίνεται στο προφίλ του χρήστη. / This work discusses the process of personalized search under the view point of the semantics content of the web pages. In details, a thematic hierarchy is being used to create automatically user search profiles and the same hierarchy is being used to thematic characterize the content of documents. Based on a combined analysis of users’ interests and the thematic content of web pages, we personalize the results giving priority in those results which their thematic content response to the user profile.
115

Σημασιολογική προσωποποίηση στον παγκόσμιο ιστό / Semantic personalization in the world wide web

Βόπη, Αγορίτσα 07 February 2008 (has links)
Η αναζήτηση πληροφορίας στο Παγκόσμιο Ιστό λόγω της ραγδαίας αύξησης του όγκου του αποτελεί ένα δύσκολο και χρονοβόρο εγχείρημα. Επιπρόσθετα, η συνωνυμία και η πολυσημία συμβάλλουν στη δυσκολία εύρεσης πληροφορίας. Στα πλαίσια αυτής της διπλωματικής εργασίας αναπτύχθηκε μια μεθοδολογία για την προσωποποίηση των αποτελεσμάτων μιας μηχανής αναζήτησης ώστε αυτά να ανταποκρίνονται στα ενδιαφέροντα των χρηστών. Η μεθοδολογία αποτελείται από δύο τμήματα, το εκτός σύνδεσης τμήμα και το συνδεδεμένο τμήμα. Στο εκτός σύνδεσης τμήμα χρησιμοποιώντας τα αρχεία πρόσβασης της μηχανής αναζήτησης και εξάγεται πληροφορία για τις επιλογές του χρήστη. Στη συνέχεια πραγματοποιείται η σημασιολογική κατηγοριοποίηση των προηγούμενων επιλογών των χρηστών με χρήση μιας οντολογίας, που αναπτύχθηκε με βάση τους καταλόγους του ODP. Κατόπιν, αναπτύσσεται το προφίλ του χρήστη με βάση την οντολογία αναφοράς που χρησιμοποιήθηκε και στη φάση της σημασιολογικής αντιστοίχισης. Στη συνέχεια, με χρήση αλγορίθμου ομαδοποίησης γίνεται ομαδοποίηση των χρηστών με βάση τα ενδιαφέροντά τους. Στο συνδεδεμένο τμήμα ο αλγόριθμος προσωποποίησης χρησιμοποιεί τις ομάδες που δημιουργήθηκαν στο μη συνδεδεμένο τμήμα και τη σημασιολογική αντιστοίχηση των αποτελεσμάτων της μηχανής αναζήτησης και αναδιοργανώνει τα αποτελέσματά της προωθώντας στις πρώτες θέσεις επιλογής τα αποτελέσματα που είναι περισσότερο σχετικά με τις προτιμήσεις της ομάδας στην οποία ανήκει ο χρήστης. Η μεθοδολογία που προτείνεται έχει εφαρμοστεί σε πειραματική υλοποίηση δίνοντας τα επιθυμητά αποτελέσματα για την προσωποποίηση σύμφωνα με τις σημασιολογικές ομάδες χρηστών. / During the recent years the World Wide Web has been developed rapidly making the efficient searching of information difficult and time-consuming. In this work, we propose a web search results personalization methodology by coupling data mining techniques with the underlying semantics of the web content. To this purpose, we exploit reference ontologies that emerge from web catalogs (such as ODP), which can scale to the growth of the web. Our methodology uses ontologies to provide the semantic profiling of users’ interests based on the implicit logging of their behavior and the on-the-fly semantic analysis and annotation of the web results summaries. Following this the logged web clickthrough data are submitted to offline processing in order to form semantic clusters of interesting categories according to the users’ perspective. Finally, profiles of semantic clusters are combined with the emerging profile of the active user in order to apply a sophisticated re-ranking of search engines results. Experimental evaluation of our approach shows that the objectives expected from semantic users’ clustering in search engines are achievable.
116

Αλγόριθμοι εξαγωγής κανόνων συσχέτισης και εφαρμογές

Μουσουρούλη, Ιωάννα 24 October 2008 (has links)
Η παρούσα μεταπτυχιακή εργασία έχει στόχο τη μελέτη προβλημάτων «κρυμμένης γνώσης» από συστήματα και εφαρμογές ηλεκτρονικού εμπορίου (e-commerce) και ηλεκτρονικής μάθησης (e-learning) με κύριο στόχο τη βελτίωση της ποιότητας και της απόδοσης των παρεχόμενων υπηρεσιών προς τους τελικούς χρήστες. Στο πρώτο κεφάλαιο παρουσιάζεται ένα σενάριο για σημασιολογικά εξατομικευμένο e-learning. Ο προτεινόμενος αλγόριθμος βασίζεται σε μια οντολογία (ontology) η οποία βοηθά στη δόμηση και στη διαχείριση του περιεχομένου που σχετίζεται με μια δεδομένη σειρά μαθημάτων, ένα μάθημα ή ένα θεματικό. Η διαδικασία χωρίζεται σε δύο στάδια: στο offline στάδιο το οποίο περιλαμβάνει τις ενέργειες προετοιμασίας των δεδομένων, δημιουργίας της οντολογίας και εξόρυξης από δεδομένα χρήσης (usage mining) και στο online στάδιο το οποίο περιλαμβάνει την εξαγωγή των εξατομικευμένων συστάσεων. Το προτεινόμενο σύστημα σε πρώτη φάση βρίσκει ένα αρχικό σύνολο συστάσεων βασισμένο στην οντολογία του πεδίου και στη συνέχεια χρησιμοποιεί τα frequent itemsets (συχνά εμφανιζόμενα σύνολα στοιχείων) για να το εμπλουτίσει, λαμβάνοντας υπόψη την πλοήγηση άλλων παρόμοιων χρηστών (similar users). Με τον τρόπο αυτό, μειώνεται ο χρόνος που απαιτείται για την ανάλυση όλων των frequent itemsets και των κανόνων συσχέτισης. Η ανάλυση εστιάζεται μόνο σε εκείνα τα σύνολα που προέρχονται από το συνδυασμό της ενεργούς συνόδου (current session) του χρήστη και των συστάσεων της οντολογίας. Αν και η εξατομίκευση απαιτεί αρκετά βήματα επεξεργασίας και ανάλυσης, στη συγκεκριμένη προσέγγιση το εμπόδιο αυτό αποφεύγεται με την εκτέλεση σημαντικού μέρους της διαδικασίας offline. Στο δεύτερο κεφάλαιο μελετάται το πρόβλημα της παραγωγής προτάσεων σε μια εφαρμογή e-commerce. Η προτεινόμενη υβριδική προσέγγιση στοχεύει στην παραγωγή αποτελεσματικών συστάσεων για τους πελάτες ενός online καταστήματος που ενοικιάζει κινηματογραφικές ταινίες. Η γνώση για τους πελάτες και τα προϊόντα προκύπτει από τα δεδομένα χρήσης και τη δομή της οντολογίας σε συνδυασμό με τις εκτιμήσεις-βαθμολογίες των πελατών για τις ταινίες καθώς και την εφαρμογή τεχνικών ταιριάσματος «όμοιων» πελατών. Όταν ένα ή περισσότερα κριτήρια ταιριάσματος ικανοποιούνται, τότε άλλες ταινίες μπορούν να προσδιοριστούν σύμφωνα με το οντολογικό σχήμα που έχουν παρόμοια χαρακτηριστικά με αυτές που ο πελάτης έχει ήδη νοικιάσει. Στην περίπτωση ενός νέου πελάτη όπου το ιστορικό του είναι κενό, αναλύονται πληροφορίες από την αίτηση εγγραφής του ώστε να ταξινομηθεί σε μια συγκεκριμένη κλάση πελατών και να παραχθούν προτάσεις με βάση το οντολογικό σχήμα. Αυτή η ενοποίηση παρέχει πρόσθετη γνώση για τις προτιμήσεις των πελατών και επιτρέπει την παραγωγή επιτυχημένων συστάσεων. Ακόμη και στην περίπτωση του «cold-start problem» όπου δεν είναι διαθέσιμη αρχική πληροφορία για τη συμπεριφορά του πελάτη, η προσέγγιση προβαίνει σε σχετικές συστάσεις. Στο τρίτο κεφάλαιο παρουσιάζεται μία νέα προσέγγιση στο πρόβλημα της δημιουργίας συστάσεων. Οι προηγούμενες προσεγγίσεις δεν λαμβάνουν υπόψη τους τη σειρά με την οποία ο χρήστης προσπελαύνει τα δεδομένα, είτε πρόκειται για e-learning είτε πρόκειται για e-commerce δεδομένα. Στο κεφάλαιο αυτό προτείνεται μία τεχνική η οποία λαμβάνει υπόψη τη σειρά με την οποία ο χρήστης προσπελαύνει τα δεδομένα (ordering). Πιο συγκεκριμένα μελετάται η τεχνική αυτή σε e-commerce συστήματα και καλάθια αγορών. Παρουσιάζεται και αναλύεται η υλοποίηση του προτεινόμενου αλγορίθμου. Επιπλέον γίνεται αξιολόγηση των αποτελεσμάτων του αλγορίθμου σε testing input data τα οποία και δείχνουν την ποιότητα των παραγόμενων συστάσεων. / -
117

Politikų tinklaraščių (blogų) naudojimo politinėje komunikacijoje vertinimas / Assessment of usage of politicians' blogs in political communication

Čerkauskas, Vidas 05 September 2014 (has links)
Tradicinė žiniasklaida vis dar yra populiariausia komunikacinė sistema, tačiau pasaulinis interneto voratinklis taip pat tapo plačiai naudojama komunikacine erdve, neatskiriama politinės komunikacijos dalimi. Internetinėje erdvėje svarbiausia yra ne tai, kiek politiniai reklamai išleidžiama lėšų, o politikų idėjos ir nuostatos, partijų ideologija ir argumentai. Vadinasi, politikų galimybės internete tampa lygios. Interneto suteikiama galimybė vykti abipusei komunikacijai tarp politikų ir visuomenės, naudotis daugybe naujų įrankių, naujų informacijos keitimosi būdų keičia politinę komunikaciją. Tinklaraščiai pakeitė politinių požiūrių funkcionavimą viešojoje erdvėje. Joje dominuoja politinis vertybinis kontekstas, neveikia racionalūs argumentai, nes politika – tai vertybinių pozicijų susidūrimas, kur oponentas visada turi būti nugalėtas. Politikų tinklaraščiuose visada pateikiamas atitinkamas politinis požiūris, kuris gali būti paprastų ir visiems suprantamų, į vertybes apeliuojančių tezių rinkinys. Remiantis iškeltomis hipotezėmis, kurios pasitvirtino, darbe prieita prie šių išvadų: 1) Motyvai, skatinantys Lietuvos politikus naudotis tinklaraščiais, yra itin patobulėjusios „virtualiosios“ politinės komunikacijos technologijos, politikų polinkis neatsilikti nuo išsivysčiusių šalių praktikos šioje srityje. 2) Lietuvos politikų poreikis naudotis tinklaraščiais yra daugiau išorinis, veikiau „padiktuotas“ užsienio mados, o ne gilaus vidinio įsitikinimo. Dauguma jų į tinklaraščius... [toliau žr. visą tekstą] / The Internet usage forms in political communication constantly change and improve. One of them is blogs. According to S. Herring, most scholars agree that the blog is the most relevant form of communication using PC. Most researches of the last decade were designated for the research of the impact of political blog on mass media and a blog as a form of political participation. Researches also reflected motives for writing in blogs. Findings of scholars who analyzed political communication demonstrated that the greatest motive for politicians to write in blogs is a possibility to set out their ideas and get into a dialogue with groups of citizens who support them. The first researches of blogs were the blog writers. The most prominent of them are D. W. Drezner, H. Farrell, M. Hindman, R. Blood, D. Burstein and etc. This Master thesis analyzes application of blogs – a new and modern (and becoming more and more modern) means of communication – in communication of the Seimas members with citizens, the approach to importance of the usage of blogs in political communication and importance to formation of political society and public spirit is introduced. Besides the paper tries to analyze possibilities of members of the Seimas to communicate with citizens via the Internet, their attitude towards blogs as a way of political communication and to establish the reasons and peculiarities for usage of new „virtual“ form of communication and assess their motives and actions. The goals set... [to full text]
118

SoundAnchoring: Personalizing music spaces with anchors

Oliveira, Leandro Collares de 01 May 2013 (has links)
Several content-based interfaces for music collection exploration rely on Self-Organizing Maps (SOMs) to produce 2D or 3D visualizations of music spaces. In these visualizations, perceptually similar songs are clustered together. The positions of clusters containing similar songs, however, cannot be determined in advance due to particularities of the traditional SOM algorithm. In this thesis, I propose a variation on the traditional algorithm named anchoredSOM. This variation avoids changes in the positions of the aforementioned clusters. Moreover, anchoredSOM allows users to personalize the music space by choosing the locations of clusters containing per- ceptually similar tracks. This thesis introduces SoundAnchoring, an interface for music collection exploration featuring anchoredSOM. SoundAnchoring is evaluated by means of a user study. Results show that SoundAnchoring offers engaging ways to explore music collections and build playlists. / Graduate / 0984 / 0413 / leandro.collares@gmail.com
119

"Hamrén-haveriet" : En kvantitativ studie om personifiering av svenska förbundskaptener i kvällstidningarna

Berntsson, Jonathan, Larsson, Simon January 2014 (has links)
Total amount of words: 15 269. In this essay, the purpose is to examine the personalization of Swedish national coaches during international championships in the Swedish tabloids. Research shows that a leader nowadays is representative for her organization. Therefore it could be assumed that the way the national coach is portrayed can have some kind of effect on the public opinion about the team as a unit and their sport federation in total.  This essay is a quantitative study of the sport tabloids Sportbladet och SPORT-Expressen during three international championships: Euro 2012 in football, WC 2013 in ice hockey and Euro 2014 in handball. We have studied the coverage of the national coaches Erik Hamrén, Pär Mårts and Ola Lindgren/Staffan Olsson in contrast to the coverage of their teams in total. The main results are that the national coaches are mentioned in every second article that is written about the national teams during the championships. They are mainly portrayed in a neutral way, even though the coverage of them is affected by the results in the matches. In the absolute majority of the articles, the national coaches are described without any personal attributes.
120

Μηχανισμοί και τεχνικές διαχείρισης, επεξεργασίας, ανάλυσης, κατηγοριοποίησης, εξαγωγής περίληψης και προσωποποίησης συχνά ανανεώσιμων δεδομένων του παγκόσμιου ιστού για παρουσίαση σε σταθερές και κινητές συσκευές

Πουλόπουλος, Βασίλειος 01 November 2010 (has links)
Ζούμε μία εποχή τεχνολογικών εξελίξεων και τεχνολογικών αλμάτων με το Διαδίκτυο να γίνεται ένας από τους βασικότερους εκφραστές των νέων τεχνολογικών τάσεων. Ωστόσο, ο τρόπος λειτουργίας του και δόμησής του παρουσιάζει εξαιρετικά μεγάλη ανομοιογένεια με αποτέλεσμα οι χρήστες να βρίσκονται συχνά μπροστά από αδιέξοδο στην προσπάθεια αναζήτησης πληροφορίας. Άλλωστε η ύπαρξη εκατομμυρίων domains οδηγεί σε δυσκολίες κατά την αναζήτηση πληροφορίας. Η έρευνα που πραγματοποιείται επικεντρώνεται στους δικτυακούς τόπους που αποτελούν πηγές ενημέρωσης και πιο συγκεκριμένα στα ειδησεογραφικά πρακτορεία ειδήσεων, αλλά και στα blogs. Μία απλή αναζήτηση αποκάλυψε περισσότερους από 40 δικτυακούς τόπους από μεγάλα ειδησεογραφικά πρακτορεία στην Αμερική. Αυτό σημαίνει πως στην προσπάθεια αναζήτησης μίας είδησης και δη, όλων των πτυχών της, κάποιος θα πρέπει να επισκεφθεί αν όχι όλους, τους περισσότερους από αυτούς τους δικτυακούς τόπους για να εντοπίσει στοιχεία για το θέμα που τον ενδιαφέρει. Σε αυτό το «πρόβλημα» ή έστω σε αυτή την επίπονη διαδικασία, έχει γίνει προσπάθεια να δοθούν λύσεις μέσα από τη χρήση των καναλιών επικοινωνίας RSS και μέσα από προσωποποιημένους δικτυακούς τόπους που διαθέτουν τα μεγάλα ειδησεογραφικά πρακτορεία ή ακόμα και από τους μηχανισμούς αναζήτησης που αυτοί διαθέτουν. Σε κάθε περίπτωση όμως, υπάρχουν σημαντικά μειονεκτήματα που συχνά οδηγούν και πάλι το χρήστη σε αδιέξοδο. Τα κανάλια επικοινωνίας δε φιλτράρουν πληροφορίες, τροφοδοτώντας τους RSS readers των χρηστών με πληθώρα πληροφοριών που δεν αφορούν τους χρήστες ή ακόμα είναι ενοχλητικές για αυτούς. Για παράδειγμα η προσθήκη δύο (2) μόνον καναλιών από Ελληνικά μεγάλα ειδησεογραφικά portals μας οδήγησε στη λήψη περισσότερων από 1000 ειδήσεων καθημερινά. Από την άλλη, η χρήση των microsites που έχουν οι δικτυακοί τόποι επιβάλει στους χρήστες την επίσκεψη σε όλους τους δικτυακούς τόπους που τους ενδιαφέρουν. Όσον αφορά στη χρήση των μηχανών αναζήτησης, ακόμα και οι πιο μεγάλες από αυτές συχνά επιστρέφουν εκατομμύρια αποτελέσματα στα ερωτήματα των χρηστών ή πληροφορίες που δεν είναι επικαιροποιημένες. Τέλος, επειδή οι δικτυακοί τόποι των ειδησεογραφικών πρακτορείων δεν έχουν κατασκευαστεί για να προσφέρουν εκτενείς υπηρεσίες αναζήτησης ειδήσεων, είναι συχνό το φαινόμενο είτε να μην προσφέρουν καθόλου υπηρεσία αναζήτησης, είτε η υπηρεσία που προσφέρουν να μη μπορεί να απαντήσει με δομημένα αποτελέσματα και αντί να βοηθά τους χρήστες να εντοπίσουν την πληροφορία που αναζητούν, να τους αποπροσανατολίζει. / We live an era of technology advances and huge technological steps where the Internet becomes a basic place of demonstration of the technology trends. Nevertheless, the way of operation and construction of the WWW is extremely uneven and this results in dead-ends when the users are trying to locate information. Besides the existence of billions of domains leads to difficulties in difficulties in recording all this information. The research that we are doing, is focused on websites that are sources of information and specifically news portals and informational blogs. A simple search on the Internet led to more than 40 large scale press agencies in America. This means that when trying to search for information and more specifically a news article in all its existences somebody has to visit all the websites. This problem, or at least this tedious task is of major concern of the research community. Many solutions were proposed in order to overcome the aforementioned issues with usage of RSS feeds or personalized microsites, or even analytical search applications. In any occasion there are many disadvantages that lead the user to a dead-end again. The RSS feeds do not filter information and they feed the user’s RSS readers with large amounts of information that most of it is not of the user’s concern. For example, a simple addition of 2 rss feeds from large Greek portals led to receipt of more that 1000 news articles within a day! On the other side, the usage of microsites that many websites support is a solution if and only if the user visits every single website and of course have and maintain an account to each one of them. The search engines are an alternative but lately, due to the expansion of the WWW, the results to simple queries are often million or the first results retrieved are outdated. Finally, the websites of the major news agencies are not directly constructed to offer extensive searching facilities and thus they usually offer search results through support of a large well-known search engine (eg. Google). According to the aforementioned the research that we are conducting is furthermore focused on the study of techniques and mechanisms that try to give a solution to the everyday issue of being informed about news and having a spherical opinion about an issue. The idea is simple and lies on the problem of the Internet: instead of letting the user do all the search of the news and information that meet their needs we collect all the informationand present them directly to the user, presenting only the information that meet their profile. This sounds pretty simple and logical, but the implementation we have to think of a number of prerequisites. The constraints are: the users of the Internet speak different languages and they want to see the news in their mother language and the users want access to the information from everywhere. This implies that we need a mechanism that would collect news articles from many – if not all – news agencies worldwide so that everybody can be informed. The news articles that we collect should be furthermore analyzed before presented to the users. In parallel we need to apply text pre-processing techniques, categorization and automatic summarization so that the news articles can be presented back to the user in a personalized manner. Finally, the mechanism is able to construct and maintain a user profile and present only articles that meet the profile of the user and not all the articles collected by the system. As it is obvious this is not a simple procedure. Substantially it a multilevel modular mechanism that implements and uses advanced algorithm on every level in order to achieve the required result. We are referring to eight different mechanisms that lead to the desired result. The systems are: 1. Retrieve news and articles from the Internet –advaRSS system 2. HTML page analysis and useful text extraction – CUTER system. 3. Preprocess and Natural Language Processing in order to extract keywords. 4. Categorization subsystem in order to construct ontologies that assigns texts to categories 5. Article Grouping mechanism (web application level) 6. Automatic Text Summarization 7. Web based User Personalization Mechanism 8. Application based User Personalization Mechanism The subsystems and system architecture is presented in figure 1: The procedure of fetching articles and news from the WWW is a procedure that includes algorithms that fetch data of the large database that is called internet. In this research we have included algorithms for instant retrieval of articles and the mechanism has furthermore mechanism for fetching HTML pages that include news articles. As a next step and provided that we own HTML pages with articles we have procedures for efficient useful text extraction. The HTML pages include the body of the article and information that are disrelated to the article like advertisements. Our mechanism introduces algorithms and systems for extraction of the original body of the text out of the aforementioned pages and omitting any irrelevant information. As a furthermore procedure of the same mechanism we try and extract multimedia related to the article. The aforementioned mechanism are communicating directly with the Internet.

Page generated in 0.0892 seconds