461 |
Αλγόριθμοι και τεχνικές εξατομικευμένης αναζήτησης σε διαδικτυακά περιβάλλοντα με χρήση υποκείμενων σημασιολογιώνΠλέγας, Ιωάννης 06 December 2013 (has links)
Η τεράστια ανάπτυξη του Παγκόσμιου Ιστού τις τελευταίες δεκαετίες έχει αναδείξει την αναζήτηση πληροφοριών ως ένα από τα πιο σημαντικά ζητήματα στον τομέα της έρευνας στις Τεχνολογίες της Πληροφορικής.
Σήμερα, οι σύγχρονες μηχανές αναζήτησης απαντούν αρκετά ικανοποιητικά στα ερωτήματα των χρηστών, αλλά τα κορυφαία αποτελέσματα που επιστρέφονται δεν είναι πάντα σχετικά με τα δεδομένα που αναζητά ο χρήστης. Ως εκ τούτου, οι μηχανές αναζήτησης καταβάλλουν σημαντικές προσπάθειες για να κατατάξουν τα πιο σχετικά αποτελέσματα του ερωτήματος ως προς τον χρήστη στα κορυφαία αποτελέσματα της λίστας κατάταξης των αποτελεσμάτων. Η διατριβή αυτή ασχολείται κυρίως με το παραπάνω πρόβλημα, δηλαδή την κατάταξη στις υψηλότερες θέσεις των πιο σχετικών αποτελεσμάτων ως προς τον χρήστη (ειδικά για ερωτήματα που οι όροι τους έχουν πολλαπλές σημασίες).
Στο πλαίσιο της παρούσας έρευνας κατασκευάστηκαν αλγόριθμοι και τεχνικές που βασίζονται στην τεχνική της σχετικής ανατροφοδότησης (relevance feedback) για την βελτίωση των αποτελεσμάτων που επιστρέφονται από μια μηχανή αναζήτησης. Βασική πηγή της ανατροφοδότησης ήταν τα αποτελέσματα που επιλέγουν οι χρήστες κατά την διαδικασία πλοήγησης. Ο χρήστης επεκτείνει την αρχική πληροφορία αναζήτησης (λέξεις κλειδιά) με νέα πληροφορία που προέρχεται από τα αποτελέσματα που διαλέγει. Έχοντας ένα νέο σύνολο πληροφορίας που αφορά τις προτιμήσεις του χρήστη, συγκρίνεται η σημασιολογική πληροφορία του συνόλου αυτού με τα υπόλοιπα αποτελέσματα (αυτά που επιστράφηκαν πριν επιλέξει το συγκεκριμένο αποτέλεσμα) και μεταβάλλεται η σειρά των αποτελεσμάτων προωθώντας και προτείνοντας τα αποτελέσματα που είναι πιο σχετικά με το νέο σύνολο πληροφορίας.
Ένα άλλο πρόβλημα που πρέπει να αντιμετωπιστεί κατά την υποβολή ερωτημάτων από τους χρήστες σε μια μηχανή αναζήτησης είναι ότι τα ερωτήματα που υποβάλλονται στις μηχανές αναζήτησης είναι συνήθως μικρά σε αριθμό λέξεων και αμφίσημα. Συνεπώς, πρέπει να υπάρχουν τρόποι αποσαφήνισης των διαφορετικών εννοιών των όρων αναζήτησης και εύρεσης της έννοιας που ενδιαφέρει τον χρήστη. Η αποσαφήνιση των όρων αναζήτησης είναι μια διαδικασία που έχει μελετηθεί στην βιβλιογραφία με αρκετούς διαφορετικούς τρόπους. Στην διατριβή μου προτείνω νέες στρατηγικές αποσαφήνισης των εννοιών των όρων αναζήτησης των μηχανών αναζήτησης και εξερευνάται η αποδοτικότητά τους στις μηχανές αναζήτησης. Η καινοτομία τους έγκειται στη χρήση του Page-Rank σαν ενδείκτη της σημαντικότητας μιας έννοιας για έναν όρο του ερωτήματος.
Επίσης είναι ευρέως γνωστό ότι ο Παγκόσμιος Ιστός περιέχει έγγραφα με την ίδια πληροφορία και έγγραφα με σχεδόν ίδια πληροφορία. Παρά τις προσπάθειες των μηχανών αναζήτησης με αλγόριθμους εύρεσης των κειμένων που περιέχουν επικαλυπτόμενη πληροφορία, ακόμα υπάρχουν περιπτώσεις που τα κείμενα που ανακτώνται από μια μηχανή αναζήτησης περιέχουν επαναλαμβανόμενη πληροφορία. Στην διατριβή αυτή παρουσιάζονται αποδοτικές τεχνικές εύρεσης και περικοπής της επικαλυπτόμενης πληροφορίας από τα αποτελέσματα των μηχανών αναζήτησης χρησιμοποιώντας τις σημασιολογικές πληροφορίες των αποτελεσμάτων των μηχανών αναζήτησης. Συγκεκριμένα αναγνωρίζονται τα αποτελέσματα που περιέχουν την ίδια πληροφορία και απομακρύνονται, ενώ ταυτόχρονα τα αποτελέσματα που περιέχουν επικαλυπτόμενη πληροφορία συγχωνεύονται σε νέα κείμενα(SuperTexts) που περιέχουν την πληροφορία των αρχικών αποτελεσμάτων χωρίς να υπάρχει επαναλαμβανόμενη πληροφορία.
Ένας άλλος τρόπος βελτίωσης της αναζήτησης είναι ο σχολιασμός των κειμένων αναζήτησης έτσι ώστε να περιγράφεται καλύτερα η πληροφορία τους. Ο σχολιασμός κειμένων(text annotation) είναι μια τεχνική η οποία αντιστοιχίζει στις λέξεις του κειμένου επιπλέον πληροφορίες όπως η έννοια που αντιστοιχίζεται σε κάθε λέξη με βάση το εννοιολογικό περιεχόμενο του κειμένου. Η προσθήκη επιπλέον σημασιολογικών πληροφοριών σε ένα κείμενο βοηθάει τις μηχανές αναζήτησης να αναζητήσουν καλύτερα τις πληροφορίες που ενδιαφέρουν τους χρήστες και τους χρήστες να βρουν πιο εύκολα τις πληροφορίες που αναζητούν. Στην διατριβή αυτή αναλύονται αποδοτικές τεχνικές αυτόματου σχολιασμού κειμένων από τις οντότητες που περιέχονται στην Wikipedia, μια διαδικασία που αναφέρεται στην βιβλιογραφία ως Wikification. Με τον τρόπο αυτό οι χρήστες μπορούν να εξερευνήσουν επιπλέον πληροφορίες για τις οντότητες που περιέχονται στο κείμενο που τους επιστρέφεται.
Ένα άλλο τμήμα της διατριβής αυτής προσπαθεί να εκμεταλλευτεί την σημασιολογία των αποτελεσμάτων των μηχανών αναζήτησης χρησιμοποιώντας εργαλεία του Σημασιολογικού Ιστού. Ο στόχος του Σημασιολογικού Ιστού (Semantic Web) είναι να κάνει τους πόρους του Ιστού κατανοητούς και στους ανθρώπους και στις μηχανές. Ο Σημασιολογικός Ιστός στα πρώτα βήματά του λειτουργούσε σαν μια αναλυτική περιγραφή του σώματος των έγγραφων του Ιστού. Η ανάπτυξη εργαλείων για την αναζήτηση σε Σημασιολογικό Ιστό είναι ακόμα σε πρώιμο στάδιο. Οι σημερινές τεχνικές αναζήτησης δεν έχουν προσαρμοστεί στην δεικτοδότηση και στην ανάκτηση σημασιολογικής πληροφορίας εκτός από μερικές εξαιρέσεις. Στην έρευνά μας έχουν δημιουργηθεί αποδοτικές τεχνικές και εργαλεία χρήσης του Παγκόσμιου Ιστού. Συγκεκριμένα έχει κατασκευαστεί αλγόριθμος μετατροπής ενός κειμένου σε οντολογία ενσωματώνοντας την σημασιολογική και συντακτική του πληροφορία έτσι ώστε να επιστρέφονται στους χρήστες απαντήσεις σε ερωτήσεις φυσικής γλώσσας.
Επίσης στην διατριβή αυτή αναλύονται τεχνικές φιλτραρίσματος XML εγγράφων χρησιμοποιώντας σημασιολογικές πληροφορίες. Συγκεκριμένα παρουσιάζεται ένα αποδοτικό κατανεμημένο σύστημα σημασιολογικού φιλτραρίσματος XML εγγράφων που δίνει καλύτερα αποτελέσματα από τις υπάρχουσες προσεγγίσεις.
Τέλος, στα πλαίσια αυτής της διδακτορικής διατριβής γίνεται επιπλέον έρευνα για την βελτίωση της απόδοσης των μηχανών αναζήτησης από μια διαφορετική οπτική γωνία. Στην κατεύθυνση αυτή παρουσιάζονται τεχνικές περικοπής ανεστραμμένων λιστών ανεστραμμένων αρχείων. Επίσης επιτυγχάνεται ένας συνδυασμός των προτεινόμενων τεχνικών με υπάρχουσες τεχνικές συμπίεσης ανεστραμμένων αρχείων πράγμα που οδηγεί σε καλύτερα αποτελέσματα συμπίεσης από τα ήδη υπάρχοντα. / The tremendous growth of the Web in the recent decades has made the searching for information as one of the most important issues in research in Computer Technologies.
Today, modern search engines respond quite well to the user queries, but the results are not always relative to the data the user is looking for. Therefore, search engines are making significant efforts to rank the most relevant query results to the user in the top results of the ranking list. This work mainly deals with this problem, the ranking of the relevant results to the user in the top of the ranking list even when the queries contain multiple meanings. In the context of this research, algorithms and techniques were constructed based on the technique of relevance feedback which improves the results returned by a search engine. Main source of feedback are the results which the users selects during the navigation process. The user extends the original information (search keywords) with new information derived from the results that chooses. Having a new set of information concerning to the user's preferences, the relevancy of this information is compared with the other results (those returned before choosing this effect) and change the order of the results by promoting and suggesting the results that are more relevant to the new set of information.
Another problem that must be addressed when the users submit queries to the search engines is that the queries are usually small in number of words and ambiguous. Therefore, there must be ways to disambiguate the different concepts/senses and ways to find the concept/sense that interests the user. Disambiguation of the search terms is a process that has been studied in the literature in several different ways. This work proposes new strategies to disambiguate the senses/concepts of the search terms and explore their efficiency in search engines. Their innovation is the use of PageRank as an indicator of the importance of a sense/concept for a query term.
Another technique that exploits semantics in our work is the use of text annotation. The use of text annotation is a technique that assigns to the words of the text extra information such as the meaning assigned to each word based on the semantic content of the text. Assigning additional semantic information in a text helps users and search engines to seek or describe better the text information. In my thesis, techniques for improving the automatic annotation of small texts with entities from Wikipedia are presented, a process that referred in the literature as Wikification.
It is widely known that the Web contain documents with the same information and documents with almost identical information. Despite the efforts of the search engine’s algorithms to find the results that contain repeated information; there are still cases where the results retrieved by a search engine contain repeated information. In this work effective techniques are presented that find and cut the repeated information from the results of the search engines. Specifically, the results that contain the same information are removed, and the results that contain repeated information are merged into new texts (SuperTexts) that contain the information of the initial results without the repeated information.
Another part of this work tries to exploit the semantic information of search engine’s results using tools of the Semantic Web. The goal of the Semantic Web is to make the resources of the Web understandable to humans and machines. The Semantic Web in their first steps functioned as a detailed description of the body of the Web documents. The development of tools for querying Semantic Web is still in its infancy. The current search techniques are not adapted to the indexing and retrieval of semantic information with a few exceptions. In our research we have created efficient techniques and tools for using the Semantic Web. Specifically an algorithm was constructed that converts to ontology the search engine’s results integrating semantic and syntactic information in order to answer natural language questions.
Also this paper contains XML filtering techniques that use semantic information. Specifically, an efficient distributed system is proposed for the semantic filtering of XML documents that gives better results than the existing approaches.
Finally as part of this thesis is additional research that improves the performance of the search engines from a different angle. It is presented a technique for cutting the inverted lists of the inverted files. Specifically a combination of the proposed technique with existing compression techniques is achieved, leading to better compression results than the existing ones.
|
462 |
應用語意網於動態工作流程之研究陳婷妤, CHEN, TING-YU Unknown Date (has links)
全球化經濟體系的興起,促使產業結構大幅改變,商業行為益趨複雜,顧客需求日漸多元化、個人化,產品服務種類及結構更加繁瑣,因改變隨之而來的成本劇增,如何快速接近並滿足顧客的需求,已成為在激烈競爭環境中的致勝關鍵,而工作流程管理技術正是影響關鍵的重要樞鈕。
現今工作流程管理技術在企業工作流程自動化,監督、協同合作及控制各種活動的執行,以及有效利用資源、縮短流程之研究領域方面已相當成熟,但仍存在工作流程執行的彈性匱乏,與企業資源無法共享的問題。
因此,本研究提出一個簡單有效的動態處理工作流程架構,透過語意網標準語言-資源描述結構(RDF(S)及DAML+OIL制定更嚴謹、豐富、彈性的工作流程定義,使工作流程處理具有邏輯推理的知識能力,另一方面提供一套流程改變機制,以自動調適在執行期間動態改變的流程。 / By the development of global economics influences business model more and more complex. The way of promoting productivity and decreasing cost is the issue of the company. Current workflow management approaches can reach automatic, monitoring, collaboration and controlling the process. But process description and sharing resource approaches consider simplistic method invocation. So how to create dynamic workflow enrich process definition and modify the program at run time is very important issue.
In this thesis we propose richer process representations using the semantic web languages which enable us to capture process than current approaches and applying a change system to adapt process change in run time. Further, we develop algorithms by which potential problem in dynamic workflow can be more flexible and combine computer and human activities.
Keyword: Semantic Web, Ontology, Dynamic Workflow
|
463 |
在點對點網路上以BT為基礎的數位媒體語意式搜尋系統張易修 Unknown Date (has links)
在目前的網際網路中,點對點(P2P)網路的應用扮演了一個重要的角色。由於在點對點網路架構下,檔案分享系統中檔案的數量以及來源大量增加,造成使用者必須花費更多的時間找尋想要的資源,因此搜尋功能就顯得格外地重要。BitTorrent(BT)作為一個點對點檔案分享系統,用戶量不斷增加,已逐漸成為網路頻寬的主要消耗者之一,但是其協定中沒有提供搜尋的功能,而且檔案分散於各個檔案發佈站之間,以及各發佈站之間無法有效搜尋彼此擁有的檔案資源,導致使用者查詢時效率不佳。因此本研究期望建立一套語意式搜尋機制來幫助使用者解決上述的問題。藉由使用語意網技術(Semantic Web),針對BT檔案分享系統設計本體論,進行資源描述和建立簡單的分類,利用檔案的metadata來提供搜尋的功能以及彙整各檔案分佈站的檔案資源,做為上述議題的一個解決方案,讓使用者能夠更有效率地找到更完整的資源。 / In current World Wide Web, P2P network application plays an important role. Because the number and origin of files increase greatly in file sharing system under the architecture of P2P, causing users to spend more time searching for the resources they want. Therefore, the search function appears especially important. BitTorrent(BT), one kind of P2P file sharing system, has more and more users and becomes one of the biggest consumer of the network bandwidth. But it doesn't support any search function and shared files disperse between many web sites. Furthermore, these web sites can't exchange the shared files they own efficiently. These problems result in inefficient search performance. My research expects to propose a semantic search method to solve the problems mentioned above. By the means of Semantic Web technology, we design the ontology of BT file sharing system to describe the resources and establish simple taxonomy. In addition, using the metadata of files to provide BT for search function and collect the shared files between web sites. Let users find the shared files more efficiently and completely.
|
464 |
運用文字探勘技術輔助建構法律條文之語意網路-以公司法為例張露友 Unknown Date (has links)
本論文運用文字探勘相關技術,嘗試自動計算法條間的相似度,輔助專家從公司法眾多法條中整理出規則,建立法條之間的關聯,使整個法典並不是獨立的法條條號與法條內容的集合,而是在法條之間透過語意的方式連結成網路,並從分析與解釋關聯的過程中,探討文字探勘技術運用於法律條文上所遭受之困難及限制,以供後續欲從事相關研究之參考。
本論文的研究結果,從積極面來看,除了可以建立如何運用文字探勘於輔助法律知識擷取的方法之外,另一方面,從消極面來看,倘若研究結果顯示,文字探勘技術並不完全適用於法律條文的知識擷取上,那麼對於從事類似研究的專業人員而言,本論文所提出的結論與建議,亦可作為改善相關技術的重要參考。 / This thesis tries to use text mining technique to calculate, compare and analyze the correlation of legal codes. And based on the well-known defined legal concept and knowledge, it also tries to help explain and evaluate the relations above using the result of automatic calculation. Furthermore, this thesis also wishes to contribute on how to apply information technology effectively onto legal knowledge domain.
If the research reveals the positive result, it could be used for knowledge build-up on how to utilize text mining technology onto legal domain. However, if the study shows that text mining doesn’t apparently apply to knowledge extracting of legal domain, then the conclusion and suggestion from this thesis could also be regarded as a important reference to other professionals in the similar research fields.
|
465 |
實踐具語意的著作權管理規範來逼近合理使用 / Semantic Enforcement of DRM Policies to Approximate Fair Use林光德, Lin, Guang De Unknown Date (has links)
法律明定使用者可以對別人的創作內容有一定程度的合理使用(Fair Use)範圍,像是以教學為用途而可影印書籍部份內容。然而合理使用的規範判定在電腦上難以實作,現有的DRM (Digital Rights Management, 著作權管理)系統甚少實現這樣的理想。
本研究在現有的ODRL2語言上架上使用本體論(Ontology)語言來加強本身所缺乏的語意,讓本體論與規則語言(Rule Language)結合,來達到規範(Policy)標示的能力,並且使用現有的推論引擎(Reasoning Engine),拿到規範正確執行的能力。最後在帶有規範執行的機制底下,標示合理使用的基本規範,並加強ODRL的標示能力去逼近合理使用的精神。 / United States copyright laws grants users the rights to make “fair use” of copyrighted works, e.g. copying part of a book for the use of education purpose. Current digital rights management (DRM) systems are hard to enforce fair use doctrine for two reasons. First is that the current XML-based rights expression language (REL) are unable to describe the rights of fair use; and second is that the architecture of DRM systems interferes with fair use. This approach proposed a rights expression language based on ODRL 2.0 with Semantic Web technologies to get the ability to describe fair use policies. In addition, we design a fair use procedure mechanism for managing and enforcing fair use policies defined by trusted third parties. Both REL improvement and new procedure are done to approximate fair use.
|
466 |
Role of description logic reasoning in ontology matchingReul, Quentin H. January 2012 (has links)
Semantic interoperability is essential on the Semantic Web to enable different information systems to exchange data. Ontology matching has been recognised as a means to achieve semantic interoperability on the Web by identifying similar information in heterogeneous ontologies. Existing ontology matching approaches have two major limitations. The first limitation relates to similarity metrics, which provide a pessimistic value when considering complex objects such as strings and conceptual entities. The second limitation relates to the role of description logic reasoning. In particular, most approaches disregard implicit information about entities as a source of background knowledge. In this thesis, we first present a new similarity function, called the degree of commonality coefficient, to compute the overlap between two sets based on the similarity between their elements. The results of our evaluations show that the degree of commonality performs better than traditional set similarity metrics in the ontology matching task. Secondly, we have developed the Knowledge Organisation System Implicit Mapping (KOSIMap) framework, which differs from existing approaches by using description logic reasoning (i) to extract implicit information as background knowledge for every entity, and (ii) to remove inappropriate correspondences from an alignment. The results of our evaluation show that the use of Description Logic in the ontology matching task can increase coverage. We identify people interested in ontology matching and reasoning techniques as the target audience of this work
|
467 |
XML-Based Agent Scripts and Inference MechanismsSun, Guili 08 1900 (has links)
Natural language understanding has been a persistent challenge to researchers in various computer science fields, in a number of applications ranging from user support systems to entertainment and online teaching. A long term goal of the Artificial Intelligence field is to implement mechanisms that enable computers to emulate human dialogue. The recently developed ALICEbots, virtual agents with underlying AIML scripts, by A.L.I.C.E. foundation, use AIML scripts - a subset of XML - as the underlying pattern database for question answering. Their goal is to enable pattern-based, stimulus-response knowledge content to be served, received and processed over the Web, or offline, in the manner similar to HTML and XML. In this thesis, we describe a system that converts the AIML scripts to Prolog clauses and reuses them as part of a knowledge processor. The inference mechanism developed in this thesis is able to successfully match the input pattern with our clauses database even if words are missing. We also emulate the pattern deduction algorithm of the original logic deduction mechanism. Our rules, compatible with Semantic Web standards, bring structure to the meaningful content of Web pages and support interactive content retrieval using natural language.
|
468 |
Structuration de débats en ligne à l’aide d’Annotationssocio-sémantiquesVers une analyse de réseaux sociaux centrés sur l’interaction / Soci-semantic annotations to structurate online debates.Toward a social network analysis based on interactions.Seilles, Antoine 25 January 2012 (has links)
Cette thèse traite de l'usage de l'annotation socio-sémantique dans le cadre de la dé-mocratie électronique et plus particulièrement des débats en ligne. L'annotation socio-sémantique est utilisée ici comme solution de structuration des débats. La représentationdes données des débats est pensée pour faciliter la mise en place de méthodes d'extrac-tion et d'analyses du réseau social des utilisateurs, en particulier pour faciliter l'extractionde groupes d'opinions. La thèse est réalisée dans le contexte de l'ANR Intermed qui vise àproduire des outils d'aide à la concertation en ligne, en particulier pour la gestion de zonescôtiéres.En nous appuyant sur la tendance 2.0, nous définissons la notion de débat 2.0. Débat àgrande échelle, au moins l'échelle d'une collectivité territoriale, s'appuyant sur l'usage detechnologies du Web 2.0 pour faciliter les interactions entre les citoyens. Dans ce contexte,l'interopérabilité est un enjeu crucial. Si les annotations discursives s'inscrivent dans latendance 2.0 et permettent aux citoyens de discuter en ligne, le traitement des donnéesproduites en vue de structurer les débats, de synthétiser les discussions, de modérer, d'éva-luer la représentativité ... devient une tâche de plus en plus complexe avec l'augmentationde la quantité de données produites. Nous proposons d'utiliser les technologies du websémantique, et donc des annotations à la fois discursives et sémantiques (appelées anno-tations socio-sémantique), pour représenter les données produites par les citoyens dansun outil de débat 2.0 et pour faciliter l'interopérabilité de ces données, faciliter la créationd'autres services comme par exemple un service d'analyse du réseau social, un service derecommandation, un service de visualisation des débats ... Nous présentons donc un mé-canisme d'annotation structurant les discussions, fruit d'un processus incrémental d'im-plémentation et d'expérimentation sur le terrain. / This pdh deals with socio-semantic annotations for e-democracy and online debates. Socio-semantic annotation are used to structurate debates. Data representation was designed to facilitate social network analysis and community detection based on opinion mining. This phd was made during the ANR project Intermed wich has to develop e-participation tools for geolocalised planning.Based on Web 2.0 trend, we define debate 2.0 concept as great scale online debates. A debate 2.0 is a debate that involves at least an important part of the inhabitants of a county and that uses web 2.0 tools. Interoperability is a main challenge of debates 2.0. If discursive annotations are a web 2.0 way of interaction between citizen, to process data from citizen participation is a complicate and expensive task. We recommand to use web semantic technology and socio-semantic annotations to represent data produced by citizen. Il will increase interoperability and easiness to create new applications and features consuming this data. We propose an annotation mecanism to structurate discussions and we have developped a platform through an agile loop with on field experiment.
|
469 |
Semantic Services for Enterprise Data ExchangeSauvinet, James A. 20 December 2013 (has links)
Data exchange between different information systems is a complex issue. Each system, designed for a specific purpose, is defined using a vocabulary of the specific business. While Web services allow interoperations and data communications between multiple systems, the clients of the services must understand the vocabulary of the targeting data resources to select services or to construct queries. In this thesis we explore an ontology-based approach to facilitate clients’ queries in the vocabulary of the clients’ own domain, and to automate the query processing. A governmental inter-department data query process has been used to illustrate the capability of the semantic approach.
|
470 |
Individual Information Adaptation Based on Content DescriptionWallin, Erik Oskar January 2004 (has links)
Todays increasing information supply raises the needfor more effective and automated information processing whereindividual information adaptation (personalization) is onepossible solution. Earlier computer systems for personalizationlacked the ability to easily define and measure theeffectiveness of personalization efforts. Numerous projectsfailed to live up to the their expectations, and the demand forevaluation increased. This thesis presents some underlying concepts and methodsfor implementing personalization in order to increase statedbusiness objectives. A personalization system was developedthat utilizes descriptions of information characteristics(metadata) to perform content based filtering in anon-intrusive way. Most of the described measurement methods forpersonalization in the literature are focused on improving theutility for the customer. The evaluation function of thepersonalization system described in this thesis takes thebusiness operators standpoint and pragmatically focuseson one or a few measurable business objectives. In order toverify operation of the personalization system, a functioncalled bifurcation was created. The bifurcation functiondivides the customers stochastically into two or morecontrolled groups with different personalizationconfigurations. Bygiving one of the controlled groups apersonalization configuration that deactivates thepersonalization, a reference group is created. The referencegroup is used to measure quantitatively objectives bycomparison with the groups with active personalization. Two different companies had their websites personalized andevaluated: one of Swedens largest recruitment servicesand the second largest Swedish daily newspaper. The purposewith the implementations was to define, measure, and increasethe business objectives. The results of the two case studiesshow that under propitious conditions, personalization can bemade to increase stated business objectives. Keywords:metadata, semantic web, personalization,information adaptation, one-to-one marketing, evaluation,optimization, personification, customization,individualization, internet, content filtering, automation. / <p>QCR 20161027</p>
|
Page generated in 0.1044 seconds