Spelling suggestions: "subject:"ontologies"" "subject:"antologies""
561 |
HybridMDSD: Multi-Domain Engineering with Model-Driven Software Development using Ontological FoundationsLochmann, Henrik 04 March 2010 (has links) (PDF)
Software development is a complex task. Executable applications comprise a mutlitude of diverse components that are developed with various frameworks, libraries, or communication platforms. The technical complexity in development retains resources, hampers efficient problem solving, and thus increases the overall cost of software production. Another significant challenge in market-driven software engineering is the variety of customer needs. It necessitates a maximum of flexibility in software implementations to facilitate the deployment of different products that are based on one single core.
To reduce technical complexity, the paradigm of Model-Driven Software Development (MDSD) facilitates the abstract specification of software based on modeling languages. Corresponding models are used to generate actual programming code without the need for creating manually written, error-prone assets. Modeling languages that are tailored towards a particular domain are called domain-specific languages (DSLs). Domain-specific modeling (DSM) approximates
technical solutions with intentional problems and fosters the unfolding of specialized expertise. To cope with feature diversity in applications, the Software Product Line Engineering (SPLE)
community provides means for the management of variability in software products, such as feature models and appropriate tools for mapping features to implementation assets.
Model-driven development, domain-specific modeling, and the dedicated management of variability in SPLE are vital for the success of software enterprises. Yet, these paradigms exist in isolation and need to be integrated in order to exhaust the advantages of every single approach. In this thesis, we propose a way to do so.
We introduce the paradigm of Multi-Domain Engineering (MDE) which means model-driven development with multiple domain-specific languages in variability-intensive scenarios. MDE strongly emphasize the advantages of MDSD with multiple DSLs as a neccessity for efficiency in software development and treats the paradigm of SPLE as indispensable means to achieve a maximum degree of reuse and flexibility. We present HybridMDSD as our solution approach to implement the MDE paradigm.
The core idea of HybidMDSD is to capture the semantics of particular DSLs based on properly defined semantics for software models contained in a central upper ontology. Then, the resulting semantic foundation can be used to establish references between arbitrary domain-specific models (DSMs) and sophisticated instance level reasoning ensures integrity and allows to handle partiucular change adaptation scenarios. Moreover, we present an approach to automatically generate composition code that integrates generated assets from separate DSLs. All necessary development tasks are arranged in a comprehensive development process. Finally, we validate the introduced approach with a profound prototypical implementation and an industrial-scale case study. / Softwareentwicklung ist komplex: ausführbare Anwendungen beinhalten und vereinen eine Vielzahl an Komponenten, die mit unterschiedlichen Frameworks, Bibliotheken oder Kommunikationsplattformen entwickelt werden. Die technische Komplexität in der Entwicklung bindet Ressourcen, verhindert effiziente Problemlösung und führt zu insgesamt hohen Kosten bei der Produktion von Software. Zusätzliche Herausforderungen entstehen durch die Vielfalt und Unterschiedlichkeit an Kundenwünschen, die der Entwicklung ein hohes Maß an Flexibilität in Software-Implementierungen abverlangen und die Auslieferung verschiedener Produkte auf Grundlage einer Basis-Implementierung nötig machen.
Zur Reduktion der technischen Komplexität bietet sich das Paradigma der modellgetriebenen Softwareentwicklung (MDSD) an. Software-Spezifikationen in Form abstrakter Modelle werden hier verwendet um Programmcode zu generieren, was die fehleranfällige, manuelle Programmierung ähnlicher Komponenten überflüssig macht. Modellierungssprachen, die auf eine bestimmte Problemdomäne zugeschnitten sind, nennt man domänenspezifische Sprachen (DSLs). Domänenspezifische Modellierung (DSM) vereint technische Lösungen mit intentionalen Problemen und ermöglicht die Entfaltung spezialisierter Expertise. Um der Funktionsvielfalt in Software Herr zu werden, bietet der Forschungszweig der Softwareproduktlinienentwicklung (SPLE) verschiedene Mittel zur Verwaltung von Variabilität in Software-Produkten an. Hierzu zählen Feature-Modelle sowie passende Werkzeuge, um Features auf Implementierungsbestandteile abzubilden.
Modellgetriebene Entwicklung, domänenspezifische Modellierung und eine spezielle Handhabung von Variabilität in Softwareproduktlinien sind von entscheidender Bedeutung für den Erfolg von Softwarefirmen. Zur Zeit bestehen diese Paradigmen losgelöst voneinander und müssen integriert werden, damit die Vorteile jedes einzelnen für die Gesamtheit der Softwareentwicklung entfaltet werden können. In dieser Arbeit wird ein Ansatz vorgestellt, der dies ermöglicht.
Es wird das Multi-Domain Engineering Paradigma (MDE) eingeführt, welches die modellgetriebene Softwareentwicklung mit mehreren domänenspezifischen Sprachen in variabilitätszentrierten Szenarien beschreibt. MDE stellt die Vorteile modellgetriebener Entwicklung mit mehreren DSLs als eine Notwendigkeit für Effizienz in der Entwicklung heraus und betrachtet das SPLE-Paradigma als unabdingbares Mittel um ein Maximum an Wiederverwendbarkeit und Flexibilität zu erzielen. In der Arbeit wird ein Ansatz zur Implementierung des MDE-Paradigmas, mit dem Namen HybridMDSD, vorgestellt.
|
562 |
Word-sense disambiguation in biomedical ontologiesAlexopoulou, Dimitra 12 January 2011 (has links) (PDF)
With the ever increase in biomedical literature, text-mining has emerged as an important technology to support bio-curation and search. Word sense disambiguation (WSD), the correct identification of terms in text in the light of ambiguity, is an important problem in text-mining. Since the late 1940s many approaches based on supervised (decision trees, naive Bayes, neural networks, support vector machines) and unsupervised machine learning (context-clustering, word-clustering, co-occurrence graphs) have been developed. Knowledge-based methods that make use of the WordNet computational lexicon have also been developed. But only few make use of ontologies, i.e. hierarchical controlled vocabularies, to solve the problem and none exploit inference over ontologies and the use of metadata from publications.
This thesis addresses the WSD problem in biomedical ontologies by suggesting different approaches for word sense disambiguation that use ontologies and metadata. The "Closest Sense" method assumes that the ontology defines multiple senses of the term; it computes the shortest path of co-occurring terms in the document to one of these senses. The "Term Cooc" method defines a log-odds ratio for co-occurring terms including inferred co-occurrences. The "MetaData" approach trains a classifier on metadata; it does not require any ontology, but requires training data, which the other methods do not. These approaches are compared to each other when applied to a manually curated training corpus of 2600 documents for seven ambiguous terms from the Gene Ontology and MeSH. All approaches over all conditions achieve 80% success rate on average. The MetaData approach performs best with 96%, when trained on high-quality data. Its performance deteriorates as quality of the training data decreases. The Term Cooc approach performs better on Gene Ontology (92% success) than on MeSH (73% success) as MeSH is not a strict is-a/part-of, but rather a loose is-related-to hierarchy. The Closest Sense approach achieves on average 80% success rate.
Furthermore, the thesis showcases applications ranging from ontology design to semantic search where WSD is important.
|
563 |
Μέθοδοι και τεχνικές ανακάλυψης γνώσης στο σημαντικό ιστό : παραγωγική απόκτηση γνώσης από οντολογικά έγγραφα και η τεχνική της σημασιακής προσαρμογής / Methods and techniques for semantic web knowledge discovery : deductive knowledge acquisition from ontology documents and the semantic profiling techniqueΚουτσομητρόπουλος, Δημήτριος 03 August 2009 (has links)
Ο Σημαντικός Ιστός (Semantic Web) είναι ένας συνδυασμός τεχνολογιών και προτύπων με σκοπό να προσδοθεί στη διαδικτυακή πληροφορία αυστηρά καθορισμένη σημασιακή δομή και ερμηνεία. Στόχος είναι να μπορούν οι χρήστες του Παγκόσμιου Ιστού καθώς και αυτοματοποιημένοι πράκτορες να επεξεργάζονται, να διαχειρίζονται και να αξιοποιούν την κατάλληλα χαρακτηρισμένη πληροφορία με τρόπο ευφυή και αποδοτικό.
Ωστόσο, παρά τις τεχνικές που έχουν κατά καιρούς προταθεί, δεν υπάρχει ξεκάθαρη μέθοδος ώστε, αξιοποιώντας το φάσμα του Σημαντικού Ιστού, η διαδικτυακή πληροφορία να ανακτάται με τρόπο παραγωγικό, δηλαδή με βάση τα ήδη εκπεφρασμένα γεγονότα να συνάγεται νέα, άρρητη πληροφορία.
Για την αντιμετώπιση αυτής της κατάστασης, αρχικά εισάγεται και προσδιορίζεται το πρόβλημα της Ανακάλυψης Γνώσης στο Σημαντικό Ιστό (Semantic Web Knowledge Discovery, SWKD). Η Ανακάλυψη Γνώσης στο Σημαντικό Ιστό εκμεταλλεύεται το σημασιακό υπόβαθρο και τις αντίστοιχες σημασιακές περιγραφές των πληροφοριών, όπως αυτές είναι θεμελιωμένες σε μια λογική θεωρία (οντολογίες εκφρασμένες σε γλώσσα OWL). Βάσει αυτών και με τη χρήση των κατάλληλων μηχανισμών αυτοματοποιημένου συλλογισμού μπορεί να συμπεραθεί νέα, άδηλη γνώση, η οποία, μέχρι τότε, μόνο υπονοούνταν στα ήδη υπάρχοντα δεδομένα.
Για να απαντηθεί το ερώτημα αν και σε πιο βαθμό οι τεχνολογίες και η λογική θεωρία του Σημαντικού Ιστού συνεισφέρουν αποδοτικά και εκφραστικά στο πρόβλημα της SWKD καταρτίζεται μια πρότυπη Μεθοδολογία Ανακάλυψης Γνώσης στο Σημαντικό Ιστό, η οποία θεμελιώνεται σε πρόσφατα θεωρητικά αποτελέσματα, αλλά και στην ποιοτική και πειραματική συγκριτική αξιολόγηση διαδεδομένων μηχανισμών συμπερασμού (inference engines) που βασίζονται σε Λογικές Περιγραφής (Description Logics). H αποδοτικότητα και η εκφραστικότητα της μεθόδου αυτής δείχνεται ότι εξαρτώνται από συγκεκριμένους θεωρητικούς, οργανωτικούς και τεχνικούς περιορισμούς.
Η πειραματική επαλήθευση της μεθοδολογίας επιτυγχάνεται με την κατασκευή και επίδειξη της Διεπαφής Ανακάλυψης Γνώσης (Knowledge Discovery Interface) μιας κατανεμημένης δηλαδή δικτυακής υπηρεσίας, η οποία έχει εφαρμοστεί με επιτυχία σε πειραματικά δεδομένα. Τα αποτελέσματα που προκύπτουν με τη χρήση της διεπαφής επαληθεύουν, μέχρι ορισμένο βαθμό, τις υποθέσεις που έχουν γίνει σχετικά κυρίως με την παράμετρο της εκφραστικότητας και δίνουν το έναυσμα για την αναζήτηση και εξέταση της υποστήριξης των νέων προτεινόμενων επεκτάσεων της λογικής θεωρίας του Σημαντικού Ιστού, δηλαδή της γλώσσας OWL 1.1.
Για την ενίσχυση της εκφραστικότητας της ανακάλυψης γνώσης στην περίπτωση συγκεκριμένων πεδίων γνώσης (knowledge domains) εισάγεται μια νέα τεχνική, αποκαλούμενη Σημασιακή Προσαρμογή. Η τεχνική αυτή εξελίσσει την Προσαρμογή Μεταδεδομένων Εφαρμογής (Metadata Application Profiling) από μια επίπεδη συρραφή και συγχώνευση σχημάτων και πεδίων μεταδεδομένων, σε μία ουσιαστική επέκταση και σημασιακή αναγωγή και εμπλουτισμό του αντίστοιχου μοντέλου στο οποίο εφαρμόζεται. Έτσι, η σημασιακή προσαρμογή εξειδικεύει ένα οντολογικό μοντέλο ως προς μια συγκεκριμένη εφαρμογή, όχι απλά με την προσθήκη λεξιλογίου από ετερογενή σχήματα, αλλά μέσω της σημασιακής εμβάθυνσης (semantic intension) και εκλέπτυνσης (semantic refinement) του αρχικού μοντέλου. Η τεχνική αυτή και τα αποτελέσματά της επαληθεύονται πειραματικά με την εφαρμογή στο μοντέλο πληροφοριών πολιτιστικής κληρονομιάς CIDOC-CRM και δείχνεται ότι, με τη χρήση κατάλληλων μεθόδων, η γενική εφαρμοσιμότητα του μοντέλου μπορεί να διαφυλαχθεί.
Για να μπορεί όμως η Ανακάλυψη Γνώσης στο Σημαντικό Ιστό να δώσει ικανοποιητικά αποτελέσματα, απαιτούνται όσο το δυνατόν πληρέστερες και αυξημένες περιγραφές των δικτυακών πόρων. Παρόλο που πληροφορίες άμεσα συμβατές με τη λογική θεωρία του Σημαντικού Ιστού δεν είναι ευχερείς, υπάρχει πληθώρα δεδομένων οργανωμένων σε επίπεδα σχήματα μεταδεδομένων (flat metadata schemata). Διερευνάται επομένως αν η SWKD μπορεί να εφαρμοστεί αποδοτικά και εκφραστικά στην περίπτωση τέτοιων ημιδομημένων μοντέλων γνώσης, όπως για παράδειγμα στην περίπτωση του σχήματος μεταδεδομένων Dublin Core. Δείχνεται ότι το πρόβλημα αυτό ανάγεται μερικώς στην εφαρμογή της σημασιακής προσαρμογής στην περίπτωση τέτοιων μοντέλων, ενώ για τη διαφύλαξη της διαλειτουργικότητας και την επίλυση αμφισημιών που προκύπτουν εφαρμόζονται ανάλογες μέθοδοι και επιπλέον εξετάζεται η τεχνική της παρονομασίας (punning) που εισάγει η OWL 1.1, βάσει της οποίας ο ορισμός ενός ονόματος μπορεί να έχει κυμαινόμενη σημασιακή ερμηνεία ανάλογα με τα συμφραζόμενα.
Συμπερασματικά, οι νέες μέθοδοι που προτείνονται μπορούν να βελτιώσουν το πρόβλημα της Ανακάλυψης Γνώσης στο Σημαντικό Ιστό ως προς την εκφραστικότητα, ενώ ταυτόχρονα η πολυπλοκότητα παραμένει η μικρότερη δυνατή. Επιτυγχάνουν επίσης την παραγωγή πιο εκφραστικών περιγραφών από υπάρχοντα μεταδεδομένα, προτείνοντας έτσι μια λύση στο πρόβλημα της εκκίνησης (bootstrapping) για το Σημαντικό Ιστό. Παράλληλα, μπορούν να χρησιμοποιηθούν ως βάση για την υλοποίηση πιο αποδοτικών τεχνικών κατανεμημένου και αυξητικού συλλογισμού. / Semantic Web is a combination of technologies and standards in order to give Web information strictly defined semantic structure and meaning. Its aim is to enable Web users and automated agents to process, manage and utilize properly described information in intelligent and efficient ways.
Nevertheless, despite the various techniques that have been proposed, there is no clear method such that, by taking advantage of Semantic Web technologies, to be able to retrieve information deductively, i.e. to infer new and implicit information based on explicitly expressed facts.
In order to address this situation, the problem of Semantic Web Knowledge Discovery (SWKD) is first specified and introduced. SWKD takes advantage of the semantic underpinnings and semantic descriptions of information, organized in a logic theory (i.e. ontologies expressed in OWL). Through the use of appropriate automated reasoning mechanisms, SWKD makes then possible to deduce new and unexpressed information that is only implied among explicit facts.
The question as to whether and to what extent do Semantic Web technologies and logic theory contribute efficiently and expressively enough to the SWKD problem is evaluated through the establishment of a SWKD methodology, which builds upon recent theoretical results, as well as on the qualitative and experimental comparison of some popular inference engines, based on Description Logics. It is shown that the efficiency and expressivity of this method depends on specific theoretical, organizational and technical limitations.
The experimental verification of this methodology is achieved through the development and demonstration of the Knowledge Discovery Interface (KDI), a web-distributed service that has been successfully applied on experimental data. The results taken through the KDI confirm, to a certain extent, the assumptions made mostly about expressivity and motivate the examination and investigation of the newly proposed extensions to the Semantic Web logic theory, namely the OWL 1.1 language.
In order to strengthen the expressivity of knowledge discovery in the case of particular knowledge domains a new technique is introduced, known as Semantic Profiling. This technique evolves traditional Metadata Application Profiling from a flat aggregation and mixing of schemata and metadata elements to the substantial extension and semantic enhancement and enrichment of the model on which it is applied. Thus, semantic profiling actually profiles an ontological model for a particular application, not only by bringing together vocabularies from disparate schemata, but also through the semantic intension and semantic refinement of the initial model. This technique and its results are experimentally verified through its application on the CIDOC-CRM cultural heritage information model and it is shown that, through appropriate methods, the general applicability of the model can be preserved.
However, for SWKD to be of much value, it requires the availability of rich and detailed resource descriptions. Even though information compatible with the Semantic Web logic theory are not always readily available, there are plenty of data organized in flat metadata schemata. To this end, it is investigated whether SWKD can be efficiently and expressively applied on such semi-structured knowledge models, as is the case for example with the Dublin Core metadata schema. It is shown that this problem can be partially reduced to applying semantic profiling on such models and, in order to retain interoperability and resolve potential ambiguities, the OWL 1.1 punning feature is investigated, based on which a name definition may have variable semantic interpretation depending on the ontological context.
In conclusion, these newly proposed methods can improve the SWKD problem in terms of expressive strength, while keeping complexity as low as possible. They also contribute to the creation of expressive descriptions from existing metadata, suggesting a solution to the Semantic Web bootstrapping problem. Finally, they can be utilized as the basis for implementing more efficient techniques that involve distributed and incremental reasoning.
|
564 |
Bibliographies scientifiques : de la recherche d'informations à la production de documents normésKembellec, Gérald 03 December 2012 (has links) (PDF)
Dans un cycle ou chaque document scientifique, s'inspirant lui même d'autres productions, sera lu et commenté par des chercheurs qui le citeront, l'écrit sera une production tour à tour finie, réactualisée et toujours une source d'appropriation et de citation. Après une introduction à la recherche d'information, nous examinerons la typologie des documents scientifiques, les modalités de stockage et de diffusion, ainsi que les normes et protocoles associés. Nous décrivons plusieurs méthodes de recherche documentaire et différents outils d'interrogation des bases de connaissances. Nous postulons qu'aujourd'hui la recherche documentaire peut être techniquement automatisée, de la première étape d'établissement du périmètre de recherche jusqu'à l'écriture de la bibliographie. Les étapes de sélection et de gestion documentaire peuvent aussi être facilitées par des outils et normes dédiés. Nous proposons une étude centrée sur l'usager pour faire émerger des profils utilisateurs et les usages associés, puis nous soumettons une démarche conceptuelle et expérimentale d'accompagnement visuel à la recherche de documentation scientifique. Nous nous intéressons tant aux méthodologies d'évaluation et de recommandation de ce type de littérature qu'aux formats et normes documentaires. Nous synthétisons l'ensemble des procédures d'automatisation bibliographiques pour modéliser un outil de recherche alliant respect des normes, souplesse d'usage et considération des besoins cognitifs et documentaires de l'usager. Cette interface servira de support à une recherche naviguée dans les corpus documentaires avec l'intégration de services d'exposition de métadonnées.
|
565 |
Contrôle intelligent de la domotique à partir d'informations temporelles multisources imprécises et incertainesChahuara, Pedro 27 March 2013 (has links) (PDF)
La Maison Intelligente est une résidence équipée de technologie informatique qui assiste ses habitants dans les situations diverses de la vie domestique en essayant de gérer de manière optimale leur confort et leur sécurité par action sur la maison. La détection des situations anormales est un des points essentiels d'un système de surveillance à domicile. Ces situations peuvent être détectées en analysant les primitives générées par les étages de traitement audio et par les capteurs de l'appartement. Par exemple, la détection de cris et de bruits sourds (chute d'un objet lourd) dans un intervalle de temps réduit permet d'inférer l'occurrence d'une chute. Le but des travaux de cette thèse est la réalisation d'un contrôleur intelligent relié à tous les périphériques de la maison et capable de réagir aux demandes de l'habitant (par commande vocale) et de reconnaître des situations à risque ou de détresse. Pour accomplir cet objectif, il est nécessaire de représenter formellement et raisonner sur des informa- tions, le plus souvent temporelles, à des niveaux d'abstraction différents. Le principal défi est le traitement de l'incertitude, de l'imprécision, et de l'incomplétude, qui caractérisent les informations dans ce domaine d'application. Par ailleurs, les décisions prises par le contrôleur doivent tenir compte du contexte dans lequel un ordre est donné, ce qui nous place dans l'informatique sensible au contexte. Le contexte est composé des informations de haut niveau telles que la localisation, l'activité en cours de réalisation, la période de la journée. Les recherches présentées dans ce manuscrit peuvent être divisées principalement en trois axes : la réalisation des méthodes d'inférence pour acquérir les informations du contexte (notamment, la localisation de l'habitant et l'activité en cours) à partir des informations incertaines, la représentation des connaissances sur l'environnement et les situations à risque, et finalement la prise de décision à partir des informations contextuelles. La dernière partie du manuscrit expose les résultats de la validation des méthodes proposées par des évaluations menées sur la plateforme expérimentale Domus.
|
566 |
Représentation et gestion des connaissances dans un processus d'Extraction de Connaissances à partir de Données multi-points de vueZemmouri, El Moukhtar 14 December 2013 (has links) (PDF)
Les systèmes d'information des entreprises actuelles sont de plus en plus " submergés " par des données de tous types : structurées (bases de données, entrepôts de données), semi-structurées (documents XML, fichiers log) et non structurées (textes et multimédia). Ceci a créé de nouveaux défis pour les entreprises et pour la communauté scientifique, parmi lesquels comment comprendre et analyser de telles masses de données afin d'en extraire des connaissances. Par ailleurs, dans une organisation, un projet d'Extraction de Connaissances à partir de Données (ECD) est le plus souvent mené par plusieurs experts (experts de domaine, experts d'ECD, experts de données...), chacun ayant ses préférences, son domaine de compétence, ses objectifs et sa propre vision des données et des méthodes de l'ECD. C'est ce que nous qualifions de processus d'ECD multi-vues (ou processus multi-points de vue). Notre objectif dans cette thèse est de faciliter la tâche de l'analyste d'ECD et d'améliorer la coordination et la compréhensibilité entre les différents acteurs d'une analyse multi-vues, ainsi que la réutilisation du processus d'ECD en termes de points de vue. Aussi, nous proposons une définition qui rend explicite la notion de point de vue en ECD et qui tient compte des connaissances de domaine (domaine analysé et domaine de l'analyste) et du contexte d'analyse. A partir de cette définition, nous proposons le développement d'un ensemble de modèles sémantiques, structurés dans un Modèle Conceptuel, permettant la représentation et la gestion des connaissances mises en œuvre lors d'une analyse multi-vues. Notre approche repose sur une caractérisation multi-critères du point de vue en ECD. Une caractérisation qui vise d'abord à capturer les objectifs et le contexte d'analyse de l'expert, puis orienter l'exécution du processus d'ECD, et par la suite garder, sous forme d'annotations, la trace du raisonnement effectué pendant un travail multi-experts. Ces annotations sont partagées, comparées et réutilisées à l'aide d'un ensemble de relations sémantiques entre points de vue.
|
567 |
Content-based audio search: from fingerprinting to semantic audio retrievalCano Vila, Pedro 27 April 2007 (has links)
Aquesta tesi tracta de cercadors d'audio basats en contingut. Específicament, tracta de desenvolupar tecnologies que permetin fer més estret l'interval semàntic o --semantic gap' que, a avui dia, limita l'ús massiu de motors de cerca basats en contingut. Els motors de cerca d'àudio fan servir metadades, en la gran majoria generada per editors, per a gestionar col.leccions d'àudio. Tot i ser una tasca àrdua i procliu a errors, l'anotació manual és la pràctica més habitual. Els mètodes basats en contingut àudio, és a dir, aquells algorismes que extreuen automàticament etiquetes descriptives de fitxers d'àudio, no són generalment suficientment madurs per a permetre una interacció semàntica. En la gran majoria, els mètodes basats en contingut treballen amb descriptors de baix nivell, mentre que els descriptors d'alt nivell estan més enllà de les possibilitats actuals. En la tesi explorem mètodes, que considerem pas previs per a atacar l'interval semàntic. / This dissertation is about audio content-based search. Specifically, it is on developing technologies for bridging the semantic gap that currently prevents wide-deployment of audio content-based search engines.Audio search engines rely on metadata, mostly human generated, to manage collections of audio assets.Even though time-consuming and error-prone, human labeling is a common practice.Audio content-based methods, algorithms that automatically extract description from audio files, are generally not mature enough to provide a user friendly representation for interacting with audio content. Mostly, content-based methods are based on low-level descriptions, while high-level or semantic descriptions are beyond current capabilities. In this thesis we explore technologies that can help close the semantic gap.
|
568 |
Ανάπτυξη και υλοποίηση δικτυακής πύλης αναζήτησης και εύρεσης βιβλίων βασισμένη σε τεχνολογίες Web 2.0 και σε οντολογίες με χαρακτήρα εξατομίκευσηςΚαλού, Αικατερίνη 13 July 2010 (has links)
Στη παρούσα διπλωματική εργασία, πραγματοποιείται μία ποιοτική επισκόπηση του όρου Σημαντικός Ιστός και των τεχνολογιών αναπαράστασης γνώσης και συμπερασμού που υπόκεινται σε αυτόν, όπως οντολογίες, μέθοδοι και εργαλεία ανάπτυξης οντολογιών, γλώσσες αναπαράστασης οντολογιών καθώς και η επέκταση της εκφραστικότητας των οντολογιών με την προσθήκη κανόνων. Επίσης, γίνεται εκτενής αναφορά σε μία άλλη εξελικτική τάση, που κυριαρχεί στο χώρο του Web, το Web 2.0. Στα πλαίσια του Web 2.0, αναλύονται έννοιες όπως mashups και Web APIs. Ειδικά για την έννοια των Web APIs, γίνεται αναφορά και ανάλυση συγκεκριμένων APIs, όπως αυτά της Amazon και του EBay.
Οι έννοιες του Σημαντικού Ιστού και του Web 2.0 παρουσιάζονται πολλές φόρες ως ανταγωνιστικές για το μέλλον του Ιστού. Εντούτοις, γίνεται σαφές όλο και περισσότερο ότι οι δύο αυτές έννοιες είναι συμπληρωματικές.
Στα πλαίσια της διπλωματικής εργασίας, αναπτύχθηκε μια εφαρμογή η οποία θα συνδυάζει αυτές τις δύο κυρίαρχες τεχνολογικές τάσεις. Πιο συγκεκριμένα, η εφαρμογή αποτελεί ένα πλαίσιο αναζήτησης βιβλίων από το Amazon και το Half eBay με χαρακτήρα εξατομίκευσης. Για την εφαρμογή, κάθε χρήστης αποτελεί μία αυτόνομη οντότητα. Συνεπώς, το περιεχόμενο της εφαρμογής προσαρμόζεται ανάλογα με το προφίλ του χρήστη κάθε φορά. Η υλοποίηση της εφαρμογής στηρίζεται αποκλειστικά στην ανάπτυξη οντολογιών, στη συγγραφή κανόνων (για την εξατομίκευση), στη δημιουργία ενός mashup και στα Web APIs. Τέλος, να σημειωθεί ότι η εφαρμογή στηρίζεται σε μία κατανεμημένη αρχιτεκτονική 3-επιπέδων. / In the present diploma thesis, one qualitative review is realised for the concepts of Semantic Web and of technologies of representation of knowledge and reasoning that being in this, such as ontologies, methods and tools for ontology development, representation languages of ontologies as well as the extension of expressiveness of ontologies with the addition of rules. Also, it becomes an extensive report in an other evolutionary tendency, that dominates in the space of Web, Web 2.0. In the scope of Web 2.0, concepts such as mashups and Web APIs are analyzed. Specifically for the concept of Web APIs, we make a report and an analysis of concrete APIs, as those of Amazon and EBay.
The concepts of Semantic Web and Web 2.0 are presented a lot of times as competitive for the future of Web. Nevertheless, it becomes more and more obvious that these two concepts are complemental.
In the scope of these diploma thesis, was developed an application which combines these two dominant technological tendencies. In particular, the application constitutes a framework of searching books from Amazon and Half eBay with a personalised character. For the application, each user constitutes an autonomous entity. Consequently, the content of application is adapted depending on the profile of user each time. The implementation of application is supported exclusively in the ontology development, in the writing of rules (for the personalisation), in the creation of a mashup and in Web APIs. Finally, it is marked that the application is supported in a distributed 3-tier architecture.
|
569 |
Model-Driven requirements engineering process aided by ontologies and natural controlled languagesCobe, Raphael Mendes de Oliveira 29 June 2009 (has links)
Made available in DSpace on 2014-12-17T15:47:51Z (GMT). No. of bitstreams: 1
RaphaelMOCpdf.pdf: 3833849 bytes, checksum: fc73f8956766c49a68d58575132da8f2 (MD5)
Previous issue date: 2009-06-29 / Researches in Requirements Engineering have been growing in the latest few years. Researchers are concerned with a set of open issues such as: communication between several user profiles involved in software engineering; scope definition;
volatility and traceability issues. To cope with these issues a set of works are concentrated in (i) defining processes to collect client s specifications in order to solve scope issues; (ii) defining models to represent requirements to address communication and traceability issues; and (iii) working on mechanisms and processes to be applied to requirements modeling in order to facilitate requirements evolution and
maintenance, addressing volatility and traceability issues. We propose an iterative Model-Driven process to solve these issues, based on a double layered CIM to communicate
requirements related knowledge to a wider amount of stakeholders. We also present a tool to help requirements engineer through the RE process. Finally we present a case study to illustrate the process and tool s benefits and usage / Pesquisas em Engenharia de Requisitos tem crescido ao longo dos ?ltimos anos. Pesquisadores est?o preocupados com uma s?rie de problemas em aberto como: comunica??o entre diversos perfıs envolvidos na engenharia de requisito; problemas na defini??o de escopo; problemas de volatilidade e ratreabilidade de requisitos. Para lidar com este conjunto de problemas em aberto, um conjunto de trabalhos est?o
concentrados em (i) definir processos para coletar especifica??es de clientes para lidar com prolemas de escopo; (ii) definir modelos para representar requisitos para lidar
com problemas de comunica??o e rastreabilidade; e (iii) defini??o de mecanismos e processos para serem aplicados a modelagem de requisitos para facilitar a evolu??o
e manuten??o de requisitos, lidando com problemas de volatilidade e rastreabilidade em requisitos. Neste trabalho ? proposto um processo dirigido por modelo para solucionar estes problemas em aberto. Este processo ? baseado na ideia de um CIM dividido em duas camadas de forma que se consiga difundir o conhecimento relacionado ao requisitos para um n?mero maior de stakeholders. Durante este trabalho tamb?m foi desenvolvida uma ferramenta que tem como objetivo auxiliar a execu??o de tal processo. Por fim apresentamos um estudo de caso para ilustrar os benef?cios do uso da ferramenta e do processo
|
570 |
On the alignment between goal models and enterprise models with an ontological accountCardoso, Evellin Cristine Souza 16 December 2009 (has links)
Submitted by Priscila Oliveira (priscila.b.oliveira@ufes.br) on 2016-07-12T12:40:28Z
No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
cp128327.pdf: 6590453 bytes, checksum: 5654758329fe7af83bec07339d8a3ffb (MD5) / Approved for entry into archive by Patricia Barros (patricia.barros@ufes.br) on 2016-08-15T18:10:11Z (GMT) No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
cp128327.pdf: 6590453 bytes, checksum: 5654758329fe7af83bec07339d8a3ffb (MD5) / Made available in DSpace on 2016-08-15T18:10:11Z (GMT). No. of bitstreams: 2
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
cp128327.pdf: 6590453 bytes, checksum: 5654758329fe7af83bec07339d8a3ffb (MD5) / Business process modelling basically comprises an activity whose main goal is to provide a formalization of business processes in an organization or a set of cooperating organizations (Recker, et al., 2006) (van der Aalst, et al., 2003). By modelling an organization’s business processes, it is possible to capture how the organization coordinates the work and resources with the aim of achieving its goals and strategies (Sharp, et al., 2001). Since business processes and goals are intrinsically interdependent, establishing an alignment between the process and the goal domains arises as a natural approach.
This thesis reports on a real-life exploratory case study in which we investigated the relationship between the elements of the enterprise (modeled in the ARIS framework) and the goals (modeled in the Tropos framework and modeling language) which are attained by these elements. The case study has been conducted in the Rheumatology Department of a University Hospital in Brazil. In the course of the case study, we have identified the need of splitting this effort into three phases: the elicitation phase (in which goal models and business process models are captured from the organizational domain), the harmonization phase (in which the goal domain is structured for alignment according to the business processes structures that will support it) and the alignment phase (in which the relationships between the goal domain and the elements of the organizational domain are established).
In order to investigate the relation between goals and enterprise elements, we propose an ontological account for both architectural domains. We recognize the importance in considering the business process as the means for implementing an enterprise’s strategy, but we do not exclude the remaining enterprise elements. Furthermore, we are concerned with both the identification of the relationships and with a classification for their nature.
|
Page generated in 0.0934 seconds