• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 187
  • 118
  • 26
  • 15
  • 8
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 622
  • 167
  • 161
  • 159
  • 135
  • 116
  • 98
  • 96
  • 94
  • 87
  • 82
  • 70
  • 63
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Σημασιολογική προσωποποίηση στον παγκόσμιο ιστό / Semantic personalization in the world wide web

Βόπη, Αγορίτσα 07 February 2008 (has links)
Η αναζήτηση πληροφορίας στο Παγκόσμιο Ιστό λόγω της ραγδαίας αύξησης του όγκου του αποτελεί ένα δύσκολο και χρονοβόρο εγχείρημα. Επιπρόσθετα, η συνωνυμία και η πολυσημία συμβάλλουν στη δυσκολία εύρεσης πληροφορίας. Στα πλαίσια αυτής της διπλωματικής εργασίας αναπτύχθηκε μια μεθοδολογία για την προσωποποίηση των αποτελεσμάτων μιας μηχανής αναζήτησης ώστε αυτά να ανταποκρίνονται στα ενδιαφέροντα των χρηστών. Η μεθοδολογία αποτελείται από δύο τμήματα, το εκτός σύνδεσης τμήμα και το συνδεδεμένο τμήμα. Στο εκτός σύνδεσης τμήμα χρησιμοποιώντας τα αρχεία πρόσβασης της μηχανής αναζήτησης και εξάγεται πληροφορία για τις επιλογές του χρήστη. Στη συνέχεια πραγματοποιείται η σημασιολογική κατηγοριοποίηση των προηγούμενων επιλογών των χρηστών με χρήση μιας οντολογίας, που αναπτύχθηκε με βάση τους καταλόγους του ODP. Κατόπιν, αναπτύσσεται το προφίλ του χρήστη με βάση την οντολογία αναφοράς που χρησιμοποιήθηκε και στη φάση της σημασιολογικής αντιστοίχισης. Στη συνέχεια, με χρήση αλγορίθμου ομαδοποίησης γίνεται ομαδοποίηση των χρηστών με βάση τα ενδιαφέροντά τους. Στο συνδεδεμένο τμήμα ο αλγόριθμος προσωποποίησης χρησιμοποιεί τις ομάδες που δημιουργήθηκαν στο μη συνδεδεμένο τμήμα και τη σημασιολογική αντιστοίχηση των αποτελεσμάτων της μηχανής αναζήτησης και αναδιοργανώνει τα αποτελέσματά της προωθώντας στις πρώτες θέσεις επιλογής τα αποτελέσματα που είναι περισσότερο σχετικά με τις προτιμήσεις της ομάδας στην οποία ανήκει ο χρήστης. Η μεθοδολογία που προτείνεται έχει εφαρμοστεί σε πειραματική υλοποίηση δίνοντας τα επιθυμητά αποτελέσματα για την προσωποποίηση σύμφωνα με τις σημασιολογικές ομάδες χρηστών. / During the recent years the World Wide Web has been developed rapidly making the efficient searching of information difficult and time-consuming. In this work, we propose a web search results personalization methodology by coupling data mining techniques with the underlying semantics of the web content. To this purpose, we exploit reference ontologies that emerge from web catalogs (such as ODP), which can scale to the growth of the web. Our methodology uses ontologies to provide the semantic profiling of users’ interests based on the implicit logging of their behavior and the on-the-fly semantic analysis and annotation of the web results summaries. Following this the logged web clickthrough data are submitted to offline processing in order to form semantic clusters of interesting categories according to the users’ perspective. Finally, profiles of semantic clusters are combined with the emerging profile of the active user in order to apply a sophisticated re-ranking of search engines results. Experimental evaluation of our approach shows that the objectives expected from semantic users’ clustering in search engines are achievable.
222

Composition d'applications multi-modèles dirigée par la composition des interfaces graphiques

Brel, Christian 28 June 2013 (has links) (PDF)
Force est de constater que composer des applications existantes afin d'en réutiliser tout ou une partie est une tâche complexe. Pourtant avec l'apparition quotidienne d'applications, les éditeurs d'applications ont de plus en plus besoin d'effectuer de telles compositions pour répondre à la demande croissante des utilisateurs. Les travaux existants ne traitent généralement que d'un seul point de vue : celui du "Noyau Fonctionnel" dans le domaine du Génie Logiciel, celui des Tâches" ou celui de l'"Interface Graphique" dans le domaine des Interactions Homme-Machine (IHM). Cette thèse propose une nouvelle approche basée sur un modèle d'application complet (fonctionnel, tâche et interface graphique). Elle permet à un utilisateur de naviguer entre ces différents modèles pour sélectionner des ensembles cohérents pouvant être composé par substitution. Une implémentation de cette approche a permis d'effectuer des tests utilisateurs confortant les bienfaits d'une modélisation complète.
223

Building and Using Knowledge Models for Semantic Image Annotation

Bannour, Hichem 08 February 2013 (has links) (PDF)
This dissertation proposes a new methodology for building and using structured knowledge models for automatic image annotation. Specifically, our first proposals deal with the automatic building of explicit and structured knowledge models, such as semantic hierarchies and multimedia ontologies, dedicated to image annotation. Thereby, we propose a new approach for building semantic hierarchies faithful to image semantics. Our approach is based on a new image-semantic similarity measure between concepts and on a set of rules that allow connecting the concepts with higher relatedness till the building of the final hierarchy. Afterwards, we propose to go further in the modeling of image semantics through the building of explicit knowledge models that incorporate richer semantic relationships between image concepts. Therefore, we propose a new approach for automatically building multimedia ontologies consisting of subsumption relationships between concepts, and also other semantic relationships such as contextual and spatial relations. Fuzzy description logics are used as a formalism to represent our ontology and to deal with the uncertainty and the imprecision of concept relationships. In order to assess the effectiveness of the built structured knowledge models, we propose subsequently to use them in a framework for image annotation. We propose therefore an approach, based on the structure of semantic hierarchies, to effectively perform hierarchical image classification. Furthermore, we propose a generic approach for image annotation combining machine learning techniques, such as hierarchical image classification, and fuzzy ontological-reasoning in order to achieve a semantically relevant image annotation. Empirical evaluations of our approaches have shown significant improvement in the image annotation accuracy.
224

Aide à la création et à l'exploitation de réglementations basée sur les modèles et techniques du Web sémantique

Bouzidi, Khalil Riad 11 September 2013 (has links) (PDF)
Les réglementations concernant l'industrie de la construction deviennent de plus en plus complexes et touchent plus d'un domaine à la fois. Elles portent sur les produits, les composants et l'exécution des projets. Elles jouent aussi un rôle important pour garantir la qualité d'un bâtiment, ses caractéristiques et minimiser son impact environnemental. Depuis 30 ans, le CSTB prouve son savoir-faire en la matière au travers du développement du REEF, l'encyclopédie complète des textes techniques et réglementaires de la construction. Dans le cadre d'une collaboration entre le CSTB et le laboratoire I3S, nous avons travaillé à la formalisation et au traitement automatisé des informations technico-réglementaires contenues dans le REEF. Nous avons mis en œuvre notre approche pour aider à la création de nouveaux Avis Techniques. Il s'agit de préciser comment ils sont rédigés et comment standardiser leur structure grâce à la mise en œuvre de services sémantiques adaptés. Nous avons réussi à identifier et à comprendre les problèmes liés à la rédaction d'avis techniques et nous nous sommes focalisés sur le renseignement des dossiers techniques par les industriels. Nos contributions sont les suivantes : Nous avons construit manuellement une ontologie du domaine, qui définit les principaux concepts impliqués dans l'élaboration des Avis Technique. Cette ontologie appelée "OntoDT" est couplée avec le thésaurus du projet REEF. Nous l'avons définie à partir de l'étude des dossiers techniques existants, du thesaurus REEF et en interviewant les instructeurs du CSTB. Nous utilisons conjointement les standards SBVR et SPARQL pour reformuler, à la fois dans un langage contrôlé et dans un langage formel, les contraintes réglementaires présentes dans les Guides pratiques. SBVR représente une assurance de la qualité du texte des contraintes réglementaires présentées à l'utilisateur et SPARQL permet l'automatisation de la vérification de ces contraintes. Ces deux représentations reposent sur l'ontologie de domaine que nous avons développée. Nous intégrons des connaissances expertes sur le processus même de vérification des dossiers techniques. Nous avons organisé en différents processus les requêtes SPARQL représentant des contraintes réglementaires. A chaque composant intervenant dans un dossier technique correspond un processus de vérification de sa conformité à la réglementation en vigueur. Les processus sont représentés de manière déclarative en RDF et un moteur de processus interprète ces descriptions RDF pour ordonner et déclencher l'exécution des requêtes nécessaires à la vérification d'un dossier technique particulier. Enfin, nous représentons de façon déclarative en RDF l'association des représentations SBVR et SPARQL des réglementations et nous utilisons ces annotations pour produire à l'utilisateur un rapport de conformité en langue naturelle pour l'assister dans la rédaction d'un avis technique.
225

Debugging and repair of description logic ontologies.

Moodley, Kodylan. January 2010 (has links)
In logic-based Knowledge Representation and Reasoning (KRR), ontologies are used to represent knowledge about a particular domain of interest in a precise way. The building blocks of ontologies include concepts, relations and objects. Those can be combined to form logical sentences which explicitly describe the domain. With this explicit knowledge one can perform reasoning to derive knowledge that is implicit in the ontology. Description Logics (DLs) are a group of knowledge representation languages with such capabilities that are suitable to represent ontologies. The process of building ontologies has been greatly simpli ed with the advent of graphical ontology editors such as SWOOP, Prote ge and OntoStudio. The result of this is that there are a growing number of ontology engineers attempting to build and develop ontologies. It is frequently the case that errors are introduced while constructing the ontology resulting in undesirable pieces of implicit knowledge that follows from the ontology. As such there is a need to extend current ontology editors with tool support to aid these ontology engineers in correctly designing and debugging their ontologies. Errors such as unsatis able concepts and inconsistent ontologies frequently occur during ontology construction. Ontology Debugging and Repair is concerned with helping the ontology developer to eliminate these errors from the ontology. Much emphasis, in current tools, has been placed on giving explanations as to why these errors occur in the ontology. Less emphasis has been placed on using this information to suggest e cient ways to eliminate the errors. Furthermore, these tools focus mainly on the errors of unsatis able concepts and inconsistent ontologies. In this dissertation we ll an important gap in the area by contributing an alternative approach to ontology debugging and repair for the more general error of a list of unwanted sentences. Errors such as unsatis able concepts and inconsistent ontologies can be represented as unwanted sentences in the ontology. Our approach not only considers the explanation of the unwanted sentences but also the identi cation of repair strategies to eliminate these unwanted sentences from the ontology. / Thesis (M.Sc.)-University of KwaZulu-Natal, Westville, 2010.
226

Region Evolution eXplorer

Christen, Victor, Hartung, Michael, Groß, Anika 01 June 2015 (has links) (PDF)
Background: A large number of life science ontologies has been developed to support different application scenarios such as gene annotation or functional analysis. The continuous accumulation of new insights and knowledge affects specific portions in ontologies and thus leads to their adaptation. Therefore, it is valuable to study which ontology parts have been extensively modified or remained unchanged. Users can monitor the evolution of an ontology to improve its further development or apply the knowledge in their applications.
227

An ontology-based approach to manage conflicts in collaborative design

Lima Dutra, Moisés, Lima Dutra, Moisés 27 November 2009 (has links) (PDF)
Today's complex design projects require teams of designers to work collaboratively by sharing their respective expertise in order to produce effective design solutions. Due to the increasing need for exchanging knowledge, modern design projects are more structured to work with distributed virtual teams that collaborate over computer networks to achieve overall optimization in design. Nevertheless, in a collaborative design process, the integration of multidisciplinary virtual teams - involving exchange and sharing of knowledge and expertise - frequently and inevitably generates conflicting situations. Different experts' viewpoints and perspectives, in addition to several ways of communicating and collaborating at the knowledge level, make all this process very hard to manage. In order to achieve an optimal scenario, some problems must first be solved, such as requirement specification and formalization, ontology integration, and conflict detection and resolution. Specifying and formalizing the knowledge demands a great effort towards obtaining representation patterns that aggregate several disjoint knowledge areas. Each expert should express himself so that the others can understand his information correctly. It is necessary, therefore, to use a flexible and sufficiently extensive data representation model to accomplish such a task. Some current models fall short of providing an effective solution to effective knowledge sharing and collaboration on design projects, because they fail to combine the geographical, temporal, and functional design aspects with a flexible and generic knowledge representation model. This work proposes an information model-driven collaborative design architecture that supports synchronous, generic, service-oriented, agent-based, and ontology-based teamwork. Particular representation models are transformed into ontology instances and merged together in order to accomplish the final product design. It is a synchronous approach because the concurrent processes are undertaken at the same time that the interactions among designers take place. It is generic because it provides the users with two approaches for ontology integration: the use of a predefined generic ontology and the harmonization process. Our proposal focuses on collaborative design conflict resolution by using Web Ontology Language (OWL) and Web Services, the former as a tool for knowledge representation and the latter as a technological support for communication.
228

Ontologies dans les images satellitaires : interprétation sémantique des images

Andrés, Samuel 13 December 2013 (has links) (PDF)
Étant donnée l'évolution technologique des capteurs embarqués à bord des satellites, le potentiel d'images satellitaires accessible s'accroît de telle manière que se pose maintenant la question de son exploitation la plus efficace possible. C'est l'objectif du projet CARTAM-SAT que de fluidifier la chaîne de traitement depuis les satellites jusqu'aux utilisateurs des images. La thèse s'inscrit dans ce cadre. Les traitements relatifs aux images ont évolué au cours des années. Les images basse résolution étaient traitées par une approche dite pixel alors que la haute résolution a permis le développement d'une approche dite objet. Cette dernière s'attache à analyser non plus des pixels isolés, mais des groupes de pixels représentatifs d'objets concrets sur le terrain. Ainsi, en principe, ces groupes de pixels sont dotés d'une sémantique propre au domaine de la télédétection. La représentation des connaissances a évolué parallèlement aux images satellitaires. Les standards de représentation ont profité de l'expansion du web pour donner naissance à des standards comme OWL. Celui-ci repose en grande partie sur les logiques de description qui permettent l'utilisation de raisonneurs automatiques capables d'inférer une connaissance implicite.Cette thèse se place à la jonction de ces deux sciences et propose une approche ontologique d'analyse des images satellitaires. Il s'agit de formaliser différents types de connaissances et de conceptualisations implicitement utilisés par les logiciels de traitement d'image et par les experts en télédétection, puis de raisonner automatiquement sur la description d'une image pour en obtenir une interprétation sémantique.Ce principe général est susceptible de nombreuses déclinaisons techniques. La mise en œuvre a consisté en la réalisation d'un prototype alliant une bibliothèque d'analyse d'images satellitaires et un raisonneur basé sur les ontologies. L'implémentation proposée dans la thèse permet d'explorer quatre déclinaisons techniques du principe qui mènent à des discussions sur la complémentarité des paradigmes d'analyse pixel et objet, la représentation de certaines relations spatiales et la place de la connaissance par rapport aux traitements.
229

Association Rule Interactive Post-processing using Rule Schemas and Ontologies - ARIPSO

Marinica, Claudia 26 October 2010 (has links) (PDF)
This thesis is concerned with the merging of two active research domains: Knowledge Discovery in Databases (KDD), more precisely the Association Rule Mining technique, and Knowledge Engineering (KE) with a main interest in knowledge representation languages developed around the Semantic Web. In Data Mining, the usefulness of association rule technique is strongly limited by the huge amount and the low quality of delivered rules. Experiments show that rules become almost impossible to use when their number exceeds 100. At the same time, nuggets are often represented by those rare (low support) unexpected association rules which are surprising to the user. Unfortunately, the lower the support is, the larger the volume of rules becomes. Thus, it is crucial to help the decision maker with an efficient technique to reduce the number of rules. To overcome this drawback, several methods have been proposed in the literature such as itemset concise representations, redundancy reduction, filtering, ranking and post-processing. Even though rule interestingness strongly depends on user knowledge and goals, most of the existing methods are generally based on data structure. For instance, if the user looks for unexpected rules, all the already known rules should be pruned. Or, if the user wants to focus on specific family of rules, only this subset of rules should be selected. In this context, we address two main issues: the integration of user knowledge in the discovery process and the interactivity with the user. The first issue requires defining an adapted formalism to express user knowledge with accuracy and flexibility such as ontologies in the Semantic Web. Second, the interactivity with the user allows a more iterative mining process where the user can successively test different hypotheses or preferences and focus on interesting rules. The main contributions of this work can be summarized as follows: (i) A model to represent user knowledge. First, we propose a new rule-like formalism, called Rule Schema, which allows the user to define his/her expectations regarding the rules through ontology concepts. Second, ontologies allow the user to express his/her domain knowledge by means of a high semantic model. Last, the user can choose among a set of Operators for interactive processing the one to be applied over each Rule Schema (i.e. pruning, conforming, unexpectedness, . . . ). (ii) A new post-processing approach, called ARIPSO (Association Rule Interactive Post-processing using rule Schemas and Ontologies), which helps the user to reduce the volume of the discovered rules and to improve their quality. It consists in an interactive process integrating user knowledge and expectations by means of the proposed model. At each step of ARIPSO, the interactive loop allows the user to change the provided information and to reiterate the post-processing phase which produces new results. (iii) The implementation in post-processing of the proposed approach. The developed tool is complete and operational, and it implements all the functionalities described in the approach. Also, it makes the connection between different elements like the set of rules and rule schemas stored in PMML/XML files, and the ontologies stored in OWL files and inferred by the Pellet reasoner. (iv) An adapted implementation without post-processing, called ARLIUS (Association Rule Local mining Interactive Using rule Schemas), consisting in an interactive local mining process guided by the user. It allows the user to focus on interesting rules without the necessity to extract all of them, and without minimum support limit. In this way, the user may explore the rule space incrementally, a small amount at each step, starting from his/her own expectations and discovering their related rules. (v) The experimental study analyzing the approach efficiency and the discovered rule quality. For this purpose, we used a real-life and large questionnaire database concerning customer satisfaction. For ARIPSO, the experimentation was carried out in complete cooperation with the domain expert. For different scenarios, from an input set of nearly 400 thousand association rules, ARIPSO filtered between 3 and 200 rules validated by the expert. Clearly, ARIPSO allows the user to significantly and efficiently reduce the input rule set. For ARLIUS, we experimented different scenarios over the same questionnaire database and we obtained reduced sets of rules (less than 100) with very low support.
230

Un environnement de spécification et de découverte pour la réutilisation des composants logiciels dans le développement des logiciels distribués

Khemakhem, Sofien 08 July 2011 (has links) (PDF)
Notre travail vise à élaborer une solution efficace pour la découverte et la réutilisation des composants logiciels dans les environnements de développement existants et couramment utilisés. Nous proposons une ontologie pour décrire et découvrir des composants logiciels élémentaires. La description couvre à la fois les propriétés fonctionnelles et les propriétés non fonctionnelles des composants logiciels exprimées comme des paramètres de QoS. Notre processus de recherche est basé sur la fonction qui calcule la distance sémantique entre la signature d'un composant et la signature d'une requête donnée, réalisant ainsi une comparaison judicieuse. Nous employons également la notion de " subsumption " pour comparer l'entrée-sortie de la requête et des composants. Après sélection des composants adéquats, les propriétés non fonctionnelles sont employées comme un facteur distinctif pour raffiner le résultat de publication des composants résultats. Nous proposons une approche de découverte des composants composite si aucun composant élémentaire n'est trouvé, cette approche basée sur l'ontologie commune. Pour intégrer le composant résultat dans le projet en cours de développement, nous avons développé l'ontologie d'intégration et les deux services "input/output convertor" et "output Matching".

Page generated in 0.0303 seconds