• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 253
  • 112
  • 87
  • 27
  • 19
  • 17
  • 14
  • 14
  • 7
  • 7
  • 6
  • 4
  • 2
  • 2
  • 1
  • Tagged with
  • 639
  • 129
  • 81
  • 78
  • 77
  • 70
  • 68
  • 66
  • 62
  • 60
  • 59
  • 53
  • 52
  • 51
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Semi-automatic Semantic Video Annotation Tool

Aydinlilar, Merve 01 December 2011 (has links) (PDF)
Semantic annotation of video content is necessary for indexing and retrieval tasks of video management systems. Currently, it is not possible to extract all high-level semantic information from video data automatically. Video annotation tools assist users to generate annotations to represent video data. Generated annotations can also be used for testing and evaluation of content based retrieval systems. In this study, a semi-automatic semantic video annotation tool is presented. Generated annotations are in MPEG-7 metadata format to ensure interoperability. With the help of image processing and pattern recognition solutions, annotation process is partly automated and annotation time is reduced. Annotations can be done for spatio-temporal decompositions of video data. Extraction of low-level visual descriptions are included to obtain complete descriptions.
62

Wo die Geschichte in Büchern sitzt

Schneider, Ulrich Johannes 22 July 2014 (has links) (PDF)
Bücher, die bewegen, liest man mit dem Bleistift in der Hand, man knickt die Ecken wichtiger Seiten ab, legt Zettel ein und klebt Zeitungsausschnitte in die vorderen oder hinteren Buchspiegel, kurz: Man eignet sie sich an wie selbst geschriebene Texte. Die Geschichte sitzt hier am Rand des Satzspiegels in Anmerkungen, sie sitzt in Unterstreichungen und Kommentaren ebenso wie in Frage- und Ausrufungszeichen. Die Leser mögen so tot sein wie die Autoren: Immer aber sagen diese Zeichen der aufmerksamen Lektüre früherer Epochen, dass Bücher beweglich sind, dass sie den Text vom Autor zum Leser bringen und dort auf autorähnliche Heftigkeit stoßen, die in manchen Fällen zu einem eigenen Text führt, meist aber zu Anmerkungen und Kommentaren, für die es keinen besseren Ort gibt als eben jene Stellen, zu denen sie Anmerkungen und Kommentare sind. Die folgenden Beobachtungen sind die eines Lesers, der den schreibenden Eingriff in gedruckte Texte oft genug geübt hat und nun um Verständnis bittet, dass er nur persönlich sprechen kann und eigene Erlebnisse beim Umgang mit Büchern ausstellt. Im Aufbrechen solcher Intimität zeigen sich Spuren einer oft vernachlässigten Geschichte, die in Büchern sitzt und daraus von Fall zu Fall befreit werden muss.
63

Molecular Morphology

Donath, Alexander 22 July 2011 (has links) (PDF)
A fundamental problem in biology is the reconstruction of the relatedness of all (extant) species. Traditionally, systematists employ visually recognizable characters of organisms for classification and evolutionary analysis. Recent developments in molecular and computational biology, however, lead to a whole different perspective on how to address the problem of inferring relatedness. The discovery of molecules, carrying genetic information, and the comparison of their primary structure has, in a rather short period of time, revolutionized our understanding of the phylogenetic relationship of many organisms. These novel approaches, however, turned out to bear similar problems as previous techniques. Moreover, they created new ones. Hence, taxonomists came to realize that even with this new type of data not all problematic relationships could be unambiguously resolved. The search for complementary approaches has led to the utilization of rare genomic changes and other characters which are largely independent from the primary structure of the underlying sequence(s). These “higher order” characters are thought to be evolutionary conserved in certain lineages and largely unaffected by primary sequence data-based problems, allowing for a better resolution of the Tree of Life. The central aim of this thesis is the utilization of molecular characters of higher order in connection with their consistent and comparable extraction from a given data set. Two novel methods are presented that allow such an inference. This is complemented with the search for and analysis of known and novel molecular characteristics to study the relationships among Metazoa, both intra- as well as interspecific. The first method tackles a common problem in phylogenetic analyses: the inference of reliable data set. As part of this thesis a pipeline was created for the automated annotation of metazoan mitochondrial genomes. Data thus obtained constitutes a reliable and standardized starting point for all downstream analyses, e.g. genome rearrangement studies. The second method utilizes a subclass of gaps, namely those which define an approximate split of a given data set. The definition and inference of such split-inducing indels (splids) is based on two basic principles. First, indels at the same position, i.e. sharing the same end points in two sequences, are likely homologous. Second, independent single-residue insertions and deletions tend to occur more frequently than multi-residue indels. It is shown that trees based on splids recover most of the undisputed monophyletic groups while influence of the underlying alignment algorithm is relatively small. Mitochondrial markers are a valuable tool for the understanding of small and large scale population structure. The non-coding control region of mitochondrial DNA (mtDNA) often contains a higher amount of variability compared to genes encoding proteins and non-coding RNAs. A case study on a small scale population structure investigates the control region of the European Fire-bellied Toad in order to find highly variable parts which are of potential importance to develop informative genetic markers. A particular focus is placed on the investigation of the evolutionary dynamics of the repetitive region at an inter- and intraspecific level. This includes understanding mechanisms underlying its evolution, i.e. by exploring the impact of secondary structure on slipped strand mispairing during mtDNA replication. The 7SK RNA is a key player in the regulation of polymerase II (Pol-II) transcription, interacting with at least three known proteins: It mediates the inhibition of the Positive Transcription Elongation Factor b (P-TEFb) by the HEXIM1/2 proteins, thereby repressing transcript elongation by Pol-II. A highly specific interaction with LARP7 (La-Related Protein 7), on the other hand, regulates its stability. 7SK RNA is capped at its 5’ end by a highly specific methyltransferase MePCE (Methylphosphate Capping Enzyme). Employing sequence and structure similarity it is shown that the 7SK RNA as well as its protein binding partners have a much earlier evolutionary origin than previously expected. Furthermore, this study presents a good illustration of the pitfalls of using markers of higher order for phylogenetic inference.
64

Active and deep learning for multimedia / Apprentissage actif et profond pour le multimédia

Budnik, Mateusz 24 February 2017 (has links)
Les thèmes principaux abordés dans cette thèse sont l'utilisation de méthodes d'apprentissage actif et d'apprentissage profond dans le contexte du traitement de documents multimodaux. Les contributions proposées dans cette thèse abordent ces deux thèmes. Un système d'apprentissage actif a été introduit pour permettre une annotation plus efficace des émissions de télévision grâce à la propagation des étiquettes, à l'utilisation de données multimodales et à des stratégies de sélection efficaces. Plusieurs scénarios et expériences ont été envisagés dans le cadre de l'identification des personnes dans les vidéos, en prenant en compte l'utilisation de différentes modalités (telles que les visages, les segments de la parole et le texte superposé) et différentes stratégies de sélection. Le système complet a été validé au cours d'un ``test à blanc'' impliquant des annotateurs humains réels.Une deuxième contribution majeure a été l'étude et l'utilisation de l'apprentissage profond (en particulier les réseaux de neurones convolutifs) pour la recherche d'information dans les vidéos. Une étude exhaustive a été réalisée en utilisant différentes architectures de réseaux neuronaux et différentes techniques d'apprentissage telles que le réglage fin (fine-tuning) ou des classificateurs plus classiques comme les SVMs. Une comparaison a été faite entre les caractéristiques apprises (la sortie des réseaux neuronaux) et les caractéristiques plus classiques (``engineered features''). Malgré la performance inférieure des seconds, une fusion de ces deux types de caractéristiques augmente la performance globale.Enfin, l'utilisation d'un réseau neuronal convolutif pour l'identification des locuteurs à l'aide de spectrogrammes a été explorée. Les résultats ont été comparés à ceux obtenus avec d'autres systèmes d'identification de locuteurs récents. Différentes approches de fusion ont également été testées. L'approche proposée a permis d'obtenir des résultats comparables à ceux certains des autres systèmes testés et a offert une augmentation de la performance lorsqu'elle est fusionnée avec la sortie du meilleur système. / The main topics of this thesis include the use of active learning-based methods and deep learning in the context of retrieval of multimodal documents. The contributions proposed during this thesis address both these topics. An active learning framework was introduced, which allows for a more efficient annotation of broadcast TV videos thanks to the propagation of labels, the use of multimodal data and selection strategies. Several different scenarios and experiments were considered in the context of person identification in videos, including using different modalities (such as faces, speech segments and overlaid text) and different selection strategies. The whole system was additionally validated in a dry run involving real human annotators.A second major contribution was the investigation and use of deep learning (in particular the convolutional neural network) for video retrieval. A comprehensive study was made using different neural network architectures and training techniques such as fine-tuning or using separate classifiers like SVM. A comparison was made between learned features (the output of neural networks) and engineered features. Despite the lower performance of the engineered features, fusion between these two types of features increases overall performance.Finally, the use of convolutional neural network for speaker identification using spectrograms is explored. The results are compared to other state-of-the-art speaker identification systems. Different fusion approaches are also tested. The proposed approach obtains comparable results to some of the other tested approaches and offers an increase in performance when fused with the output of the best system.
65

Modélisation et gestion de concepts, en particulier temporels, pour l'assistance à la caractérisation de séquences d'images / Modeling and management of time concepts to support the characterization of image sequences

Simac, Alain 14 June 2011 (has links)
Les techniques habituelles d'indexation de vidéos passent généralement par une phase d'apprentissage qui nécessite préalablement la constitution d'une base d'apprentissage. Même si la taille de cette base est souvent réduite, la phase d'annotation réalisée par un expert de l'application est souvent longue et fastidieuse. Dans le cadre de cette thèse, nous avons développé un dispositif qui permet de pré-sélectionner un ensemble de prototypes susceptibles de contenir le concept qui doit apparaître dans la base d'apprentissage. Cette base réduite de prototypes sera ensuite annotée par l'expert. Nous nous sommes intéressés à des concepts temporels, ce qui nous a amené à étudier particulièrement des caractéristiques liées au mouvement, comme les points d'intérêt spatio-temporels (STIP Spatial Temporal Interest Points). D'autres caractéristiques ont aussi été utilisées concernant la couleur et la présence de formes particulières. Ces caractéristiques sont ensuite exploitées pour structurer la base de vidéos en briques spatio-temporelles homogènes. Cette structuration correspond à une sorte de segmentation de la base en fonction de chacune des caractéristiques. La liaison entre le concept à définir et les briques extraites de la base est en lien avec le fossé sémantique bien connu dans la problématique d'indexation automatique. La création de ce lien nécessite l'utilisation de la connaissance de l'expert de l'application sur le concept. Nous avons développé un système dans lequel cette connaissance est extraite par un système de questions/réponses. Les couples de questions/réponses permettent de sélectionner des briques répondant à la contrainte, de définir des relations entre certaines briques, et enfin de naviguer dans l'arborescence des questions. Des tests ont été réalisés sur des bases de vidéos de provenances diverses telles que des vidéos provenant d'émissions de télévision, de films d'animation, ou encore des vidéos de laboratoire disponibles sur le net, ou réalisées par nos soins. Ces tests montrent les performances satisfaisantes mais aussi les limites de l'approche et ouvrent des perspectives intéressantes, particulièrement sur les aspects collaboratifs et les aspects adaptatifs qui permettraient de capitaliser les connaissances des experts applicatifs et rendraient le système plus efficient. / The usual techniques of video indexing generally go through a learning phase that requires the prior establishment of a training database. Even if the size of the database is often reduced, the annotation phase by an expert of the application is often long and tedious. In this thesis, we developed a system that allows pre-selecting a set of prototypes that can contain the concept that must appear in the training set. This reduced base of prototypes will then be annotated by the expert. We are interested in time concepts, which led us to study particular features related to movement, such as Spatial Temporal Interest Points (STIP). Other features have also been used concerning the color and the presence of particular shapes. These characteristics are then used to structure the video database in homogeneous space-time blocks. This structure corresponds to segmentation related to each characteristic. The link between the concept to define and blocks extracted from the base corresponds to the well known problem of automatic indexing, the semantic gap. The definition of this link requires the introduction of the application expert's knowledge. We developed a system in which this knowledge is extracted by a questions/answers system. The couples of questions/answers allow the system to select blocks corresponding to the constraint, to define relationships between some blocks, and finally to navigate on the questions/answers tree. Tests were performed on video databases from various sources such as videos from tele- vision shows, animated films, laboratory videos available on the net, or made by us. These tests show the satisfying performances but also the limitations of the approach and open interesting perspectives, particularly on the collaborative and adaptive aspects that would capitalize in the application expert knowledge and would make the system more efficient.
66

Enhancing User Interaction with Business Intelligence Dashboards / Amélioration de l’interaction des utilisateurs avec des dashboards de Business Intelligence

Elias, Micheline 11 October 2012 (has links)
L’objectif de cette thèse est d’améliorer les tableaux de bord (dashboard) de visualisation afin d’aider à la prise de décision et d’analyse BI, et les rendre accessibles à un public plus large. Nous identifions les tendances actuelles et pratiques d’utilisation des dashboards de visualisation dans le domaine BI, et après une approche de conception centreé, nous proposons des améliorations et des solutions. Plus précisément, nous relevons les défis suivants: faire la construction du dashboard et d’utiliser accessible aux novices de visualisation, l’amélioration des dashboards avec des capacités d’annotation pour aider les analystes BI dans le processus d’analyse, et ajouter des fonctionnalités du storytelling pour aider à la communication entre les analystes et les décideurs. Notre approche centrée-utilisateur consiste à recueillir les besoins des utilisateurs (grâce à la recherche de fond, des entrevues en profondeur ou des séances de prototypage avec des experts BI), le développement itératif des prototypes, et l’évaluation des prototypes issus avec des utilisateurs représentatifs. Dans la première étape, notre travail rapporte idées recueillies au sujet des pratiques des utilisateurs novices sur Exploation Views (EV), un système qui permet aux utilisateurs novices de visualisation à créer facilement des dashboards et les personnaliser, mais fournit également des fonctionnalités nécessaires aux les experts. Nous avons évalué EV à la fois d’experts et des utilisateurs novices de visualisation, et constaté des différences dans la façon dont les experts et les utilisateurs novices interagissent avec l’interface. En se basant sur ces observations nous proposons de nouvelles lignes directrices, qui augmentent les travaux antérieurs, sur la conception pour les novices, dans le contexte des systèmes de visualisation interactifs sous forme de dashboard. Les analystes BI utilisant des dashboards (experts ou novices) ont besoin d’aide dans la tenue des dossiers de leur analyse, de leurs découvertes et des idées recueillies des données. Ce soutien fait défaut dans la plupart des systèmes de visualisation de dashboard. Nous avons effectué des entretiens approfondis avec des experts en analyse BI, qui ont révélé de nouveaux besoins d’annotation pour les systèmes de visualisation multi-graphiques (tels que des dashboard), sur lesquels nous avons basé la conception d’un prototype de tableau de bord qui gère les données et les annotations contextuels, qui peuvent être partagées à travers visualisations et des ensembles duel données. Nous nous sommes concentrés en particulier sur les aspects d’annotation innovantes, tels que les annotations multi-cibles, la transparence des annotations à travers des graphiques, ainsi que les annotations qui peuvent être partagées entre les différentes sources de données et des applications de BI. Nous avons identifié et fourni des solutions aux problèmes en utilisant les annotations contextuels, notamment les questions qui se posent lorsque le contexte de l’annotation change (par exemple les données annotées sont supprimés ou modifiés). Notre prototype a été évaluée avec des experts, utilisateurs BI, qui ont réussi d’effectuer facilement plusieurs tâches qu’ils estiment importants dans leur travail. / The goal of this thesis is to improve visualization dashboards in order to help decision making and Business Intelligence (BI) analysis, and make them accessible to a larger user audience. We identify current trends and use practices of visualization dashboards in the BI domain, and following a user-cantered design approach we provide enhancements and solutions. More specifically we address the following challenges: making dashboard construction and use accessible to visualization novices, enhancing dashboards with advanced annotation capabilities to help BI analysts in the analysis process, and add storytelling functionality to dashboards to help the communication between analysts and decision makers. Our user-centered approach consists of gathering user requirements (through background search, in-depth interviews or prototyping sessions with BI experts), iterative prototype development, and evaluation of our prototypes with representative users. First, our work reports gathered insights regarding novice user practices on Exploration Views (EV), a system that allows novice visualization users to easily build and customize BI information dashboards, but also provides functionality needed by experts. We evaluated EV with both expert and novice visualization users, and found differences in how experts and novice users interact with the interface. Based on those observations we provide new guidelines that augment previous work on designing for visualization novices, in the context of interactive visualization systems in the form of dashboards. BI analysts using dashboards (experts or novices) need support in record-keeping of their analysis, their data discoveries and gathered insights. This support is lacking in most dashboard visualization systems. We conducted in-depth interviews with BI experts that led to new annotation needs for multi-chart visualization systems (such as dashboards), on which we based the design of a dashboard prototype that supports data and context aware annotations, shared across visualizations and datasets. We focused particularly on novel annotation aspects, such as multi-target annotations, annotation transparency across charts, and annotations that can be shared among different data-sources and BI applications. We identified and provided solutions to challenges in using context aware annotations, notably issues arising when the annotation’s ”context” changes (e.g. annotated data are deleted or changed). Our prototype was evaluated with BI experts that were able to easily perform several tasks that they deemed important in their work. To increase the value of an analysis, recorded insights and knowledge need to be organized and communicated to others, and made available for future analysts to learn from. This communication step is very important, as often the analyst of data and the decision maker are two different people. To achieve this we need an easy insight organization and sharing mechanism to facilitate the transfer of knowledge, experiences, and stories, to decision makers and other analysts. We interviewed BI analysis experts and collected new requirements related to BI visual storytelling. Based on these requirements we designed and implemented a storytelling prototype that is integrated in a dashboard analysis tool, and allows easy transition from analysis to story creation and sharing. Our system was identified by experts as having great potential for training other analysts. Moreover, it can help BI analysis authors organize and communicate their findings faster to decision makers, and they can reach a broader audience since the results of a data analysis presented in the storytelling tool can be read with little to no training.
67

Building and Using Knowledge Models for Semantic Image Annotation / Construction et utilisation de modèles à base de connaissance pour l’annotation sémantique des images

Bannour, Hichem 08 February 2013 (has links)
Cette thèse propose une nouvelle méthodologie pour la construction et l’utilisation de modèles à base de connaissances pour l'annotation automatique d'images. Plus précisément, nous proposons dans un premier lieu des approches pour la construction automatique de modèles de connaissances explicites et structurés, à savoir des hiérarchies sémantiques et des ontologies multimédia adaptées pour l'annotation d'images. Ainsi, nous proposons une approche pour la construction automatique de hiérarchies sémantiques. Notre approche est basée sur une nouvelle mesure « sémantico-visuelle » entre concepts et un ensemble de règles qui permettent de relier les concepts les plus apparentés jusqu'à l'aboutissement à la hiérarchie finale. Ensuite, nous proposons de construire des modèles de connaissances plus riches en terme de sémantique et qui modélisent donc d'autres types de relations entre les concepts de l’image. Par conséquent, nous proposons une nouvelle approche pour la construction automatique d'une ontologie multimédia qui modélise non seulement les relations de subsomption, mais aussi les relations spatiales et contextuelles entre les concepts de l'image. L'ontologie proposée est adaptée pour raisonner sur la cohérence de l’annotation d'images. Afin d'évaluer l'efficacité des modèles de connaissances construits, nous proposons de les utiliser par la suite dans un cadre d'annotation d'images. Nous proposons donc une approche, basée sur la structure des hiérarchies sémantiques, pour la classification hiérarchique d'images. Puis, nous proposons une approche générique, combinant des techniques d'apprentissage automatique et le raisonnement ontologique flou, afin de produire des annotations d’images sémantiquement pertinentes. Des évaluations empiriques de nos approches ont montré une amélioration significative de la précision des annotations d'images. / This dissertation proposes a new methodology for building and using structured knowledge models for automatic image annotation. Specifically, our first proposals deal with the automatic building of explicit and structured knowledge models, such as semantic hierarchies and multimedia ontologies, dedicated to image annotation. Thereby, we propose a new approach for building semantic hierarchies faithful to image semantics. Our approach is based on a new image-semantic similarity measure between concepts and on a set of rules that allow connecting the concepts with higher relatedness till the building of the final hierarchy. Afterwards, we propose to go further in the modeling of image semantics through the building of explicit knowledge models that incorporate richer semantic relationships between image concepts. Therefore, we propose a new approach for automatically building multimedia ontologies consisting of subsumption relationships between concepts, and also other semantic relationships such as contextual and spatial relations. Fuzzy description logics are used as a formalism to represent our ontology and to deal with the uncertainty and the imprecision of concept relationships. In order to assess the effectiveness of the built structured knowledge models, we propose subsequently to use them in a framework for image annotation. We propose therefore an approach, based on the structure of semantic hierarchies, to effectively perform hierarchical image classification. Furthermore, we propose a generic approach for image annotation combining machine learning techniques, such as hierarchical image classification, and fuzzy ontological-reasoning in order to achieve a semantically relevant image annotation. Empirical evaluations of our approaches have shown significant improvement in the image annotation accuracy.
68

A Theoretical Study of the Synergy and Lazy Annotation Algorithms

Jayaram, Sampath January 2013 (has links) (PDF)
Given a program with assertions, the assertion checking problem is to tell whether there is an execution of the program that violates one of the assertions. One approach to this problem is to explore different paths towards assertion violations, and to learn “blocking” conditions whenever a path is blocked from reaching the violations. The Synergy algorithm of Gulavani et al. [FSE 2006] and the Lazy Annotation algorithm of McMillan [CAV2010] are two recent algorithms that follow this approach to assertion checking. Each technique has its own advantages. Synergy uses concrete tests which are very cheap as compared to theorem prover calls. The tests also help by giving us the place to perform the refinement (called the frontier) for an abstraction which is too coarse. Synergy uses partition refinement while maintaining its abstraction. The Lazy Annotation algorithm basically partitions each location in to regions that are safe and unsafe. The safe regions are those from which we cannot reach the error states, and the unsafe regions are the remaining ones. The annotations that this algorithm maintains correspond to the safe regions. The advantage that annotations have over partition refinement is that annotations can recover from irrelevant predicates used for annotating, where as once a partition is refined with an irrelevant predicate, it cannot recover from it. In this work, we make a theoretical study of the algorithms mentioned above. The aim of the study is to answer questions like: Is one algorithm provably better than the other, in terms of the best-case execution (counting the number of refinement steps) on input programs? Is the termination behavior of one always better than the other? We show that the Synergy and Lazy Annotation algorithms are incomparable, i.e., neither of them is provably better than the other, in terms of their best-case execution times. We also show how we can view the two algorithms on a common ground, in the sense that we show how to translate a snapshot of one algorithm into a snapshot of the other. This allows us to import the heuristics of one algorithm into the other, and there by propose new and potentially improved versions of these algorithms. By viewing them o n a common ground, we are also able to view the final proofs generated by the algorithms in either representation. We go on to study the proposed new versions of the Synergy and Lazy Annotation, comparing their best-case running times and their termination behaviour. We show that the following pairs of algorithms are incomparable: Mod-Syn (Lazy Annotation-style refinement imported into Synergy) and Synergy, Mod-Syn and Lazy Annotation, Synergy and SEAL(Synergy heuristics imported into Lazy Annotation). We show that the SEAL algorithm always performs better than the Lazy Annotation algorithm.
69

Handling imperfections for multimodal image annotation / Gestion des imperfections pour l’annotation multimodale d’images

Znaidia, Amel 11 February 2014 (has links)
La présente thèse s’intéresse à l’annotation multimodale d’images dans le contexte des médias sociaux. Notre objectif est de combiner les modalités visuelles et textuelles (tags) afin d’améliorer les performances d’annotation d’images. Cependant, ces tags sont généralement issus d’une indexation personnelle, fournissant une information imparfaite et partiellement pertinente pour un objectif de description du contenu sémantique de l’image. En outre, en combinant les scores de prédiction de différents classifieurs appris sur les différentes modalités, l’annotation multimodale d’image fait face à leurs imperfections: l’incertitude, l’imprécision et l’incomplétude. Dans cette thèse, nous considérons que l’annotation multimodale d’image est soumise à ces imperfections à deux niveaux : niveau représentation et niveau décision. Inspiré de la théorie de fusion de l’information, nous concentrons nos efforts dans cette thèse sur la définition, l’identification et la prise en compte de ces aspects d’imperfections afin d’améliorer l’annotation d’images. / This thesis deals with multimodal image annotation in the context of social media. We seek to take advantage of textual (tags) and visual information in order to enhance the image annotation performances. However, these tags are often noisy, overly personalized and only a few of them are related to the semantic visual content of the image. In addition, when combining prediction scores from different classifiers learned on different modalities, multimodal image annotation faces their imperfections (uncertainty, imprecision and incompleteness). Consequently, we consider that multimodal image annotation is subject to imperfections at two levels: the representation and the decision. Inspired from the information fusion theory, we focus in this thesis on defining, identifying and handling imperfection aspects in order to improve image annotation.
70

Enrichissement et peuplement d’ontologie à partir de textes et de données du LOD : Application à l’annotation automatique de documents / Ontology enrichment and population from texts and data from LOD : Application to automatic annotation of documents

Alec, Céline 26 September 2016 (has links)
Cette thèse traite d'une approche, guidée par une ontologie, conçue pour annoter les documents d'un corpus où chaque document décrit une entité de même type. Dans notre contexte, l'ensemble des documents doit être annoté avec des concepts qui sont en général trop spécifiques pour être explicitement mentionnés dans les textes. De plus, les concepts d'annotation ne sont représentés au départ que par leur nom, sans qu'aucune information sémantique ne leur soit reliée. Enfin, les caractéristiques des entités décrites dans les documents sont incomplètes. Pour accomplir ce processus particulier d'annotation de documents, nous proposons une approche nommée SAUPODOC (Semantic Annotation Using Population of Ontology and Definitions of Concepts) qui combine plusieurs tâches pour (1) peupler et (2) enrichir une ontologie de domaine. La phase de peuplement (1) ajoute dans l'ontologie des informations provenant des documents du corpus mais aussi du Web des données (Linked Open Data ou LOD). Le LOD représente aujourd'hui une source prometteuse pour de très nombreuses applications du Web sémantique à condition toutefois de développer des techniques adaptées d'acquisition de données. Dans le cadre de SAUPODOC, le peuplement de l'ontologie doit tenir compte de la diversité des données présentes dans le LOD : propriétés multiples, équivalentes, multi-valuées ou absentes. Les correspondances à établir, entre le vocabulaire de l'ontologie à peupler et celui du LOD, étant complexes, nous proposons un modèle pour faciliter leur spécification. Puis, nous montrons comment ce modèle est utilisé pour générer automatiquement des requêtes SPARQL et ainsi faciliter l'interrogation du LOD et le peuplement de l'ontologie. Celle-ci, une fois peuplée, est ensuite enrichie(2) avec les concepts d'annotation et leurs définitions qui sont apprises grâce à des exemples de documents annotés. Un raisonnement sur ces définitions permet enfin d'obtenir les annotations souhaitées. Des expérimentations ont été menées dans deux domaines d'application, et les résultats, comparés aux annotations obtenues avec des classifieurs, montrent l'intérêt de l'approche. / This thesis deals with an approach, guided by an ontology, designed to annotate documents from a corpus where each document describes an entity of the same type. In our context, all documents have to be annotated with concepts that are usually too specific to be explicitly mentioned in the texts. In addition, the annotation concepts are represented initially only by their name, without any semantic information connected to them. Finally, the characteristics of the entities described in the documents are incomplete. To accomplish this particular process of annotation of documents, we propose an approach called SAUPODOC (Semantic Annotation of Population Using Ontology and Definitions of Concepts) which combines several tasks to (1) populate and (2) enrich a domain ontology. The population step (1) adds to the ontology information from the documents in the corpus but also from the Web of Data (Linked Open Data or LOD). The LOD represents today a promising source for many applications of the Semantic Web, provided that appropriate techniques of data acquisition are developed. In the settings of SAUPODOC, the ontology population has to take into account the diversity of the data in the LOD: multiple, equivalent, multi-valued or absent properties. The correspondences to be established, between the vocabulary of the ontology to be populated and that of the LOD, are complex, thus we propose a model to facilitate their specification. Then, we show how this model is used to automatically generate SPARQL queries and facilitate the interrogation of the LOD and the population of the ontology. The latter, once populated, is then enriched (2) with the annotation concepts and definitions that are learned through examples of annotated documents. Reasoning on these definitions finally provides the desired annotations. Experiments have been conducted in two areas of application, and the results, compared with the annotations obtained with classifiers, show the interest of the approach.

Page generated in 0.1019 seconds