• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 71
  • 20
  • 19
  • 4
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 323
  • 94
  • 94
  • 67
  • 66
  • 55
  • 47
  • 41
  • 40
  • 38
  • 37
  • 35
  • 33
  • 32
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Exploration interactive, incrémentale et multi-niveau de larges collections d'images / Interactive, incremental and multi-level exploration of large collections of images

Rayar, Frédéric 22 November 2016 (has links)
Les travaux de recherche présentés et discutés dans cette thèse s’intéressent aux grandes collections d’images numériques. Plus particulièrement, nous cherchons à donner à un utilisateur la possibilité d’explorer ces collections d’images, soit dans le but d’en extraire de l’information et de la connaissance, soit de permettre une certaine sérendipité dans l’exploration. Ainsi, cette problématique est abordée du point de vue de l’analyse et l’exploration interactive des données. Nous tirons profit du paradigme de navigation par similarité et visons à respecter simultanément les trois contraintes suivantes : (i) traiter de grandes collections d’images, (ii) traiter des collections dont le nombre d’images ne cesse de croître au cours du temps et (iii) donner des moyens d’explorer interactivement des collections d’images. Pour ce faire, nous proposons d’effectuer une étude conjointe de l’indexation et de la visualisation de grandes collections d’images qui s’agrandissent au cours du temps. / The research work that is presented and discussed in this thesis focuses on large and evergrowing image collections. More specifically, we aim at providing one the possibility to explore such image collections, either to extract some kind of information and knowledge, or to wander in the collections. This thesis addresses this issue from the perspective of Interactive Data Exploration and Analytics. We take advantage of the similarity-based image collection browsing paradigm and aim at meeting simultaneously the three following constraints: (i) handling large image collections, up to millions of images, (ii) handling dynamic image collections, to deal with ever-growing image collections, and (iii) providing interactive means to explore image collections. To do so, we jointly study the indexing and the interactive visualisation of large and ever-growing image collections.
292

Gestion de l’hétérogénéité d’un SI de classification documentaire multifacette et positionnement dans l’environnement des ECM. / Management of heterogeneity of a documentary multifaceted classification Information System and position in the ECM environment.

Ankoud, Manel 19 December 2014 (has links)
L’organisation des connaissances est une discipline investie par des bibliothécaires, documentalistes, archivistes spécialistes de l’information, informaticiens et tous professionnels de documents. Elle englobe toutes activités, études et recherches qui élaborent et traitent les processus d’organisation et de présentation des ressources documentaires utiles dans une organisation. Dans ce contexte, le projet ANR Miipa-Doc a pour objectifs d’explorer des nouvelles méthodes d’indexation ascendantes, en utilisant des termes descripteurs formulés par les individus plutôt que choisis parmi une liste préétablie, pour l’organisation des contenus documentaires complexes au sein des entreprises de large taille, et concevoir l’architecture logicielle correspondante.Dans ce projet notre contribution consiste à gérer l’hétérogénéité d’un système d’information d’organisation des contenus documentaires, basé sur une approche orientée métier et un SOC (système d’organisation des connaissances) folksonomique à facette. Nous proposons dans cette gestion une approche incrémentale dirigée par les modèles, issue de l’IDM (ingénierie dirigée par les modèles), basée sur des méta-modèles pour garantir l’aspect d’évolutivité. Après l’implémentation du prototype HyperTaging qui met en place ces deux approches, nous proposons un processus d’évaluation permet de positionner ce prototype et tous SI de classification documentaire dans l’environnement des ECM, en se basant sur des critères d’évaluation fins et particuliers. / The knowledge organization is invested by librarians, archivists, information specialists, IT professionals and all discipline of document. It includes all activities, studies and research which develop and treat organization process and presentation of relevant information resources in an organization. In this context the Miipa-Doc project aims to explore new ascendants indexing methods, using descriptors made by individuals rather than selected given list for complex contained in the organization document, in large size companies, and design the corresponding software architecture.Our contribution in this project is to manage the heterogeneity of an information system of document organization, based on a business-oriented approach and a KOS (knowledge organization system) of folksonomy facet. We propose an incremental approach this management model driven, outcome of MDE (Model Driven Engineering), based on meta-models to ensure scalability appearance. After implementing the HyperTaging prototype, that implements both approaches, we propose an evaluation process used to position the prototype and all IS of documentary classification in the environment of ECM based on purposes of delicate and particular evaluation criteria.
293

Graph mining for object tracking in videos / Fouille de graphes pour le suivi d’objets dans les vidéos

Diot, Fabien 03 June 2014 (has links)
Détecter et suivre les objets principaux d’une vidéo est une étape nécessaire en vue d’en décrire le contenu pour, par exemple, permettre une indexation judicieuse des données multimédia par les moteurs de recherche. Les techniques de suivi d’objets actuelles souffrent de défauts majeurs. En effet, soit elles nécessitent que l’utilisateur désigne la cible a suivre, soit il est nécessaire d’utiliser un classifieur pré-entraîné à reconnaitre une classe spécifique d’objets, comme des humains ou des voitures. Puisque ces méthodes requièrent l’intervention de l’utilisateur ou une connaissance a priori du contenu traité, elles ne sont pas suffisamment génériques pour être appliquées aux vidéos amateurs telles qu’on peut en trouver sur YouTube. Pour résoudre ce problème, nous partons de l’hypothèse que, dans le cas de vidéos dont l’arrière-plan n’est pas fixe, celui-ci apparait moins souvent que les objets intéressants. De plus, dans une vidéo, la topologie des différents éléments visuels composant un objet est supposée consistante d’une image a l’autre. Nous représentons chaque image par un graphe plan modélisant sa topologie. Ensuite, nous recherchons des motifs apparaissant fréquemment dans la base de données de graphes plans ainsi créée pour représenter chaque vidéo. Cette approche nous permet de détecter et suivre les objets principaux d’une vidéo de manière non supervisée en nous basant uniquement sur la fréquence des motifs. Nos contributions sont donc réparties entre les domaines de la fouille de graphes et du suivi d’objets. Dans le premier domaine, notre première contribution est de présenter un algorithme de fouille de graphes plans efficace, appelé PLAGRAM. Cet algorithme exploite la planarité des graphes et une nouvelle stratégie d’extension des motifs. Nous introduisons ensuite des contraintes spatio-temporelles au processus de fouille afin d’exploiter le fait que, dans une vidéo, les objets se déplacent peu d’une image a l’autre. Ainsi, nous contraignons les occurrences d’un même motif a être proches dans l’espace et dans le temps en limitant le nombre d’images et la distance spatiale les séparant. Nous présentons deux nouveaux algorithmes, DYPLAGRAM qui utilise la contrainte temporelle pour limiter le nombre de motifs extraits, et DYPLAGRAM_ST qui extrait efficacement des motifs spatio-temporels fréquents depuis les bases de données représentant les vidéos. Dans le domaine du suivi d’objets, nos contributions consistent en deux approches utilisant les motifs spatio-temporels pour suivre les objets principaux dans les vidéos. La première est basée sur une recherche du chemin de poids minimum dans un graphe connectant les motifs spatio-temporels tandis que l’autre est basée sur une méthode de clustering permettant de regrouper les motifs pour suivre les objets plus longtemps. Nous présentons aussi deux applications industrielles de notre méthode / Detecting and following the main objects of a video is necessary to describe its content in order to, for example, allow for a relevant indexation of the multimedia content by the search engines. Current object tracking approaches either require the user to select the targets to follow, or rely on pre-trained classifiers to detect particular classes of objects such as pedestrians or car for example. Since those methods rely on user intervention or prior knowledge of the content to process, they cannot be applied automatically on amateur videos such as the ones found on YouTube. To solve this problem, we build upon the hypothesis that, in videos with a moving background, the main objects should appear more frequently than the background. Moreover, in a video, the topology of the visual elements composing an object is supposed consistent from one frame to another. We represent each image of the videos with plane graphs modeling their topology. Then, we search for substructures appearing frequently in the database of plane graphs thus created to represent each video. Our contributions cover both fields of graph mining and object tracking. In the first field, our first contribution is to present an efficient plane graph mining algorithm, named PLAGRAM. This algorithm exploits the planarity of the graphs and a new strategy to extend the patterns. The next contributions consist in the introduction of spatio-temporal constraints into the mining process to exploit the fact that, in a video, the motion of objects is small from on frame to another. Thus, we constrain the occurrences of a same pattern to be close in space and time by limiting the number of frames and the spatial distance separating them. We present two new algorithms, DYPLAGRAM which makes use of the temporal constraint to limit the number of extracted patterns, and DYPLAGRAM_ST which efficiently mines frequent spatio-temporal patterns from the datasets representing the videos. In the field of object tracking, our contributions consist in two approaches using the spatio-temporal patterns to track the main objects in videos. The first one is based on a search of the shortest path in a graph connecting the spatio-temporal patterns, while the second one uses a clustering approach to regroup them in order to follow the objects for a longer period of time. We also present two industrial applications of our method
294

Pointwise approach for texture analysis and characterization from very high resolution remote sensing images / Approche ponctuelle pour l'analyse et la caractérisation de texture dans les images de télédétection à très haute résolution

Pham, Minh Tân 20 September 2016 (has links)
Ce travail de thèse propose une nouvelle approche ponctuelle pour l'analyse de texture dans l'imagerie de télédétection à très haute résolution (THR). Cette approche ne prend en compte que des points caractéristiques, et non pas tous les pixels dans l'image, pour représenter et caractériser la texture. Avec l'augmentation de la résolution spatiale des capteurs satellitaires, les images THR ne vérifient que faiblement l'hypothèse de stationnarité. Une telle approche devient donc pertinente étant donné que seuls l'interaction et les caractéristiques des points-clés sont exploitées. De plus, puisque notre approche ne considère pas tous les pixels dans l'image comme le font la plupart des méthodes denses de la littérature, elle est plus à-même de traiter des images de grande taille acquises par des capteurs THR. Dans ce travail, la méthode ponctuelle est appliquée en utilisant des pixels de maxima locaux et minima locaux (en intensité) extraits à partir de l'image. Elle est intégrée dans plusieurs chaînes de traitement en se fondant sur différentes techniques existantes telles la théorie des graphes, la notion de covariance, la mesure de distance géométrique, etc. En conséquence, de nombreuses applications basées sur la texture sont abordées en utilisant des données de télédétection (images optiques et radar), telles l'indexation d'images, la segmentation, la classification et la détection de changement, etc. En effectuant des expériences dédiées à chaque application thématique, la pertinence et l'efficacité du cadre méthodologique proposé sont confirmées et validées. / This thesis work proposes a novel pointwise approach for texture analysis in the scope of very high resolution (VHR) remote sensing imagery. This approach takes into consideration only characteristic pixels, not all pixels of the image, to represent and characterize textural features. Due to the fact that increasing the spatial resolution of satellite sensors leads to the lack of stationarity hypothesis in the acquired images, such an approach becomes relevant since only the interaction and characteristics of keypoints are exploited. Moreover, as this technique does not need to consider all pixels inside the image like classical dense approaches, it is more capable to deal with large-size image data offered by VHR remote sensing acquisition systems. In this work, our pointwise strategy is performed by exploiting the local maximum and local minimum pixels (in terms of intensity) extracted from the image. It is integrated into several texture analysis frameworks with the help of different techniques and methods such as the graph theory, the covariance-based approach, the geometric distance measurement, etc. As a result, a variety of texture-based applications using remote sensing data (both VHR optical and radar images) are tackled such as image retrieval, segmentation, classification, and change detection, etc. By performing dedicated experiments to each thematic application, the effectiveness and relevance of the proposed approach are confirmed and validated.
295

Le collaborative tagging appliqué à l'information médicale scientifique: étude des tags et de leur adoption par les médecins dans le cadre de leurs pratiques informationnelles

Durieux, Valérie 20 December 2013 (has links)
Suite à l’avènement du Web 2.0, le rôle de l’internaute s’est vu modifier, passant de consommateur passif à acteur à part entière. De nouvelles fonctionnalités ont vu le jour augmentant considérablement les possibilités d’interaction avec le système. Parmi celles-ci, le collaborative tagging permet à l’utilisateur de décrire l’information en ligne par l’attribution de mots-clés (ou tags), la particularité étant que ces tags ne sont pas uniquement accessibles aux tagueurs eux-mêmes mais à l’ensemble des internautes. L’octroi de tags à une ressource lui offre donc de multiples chemins d’accès exploitables par la communauté internet tout entière. Régulièrement comparé à l’indexation « professionnelle », le collaborative tagging soulève une question essentielle :cette nouvelle pratique contribue-t-elle favorablement à la description et, par extension, à la recherche d’informations sur internet ?<p>Tous les types d’informations ne pouvant être étudiés, la présente dissertation se focalise sur l’information médicale scientifique utilisée par les médecins dans le cadre de leur pratique professionnelle. Elle propose, dans un premier temps, de mesurer le potentiel des tags assignés dans deux systèmes de collaborative tagging (Delicious et CiteULike) à décrire l’information en les comparant à des descripteurs attribués par des professionnels de l’information pour un même échantillon de ressources. La comparaison a mis en lumière l’exploitabilité des tags en termes de dispositifs de recherche d’informations mais a néanmoins révélé des faiblesses indéniables par rapport à une indexation réalisée par des professionnels à l’aide d’un langage contrôlé.<p>Dans un second temps, la dissertation s’est intéressée aux utilisateurs finaux en quête d’informations, c’est-à-dire les médecins, afin de déterminer dans quelle mesure un système de collaborative tagging (CiteULike) peut assister ces derniers lors de leur recherche d’informations scientifiques. Pour ce faire, des entretiens individuels combinant interview semi-structurée et expérimentation ont été organisés avec une vingtaine de médecins. Ils ont fourni des indications riches et variées quant à leur adoption effective ou potentielle d’un système de collaborative tagging dans le cadre de leurs pratiques informationnelles courantes.<p>Enfin, cette dissertation se propose d’aller au-delà de l’étude des tags et du phénomène de collaborative tagging dans son ensemble. Elle s’intéresse également aux compétences informationnelles des médecins observés en vue d’alimenter la réflexion sur les formations qui leur sont dispensées tout au long de leurs études mais également durant leur parcours professionnel. / Doctorat en Information et communication / info:eu-repo/semantics/nonPublished
296

Filtrage de segments informatifs dans des vidéos / Informative segment filtering in video sequences

Guilmart, Christophe 20 December 2011 (has links)
Les travaux réalisés dans le cadre de cette thèse ont pour objectif d’extraire les différents segments informatifs au sein de séquences vidéo, plus particulièrement aériennes. L’interprétation manuelle de telles vidéos dans une optique de renseignement se heurte en effet au volume des données disponibles. Une assistance algorithmique fondée sur diverses modalités d’indexation est donc envisagée, dans l’objectif de repérer les "segments d’intérêt" et éviter un parcours intégral de la vidéo. Deux approches particulières ont été retenues et respectivement développées au sein de chaque partie. La partie 1 propose une utilisation des conditions de prise de vue (CPDV) comme modalités d’indexation. Une évaluation de la qualité image permet ainsi de filtrer les segments temporels de mauvaise qualité et donc inexploitables. La classification du mouvement image apparent directement lié au mouvement caméra, fournit une indexation de séquences vidéo en soulignant notamment les segments potentiels d’intérêt ou au contraire les segments difficiles présentant un mouvement très rapide ou oscillant. La partie 2 explore le contenu dynamique de la séquence vidéo, plus précisément la présence d’objets en mouvement. Une première approche locale en temps est présentée. Elle filtre les résultats d’une première classification par apprentissage supervisé en exploitant les informations de contexte, spatial puis sémantique. Différentes approches globales en temps sont par la suite explorées. De telles approches permettent de garantir la cohérence temporelle des résultats et réduire les fausses alarmes. / The objective of this thesis is to extract the informative temporal segments from video sequences, more particularly in aerial video. Manual interpretation of such videos for information gathering faces an ever growing volume of available data. We have thus considered an algorithmic assistance based on different modalities of indexation in order to locate "segments of interest" and avoid a complete visualization of the video. We have chosen two methods in particular and have respectively developed them in each part of this thesis. Part 1 describes how viewing conditions can be used as a method of indexation. The assessment of image quality enables to filter out the temporal segments for which the quality is low and which can thus not be exploited. The classification of global image motion, which is directly linked to camera motion, leads to a method of indexation for video sequences. Indeed, it emphasizes possible segments of interest or, conversely, difficult segments for which motion is very fast or oscillating. Part 2 focuses on the dynamic content of video sequences, especially the presence of moving objects. We first present a local (in time) approach. This approach refines the results obtained after a first classification by supervised learning by using contextual information, spatial then semantic information. We have then investigated several methods for moving object detection which are global in time. Such approaches aim to enforce the temporal consistency of the detected objects and to reduce false detections.
297

Indexation de spectres HSQC et d’images IRMf appliquée à la détection de bio-marqueurs / Indexing of HSQC spectra and FMRI images for biomarker identification

Belghith, Akram 30 March 2012 (has links)
Les techniques d'acquisition des signaux médicaux sont en constante évolution et fournissent une quantité croissante de données hétérogènes qui doivent être analysées par le médecin. Dans ce contexte, des méthodes automatiques de traitement des signaux médicaux sont régulièrement proposées pour aider l'expert dans l'analyse qualitative et quantitative en facilitant leur interprétation. Ces méthodes doivent tenir compte de la physique de l'acquisition, de l'a priori que nous avons sur ces signaux et de la quantité de données à analyser pour une interprétation plus précise et plus fiable. Dans cette thèse, l'analyse des tissus biologique par spectroscopie RMN et la recherche des activités fonctionnelles cérébrales et leurs connectivités par IRMf sont explorées pour la recherche de nouveaux bio-marqueurs. Chaque information médicale sera caractérisée par un ensemble d'objets que nous cherchons à extraire, à aligner, et à coder. Le regroupement de ces objets par la mesure de leur similitude permettra leur classification et l'identification de bio-marqueurs. C'est ce schéma global d'indexation et de recherche par le contenu d'objets pour la détection des bio-marqueurs que nous proposons. Pour cela, nous nous sommes intéressés dans cette thèse à modéliser et intégrer les connaissances a priori que nous avons sur ces signaux biologiques permettant ainsi de proposer des méthodes appropriées à chaque étape d'indexation et à chaque type de signal. / The medical signal acquisition techniques are constantly evolving in recent years and providing an increasing amount of data which should be then analyzed. In this context, automatic signal processing methods are regularly proposed to assist the expert in the qualitative and quantitative analysis of these images in order to facilitate their interpretation. These methods should take into account the physics of signal acquisition, the a priori we have on the signal formation and the amount of data to analyze for a more accurate and reliable interpretation. In this thesis, we focus on the two-dimensional 2D Heteronuclear Single Quantum Coherence HSQC spectra obtained by High-Resolution Magic Angle Spinning HR-MAS NMR for biological tissue analysis and the functional Magnetic Resonance Imaging fMRI images for functional brain activities analysis. Each processed medical information will be characterized by a set of objects that we seek to extract, align, and code. The clustering of these objects by measuring their similarity will allow their classification and then the identification of biomarkers. It is this global content-based object indexing and retrieval scheme that we propose. We are interested in this thesis to properly model and integrate the a priori knowledge we have on these biological signal allowing us to propose there after appropriate methods to each indexing step and each type of signal.
298

Machine learning techniques for content-based information retrieval / Méthodes d’apprentissage automatique pour la recherche par le contenu de l’information

Chafik, Sanaa 22 December 2017 (has links)
Avec l’évolution des technologies numériques et la prolifération d'internet, la quantité d’information numérique a considérablement évolué. La recherche par similarité (ou recherche des plus proches voisins) est une problématique que plusieurs communautés de recherche ont tenté de résoudre. Les systèmes de recherche par le contenu de l’information constituent l’une des solutions prometteuses à ce problème. Ces systèmes sont composés essentiellement de trois unités fondamentales, une unité de représentation des données pour l’extraction des primitives, une unité d’indexation multidimensionnelle pour la structuration de l’espace des primitives, et une unité de recherche des plus proches voisins pour la recherche des informations similaires. L’information (image, texte, audio, vidéo) peut être représentée par un vecteur multidimensionnel décrivant le contenu global des données d’entrée. La deuxième unité consiste à structurer l’espace des primitives dans une structure d’index, où la troisième unité -la recherche par similarité- est effective.Dans nos travaux de recherche, nous proposons trois systèmes de recherche par le contenu de plus proches voisins. Les trois approches sont non supervisées, et donc adaptées aux données étiquetées et non étiquetées. Elles sont basées sur le concept du hachage pour une recherche efficace multidimensionnelle des plus proches voisins. Contrairement aux approches de hachage existantes, qui sont binaires, les approches proposées fournissent des structures d’index avec un hachage réel. Bien que les approches de hachage binaires fournissent un bon compromis qualité-temps de calcul, leurs performances en termes de qualité (précision) se dégradent en raison de la perte d’information lors du processus de binarisation. À l'opposé, les approches de hachage réel fournissent une bonne qualité de recherche avec une meilleure approximation de l’espace d’origine, mais induisent en général un surcoût en temps de calcul.Ce dernier problème est abordé dans la troisième contribution. Les approches proposées sont classifiées en deux catégories, superficielle et profonde. Dans la première catégorie, on propose deux techniques de hachage superficiel, intitulées Symmetries of the Cube Locality sensitive hashing (SC-LSH) et Cluster-Based Data Oriented Hashing (CDOH), fondées respectivement sur le hachage aléatoire et l’apprentissage statistique superficiel. SCLSH propose une solution au problème de l’espace mémoire rencontré par la plupart des approches de hachage aléatoire, en considérant un hachage semi-aléatoire réduisant partiellement l’effet aléatoire, et donc l’espace mémoire, de ces dernières, tout en préservant leur efficacité pour la structuration des espaces hétérogènes. La seconde technique, CDOH, propose d’éliminer l’effet aléatoire en combinant des techniques d’apprentissage non-supervisé avec le concept de hachage. CDOH fournit de meilleures performances en temps de calcul, en espace mémoire et en qualité de recherche.La troisième contribution est une approche de hachage basée sur les réseaux de neurones profonds appelée "Unsupervised Deep Neuron-per-Neuron Hashing" (UDN2H). UDN2H propose une indexation individuelle de la sortie de chaque neurone de la couche centrale d’un modèle non supervisé. Ce dernier est un auto-encodeur profond capturant une structure individuelle de haut niveau de chaque neurone de sortie.Nos trois approches, SC-LSH, CDOH et UDN2H, ont été proposées séquentiellement durant cette thèse, avec un niveau croissant, en termes de la complexité des modèles développés, et en termes de la qualité de recherche obtenue sur de grandes bases de données d'information / The amount of media data is growing at high speed with the fast growth of Internet and media resources. Performing an efficient similarity (nearest neighbor) search in such a large collection of data is a very challenging problem that the scientific community has been attempting to tackle. One of the most promising solutions to this fundamental problem is Content-Based Media Retrieval (CBMR) systems. The latter are search systems that perform the retrieval task in large media databases based on the content of the data. CBMR systems consist essentially of three major units, a Data Representation unit for feature representation learning, a Multidimensional Indexing unit for structuring the resulting feature space, and a Nearest Neighbor Search unit to perform efficient search. Media data (i.e. image, text, audio, video, etc.) can be represented by meaningful numeric information (i.e. multidimensional vector), called Feature Description, describing the overall content of the input data. The task of the second unit is to structure the resulting feature descriptor space into an index structure, where the third unit, effective nearest neighbor search, is performed.In this work, we address the problem of nearest neighbor search by proposing three Content-Based Media Retrieval approaches. Our three approaches are unsupervised, and thus can adapt to both labeled and unlabeled real-world datasets. They are based on a hashing indexing scheme to perform effective high dimensional nearest neighbor search. Unlike most recent existing hashing approaches, which favor indexing in Hamming space, our proposed methods provide index structures adapted to a real-space mapping. Although Hamming-based hashing methods achieve good accuracy-speed tradeoff, their accuracy drops owing to information loss during the binarization process. By contrast, real-space hashing approaches provide a more accurate approximation in the mapped real-space as they avoid the hard binary approximations.Our proposed approaches can be classified into shallow and deep approaches. In the former category, we propose two shallow hashing-based approaches namely, "Symmetries of the Cube Locality Sensitive Hashing" (SC-LSH) and "Cluster-based Data Oriented Hashing" (CDOH), based respectively on randomized-hashing and shallow learning-to-hash schemes. The SC-LSH method provides a solution to the space storage problem faced by most randomized-based hashing approaches. It consists of a semi-random scheme reducing partially the randomness effect of randomized hashing approaches, and thus the memory storage problem, while maintaining their efficiency in structuring heterogeneous spaces. The CDOH approach proposes to eliminate the randomness effect by combining machine learning techniques with the hashing concept. The CDOH outperforms the randomized hashing approaches in terms of computation time, memory space and search accuracy.The third approach is a deep learning-based hashing scheme, named "Unsupervised Deep Neuron-per-Neuron Hashing" (UDN2H). The UDN2H approach proposes to index individually the output of each neuron of the top layer of a deep unsupervised model, namely a Deep Autoencoder, with the aim of capturing the high level individual structure of each neuron output.Our three approaches, SC-LSH, CDOH and UDN2H, were proposed sequentially as the thesis was progressing, with an increasing level of complexity in terms of the developed models, and in terms of the effectiveness and the performances obtained on large real-world datasets
299

Localisation visuelle multimodale visible/infrarouge pour la navigation autonome / Multimodal visible/infrared visual localisation for autonomous navigation

Bonardi, Fabien 23 November 2017 (has links)
On regroupe sous l’expression navigation autonome l’ensemble des méthodes visantà automatiser les déplacements d’un robot mobile. Les travaux présentés seconcentrent sur la problématique de la localisation en milieu extérieur, urbain etpériurbain, et approchent la problématique de la localisation visuelle soumise à lafois à un changement de capteurs (géométrie et modalité) ainsi qu’aux changementsde l’environnement à long terme, contraintes combinées encore très peu étudiéesdans l’état de l’art. Les recherches menées dans le cadre de cette thèse ont porté surl’utilisation exclusive de capteurs de vision. La contribution majeure de cette thèseporte sur la phase de description et compression des données issues des images sousla forme d’un histogramme de mots visuels que nous avons nommée PHROG (PluralHistograms of Restricted Oriented Gradients). Les expériences menées ont été réaliséessur plusieurs bases d’images avec différentes modalités visibles et infrarouges. Lesrésultats obtenus démontrent une amélioration des performances de reconnaissance descènes comparés aux méthodes de l’état de l’art. Par la suite, nous nous intéresseronsà la nature séquentielle des images acquises dans un contexte de navigation afin defiltrer et supprimer des estimations de localisation aberrantes. Les concepts d’un cadreprobabiliste Bayésien permettent deux applications de filtrage probabiliste appliquéesà notre problématique : une première solution définit un modèle de déplacementsimple du robot avec un filtre d’histogrammes et la deuxième met en place un modèleplus évolué faisant appel à l’odométrie visuelle au sein d’un filtre particulaire.123 / Autonomous navigation field gathers the set of algorithms which automate the moves of a mobile robot. The case study of this thesis focuses on the outdoor localisation issue with additionnal constraints : the use of visual sensors only with variable specifications (geometry, modality, etc) and long-term apparence changes of the surrounding environment. Both types of constraints are still rarely studied in the state of the art. Our main contribution concerns the description and compression steps of the data extracted from images. We developped a method called PHROG which represents data as a visual-words histogram. Obtained results on several images datasets show an improvment of the scenes recognition performance compared to methods from the state of the art. In a context of navigation, acquired images are sequential such that we can envision a filtering method to avoid faulty localisation estimation. Two probabilistic filtering approaches are proposed : a first one defines a simple movement model with a histograms filter and a second one sets up a more complex model using visual odometry and a particules filter.
300

Algorithmes stochastiques pour la gestion du risque et l'indexation de bases de données de média / Stochastic algorithms for risk management and indexing of database media

Reutenauer, Victor 22 March 2017 (has links)
Cette thèse s’intéresse à différents problèmes de contrôle et d’optimisation dont il n’existe à ce jour que des solutions approchées. D’une part nous nous intéressons à des techniques visant à réduire ou supprimer les approximations pour obtenir des solutions plus précises voire exactes. D’autre part nous développons de nouvelles méthodes d’approximation pour traiter plus rapidement des problèmes à plus grande échelle. Nous étudions des méthodes numériques de simulation d’équation différentielle stochastique et d’amélioration de calculs d’espérance. Nous mettons en œuvre des techniques de type quantification pour la construction de variables de contrôle ainsi que la méthode de gradient stochastique pour la résolution de problèmes de contrôle stochastique. Nous nous intéressons aussi aux méthodes de clustering liées à la quantification, ainsi qu’à la compression d’information par réseaux neuronaux. Les problèmes étudiés sont issus non seulement de motivations financières, comme le contrôle stochastique pour la couverture d’option en marché incomplet mais aussi du traitement des grandes bases de données de médias communément appelé Big data dans le chapitre 5. Théoriquement, nous proposons différentes majorations de la convergence des méthodes numériques d’une part pour la recherche d’une stratégie optimale de couverture en marché incomplet dans le chapitre 3, d’autre part pour l’extension la technique de Beskos-Roberts de simulation d’équation différentielle dans le chapitre 4. Nous présentons une utilisation originale de la décomposition de Karhunen-Loève pour une réduction de variance de l’estimateur d’espérance dans le chapitre 2. / This thesis proposes different problems of stochastic control and optimization that can be solved only thanks approximation. On one hand, we develop methodology aiming to reduce or suppress approximations to obtain more accurate solutions or something exact ones. On another hand we develop new approximation methodology in order to solve quicker larger scale problems. We study numerical methodology to simulated differential equations and enhancement of computation of expectations. We develop quantization methodology to build control variate and gradient stochastic methods to solve stochastic control problems. We are also interested in clustering methods linked to quantization, and principal composant analysis or compression of data thanks neural networks. We study problems motivated by mathematical finance, like stochastic control for the hedging of derivatives in incomplete market but also to manage huge databases of media commonly known as big Data in chapter 5. Theoretically we propose some upper bound for convergence of the numerical method used. This is the case of optimal hedging in incomplete market in chapter 3 but also an extension of Beskos-Roberts methods of exact simulation of stochastic differential equations in chapter 4. We present an original application of karhunen-Loève decomposition for a control variate of computation of expectation in chapter 2.

Page generated in 0.1383 seconds