• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • Tagged with
  • 10
  • 10
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Expansion de requête dans la recherche d'information : comparaison des ressources et des méthodes

Jin, Fuman January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Modélisation de documents combinant texte et image : application à la catégorisation et à la recherche d'information multimédia / Representation of documents combining text and image : application to categorization and multimedia information retrieval

Moulin, Christophe 22 June 2011 (has links)
L'exploitation des documents multimédias pose des problèmes de représentation des informations textuelles et visuelles contenues dans ces documents. Notre but est de proposer un modèle permettant de représenter chacune de ces informations et de les combiner en vue de deux tâches : la catégorisation et la recherche d'information. Ce modèle représente les documents sous forme de sacs de mots nécessitant la création de vocabulaires spécifiques. Le vocabulaire textuel, généralement de très grande taille, est constitué des mots apparaissant dans les documents. Le vocabulaire visuel est quant à lui construit en extrayant des caractéristiques de bas niveau des images. Nous étudions les différentes étapes de sa création et la pondération tfidf des mots visuels dans les images, inspirée des approches classiquement utilisées pour les mots textuels. Dans le contexte de la catégorisation de documents textuels, nous introduisons un critère qui sélectionne les mots les plus discriminants pour les catégories afin de réduire la taille du vocabulaire sans dégrader les résultats du classement. Nous présentons aussi dans le cadre multilabel, une méthode permettant de sélectionner les différentes catégories à associer à un document. En recherche d’information, nous proposons une approche analytique par apprentissage pour combiner linéairement les résultats issus des informations textuelles et visuelles, permettant d'améliorer significativement la recherche. Notre modèle est validé pour ces différentes tâches en participant à des compétitions internationales telles que XML Mining et ImageCLEF et sur des collections de taille conséquente / Exploiting multimedia documents leads to representation problems of the textual and visual information within documents. Our goal is to propose a model to represent these both information and to combine them for two tasks: categorization and information retrieval. This model represents documents as bags of words, which requires to define adapted vocabularies. The textual vocabulary, usually very large, corresponds to the words of documents while the visual one is created by extracting low-level features from images. We study the different steps of its creation and the tf.idf weighting of visual words in images usually used for textual words. In the context of the text categorization, we introduce a criterion to select the most discriminative words for categories in order to reduce the vocabulary size without degrading the results of classification. We also present in the multilabel context, a method that lets us to select the number of categories which must be associated with a document. In multimedia information retrieval, we propose an analytical approach based on machine learning techniques to linearly combine the results from textual and visual information which significantly improves research results. Our model has shown its efficiency on different collections of important size and was evaluated in several international competitions such as XML Mining and ImageCLEF
3

Analyse distributionnelle appliquée aux textes de spécialité : réduction de la dispersion des données par abstraction des contextes / Distributional analysis applied to specialised corpora : reduction of data sparsity through context abstraction

Périnet, Amandine 17 March 2015 (has links)
Dans les domaines de spécialité, les applications telles que la recherche d’information ou la traduction automatique, s’appuient sur des ressources terminologiques pour prendre en compte les termes, les relations sémantiques ou les regroupements de termes. Pour faire face au coût de la constitution de ces ressources, des méthodes automatiques ont été proposées. Parmi celles-ci, l’analyse distributionnelle s’appuie sur la redondance d’informations se trouvant dans le contexte des termes pour établir une relation. Alors que cette hypothèse est habituellement mise en oeuvre grâce à des modèles vectoriels, ceux-ci souffrent du nombre de dimensions considérable et de la dispersion des données dans la matrice des vecteurs de contexte. En corpus de spécialité, ces informations contextuelles redondantes sont d’autant plus dispersées et plus rares que les corpus ont des tailles beaucoup plus petites. De même, les termes complexes sont généralement ignorés étant donné leur faible nombre d’occurrence. Dans cette thèse, nous nous intéressons au problème de la limitation de la dispersion des données sur des corpus de spécialité et nous proposons une méthode permettant de densifier la matrice des contextes en réalisant une abstraction des contextes distributionnels. Des relations sémantiques acquises en corpus sont utilisées pour généraliser et normaliser ces contextes. Nous avons évalué la robustesse de notre méthode sur quatre corpus de tailles, de langues et de domaines différents. L’analyse des résultats montre que, tout en permettant de prendre en compte les termes complexes dans l’analyse distributionnelle, l’abstraction des contextes distributionnels permet d’obtenir des groupements sémantiques de meilleure qualité mais aussi plus cohérents et homogènes. / In specialised domains, the applications such as information retrieval for machine translation rely on terminological resources for taking into account terms or semantic relations between terms or groupings of terms. In order to face up to the cost of building these resources, automatic methods have been proposed. Among those methods, the distributional analysis uses the repeated information in the contexts of the terms to detect a relation between these terms. While this hypothesis is usually implemented with vector space models, those models suffer from a high number of dimensions and data sparsity in the matrix of contexts. In specialised corpora, this contextual information is even sparser and less frequent because of the smaller size of the corpora. Likewise, complex terms are usually ignored because of their very low number of occurrences. In this thesis, we tackle the problem of data sparsity on specialised texts. We propose a method that allows making the context matrix denser, by performing an abstraction of distributional contexts. Semantic relations acquired from corpora are used to generalise and normalise those contexts. We evaluated the method robustness on four corpora of different sizes, different languages and different domains. The analysis of the results shows that, while taking into account complex terms in distributional analysis, the abstraction of distributional contexts leads to defining semantic clusters of better quality, that are also more consistent and more homogeneous.
4

Modélisation, Conception et Commande d'une Machine Asynchrone sans Balais Doublement Alimentée pour la Génération à Vitesse Variable

Poza Lobo, Francisco Javier 30 October 2003 (has links) (PDF)
Cette thèse est une exploration sur l'introduction de la Machine Asyncrone sans Balais Doublement Alimentée (Brushless Doubly-Fed Machine, BDFM) dans des applications à vitesse variable. Pour cela on a traité tous les aspects qui englobent le développement d'un tel système : la modélisation, l'analyse de fonctionnement, la conception et la commande. Les résultats les plus remarquables sont :<br />• Obtention d'un modèle vectoriel exprimé dans un référentiel générique.<br />• Développement des outils d'analyse qui facilitent la conception de la machine et le dimensionnement du système électronique.<br />• Construction d'un prototype expérimental bien adapté pour la validation des modèles et des algorithmes de commande.<br />• Développement et implantation d'une nouvelle commande vectorielle.
5

Système de recommandation équitable d'oeuvres numériques. En quête de diversité / Fair recommender system for cultural content In search of discovery

Lherisson, Pierre-René 20 June 2018 (has links)
Les systèmes de recommandation jouent un rôle important dans l'orientation des choix des utilisateurs. La recommandation se fait généralement par une optimisation d'une mesure de précision de l'adéquation entre un utilisateur et un produit. Cependant, plusieurs travaux de recherche ont montré que l’optimisation de la précision ne produisait pas les recommandations les plus utiles pour les utilisateurs. Un système trop précis peut contribuer à confiner les utilisateurs dans leur propre bulle de choix. Ceci peut aussi produire un effet de foule qui va concentrer les usages autour de quelques articles populaires. Par conséquent, il y a un manque de diversité et de nouveauté dans les recommandations et une couverture limitée du catalogue. Par ailleurs, l’utilisateur peut ressentir de la frustration envers ces recommandations monotones et arrêter de se fier au système. Ce type de recommandation va à l’antithèse de l’esprit humain qui peut être friand de nouveauté et de diversité. Même si la routine peut être sécurisante, l’être humain aime sortir des sentiers battus pour, par exemple, découvrir de nouveaux produits, tenter de nouvelles expériences. Cette absence de découverte est préjudiciable pour une plateforme numérique, surtout si cette dernière veut être équitable dans ses recommandations envers tous les producteurs de contenu (par exemple, les artistes, les écrivains, les développeurs de jeux vidéos, les vidéastes). Dans cette thèse, nous présentons deux familles de modèles qui cherchent à produire des résultats qui vont au-delà des aspects de précision pour des systèmes de recommandation pour des produits culturels basés sur le contenu. Les deux modèles que nous présentons reposent sur l’étude du profil de l’utilisateur avant de lui proposer des listes de recommandations contenant des articles nouveaux et divers. Ces approches captent la diversité qu’il y a dans le profil de l’utilisateur et répondent à cette diversité en cherchant à créer une liste diversifiée de recommandations sans trop pénaliser la précision. Le premier modèle repose principalement sur une approche de clustering. Dans ce modèle, nous proposons de la diversité à l’utilisateur tout en restant dans le périmètre de ses goûts. Le second modèle est basé sur une fonction issue de la loi normale. Nous faisons l’hypothèse de l’existence d’une zone intermédiaire définie entre des éléments considérés comme trop similaires et d’autres considérés comme trop différents. Cette zone intermédiaire est une zone propice à la découverte et à l’exploration de genres et d’expériences nouveaux. Nos propositions sont testées sur des jeux de données standards et comparées à des algorithmes de l’état de l’art. Les résultats de nos expériences montrent que nos approches apportent de la diversité et de la nouveauté et sont compétitives par rapport aux méthodes de l’état de l’art. Nous proposons également une expérience utilisateur pour valider notre modèle basé sur la fonction issue de la loi normale. Les résultats des expériences centrées sur l’utilisateur montrent que ce modèle correspond au comportement cognitif de l’être humain ainsi qu’à sa perception de la diversité. / Recommender systems play a leading role in user’s choice guidance. The search of accuracy in such systems is generally done through an optimization of a function between the items and the users. It has been proved that maximizing only the accuracy does not produce the most useful recommendation for the users. This can confine individuals inside the bubble of their own choices. Additionally, it tends to emphasize the agglomaration of the users’ behavior on few popular items. Thus, it produces a lack of diversity and novelty in recommendations and a limited coverage of the platform catalog. This can lead to an absence of discovery. Monotony and frustration are also induced for the users. This non-discovery is even more crucial if the platform wants to be fair in its recommendations with all contents’ producers (e.g, music artists, writers, video game developers or videographers). The non diversity, and novelty problem is more important for the users because it has been shown that human mind appreciates when moved outside of its comfort zone. For example, the discovery of new artists, the discovery of music genres for which he is not accustomed. In this thesis we present two families of model that aim to go beyond accuracy in content based recommender system scenario. Our two models are based on a user profile understanding prior to bring diversification. They capture the diversity in the user profile and respond to thisdiversity by looking to create a diverse list of recommendation without loosing to much accuracy. The first model is mainly built upon a clustering approach, while the second model is based on an wavelet function. This wavelet function in our model helps us delimit an area where the user will find item slightly different from what he liked in the past. This model is based on the assumption of the existence of a defined intermediate area between similar and different items. This area is also suitable for discovery. Our proposals are tested on a common experimental design that consider well-known datasets and state-of-the-art algorithm. The results of our experiments show that our approaches indeed bring diversity and novelty and are also competitive against state-of-the-art method. We also propose a user-experiment to validate our model based on the wavelet. The results of user centered experiments conclude that this model corresponds with human cognitive and perceptual behavior.
6

Espaces vectoriels sémantiques : enrichissement et interprétation de requêtes dans un système d'information distribué et hétérogène

Ventresque, Anthony 26 September 2008 (has links) (PDF)
Les systèmes d'information font face à un problème de pertinence dans les recherches dû à l'augmentation considérable des données accessibles. De plus, le nombre d'appareils communicants ne cesse de croître et de menacer le modèle client/serveur. Une nouvelle architecture distribuée tend donc à s'imposer : les réseaux pair-à-pair (P2P). Mais ils sont peu économes en ressource réseau (une requête inonde le réseau) et offrent des fonctionnalités limitées (recherche par mots-clés). Dans les deux communautés, RI et systèmes P2P, les recherches penchent vers l'utilisation de sémantique. En informatique, les approches basées sur la sémantique nécessitent souvent de définir des ontologies. Le développement important et distribué des ontologies génère une hétérogénéité sémantique. La solution classique est d'utiliser des correspondances entre parties de deux ontologies. Mais c'est une solution qui est difficile à obtenir et qui n'est pas toujours complète. Souvent les parties non-partagées de deux ontologies ne sont pas gérées, ce qui entraîne une perte d'information. Notre solution : EXSI2D, utilise une expansion particulière, appelée expansion structurante, du côté de l'initiateur de requêtes. Cela lui permet de préciser les dimensions de sa requête sans modifier la requête elle-même. EXSI2D offre aussi la possibilité au fournisseur d'information d'interpréter l'expansion structurante dans sa propre ontologie. Ainsi, il est possible à chaque participant d'un système d'information sémantiquement hétérogène d'utiliser toute son ontologie, y compris les parties non partagées. Nous montrons aussi l'utilisation d'EXSI2D dans un système P2P, grâce à SPARTANBFS, un protocole « frugal » pour systèmes P2P non structurés.
7

Non-linéarité Kerr dans les Fibres Optiques Microstructurées

Drouart, F. 10 November 2008 (has links) (PDF)
Nous voulons déterminer les solitons spatiaux dans les bres optiques présentant un effet non-linéaire de type Kerr optique. Pour cela, nous proposons une nouvelle approche numérique basée sur la Méthode des Éléments Finis qui est particulièrement bien adaptée à l'étude de milieux inhomogènes. Un modèle scalaire du champ électrique dans les bres optiques est utilisé pour mettre en ÷uvre et valider notre méthode et comprendre la signication physique des nouvelles solutions dans un cas simple. Le champ est supposé harmonique en temps et suivant la direction d'invariance de la bre mais inhomogène selon sa section transverse. Plusieurs exemples dans les bres à saut d'indice et dans les bres optiques microstructurées (FOMs) à c÷ur plein de dimension transverse nie sont décrits. Pour chaque géométrie, une étude complète est réalisée pour obtenir et prouver numériquement l'existence d'une unique solution non-linéaire auto-cohérente ou soliton spatial de plus haute énergie atteignable avant l'autofocalisation instable. Le soliton spatial dépend du prol transverse ni de la structure, correspond au soliton de Townes dans le cas du milieu homogène mais est différent de celui-ci dans les bres optiques étudiées. Notre nouvelle approche de l'étude numérique de l'effet Kerr dans les bres optiques permet ainsi de généraliser le soliton de Townes. Cependant, le prol de l'indice de réfraction induit par l'effet Kerr optique montre que l'approximation du guidage faible n'est plus respectée et donc que les caractéristiques de la solution non-linéaire sont mal évalu ées dans le modèle scalaire. L'implémentation du cas vectoriel sans approximation est donc réalisée. La même étude que dans le cas scalaire est alors menée en consid érant toutes les composantes du champ électrique. Enn, pour étendre le champ d'application de notre méthode numérique, les solutions non-linéaires sont étudiées dans des FOMs avec un défaut creux au centre. Par analogie avec la physique du solide, les congurations donneur/accepteur sont dénies et les solutions non-linéaires sont analysées selon la taille du défaut. L'étude des effets Kerr positif et négatif à travers ces congurations nous permet de découvrir de nouveaux comportements non-linéaires dans ces structures.
8

Modélisation de documents combinant texte et image : application à la catégorisation et à la recherche d'information multimédia

Moulin, Christophe 22 June 2011 (has links) (PDF)
L'exploitation des documents multimédias pose des problèmes de représentation des informations textuelles et visuelles contenues dans ces documents. Notre but est de proposer un modèle permettant de représenter chacune de ces informations et de les combiner en vue de deux tâches : la catégorisation et la recherche d'information. Ce modèle représente les documents sous forme de sacs de mots nécessitant la création de vocabulaires spécifiques. Le vocabulaire textuel, généralement de très grande taille, est constitué des mots apparaissant dans les documents. Le vocabulaire visuel est quant à lui construit en extrayant des caractéristiques de bas niveau des images. Nous étudions les différentes étapes de sa création et la pondération tfidf des mots visuels dans les images, inspirée des approches classiquement utilisées pour les mots textuels. Dans le contexte de la catégorisation de documents textuels, nous introduisons un critère qui sélectionne les mots les plus discriminants pour les catégories afin de réduire la taille du vocabulaire sans dégrader les résultats du classement. Nous présentons aussi dans le cadre multilabel, une méthode permettant de sélectionner les différentes catégories à associer à un document. En recherche d'information, nous proposons une approche analytique par apprentissage pour combiner linéairement les résultats issus des informations textuelles et visuelles, permettant d'améliorer significativement la recherche. Notre modèle est validé pour ces différentes tâches en participant à des compétitions internationales telles que XML Mining et ImageCLEF et sur des collections de taille conséquente
9

Modélisation de l'hystérésis dans les matériaux magnétiques et Introduction de modèles dans le logiciel de simulation aux éléments finis Flux3D

Nourdine, Amir 28 May 2002 (has links) (PDF)
Une modélisation analytique de l'hystérésis est développée en utilisant pour la première fois une analogie entre les transformations des états magnétiques et les réactions chimiques. L'aimantation est alors le résultat d'un équilibre thermodynamique obtenu en transposant les résultats de la chimie à la physique des matériaux. Ces modèles sont capables de représenter la loi B(H) scalaire ou vectoriel de tôles FeSi GO ou FeNi à texture cubique. Le modèle statique de l'hystérésis et des modèles de Preisach sont implantés dans le logiciel Flux3D. Ils sont utilisés pour simuler un cas test défini dans le cadre du GDR Sûreté et Disponibilité des Systèmes Electrotechniques. Pour cela, des outils qui permettent de stocker l'information ont été mis en place. Un modèle dynamique de l'hystérésis est élaboré à partir d'un modèle statique. Les phénomènes de l'hystérésis dynamique sont caractérisés par un retard de phase par rapport aux phénomènes statiques.
10

Analyse de la polarisation de données multi-composantes à partir d'une seule station ou d'une antenne : méthodes et applications à la caractérisation du champ d'ondes sismiques / Polarization analysis of multi-component data from a single station or an array : methods and applications to the characterization of the seismic wavefield

Labonne, Claire 09 December 2016 (has links)
L’analyse du champ d’ondes est un prérequis essentiel à l’étude de la propagation des ondes sismiques qui permet à son tour d’améliorer notre compréhension des processus physiques liés à la nature de la source et notre connaissance des milieux de propagation. L’objectif de cette thèse est de développer des techniques de traitement du signal afin d’améliorer l’exploitation des informations apportées par les stations et les antennes 3 composantes dans le but de caractériser le champ d’ondes sismiques. Elle se concentre sur les analyses de polarisation, leur extension aux antennes 3 composantes et leur utilisation conjointe avec des traitements d’antenne classiques. La thèse revient sur les approches existantes qui tentent d’étendre le traitement d’antenne aux 3 composantes. Ces méthodes existantes se montrent complexes et leur utilisation reste limitée, la thèse suggère deux méthodes alternatives associant successivement traitement d’antenne et polarisation. Afin d’exploiter au mieux les analyses de polarisation, un système standardisé de paramètres décrivant la polarisation est développé et associé à une solution de visualisation permettant de regrouper l’ensemble des paramètres essentiels à l’interprétation sur une figure unique. Finalement, une étude de polarisation sur l’antenne 3 composantes du LSBB (Laboratoire Souterrain Bas Bruit) démontre la possibilité d’utiliser la cohérence spatiale de la polarisation comme aide pour l’interprétation des sismogrammes / The analysis of the seismic wavefield is an essential pre-requisite to the study of seismic wave propagation which in turns helps improving our understanding of the physical processes behind the sources and our knowledge of the propagation medium. The objective of this thesis is to further develop signal processing techniques to more fully exploit the information brought by the 3 component stations and arrays in order to characterize the seismic wavefield. The thesis work focuses on polarization analysis, its extension to 3-component arrays and its joint use with classical array processing. A review of the existing methods that attempt to extend array processing to the 3-components leads to the observation that these methods are complex and their use is limited. Therefore, two alternative methods that associate array processing and polarization sequentially are suggested. In order to best exploit the polarization analyses, a standardized parametrization system describing the polarization is developed and associated with a visualization solution regrouping all the parameters necessary for the interpretation on one figure. Finally, a polarization analysis performed on data from the LSBB 3-component array demonstrates the possibility to use spatial coherency to assist with the interpretation of seismograms

Page generated in 0.0886 seconds