• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 71
  • 20
  • 19
  • 4
  • 3
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 322
  • 94
  • 94
  • 67
  • 66
  • 55
  • 47
  • 41
  • 40
  • 38
  • 37
  • 35
  • 33
  • 32
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Modélisation Sinusoïdale des Sons Polyphoniques

Lagrange, Mathieu 16 December 2004 (has links) (PDF)
L'objet de cette thèse est l'étude d'une représentation structurée pour les sons polyphoniques. Dans un premier temps, certains pics (maxima locaux du spectre de puissance) sont sélectionnés dans une succession de spectres à court terme. Un algorithme dit de "suivi de partiels" relie ensuite de trame en trame certains de ces pics pour former des partiels : oscillateurs quasi-sinusoïdaux dont les paramètres de fréquence et d'amplitude évoluent lentement et de façon continue au cours du temps. Les contraintes liées à l'analyse de signaux polyphoniques amènent des artefacts dans la représentation spectrale, des pics sont manquants ou corrompus. Ces dégradations rendent le plus souvent inopérantes les techniques de suivi de partiel basées sur des heuristiques simples. L'utilisation des contraintes relatives au modèle sinusoïdal, comme le caractère prédictible des évolutions des paramètres des partiels de même que l'absence théorique de hautes fréquences dans ces évolutions permettent de proposer de nouveaux algorithmes de suivi adaptés au problème posé. Cette plus grande fidélité se fait au détriment du coût de calcul, coût qui reste toutefois raisonnable pour la plupart des méthodes proposées dans ce document. L'ensemble des partiels extraits se doit d'avoir de bonnes propriétés pour permettre ensuite une agrégation sans ambiguïté. Une première série de tests évalue un algorithme pour ses propriétés intrinsèques, tandis que la seconde série évalue les propriétés de cet algorithme lorsqu'il est inclus dans un module complet d'analyse / synthèse. A la suite d'un défaut de transmission ou d'une insuffisance de l'analyse, certains partiels peuvent être incomplets ou dégradés. Ces partiels sont alors reconstruits selon un algorithme original d'interpolation basée sur la prédiction linéaire des paramètres de fréquences et d'amplitude évitant les discontinuités de phase aux bornes de la zone interpolée. Enfin, les partiels présentant certaines corrélations sont ensuite agrégés pour former des entités sonores, chaque entité étant perçue par le système auditif humain non plus comme plusieurs sons simples mais comme un unique son complexe. On utilise pour cela plusieurs indices issus d'études psychoacoustiques tels que l'apparition simultanée de partiels, leur relation d'harmonicité et les évolutions corrélées de leurs paramètres.
112

Indexation des données multimedia, utilisation dans le cadre d'un système de recherche d'informations

Berrut, Catherine 17 October 1997 (has links)
Dans le cadre d'un système de recherche d'informations, le processus d'indexation a trop souvent été considéré comme une boîte noire relativement externe au système, statique et rigide, et fournissant en sortie des listes de mots-clés. Notre point de vue est tout autre. En effet, nous pensons que d'une part l'indexation d'un document n'est pas universelle, mais dépendante de la perception de chacun, et que d'autre part l'expression de l'indexation et sa pleine utilisation sont parmi les éléments essentiels que doivent posséder les systèmes. Pour montrer ceci, nous avons développé nos travaux selon deux axes principaux : puissance et adaptation de l'expression. La puissance de l'expression nous montre le besoin d'indexer autrement dès lors que l'on aborde les nouveaux besoins en recherche d'informations, l'adaptation permet au système de disposer dynamiquement de plusieurs compréhensions des documents. De façon plus générale, notre point de vue est de montrer que la nature et la variabilité du langage d'indexation, et le processus d'indexation sont des paramètres à part entière pour les systèmes. L'association étroite entre l'indexation et l'interrogation constitue la condition pour une amélioration des systèmes et pour leur adaptation à des utilisateurs et des recherches variés.
113

Un modèle d'indexation relationnel pour les graphes conceptuels fondé sur une interprétation logique

Ounis, Iadh 16 February 1998 (has links) (PDF)
L'idée d'établir des relations entre des objets et de les représenter dans la base de connaissances d'un système informatique est le propre de toute approche en Intelligence Artificielle. Cependant, la plupart des formalismes de représentation de connaissances n'exploitent pas toute la richesse de la sémantique de ces relations, ni le comportement qui leur est associé. En recherche d'informations, les traitements de ces relations ne sont guère mieux élaborés et l'impact de leur prise en compte lors de la phase de correspondance n'a jamais été établi, même s'il reste vrai que de nombreuses approches tiennent compte de leur présence dans le document et tentent ainsi de les représenter lors du processus d'indexation. Pourtant la recherche de documents structurés ou complexes exige plus que jamais, outre un langage d'indexation robuste et expressif, la prise en charge de la sémantique des relations ainsi que leurs propriétés. À travers une étude des nouvelles exigences auxquelles la recherche d'informations d'aujourd'hui doit répondre, nous proposons un modèle d'indexation relationnel pour les documents. L'approche consiste à considérer qu'un terme d'indexation est fondé sur des concepts complexes où les connecteurs sémantiques sont vus comme des opérateurs, ou des relations permettant de construire des expressions nouvelles représentant des concepts nouveaux ou des situations nouvelles. Le modèle proposé ne se contente pas de représenter les relations, mais permet aussi d'offrir un cadre général précisant les principes généraux de manipulation de ces relations et la prise en compte de leurs propriétés dans un processus de recherche fondé sur une approche logique. Le modèle proposé comporte deux composantes: le langage de représentation des informations, permettant une approche d'indexation relationnelle, et les règles de dérivation qui, reprenant ce langage, permettent de diriger le processus de correspondance. Nous utilisons la théorie des situations comme langage de représentation et un système de dérivation de pertinence, reposant sur une axiomatisation de la notion de correspondance entre les documents et la requête pour la prise en compte des relations. Une caractéristique intéressante de ce modèle est qu'il conduit à étendre certains formalismes de représentation de connaissances par des notions utiles en recherche d'informations. Les limitations de la famille des logiques terminologiques, utilisée par ailleurs comme base formelle de l'approche d'indexation relationnelle proposée, peuvent ainsi être surmontées. Cependant, la complexité des traitements associés à cette famille de logiques empêche de les utiliser comme un modèle opérationnel. Nous proposons alors le formalisme des graphes conceptuels comme un bon compromis entre la complexité des démonstrateurs de théorèmes et la simplicité des approches algébriques. Ce formalisme est alors vu, à travers une interprétation logique adéquate, comme une implantation d'une logique terminologique étendue et du modèle d'indexation. Notre approche a été implantée sur une plate-forme de gestion de graphes conceptuels, réalisée sur le système de gestion de base de données à objets O2. Le prototype RELIEF résultant de notre expérimentation a été testé sur une collection d'images et a démontré l'applicabilité et le bien-fondé de notre approche.
114

Décompositions spatio-temporelles pour l'étude des textures dynamiques : contribution à l'indexation vidéo

Dubois, Sloven 19 November 2010 (has links) (PDF)
Nous nous intéresserons dans cette thèse à l'étude et la caractérisation des Textures Dynamiques (TDs), avec comme application visée l'indexation dans de grandes bases de vidéos. Ce thème de recherche étant émergent, nous proposons une définition des TDs, une taxonomie de celles-ci, ainsi qu'un état de l'art. La classe de TD la plus représentative est décrite par un modèle formel qui considère les TDs comme la superposition d'ondes porteuses et de phénomènes locaux. La construction d'outils d'analyse spatio-temporelle adaptés aux TDs est notre principale contribution. D'une part, nous montrons que la transformée en curvelets 2D+T est pertinente pour la représentation de l'onde porteuse. D'autre part, dans un objectif de décomposition des séquences vidéos, nous proposons d'utiliser l'approche par Analyse en Composantes Morphologiques. Notre contribution consiste en l'apport et l'étude de nouvelles stratégies de seuillage. Ces méthodes sont testées sur plusieurs applications: segmentation spatio-temporelle, décomposition de TDs, estimation du mouvement global d'une TD, ... Nous avons de plus montré que l'Analyse en Composantes Morphologiques et les approches multi-échelles donnent des résultats significatifs pour la recherche par le contenu et l'indexation de Textures Dynamiques de la base de données DynTex. Cette thèse constitue ainsi un premier pas vers l'indexation automatique de textures dynamiques dans des séquences d'images, et ouvre la voie à de nombreux développements sur ce sujet nouveau. Enfin, le caractère générique des approches proposées permet d'envisager leurs applications dans un cadre plus large mettant en jeu par exemple des données 3D.
115

Modélisation et gestion de concepts, en particulier temporels, pour l'assistance à la caractérisation de séquences d'images.

Simac, Alain 14 June 2011 (has links) (PDF)
Les techniques habituelles d'indexation de vidéos passent généralement par une phase d'apprentissage qui nécessite préalablement la constitution d'une base d'apprentissage. Même si la taille de cette base est souvent réduite, la phase d'annotation réalisée par un expert de l'application est souvent longue et fastidieuse. Dans le cadre de cette thèse, nous avons développé un dispositif qui permet de pré-sélectionner un ensemble de prototypes susceptibles de contenir le concept qui doit apparaître dans la base d'apprentissage. Cette base réduite de prototypes sera ensuite annotée par l'expert. Nous nous sommes intéressés à des concepts temporels, ce qui nous a amené à étudier particulièrement des caractéristiques liées au mouvement, comme les points d'intérêt spatio-temporels (STIP Spatial Temporal Interest Points). D'autres caractéristiques ont aussi été utilisées concernant la couleur et la présence de formes particulières. Ces caractéristiques sont ensuite exploitées pour structurer la base de vidéos en briques spatio-temporelles homogènes. Cette structuration correspond à une sorte de segmentation de la base en fonction de chacune des caractéristiques. La liaison entre le concept à définir et les briques extraites de la base est en lien avec le fossé sémantique bien connu dans la problématique d'indexation automatique. La création de ce lien nécessite l'utilisation de la connaissance de l'expert de l'application sur le concept. Nous avons développé un système dans lequel cette connaissance est extraite par un système de questions/réponses. Les couples de questions/réponses permettent de sélectionner des briques répondant à la contrainte, de définir des relations entre certaines briques, et en- fin de naviguer dans l'arborescence des questions. Des tests ont été réalisés sur des bases de vidéos de provenances diverses telles que des vidéos provenant d'émissions de télévision, de films d'animation, ou encore des vidéos de laboratoire disponibles sur le net, ou réalisées par nos soins. Ces tests montrent les performances satisfaisantes mais aussi les limites de l'approche et ouvrent des perspectives intéressantes, particulièrement sur les aspects collaboratifs et les aspects adaptatifs qui permettraient de capitaliser les connaissances des experts applicatifs et rendraient le système plus efficient.
116

Utilisation des schématisations de termes en déduction automatique

Bensaid, Hicham 17 June 2011 (has links) (PDF)
Les schématisations de termes permettent de représenter des ensembles infinis de termes ayant une structure similaire de manière finie et compacte. Dans ce travail, nous étudions certains aspects liés à l'utilisation des schématisations de termes en déduction automatique, plus particulièrement dans les méthodes de démonstration de théorèmes du premier ordre par saturation. Après une brève étude comparée des formalismes de schématisation existants, nous nous concentrons plus particulièrement sur les termes avec exposants entiers (ou I-termes). Dans un premier temps, nous proposons une nouvelle approche permettant de détecter automatiquement des régularités dans les espaces de recherche. Cette détection des régularités peut avoir plusieurs applications, notamment la découverte de lemmes nécessaires à la terminaison dans certaines preuves inductives. Nous présentons DS3, un outil qui implémente ces idées. Nous comparons notre approche avec d'autres techniques de généralisation de termes. Notre approche diffère complètement des techniques existantes car d'une part, elle est complètement indépendante de la procédure de preuve utilisée et d'autre part, elle utilise des techniques de généralisation inductive et non déductives. Nous discutons également les avantages et les inconvénients liés à l'utilisation de notre méthode et donnons des éléments informels de comparaison avec les approches existantes. Nous nous intéressons ensuite aux aspects théoriques de l'utilisation des I-termes en démonstration automatique. Nous démontrons que l'extension aux I-termes du calcul de résolution ordonnée est réfutationnellement complète, que l'extension du calcul de superposition n'est pas réfutationnellement complète et nous proposons une nouvelle règle d'inférence pour restaurer la complétude réfutationnelle. Nous proposons ensuite un algorithme d'indexation (pour une sous-classe) des I-termes, utile pour le traitement des règles de simplification et d'élimination de la redondance. Finalement nous présentons DEI, un démonstrateur automatique de théorèmes capable de gérer directement des formules contenant des I-termes. Nous évaluons les performances de ce logiciel sur un ensemble de benchmarks.
117

Élaboration d'un modèle pour une base de textes indexée pédagogiquement pour l'enseignement des langues

Loiseau, Mathieu 09 December 2009 (has links) (PDF)
Cette thèse traite la notion d'indexation pédagogique et l'aborde sous l'angle de la recherche et du choix de textes pour l'enseignement des langues. Ce problème est replacé dans le champ disciplinaire de l'ALAO (Apprentissage des Langues Assisté par Ordinateur) et des apports potentiels du TAL (Traitement Automatique des Langues) à cette discipline, avant d'être confronté à des éléments provenant plus directement de la didactique des langues, pour proposer une approche empirique. Celle-ci est ensuite justifiée par l'incapacité des standards de description de ressources pédagogiques actuels à modéliser des ressources brutes de manière cohérente, en particulier des textes pour l'enseignement des langues. La thèse s'articule ensuite autour de deux questionnaires visant à connaitre les pratiques déclarées des enseignants quant à la recherche et au choix de textes dans le cadre de la tâche de planification des cours. Le premier questionnaire permet la formalisation de la notion de contexte pédagogique, qui est ultérieurement appréhendée à travers certaines de ses composantes grâce au second questionnaire. Enfin, ces premières ébauches de formalisation servent de fondement à la définition d'un modèle dont l'objectif est de rendre compte de la contextualité des propriétés dites pédagogiques quand elles sont appliquées à des ressources brutes. Des pistes d'implantation du modèle sont finalement proposées dans le cadre de la description d'un système informatique.
118

Indexation de masses de documents graphiques : approches structurelles

Jouili, Salim 30 March 2011 (has links) (PDF)
Les travaux de cette thèse se situent dans la cadre des approches structurelles pour la recon- naissance de formes. Plus précisément, nous avons porté notre choix sur les graphes. Le choix de la représentation structurelle est justifié par la grande capacité représentative des graphes par rapport à la représentation statistique (i.e. vecteurs). La première étape qui intervient dans l'étude de l'application des graphes dans le domaine des images est de définir une stratégie d'extraction de graphes représentatives d'images. Ensuite, il faut définir des fonctions néces- saires à la manipulation des bases de graphes. L'une des fonctions cruciales pour manipuler les graphes est la fonction de calcul des distances entre les graphes. En effet, le calcul de distances entre les graphes est un problème ouvert dans la littérature. De plus, il est considéré comme NP-complet. La plupart des solutions proposées dans la littérature présentent différentes limites d'utilisation telle que la taille des graphes, la prise en compte d'attributs, le temps de calcul. Outre la distance, le domaine des graphes souffre d'un manque d'algorithmes de classification (non-)supervisée appropriés. Dans ce sens, cette thèse présente un ensemble de contributions dont l'objectif est l'indexation de graphes. En premier lieu, nous montrons expérimentalement que choix de la représentation sous forme de graphes a un impact sur les performances. Ensuite, nous proposons une nouvelle approximation de la distance d'édition de graphes basée sur la no- tion de signature de noeuds. Nous introduisons aussi un algorithme de plongement de graphes. Cet algorithme consiste à représenter chaque graphe par un vecteur dans un espace euclidien. Ceci nous permet d'appliquer les algorithmes de classification des vecteurs sur les graphes par le biais du plongement. Dans le domaine de la classification non-supervisée (clustering), nous proposons un nouvel algorithme basé sur la notion du graphe médian et la notion du mean-shift. Enfin, nous proposons, une nouvelle méthode d'indexation de graphes basée sur la structure d'hypergraphe. Cette méthode permet aussi bien l'indexation que la navigation dans une base d'images représentées sous forme de graphes.
119

Extraction d'information et compression conjointes de Séries Temporelles d'Images Satellitaires

Gueguen, Lionel 30 October 2007 (has links) (PDF)
Ces derniers temps, de nouvelles données riches en information ont été produites : les Séries Temporelles d'Images Satellitaires qui permettent d'observer les évolutions de la surface de la Terre. Ces séries constituent un grand volume de données et elles contiennent des informations complexes et d'intérêt. Par exemple, de nombreux événements spatio-temporels, tels que les récoltes, la maturation de cultures ou l'évolution de zones urbaines, peuvent y être obsérvés et sont utiles pour des problèmatiques de télé-surveillance. Dans ce contexte, cette thèse se propose d'extraire l'information automatiquement pour aider à la compréhension des événements spatio-temporels et de compresser pour limiter l'espace de stockage. Aussi l'objectif majeur de ces travaux consiste en la conception d'une méthodologie incorporant conjointement l'extraction d'information et la compression. Ce traitement conjoint nous permet d'obtenir une représentation compacte des Séries Temporelles d'Images Satellitaires qui contienne un index du contenu informationnel. Plus précisément, ces travaux décrivent dans un premier temps le concept d'extraction et de compression conjointes où l'extraction est vue comme une compression avec pertes de l'information. Dans un second temps, deux méthodologies élaborées à partir du concept précédent sont présentées. La première permet de construire un index du contenu informationnel en se fondant sur le principe d'Information Bottleneck. La seconde permet de construire un code ou une représentation compacte qui intègre un index du contenu informationnel. Finalement, ces deux méthodes sont validées et comparées sur des données synthétiques et sont par la suite appliquées avec succès aux Séries Temporelles d'Images Satellitaires.
120

Modélisation sinusoïdale et applications à l'indexation sonore

Betser, Michaël A. 16 June 2008 (has links) (PDF)
L'objectif de la thèse est l'analyse des signaux audio-numériques basée sur la modélisation sinusoïdale. La première partie de la thèse est dédiée à l'estimation des paramètres sinusoïdaux, et en particulier aux méthodes basées sur la transformée de Fourier. Les avantages de cette famille de méthodes sont une faible complexité algorithmique et une grande facilité d'utilisation. Un état de l'art complet des méthodes d'estimation sinusoïdale basées sur la transformée de Fourier est présenté. Nous parlons ensuite des nouveaux estimateurs qui ont été développé pendant la thèse, en particulier deux nouvelles méthodes qui permettent d'estimer tous les paramètres d'une sinusoïde modulée à la fois en amplitude et en fréquence, et dont les performances se sont révélées meilleures que la seule méthode équivalente de l'état de l'art existante, l'interpolation quadratique de la transformée de Fourier (QIFFT). L'indexation sonore est un domaine assez vaste dont la problématique est de répondre aux besoins d'accès par le contenu des documents audio. Dans la deuxième partie de la thèse nous nous sommes attachés à appliquer la modélisation sinusoïdale à deux tâches d'indexation audio pour lesquelles cette modélisation est particulièrement adaptée: l'estimation de pitch et la détection d'objets sonores. Les deux algorithmes développés font intervenir des principes similaires : un appariement des pics sinusoïdaux estimés dans le flux audio avec ceux de l'objet sonore de référence, ainsi qu'une mesure de vraisemblance de l'appariement.

Page generated in 0.1183 seconds