• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 188
  • 93
  • 17
  • 7
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 816
  • 743
  • 740
  • 152
  • 89
  • 87
  • 69
  • 66
  • 56
  • 56
  • 55
  • 49
  • 48
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Transcription automatique de la parole spontanée

Dufour, Richard 01 December 2010 (has links) (PDF)
Les systèmes de Reconnaissance Automatique de la Parole (RAP) atteignent actuellement des performances suffisantes pour être intégrés dans diverses applications (dialogue homme-machine, recherche d'information, indexation automatique...). Cependant, dans le cadre de la reconnaissance automatique de la parole continue à grand vocabulaire, que l'on utilise par exemple pour transcrire des émissions radiophoniques d'information, la qualité des transcriptions varie selon le type de parole contenu dans les documents. En effet, les systèmes de RAP ont beaucoup plus de facilité à transcrire de la parole préparée, proche d'un texte lu, que de la parole spontanée, caractérisée par de nombreuses spécificités (disfluences, agrammaticalité, baisse de la fluidité de la parole...). Le travail de cette thèse vise le traitement de la parole spontanée et s'inscrit dans le cadre du projet EPAC (Exploration de masse de documents audio pour l'extraction et le traitement de la PArole Conversationnelle). L'objectif principal est de proposer des solutions pour améliorer les performances des systèmes de RAP sur ce type de parole. Nous avons choisi d'aborder, dans notre travail, la parole spontanée en tant qu'objet d'étude particulier nécessitant des traitements spécifiques. Ainsi, dans un premier temps, nous proposons un outil de détection automatique de la parole spontanée, basé sur les spécificités de ce type de parole. Cet outil est très important puisqu'il nous permet, dans un deuxième temps, de proposer une approche d'adaptation des modèles acoustiques et des modèles de langage du système de RAP à la parole spontanée sans ajout de données, en sélectionnant automatiquement les segments contenant ce type de parole. La transcription résultant de cette adaptation propose des hypothèses de reconnaissance différentes de celles fournies par le système de base. La combinaison de ces deux propositions de transcription permet d'observer une réduction significative du taux d'erreur-mot. Ce besoin de solutions spécifiques a finalement orienté une partie de notre travail vers la correction d'un problème particulièrement présent en français : l'homophonie. Nous cherchons alors à corriger les transcriptions, fournies par un système de RAP, au moyen d'une méthode proposant des solutions spécifiques à certains problèmes particuliers de l'homophonie. L'approche se focalise sur la correction de certaines erreurs, auxquelles une solution particulière est proposée. Cette méthode, en post-traitement des systèmes de RAP, corrige certains mots et classes de mots homophones, indépendamment du système de RAP utilisé.
172

Calcul interactif haute performance

Raffin, Bruno 03 March 2009 (has links) (PDF)
La puissance de calcul disponible poursuit sa progression exponentielle mais en offrant plus de parallélisme. Cette progression de la puissance disponible peut être mise à profit pour rendre interactifs certains calculs. La structure et les objectifs de l'application diffèrent alors sensiblement de ceux du calcul intensif traditionnel. Le rôle de l'utilisateur devient central. Il motive le recours à des périphériques d'entrée et sortie avancés, impose des contraintes de cohérence, de latence, de fréquence. Nous présentons les résultats de nos travaux sur ce thème du calcul interactif haute performance. Nous abordons les problèmes de rendu graphique haute performance en environnement multi-projecteurs, de la conception d'un intergiciel adapté à ce type d'application, ainsi que de la reconstruction interactive 3D multi-caméras. Ces recherches ont donné lieu à la suite logicielle FlowVR et au développement d'applications interactives ambitieuses sur la plate-forme Grimage.
173

Optimisation du système de surveillance des hélicoptères pour l'amélioration du diagnostic et de la maintenance

Wiig, Johan 11 December 2006 (has links) (PDF)
Le système de surveillance (HUMS) installé dans les hélicoptères permet d'anticiper les anomalies et de donner la possibilité d'effectuer des tâches de maintenance prédictive avant l'apparition de défauts critiques. Par ailleurs, HUMS est également destiné à détecter la propagation de défauts émergents. Ceci consiste à comparer les caractéristiques vibratoires en vol de l'hélicoptère aux caractéristiques d'un état normal prédéfini. L'inconvénient majeur de cette approche est que les caractéristiques de l'état normal sont relatives au type de l'hélicoptère et changent après les tâches de révision et de maintenance, ce qui nécessite un réapprentissage de ces caractéristiques. Cette étude présente des méthodes d'évaluation de la progression temporelle des signatures vibratoires. L'étude de l'évolution de la signature vibratoire dans le temps permet de détecter des événements comme des interventions de maintenance ou des propagations de défauts sans avoir à définir un modèle de l'état de bon fonctionnement de l'appareil. Des méthodes fondées sur des modèles paramétriques et des bancs de filtres d'analyse vibratoire ont été testées et validées. Finalement, une méthode de détection de défauts a été mise en oeuvre et a donné de meilleurs résultats que les méthodes traditionnelles utilisées.
174

Communication abstraction for data synchronization in distributed virtual environments : application to multiplayer games on mobile phones

Khan, Abdul Malik 17 June 2010 (has links) (PDF)
Dans les jeux multijoueurs, où plusieurs joueurs participent à une même partie et communiquent entre eux à travers un réseau, les joueurs peuvent avoir des visions différentes du jeu en raison des délais de communication. Ceci engendre des incohérences encore plus importantes sur les réseaux mobiles tels que les réseaux 3G où les délais de communication peuvent atteindre plusieurs secondes. Des algorithmes doivent donc être mis en place pour maintenir la cohérence entre les joueurs. Ces algorithmes sont assez complexes et difficiles à programmer et mettre au point. Le but de cette thèse est de proposer une architecture logicielle qui découple la conception du jeu, de ses besoins de communication en proposant une infrastructure de communication qui pourra être interchangeable en fonction des technologies ; cette infrastructure prend la forme originale d'un composant de synchronisation. Ainsi, les conséquences des propriétés physiques du transport des informations pourront être plus ou moins masquées en intégrant dans cette infrastructure les algorithmes adéquats.
175

Supervision de trac au niveau applicatif : application à la sécurit é et à l'ingénierie des réseaux

Carlinet, Yannick 30 June 2010 (has links) (PDF)
Les travaux décrits dans ce mémoire portent sur la supervision du trac dans le c÷ur de réseau, au niveau de la couche applicative. Nous illustrons l'intérêt de la supervision dans la couche 7 grâce à trois études qui montrent les bénéces obtenus pour la sécurité et pour l'évaluation de modications d'architecture du réseau. La première étude utilise l'épidémiologie, la science qui étudie les causes et la propagation des maladies. L'épidémiologie fournit des concepts et des mé- thodes pour analyser à quels risques potentiels d'infection les PC des clients ADSL sont exposés. En particulier, nous voulons analyser les risques par rapport aux applications utilisées par les clients. Grâce à la supervision applicative du trac d'un large échantillon de clients ADSL dans le c÷ur de réseau, nous construisons un prol d'utilisation du réseau pour chaque client et nous détectons ceux qui génèrent du trac malveillant. A partir de ces données, nous étudions le lien entre certaines caractéristiques des clients avec leurs risques d'être infecté. Nous mettons en évidence deux applications et un syst ème d'exploitation qui constituent des facteurs de risque. Nous en déduisons un prol de client pour lequel existe un risque important de se voir infecter par un virus informatique. La deuxième étude porte sur l'opportunité pour un opérateur d'installer des caches P2P dans son réseau. Mettre les contenus P2P en cache pourrait être un bon moyen de réduire la charge dans le réseau. Cependant, les performances des caches sont aectées par de nombreux facteurs, en relation avec les caches eux-mêmes, mais également avec les propriétés de l'overlay, les contenus P2P et la localisation du cache. Dans le but d'évaluer l'utilité potentielle des caches P2P, nous eectuons la supervision à grande échelle du trac P2P, dans le réseau opérationnel de France Télécom. Après avoir étudié certaines propriétés du trac observé, nous simulons le fonctionnement d'un cache en nous basant sur les données recueillies pendant 10 mois. Nous sommes alors en mesure d'évaluer les performances d'un cache, en termes d'économie de bande passante si un cache était réellement déployé au moment de la capture de nos traces. De plus, nous étudions l'impact sur la performance de paramètres tels que les caractéristiques du cache et de mani ère plus importante le nombre de clients servis par le cache. Les résultats montrent que l'on pourrait réduire le trac P2P d'échange de chiers de 23% avec un cache passif. Enn, la troisème étude porte sur l'opportunité pour un opérateur de réseau de coopérer avec les réseaux P2P à travers une interface de type P4P. L'approche P4P permet aux clients P2P d'améliorer leur sélection de pairs dans l'overlay. Le trac P2P représente une proportion importante du volume du trac dans les réseaux. Cependant, les systèmes P2P les plus couramment utilisés à l'heure actuelle ne tiennent pas compte de l'infrastructure réseau sous-jacente. Grâce à la supervision applicative, nous déterminons les béné- ces de P4P, d'une part pour les applications P2P et d'autre part pour les opérateurs. Les résultats de cette expérimentation indiquent que les applications P2P ont besoin de plus d'informations que seulement l'AS de provenance des sources potentielles pour améliorer leurs performances. De plus nous montrons que le trac P2P inter-domaines pourrait être réduit d'au moins 72% grâce à P4P. Nous montrons donc dans ces travaux que la supervision applicative permet : d'analyser des phénomènes complexes liés à l'usage qui est fait du ré- seau, tels que la contamination par un ver ou un virus informatique ; d'évaluer, de manière précise et quantitative, l'impact de certaines modi cations d'architecture sur le trac opérationnel. D'une manière plus générale, nous illustrons l'importance du rôle de l'opé- rateur de réseau dans le déploiement et l'exploitation des services Internet, toujours plus gourmands en bande passante, que nous ne manquerons pas de voir apparaître à l'avenir. En eet la supervision applicative est un outil essentiel pour l'évaluation des protocoles et architectures mis en ÷uvre dans les services Internet, complémentaire des autres outils dans ce domaine.
176

Modélisation à base de Composants de Systèmes Temps réel Hétérogènes en BIP

Basu, Ananda 15 December 2008 (has links) (PDF)
We present the BIP component framework for component-based construction of real-time systems from heterogeneous components. BIP stands for Behavior, Interaction and Priority, the three main elements for building components. It considers that systems can be obtained by composition of 3-layered components, where the lowest layer represents behavior as a set of transitions with triggers and actions; the intermediate level is the set of the interactions between the transitions of the behavior level, and the upper level is a set of dynamic priority rules. BIP has a rigorous formal semantics, and supports a system construction methodology based on a parameterized composition operator on components. The use of a layered composition operator allows incremental construction. The system construction process can be viewed as a sequence of transformations in a three-dimensional space of Behavior X Interaction X Priority, and provides a basis for the study of property preserving transformations between subclasses of systems such as untimed/timed, asynchronous/synchronous. We also provide a distributed semantics for systems in BIP, using a partial state model, and show the use of an auxiliary predicate called Oracle to preserve observational equivalence with respect to the centralized semantics. We present an implementation of BIP as a tool chain that allows modeling, static analysis and execution of BIP descriptions on a dedicated engine. Three different implementations for the engine have been provided, a centralized enumerative engine, a centralized symbolic engine and a distributed engine. We illustrate the use of the tool chain for two major application domains, Software Componentization, and Modeling mixed hw/sw systems.
177

Techniques d'optimisation et de prédiction dans le contexte de la localisation acoustique passive

Neering, Jan 15 April 2009 (has links) (PDF)
La performance d'un système de localisation de source passive acoustique basé sur un ensemble de capteurs ne dépend pas seulement du choix des algorithmes d'estimation mais est aussi fortement corrélée à la géométrie du réseau de capteurs et à la position de la source. Cette thèse propose des procédures d'optimisation des estimateurs de position via un positionnement de capteurs optimal. Afin d'optimiser ce processus pour une source "quasi-statique", trois mesures de performance sont traitées, comparées et évaluées : la borne inférieure de Cramer-Rao (CRLB), la dilution de précision géométrique (GDOP) et le nombre de conditionnement. Les deux premières mesures décrivent l'influence du bruit de mesure, décrit par une fonction de probabilité connue, tandis que la dernière est une mesure non-statistique. En considérant le bruit Gaussien et l'estimateur d'un modèle linéarisé, il est montré que la même configuration est obtenue par ces trois mesures. Ensuite ces mesures de performance sont étendues pour une source mobile en proposant deux approches. La première consiste à représenter la zone de surveillance par plusieurs points représentatifs et à minimiser la moyenne des mesures de performance de tous ces points. La deuxième est une approche dynamique, qui modélise le mouvement de la source par des équations d'état. Puis des estimateurs récursifs Bayesiens (par exemple le filtre de Kalman pour des systèmes linéaires) sont appliqués afin de prédire la position future de la source. On sélectionne alors parmi tous les microphones, un sous-ensemble qui minimise la mesure de performance pour la position prédite. Ce sous-ensemble est alors utilisé pour l'estimation.
178

Recherche et filtrage d'information multimédia (texte, structure et séquence) dans des collections de documents XML hétérogènes

Popovici, Eugen 10 January 2008 (has links) (PDF)
Les documents numériques sont aujourd'hui des données complexes qui intègrent d'une manière hétérogène des informations textuelles, structurelles, multimédia ainsi que des méta-données. Le langage de balisage générique XML s'est progressivement imposé comme support privilégié non seulement pour l'échange des données mais aussi pour leur stockage. La gestion des documents stockés sous les formats XML nécessite le développement de méthodes et d'outils spécifiques pour l'indexation, la recherche, le filtrage et la fouille des données. En particulier, les fonctions de recherche et de filtrage doivent prendre en compte des requêtes disposant de connaissances incomplètes, imprécises, parfois même erronées sur la structure ou le contenu des documents XML. Ces fonctions doivent par ailleurs maintenir une complexité algorithmique compatible avec la complexité des données et surtout avec leur volume toujours en forte croissance, ceci pour assurer le passage à l'échelle des solutions informatiques. Dans cette thèse, nous étudions des méthodes et développons des outils pour indexer et rechercher des informations multimédia hétérogènes stockées dans des banques de documents XML. Plus précisément, nous abordons la question de la recherche par similarité sur des données composites décrites par des éléments structurels, textuels et séquentiels. En s'appuyant sur la partie structurelle des documents XML, nous avons défini un modèle de représentation, d'indexation et d'interrogation flexible pour des types hétérogènes de données séquentielles. Les principes que nous développons mettent en oeuvre des mécanismes de recherche qui exploitent simultanément les éléments des structures documentaires indexées et les contenus documentaires non structurés. Nous évaluons également l'impact sur la pertinence des résultats retournés par l'introduction de mécanismes d'alignement approximatif des éléments structurels. Nous proposons des algorithmes capables de détecter et de suggérer les « meilleurs points d'entrée » pour accéder directement à l'information recherchée dans un document XML. Finalement, nous étudions l'exploitation d'une architecture matérielle dédiée pour accélérer les traitements les plus coûteux du point de vue de la complexité de notre application de recherche d'information structurée. v
179

Abstraction de traces en analyse statique et transformation de programmes.

Rival, Xavier 21 October 2005 (has links) (PDF)
Cette thµese est consacree à l'etude d'abstractions d'ensemble de traces adaptees µa l'analyse statique et aux transformations de programmes. Cette etude a ete menee dans le cadre de l'interpretation abstraite. Dans une premiµere partie, nous proposons un cadre general permettant de definir des analyses effectuant un partitionnement des traces. Cela permet en particulier d'utiliser des proprietes definies par l'histoire des executions, pou ecrire des disjonctions de proprietes abstraites utiles lors de l'analyse statique. Ainsi, nous obtenons des analyses plus efficaces, qui sont non seulement plus precises mais aussi plus rapides. La methode a ete implementee et eprouvee dans l'analyseur de code C Astree, et on obtient d'excellents resultats lors de l'analyse d'applications industrielles de grande taille. La seconde partie est consacree au developpement de methodes permettant d'automatiser le diagnostique des alarmes produites par un analyseur tel qu'Astree. En eff en raison de l'incompletude de l'analyseur, une alarme peut, soit reveler une veritable erreur dans le programme, soit provenir d'une imprecision de l'analyse. Nous proposons tout d'abord d'extraire des slices semantiques, c'est à ire des sous-ensembles de traces du programme, satisfaisant certaines conditions ; cette technique permet de mieux caracteriser le contexte d'une alarme et peut aider, soit àprouver l'alarme fausse, soit à montrer un veritable contexte d'erreur. Ensuite, nous definissons des familles d'analyses de dependances adaptees µa la recherche d'origine de comportements anormaux dans un programme, afin d'aider µa un diagnostique plus efficace des raisons d'une alarme. Les resultats lors de l'implementation d'un prototype sont encourageants. Enfin, dans la troisiµeme partie, nous definissons une formalisation generale de la compilation dans le cadre de l'interpretation abstraite et integrons diverses techniques de compilation certifiee dans ce cadre. Tout d'abord, nous proposons une methode fondee sur la traduction d'invariants obtenus lors d'une analyse du code source et sur la verification independante des invariants traduits. Ensuite, nous formalisons la methode de preuve d'equivalence, qui produit une preuve de correction de la compilation, en prouvant l'equivalence du programme compile et du programme source. Enfin, nous comparons ces methodes du point de vue theorique et µa l'aide de resultats experimentaux.
180

Testeurs, problemes de reconstruction univaries et multivaries, et application a la cryptanalyse du DES.

Tavernier, Cédric 15 January 2004 (has links) (PDF)
Nous nous sommes intéressé au problème de décodage des codes de Reed-Muller d'ordre r à travers différents types de canaux et dans différents contextes. Dans notre contexte, le mot du code Reed-Muller bruité est tous simplement une fonction booléenne. Une question naturelle avant de faire du décodage, est de savoir s'il existe ou non au moins un mots de ce code de Reed-Muller d'ordre r qui est à une distance d donnée de notre mot bruité. Ainsi on a développé dans cette thèse de tels testeurs en caractéristique 2. Dans le but d'obtenir des attaques cryptographiques, on a développé des algorithmes adaptatifs de décodage des codes de Reed-Muller d'ordre 1 et 2 en très grande longueur. Une partie application importante est consacrée à l'étude des propriétés statistiques du DES. Enfin une digression est faite sur la construction des courbes modulaires.

Page generated in 0.0303 seconds