• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 610
  • 255
  • 163
  • 2
  • Tagged with
  • 1033
  • 1033
  • 1033
  • 1012
  • 959
  • 952
  • 606
  • 590
  • 492
  • 399
  • 293
  • 288
  • 284
  • 144
  • 106
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Traitements pour la réduction de bruit. Application à la communication parlée.

Plapous, Cyril 12 December 2005 (has links) (PDF)
Avec l'avènement des télécommunications mobiles grand public, le besoin d'améliorer la prise de son, notamment en réduisant la gêne due au bruit, s'est fait de plus en plus présent. Les techniques de réduction du bruit sont soumises à un compromis entre le niveau effectif de réduction et la distorsion qui affecte le signal de parole. Au vu des performances actuelles, il est souhaitable de supprimer plus de bruit tout en conservant un niveau de dégradation acceptable du signal restauré, ceci en particulier lorsque le niveau de bruit est important. Les techniques qui ont suscité le plus l'intérêt au cours de ces 30 dernières années sont les approches par atténuation spectrale à court terme qui consistent à modifier une transformée à court terme du signal bruité en utilisant une règle de suppression. L'essor de cette famille de techniques s'explique essentiellement par le fait qu'elles permettent de respecter les contraintes de temps réel et de complexité inhérentes aux applications de communication parlée. La première partie de ce document est consacrée à l'analyse des techniques majeures de réduction du bruit par atténuation spectrale à court terme. Ce sera notamment l'occasion d'identifier les limitations, points de blocage et autres défauts de ces méthodes ainsi que de montrer qu'il existe une marge de progression intéressante en terme de qualité par rapport à ces différents points clés. La seconde partie est essentiellement consacrée à la description et l'analyse de solutions originales proposées en réponse aux limitations identifiées dans la première partie. Un soin particulier a également été apporté à la mise en œuvre qui fait partie intégrante des techniques de réduction de bruit et qui conditionne la qualité du signal restauré. L'analyse des limitations des techniques de réduction du bruit actuelles a permis de dégager plusieurs approches originales permettant de résoudre tout ou partie des problèmes identifiés. Ainsi, l'introduction de nouveaux modèles statistiques, adaptés aux signaux de parole et de bruit, pour déterminer l'expression d'une règle de suppression permet d'obtenir des résultats sensiblement meilleurs qu'en utilisant le modèle gaussien classique. Un problème d'ordre plus général concerne les défauts des estimateurs du rapport signal à bruit, paramètre fondamental qui conditionne les performances des techniques de réduction de bruit. La suppression de ces défauts conduit effectivement à une limitation des distorsions de la parole. Cependant, le signal restauré souffre toujours de certaines dégradations dues notamment aux erreurs d'estimation du bruit et à l'impact de la phase. En effet, l'estimation du bruit, qui constitue une étape clé des techniques de réduction de bruit, souffre de nombreuses limitations surtout lorsque le bruit n'a pas un caractère stationnaire. Dans une moindre mesure, la phase, qui est souvent négligée, a aussi une influence importante dans l'estimation du signal de parole, en particulier lorsque le niveau de bruit est élevé. Une approche originale qui tire parti de la structure voisée du signal de parole pour limiter les distorsions harmoniques engendrées par les techniques classiques est proposée et permet de dépasser les limites de performances des techniques classiques. Outre ces nouvelles approches, leur mise en œuvre conditionne également la qualité finale du signal restauré. Plusieurs points sensibles sont donc soulevés et des solutions sont données qui permettent d'éviter de nombreux artefacts ("clics", nasalisation, bruit musical) désagréables. Les approches proposées sont évaluées en utilisant des critères objectifs dont les résultats sont au besoin validés par des tests subjectifs. Les résultats obtenus montrent des améliorations significatives par rapport aux performances des techniques de référence.
42

Adéquation Algorithme architecture : Aspects logiciels, matériels et cognitifs

Ginhac, Dominique 08 December 2008 (has links) (PDF)
Les travaux présentés dans le cadre de cette Habilitation à Diriger des Recherches s'inscrivent principalement dans la problématique dite d'" Adéquation Algorithme Architecture ". Ils ont pour objectif commun la mise en œuvre de systèmes matériels et logiciels dédiés à la vision artificielle à fortes contraintes temporelles. Ils se focalisent sur différents aspects cruciaux tels que l'acquisition d'images par des capteurs dédiés, le développement et la programmation d'architectures optimisées de traitement des images et l'implantation d'algorithmes de traitement du signal et d'images en temps réel sur ces architectures.
43

Modélisation 3D de bâtiments : reconstruction automatique de superstructures de toits et recalage cinétique de toits polyédriques prenant en compte la topologie

Brédif, Mathieu 27 May 2010 (has links) (PDF)
Il existe aujourd'hui une demande croissante pour des modèles numériques de ville de plus en plus précis. Alors que les travaux récents ont permis la production robuste de modèles polyédriques de bâtiments, les superstructures de toits telles que les cheminées et les chiens assis ne sont pas modélisées, et les erreurs géométriques et topologiques peuvent être importantes. L'approche itérative proposée affine géométriquement et sémantiquement un modèle de bâtiment approché sans superstructures, à l'aide d'un Modèle Numérique de Surface (MNS). Elle alterne la reconstruction de superstructures et le recalage des pans de toit principaux. La détection et la reconstruction de superstructures sont basées sur une bibliothèque de modèles paramétriques de superstructures. Un ensemble de superstructures disjointes est recherché, en se réduisant au problème de recherche d'une clique pondérée maximale. La phase de recalage tire parti des superstructures précédemment détectées afin de mieux estimer les pans de toit principaux. Elle corrige des simplifications tant géométriques telles qu'une symétrie erronée des toits, que topologiques telles que la fusion de sommets proches. Nous utilisons une représentation géométrique des bâtiments par les plans porteurs de chaque facette polyédrique, plus intuitive dans ce contexte que la représentation habituelle par la position de ses sommets. Nous introduisons le problème de triédralisation qui scinde les sommets surcontraints en sommets bien définis à l'intersection de 3 plans seulement. Nous proposons une structure de donnée cinétique garantissant des facettes non auto-intersectantes au cours de la réestimation itérative de leurs plans porteurs.
44

Contribution à la théorie algorithmique de la complexité : méthodes pour la reconnaissance de formes et la recherche d'information basées sur la compression des données

Cerra, Daniele 25 May 2010 (has links) (PDF)
L'assimilation du contenu informatif à la complexité de calcul a plus de 50 ans, mais une manière d'exploiter pratiquement cette idée est venue plus récemment, avec la définition de mesures de similarité basées sur la compression des données, qui permettent d'estimer la quantité d'information partagée entre deux objets. Ces techniques sont effectivement utilisées dans des applications sur divers types de données avec une approche universelle et pratiquement sans paramètres. Toutefois, les difficultés de les appliquer à des grands ensembles de données ont été rarement abordées. Cette thèse propose une nouvelle mesure de similarité basée sur la compression des dictionnaires qui est plus rapide comparativement aux solutions connues, sans perte de performance. Cela augmente l'applicabilité de ces notions, ce qui permet de les tester sur des ensembles de données de taille jusqu'à 100 fois plus grande que ceux précédemment analysés dans la littérature. Ces résultats ont été obtenus par l'étude des relations entre la théorie du codage classique, la compression des données et la notion de complexité par Kolmogorov. Les objets sont décomposés dans un dictionnaire, qui est considéré comme un ensemble de règles pour générer un code ayant une signification sémantique de la structure de l'image: les dictionnaires extraits décrivent les régularités des données, et sont comparés pour estimer l'information partagée entre deux objets. Cela permet de définir un système de recherche des images qui nécessite une supervision minimale par l'utilisateur, car il saute les étapes d'extraction de caractéristiques typiques, souvent dépendantes de paramètres. Ainsi, les hypothèses subjectives qui peuvent fausser l'analyse sont enlevées, et a leur place une approche guidée par les données est adoptée. Diverses applications sont présentées, et ces méthodes sont employées sans aucun changement des paramètres à différents types de données: photographies numériques, images radar, textes, génomes d'ADN, et signaux sismiques.
45

Codage vidéo distribué de séquences multi-vues

Maugey, Thomas 18 November 2010 (has links) (PDF)
Depuis 2002, le codage vidéo distribué a connu un véritable essor de par ses résultats théoriques séduisants, et ses applications potentielles attractives. En effet, avec ce mode de compression, toute comparaison inter-image est transférée au décodeur, ce qui implique une baisse considérable de la complexité à l'encodeur, et de plus, un encodage indépendant des caméras dans le cas de compression multi-vues. Cette thèse a pour but de proposer de nouvelles solutions dans le domaine du codage vidéo distribué, et particulièrement dans son application aux systèmes multi-caméra. Ces contributions se présentent sous plusieurs aspects : un nouveau modèle débit-distorsion et sa mise en pratique sur trois probléma- tiques, de nouvelles méthodes de construction de l'information adjacente et enfin une étude approfondie du décodeur des trames Wyner-Ziv. Ces nouvelles approches ont toutes pour but d'améliorer les performances débit-distorsion ou de permettre une compréhension plus précise du comportement du codeur. Celles-ci sont exposées en détail dans ce manuscrit avec au préalable une explication complète du contexte dans lequel elles s'inscrivent.
46

Quantification des anomalies neurologiques métaboliques et imagerie de sources électriques

Person, Christophe 19 June 2012 (has links) (PDF)
Un traitement possible de l'épilepsie partielle pharmaco-résistante consiste en l'exérèse de la région cérébrale responsable des crises. La difficulté est de localiser cette zone et d'en définir l'étendue. L'objectif de cette thèse est d'apporter des données permettant de préciser la localisation et le volume des régions pathologiques, en exploitant deux modalités : l'imagerie TEP (Tomographie par Emission de Positons) et l'EEGHR (EEG Haute Résolution : signaux cérébraux recueillis sur le scalp avec un nombre important d'électrodes et une fréquence d'échantillonnage élevée). En imagerie TEP, il s'agit de segmenter les zones d'hypométabolisme qui sont liées aux régions responsables des crises. Des méthodes de comparaisons statistiques à l'aide d'outils de type SPM (Statistical ParametricMapping) entre les images TEP de sujets pathologiques et de sujets sains ont été appliquées, en effectuant des tests d'hypothèse voxel à voxel entre les différentes images. Pour pouvoir être comparées à une population de référence, les différentes images ont subi des transformations non linéaires afin que chaque voxel corresponde à la même région anatomique chez tous les sujets. Deux algorithmes ont été appliqués : une méthode SPM classique et une méthode Block-Matching. Les résultats sont comparés par analyse subjective clinique et également sur des données simulées. En ce qui concerne l'EEG-HR, la localisation spatiale et temporelle de sources d'événements intercritiques (pointes et ondes lentes) a été réalisée par résolution du problème inverse. Ceci a permis de localiser les sources électriques intracérébrales d'intérêt qui sont à l'origine des signaux acquis sur le scalp. Enfin, une représentation des données multimodales (images TEP et signaux EEG-HR) dans un même référentiel a permis d'accroître les connaissances sur les relations existant entre les activités électriques et métaboliques et ainsi de mieux définir les régions épileptogènes.
47

Réseaux d'interconnexion flexible pour architecture reconfigurable dynamiquement

Devaux, Ludovic 24 November 2011 (has links) (PDF)
La reconfiguration dynamique partielle permet de placer dynamiquement les tâches d'une application dans des zones reconfigurables d'un FPGA. Cependant, la gestion dynamique des tâches impacte les communications du fait que les tâches ne sont pas toujours allouées au même endroit dans le FPGA. Ainsi, l'architecture d'interconnexions doit supporter une grande flexibilité et un large éventail de qualité de service (bande passante ou latence garantie). Dans cette thèse, plusieurs architectures d'interconnexion ont été étudiées et évaluées en fonction de leur compatibilité avec un système reconfigurable dynamiquement implémenté sur FPGA. Cette étude a conduit à proposer le réseau DRAFT qui supporte pleinement ce concept. Ce réseau utilise certaines spécificités des systèmes reconfigurables dynamiquement actuels pour réduire sa consommation de ressources. De plus, si certaines contraintes sont vérifiées, les performances ne sont pas affectées par l'allocation dynamique des tâches. Un générateur de réseaux, DRAGOON, est aussi présenté afin d'implémenter et de simuler le réseau DRAFT. Suivant la réalisation et la caractérisation du réseau DRAFT qui a été comparé à deux réseaux très populaires, son intégration au sein d'un système a été étudiée. C'est ainsi qu'une interface standard a été développée afin de faciliter l'interconnexion d'éléments tels que des processeurs. Etant donné le degré de complexité des parties matérielles d'un système reconfigurable, un OS est souvent utilisé pour en permettre l'abstraction. Ainsi, un service de communication permettant de réaliser des échanges entre les différents éléments d'un système tout en ayant une abstraction totale du réseau DRAFT a été conçu matériellement. Considérant les différentes contraintes liées à l'utilisation de DRAFT, le réseau OCEAN a été proposé. Ce réseau permet une simplification de l'interconnexion des éléments d'un système avec une très grande souplesse d'utilisation. Ce réseau est pour cela basé sur deux sous- réseaux, l'un étant dédié au transport des données tandis que l'autre en assure le contrôle. Le réseau OCEAN repose sur des chemins de communication créés dynamiquement en fonctions des besoins. Ce réseau dynamique vise plutôt une cible ASIC. L'ensemble des réseaux proposés ont été validés et caractérisés au travers d'expériences et d'implantations sur FPGA. Les résultats montrent une adéquation avec les besoins actuels, et le support efficace de la dynamicité des applications complexes. Le réseau OCEAN propose même une évolution pour de futures architectures dynamique.
48

Ancrages et modèles dynamiques de la prosodie : application à la reconnaissance des émotions actées et spontanées

Ringeval, Fabien 04 January 2011 (has links) (PDF)
La reconnaissance de l'état émotionnel d'un locuteur est une étape importante pour rendre la communication Homme-machine plus naturelle et conviviale. Nous étudions dans cette thèse la problématique du traitement automatique de la parole (TAP) orienté émotion sur des données actées et naturelles. L'étude des émotions spontanées a été effectuée en parallèle avec celles des troubles de la communication (TC), puisque ces troubles limitent les capacités d'interaction de l'enfant. Les techniques incluses dans les systèmes de TAP orienté émotion doivent reposer sur des paramètres robustes dans la description des corrélats de l'affect, mais aussi face aux contraintes liées au changement de locuteur et de contexte sémantique. Dans cet esprit, nos travaux ont exploité un ensemble de traitements automatiques pour effectuer la reconnaissance des émotions. Nous avons notamment identifié des points d'ancrage complémentaires de la parole (e.g., pseudo-phonèmes) pour extraire plusieurs types de paramètres (e.g., acoustique et prosodique) sur le signal. Des techniques de fusion ont aussi été employées pour estimer la con-tribution de ces approches dans la tâche de reconnaissance. De plus, un effort a été tout spécia-lement porté sur le développement de modèles non-convent-ionnels du rythme, puisque cette composante apparaît clairement comme étant sous modélisée dans les systèmes état-de-l'art. Les expériences effectuées dans cette thèse visent à démontrer la pertinence des points d'ancrage de la parole et des modèles du rythme pour identifier les paramètres corrélés aux émotions. L'étude des émotions prototypiques (i.e., actées) par les modèles non-conventionnels du rythme a, par exemple, permis de définir un continuum de valeurs représentant alors les classes d'émotions qui apparaissent selon la roue de Plutchik. Les analyses portant sur les TC ont été effectuées en étroite collaboration avec des équipes de cliniciens et de chercheurs en TAP orienté émotion. Ces travaux ont eu pour but d'employer des méthodes automatiques (i.e., identification des points d'ancrage de la parole et extraction de paramètres prosodiques) pour caractériser les particularités associées aux types de TC étu-diés, i.e., autisme, dysphasie et troubles envahissants du développement non-spécifiés (TED-NOS). Un groupe contrôle composé d'enfants à développement typique a aussi été étudié pour comparer les capacités prosodiques des sujets TC. Les résultats de cette étude sont prometteurs puisqu'ils ont montré que l'ensemble des sujets pathologiques pouvait être discriminé significa-tivement des typiques, tout comme les différents groupes de TC, selon deux types d'épreuves distinctes : (i) imitation de contours intonatifs (tâche contrainte) et (ii) production de parole affective spontanée (tâche non-contrainte). De plus, les résultats fournis par une analyse auto-matique des données ont permis de retrouver les caractéristiques cliniques des groupes de TC. Les techniques actuelles en TAP orienté émotion sont donc suffisamment matures pour s'affranchir des difficultés créées par l'étude de corpus contenant de la parole spontanée et/ou produite par des voix d'enfants. Par conséquent, la difficile mais au combien importante tâche " d'humanisation " des systèmes communicants peut être envisagée, puisque les machines peuvent avoir la capacité de percevoir de façon robuste l'affect dans des situations naturelles
49

Localisation de Terminaux Mobiles par Exploitation d'Empreintes

Öktem, Turgut Mustafa 27 June 2011 (has links) (PDF)
Depuis plusieurs années, le positionnement de terminal mobile reçoit un intérêt particulièrement grand. La motivation principale pour le développement de système de positionnement mobile provient essentiellement d'une nécessité imposée par le service E-911 de l'U.S FCC. Bien qu'au départ ils ont été utilisés pour les besoins des systèmes de sécurité d'urgence, aujourd'hui ils trouvent des applications dans de nombreux domaine tel que les systèmes cellulaires. Il existe de nombreux algorithmes développés pour le problème de localisation MT. Les méthodes traditionnelles de localisation géométrique sont conçues pour fonctionner sous les conditions de line-of-sight (LoS). Cependant, les conditions LoS pourrait ne pas être toujours présentes entre la station de base (BS) et le MT. Par conséquent, les techniques de localisation basée sur fingerprinting qui sont également l'objet de cette thèse attire l'attention en raison de leur capacité à travailler aussi en multi trajet et dans des environnements non-line-of-sight (NLoS). Dans cette thèse, nous introduisons de nouveaux algorithmes de fingerprinting, à savoir l'algorithme de power delay Doppler profile-fingerprinting (PDDP-F) qui exploite la mobilité du MT. Le but est d'augmenter la précision de localisation en utilisant la dimension Doppler. Nous étudions également les performances de localisation des algorithmes power delay profile-fingerprinting (PDP-F) et PDDP-F via la dérivation des bornes de Cramer-Rao (CRBs). L'impact de la géométrie du réseau est également étudié. Un autre sujet nous nous occupons est l'analyse de la probabilité d'erreur par paires (PEP) pour les méthodes PDP-F. Le PEP est une notion bien connue dans les communications numériques, et nous l'importons dans le domaine de la localisation pour dériver la probabilité de prendre une décision en faveur d'une mauvaise position. Le dernier sujet sur lequel nous avons travaillé est le suivi adaptatif de l'environ MT en utilisant un filtre de Kalman. Différents modèles de mobilité sont comparés en termes de leurs erreurs de prédiction de position.
50

Amélioration des méthodes de détection et de qualification des sondes pour les sondeurs multifaisceaux bathymétriques

LADROIT, Yoann 28 November 2012 (has links) (PDF)
Les sondeurs multifaisceaux (SMF) bathymétriques sont des systèmes sonars permettant une mesure bathymétrique précise sur un large secteur angulaire par la formation de plusieurs centaines de faisceaux très fins dépointés de la verticale. Les thématiques abordées dans ces travaux de thèse sont le développement de méthodes de qualification des sondes fournies par ces sondeurs, et l'étude de l'implémentation d'algorithmes permettant la détection de plusieurs cibles à l'intérieur de chaque faisceau formé. La définition de la qualité associée à chaque sonde se base sur les méthodes d'estimation de la hauteur d'eau utilisées dans les SMF et sur le calcul de leurs variances. Ceci nécessite une connaissance approfondie de la statistique des signaux acoustiques en fonction des conditions de mesure et du paramétrage du sondeur, afin d'obtenir les formules théoriques décrivant la variance du temps d'arrivée de l'onde dans chaque faisceau. Les calculs aboutissent à la définition d'une qualité pour chaque sonde dépendant uniquement des caractéristiques du signal acoustique dans le faisceau considéré. Ils ont été menés en particulier pour la mesure du temps d'arrivée à partir de l'enveloppe du signal d'amplitude de l'écho, en prenant en compte l'influence du rapport signal à bruit et de la durée du signal émis. La validation des formules théoriques obtenues sur données réelles confirme la pertinence de l'approche retenue. L'étude de l'implémentation d'algorithme de détection multiple commence par une mise en évidence de la perte d'information liée à la détection d'une seule cible par faisceau et par la visualisation des limitations intrinsèques liées à la configuration actuelle des antennes de SMF. Par la suite, une série de traitements adaptés à la définition d'un algorithme de détection multiple est proposée. Ces traitements sont notamment basés sur une différenciation du type de cibles sous-marines (cibles linéiques, surfaciques, ponctuelles) et par leur caractérisation spectrale : pour cette dernière, un critère reposant sur la longueur de "bande effective" du signal reçu permet de séparer efficacement les cibles réelles du bruit. Ceci a permis d'implémenter un algorithme de multi-détection, qui a été testé sur différents jeux de données acquises dans des environnements complexes. Les résultats obtenus sur données réelles mettent en évidence l'intérêt de la prise en compte de plusieurs cibles temporellement disjointes dans chaque faisceau. Les résultats de ces travaux contribuent à l'amélioration des performances hydrographiques des SMF bathymétriques en permettant à la fois une qualification en temps réel de la mesure acoustique ainsi qu'une meilleure description des cibles sous-marines complexes.

Page generated in 0.1078 seconds