• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 610
  • 255
  • 163
  • 2
  • Tagged with
  • 1033
  • 1033
  • 1033
  • 1012
  • 959
  • 952
  • 606
  • 590
  • 492
  • 399
  • 293
  • 288
  • 284
  • 144
  • 106
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Conversion de voix pour la synthèse de la parole

EN-NAJJARY, Taoufik 08 April 2005 (has links) (PDF)
Cette thèse s'inscrit dans le cadre des travaux de recherche entrepris par la division R&D de France Telecom dans le domaine de la synthèse de la parole à partir du texte. Elle concerne plus particulièrement le domaine de la conversion de voix, technologie visant à transformer le signal de parole d'un locuteur de référence dit locuteur source, de telle façon qu'il semble, à l'écoute, avoir été prononcé par un autre locuteur cible, identifié au préalable, dit locuteur cible. Le but de cette thèse est donc la diversification de voix de synthèse via la conception et le développement d'un système de conversion de voix de haute qualité. Les approches étudiées dans cette thèse se basent sur des techniques de classification par GMM (Gaussian Mixture Model) et une modélisation du signal de parole par HNM (Harmonic plus Noise Model). Dans un premier temps, l'influence de la paramétrisation spectrale sur la performance de conversion de voix par GMM est analysée. Puis, la dépendance entre l'enveloppe spectrale et la fréquence fondamentale est mise en évidence. Deux méthodes de conversion exploitant cette dépendance sont alors proposées et évaluées favorablement par rapport à l'état de l'art existant. Les problèmes liés à la mise en oeuvre de la conversion de voix sont également abordés. Le premier problème est la complexité élevée du processus de conversion par rapport au processus de synthèse lui-même (entre 1,5 et 2 fois le coût de calcul de la synthèse elle-même). Pour cela, une technique de conversion a été développée et conduit à une réduction de la complexité d'un facteur compris entre 45 et 130. Le deuxième problème concerne la mise en oeuvre de la conversion de voix lorsque les corpus d'apprentissage source et cible sont différents. Une méthodologie a ainsi été proposée rendant possible l'apprentissage de la fonction de transformation à partir d'enregistrements quelconques.
192

Méthodes numériques temps-échelle et temps-fréquence pour le traitement du signal et des images

Carré, Philippe 06 January 2000 (has links) (PDF)
Dans ce travail de thèse, nous étudions différentes méthodes d'analyse temps-échelle et temps-fréquence. Nous proposons d'adapter des algorithmes numériques existants ou de concevoir de nouvelles techniques permettant de projeter un signal ou une image dans un espace de représentation le plus adapté possible. Cette décomposition peut ensuite être utilisée dans des problèmes de débruitage, de segmentation, de compression, d'analyse ou de classification. Les différents thèmes abordées durant cette thèse se divisent en quatre principaux “ courants ” : • La décomposition en ondelettes non décimée. Nous reprenons les méthodes de débruitage non décimées pour les étendre à une méthode itérative. • Les maxima d'ondelettes. A partir de cette représentation nous proposons une méthode de débruitage d'images en utilisant l'évolution de l'angle des dérivées à travers les échelles. Ensuite, nous proposons un algorithme de partition de signaux reposant sur une nouvelle méthode de chaînage des maxima. • Les ondelettes de Malvar. Nous introduisons un algorithme rapide de décomposition en ondelettes de Malvar non-dyadique. Puis nous proposons une fonction de coût basée sur les distances spectrales dont la généralisation à la dimension 2 repose sur une décomposition anisotropique. • Les ondelettes de Meyer. Cette décomposition est réalisée par l'intermédiaire d'un fenêtrage dans le plan fréquentiel. Nous introduisons un algorithme de décompostion-reconstruction 1D et 2D en paquets d'ondelettes de Meyer discret. Puis nous définissons une décomposition en paquets d'ondelettes de Meyer non-uniforme. Enfin, en utilisant le principe des doubles arbres nous définissons une décomposition qui est à la fois non-uniforme dans le plan temporel et non-uniforme dans le plan fréquentiel. Chacune des méthodes développées est illustrée par différentes applications
193

Système d'acquisition 3D pour le pied humain

Marchessoux, Cédric 12 December 2003 (has links) (PDF)
Ce projet a été réalisé dans le cadre d'une thèse CIFRE avec le laboratoire IRCOM-SIC à Poitiers et l'entreprise GABILLY située à Limoges. Cette société fabrique des chaussures orthopédiques grâce aux mesures sur le pied effectuées manuellement par un podo-orthésiste. La précision est de +/- 4 mm. Cette société souhaite développer un système de métrologie du pied pour obtenir une précision de 1 mm. Les informations fournies par un tel système doivent aussi donner des indications de pression du pied. Ce système dépend des contraintes imposées par la prise de mesure sur le patient, par la difficulté de numériser et modéliser l'objet entier, par le choix du système d'acquisition et de la modélisation. Le système à développer doit être le plus simple possible, entièrement automatique, le moins cher possible et doit être géré par un ordinateur PC standard. Il doit permettre d'extraire à partir du pied humain un nuage de points. Le projet a été envisagé sous un axe vision à l'aide de caméras couleur. Une technique d'étalonnage particulière avec une simple mire plane a été mise en place pour faciliter la prise en main du système. La détection de la mire est effectuée par la transformée de Hough. Le système d'acquisition en trois dimensions pour le pied humain est un système de vision passive. Les méthodes mises en oeuvre doivent permettre de traiter n'importe quel type de pied donc de peau, quelque soit la couleur, la forme ou la texture. Dans un premier temps, une étude sur la peau humaine a permis de choisir un espace de représentation de la couleur et une couleur particulière pour le fond du système. Les images du pied sont segmentées par une méthode spécifique afin d'éliminer tous les pixels n'appartenant pas au pied. La segmentation est effectuée dans l'espace Teinte-Luminance-Saturation et par une opération de dilatation géodésique. Les points de pression sont obtenus par un traitement spécifique de l'histogramme de l'image de la Teinte segmentée. Ensuite, plu-sieurs méthodes de reconstruction 3D ont été mises en place pour extraire un nuage de points 3D appartenant à la surface du pied. La première méthode est une technique de reconstruction par projection et la deuxième est basée sur la stéréovision dont la mise en correspondance des points est faite par corrélation. La modélisation ou reconstruction de surface du nuage de points obtenu n'est pas le premier objectif mais elle permet de valider les méthodes d'extraction de nuages de points, plusieurs méthodes de reconstruction de surfaces ont été expérimentées sur des nuages de points organisés et non organisés. Finalement, deux systèmes d'acquisition ont été développés : 2D et 3D. Le système 2D est inclus dans le système 3D et il permet la fabrication des semelles orthopédiques qui représentent cinquante des cas rencontrés. Les informations extraites sont les contours de la plante du pied, la métrologie et les points de pression. Les fichiers de nuage de points obtenus sont directement exploitables par les logiciels de conception assistée par ordinateur.
194

Segmentation des lèvres par un modèle déformable analytique

Eveno, Nicolas 14 November 2003 (has links) (PDF)
La segmentation des lèvres est une étape essentielle pour de nombreux systèmes multimedia tels que la vidéoconférence, la lecture labiale ou les systèmes de communication bas débit. Au cours de cette thèse, nous avons développé un algorithme quasi automatique, précis et robuste de segmentation de lèvres dans des séquences vidéo. Dans un premier temps, le contour supérieur de la bouche ainsi que plusieurs points caractéristiques sont détectés dans l'image initiale en utilisant un nouveau type de contour actif nommé “jumping snake”. Contrairement aux snakes classiques, le jumping snake est peu sensible à l'initialisation et la détermination de ses paramètres est simple et intuitive. Pour la segmentation proprement dite, nous introduisons un modèle analytique très flexible composé de quelques courbes cubiques. L'intérêt de ce modèle réside avant tout dans sa grande flexibilité qui permet de rendre compte de manière réaliste d'un très large panel de formes possibles pour la bouche. Dans les images suivantes, la segmentation est réalisée en utilisant un suivi temporel des points caractéristiques et des paramètres du modèle. De plus, nous proposons un algorithme de recalage permettant de compenser efficacement les erreurs de suivi. Finalement, nous montrons que notre algorithme permet de suivre les points caractéristiques avec une précision comparable à celle d'une saisie manuelle.
195

Études et implémentation d'une couche physique UWB impulsionnelle à bas débit et faible complexité¶

Schwoerer, Jean 30 January 2006 (has links) (PDF)
De par son approche nouvelle, la radio impulsionnelle ultra large bande (UWB-IR) est porteuse de nombreuses promesses en termes de débit, de robustesse et de faible consommation. Du fait de sa largeur de bande (supérieure à 500 MHz), elle offre également la possibilité de faire de la géolocalisation avec une précision submétrique. Ce travail de thèse a débuté alors que les premières publications sur l'UWB présentaient des résultats de simulation extraordinaires. Afin de mieux cerner son réel potentiel dans le domaine des communications bas débit auquel l'UWB-IR semble particulièrement adaptée, cette étude a été orientée vers la réalisation matérielle d'une chaîne de communication, sous-tendue par la contrainte de forte réduction de complexité. Cette étude commence par la spécification d'une couche physique adaptée à la technologie et au domaine d'application envisagé, qui repose sur un schéma de transmission très simple. La plate-forme d'émission réalisée est basée sur une architecture très simple et des composants discrets de bas de gamme. Elle démontre ainsi la possibilité d'embarquer une telle structure dans un objet communicant autonome de faible coût. La chaîne de réception suit une approche originale basée sur un détecteur d'enveloppe et un comparateur à seuil variable, ce qui permet de relâcher certaines contraintes bloquantes comme celles liées à l'acquisition de synchronisation. Un ensemble d'algorithmes de réception à faible complexité permet d'exploiter au mieux cette structure de détection en levant différents verrous technologiques. Par ce travail, une réflexion globale sur un système UWB-IR bas débit a été menée et a abouti à la réalisation d'un lien radio physique qui démontre la viabilité technique de cette technologie en rupture. De plus, les résultats obtenus ont été la base d'une proposition complète portée en normalisation.
196

Authentification d'individus par reconnaissance de caractéristiques biométriques liées aux visages 2D/3D

Guerfi, Souhila 03 October 2008 (has links) (PDF)
Cette thèse s'inscrit dans le domaine de l'authentification de visage, en particulier dans le cadre du projet national " TechnoVision ". Bien que les êtres humains puissent détecter/reconnaître des visages dans une scène sans beaucoup de peine, construire un système qui accomplit de telles tâches représente un sérieux défie. Ce défi est d'autant plus grand lorsque les conditions d'acquisition des images sont très variables. Il existe deux types de variations associées aux images de visages : inter et intra sujet. La variation inter-sujet est limitée à cause du fait que la ressemblance physique entre les individus est assez rare. Par contre la variation intra-sujet est plus courante à cause, par exemple, des variations de poses, des changements dans les conditions d'éclairage, etc. Dans cette thèse, nous avons d'abord développé une approche de localisation de visage et de ses caractéristiques pour des images ne contenant qu'un seul visage sur un fond relativement uniforme avec des variations de lumière. Pour cela nous avons proposé une approche robuste de segmentation couleur dans l'espace TLS qui repose sur l'algorithme de ligne de partage des eaux modifiée. Pour l'extraction des régions caractéristiques faciales (yeux et bouche), nous avons combiné la méthode de classification kmeans avec une approche géométrique et nous l'avons appliqué sur la région du visage segmentée. Nous avons aussi proposé une approche multimodale 2D/3D qui repose sur la fusion pondérée des scores de l'approche " EigenFace " modulaire avec la signature anthropométrique 3D de visage. Nous avons évalué nos approches 3D et 2D/3D de reconnaissance du visage sur une sous-base de IV2 qui contient des images stéréoscopiques de visage. Les résultats obtenus sont très intéressants en comparaison avec les techniques classiques de reconnaissance 2D de visage. Enfin, nous avons discuté les perspectives d'amélioration des approches proposées.
197

Modélisation Psychovisuelle pour le tatouage des images

Autrusseau, Florent 07 November 2002 (has links) (PDF)
Le tatouage d'images est apparu dans le début des années 1990, dans le but de parer la copie illicite des données numériques. La protection des droits d'auteurs des images numériques est par ailleurs très liée à d'autres disciplines plus anciennes, telles que la stéganographie, lacryptographie ou l'authentification des données. Dans cette thèse, nous étudierons principalement le tatouage des images à des fins de protection de copyright, sans toutefois négliger les autres aspects cités précédemment.
198

Évaluation analytique de la précision des systèmes en virgule fixe

Rocher, Romuald 07 December 2006 (has links) (PDF)
Lors du développement des applications de traitement numérique du signal, les algorithmes sont spécifiés en virgule flottante pour s'affranchir des problèmes liés à la précision des calculs. Cependant, pour satisfaire les contraintes de coût et de consommation, l'implantation de ces applications dans les systèmes embarqués nécessite l'utilisation de l'arithmétique virgule fixe. Ainsi, l'application définie en virgule flottante doit être convertie en une spécification virgule fixe. Pour réduire les temps de mise sur le marché des applications, des outils de conversion automatique de virgule flottante en virgule fixe sont nécessaires. Au sein de ces outils, une étape importante correspond à l'évaluation de la précision de la spécification virgule fixe. En effet, l'utilisation de l'arithmétique virgule fixe se traduit par la présence de sources de bruits liées à l'élimination de bits lors d'un changement de format. Ces bruits se propagent au sein du système et modifient la précision des calculs en sortie de l'application. La dégradation de la précision des calculs doit être maîtrisée afin de garantir l'intégrité de l'algorithme et les performances de l'application. La précision de l'application peut être évaluée par des simulations virgule fixe, mais celles-ci requièrent des temps de calcul élevés. L'utilisation de ce type d'approche pour l'optimisation d'une spécification virgule fixe conduit à des temps d'optimisation prohibitifs. De ce fait, l'objectif de cette thèse est de proposer une nouvelle approche pour l'évaluation automatique de la précision des systèmes en virgule fixe basée sur un modèle analytique. La précision est évaluée en déterminant l'expression du Rapport Signal à Bruit de Quantification (RSBQ) de l'application considérée. Des méthodes ont été proposées pour traiter les systèmes linéaires et invariants dans le temps (LTI) ainsi que les systèmes non-LTI non-récursifs. Ainsi, l'objectif de la thèse est de proposer une méthode d'évaluation automatique de la précision en virgule fixe pour tout type de système et notamment, les systèmes non-LTI présentant une recursion dans le graphe, comme les filtres adaptatifs. Dans un premier temps, des modèles d'évaluation de la précision dédiés aux filtres adaptatifs sont proposés. Dans un second temps, une extension vers un modèle général pour tout type de système est présentée. Le premier aspect de ce travail concerne le développement de modèles analytiques d'évaluation de la précision dédiés à des applications particulières issues du domaine du filtrage adaptatif. En effet, ces applications non-LTI ne peuvent être traitées par les techniques automatiques classiques. Pour ces systèmes, les modèles dédiés existants ne sont valables que pour une loi de quantification par arrondi convergent. Les modèles proposés par notre approche prennent en compte toutes les lois de quantification, notamment la loi de quantification par troncature. Pour les différents algorithmes adaptatifs et notamment les algorithmes du gradient, une expression analytique de la puissance du bruit en sortie du système est proposée. Ces modèles ont été intégrés au sein d'un générateur d'IP (Intellectual Properties) permettant de générer un composant matériel ou logiciel optimisé d'un point de vue arithmétique. Le second aspect de notre travail correspond à la définition d'une approche générale d'évaluation analytique de la précision valable pour l'ensemble des systèmes composés d'opérations arithmétiques. Cette méthode se base sur une approche matricielle permettant de traiter plus facilement certains algorithmes de transformée (FFT, DCT). Pour les systèmes récursifs, le déroulement de la récurrence est mis en oeuvre. La complexité de notre approche a été déterminée et un modèle de prédiction linéaire a été proposé afin de réduire celle-ci. Ce modèle permet d'accélérer le déroulement de la récurrence. Le modèle a été implanté sur l'outil Matlab et s'intègre au flot général de conversion automatique de virgule flottante en virgule fixe. Cette approche permet ainsi d'optimiser la largeur des opérateurs dans un processus d'optimisation du coût de l'application (consommation d'énergie, surface de l'architecture). Ces deux approches sont évaluées et comparées en termes de précision et de temps de calcul pour différentes applications, et plus particulièrement, le Least Mean Square (LMS) ou les Algorithmes de Projection Affine (APA). Les deux méthodes permettent d'obtenir des valeurs de la puissance du bruit en sortie du système très proches des valeurs réelles. Le temps d'exécution du modèle sous Matlab a été évalué. L'approche par prédiction linéaire permet de réduire de manière significative le temps de calcul de la puissance du bruit. Les temps d'exécution, dans le cas d'un processus d'optimisation de la largeur des opérateurs, ont été mesurés et comparés à ceux obtenus par une approche par simulations virgule fixe. Notre approche permet de réduire le temps de calcul par rapport aux approches basées sur la simulation au bout de quelques itérations seulement. Ces résultats montrent l'intérêt de notre méthodologie pour réduire le temps de développement des systèmes en virgule fixe.
199

Tatouage sûr et robuste appliqué au traçage de documents multimédia

Xie, Fuchun 23 September 2010 (has links) (PDF)
Cette thèse porte sur la conception d'une technique de tatouage sûr et robuste dans le contexte du traçage de documents multimédia, et propose un système complet du traçage de traîtres. Ces travaux s'appuient sur la technique de tatouage zéro-bit robuste 'Broken Arrows', dont nous proposons des améliorations afin de la rendre plus robuste, notamment à l'attaque de débruitage de A. Westfeld, et plus sûre. Sa sécurité est renforcée au regard des attaques connues et publiées, telles que l'attaque de regroupement de A. Westfeld et l'attaque d'estimation de sous-espace de P. Bas. Par ailleurs, nous étendons sa sécurité en considérant des attaques non publiées. Nous proposons ainsi une nouvelle technique de tatouage sûr, basé sur un test de décision 'a contrario' et une insertion avec maximisation sous contraintes d'imperceptibilité et de sécurité. Nous proposons dans le dernier chapitre un schéma complet de traçage de documents multimédia, basé sur les codes de Tardos en version q-aire symétrique et les techniques du tatouage améliorées mentionnées plus haut. Comme les techniques du tatouage sont très robustes, nous pouvons détecter plusieurs symboles en un seul bloc attaqué, ce qui nous permet de proposer deux méthodes d'accusation étendues pour le code de Tardos. Les études expérimentales montrent les bonnes performances de notre schéma de traçage, y compris face à des attaques jusqu'alors mal gérées comme la fusion de documents.
200

Modèles Parcimonieux et Optimisation Convexe pour la Séparation Aveugle de Sources Convolutives

Sudhakara Murthy, Prasad 21 February 2011 (has links) (PDF)
La séparation aveugle de sources à partir de mélanges sous-déterminés se fait traditionnellement en deux étapes: l'estimation des filtres de mélange, puis celle des sources. L'hypothèse de parcimonie temps-fréquence des sources facilite la séparation, qui reste cependant difficile dans le cas de mélanges convolutifs à cause des ambiguités de permutation et de mise à l'échelle. Par ailleurs, la parcimonie temporelle des filtres facilite les techniques d'estimation aveugle de filtres fondées sur des corrélations croisées, qui restent cependant limitées au cas où une seule source est active. Dans cette thèse, on exploite conjointement la parcimonie des sources et des filtres de mélange pour l'estimation aveugle de filtres parcimonieux à partir de mélanges convolutifs stéréophoniques de plusieurs sources. Dans un premier temps, on montre comment la parcimonie des filtres permet de résoudre le problème de permutation, en l'absence de problème de mise à l'échelle. Ensuite, on propose un cadre constitué de deux étapes pour l'estimation, basé sur des versions temps-fréquence de la corrélation croisée et sur la minimisation de norme ℓ1: a) un clustering qui regroupe les points temps-fréquence où une seule source est active; b) la résolution d'un problème d'optimisation convexe pour estimer les filtres. La performance des algorithmes qui en résultent est évalués numériquement sur des problèmes de filtre d'estimation de filtres et de séparation de sources audio.

Page generated in 0.0994 seconds