• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 610
  • 255
  • 163
  • 2
  • Tagged with
  • 1033
  • 1033
  • 1033
  • 1012
  • 959
  • 952
  • 606
  • 590
  • 492
  • 399
  • 293
  • 288
  • 284
  • 144
  • 106
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Robust microphone array signal processing against diffuse noise

Ito, Nobutaka 24 January 2012 (has links) (PDF)
Nous étudions le problème général du traitement d'antennes de microphones dans des environnements contenant du bruit diffus. Ce problème a plusieurs applications incarnées par le rehaussement et la reconnaissance robuste de la parole. Du bruit diffus provenant de nombreuses directions à la fois est souvent rencontré dans les situations réelles et il forme un obstacle majeur à l'application des techniques existantes de localisation et de réhaussement de sources. Nous opérons dans le domaine temps-fréquence, où la cible et le bruit sont gaussiens de moyenne nulle et modélisés par leurs matrices de covariance. Premièrement, nous introduisons un modèle général de sous-espace linéaire de la matrice de covariance du bruit qui généralise trois modèles de l'état de l'art et nous proposons un quatrième modèle de covariance à valeur réelle plus flexible. Nous mesurons expérimentalement l'adéquation de ces modèles à des signaux de bruits réels. Deuxièmement, nous appliquons ce modèle général à la tâche de débruitage pour une cible de vecteur de direction connu. Dans l'approche de l'état de l'art par formation de voies et post-filtrage de Wiener, il est essentiel d'estimer précisément le spectre de puissance à court terme de la cible. Nous proposons un algorithme pour l'estimation de ce spectre basé sur la projection de la matrice de covariance observée sur le complément orthogonal du sous-espace de la matrice de covariance du bruit. La composante résultant de cette projection est idéalement non contaminée par le bruit, ce qui permet une estimation plus précise du spectre de puissance de la cible. Nous évaluons expérimentalement la performance de débruitage avec des signaux de bruits réels. Troisièmement, nous étudions la tâche de localisation de sources multiples. Afin d'atténuer la dégradation de performance de l'algorithme de l'état de l'art MUltiple SIgnal Classification (MUSIC) en présence de bruit diffus, nous estimons la matrice de covariance de la cible et appliquons MUSIC à cette matrice. Cette estimation repose sur la composante non bruitée de la matrice de covariance de la cible estimée ci-dessus par projection et sur la reconstruction de la composante manquante par des techniques de complétion de matrice. Nous proposons deux algorithmes alternatifs basés sur une approximation de rang faible et sur la minimisation de la norme trace en exploitant le faible rang et la nature hermitienne définie semi-positive de la matrice de covariance du signal. Nous comparons la performance de ces deux algorithmes pour les quatre modèles de bruit sur un corpus que nous avons créé. Enfin, nous présentons un algorithme général pour le débruitage d'une source cible dont le vecteur de direction est inconnu. Cette tâche est importante dans un environnement réel, car le vecteur de direction n'est généralement pas connu précisément en pratique. Nous estimons conjointement le vecteur de direction et le spectre de puissance à court terme de la cible pour effectuer la formation de voies et le post-filtrage de Wiener. L'estimation repose sur une complétion de matrice de rang 1 et sur une analyse en composantes principales (ACP). L'algorithme proposé améliore la rapport signal-à-bruit (RSB) de 7 dB environ par rapport à l'algorithme de l'état de l'art d'analyse en vecteurs indépendants (AVI).
32

Mise en Œuvre de Techniques d'Analyse/Synthèse de Texture dans un Schéma de Compression Vidéo

Racapé, Fabien 14 November 2011 (has links) (PDF)
Cette thèse s'inscrit dans le contexte des schémas de compression vidéo de nouvelles générations. Elle vise plus particulièrement à coder plus efficacement les régions texturées des images et séquences vidéo que les schémas actuels. Ces zones sont souvent dégradées lors de codage à bas débit, provoquant des aplats visuellement dérangeants. Ce travail est fondé sur les propriétés du système visuel humain, qui préfèrera une zone texturée synthétisée avec des détails, même un peu éloignée de la réalité, plutôt que des aplats. L'idée est ici d'adapter les algorithmes de synthèse de texture de la littérature, afin de reconstruire, au décodeur, des régions qui n'auront pas été intégralement transmises. L'approche est construite de manière à être utilisée conjointement avec les standards de compression actuels ou futurs. L'analyse de la séquence source, côté encodeur, utilise des outils de segmentation et de caractérisation de texture, afin de localiser les régions candidates pour la synthèse. Les régions qui ne sont pas synthétisables sont encodées classiquement par le codeur joint, elles seront décodées et serviront potentiellement d'échantillons de départ pour la synthèse des zones manquantes. L'ensemble des outils ont été développés et adaptés dans l'optique principale de proposer une chaîne cohérente. L'analyse des textures comportant des outils de segmentation et de caractérisation permettant de paramétrer les algorithmes de synthèse. Aussi la solution proposée inclut l'utilisation de deux types de synthèse : une version orientée " pixel " et l'autre orientée " patch ". Une première approche est présentée pour un codage intra image. Le schéma est ensuite couplé à une méthode d'estimation et de modélisation affine de mouvement par région, afin d'optimiser le traitement des textures rigides et de synthétiser les régions déformables. Fondé sur des outils de synthèse, le schéma est difficilement estimable à l'aide de critères objectifs. A qualité visuelle comparable, il permet, par exemple, de préserver jusqu'à 35% de débit, comparé à l'encodage de H.264/AVC, sur différentes séquences SD et CIF.
33

Le principe de calcul stochastique appliqué au décodage des turbocodes : conception, implémentation et prototypage sur circuit FPGA

Dong, Quang Trung 20 December 2011 (has links) (PDF)
Depuis leur publication en 1993 et leur exploitation dans le domaine des communications numériques, les turbocodes ont été adoptés dans de nombreux standards de télécommunications (UMTS, CDMA2000, LTE). Avec le développement des services sans-fil, le besoin de turbo- décodeurs à débit jusqu'au Gbits/s devient incontournable. Or, les techniques conventionnelles d'exploitation du parallélisme et de réduction des chemins critiques atteignent leur limite. Une approche alternative a été explorée dans cette thèse : le décodage de codes correcteurs d'erreurs à partir d'une représentation stochastique de l'information. Le calcul stochastique fut proposé dans les années 1960 comme une méthode traitant des opé- rations arithmétiques complexes pour un faible coût matériel. Pour ce faire, les probabilités sont converties en des flux de bits aléatoires dans lesquels l'information est représentée par des statis- tiques de bits. Des opérations arithmétiques complexes sur les probabilités sont transformées en des opérations sur les bits utilisant des portes logiques. Ainsi, l'application du calcul stochastique au décodage itératif de codes correcteurs d'erreurs favorise des structures matérielles simples pour les noeuds de calcul. L'objectif principal de cette thèse fut d'étendre l'approche stochastique au décodage de tur- bocodes. Dans un premier temps, nous avons proposé une première architecture pour un turbo- décodeur stochastique. Le principal défi fut ensuite d'augmenter le débit. Pour ce faire, nous avons considéré deux techniques : le passage dans le domaine exponentiel et l'exploitation du parallélisme. La première technique consiste à remplacer l'addition stochastique par des opérations plus simples dans le domaine exponentiel. Cette technique a permis d'une part de réduire la complexité calculatoire, et d'autre part, d'améliorer le débit de décodage. La deuxième technique est de représenter une probabilité par plusieurs flux stochastiques en parallèle. Cette méthode permet en outre de pro- poser une nouvelle approche pour compenser le problème de corrélation. L'exploitation de ces deux techniques a permis d'aboutir à un décodage stochastique pour les codes convolutifs et les turbocodes ayant des performances similaires à celles de décodeurs classiques. Enfin, les architectures proposées ont été intégrées dans un circuit configurable FPGA. Le prototype de turbo-décodeur stochastique n'a pas pu nous fournir un débit de l'ordre du Gbits/s comme souhaité. Cependant, il a permis de démontrer la faisabilité matérielle d'un turbo-décodeur stochastique en assurant de bonnes performances de décodage. En outre, ce démonstrateur a fait apparaître de nombreuses perspectives pour cette solution d'intégration alternative.
34

Analyse des lèvres pour reconnaissance des personnes

Saeed, Usman 12 February 2010 (has links) (PDF)
Dans cette thèse nous nous concentrons sur une caractéristique locale du visage humain que sont les lèvres en termes de pertinence et influence sur la reconnaissance de la personne. Une étude détaillée est réalisée à l'égard de différentes étapes, telles que la détection, l'évaluation, la normalisation et les applications liées de la bouche. Au départ, on présente un algorithme de détection des lèvres en fusionnant deux méthodes indépendantes. La première méthode est basée sur la détection de contours et la deuxième orientée sur la segmentation. On exploite leurs points forts en combinant les deux méthodes par fusion. Ensuite, on extrait les caractéristiques qui modélisent l'aspect comportemental du mouvement des lèvres lorsque la personne parle afin de les exploiter pour la reconnaissance des personnes. Les caractéristiques du comportement incluent des caractéristiques statiques, et des caractéristiques dynamiques en fonction du flux optique. Ces caractéristiques sont utilisées pour construire le modèle du client par une Mixture de Gaussiennes et enfin la classification est réalisée en utilisant une règle de décision bayésienne. Enfin, on propose une méthode de normalisation temporelle pour le traitement des variations du mouvement des lèvres pendant le discours. Étant donné plusieurs vidéos où une personne répète la même phrase plusieurs fois, nous étudions le mouvement des lèvres dans l'une de ces vidéos et on sélectionne certaines images clés comme images de synchronisation. Après, on synchronise le reste des vidéos par rapport au images clés de la première vidéo. Enfin toutes les vidéos sont normalisées temporellement par interpolation à l'aide de "morphing".
35

Indexation des images satellitaires en utilisant des informations structurelles

Bhattacharya, Avik 14 December 2007 (has links) (PDF)
Les propriétés des réseaux routiers varient considérablement d'un milieu géographique à l'autre. Elles peuvent donc être utilisées pour classer et rechercher de tels environnements. Dans ce travail, nous proposons de classer ces environnements à l'aide d'attributs géométriques et topologiques, calculés à partir des réseaux routiers. Les limites des méthodes d'extraction des routes en milieu urbain dense ont été contournées par la segmentation des zones urbaines et le calcul d'une seconde série d'attributs géométriques et topologiques calculés sur ces masques urbains. Les imagettes formant notre base de données proviennent d'images du satellite SPOT5 de résolution 5m et ont une taille de 512x512 pixels. L'ensemble des attributs géométriques et topologiques, calculés à partir des réseaux routiers et des masques urbains permettent de répartir les imagettes dans des classes géographiques prédéfinies. Afin de réduire la dimension des attributs qui peut nuire aux performances de la classication, un dispositif de sélection des attributs a été mis en place. Il repose sur une analyse linéaire discriminante de Fisher et une classication 'un contre tous' par séparateur à vastes marges (SVM). L'impact de la résolution spatiale et de la taille des images sur les différents attributs a été étudié sur une base de données constituée d'images à 10 m de résolution ainsi que sur une base de données à 5m de résolution pour des imagettes de taille de 256x256 pixels. L'approche a permis la classification complète d'images SPOT5 à partir des imagettes qu'elles contiennent. Dans ce cas, un SVM 'un contre tous' avec un noyau Gaussien, a été utilisé pour classer la scène dans son intégralité.
36

Recalage et planification du traitement en radiothérapie et protonthérapie

Baussé, Jérôme 07 October 2010 (has links) (PDF)
Dans le cadre d'un important et ambitieux projet de renouvellement de son centre, l'ICPO (Institut Curie - Centre de Protonthérapie d'Orsay) renouvelle ses logiciels dédiés au traitement des patients par protonthérapie, technique de radiothérapie utilisant des faisceaux de protons. Les hautes énergies utilisées durant les traitements, ainsi que la précision offerte par les caractéristiques des particules de proton, nécessitent une mise en place du patient plus précise qu'en radiothérapie classique. Le sujet de cette thèse est né de ces problématiques, puisqu'il vise à utiliser les informations RX intrinsèques aux images, et renouveler l'offre logicielle liée à la planification de la dose. Aujourd'hui, le deuxième objectif est parfaitement rempli, puisque le logiciel Isogray est utilisé en routine clinique, et les premiers patients planifiés avec son aide ont d'ores et déjà été traités. Le premier objectif quant à lui, même s'il a pu progresser de manière significative, n'a pas pu aboutir dans le temps imparti pour la thèse, des mises au point ainsi que des tests cliniques étant encore nécessaires. Cependant, les premiers résultats obtenus sont encourageants et ont permis de soulever les premiers problèmes à résoudre, Cette thèse s'inscrit dans le cadre d'un partenariat entre l'ICPO et la société DOSIsoft, leader européen des logiciels de planification de traitement, fournissant les logiciels dernière génération utilisés à l'ICPO. Le savoir faire du laboratoire TSI (Traitement du Signal et de l'Image) de Télécom ParisTech vient s'ajouter à ce partenariat, apportant une plus-value scientifique conséquente.
37

Analyse des données lidar aéroportées à Retour d'Onde Complète pour la cartographie des milieux urbains

Mallet, Clément 26 November 2010 (has links) (PDF)
Avec l'émergence récente des systèmes lidar aéroportés à retour d'onde complète, capables de fournir plus qu'une représentation topographique en trois dimensions, se pose la question, entre autres, de son utilité pour l'analyse du milieu urbain. Nous souhaitons en particulier comparer ses performances aux systèmes lidar multi-échos traditionnels. Les signaux lidar fournis sont en effet porteurs d'informations supplémentaires sur les objets atteints. L'objectif final visé dans cette thèse est une cartographie automatique 3D améliorée des zones d'occupation du sol, comme socle de grands nombres d'applications déjà existantes, en partant des données brutes enregistrées. L'approche proposée se compose de deux grandes phases. La première étape consiste à traiter les signaux enregistrés pour générer des nuages de points 3D de qualité maîtrisée, ainsi que pour extraire des informations sur la morphologie de ces derniers. Deux méthodes distinctes sont présentées. L'une cherche à améliorer la méthode standard consistant à supposer que tous les échos suivent un modèle gaussien. La deuxième permet d'explorer l'hypothèse d'un mélange de modèles, donc de caractériser chaque écho séparément, tout en proposant une formulation physique simple et flexible du problème.\\ Dans un second temps, les nuages 3D ainsi générés sont classés en se servant d'attributs spatiaux mais également des attributs morphologiques extraits lors de l'étape précédente. Une approche supervisée utilisant les Séparateurs à Vaste Marge est adoptée pour séparer les zones de sol, de bâtiments, et de végétation. Elle est couplée à un processus de sélection des attributs les plus pertinents. En plus de l'obtention d'une classification de bonne qualité, cette étape met en évidence l'apport des données à retour d'onde complète dans un cadre de cartographie automatique des paysages urbains.
38

Etudes de nouvelles techniques d'estimation et d'égalisation de canal adaptées au systéme SC-FDMA

Yameogo, Yvon Sosthène 30 September 2011 (has links) (PDF)
Le SC-FDMA " Single-Carrier Frequency Division Multiple Acces ", est une technique d'accès multiple à répartition fréquentielle, permettant d'allouer efficacement aux différents mobiles, les ressources de communication. Cette technique a suscité un intérêt particulier lors des conventions de normalisation du standard 3GPP LTE " Long Term Evolution ". Le regain de considération pour cette technique, est lié au fait qu'elle engendre des signaux temporels à faible variation d'amplitude caractérisée par un faible PAPR ou " Peak to Average Power Ratio ". Cet avantage majeur, rend possible l'utilisation de l'amplificateur de puissance du système dans sa zone proche du point de compression, maximisant ainsi son rendement sans toutefois risquer l'apparition des distorsions. C'est pourquoi, ce système a été adopté dans la norme 3GPP LTE comme technique d'accès multiple pour la voix montante. Cependant, dans les spécifications du 3GPP LTE un symbole sur sept est systématiquement réservé pour l'estimation de canal sur toutes les porteuses du système engendrant ainsi une réduction importante du débit utile du signal transmis. L'objectif de cette thèse est de proposer des techniques d'estimation et d'égalisation de canal adaptées pour le SC-FDMA afin d'éviter tant que possible cette perte de débit. Nous avons pu analyser, quelques techniques d'égalisation comme celle basée sur des références fantômes, mais également quelques techniques d'estimation de canal comme celle basée sur un " Ajout de Signal "dans la bande passante du signal utile.
39

Débruitage d'images au-delà du bruit additif gaussien - Estimateurs à patchs et leur application à l'imagerie SAR

Deledalle, Charles-Alban 15 November 2011 (has links) (PDF)
Le bruit dans les images limite souvent l'interprétation visuelle ou automatique de la scène. Le chatoiement ou "speckle" en imagerie radar à synthèse d'ouverture (RSO) et le bruit de grenaille ou "shot noise" en imagerie à faible luminosité sont deux exemples de fortes corruptions qui nécessitent l'utilisation de techniques de débruitage. Les vignettes ou "patchs" sont de petites imagettes qui capturent à la fois les textures et les structures locales. Bien qu'étant assez rudimentaires (comparées à des descripteurs de plus haut niveau), elles ont mené à de puissantes approches de traitement d'images tirant parti de la redondance naturelle des images. Les méthodes à patchs représentent l'état-de-l'art des méthodes de débruitage. La technique classique de débruitage à patchs, les moyennes non-locales (NL), est conçue pour les images corrompues par du bruit additif gaussien (c-à-d., pour des fluctuations symétriques, indépendantes du signal et sans valeurs extrêmes). Les moyennes NL ne peuvent pas être appliquées directement sur des images corrompues par un bruit non-gaussien surtout pour des distributions asymétriques, dépendantes du signal et à queues lourdes telles que le bruit de chatoiement et le bruit de grenaille. Le but de cette thèse est de combler le fossé entre les méthodes de débruitage à patchs, restreintes au bruit gaussien, et les techniques dédiées aux images RSO. Après avoir examiné les techniques de débruitage d'image pour le bruit gaussien puis non-gaussien, nous proposons une extension des moyennes NL qui s'adapte à la distribution d'un bruit donné. Au-delà du problème du débruitage d'image, nous étudions le problème de la comparaison de patchs sous conditions non-gaussiennes. La plupart des tâches de vision par ordinateur requièrent de mettre en correspondance des parties d'images. Nous introduisons un critère de similarité fondé sur le rapport de vraisemblance généralisé et nous illustrons son efficacité sur différentes applications dont la détection, la vision stéréoscopique et le suivi de mouvement. Ce critère est au coeur de l'estimateur à patchs proposé. Un schéma itératif est élaboré pour faire face aux fortes corruptions de bruit et nous développons une méthode non-supervisée pour le réglage des paramètres. Notre approche mène à des résultats de débruitage état-de-l'art en imagerie RSO pour les images d'amplitude, ainsi que les données interférométriques ou polarimétriques. La technique proposée est appliquée avec succès sur l'un des derniers capteurs aérien RSO: F-SAR de l'agence aérospatiale allemande (DLR). Les images avec de forts contrastes souffrent d'un artéfact de débruitage de type "halo de bruit" dû à l'absence de patchs similaires dans les environs de certaines structures. Ce bruit résiduel peut être réduit en considérant des patchs avec des formes d'échelle et d'orientation variées. La sélection locale des formes pertinentes permet d'améliorer la qualité du débruitage, surtout à proximité des contours.
40

Matrices aléatoires et applications au traitement statistique du signal

Vallet, Pascal 28 November 2011 (has links) (PDF)
La présente thèse porte sur l'application des matrices aléatoires au traitement statistique du signal, et plus particulièrement au traitement d'antennes et la localisation de sources dans les grands réseaux de capteurs. Dans ce contexte, on considère un réseau de M capteurs, et K sources émettant sur ce réseau. On suppose qu'on collecte N observations du signal reçu sur le réseau d'antennes. Dans ce travail, nous considérons le cas où M,N sont grands et du même ordre de grandeur, situation dans laquelle les estimateurs traditionnels des angles d'arrivées des sources sont peu performants. Dans ce contexte, nous proposons un estimateur consistant de ces angles d'arrivées, dans le régime asymptotique où M,N tendent vers l'infini au même rythme. Pour ce faire, un certain nombre de résultats théoriques concernant les valeurs singulières et vecteurs singuliers de grandes matrices aléatoires gaussiennes complexe non centrées sont développés.

Page generated in 0.1346 seconds