Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
621 |
Représentation Invariante des Expressions FacialesSoladié, Catherine 13 December 2013 (has links) (PDF)
De plus en plus d'applications ont pour objectif d'automatiser l'analyse des comportements humains afin d'aider ou de remplacer les experts qui réalisent actuellement ces analyses. Cette thèse traite de l'analyse des expressions faciales qui fournissent des informations clefs sur ces comportements. Les travaux réalisés portent sur une solution innovante permettant de définir efficacement une expression d'un visage, indépendamment de la morphologie du sujet. Pour s'affranchir des différences de morphologies entre les personnes, nous utilisons des modèles d'apparence spécifiques à la personne. Nous proposons une solution qui permet à la fois de tenir compte de l'aspect continu de l'espace des expressions et de la cohérence des différentes parties du visage entre elles. Pour ce faire, nous proposons une approche originale basée sur l'organisation des expressions. Nous montrons que l'organisation des expressions, telle que définie, est universelle et qu'elle peut être efficacement utilisée pour définir de façon unique une expression : une expression est caractérisée par son intensité et sa position relative par rapport aux autres expressions. La solution est comparée aux méthodes classiques basées sur l'apparence et montre une augmentation significative des résultats de reconnaissance sur 14 expressions non basiques. La méthode a été étendue à des sujets inconnus. L'idée principale est de créer un espace d'apparence plausible spécifique à la personne inconnue en synthétisant ses expressions basiques à partir de déformations apprises sur d'autres sujets et appliquées sur le neutre du sujet inconnu. La solution est aussi mise à l'épreuve dans un environnement multimodal plus complet dont l'objectif est la reconnaissance d'émotions lors de conversations spontanées. Les résultats montrent que la solution est efficace sur des données réelles et qu'elle permet l'extraction d'informations essentielles à l'analyse des émotions. Notre méthode a été mise en œuvre dans le cadre du challenge international AVEC 2012 (Audio/Visual Emotion Challenge) où nous avons fini 2nd, avec des taux de reconnaissance très proches de ceux obtenus par les vainqueurs. La comparaison des deux méthodes (la nôtre et celles des vainqueurs) semble montrer que l'extraction des caractéristiques pertinentes est la clef de tels systèmes.
|
622 |
Séparation aveugle de sources dans les systèmes de communication MIMOIkhlef, Aissa 19 September 2008 (has links) (PDF)
Cette thèse traite de la séparation aveugle de sources dans les systèmes de communication multiantennes à l'émission et à la réception MIMO. Nous nous intéressons au cas de signaux sources indépendants traversant un canal MIMO linéaire, instantané ou convolutif, et invariant dans le temps. Au début, nous exposons quelques outils associés à la séparation aveugle de sources. Ensuite nous considérons le cas d'un canal MIMO instantané. Nous commençons par proposer un nouvel algorithme CMA basé sur les rotations de Givens complexes. Nous proposons aussi une extension de la classe des algorithmes à nome constante CNA au cas MIMO, où à partir du critère général nous dérivons trois autres algorithmes. Enfin nous considérons le cas d'un canal MIMO convolutif. Nous proposons un nouvel algorithme permettant de contrôler le retard avec lequel les signaux sources seront récupérés. L'étude des points stationnaires du critère est également proposée.
|
623 |
Stratégies d'allocation de ressources dans des contextes mono et multiutilisateurs pour des communications à très haut débit sur lignes d'énergieMaiga, Ali 13 December 2010 (has links) (PDF)
Au cours des dernières années, la demande de services sur les réseaux CPL (courant porteur en ligne) a connu une forte augmentation du fait de la disponibilité des infrastructures et du faible coût de déploiement. Ce type de réseau supporte plusieurs trafics à haut débit avec une facilité de connexion entre plusieurs noeuds et points d'accès. Dans ce contexte, une gestion efficace des ressources disponibles, par l'intermédiaire de politiques d'allocation, s'avère indispensable pour satisfaire les contraintes de qualité de service. Ces politiques consistent à répartir efficacement les ressources dans le but d'optimiser les débits de transmission dans le réseau CPL. La présente thèse propose des stratégies d'allocation des ressources permettant d'augmenter les débits de transmission dans les contextes mono et multi-utilisateurs. Cependant, le canal de propagation CPL est peu favorable à la transmission de données à haut débit, puisqu'il n'a pas, à l'origine, été conçu dans ce but. Afin d'exploiter ce canal difficile, les données sont transmises via une forme d'onde combinant la technique de précodage linéaire aux modulations à porteuses multiples de type OFDM et conduisant à la solution LP-OFDM (linear precoded OFDM). Sous l'hypothèse d'une connaissance parfaite de la réponse du canal, cette combinaison permet une exploitation plus efficace de la puissance disponible. Les débits de transmission sont alors augmentés en adaptant les ordres de modulation, les niveaux de puissance et la répartition des ressources temps-fréquences aux conditions des liens de transmission. L'objectif principal de cette thèse est d'étudier et d'optimiser les stratégies de distribution : * des sous-canaux (qui peuvent être les sous-porteuses du système OFDM ou les séquences de précodage du système LP-OFDM) ; * des bits et puissances attribués à ces sous-canaux. Dans un premier temps, le problème de maximisation du débit dans un contexte mono-utilisateur est étudié et sert de base pour le contexte multi-utilisateur. Un nouvel algorithme d'allocation des ressources pour le système LP-OFDM avec une mise en oeuvre de l'égalisation suivant le critère de l'erreur quadratique moyenne est proposé, ce qui constitue une première contribution originale. De plus, deux autres nouveaux algorithmes d'adaptation des ordres de modulation et des niveaux de puissance, de faible complexité, sont proposés pour maximiser le débit total tout en respectant une contrainte de taux d'erreur binaire. Dans un second temps, une approche couche physique de la communication multicast est étudiée pour le système LP-OFDM. Les méthodes proposées permettent de mieux exploiter la diversité des liens de transmission pour augmenter les débits des utilisateurs. Comparés à la méthode classique d'allocation des ressources en OFDM multicast, les résultats de simulations montrent des gains en débit pouvant atteindre 70%. Enfin, la possibilité pour plusieurs utilisateurs de transmettre simultanément des données dans un réseau CPL est analysée. Les systèmes actuels CPL sont caractérisés par des procédés d'accès multiple où les différents utilisateurs transmettent leurs signaux dans des intervalles de temps distincts. De nouveaux algorithmes d'allocation des ressources, dans un contexte centralisé ou décentralisé, sont alors proposés et analysés pour une transmission simultanée dans le réseau. Les résultats obtenus mettent à nouveau en évidence l'intérêt de la solution LP-OFDM.
|
624 |
Sur une approche de l'analyse en composantes indépendantes à la compression des images multi composantesAkam Bita, Isidore Paul 12 February 2007 (has links) (PDF)
Dans une première partie, nous définissons plusieurs schémas de compression en partant de l'état de l'art qu'est JPEG 2000 aujourd'hui. Les schémas de compressions que nous avons définis proposent d'utiliser une transformation pour la réduction de la redondance spatiale transformée en ondelette discrète (TOD) et une autre transformation pour réduire la redondance spectrale. Les transformations optimales sous les hypothèses faible distortion, permettant de réduire la redondance spectrale, s'obtiennent dans certains cas en minimisant un critère qui peut être interprété comme le critère de l'analyse en composantes indépendantes (ACI) (minimisation de l'information mutuelle) additionné d'un terme toujours positif ou nul qui est une certaine mesure à l'orthogonalité de la transformation obtenue. Les performances obtenues en intégrant ces transformations dans nos schémas de compression montrent une amélioration des performances en comparaison à la transformation de Karhunen Loève (TKL). Dans la deuxième partie, nous proposons un modèle de mélange convolutif pour rechercher une transformation unique réduisant à la fois les redondances spatiales et spectrales. Nous définissons le critère à minimiser sous les hypothèses faibles distortions et nous montrons que ce critère peut s'interprété comme celui de l'ACI pour la séparation et déconvolution lorsque le critère à minimiser est l'information mutuelle auquel s'additionne un terme toujours positif ou nul. Puis nous proposons deux algorithmes permettant d'obtenir d'une part la transformation minimisant le critère dans le cas général, et d'autre part celle qui minimise le critère sous la contrainte que la distorsion dans le domaine transformée est la même que celle du domaine de l'image.
|
625 |
Tomographie acoustique océanique en guide d'onde : de l'utilisation des temps à celle des angles.Aulanier, Florian 09 December 2013 (has links) (PDF)
Dans l'océan, les changements de température induisent des perturbations de la vitesse de propagation des ondes acoustiques. A partir des fluctuations des signaux acoustiques enregistrés, la tomographie acoustique océanique permet d'imager ces perturbations de vitesse du son. Dans un contexte de double antenne de réception et d'émission, cette thèse propose une méthode alternative utilisant la direction de propagation des ondes acoustiques et ses paramètres physiques associés, direction d'arrivée (DA) et direction de départ (DD), plutôt que les temps de propagation (TP) utilisés classiquement. Nous nous plaçons dans un guide d'onde océanique petit fond ( 100 m), sur une échelle spatiale entre 1 et 10 km, et une résolution spatiale d'environ 10 m horizontalement et 2 m en profondeur. Dans ce cas, les ondes acoustiques basses fréquences (1 kHz) se réfléchissent sur les interfaces du guide d'ondes et se propagent entre une source et un récepteur, en suivant des trajectoires multiples. Après extraction des TP, DA et DD par double formation de voies, et dans l'hypothèse de faibles perturbations, nous relions linéairement les variations des TP, DA et DD aux perturbations de la distribution de vitesse du son de manière analytique. Cette formulation, basée sur la physique de la diffraction de Born au 1er ordre, utilise des fonctions appelées : noyaux de sensibilité temps-angles (NSTA). Ainsi après avoir traiter le problème direct, l'utilisation de méthodes d'inversion nous permet alors de retrouver les perturbations de vitesse à partir des variations de TP, DA et DD en utilisant les NSTA. Dans cette thèse, nous montrons que l'inversion utilisant uniquement les angles est identique à celle classiquement réalisée avec les temps. Cette méthode nouvelle de tomographie acoustique, a été validée sur données simulées, et sur des données réelles d'expériences à échelle réduites.
|
626 |
Traitement et analyse d'images IRM de diffusion pour l'estimation de l'architecture locale des tissusAssemlal, Haz-Edine 11 January 2010 (has links) (PDF)
Dans cette thèse, nous proposons une méthode qui tente de répondre à la problématique de l'estimation de caractéristiques variées du tissu cérébral à partir de l'acquisition d'un nombre réduit d'échantillons de signaux IRM de diffusion in vivo. Ces caractéristiques doivent permettre l'étude de la structure locale du tissu cérébral, notamment dans la substance blanche. L'approche proposée est flexible quant à la caractéristique calculée et au nombre d'échantillons disponibles. Elle définit un formalisme générique qui d'une part, unifie de nombreux travaux précédents liés à l'estimation des fonctions de densité probabilité (PDF) de déplacement en IRM de diffusion, dont l'Imagerie du Tenseur de Diffusion (DTI) et le Q-Ball Imaging (QBI). D'autre part, elle permet aussi de définir et d'estimer de nouvelles caractéristiques originales: "vraie" ODF, probabilité de non diffusion, taille moyenne des cellules, etc. Nous proposons deux formalismes: un rapide et un autre robuste au bruit des images IRM. Nous validons notre approche par des comparaisons de résultats avec des méthodes de la littérature, sur des données synthétiques ainsi que des données d'un cerveau humain acquises in vivo dans un intervalle de temps modéré.
|
627 |
Utilisation du chaos pour améliorer l'estimation du temps d'arrivée dans le cas multi-utilisateur : application à un système de télémétrie de type UWBMa, Hang 23 April 2014 (has links) (PDF)
Dans les décennies à venir, des informations de position très précis a le potentiel de créer des applications révolutionnaires dans les domaines sociaux, médicaux, commerciaux et militaires. Ultra-Wideband (UWB) technologie est considéré comme un candidat potentiel pour permettre des capacités de localisation précises à travers le temps d'arrivée (TOA) télémétries. Au cours de la dernière décennie, les signaux chaotiques ont reçu significative d'attention en raison d'un certain nombre de caractéristiques intéressantes. Signaux chaotiques sont des signaux non périodiques, déterministes et aléatoires provenant de système dynamique non linéaire. Leur bonne auto-corrélation, faible corrélation croisée et la sensibilité aux conditions initiales rendent particulièrement adapté à des systèmes télémétries. Dans cette thèse, deux nouveaux algorithmes d'estimation multiutilisateur de TOA sont proposés avec une faible complexité et la robustesse de MUI. Le nombre d'utilisateurs pris en charge par ces deux algorithmes sont beaucoup plus grandes que les estimateurs de TOA actuelles. Cependant, l'utilisation de séquences d'étalement classique et impulsion contraignent l'amélioration des performances et la capacité du système. Pour briser la limite apportée par les signaux classiques, les signaux chaotiques sélectionnés sont utilisés comme impulsion séquences d'étalement ou impulsion à nos algorithmes proposés. Avec l'utilisation de signaux chaotiques, notre algorithme proposé non seulement obtient l'amélioration supplémentaire, mais aussi avec la capacité de soutenir plus grand nombre d'utilisateurs de comparaison avec son homologue en utilisant des signaux classiques.
|
628 |
Visualisation 3D adaptée par insertion synchronisée de données cachéesHayat, Khizar 22 June 2009 (has links) (PDF)
L'objectif principal de ces travaux de thèse est d'unifier différentes informations 2D et 3D afin de réaliser une visualisation adaptée dans un environnement client/serveur hétérogène en termes de réseau, de traitement et de ressources mémoire. Dans ce contexte, nous avons exploité la nature multi-résolution de la transformée en ondelettes discrètes (TOD) du codeur JPEG2000. L'unification des données est réalisée par insertion aveugle, synchrone ou partiellement synchrone, des données cachées dans le domaine des ondelettes. Une visualisation 3D classique nécessite au moins deux types de données : une image 2D d'intensité, appelé texture, et une forme 3D pouvant être représentée par une image, un modèle 3D ombré ou un maillage de points. Ce type d'image, parfois également appelé carte de profondeur est une image dans laquelle la valeur des pixels reflète la distance du capteur à la surface par imagerie. La texture est une image 2D couleur qui est apposée sur le modèle 3D après triangulation. Au niveau de l'insertion des données cachées, la carte de profondeur est d'abord transformée dans le domaine des ondelettes tandis que la texture est insérée dans le codeur JPEG2000. Le processus de codage JPEG2000 de la texture est interrompue, et les coefficients 3D sont insérés dans la totalité ou dans un sous-ensemble des sous-bandes de la texture. Les données sont re-intégrées dans le codeur standard de JPEG2000 à l'endroit où l'interruption a été faite. Le fichier résultant peut alors être envoyé à travers tous types de canal de communication comme un autre fichier standard issu du codeur JPEG2000. Les différents niveaux de résolution et le caractère synchronisé de nos algorithmes permettent une visualisation en 3D, même avec peu de sous-bandes de résolution suite à un transfert partiel ou retardé. La méthode permet ainsi d'effectuer une visualisation à partir uniquement d'une fraction des données. Dans ce cas nous remplaçons par des zéros les coefficients des sous-bandes manquantes. La première phase de ce travail a concerné l'imperceptibilité; c'est la raison pour laquelle l'insertion a été réalisée dans les bits de poids plus faibles. La deuxième phase de ces travaux a concerné la robustesse, c'est pourquoi une stratégie d'insertion par étalement de spectres a été utilisée. Au cours de la seconde phase, l'imperceptibilité n'a pas été complètement ignorée, du fait que l'insertion des données est effaçable après l'extraction. Les deux applications principales sont la visualisation 3D de modèles numériques de terrains et de visages. Dans la troisième et dernière phase de ces travaux de thèse, nous avons élargi le problème en essayant de prendre en compte le problème d'assemblage de dalles de niveaux de résolutions différentes sans soudure apparente. Ceci a eté assuré par des fonctions de lissage dans le domaine des ondelettes.
|
629 |
Conception de multicapteurs à courants de Foucault et inversion des signaux associés pour le contrôle non destructifRavat, Cyril 15 December 2008 (has links) (PDF)
La complexité grandissante des processus industriels et des pièces fabriquées, les exigences croissantes en termes de sûreté de fonctionnement ainsi que la volonté d'optimisation de la durée de vie des pièces conduisent à mettre en place des contrôles qualité de plus en plus poussés. Les fissures submillimétriques débouchantes, parmi l'ensemble des anomalies à considérer, doivent faire l'objet d'une attention particulière. Elles constituent en effet souvent des amorces de fissures plus grandes pouvant entraîner la destruction des pièces. Les techniques de ressuage sont actuellement largement utilisées pour ce type de défauts, en raison de leurs bonnes performances. Elles devront cependant à terme être abandonnées pour des raisons de normes environnementales. Au sein des solutions de remplacement envisageables, l'utilisation des courants de Foucault (CF) est pour les pièces conductrices une alternative fiable, rapide et peu coûteuse. L'étude porte sur la conception et l'utilisation de structures multiéléments de sondes CF exploitant des microcapteurs pour le contrôle non destructif. Une méthodologie a été établie afin de mettre au point de telles structures et de comparer leurs performances dans le cadre de la recherche de fissures submillimétriques débouchantes. Ces structures ont été employées pour l'évaluation de fissures calibrées sur un banc d'acquisition spécialement réalisé. Des algorithmes originaux de détection et de caractérisation de défauts ont été conçus et mis en œuvre pour les signaux acquis, permettant de déterminer la structure la plus efficace, de quantifier la qualité de détection des fissures et d'estimer les caractéristiques géométriques de ces défauts.
|
630 |
Méthodes conjointes de détection et suivi basé-modèle de cibles distribuées par filtrage non-linéaire dans les données lidar à balayageFortin, Benoît 22 November 2013 (has links) (PDF)
Dans les systèmes de perception multicapteurs, un point central concerne le suivi d'objets multiples. Dans mes travaux de thèse, le capteur principal est un télémètre laser à balayage qui perçoit des cibles étendues. Le problème desuivi multi-objets se décompose généralement en plusieurs étapes (détection, association et suivi) réalisées de manière séquentielle ou conjointe. Mes travaux ont permis de proposer des alternatives à ces méthodes en adoptant une approche "track-before-detect" sur cibles distribuées qui permet d'éviter la succession des traitements en proposant un cadre global de résolution de ce problème d'estimation. Dans une première partie, nous proposons une méthode de détection travaillant directement en coordonnées naturelles (polaires) qui exploite les propriétés d'invariance géométrique des objets suivis. Cette solution est ensuite intégrée dans le cadre des approches JPDA et PHD de suivi multicibles résolues grâce aux méthodes de Monte-Carlo séquentielles. La seconde partie du manuscrit vise à s'affranchir du détecteur pour proposer une méthode dans laquelle le modèle d'objet est directement intégré au processus de suivi. C'est sur ce point clé que les avancées ont été les plus significatives permettant d'aboutir à une méthode conjointe de détection et de suivi. Un processus d'agrégation a été développé afin de permettre une formalisation des données qui évite tout prétraitement sous-optimal. Nous avons finalement proposé un formalisme général pour les systèmes multicapteurs (multilidar, centrale inertielle, GPS). D'un point de vue applicatif, ces travaux ont été validés dans le domaine du suivi de véhicules pour les systèmes d'aide à la conduite.
|
Page generated in 0.1218 seconds