Spelling suggestions: "subject:"traitement duu signal."" "subject:"traitement dud signal.""
311 |
Techniques de démodulation aveugle en interception de signaux MIMODaumont, Steredenn 04 December 2009 (has links) (PDF)
Les systèmes MIMO (Multiple Input Multiple Output) ont été proposés par le laboratoire Bell afin d'augmenter le débit des transmissions. Par la suite ces systèmes ont été utilisés pour augmenter la fiabilité de la transmission en utilisant des codes introduisant de la redondance. Cette thèse CIFRE est menée en collaboration entre la société IPSIS-IT Link (Ingénierie Pour Signaux et Systèmes) et l'équipe SCEE de Supélec membre du laboratoire IETR. L'objectif de cette thèse est de proposer des techniques d'estimation, en aveugle, des symboles transmis sur des canaux MIMO. La séparation aveugle de sources, ou BSS pour Blind Source Separation, permet d'estimer de manière aveugle, i.e. sans connaissance du canal de transmission et de symboles pilotes, les symboles transmis. C'est ce type de méthode que nous utiliserons principalement dans cette thèse. Cependant, la BSS estime les sources à une rotation et permutation près. D'autre part, les méthodes de BSS utilisant un gradient stochastique sont lentes à converger, ce qui les rend difficilement utilisables sur des canaux variant rapidement dans le temps. Ainsi, les axes de recherche exploités durant cette thèse sont : - L'exploitation de la redondance introduite par les codes STBC pour lever les ambiguïtés introduites par la BSS. - L'implémentation de certains critères de manière analytique. Les méthodes analytiques implémentées de manière adaptative convergent rapidement dans le temps, permettant ainsi une utilisation sur des canaux qui varient rapidement dans le temps. - L'initiatisation du filtre de Kalman, connu pour ses qualités de poursuite, par la séparation aveugle de sources. Ce type d'association permet de poursuivre des canaux instantanés ou convolutifs variant dans le temps.
|
312 |
Techniques de diversité pour les transmissions HARQ sur des canaux sélectifs en fréquenceAssimi, Abdel-Nasser 17 December 2009 (has links) (PDF)
Nous considérons dans cette thèse le problème de la transmission fiable de données par paquets en utilisant une transmission mono-porteuse sur des canaux sélectifs en fréquence à évanouissements. Notre objectif est de concevoir des couples émetteurs-récepteurs permettant d'améliorer les performances de la détection en l'absence d'information sur le canal à la transmission et ceci en exploitant la diversité temporelle disponible dans le cadre des protocoles de retransmission hybrides (HARQ). En analysant les performances du système de transmission avec un récepteur à maximum de vraisemblance, nous établissons un critère pertinent pour l'étude des performances du système basé sur les statistiques de la distance Euclidienne à la sortie du canal sélectif en fréquence. A partir de ce cadre théorique, nous proposons un nouveau schéma de diversité entre les différentes retransmissions, nommé précodage de phase, qui permet de combattre l'interférence entre symboles pour les canaux lentement variables dans le temps. Puis, à l'aide de nos outils d'analyse, nous revisitons un autre schéma de diversité qu'est la diversité d'entrelacement. En particulier, nous soulignons le double avantage offert par ce schéma, à savoir la diversité de modulation et la réduction de l'interférence entre symboles. Nous réalisons ensuite une étude comparative entre les deux schémas de diversité précédents sous traitement itératif ou non itératif au récepteur. Enfin, nous introduisons un nouveau protocole de retransmission adaptative pour les transmissions dîtes multi-couches afin de réduire l'interférence entre couches pour les canaux rapidement variant dans le temps utilisant des informations de retour limitées.
|
313 |
Théorie des graphes pour l'optimisation d'un équipement radio logicielle multi-standardsKaiser, Patricia 20 December 2012 (has links) (PDF)
Le concept de radio logicielle (SDR) est une solution pertinente pour concevoir des équipements multi-standards. Une façon de réaliser de tels équipements est d'identifier les fonctions et opérateurs communs entre les standards. Cette approche s'appelle la paramétrisation et est divisée en deux catégories : l'approche pragmatique qui est une version pratique pour créer et développer des opérateurs communs à partir d'opérateurs existants, et l'approche théorique dont l'objectif est de réaliser une exploration graphique d'un équipement multi-standards selon différents niveaux de granularité, accompagnée d'un problème d'optimisation. C'est cette dernière approche qui a constitué le sujet de base de cette thèse. Ainsi, une fonction de coût doit être optimisée afin de sélectionner les opérateurs communs entre les différentes normes, ce qui permet de proposer une configuration optimale à partir de laquelle sont déduits les opérateurs communs. Dans notre travail, nous avons dans un premier temps modélisé théoriquement la structure graphique d'un système multi-standards par un hypergraphe orienté. En outre, nous avons fourni une expression mathématique alternative de la fonction de coût suggérée, en utilisant des définitions propres à la théorie des graphes. Ensuite, nous avons montré que le problème d'optimisation associé était un problème NP sous une certaine contrainte, ce qui a entraîné une preuve d'exclusion de certaines configurations dont les coûts ne peuvent être minimaux. Ceci a constitué la deuxième contribution de cette thèse. Enfin, nous avons proposé un nouvel algorithme permettant de résoudre le problème d'optimisation donné, et dont l'intérêt est de donner une solution optimale du problème au lieu d'une solution approchée fournie par les méthodes heuristiques classiques. Un programme associé à cet algorithme a été développé en langage C, puis appliqué à plusieurs exemples de cas génériques afin d'en étudier les performances.
|
314 |
Traitement du signal collaboratif dans les réseaux de capteurs sans filsMansouri, Majdi 17 October 2011 (has links) (PDF)
L'objectif principal de la thèse est d'étudier le problème d'inférence bayésienne dans les réseaux de capteurs distribués avec un accent particulier sur le compromis entre la précision de l'estimation et la consommation de l'énergie. Nous avons proposé des algorithmes de traitement distribué du signal avec des mesures de capteurs quantifiées. En particulier, cette thèse porte sur l'application des méthodes variationnelles pour résoudre les problèmes de suivi de cibles sous les contraintes d'énergie dans les RCSFs. Le travail a abouti à la résolution de trois problèmes en RCSFs: la quantification intelligente des données des capteurs, la gestion des clusters et l'application de l'optimisation multi-objectifs pour s'accommoder des contraintes énergétiques d'un réseau de capteurs. Les contributions de cette thèse concernent les points suivant: -Estimation des positions de cibles basée sur des mesures quantifiées utilisant des méthodes variationnelles. -Estimation de canal entre les capteurs candidats et le chef de cluster. -Un régime de quantification adaptative sous contraintes de puissance de transmission constante et variable. -Sélection de meilleurs capteurs qui peuvent participer à la collecte de données. -Agrégation sécurisée de données dans le RCSF. -Sélection de chemins de communication optimaux entre les capteurs. -Méthode d'optimisation multi-objectifs dans le RCSF. -Application de la méthode d'agrégation multicritères des données basée sur le systéme multi-agents pour la gestion de crise dans le RCSF.
|
315 |
Traitements temps réel en codage source et canal pour des Communications hertziennes et acoustiques sous-marinesGoalic, André 01 June 2006 (has links) (PDF)
Les Sciences et Technologies de l'Information et de la Communication (STIC) continuent de progresser de façon spectaculaire dans tous les domaines de l'ingénierie ou de la production, des secteurs les plus traditionnels jusqu'aux industries de pointe. Les technologies mettant en oeuvre le traitement du signal et l'informatique permettant la mise au point de modèle de plus en plus réalistes, sont et seront à la base d'importantes innovations dans presque tous les secteurs de l'activité humaine : ingénierie, télécommunications, éducation, médecine, environnement, prévisions météorologiques, défense, transports, commerce et distribution, finance, loisirs, etc. Avec les outils de traitement et de modélisation, les STIC permettent également de nombreuses avancées dans les autres sciences : physique, chimie, biologie, sciences de la terre, sciences humaines ou sociales, etc. Dans le domaine des télécommunications, de nombreux secteurs sont concernés par l'apport de ces nouveaux outils. Dans le domaine du traitement de la parole, les performances des codeurs ont tendance à se dégrader au fur et à mesure que leurs débits diminuent, même si leurs conceptions font appel à des modèles de plus en plus sophistiqués. Le choix d'un codeur de parole est un compromis entre différents facteurs : qualité souhaitée, débit et complexité. En téléphonie acoustique numérique sous-marine, la portée dépend de la fréquence sachant que les fréquences élevées sont rapidement amorties. Des bas, très bas débits sont nécessaires pour atteindre des distances acceptables. On fera appel à des codeurs bas, voir très bas débits suivant la qualité de parole souhaitée. La montée en puissance des processeurs de signaux (Digital Signal Processor DSP), une puissance multipliée, par un facteur de l'ordre de 1000 dans les quinze dernières années, permet d'offrir aujourd'hui une large gamme de choix pouvant répondre à la plupart des situations rencontrées dans le domaine industriel. Après les codeurs temporels à hauts débits type MIC (64 kbits/s), MICDA DECT( Digital European Cordless Telephone 32 kbits/s), MIC bande élargie(64 kbits/s), les codeurs mixtes (paramétriques et temporels) à bas débits de type CELP{Code Excited Linear Prediction}} (4.8 kbits/s) ou MELP{Mixed Excited Linear Prediction}} (2.4 kbits/s), avec leurs nouveaux algorithmes de compression offrent de très bonne qualité de parole. La première partie de mes travaux de recherche a été consacrée au codage de source avec l'étude et le développement d'un codeur de type CELP (5,45 kbits/s) et à son implémentation sur un DSP{de type Motorola fréquence d'horloge 27 Mhz, 13.5 MIPS). Compte tenu des contraintes temps réel, l'intégration a été entièrement réalisée en langage d'assemblage, elle fait l'objet d'un chapitre dans le rapport final. Dans le domaine des communications numériques, après transmission sur un canal physique, le flux de données est entaché d'erreurs provenant de phénomènes d'évanouissements, d'interférences entre symboles, de bruits d'origines diverses (thermique, milieu, etc..). En codage canal, l'arrivée des systèmes itératifs, connus sous le nom de "Turbo Codes", avec les deux grandes familles, TCC (Turbo Codes Convolutifs) et TCB (Turbo Codes en Blocs), est à l'origine de nombreuses avancées permettant de récupérer l'information émise quasiment sans erreur dans les conditions de fonctionnement. Le codage de canal permet ainsi en réception, après égalisation éventuelle et démodulation, de corriger les erreurs de parcours avec un pourcentage de réussite très élevé. Les TCC et les TCB commencent à être intégrés dans différentes normes (satellites, communications mobiles, télévisions numériques etc.) et de nombreux travaux visent à les intégrer dans les secteurs les plus divers. Le département Signal et Communications de l'ENST-Bretagne s'intéresse plus particulièrement au TCB, à la fois à partir des codes BCH binaires, et des codes de Reed-Solomon RS. En 1996 j'ai commencé les premiers travaux d'intégration des TCB sur processeurs de signaux (DSP). Avec ses très grandes possibilités de parallélisme, l'option circuit permet d'atteindre des débits très élevés. L'option DSP apporte une très grande souplesse malgré son parallélisme limité et permet une évolutivité au niveau de l'intégration et de la mise à jour rapide des systèmes. Différents algorithmes ont été mis en oeuvre pour le décodage pondéré des TCB, à la fois de type BCH (Chase-Pyndiah, Chase-Hartmann-Rudolph-Nazarov) et de type RS (Chase-Pyndiah-Berlekamp-Massey), dans le cadre des thèses que j'ai co-encadrées et de différents travaux réalisés dans le cadre de contrats (SEEE-AM sur canal VLF-LF) ou de projets DS-GET (codage canal pour BLUETOOTH avec TCB, communications indoor sur canal 60 GHz. Les différents algorithmes ont été initialement développés en langage C en format flottant. Les implémentations{l'implémentation des codes RS est aujourd'hui en cours de développement dans le cadre d'un nouveau projet}, en format fixe, sur processeurs de signaux ont été optimisées en langage d'assemblage (DSP Motorola 56xxx, DSP Texas Instruments TMS320C6201) Avant de conclure un dernier chapitre est plus particulièrement consacré à la présentation d'une approche des activités temps réel. Il nous permet de présenter la téléphonie acoustique sous-marine et notamment les différentes plate-formes mises en oeuvre au cours des essais de 1994 et ceux de 2003 dans rade de Brest. Une plate forme temps réel d'essais de Turbo codes en blocs est également présentée. Son objectif est plus pédagogique. Un certain nombre de conclusions sont tirées en fin de rapport avant de présenter les perspectives pour la suite des travaux.
|
316 |
Trajectographie passive sans manoeuvre de l'observateurClavard, Julien 18 December 2012 (has links) (PDF)
Les méthodes de trajectographie conventionnelles par mesures d'angle supposent que la source est en mouvement rectiligne uniforme tandis que l'observateur est manoeuvrant. Dans cette thèse, nous remettons en cause cette hypothèse en proposant un autre modèle de cinématique de la source : le mouvement circulaire uniforme. Nous prouvons qu'une telle trajectoire est observable à partir d'un observateur en mouvement rectiligne uniforme. Puis, nous étudions l'apport de mesures additionnelles de fréquence ou la faisabilité de la trajectographie par mesures de distances. Le cas d'une source en mouvement rectiligne uniforme et d'un observateur manoeuvrant est étudié pour ce dernier type de mesures. Chaque cas donne lieu à une analyse de l'observabilité de la trajectoire de la source et à la mise au point de l'estimateur du maximum de vraisemblance. Nous montrons que ce dernier s'avère le plus souvent efficace.
|
317 |
Une méthode pour l'évaluation de la qualité des images 3D stéréoscopiques.Vlad, Raluca Ioana 02 December 2013 (has links) (PDF)
Dans le contexte d'un intérêt grandissant pour les systèmes stéréoscopiques, mais sans méthodes reproductible pour estimer leur qualité, notre travail propose une contribution à la meilleure compréhension des mécanismes de perception et de jugement humains relatifs au concept multi-dimensionnel de qualité d'image stéréoscopique. Dans cette optique, notre démarche s'est basée sur un certain nombre d'outils : nous avons proposé un cadre adapté afin de structurer le processus d'analyse de la qualité des images stéréoscopiques, nous avons implémenté dans notre laboratoire un système expérimental afin de conduire plusieurs tests, nous avons crée trois bases de données d'images stéréoscopiques contenant des configurations précises et enfin nous avons conduit plusieurs expériences basées sur ces collections d'images. La grande quantité d'information obtenue par l'intermédiaire de ces expérimentations a été utilisée afin de construire un premier modèle mathématique permettant d'expliquer la perception globale de la qualité de la stéréoscopie en fonction des paramètres physiques des images étudiée.
|
318 |
Une exploration des problèmes inverses par les représentations parcimonieuses et l'optimisation non lisseFadili, Jalal M. 26 March 2010 (has links) (PDF)
Ce mémoire résume mon parcours de recherche lors des dix dernières années. Ces travaux de recherche se trouvent à la croisée des chemins entre les mathématiques appliquées et le traitement du signal et des images. Ils s'articulent autour du triptyque: (i) modélisation stochastique-estimation statistique; (ii) analyse harmonique computationnelle-représentations parcimonieuses; (iii) optimisation. Ces trois piliers constituent le socle théorique de mes activités pour développer des approches originales capables de résoudre des problèmes classiques en traitement d'images comme les problèmes inverses en restauration et reconstruction, la séparation de sources, la segmentation, la détection, ou encore la théorie de l'échantillonnage compressé (compressed sensing). Ces travaux ont été appliqués à plusieurs modalités d'imagerie comme l'imagerie médicale et biomédicale (IRM fonctionnelle, échographie, microscopie confocale), le contrôle non destructif et l'imagerie astronomique.
|
319 |
Vers des traitements morphologiques couleur et spectraux valides au sens perceptuel et physique : Méthodes et critères de sélectionLedoux, Audrey 05 December 2013 (has links) (PDF)
L'extension de la morphologie mathématique au domaine de la couleur ou du multi/ hyperspectral en traitement et analyse d'images n'est pas élémentaire. La majorité des approches se sont focalisées sur la formulation mathématique des opérateurs sans prendre en compte le sens physique ou perceptuel de l'information couleur/spectrale. Les outils développés dans ce travail s'inscrivent dans un nouveau formalisme générique basé sur une fonction de distance. Cette construction permet d'utiliser les opérateurs morphologiques dans le domaine de la couleur ou du multi/hyperspectral en adaptant la fonction de distance. De plus, le choix de la fonction de distance rend les opérateurs valides au sens de la perception ou de la physique. Face aux nombre croissant d'approches existantes, des critères de sélection ont été développés afin de les comparer les différentes écritures de morphologie mathématique. Ces critères sont basés sur le respect des propriétés théoriques des opérateurs, sur les propriétés métrologiques et sur l'efficacité numérique. Grâce à un formalisme prenant en compte l'information perceptuelle de la couleur et intégrant une définition valide des éléments structurants non-plats, deux types d'opérateurs de plus haut niveau ont été définis. Le premier est un détecteur d'objets spatio-colorimétrique passant par la définition d'un gabarit spatial et vectoriel. Le second, est le calcul de spectres de textures vectoriels. L'extension des deux propos au spectral a été réalisé et ouvre de nouvelles questions scientifiques. \vspace{0.5em}
|
320 |
Méthodes et structures non locales pour la restauration d'images et de surfaces 3DThierry, Guillemot 03 February 2014 (has links) (PDF)
Les technologies d'acquisition numériques n'ont cessé de se perfectionner, permettant d'obtenir des données d'une qualité toujours plus fine. Néanmoins, le signal acquis est corrompu par des défauts qui ne peuvent être corrigés matériellement et nécessitent des méthodes de restauration adaptées. A l'origine, ces approches s'appuyaient uniquement sur un traitement local du signal. Récemment, le support du filtre a pu être étendu à l'ensemble des données acquises en exploitant leur caractère autosimilaire. Ces approches non locales ont principalement été utilisées pour restaurer des données régulières et structurées telles que des images. Mais dans le cas extrême de données irrégulières et non structurées comme les nuages de points 3D, leur adaptation est peu étudiée à l'heure actuelle. Avec l'augmentation de la quantité de données échangées, de nouvelles méthodes non locales ont récemment été proposées. Elles utilisent un modèle a priori extrait à partir de grands ensembles d'échantillons pour améliorer la qualité de la restauration. Néanmoins, ce type de méthode reste actuellement trop coûteux en temps et en mémoire. Dans cette thèse, nous proposons d'étendre les méthodes non locales aux nuages de points 3D, en définissant une surface de points exploitant leur caractère autosimilaire. Nous introduisons ensuite une nouvelle structure de données, le CovTree, flexible et générique, capable d'apprendre les distributions d'ensemble d'échantillons avec une capacité de mémoire limitée. Finalement, nous généralisons les méthodes de restauration collaboratives, en utilisant notre CovTree pour apprendre un modèle statistique a priori à partir d'un ensemble de données.
|
Page generated in 0.145 seconds