Spelling suggestions: "subject:"traitement duu signal."" "subject:"traitement dud signal.""
291 |
Génération rapide de signaux radar d'environnements complexes pour la simulation de systèmes imageurs SARKhwaja, Shaharyar 25 March 2008 (has links) (PDF)
Cette thèse traite de la simulation rapide de données SAR au moyen de méthodes de synthèse inverse. Pour ce faire, les algorithmes omega-k et chirp scaling inverses sont développés pour le cas d'une trajectoire lineaire. Une transformation est proposée, qui permet de produire des données brutes d'un objet mobile à partir d'image SAR d'un objet statique opérant dans le domaine spectral. Les déviations non-linéaires de trajectoire du capteur sont aussi prises en considération en simulant des données partiellement dans le domaine temporel avec l'approximation d'un faisceau d'antenne étroit en largeur ou avec l'approximation d'une largeur de bande réduite. Toutes ces techniques sont analysées et les résultats sont comparés avec ceux d'un simulateur temporel pris comme réfèrence. Les données brutes sont simulées pour une scène complexe comportant un ou plusiers bâtiments placés au sein d'un environnement naturel surfacique et ayant une réponse anisotrope. Finalement, la simulation d'images et de données interférometriques est abordée.
|
292 |
Identification de Systèmes OFDM et Estimation de la QoS : Application à la Radio OpportunisteOularbi, Mohamed Rabie 23 September 2011 (has links) (PDF)
Le schéma de modulation OFDM est très répandu de nos jours (WiFi, WiMAX, \dots) et préconisé comme couche physique pour de nombreux réseaux futurs (3GPP/LTE, IEEE 802.22). Ainsi cette coexistence de réseaux OFDM fait que l'environnement radio est de nos jours hétérogène. Afin de tirer partie de cette hétérogénéité et de satisfaire le concept de ''\textit{Always Best connected}'', il a été imaginé des terminaux multistandards capables de basculer de manière transparente d'un réseau à un autre à la recherche du réseau offrant la qualité de service la plus satisfaisante. Ce processus de basculement entre standards est appelé ''\textit{vertical handover}''. Avant de déclencher un \textit{vertical handover} le terminal se doit d'identifier les réseaux actifs qui l'entourent et estimer la qualité de service disponible sur chaque réseau. Ainsi, dans le cadre de cette thèse nous proposons dans un premier temps des algorithmes d'identification de systèmes OFDM. Dans un second temps, nous nous intéressons à la qualité de service disponible sur les réseaux détectés, nous avons ainsi proposé des estimateurs de métriques de qualité de service dédiés à des réseaux basés sur les schémas d'accès multiples OFDMA et CSMA/CA. Certaines de ces métriques ont été validées expérimentalement sur la plate-forme RAMMUS de TELECOM Bretagne. Toutes les techniques proposées dans le cadre de cette thèse, sont des approches passives à faible coût de calcul qui ne nécessitent aucune connexion au point d'accès, permettant ainsi une économie en temps et en énergie.
|
293 |
Lentilles stratifiées et sources réelles associées - Analyses théoriques et validations expérimentales en ondes millimétriquesFuchs, Benjamin 20 November 2007 (has links) (PDF)
Certaines lentilles inhomogènes à gradient d'indice présentent de nombreuses propriétés intéressantes (focalisation, dépointage, comportement large bande, etc.). <br />Parmi celles-ci, la lentille hémisphérique "Half Maxwell Fish-Eye" (HMFE) a rarement été étudiée auparavant. Cette thèse a pour but d'approfondir les connaissances sur cette lentille. Des outils de conception et d'analyse ont ainsi été développés.<br />Une méthode d'optimisation de la discrétisation du gradient d'indice a été proposée et appliquée aux lentilles HMFE et de Luneburg. Elle permet de choisir les paramètres des lentilles stratifiées et est généralisable à tout type de loi à dépendance radiale tant diélectrique que magnétique.<br />La majeure partie de ce travail de thèse est consacrée au développement de deux codes de calcul utilisant la technique de raccordement des modes basée sur les fonctions d'ondes sphériques.<br />Le premier code permet l'analyse rapide des lentilles stratifiées de forme sphérique et hémisphérique de toute taille associées à une source réelle. Le second est formulé pour prendre en compte des structures stratifiées de forme arbitraire avec la possibilité d'introduire du métal. Cette méthode est appliquée à l'étude d'objets diffractants de révolution.<br />D'un point de vue applicatif, les performances en focalisation des antennes lentilles HMFE sont analysées et comparées à celles des lentilles de Luneburg. Les capacités de dépointage de cette lentille sont aussi quantifiées et une antenne lentille HMFE reconfigurable est présentée.<br />Ces performances sont validées par des mesures d'antennes lentilles HMFE en ondes millimétriques.
|
294 |
Mesure de formes par corrélation multi-images : application à l'inspection de pièces aéronautiques à l'aide d'un système multi-camérasHarvent, Jacques 05 November 2010 (has links) (PDF)
L'École des Mines d'Albi et le LAAS-CNRS ont engagé en 2006 une collaboration avec AIRBUS Toulouse et EADS-IW pour le développement d'un système de vision artificielle destiné à l'inspection de pièces aéronautiques (panneaux de fuselage ou de voilure, métalliques ou composites) en vue de la détection de défauts de forme (écarts à la forme nominale souhaitée). Le système est constitué de plusieurs caméras (au moins quatre) afin de pouvoir inspecter des pièces de grande taille. Les caméras sont fixées sur une structure rigide statique et les pièces à inspecter sont positionnées devant cette structure. N images de la pièce à inspecter sont acquises de façon synchronisée et sont utilisées afin de reconstruire la pièce observée en 3D. Ce mémoire aborde les différentes stratégies envisagées pour l'exploitation d'un système multi-caméras. Les étapes nécessaires à la numérisation d'une pièce sont présentées, et plus particulièrement : l'appariement par corrélation multi-images (un critère de corrélation multi-images bien adapté au contexte multi-caméras est décrit), le recalage de nuages de points 3D par corrélation d'images, et l'aide au calibrage. L'utilisation de plusieurs caméras a montré de nombreux avantages. Elle permet la numérisation d'objets de grande taille (surface de plusieurs m²), fournit la forme complète d'un objet à partir d'une seule acquisition d'images (acquisition one-shot), améliore la précision de numérisation grâce à la redondance d'informations, permet de s'affranchir de problèmes de réflexion spéculaire dans le cas d'objets réfléchissants. Les algorithmes développés ont été évalués à la fois à partir d'images synthétiques et par comparaison aux mesures fournies par plusieurs systèmes commerciaux de numérisation 3D.
|
295 |
Méthodes à faible complexité algorithmique pour l'analyse d'ECGKa, Ahmad Khoureich 04 December 2012 (has links) (PDF)
Cette thèse a porté sur l'analyse des électrocardiogrammes en vu de développer de nouvelles méthodes efficaces de classification des arythmies (un outil de diagnostique) et de localisation automatique des battements anormaux en temps réel dans un signal ECG (un outil de surveillance). Les signaux ECG sont prétraités et les battements extraits sont compressés puis analysés à l'aide de la décomposition en ondellettes. La méthode de classification proposée exploite les spécificités du patient en faisant un regroupement contextuel des battements et en utilisant une base de données de battements cardiaques annotés. La méthode utilise également une fonction de similarité pour comparer deux battements donnés. La méthode de localisation exploite aussi la décomposition en ondelettes mais se base sur une partie des données disponibles (set of parsimony) pour détecter automatiquement et temps réel à l'aide d'une fonction masque les battements cardiaques anormaux contenus dans le signal ECG. Les deux méthodes ont été testées sur les signaux électrocardiogrammes du MIT-BIH arrhythmia database et des bons résultats ont été obtenus.
|
296 |
Modélisation des expressions faciales émotionnelles et de leurs dynamiques pour l'animation réaliste et interactive de personnages virtuels.Stoiber, Nicolas 10 December 2010 (has links) (PDF)
Dans les mondes virtuels, une des tâches les plus complexes est l'intégration de personnages virtuels réalistes et le visage est souvent considéré comme l'élément le plus important car il concentre les canaux de communications humains les plus essentiels. La création de personnages virtuels convaincants passe ainsi par une meilleure compréhension et une meilleure reproduction de l'expressivité faciale naturelle. Dans ces travaux, nous nous concentrons sur les expressions faciales émotionnelles, qui selon nous représente le plus intéressant aspect de la communication non-verbale. Nous proposons une approche qui apprend les caractéristiques des expressions faciales directement sur des visages humains, et utilise cette connaissance pour générer des animations faciales réalistes pour des visages virtuels. Nos contributions sont les suivantes: - Une méthode capable d'extraire de données brutes un espace simple et pertinent pour la représentation des expressions faciales émotionnelles. Cet espace de représentation peut ensuite être utilisé pour la manipulation intuitive des expressions sur les visages de n'importe quel personnage virtuel. - Un système d'animation, basé sur une collection de modèles de mouvement, qui pilote l'aspect dynamique de l'expressivité faciale. Les modèles de mouvement apprennent la signature dynamique des expressions naturelles à partir de données, et reproduisent cette signature lors de la synthèse de nouvelles animations. Le système global d'animation issu des ces travaux est capable de générer des animations faciales réalistes et adaptatives pour des applications temps-réel telles que les jeux vidéos ou les agents conversationnels. En plus de ses performances, le système peut être associé aux notions plus abstraites d'émotions humaines. Ceci rend le processus d'animation faciale plus intuitif, en particulier pour les utilisateurs non-experts et les applications d''affective computing' qui travaillent généralement à un niveau sémantique.
|
297 |
Ondelettes analytiques et monogènes pour la représentation des images couleurSoulard, Raphaël 19 November 2012 (has links) (PDF)
De nombreux algorithmes de traitement d'image numérique (compression, restauration, analyse) sont basés sur une représentation en ondelettes. Les outils mathématiques disponibles étant souvent pensés pour des signaux 1D à valeurs scalaires (comme le son), ils sont mal adaptés aux signaux 2D vectoriels comme les images couleur. Les méthodes les plus répandues utilisent ces outils indépendamment sur chaque ligne et chaque colonne (méthodes " séparables "), de chaque plan couleur (méthode " marginale ") de l'image. Ces techniques trop simples ne donnent pas accès aux informations visuelles élémentaires, aboutissant à des traitements qui risquent d'introduire des artefacts rectangulaires et de fausses couleurs. Notre axe de recherche se situe autour des représentations analytiques qui utilisent un modèle oscillatoire des signaux. Ces outils de traitement du signal sont connus pour être bien adaptés à la perception humaine (auditive et visuelle), et leur extension à des dimensions supérieures est un sujet encore très actif, qui révèle des propriétés intéressantes pour l'analyse de la géométrie locale. Dans cette thèse, nous faisons une revue des ondelettes analytiques existantes pour l'image en niveaux de gris (dites complexes, quaternioniques et monogènes), et nous proposons des expérimentations qui valident leur intérêt pratique. Nous définissons ensuite une extension vectorielle qui permet de manipuler facilement le contenu géométrique d'une image couleur, ce que nous validons à travers des expérimentations en codage et analyse d'image.
|
298 |
Optimisation conjointe de codes LDPC et de leurs architectures de décodage et mise en œuvre sur FPGADoré, Jean-Baptiste 26 October 2007 (has links) (PDF)
La découverte dans les années 90 des Turbo-codes et, plus généralement du principe itératif appliqué au traitement du signal, a révolutionné la manière d'appréhender un système de communications numériques. Cette avancée notable a permis la re-découverte des codes correcteurs d'erreurs inventés par R. Gallager en 1963, appelés codes Low Density Parity Check (LDPC). L'intégration des techniques de codage dites avancées, telles que les Turbo-codes et les codes LDPC, se généralise dans les standards de communications. Dans ce contexte, l'objectif de cette thèse est d'étudier de nouvelles structures de codage de type LDPC associées à des architectures de décodeurs alliant performances et flexibilité.<br />Dans un premier temps, une large présentation des codes LDPC est proposée incluant les notations et les outils algorithmiques indispensables à la compréhension. Cette introduction des codes LDPC souligne l'intérêt qu'il existe à concevoir conjointement le système de codage/décodage et les architectures matérielles. Dans cette optique, une famille de codes LDPC particulièrement intéressante est décrite. En particulier nous proposons des règles de construction de codes pour en contraindre le spectre des distances de Hamming. Ces contraintes sont intégrées dans la définition d'un nouvel algorithme de définition de codes travaillant sur une représentation compressée du code par un graphe.<br />Les propriétés structurelles du code sont ensuite exploitées pour définir l'algorithme de décodage. Cet algorithme, caractérisé par le fait qu'il considère une partie du code comme un code convolutif, converge plus rapidement que les algorithmes habituellement rencontrés tout en permettant une grande flexibilité en termes de rendements de codage. Différentes architectures de décodeurs sont alors décrites et discutées. Des contraintes sur les codes sont ensuite exposées pour exploiter pleinement les propriétés des architectures.<br />Dans un dernier temps, une des architectures proposées est évaluée par l'intégration d'un décodeur sur un composant programmable. Dans différents contextes, des mesures de performances et de complexité montrent l'intérêt de l'architecture proposée.
|
299 |
PEAK TO AVERAGE POWER RATIO ANALYSIS AND REDUCTION OF COGNITIVE RADIO SIGNALSHussain, Sajjad 21 October 2009 (has links) (PDF)
* La multiplication des standards de télécommunications fait apparaître la nécessité de disposer de terminaux multistandard et reconfigurables. Ces nouvelles fonctionnalités trouvent leurs réponses dans le domaine de la radio logicielle. De tels terminaux ne sont pas encore réalisables pour des raisons technologiques liées à la complexité nécessaire à leur réalisation (convertisseurs ultra rapides, processeurs reconfigurables, antennes et amplificateurs très large bande, ....). En se basant alors sur une véritable technologie radio logicielle, la radio intelligente va encore plus loin dans la prospective en dotant le terminal de capteurs qui lui permettront de s'adapter et de réagir vis à vis de son environnement. La radio devient alors décentralisée et flexible se détachant de la notion de standards et transmettant de façon opportuniste une communication dans une bande qui aura été détectée comme libre. Cette présentation s'inscrit dans le contexte présenté ci-dessus en se focalisant sur les conséquences de l'amplification de puissance d'un signal multistandard. En effet, l'amplication de puissance est un étage fondamental de tout système radio et certaines précautions doivent être prises avant d'amplifier un signal. En effet, les amplificateurs ont des caractéristiques non linéaires et de faibles rendements nécessitant un traitement du signal à amplifier afin de limiter d'une part les distorsions non linéaires et d'autre part la consommation des terminaux. Les signaux caractérisant les systèmes multistandard ayant des caractéristiques proches de celle d'un signal OFDM (connu pour les problèmes liés à l'amplification de puissance), ce travail apporte des réponses sur : * les niveaux de puissance d'un signal multistandard * les méthodes à développer pour en minimiser les fluctuations de puissance * les conséquences de l'accès opportuniste au spectre sur les fluctuations de puissance dans un contexte de radio intelligente
|
300 |
Prise en compte du facteur de crête dans le dimensionnement des systèmes de télécommunicationsLouët, Yves 21 January 2010 (has links) (PDF)
Toute forme de signal mettant en oeuvre une sommation de porteuses (orthogonales ou non) génère de fait des fluctuations temporelles, qui selon l'occurrence et l'amplitude, peuvent occasionner des distortions sévères au passage d'éléments non linéaires. Ces fluctuations sont le plus souvent désignées sous l'acronyme Peak to Average Power Ratio (PAPR). Ce PAPR peut être très élevé et il est alors nécessaire de le diminuer en proposant des méthodes appropriées. Ce document d'HDR synthétise l'ensemble de mes activités de recherche entre 1997 et 2010. Il aborde de façon très large la problématique de réduction du PAPR dans des problématiques variées (OFDM, radio logicielle, radio intelligente) et des contextes différents (projets collaboratifs et bilatéraux). J'ai été amené dans ce cadre à encadrer des étudiants en thèse ainsi que des post-doctorants.
|
Page generated in 0.0734 seconds