221 |
Une étude sur la réduction du PAPR dans un système OFDMArab, Samir 16 April 2018 (has links)
Les systèmes de communications ont beaucoup évolué ces dernières années, surtout les systèmes sans fil, et de plus en plus la nécessité d'utilisation d'une grande vitesse de transmission de données s'impose. Mais la technologie existante a des contraintes pour suivre la progression de la vitesse de transmission nécessaire ; plusieurs méthodes et techniques ont vu le jour pour remédier à ce problème. Le multiplexage par division en fréquences orthogonales (OFDM) est une alternative due à sa robustesse contre les évanouissements sélectifs en fréquence et sa résistance aux interférences entre symboles (IES). Ce dernier (IES) est un problème dans la communication de données à grande vitesse.L'émission pour les systèmes sans fil à grande distance nécessite l'utilisation d'amplificateurs de puissance (AP), mais l'utilisation des systèmes OFDM, entre autres, présente de forts pics d'amplitude de l'enveloppe du signal modulé et donc des variations importantes en puissance instantanée. Pour les systèmes OFDM on doit prendre en considération le paramètre (PAPR) "Peak-to- Aver age Power Ratio" qui a une influence directe sur l'AP. Parmi les techniques de réduction du PAPR, on retrouve les techniques qui consistent à traiter le signal avant l'émission. Ces méthodes sont en général simple à implémenter. Dans ce travail, on parle des différentes méthodes de réduction de PAPR, en mettant l'emphase sur la méthode d'écrêtage.
|
222 |
Étude de l'emploi du signal XM comme source d'opportunité d'un système non coopératif pour la détection passive cohérenteGill, Louis-Philippe 17 April 2018 (has links)
Cette thèse présente l'étude de l'utilisation du signal XM comme source d'opportunité d'un système radar de détection passive cohérente. Par la réception simultanée d'un écho radar et du signal direct, une mesure de la corrélation est possible afin d'extraire de la détection les paramètres de la cible. Tout d'abord, une étude de la résolution qu'offre le signal employé et un bilan de puissance sont réalisés desquels deux principaux problèmes sont identifiés : l'effet hautement interféreur du signal direct sur un écho potentiel et la faiblesse de la puissance de cet écho provenant de la réflexion du signal sur une cible caractéristique. La méthode des sous-espaces, en utilisant une antenne-réseau à la réception, est proposée pour supprimer le signal direct par la projection dans son sous-espace orthogonal. Pour pallier le problème de la faiblesse de la puissance de l'écho, un gain directif est aussi proposé par l'utilisation d'un réseau à chevauchement d'éléments permettant d'obtenir ce gain tout en gardant une résolution nécessaire à la méthode des sous-espaces. Le choix du nombre de sous-réseaux employé est ensuite optimisé pour un gain maximal tout en évitant la présence de points nuls pour certaines valeurs de sous-réseaux engendrant la présence du signal direct malgré l'opération visant sa suppression. L'impact de l'estimation de la soustraction de la matrice de covariance du bruit est aussi étudié. Le système de détection intégré est ensuite présenté pour la détection de la cible caractéristique afin d:en vérifier l'efficacité.
|
223 |
Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application a l'épilepsieHofmanis, Janis 20 November 2013 (has links) (PDF)
La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales : la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode. La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone epileptogénique employant la stimulation electrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes : - Création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés ; - Extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG : 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase. - Localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalorachidien et de l'os. - Discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient. - Comparaison entre les résultats générés par les modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme. - Validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées.
|
224 |
Fusion d'images en télédétection satellitaireChikr El-Mezouar, Miloud 10 December 2012 (has links) (PDF)
Les satellites d'observation de la Terre fournissent des données multi-spectrales et panchromatiques ayant différentes résolutions spatiales, spectrales, temporelles, et radiométriques. La fusion d'une image panchromatique ayant une haute résolution spatiale, mais une basse résolution spectrale avec une image multi-spectrale ayant une basse résolution spatiale mais une haute résolution spectrale est très utile dans de nombreuses applications de télédétection nécessitant à la fois de hautes résolutions spatiales et spectrales. Dans l'image fusionnée les structures et les objets sont bien rehaussés et la classification de ces objets devient plus précise. Ces techniques de traitement d'image sont connues sous le nom de pansharpening ou techniques de fusion de résolutions. Dans cette thèse, trois algorithmes sont proposés pour la fusion dont deux dans la catégorie de substitution de composantes où nos principales contributions consistent à utiliser la transformée IHS et à rehausser la bande verte dans les zones de végétation. Dans le premier algorithme, la végétation est détectée en utilisant l'indice NDVI et le rehaussement de la végétation est effectué avant le processus de fusion. En revanche, pour le second algorithme le rehaussement de la végétation se fait après le processus de fusion et la végétation est délimitée à l'aide d'un nouvel indice (HRNDVI) proposé pour des images de hautes résolutions. HRNDVI est utilisé dans l'extraction de la végétation, même dans le cas complexe des zones urbaines où la végétation est dispersée. Ainsi, en utilisant HRNDVI, une nouvelle méthode a été proposée et testée pour extraire la végétation. Le troisième algorithme de pansharpening est inclus dans la catégorie multi-résolution basée sur la transformée NSCT. L'amélioration des résultats est assurée par l'utilisation d'un nombre de niveaux de décomposition réduit pour les images multi-spectrales et un nombre plus élevé de niveaux de décomposition pour l'image panchromatique. Cette stratégie permet d'aboutir à des résultats visuels et quantitatifs satisfaisants. En outre, la contribution de la thèse se trouve aussi dans l'évaluation de la qualité des images fusionnées. C'est ainsi qu'un nouveau protocole pour l'évaluation de la qualité est proposé. En fonction de l'application visée, il peut être réglé pour favoriser la qualité spectrale ou spatiale.
|
225 |
Indexation des émotions dans les documents audiovisuels à partir de la modalité auditiveLê, Xuân Hùng 01 July 2009 (has links) (PDF)
Cette thèse concerne la détection des émotions dans les énoncés audio multi-lingues. Une des applications envisagées est l'indexation des états émotionnels dans les documents audio-visuels en vue de leur recherche par le contenu. Notre travail commence par l'étude de l'émotion et des modèles de représentation de celle-ci : modèles discrets, continus et hybride. Dans la suite des travaux, seul le modèle discret sera utilisé pour des raisons pratiques d'évaluation mais aussi parce qu'il est plus facilement utilisable dans les applications visées. Un état de l'art sur les différentes approches utilisées pour la reconnaissance des émotions est ensuite présenté. Le problème de la production de corpus annoté pour l'entraînement et l'évaluation des systèmes de reconnaissance de l'état émotionnel est également abordé et un panorama des corpus disponibles est effectué. Une des difficultés sur ce point est d'obtenir des corpus réalistes pour les applications envisagées. Afin d'obtenir des données plus spontanées et dans des langues plus variées, deux corpus ont été créés à partir de films cinématographiques, l'un en Anglais, l'autre en Vietnamien. La suite des travaux se décompose en quatre parties : études et recherche des meilleurs paramètres pour représenter le signal acoustique pour la reconnaissance des émotions dans celui-ci, étude et recherche des meilleurs modèles et systèmes de classification pour ce même problème, expérimentation sur la reconnaissance des émotions inter-langues, et enfin production d'un corpus annoté en vietnamien et évaluation de la reconnaissance des émotions dans cette langue qui a la particularité d'être tonale. Dans les deux premières études, les cas mono-locuteur, multi-locuteur et indépendant du locuteur ont été considérés. La recherche des meilleurs paramètres a été effectuée sur un ensemble large de paramètres locaux et globaux classiquement utilisés en traitement automatique de la parole ainsi que sur des dérivations de ceux-ci. Une approche basée sur la sélection séquentielle forcée avant a été utilisée pour le choix optimal des combinaisons de paramètres acoustiques. La même approche peut être utilisée sur des types de données différents bien que le résultat final dépende du type considéré. Parmi, les MFCC, LFCC, LPC, la fréquence fondamentale, l'intensité, le débit phonétique et d'autres coefficients extraits du domaine temporel, les paramètres de type MFCC ont donné les meilleurs résultats dans les cas considérés. Une approche de normalisation symbolique a permis d'améliorer les performances dans le cas indépendant du locuteur. Pour la recherche du meilleur modèle et système de classification associé, une approche d'élimination successive selon des cas de complexité croissante (mono-locuteur, multi-locuteur et indépendant du locuteur) a été utilisée. Les modèle GMM, HMM, SVM et VQ (quantification vectorielle) on été étudiés. Le modèle GMM est celui qui donne les meilleurs résultats sur les données considérées. Les expérimentations inter-langue (Allemand et Danois) ont montré que les méthodes développées fonctionnent bien d'une langue à une autre mais qu'une optimisation des paramètres spécifique pour chaque langue ou chaque type de données est nécessaire pour obtenir les meilleurs résultats. Ces langues sont toutefois des langues non tonales. Des essais avec le corpus créé en Vietnamien ont montré une beaucoup moins bonne généralisation dans ce cas. Cela peut être du au fait que le Vietnamien est une langue tonale mais cela peut aussi être dû à la différence entre les conditions de création des corpus : acté dans les premiers cas et plus spontané pour le Vietnamien.
|
226 |
Ultrasound contrast imaging with multi-pulse transmissionLin, Fanglue 14 November 2013 (has links) (PDF)
In ultrasound imaging domain, nonlinear imaging has become an important branch. Nonlinear imaging can be divided into tissue harmonic imaging and contrast harmonic imaging, according to where the nonlinear signals come from. Contrast harmonic imaging emerges because contrast agents, which are intravenously injected to enhance the weak echoes backscattered from blood cells, can vibrate nonlinearly when they undergo an acoustic pressure. Then, these nonlinear signals backscattered by contrast agents are collected to form harmonic images. However, during the wave propagation in tissue, the harmonics of the transmitted wave are also generated in tissue. The presence of tissue harmonic signals degrades the image quality in contrast harmonic imaging. This thesis aims to better distinguish the echoes from contrast agents and the echoes from tissue, whether through designing new modalities, or investigating and optimizing the existing modalities. Our efforts are mainly focused on the multi-pulse techniques in ultrasound contrast imaging. Firstly, we propose a mathematical background to generalize most of the multi-pulse ultrasound imaging techniques that have been described in previous literatures. The formulation can be used to predict the nonlinear components in each frequency band and to design new transmission sequences to either increase or decrease specified nonlinear components in each harmonic band. Simulation results on several multi-pulse techniques are in agreement with the results given in previous literatures. Secondly, the techniques using multiple transmissions to increase the CTR are generally based on the response of static scatterers inside the imaged region. However, scatterer motion, for example in blood vessels, has an inevitable influence on the relevance of the techniques. It can either upgrade or degrade the technique involved. Simulations, in-vitro experiments from a single bubble and clouds of bubbles, and in-vivo experiments from rats show that the phase shift of the echoes backscattered from bubbles is dependent on the transmissions' phase shift, and that the bubble motion influences the efficiency of multi-pulse techniques. Furthermore, experimental results based on the second-harmonic inversion (SHI) technique reveal that bubble motion can be taken into account to optimize multi-pulse techniques. Besides, a new technique, called double pulse inversion (DPI), has also been proposed. The PI technique is applied twice before and after the arrival of the contrast agents to the region of interest. The resulting PI signals are substracted to suppress the tissue-generated harmonics and to improve CTR. Simulations and in-vitro experimental results have shown an improved CTR of DPI. However, the presence of tissue movements may hamper the effectiveness of this technique. In-vivo experimental results confirm that the tissue motion of the rat during the acquisition is an inevitable barrier of this technique.
|
227 |
Management d'opérateurs communs dans les architectures de terminaux multistandards.Naoues, Malek 26 November 2013 (has links) (PDF)
Les équipements de communications numériques intègrent de plus en plus de standards. La commutation d'un standard à l'autre doit pouvoir se faire au prix d'un surcoût matériel modéré, ce qui impose l'utilisation de ressources communes dans des instanciations différentes. La plateforme matérielle nécessaire à l'exécution d'une couche physique multistandard est le segment du système présentant le plus de contraintes par rapport à la reconfiguration : réactivité, consommation et occupation de ressources matérielles. Nos travaux se focalisent sur la paramétrisation qui vise une implémentation multistandards efficace. L'objectif de cette technique est d'identifier des traitements communs entre les standards, voire entre blocs de traitement au sein d'un même standard, afin de définir des blocs génériques pouvant être réutilisés facilement. Nous définissons le management d'opérateurs mutualisés (opérateurs communs) et nous étudions leur implémentation en se basant essentiellement sur des évaluations de complexité pour quelques standards utilisant la modulation OFDM. Nous proposons en particulier l'architecture d'un opérateur commun permettant la gestion efficace des ressources matérielles entre les algorithmes FFT et décodage de Viterbi. L'architecture, que nous avons proposé et implémenté sur FPGA, permet d'adapter le nombre d'opérateurs communs alloués à chaque algorithme et donc permet l'accélération des traitements. Les résultats montrent que l'utilisation de cette architecture commune offre des gains en complexité pouvant atteindre 30% dans les configurations testées par rapport à une implémentation classique avec une réduction importante de l'occupation mémoire.
|
228 |
Estimation et détection conjointe pour la fusion d'informationsReboul, Serge 21 May 2014 (has links) (PDF)
La détection des changements ou ruptures dans les paramètres de la distribution statistique d'une série temporelle est un problème de recherche en traitement du signal qui trouve des applications dans de nombreux domaines comme le traitement des signaux GNSS. Le projet scientifique développé dans mon mémoire d'habilitation à diriger des recherches concerne l'étude des méthodes d'estimation et de détection conjointe de ruptures pour la fusion d'informations. Les approches proposées dans ce cadre sont utilisées dans différentes applications comme l'estimation des paramètres du vecteur vent, le traitement des signaux GNSS et le filtrage des mesures fournies par les capteurs inertiels. L'objectif de la fusion est d'utiliser les informations ou mesures fournies par différents capteurs pour avoir une meilleure connaissance du paramètre à estimer. Nous avons donc proposé dans ce travail plusieurs méthodes d'estimation et de détection conjointe de rupture qui fusionnent les informations fournies par des capteurs. Le but étant d'améliorer les performances des opérateurs en termes de détection, de localisation et d'estimation de la dynamique des ruptures. Les approches proposées dans un cadre bayésien s'appuient sur la définition de la distribution a posteriori des paramètres à estimer sachant les mesures multi-capteurs. Un des apports de nos travaux dans ce domaine est de proposer un ensemble de filtres définis dans le domaine circulaire avec la distribution de von Mises. Un autre apport est de proposer une loi a priori qui modélise le comportement mutuel entre plusieurs processus dans le cas de la segmentation multi-ruptures hors ligne de signaux multi-capteurs. Ce travail a principalement été appliqué au géo positionnement et plus particulièrement au traitement de la phase et du code des signaux GNSS multi-porteuses. Nous avons montré par des expérimentations sur signaux réels que les méthodes proposées permettent d'obtenir une localisation centimétrique à la milliseconde d'un récepteur ayant un mouvement de forte dynamique. Aujourd'hui les perspectives de ce travail sont dans le traitement des signaux de réflectométrie GNSS et de géolocalisation sous-marine. En effet pour ces applications les signaux sont fortement atténués et déformés par le milieu de propagation, ce qui constitue un nouvel enjeu pour les méthodes de fusion d'informations en traitement du signal.
|
229 |
Sécurisation des smart cards par masquage de signal informationnel sur canal secondaireChaillan, Fabien 13 December 2006 (has links) (PDF)
Les cartes à puce, mondialement appelées Smart Cards, sont de véritables ordinateurs embarqués dont le but est d'effectuer des opérations de cryptographie et de stocker des données confidentielles, telles que des sommes d'argent, des informations biométriques, des droits d'accès. Il n'est donc pas étonnant que les pirates tentent de s'accaparer ces données, par des failles où la carte laisse fuir des informations capitales, appelées canaux secondaires. Le but de cette thèse est de concevoir des techniques de traitement du signal de masquage de signaux de consommation de courant. Un premier chapitre introductif présente l'univers de la carte à puce ainsi que les enjeux de sa sécurisation. Cela permet de fixer l'objectif à atteindre qui est de concevoir des techniques de masquage des signaux compatibles avec la technologie Smart Card. Le second chapitre présente l'étude et la caractérisation statistique d'un système dynamique chaotique servant à la genèse de nombres pseudo-aléatoires. Le chapitre suivant présente la méthode de masquage par décomposition des signaux, consistant à remplacer les échantillons du signal à masquer par les coefficients de son développement de Karhunen-Loève. Enfin, un dernier chapitre présente une autre technique de masquage des signaux où le modèle utilisé pour la consommation de courant est paramétrique. Le paramètre est estimé selon le critère du maximum de vraisemblance par une technique originale basée sur le couplage du filtrage adapté stochastique utilisé en détection avec l'algorithme Expectation-Maximization. Toutes les techniques sont validées à l'aide de signaux réels.
|
230 |
Accurate 3D Shape and Displacement Measurement using a Scanning Electron MicroscopeCornille, Nicolas 20 June 2005 (has links) (PDF)
Avec le développement actuel des nano-technologies, la demande en matière d'étude du comportement des matériaux à des échelles micro ou nanoscopique ne cesse d'augmenter. Pour la mesure de forme ou de déformation tridimensionnelles à ces échelles de grandeur, l'acquisition d'images à partir d'un Microscope Électronique à Balayage (MEB) couplée à l'analyse par corrélation d'images numériques s'est avérée une technique intéressante. Cependant, un MEB est un outil conçu essentiellement pour de la visualisation et son utilisation pour des mesures tridimensionnelles précises pose un certain nombre de difficultés comme par exemple le calibrage du système et la correction des fortes distorsions (spatiales et temporelles) présentes dans les images. De plus, le MEB ne possède qu'un seul capteur et les informations tridimensionnelles souhaitées ne peuvent pas être obtenues par une approche classique de type stéréovision. Cependant, l'échantillon à analyser étant monté sur un support orientable, des images peuvent être acquises sous différents points de vue, ce qui permet une reconstruction tridimensionnelle en utilisant le principe de vidéogrammétrie pour retrouver à partir des seules images les mouvements inconnus du porte-échantillon.<br /><br />La thèse met l'accent sur la nouvelle technique de calibrage et de correction des distorsions développée car c'est une contribution majeure pour la précision de la mesure de forme et de déformations 3D aux échelles de grandeur étudiées. Elle prouve que, contrairement aux travaux précédents, la prise en compte de la dérive temporelle et des distorsions spatiales d'images est indispensable pour obtenir une précision de mesure suffisante. Les principes permettant la mesure de forme par vidéogrammétrie et le calcul de déformations 2D et 3D sont aussi présentés en détails. Dans le but de valider nos travaux et démontrer en particulier la précision de mesure obtenue, des résultats expérimentaux issus de différentes applications sont présentés tout au long de la thèse. Enfin, un logiciel rassemblant différentes applications de vision par ordinateur a été developpé.
|
Page generated in 0.0391 seconds