• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Non-stationary photodetection shot noise in frequency combs: a signal processing perspective

Deschênes, Jean-Daniel 20 April 2018 (has links)
Cette thèse examine le bruit de photon lors de la détection d’impulsions provenant d’un peigne de fréquences. En premier lieu, nous faisons abstraction du mécanisme physique produisant le bruit de photon, réduisant son effet à celui d’une source de bruit additif non-stationnaire (avec des statistiques variables dans le temps). Ce modèle de traitement de signal est ensuite utilisé dans l’analyse de deux expériences importantes pour l’utilisation d’un peigne de fréquence comme mécanisme de compteur de fréquence dans une horloge optique : la conversion du train d’impulsions optiques en un train d’impulsions électriques, et le battement hétérodyne entre un peigne de fréquences et un laser à onde continue. Nous démontrons en premier lieu que le bruit de photon lié à la photodétection produit principalement du bruit d’amplitude, et une quantité presque négligeable de jigue aléatoire de temps sur le signal électrique détecté. Des résultats expérimentaux viennent confirmer nos prédictions théoriques. Nous explorons ensuite les limites de ce mécanisme en considérant la physique de la photodétection, ce qui révèle un étalement du temps de transit qui peut affecter la jigue aléatoire produite par cette conversion. Dans un deuxième temps, nous démontrons que la nature pulsée du peigne de fréquences peut être utilisée pour donner un rapport signal-sur-bruit plus élevé que celui qui est prédit en considérant seulement le battement d’un seul mode du peigne avec le laser à onde continue. La première technique développée, le GATOR, rejette une grande partie du bruit de photon produit par le laser à onde continue afin d’améliorer le rapport signal-sur-bruit lorsque la puissance du peigne est faible. Avec cette technique, nous démontrons un rapport signal-sur-bruit 100 fois plus élevé que la limite en admettant l’utilisation d’un seul mode. Nous démontrons ensuite un raffinement de cette technique qui utilise le glissement de fréquence de l’impulsion optique afin d’utiliser efficacement tous les photons du peigne dans une bande passante déterminée. Cette technique nous a permis de produire un battement avec le plus grand rapport signal-sur-bruit parmi les résultats dans la littérature, 68.3 dB, obtenu en normalisant dans une bande passante commune de 100 kHz. / This thesis is a study of shot noise in the photodetection of pulses from a frequency comb. We first make abstraction of the physical mechanism of shot noise to reduce its effects to that of an additive, non-stationary (meaning with time-varying statistics) noise source. This signal processing model is then used to analyze two experiments of importance for the operation of optical clockwork based on frequency combs: the conversion of the optical pulse train into an electrical pulse train by a photodetector, and the heterodyne (or beating) experiment between a frequency comb and a continuous wave laser. For the detection of the optical pulse train, we show that photodetection shot noise yields mostly amplitude noise and vanishingly low timing jitter on the electrical signal. Experimental results confirm our theoretical predictions. We then explore the limits of this jitter when considering practical photodetection physics. This reveals a transit time spread parameter that can affect the jitter produced by this conversion. Next, we turn our attention to the heterodyne experiment. We show that the pulsed nature of the frequency comb can be exploited in different schemes to yield higher signal-to-noise ratio (SNR) that is predicted by the use of the beating of a single comb mode with the continuous wave laser. The first technique that we develop, the GATOR, gates out shot noise from the continuous wave, and improves the SNR in the case of low comb power. Using this technique, we have demonstrated a factor of 100 higher SNR than the single-mode limit. We then show a further refinement of the technique which uses chirping of the optical pulse to effectively use all the available photons from the comb in a given bandwidth. This technique enabled us to produce the beating with the highest SNR reported in the literature of 68.3 dB, when normalizing to the common detection bandwidth of 100 kHz.
222

High speed optical communications in silicon photonics modulators

Zhalehpour, Sasan 16 March 2024 (has links)
Les communications optiques basées sur la photonique sur silicium (SiP) sont au centre des récents efforts de recherche pour le développement des futures technologies de réseaux optiques à haut débit. Dans cette thèse, nous étudions le traitement numérique du signal (DSP) pour pallier aux limites physiques des modulateurs Mach-Zehnder sur silicium (MZM) opérés à haut débit et exploitant des formats de modulation avancés utilisant la détection cohérente. Dans le premier chapitre, nous présentons une nouvelle méthode de précompensation adaptative appelée contrôle d’apprentissage itératif par gain (G-ILC, aussi utilisé en linéarisation d’amplificateurs RF) permettant de compenser les distorsions non-linéaires. L’adaptation de la méthode G-ILC et la précompensation numérique linéaire sont accomplies par une procédure « hardware-in-the-loop » en quasi-temps réel. Nous examinons différents ordres de modulation d’amplitude en quadrature (QAM) de 16QAM à 256QAM avec des taux de symboles de 20 à 60 Gbaud. De plus, nous combinons les précompensations numériques et optiques pour contrevenir surmonter les limitations de bande-passante du système en régime de transmission haut débit. Dans le second chapitre, inspiré par les faibles taux de symbole du G-ILC, nous augmentons la vitesse de transmission au-delà de la limite de bande-passante du système SiP. Pour la première fois, nous démontrons expérimentalement un record de 100 Gbaud par 16QAM et 32QAM en transmission consécutive avec polarisation mixte. L’optimisation est réalisée sur le point d’opération du MZM et sur la DSP. Les performances du G-ILC sont améliorées par égalisation linéaire à entrées/sorties multiples (MIMO). Nous combinons aussi notre précompensation non-linéaire innovante avec une post-compensation. Par émulation de la polarisation mixte, nous réalisons un taux net de 833 Gb/s avec 32QAM au seuil de correction d’erreur (FEC) pour une expansion en largeur de bande de 20% et 747 Gb/s avec 16QAM (une expansion en largeur de bande de 7% du FEC). Dans le troisième chapitre, nous démontrons expérimentalement un algorithme de précompensation numérique basé sur une table de consultation (LUT) unidimensionnelle pour compenser les non-linéarités introduites à l’émetteur, e.g. réponse en fréquence non-linéaire du MZM en silicium, conversion numérique-analogique et amplificateur RF. L’évaluation est réalisée sur un QAM d’ordre élevé, i.e. 128QAM et 256QAM. Nous examinons la diminution en complexité de la LUT et son impact sur la performance. Finalement, nous examinons la généralisation de la méthode de précompensation proposée pour des jeux de données différents des données d’apprentissage de la table de consultation. / Optical communications based on silicon photonics (SiP) have become a focus of the recent research for future high speed optical network technologies. In this thesis, we investigate digital signal processing (DSP) approaches to combat the physical limits of SiP Mach-Zehnder modulators (MZM) driven at high baud rates and exploiting advanced modulation formats with coherent detection. In the first section, we present a novel adaptive pre-compensation method known as gain based iterative learning control (G-ILC, previously used in RF amplifier linearization) to overcome nonlinear distortions. We experimentally evaluate the G-ILC technique. Adaptation of the G-ILC, in combination with linear digital pre-compensation, is accomplished with a quasireal- time hardware-in-the-loop procedure. We examine various orders of quadrature amplitude modulation (QAM), i.e., 16QAM to 256QAM, and symbol rates, i.e., 20 to 60 Gbaud. Furthermore, we exploit joint digital and optical linear pre-compensation to overcome the bandwidth limitation of the system in the higher baud rate regime. In the second section, inspired by lower symbol rate G-ILC results, we push the baud rate beyond the bandwidth limit of the SiP system. For the first time, we experimentally report record-breaking 16QAM and 32QAM at 100 Gbaud in dual polarization back-to-back transmission. The optimization is performed on both MZM operating point and DSP. The G-ILC performance is improved by employing linear multiple input multiple output (MIMO) equalization during the adaptation. We combine our innovative nonlinear pre-compensation with post-compensation as well. Via dual polarization emulation, we achieve a net rate of 833 Gb/s with 32QAM at the forward error correction (FEC) threshold for 20% overhead and 747 Gb/s with 16QAM (7% FEC overhead). In the third section, we experimentally present a digital pre-compensation algorithm based on a one-dimensional lookup table (LUT) to compensate the nonlinearity introduced at the transmitter, e.g., nonlinear frequency response of the SiP MZM, digital to analog converter and RF amplifier. The evaluation is performed on higher order QAM, i.e., 128QAM and 256QAM. We examine reduction of LUT complexity and its impact on performance. Finally, we examine the generalization of the proposed pre-compensation method to data sets other than the original training set for the LUT.
223

Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application a l'épilepsie

Hofmanis, Janis 20 November 2013 (has links) (PDF)
La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales : la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode. La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone epileptogénique employant la stimulation electrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes : - Création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés ; - Extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG : 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase. - Localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalorachidien et de l'os. - Discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient. - Comparaison entre les résultats générés par les modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme. - Validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées.
224

Fusion d'images en télédétection satellitaire

Chikr El-Mezouar, Miloud 10 December 2012 (has links) (PDF)
Les satellites d'observation de la Terre fournissent des données multi-spectrales et panchromatiques ayant différentes résolutions spatiales, spectrales, temporelles, et radiométriques. La fusion d'une image panchromatique ayant une haute résolution spatiale, mais une basse résolution spectrale avec une image multi-spectrale ayant une basse résolution spatiale mais une haute résolution spectrale est très utile dans de nombreuses applications de télédétection nécessitant à la fois de hautes résolutions spatiales et spectrales. Dans l'image fusionnée les structures et les objets sont bien rehaussés et la classification de ces objets devient plus précise. Ces techniques de traitement d'image sont connues sous le nom de pansharpening ou techniques de fusion de résolutions. Dans cette thèse, trois algorithmes sont proposés pour la fusion dont deux dans la catégorie de substitution de composantes où nos principales contributions consistent à utiliser la transformée IHS et à rehausser la bande verte dans les zones de végétation. Dans le premier algorithme, la végétation est détectée en utilisant l'indice NDVI et le rehaussement de la végétation est effectué avant le processus de fusion. En revanche, pour le second algorithme le rehaussement de la végétation se fait après le processus de fusion et la végétation est délimitée à l'aide d'un nouvel indice (HRNDVI) proposé pour des images de hautes résolutions. HRNDVI est utilisé dans l'extraction de la végétation, même dans le cas complexe des zones urbaines où la végétation est dispersée. Ainsi, en utilisant HRNDVI, une nouvelle méthode a été proposée et testée pour extraire la végétation. Le troisième algorithme de pansharpening est inclus dans la catégorie multi-résolution basée sur la transformée NSCT. L'amélioration des résultats est assurée par l'utilisation d'un nombre de niveaux de décomposition réduit pour les images multi-spectrales et un nombre plus élevé de niveaux de décomposition pour l'image panchromatique. Cette stratégie permet d'aboutir à des résultats visuels et quantitatifs satisfaisants. En outre, la contribution de la thèse se trouve aussi dans l'évaluation de la qualité des images fusionnées. C'est ainsi qu'un nouveau protocole pour l'évaluation de la qualité est proposé. En fonction de l'application visée, il peut être réglé pour favoriser la qualité spectrale ou spatiale.
225

Indexation des émotions dans les documents audiovisuels à partir de la modalité auditive

Lê, Xuân Hùng 01 July 2009 (has links) (PDF)
Cette thèse concerne la détection des émotions dans les énoncés audio multi-lingues. Une des applications envisagées est l'indexation des états émotionnels dans les documents audio-visuels en vue de leur recherche par le contenu. Notre travail commence par l'étude de l'émotion et des modèles de représentation de celle-ci : modèles discrets, continus et hybride. Dans la suite des travaux, seul le modèle discret sera utilisé pour des raisons pratiques d'évaluation mais aussi parce qu'il est plus facilement utilisable dans les applications visées. Un état de l'art sur les différentes approches utilisées pour la reconnaissance des émotions est ensuite présenté. Le problème de la production de corpus annoté pour l'entraînement et l'évaluation des systèmes de reconnaissance de l'état émotionnel est également abordé et un panorama des corpus disponibles est effectué. Une des difficultés sur ce point est d'obtenir des corpus réalistes pour les applications envisagées. Afin d'obtenir des données plus spontanées et dans des langues plus variées, deux corpus ont été créés à partir de films cinématographiques, l'un en Anglais, l'autre en Vietnamien. La suite des travaux se décompose en quatre parties : études et recherche des meilleurs paramètres pour représenter le signal acoustique pour la reconnaissance des émotions dans celui-ci, étude et recherche des meilleurs modèles et systèmes de classification pour ce même problème, expérimentation sur la reconnaissance des émotions inter-langues, et enfin production d'un corpus annoté en vietnamien et évaluation de la reconnaissance des émotions dans cette langue qui a la particularité d'être tonale. Dans les deux premières études, les cas mono-locuteur, multi-locuteur et indépendant du locuteur ont été considérés. La recherche des meilleurs paramètres a été effectuée sur un ensemble large de paramètres locaux et globaux classiquement utilisés en traitement automatique de la parole ainsi que sur des dérivations de ceux-ci. Une approche basée sur la sélection séquentielle forcée avant a été utilisée pour le choix optimal des combinaisons de paramètres acoustiques. La même approche peut être utilisée sur des types de données différents bien que le résultat final dépende du type considéré. Parmi, les MFCC, LFCC, LPC, la fréquence fondamentale, l'intensité, le débit phonétique et d'autres coefficients extraits du domaine temporel, les paramètres de type MFCC ont donné les meilleurs résultats dans les cas considérés. Une approche de normalisation symbolique a permis d'améliorer les performances dans le cas indépendant du locuteur. Pour la recherche du meilleur modèle et système de classification associé, une approche d'élimination successive selon des cas de complexité croissante (mono-locuteur, multi-locuteur et indépendant du locuteur) a été utilisée. Les modèle GMM, HMM, SVM et VQ (quantification vectorielle) on été étudiés. Le modèle GMM est celui qui donne les meilleurs résultats sur les données considérées. Les expérimentations inter-langue (Allemand et Danois) ont montré que les méthodes développées fonctionnent bien d'une langue à une autre mais qu'une optimisation des paramètres spécifique pour chaque langue ou chaque type de données est nécessaire pour obtenir les meilleurs résultats. Ces langues sont toutefois des langues non tonales. Des essais avec le corpus créé en Vietnamien ont montré une beaucoup moins bonne généralisation dans ce cas. Cela peut être du au fait que le Vietnamien est une langue tonale mais cela peut aussi être dû à la différence entre les conditions de création des corpus : acté dans les premiers cas et plus spontané pour le Vietnamien.
226

Ultrasound contrast imaging with multi-pulse transmission

Lin, Fanglue 14 November 2013 (has links) (PDF)
In ultrasound imaging domain, nonlinear imaging has become an important branch. Nonlinear imaging can be divided into tissue harmonic imaging and contrast harmonic imaging, according to where the nonlinear signals come from. Contrast harmonic imaging emerges because contrast agents, which are intravenously injected to enhance the weak echoes backscattered from blood cells, can vibrate nonlinearly when they undergo an acoustic pressure. Then, these nonlinear signals backscattered by contrast agents are collected to form harmonic images. However, during the wave propagation in tissue, the harmonics of the transmitted wave are also generated in tissue. The presence of tissue harmonic signals degrades the image quality in contrast harmonic imaging. This thesis aims to better distinguish the echoes from contrast agents and the echoes from tissue, whether through designing new modalities, or investigating and optimizing the existing modalities. Our efforts are mainly focused on the multi-pulse techniques in ultrasound contrast imaging. Firstly, we propose a mathematical background to generalize most of the multi-pulse ultrasound imaging techniques that have been described in previous literatures. The formulation can be used to predict the nonlinear components in each frequency band and to design new transmission sequences to either increase or decrease specified nonlinear components in each harmonic band. Simulation results on several multi-pulse techniques are in agreement with the results given in previous literatures. Secondly, the techniques using multiple transmissions to increase the CTR are generally based on the response of static scatterers inside the imaged region. However, scatterer motion, for example in blood vessels, has an inevitable influence on the relevance of the techniques. It can either upgrade or degrade the technique involved. Simulations, in-vitro experiments from a single bubble and clouds of bubbles, and in-vivo experiments from rats show that the phase shift of the echoes backscattered from bubbles is dependent on the transmissions' phase shift, and that the bubble motion influences the efficiency of multi-pulse techniques. Furthermore, experimental results based on the second-harmonic inversion (SHI) technique reveal that bubble motion can be taken into account to optimize multi-pulse techniques. Besides, a new technique, called double pulse inversion (DPI), has also been proposed. The PI technique is applied twice before and after the arrival of the contrast agents to the region of interest. The resulting PI signals are substracted to suppress the tissue-generated harmonics and to improve CTR. Simulations and in-vitro experimental results have shown an improved CTR of DPI. However, the presence of tissue movements may hamper the effectiveness of this technique. In-vivo experimental results confirm that the tissue motion of the rat during the acquisition is an inevitable barrier of this technique.
227

Management d'opérateurs communs dans les architectures de terminaux multistandards.

Naoues, Malek 26 November 2013 (has links) (PDF)
Les équipements de communications numériques intègrent de plus en plus de standards. La commutation d'un standard à l'autre doit pouvoir se faire au prix d'un surcoût matériel modéré, ce qui impose l'utilisation de ressources communes dans des instanciations différentes. La plateforme matérielle nécessaire à l'exécution d'une couche physique multistandard est le segment du système présentant le plus de contraintes par rapport à la reconfiguration : réactivité, consommation et occupation de ressources matérielles. Nos travaux se focalisent sur la paramétrisation qui vise une implémentation multistandards efficace. L'objectif de cette technique est d'identifier des traitements communs entre les standards, voire entre blocs de traitement au sein d'un même standard, afin de définir des blocs génériques pouvant être réutilisés facilement. Nous définissons le management d'opérateurs mutualisés (opérateurs communs) et nous étudions leur implémentation en se basant essentiellement sur des évaluations de complexité pour quelques standards utilisant la modulation OFDM. Nous proposons en particulier l'architecture d'un opérateur commun permettant la gestion efficace des ressources matérielles entre les algorithmes FFT et décodage de Viterbi. L'architecture, que nous avons proposé et implémenté sur FPGA, permet d'adapter le nombre d'opérateurs communs alloués à chaque algorithme et donc permet l'accélération des traitements. Les résultats montrent que l'utilisation de cette architecture commune offre des gains en complexité pouvant atteindre 30% dans les configurations testées par rapport à une implémentation classique avec une réduction importante de l'occupation mémoire.
228

Estimation et détection conjointe pour la fusion d'informations

Reboul, Serge 21 May 2014 (has links) (PDF)
La détection des changements ou ruptures dans les paramètres de la distribution statistique d'une série temporelle est un problème de recherche en traitement du signal qui trouve des applications dans de nombreux domaines comme le traitement des signaux GNSS. Le projet scientifique développé dans mon mémoire d'habilitation à diriger des recherches concerne l'étude des méthodes d'estimation et de détection conjointe de ruptures pour la fusion d'informations. Les approches proposées dans ce cadre sont utilisées dans différentes applications comme l'estimation des paramètres du vecteur vent, le traitement des signaux GNSS et le filtrage des mesures fournies par les capteurs inertiels. L'objectif de la fusion est d'utiliser les informations ou mesures fournies par différents capteurs pour avoir une meilleure connaissance du paramètre à estimer. Nous avons donc proposé dans ce travail plusieurs méthodes d'estimation et de détection conjointe de rupture qui fusionnent les informations fournies par des capteurs. Le but étant d'améliorer les performances des opérateurs en termes de détection, de localisation et d'estimation de la dynamique des ruptures. Les approches proposées dans un cadre bayésien s'appuient sur la définition de la distribution a posteriori des paramètres à estimer sachant les mesures multi-capteurs. Un des apports de nos travaux dans ce domaine est de proposer un ensemble de filtres définis dans le domaine circulaire avec la distribution de von Mises. Un autre apport est de proposer une loi a priori qui modélise le comportement mutuel entre plusieurs processus dans le cas de la segmentation multi-ruptures hors ligne de signaux multi-capteurs. Ce travail a principalement été appliqué au géo positionnement et plus particulièrement au traitement de la phase et du code des signaux GNSS multi-porteuses. Nous avons montré par des expérimentations sur signaux réels que les méthodes proposées permettent d'obtenir une localisation centimétrique à la milliseconde d'un récepteur ayant un mouvement de forte dynamique. Aujourd'hui les perspectives de ce travail sont dans le traitement des signaux de réflectométrie GNSS et de géolocalisation sous-marine. En effet pour ces applications les signaux sont fortement atténués et déformés par le milieu de propagation, ce qui constitue un nouvel enjeu pour les méthodes de fusion d'informations en traitement du signal.
229

Sécurisation des smart cards par masquage de signal informationnel sur canal secondaire

Chaillan, Fabien 13 December 2006 (has links) (PDF)
Les cartes à puce, mondialement appelées Smart Cards, sont de véritables ordinateurs embarqués dont le but est d'effectuer des opérations de cryptographie et de stocker des données confidentielles, telles que des sommes d'argent, des informations biométriques, des droits d'accès. Il n'est donc pas étonnant que les pirates tentent de s'accaparer ces données, par des failles où la carte laisse fuir des informations capitales, appelées canaux secondaires. Le but de cette thèse est de concevoir des techniques de traitement du signal de masquage de signaux de consommation de courant. Un premier chapitre introductif présente l'univers de la carte à puce ainsi que les enjeux de sa sécurisation. Cela permet de fixer l'objectif à atteindre qui est de concevoir des techniques de masquage des signaux compatibles avec la technologie Smart Card. Le second chapitre présente l'étude et la caractérisation statistique d'un système dynamique chaotique servant à la genèse de nombres pseudo-aléatoires. Le chapitre suivant présente la méthode de masquage par décomposition des signaux, consistant à remplacer les échantillons du signal à masquer par les coefficients de son développement de Karhunen-Loève. Enfin, un dernier chapitre présente une autre technique de masquage des signaux où le modèle utilisé pour la consommation de courant est paramétrique. Le paramètre est estimé selon le critère du maximum de vraisemblance par une technique originale basée sur le couplage du filtrage adapté stochastique utilisé en détection avec l'algorithme Expectation-Maximization. Toutes les techniques sont validées à l'aide de signaux réels.
230

Accurate 3D Shape and Displacement Measurement using a Scanning Electron Microscope

Cornille, Nicolas 20 June 2005 (has links) (PDF)
Avec le développement actuel des nano-technologies, la demande en matière d'étude du comportement des matériaux à des échelles micro ou nanoscopique ne cesse d'augmenter. Pour la mesure de forme ou de déformation tridimensionnelles à ces échelles de grandeur, l'acquisition d'images à partir d'un Microscope Électronique à Balayage (MEB) couplée à l'analyse par corrélation d'images numériques s'est avérée une technique intéressante. Cependant, un MEB est un outil conçu essentiellement pour de la visualisation et son utilisation pour des mesures tridimensionnelles précises pose un certain nombre de difficultés comme par exemple le calibrage du système et la correction des fortes distorsions (spatiales et temporelles) présentes dans les images. De plus, le MEB ne possède qu'un seul capteur et les informations tridimensionnelles souhaitées ne peuvent pas être obtenues par une approche classique de type stéréovision. Cependant, l'échantillon à analyser étant monté sur un support orientable, des images peuvent être acquises sous différents points de vue, ce qui permet une reconstruction tridimensionnelle en utilisant le principe de vidéogrammétrie pour retrouver à partir des seules images les mouvements inconnus du porte-échantillon.<br /><br />La thèse met l'accent sur la nouvelle technique de calibrage et de correction des distorsions développée car c'est une contribution majeure pour la précision de la mesure de forme et de déformations 3D aux échelles de grandeur étudiées. Elle prouve que, contrairement aux travaux précédents, la prise en compte de la dérive temporelle et des distorsions spatiales d'images est indispensable pour obtenir une précision de mesure suffisante. Les principes permettant la mesure de forme par vidéogrammétrie et le calcul de déformations 2D et 3D sont aussi présentés en détails. Dans le but de valider nos travaux et démontrer en particulier la précision de mesure obtenue, des résultats expérimentaux issus de différentes applications sont présentés tout au long de la thèse. Enfin, un logiciel rassemblant différentes applications de vision par ordinateur a été developpé.

Page generated in 0.0342 seconds