Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
221 |
Développement d'une technique numérique d'autocorrélation d'intensité pour la recherche de minilentilles gravitationnelles dans le radio et de faibles variations temporelles rapidesTrottier, Éric 05 July 2018 (has links)
Pour la première fois, on propose d’appliquer une technique numérique d’autocorrélation d’intensité pour rechercher des minilentilles gravitationnelles dans des observations radio de noyaux actifs de galaxies (NAGs), et aussi pour trouver de faibles variations temporelles rapides. Essentiellement, la technique consiste à détecter un signal (délai temporel) cosmique (ou artificiel) à partir des fluctuations temporelles d’intensité. La programmation des algorithmes est codée en Matlab sur un microordinateur et en C++ pour le traitement en parallèle multi-cœur sur un superordinateur. On valide la technique et les logiciels développés en montrant la détection de faibles signaux artificiels périodiques et non périodiques. On pourrait aussi trouver des variations temporelles très rapides puisque les données radioastronomiques interférométriques sont échantillonnées sur de très courts laps de temps (ex., 15.625 ns). Enfin, des simulations numériques permettent d’évaluer l’efficacité de détection de notre technique innovatrice. La transformée de Fourier (TF) peut aussi détecter des signaux périodiques. Cependant, l’autocorrélation d’intensité a l’avantage majeur de détecter des signaux non périodiques, alors que la TF ne le peut pas. De plus, notre technique permet de visualiser directement la forme des signaux, tandis qu’il est très difficile de voir la forme avec la transformée de Fourier. Une nouveauté de la démonstration de notre technique est qu’on utilise des données prises par des radiointerféromètres (ex., NRAO) déjà existants dans un format standard (ex., Mark 5B), de sorte que l’on n’a pas besoin d’instrumentation spécialisée. On a analysé 22 objets. Aucun signal cosmique n’a été détecté pendant les dix minutes d’observation VLBA du NRAO de chaque objet. À partir du résultat nul obtenu et d’une analyse statistique simplifiée par la binomiale, on a fait un estimé approximatif du paramètre actuel de densité cosmique de minilentilles compactes non-baryoniques, noté Ωl, 0, uniformément distribuées dans l’intervalle de masse, 10 – 107 masses solaires, lequel correspond à des délais de ~1 ms à ~600 s. Pour le modèle plat (actuellement favorisé) avec constante cosmologique λ0 = 0.7 (Ω0 = 0.3), la limite estimée est Ωl, 0 ≤ 0.2 – 0.3. Vu le faible échantillon-test, n = 22, les incertitudes (intervalles de confiance) obtenues sont trop élevées pour fixer une contrainte statistiquement significative: statistique de petit nombre. / For the first time, we propose to apply a digital autocorrelation of intensity technique to gravitational minilensing in active galactic nuclei (AGNs) radio observations, and also to search weak rapid time variations. Essentially, the technique consists of detecting a cosmic (or artificial) signal (time delay) using intensity fluctuations as a function of time. The programming algorithm is coded in Matlab on a microcomputer and in C++ for multi-core parallel processing on a supercomputer. We validate the technique and softwares by showing weak periodic and non-periodic artificial signals detections. We could also find very fast time variations because radioastronomical interferometric data are sampled over very short times (e.g., 15.625 ns). Finally, numerical simulations make it possible to evaluate the detection efficiency of our innovative technique. The Fourier transform (FT) can also detect periodic signals. However, the main advantage of the autocorrelation of intensity is that it can detect non-periodic signals, while the FT cannot detect these non-periodic signals. Moreover, our technique allows a direct visualization of the shape of the signals, while it is very difficult to see the shape with a Fourier Transform. A novelty of the demonstration of our technique is that we use data taken with existing radio-interferometers (e.g., NRAO) in a standard format (e.g., Mark 5B) and therefore no specialized instrumentation is needed. We analyzed 22 objects. No signal has been detected for the ten minutes of VLBA of the NRAO observation for each object. From the null result obtained and a simplified statistical analysis by the binomial, we made a rough estimate of the present cosmic density parameter of non-baryonic compact minilenses, named Ωl, 0, uniformly distributed in the mass range, 10 – 107 solar masses, corresponding to delays of ~1 ms to ~600 s. For a flat model (currently favored) with cosmological constant λ0 = 0.7 and with Ω0 = 0.3, the estimated limit is Ωl, 0 ≤ 0.2 – 0.3. Given the low test sample, n = 22, the uncertainties (confidence intervals) obtained are too high to set a statistically significant constraint: small number statistics.
|
222 |
Égalisation aveugle et turbo égalisation dans les canaux sélectifs en fréquence invariants et variants dans le tempsBerdai, Abdellah 11 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Nous étudions à travers ce travail de recherche les méthodes d'égalisation entraînée et aveugle dans les canaux de communications sélectifs en fréquence invariants et variants dans le temps. Ces méthodes d'égalisation trouvent leur place dans un grand nombre d'applications telles que les télécommunications sans fil, le traitement de la parole, etc. L'objectif de l'égalisation entraînée est d'identifier les données émises à partir des observations issues de l'antenne et des séquences d'apprentissage préalablement connues par le récepteur. Alors que l'égalisation aveugle consiste à identifier les données émises uniquement à partir des observations issues de l'antenne. Les méthodes aveugles n'ont donc connaissance a priori ni des signaux émis ni du canal de transmission. Dans le cadre de notre recherche, nous proposons trois modèles d'égalisation : deux modèles autodidactes (sans séquence d'apprentissage) pour l'égalisation dans les canaux sélectifs en fréquence et invariants, et un modèle entraîné (avec séquence d'apprentissage) pour l'égalisation dans les canaux sélectifs en fréquence et variants dans le temps. / In this research work, we study the blind and trained equalization methods over stationary and time varying frequency selective channels. These equalization methods find their place in a large number of applications such as wireless Systems, speech processing, etc. The objective of trained equalization is to identify the transmitted data from the received signals and from training sequences known beforehand by the receiver, whereas blind equalization identifies the transmitted data only from the received signals. Blind methods do not have a prior information about transmitted signals, nor the channel. Within the framework of our research, we propose three equalization models : two blind models (without training sequence) for the equalization over stationary frequency selective channels, and a trained model (with a training sequence) for the equalization over time varying frequency selective channels.
|
223 |
Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application a l'épilepsieHofmanis, Janis 20 November 2013 (has links) (PDF)
La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales : la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode. La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone epileptogénique employant la stimulation electrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes : - Création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés ; - Extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG : 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase. - Localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalorachidien et de l'os. - Discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient. - Comparaison entre les résultats générés par les modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme. - Validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées.
|
224 |
Fusion d'images en télédétection satellitaireChikr El-Mezouar, Miloud 10 December 2012 (has links) (PDF)
Les satellites d'observation de la Terre fournissent des données multi-spectrales et panchromatiques ayant différentes résolutions spatiales, spectrales, temporelles, et radiométriques. La fusion d'une image panchromatique ayant une haute résolution spatiale, mais une basse résolution spectrale avec une image multi-spectrale ayant une basse résolution spatiale mais une haute résolution spectrale est très utile dans de nombreuses applications de télédétection nécessitant à la fois de hautes résolutions spatiales et spectrales. Dans l'image fusionnée les structures et les objets sont bien rehaussés et la classification de ces objets devient plus précise. Ces techniques de traitement d'image sont connues sous le nom de pansharpening ou techniques de fusion de résolutions. Dans cette thèse, trois algorithmes sont proposés pour la fusion dont deux dans la catégorie de substitution de composantes où nos principales contributions consistent à utiliser la transformée IHS et à rehausser la bande verte dans les zones de végétation. Dans le premier algorithme, la végétation est détectée en utilisant l'indice NDVI et le rehaussement de la végétation est effectué avant le processus de fusion. En revanche, pour le second algorithme le rehaussement de la végétation se fait après le processus de fusion et la végétation est délimitée à l'aide d'un nouvel indice (HRNDVI) proposé pour des images de hautes résolutions. HRNDVI est utilisé dans l'extraction de la végétation, même dans le cas complexe des zones urbaines où la végétation est dispersée. Ainsi, en utilisant HRNDVI, une nouvelle méthode a été proposée et testée pour extraire la végétation. Le troisième algorithme de pansharpening est inclus dans la catégorie multi-résolution basée sur la transformée NSCT. L'amélioration des résultats est assurée par l'utilisation d'un nombre de niveaux de décomposition réduit pour les images multi-spectrales et un nombre plus élevé de niveaux de décomposition pour l'image panchromatique. Cette stratégie permet d'aboutir à des résultats visuels et quantitatifs satisfaisants. En outre, la contribution de la thèse se trouve aussi dans l'évaluation de la qualité des images fusionnées. C'est ainsi qu'un nouveau protocole pour l'évaluation de la qualité est proposé. En fonction de l'application visée, il peut être réglé pour favoriser la qualité spectrale ou spatiale.
|
225 |
Indexation des émotions dans les documents audiovisuels à partir de la modalité auditiveLê, Xuân Hùng 01 July 2009 (has links) (PDF)
Cette thèse concerne la détection des émotions dans les énoncés audio multi-lingues. Une des applications envisagées est l'indexation des états émotionnels dans les documents audio-visuels en vue de leur recherche par le contenu. Notre travail commence par l'étude de l'émotion et des modèles de représentation de celle-ci : modèles discrets, continus et hybride. Dans la suite des travaux, seul le modèle discret sera utilisé pour des raisons pratiques d'évaluation mais aussi parce qu'il est plus facilement utilisable dans les applications visées. Un état de l'art sur les différentes approches utilisées pour la reconnaissance des émotions est ensuite présenté. Le problème de la production de corpus annoté pour l'entraînement et l'évaluation des systèmes de reconnaissance de l'état émotionnel est également abordé et un panorama des corpus disponibles est effectué. Une des difficultés sur ce point est d'obtenir des corpus réalistes pour les applications envisagées. Afin d'obtenir des données plus spontanées et dans des langues plus variées, deux corpus ont été créés à partir de films cinématographiques, l'un en Anglais, l'autre en Vietnamien. La suite des travaux se décompose en quatre parties : études et recherche des meilleurs paramètres pour représenter le signal acoustique pour la reconnaissance des émotions dans celui-ci, étude et recherche des meilleurs modèles et systèmes de classification pour ce même problème, expérimentation sur la reconnaissance des émotions inter-langues, et enfin production d'un corpus annoté en vietnamien et évaluation de la reconnaissance des émotions dans cette langue qui a la particularité d'être tonale. Dans les deux premières études, les cas mono-locuteur, multi-locuteur et indépendant du locuteur ont été considérés. La recherche des meilleurs paramètres a été effectuée sur un ensemble large de paramètres locaux et globaux classiquement utilisés en traitement automatique de la parole ainsi que sur des dérivations de ceux-ci. Une approche basée sur la sélection séquentielle forcée avant a été utilisée pour le choix optimal des combinaisons de paramètres acoustiques. La même approche peut être utilisée sur des types de données différents bien que le résultat final dépende du type considéré. Parmi, les MFCC, LFCC, LPC, la fréquence fondamentale, l'intensité, le débit phonétique et d'autres coefficients extraits du domaine temporel, les paramètres de type MFCC ont donné les meilleurs résultats dans les cas considérés. Une approche de normalisation symbolique a permis d'améliorer les performances dans le cas indépendant du locuteur. Pour la recherche du meilleur modèle et système de classification associé, une approche d'élimination successive selon des cas de complexité croissante (mono-locuteur, multi-locuteur et indépendant du locuteur) a été utilisée. Les modèle GMM, HMM, SVM et VQ (quantification vectorielle) on été étudiés. Le modèle GMM est celui qui donne les meilleurs résultats sur les données considérées. Les expérimentations inter-langue (Allemand et Danois) ont montré que les méthodes développées fonctionnent bien d'une langue à une autre mais qu'une optimisation des paramètres spécifique pour chaque langue ou chaque type de données est nécessaire pour obtenir les meilleurs résultats. Ces langues sont toutefois des langues non tonales. Des essais avec le corpus créé en Vietnamien ont montré une beaucoup moins bonne généralisation dans ce cas. Cela peut être du au fait que le Vietnamien est une langue tonale mais cela peut aussi être dû à la différence entre les conditions de création des corpus : acté dans les premiers cas et plus spontané pour le Vietnamien.
|
226 |
Ultrasound contrast imaging with multi-pulse transmissionLin, Fanglue 14 November 2013 (has links) (PDF)
In ultrasound imaging domain, nonlinear imaging has become an important branch. Nonlinear imaging can be divided into tissue harmonic imaging and contrast harmonic imaging, according to where the nonlinear signals come from. Contrast harmonic imaging emerges because contrast agents, which are intravenously injected to enhance the weak echoes backscattered from blood cells, can vibrate nonlinearly when they undergo an acoustic pressure. Then, these nonlinear signals backscattered by contrast agents are collected to form harmonic images. However, during the wave propagation in tissue, the harmonics of the transmitted wave are also generated in tissue. The presence of tissue harmonic signals degrades the image quality in contrast harmonic imaging. This thesis aims to better distinguish the echoes from contrast agents and the echoes from tissue, whether through designing new modalities, or investigating and optimizing the existing modalities. Our efforts are mainly focused on the multi-pulse techniques in ultrasound contrast imaging. Firstly, we propose a mathematical background to generalize most of the multi-pulse ultrasound imaging techniques that have been described in previous literatures. The formulation can be used to predict the nonlinear components in each frequency band and to design new transmission sequences to either increase or decrease specified nonlinear components in each harmonic band. Simulation results on several multi-pulse techniques are in agreement with the results given in previous literatures. Secondly, the techniques using multiple transmissions to increase the CTR are generally based on the response of static scatterers inside the imaged region. However, scatterer motion, for example in blood vessels, has an inevitable influence on the relevance of the techniques. It can either upgrade or degrade the technique involved. Simulations, in-vitro experiments from a single bubble and clouds of bubbles, and in-vivo experiments from rats show that the phase shift of the echoes backscattered from bubbles is dependent on the transmissions' phase shift, and that the bubble motion influences the efficiency of multi-pulse techniques. Furthermore, experimental results based on the second-harmonic inversion (SHI) technique reveal that bubble motion can be taken into account to optimize multi-pulse techniques. Besides, a new technique, called double pulse inversion (DPI), has also been proposed. The PI technique is applied twice before and after the arrival of the contrast agents to the region of interest. The resulting PI signals are substracted to suppress the tissue-generated harmonics and to improve CTR. Simulations and in-vitro experimental results have shown an improved CTR of DPI. However, the presence of tissue movements may hamper the effectiveness of this technique. In-vivo experimental results confirm that the tissue motion of the rat during the acquisition is an inevitable barrier of this technique.
|
227 |
Management d'opérateurs communs dans les architectures de terminaux multistandards.Naoues, Malek 26 November 2013 (has links) (PDF)
Les équipements de communications numériques intègrent de plus en plus de standards. La commutation d'un standard à l'autre doit pouvoir se faire au prix d'un surcoût matériel modéré, ce qui impose l'utilisation de ressources communes dans des instanciations différentes. La plateforme matérielle nécessaire à l'exécution d'une couche physique multistandard est le segment du système présentant le plus de contraintes par rapport à la reconfiguration : réactivité, consommation et occupation de ressources matérielles. Nos travaux se focalisent sur la paramétrisation qui vise une implémentation multistandards efficace. L'objectif de cette technique est d'identifier des traitements communs entre les standards, voire entre blocs de traitement au sein d'un même standard, afin de définir des blocs génériques pouvant être réutilisés facilement. Nous définissons le management d'opérateurs mutualisés (opérateurs communs) et nous étudions leur implémentation en se basant essentiellement sur des évaluations de complexité pour quelques standards utilisant la modulation OFDM. Nous proposons en particulier l'architecture d'un opérateur commun permettant la gestion efficace des ressources matérielles entre les algorithmes FFT et décodage de Viterbi. L'architecture, que nous avons proposé et implémenté sur FPGA, permet d'adapter le nombre d'opérateurs communs alloués à chaque algorithme et donc permet l'accélération des traitements. Les résultats montrent que l'utilisation de cette architecture commune offre des gains en complexité pouvant atteindre 30% dans les configurations testées par rapport à une implémentation classique avec une réduction importante de l'occupation mémoire.
|
228 |
Estimation et détection conjointe pour la fusion d'informationsReboul, Serge 21 May 2014 (has links) (PDF)
La détection des changements ou ruptures dans les paramètres de la distribution statistique d'une série temporelle est un problème de recherche en traitement du signal qui trouve des applications dans de nombreux domaines comme le traitement des signaux GNSS. Le projet scientifique développé dans mon mémoire d'habilitation à diriger des recherches concerne l'étude des méthodes d'estimation et de détection conjointe de ruptures pour la fusion d'informations. Les approches proposées dans ce cadre sont utilisées dans différentes applications comme l'estimation des paramètres du vecteur vent, le traitement des signaux GNSS et le filtrage des mesures fournies par les capteurs inertiels. L'objectif de la fusion est d'utiliser les informations ou mesures fournies par différents capteurs pour avoir une meilleure connaissance du paramètre à estimer. Nous avons donc proposé dans ce travail plusieurs méthodes d'estimation et de détection conjointe de rupture qui fusionnent les informations fournies par des capteurs. Le but étant d'améliorer les performances des opérateurs en termes de détection, de localisation et d'estimation de la dynamique des ruptures. Les approches proposées dans un cadre bayésien s'appuient sur la définition de la distribution a posteriori des paramètres à estimer sachant les mesures multi-capteurs. Un des apports de nos travaux dans ce domaine est de proposer un ensemble de filtres définis dans le domaine circulaire avec la distribution de von Mises. Un autre apport est de proposer une loi a priori qui modélise le comportement mutuel entre plusieurs processus dans le cas de la segmentation multi-ruptures hors ligne de signaux multi-capteurs. Ce travail a principalement été appliqué au géo positionnement et plus particulièrement au traitement de la phase et du code des signaux GNSS multi-porteuses. Nous avons montré par des expérimentations sur signaux réels que les méthodes proposées permettent d'obtenir une localisation centimétrique à la milliseconde d'un récepteur ayant un mouvement de forte dynamique. Aujourd'hui les perspectives de ce travail sont dans le traitement des signaux de réflectométrie GNSS et de géolocalisation sous-marine. En effet pour ces applications les signaux sont fortement atténués et déformés par le milieu de propagation, ce qui constitue un nouvel enjeu pour les méthodes de fusion d'informations en traitement du signal.
|
229 |
Sécurisation des smart cards par masquage de signal informationnel sur canal secondaireChaillan, Fabien 13 December 2006 (has links) (PDF)
Les cartes à puce, mondialement appelées Smart Cards, sont de véritables ordinateurs embarqués dont le but est d'effectuer des opérations de cryptographie et de stocker des données confidentielles, telles que des sommes d'argent, des informations biométriques, des droits d'accès. Il n'est donc pas étonnant que les pirates tentent de s'accaparer ces données, par des failles où la carte laisse fuir des informations capitales, appelées canaux secondaires. Le but de cette thèse est de concevoir des techniques de traitement du signal de masquage de signaux de consommation de courant. Un premier chapitre introductif présente l'univers de la carte à puce ainsi que les enjeux de sa sécurisation. Cela permet de fixer l'objectif à atteindre qui est de concevoir des techniques de masquage des signaux compatibles avec la technologie Smart Card. Le second chapitre présente l'étude et la caractérisation statistique d'un système dynamique chaotique servant à la genèse de nombres pseudo-aléatoires. Le chapitre suivant présente la méthode de masquage par décomposition des signaux, consistant à remplacer les échantillons du signal à masquer par les coefficients de son développement de Karhunen-Loève. Enfin, un dernier chapitre présente une autre technique de masquage des signaux où le modèle utilisé pour la consommation de courant est paramétrique. Le paramètre est estimé selon le critère du maximum de vraisemblance par une technique originale basée sur le couplage du filtrage adapté stochastique utilisé en détection avec l'algorithme Expectation-Maximization. Toutes les techniques sont validées à l'aide de signaux réels.
|
230 |
Accurate 3D Shape and Displacement Measurement using a Scanning Electron MicroscopeCornille, Nicolas 20 June 2005 (has links) (PDF)
Avec le développement actuel des nano-technologies, la demande en matière d'étude du comportement des matériaux à des échelles micro ou nanoscopique ne cesse d'augmenter. Pour la mesure de forme ou de déformation tridimensionnelles à ces échelles de grandeur, l'acquisition d'images à partir d'un Microscope Électronique à Balayage (MEB) couplée à l'analyse par corrélation d'images numériques s'est avérée une technique intéressante. Cependant, un MEB est un outil conçu essentiellement pour de la visualisation et son utilisation pour des mesures tridimensionnelles précises pose un certain nombre de difficultés comme par exemple le calibrage du système et la correction des fortes distorsions (spatiales et temporelles) présentes dans les images. De plus, le MEB ne possède qu'un seul capteur et les informations tridimensionnelles souhaitées ne peuvent pas être obtenues par une approche classique de type stéréovision. Cependant, l'échantillon à analyser étant monté sur un support orientable, des images peuvent être acquises sous différents points de vue, ce qui permet une reconstruction tridimensionnelle en utilisant le principe de vidéogrammétrie pour retrouver à partir des seules images les mouvements inconnus du porte-échantillon.<br /><br />La thèse met l'accent sur la nouvelle technique de calibrage et de correction des distorsions développée car c'est une contribution majeure pour la précision de la mesure de forme et de déformations 3D aux échelles de grandeur étudiées. Elle prouve que, contrairement aux travaux précédents, la prise en compte de la dérive temporelle et des distorsions spatiales d'images est indispensable pour obtenir une précision de mesure suffisante. Les principes permettant la mesure de forme par vidéogrammétrie et le calcul de déformations 2D et 3D sont aussi présentés en détails. Dans le but de valider nos travaux et démontrer en particulier la précision de mesure obtenue, des résultats expérimentaux issus de différentes applications sont présentés tout au long de la thèse. Enfin, un logiciel rassemblant différentes applications de vision par ordinateur a été developpé.
|
Page generated in 0.1129 seconds