• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Acquisition et extraction d'information des images polarimétriques actives.

Bénière, Arnaud 26 October 2009 (has links) (PDF)
L'imagerie d'OSC ("Orthogonal State Contrast") est un mode d'imagerie polarimé- trique active qui consiste à illuminer la scène avec une lumière polarisée et à analyser le signal rétro-diffusé dans deux états de polarisation orthogonaux. Elle permet de mettre en évidence des contrastes qui ne sont pas présents dans les images d'intensité classiques. Les applications sont très nombreuses en télédétection, dans le domaine biomédical ou pour la vision à travers les milieux diffusants. L'objectif de cette thèse était de concevoir un instrument et de caractériser ses capacités en terme d'acquisition et de traitement de l'information. Nous avons réalisé et validé un système d'acquisition simple et robuste permettant de faire l'image simultanée des deux états de polarisation. Cette architecture permet d'atteindre des limites fondamentales fixées par le bruit de détecteur, le bruit de photons ou la non-uniformité spatiale et temporelle de l'illumination. Nous avons montré expérimentalement son apport pour l'imagerie de cibles mobiles ou à travers un milieu turbulent. Pour évaluer les capacités de ce mode d'imagerie, nous avons déterminé les algorithmes d'estimation et caractérisé leurs précisions en fonction du type de bruit prédominant grâce à la borne de Cramer-Rao. Dans un deuxième temps, nous avons étudié les performances de détection de cible en fonction de la non-uniformité de l'illumination. Enfin, d'une manière plus générale, nous nous sommes intéressés à la maximisation du contraste dans une image polarimétrique scalaire. Nous avons proposé une méthode d'optimisation conjointe des états de polarisation d'illumination et d'analyse qui présente des perspectives prometteuse pour l'amélioration des imageurs de Mueller.
192

Optimisation du contraste dans les images polarimétriques : étude théorique, algorithmes et validation expérimentale

Anna, Guillaume 02 October 2013 (has links) (PDF)
L'imagerie polarimétrique consiste à acquérir des images contenant des informations relatives à la polarisation de la lumière diffusée par une scène. L'objectif de cette thèse est d'utiliser les propriétés de ce type d'imagerie afin de d'améliorer le contraste entre plusieurs objets d'intérêt.Dans le cadre de l'optimisation du contraste entre deux objets d'intérêt, nous démontrons que, si l'on travaille à temps d'acquisition fixe, c'est l'acquisition d'une unique image avec des états d'illumination et d'analyse optimisés qui permet d'atteindre les meilleures performances. C'est pourquoi nous avons développé un imageur pouvant générer et analyser n'importe quel état de polarisation sur la sphère de Poincaré, en utilisant des cellules à cristaux liquides. Ces états peuvent être contrôlés afin de faire varier le contraste dans les images et nous montrons que les ''états optimaux" permettant de maximiser le contraste dépendent des conditions de mesure. En particulier, la valeur des états de polarisation maximisant le contraste entre deux objets d'intérêt dépend des bruits de mesure (bruit de détecteur, bruit de Poisson, Speckle) ainsi que des fluctuations spatiales des propriétés polarimétriques dans la scène. Une mauvaise estimation de la source de bruit peut donc amener à une perte significative de contraste.Nous nous intéressons ensuite à un scénario d'imagerie plus complexe où la scène peut être illuminée de manière non-uniforme. Nous proposons une méthode d'acquisition utilisant l'ensemble des degrés de liberté fournis par notre imageur et montrons que cette méthode permet d'augmenter significativement le contraste par rapport aux résultats obtenus avec d'autres types d'imagerie comme l'imagerie OSC (Orthogonal State Contrast).Nous étendons ensuite nos études à un cas ''multicibles" où plus de deux objets doivent être distingués. Nous montrons notamment que l'accroissement du nombre d'images peut dégrader le contraste et qu'il existe un nombre optimal d'images à acquérir si l'on travaille à temps d'acquisition fixe.Enfin, nous proposons une méthode visant à automatiser notre imageur pour l'optimisation du contraste en combinant de manière itérative l'acquisition d'images polarimétriques optimisées et un algorithme de segmentation par contours actifs statistiques. Des premiers résultats expérimentaux mettent en évidence l'avantage de cette intégration d'algorithmes de traitement numérique au c\oe ur du processus d'acquisition de l'image.
193

Analyse multiéchelle d'images radar: Application au filtrage, à la classification et à la fusion d'images radar et optiques

Foucher, Samuel, January 2001 (has links)
Thèses (Ph.D.)--Université de Sherbrooke (Canada), 2001. / Titre de l'écran-titre (visionné le 18 juillet 2006). Publié aussi en version papier.
194

Étude et réalisation d'un extracteur rapide de caractéristiques d'image vidéo.

Rakhodai, Issa, January 1900 (has links)
Th. doct.-ing.--Électronique, électrotechn., autom.--Toulouse--I.N.P., 1979. N°: 68.
195

Caractérisation et modélisation hydrodynamique des karsts par réseaux de neurones : application à l'hydrosystème du Lez / Characterization and hydrodynamic modeling of karsts by neural networks : application to the Lez hydrosystem

Taver, Virgile 16 December 2014 (has links)
La connaissance du fonctionnement hydrodynamique des karsts représente un enjeu planétaire pour la ressource en eau car ils alimentent en eau potable près de 25% de la population mondiale. Néanmoins, la complexité, l'anisotropie, l'hétérogénéité, la non-linéarité et l'éventuelle non-stationnarité de ces aquifères en font des objets encore largement sous-exploités du fait de la difficulté de caractériser leur morphologie et leur fonctionnement hydrodynamique. Dans ce contexte, le paradigme systémique permet d'apporter de nouvelles méthodes en étudiant ces hydrosystèmes au travers de la relation entre leurs signaux d'entrée (pluie) et de sortie (débit). Ainsi ce travail porte sur l'utilisation : i) d'analyses corrélatoires et spectrales pour caractériser la réponse des hydrosystèmes karstiques, ii) des réseaux de neurones pour étudier les relations linéaires et non-linéaires de ces hydrosystèmes. Pour ce faire, différents types de configuration de modèles par réseau de neurones sont explorés afin de comparer le comportement et les performances de ces modèles. On cherche à contraindre ces modèles pour les rendre interprétables en terme de processus hydrodynamiques en rapprochant le fonctionnement du modèle à celui du système naturel afin d'obtenir une bonne représentation et d'extraire des connaissances à partir des paramètres du modèle.Les résultats obtenus par les analyses corrélatoires et spectrales permettent d'orienter la configuration des modèles de réseaux de neurones. Appliqués à l'hydrosystème du Lez sur la période 1950-1967, les résultats montrent que les réseaux de neurones sont à même de modéliser les hydrosystèmes au fonctionnement non-linéaires. L'utilisation de deux hydrosystèmes variant dans le temps (la Durance en France et Fernow aux USA) tend à souligner la capacité des réseaux de neurones à modéliser efficacement les systèmes non stationnaires. Des méthodes d'ajustement en temps réel (adaptativité et assimilation de données) permettent d'accroître les performances des modèles par apprentissage statistique face à des modifications des entrées ou du système lui-même.Finalement, ces différentes méthodes d'analyse et de modélisation permettent d'améliorer la connaissance de la relation pluie-débit. Les outils méthodologiques réalisés dans cette thèse ont pu être développés à partir de l'application à l'hydrosystème du Lez dont le fonctionnement est étudié depuis des décennies. Cette méthodologie d'étude et de modélisation présente l'avantage d'être transposable à d'autres systèmes. / Improving knowledge of karst hydrodynamics represents a global challenge for water resource because karst aquifers provide approximately 25% of the world population in fresh water. Nevertheless, complexity, anisotropy, heterogeneity, non-linearity and possible non-stationarity of these aquifers makes them underexploited objects due to the difficulty to characterize their morphology and hydrodynamics. In this context, the systemic paradigm proposes others methods by studying these hydrosystems through input-output (rainfall-runoff) relations.This work covers the use of: i) correlation and spectral analysis to characterize response of karst aquifers, ii) neural networks to study and model linear and non-linear relations of these hydrosystems. In order to achieve this, different types of neural networks model configurations are explored to compare behavior and performances of these models. We are looking to constrain these models to make them interpretable in terms of hydrodynamic processes by making the operation of the model closer to the natural system in order to obtain a good representation and extract knowledge from the model parameters.The results obtained by correlation and spectral analysis are used to manage the configuration of neural networks models. Applied on the Lez hydrosystem over the period 1950-1967, results show that neural networks models are capable to model non-linear operation of the karst.Application of neural modelling on two non stationary hydrosystems (Durance in France and Fernow in the the USA) proved the ability of neural networks to model satisfactorily non-stationary conditions. Moreover, two real-time adjustment methods (adaptativity and data assimilation) enhanced the performance of neural network models face to changing conditions of the inputs or of the system itself.Finally, these various methods to analyze and model allow improving knowledge of the rainfall-runoff relationship. Methodological tools developed in this thesis were developed thanks to the application on Lez hydrosystem which has been studied for decades. This study and modeling methodology have the advantage of being applicable to other systems provided the availability of a sufficient database.
196

Apprentissage supervisé d’une représentation multi-couches à base de dictionnaires pour la classification d’images et de vidéos / Supervised Multi-layer Dictionary learning for image and video classification

Chan wai tim, Stefen 17 November 2016 (has links)
Ces dernières années, de nombreux travaux ont été publiés sur l'encodage parcimonieux et l'apprentissage de dictionnaires. Leur utilisation s'est initialement développée dans des applications de reconstruction et de restauration d'images. Plus récemment, des recherches ont été réalisées sur l'utilisation des dictionnaires pour des tâches de classification en raison de la capacité de ces méthodes à chercher des motifs sous-jacents dans les images et de bons résultats ont été obtenus dans certaines conditions : objet d'intérêt centré, de même taille, même point de vue. Cependant, hors de ce cadre restrictif, les résultats sont plus mitigés. Dans cette thèse, nous nous intéressons à la recherche de dictionnaires adaptés à la classification. Les méthodes d'apprentissage classiquement utilisées pour les dictionnaires s'appuient sur des algorithmes d'apprentissage non supervisé. Nous allons étudier ici un moyen d'effectuer l'apprentissage de dictionnaires de manière supervisée. Dans l'objectif de pousser encore plus loin le caractère discriminant des codes obtenus par les dictionnaires proposés, nous introduisons également une architecture multicouche de dictionnaires. L'architecture proposée s'appuie sur la description locale d'une image en entrée et sa transformation grâce à une succession d'encodage et de traitements, et fournit en sortie un ensemble de descripteurs adaptés à la classification. La méthode d'apprentissage que nous avons développé est basée sur l'algorithme de rétro-propagation du gradient permettant un apprentissage coordonné des différents dictionnaires et une optimisation uniquement par rapport à un coût de classification. L’architecture proposée a été testée sur les bases de données d’images MNIST, CIFAR-10 et STL-10 avec de bons résultats par rapport aux autres méthodes basées sur l’utilisation de dictionnaires. La structure proposée peut être étendue à l’analyse de vidéos. / In the recent years, numerous works have been published on dictionary learning and sparse coding. They were initially used in image reconstruction and image restoration tasks. Recently, researches were interested in the use of dictionaries for classification tasks because of their capability to represent underlying patterns in images. Good results have been obtained in specific conditions: centered objects of interest, homogeneous sizes and points of view.However, without these constraints, the performances are dropping.In this thesis, we are interested in finding good dictionaries for classification.The learning methods classically used for dictionaries rely on unsupervised learning. Here, we are going to study how to perform supervised dictionary learning.In order to push the performances further, we introduce a multilayer architecture for dictionaries. The proposed architecture is based on the local description of an input image and its transformation thanks to a succession of encoding and processing steps. It outputs a vector of features effective for classification.The learning method we developed is based on the backpropagation algorithm which allows a joint learning of the different dictionaries and an optimization solely with respect to the classification cost.The proposed architecture has been tested on MNIST, CIFAR-10 and STL-10 datasets with good results compared to other dicitonary-based methods. The proposed architecture can be extended to video analysis.
197

Imagerie grand champ en anatomopathologie / Wide-field histopathology imaging

Morel, Sophie 28 November 2016 (has links)
L’objectif de cette thèse a été de développer une méthode simple et rapide (35 minutes) d'imagerie afin d’enregistrer des images grand champ (jusqu’à 2,5 cm x 2,5 cm) et multi-échelles (µm-cm) de lames de tissus colorés et non colorés en anatomopathologie.La solution proposée est basée sur l’imagerie sans lentille. C’est une méthode simple, bas coût, qui permet d’enregistrer des images grand champ (10-30 mm²) d’objets épars, comme des virus, des bactéries ou des cellules. Dans ces travaux, nous montrons qu’il est possible d'obtenir en imagerie sans lentille des images d'objets denses tels que des lames de tissus colorés ou non marqués. Pour ce faire, l’échantillon est illuminé sous différentes longueurs d’onde, et un nouvel algorithme de reconstruction holographique multi-longueurs d’onde permet de reconstruire le module et la phase d’objets denses. Chaque image est reconstruite en 1,1 seconde couvrant un champ de 10 mm². Une image totale de la lame de tissu, couvrant un champ de 6,25 cm², est obtenue en 35 minutes en scannant l’échantillon au-dessus du capteur. Les images reconstruites sont multi-échelles, permettant à l’utilisateur d’observer en une seule fois la structure générale du tissu, et de zoomer jusqu’à la cellule individuelle (3-4 µm). La méthode a été testée sur différents échantillons anatomopathologiques colorés et non colorés. Au-delà des lames de tissus, l’imagerie sans lentille multi-longueurs d’onde montre des résultats encourageants pour le diagnostic de la méningite, le suivi au cours du temps d’une population bactérienne pour l’identification et la réalisation d’antibiogrammes, et le suivi au cours du temps de cultures cellulaires. / This PhD project aims to develop a simple, fast (35 minutes), wide-field (up to 2.5 cm x 2.5 cm) multiscale (µm-cm) imaging method for stained and unstained tissue slides for digital pathology application. We present a solution based on lensfree imaging. It is a simple, low-cost technique that enables wide field imaging (10-30 mm²) of sparse objects, like viruses, bacteria or cells. In this project, we adapted lensfree imaging for dense objects observation, like stained or unstained tissue slides. The sample is illuminated under multiple illumination wavelengths, and a new multiwavelength holographic reconstruction algorithm was developed in order to reconstruct the modulus and phase of dense objects. Each image covers 10 mm² field of view, and is reconstructed in 1.1 second. An image of the whole tissue slide covers 6.25 cm². It is recorded in 35 minutes by scanning the sample over the sensor. The reconstructed images are multiscale, allowing the user to observe the overall tissue structure and to zoom down to the single cell level (3-4 µm). The method was tested on various stained and unstained pathology samples. Besides tissue slides, multiwavelength lensfree imaging shows encouraging results for meningitis diagnosis, bacteria population monitoring for identification and antibiotic susceptibility testing, and cell culture monitoring.
198

Échantillonnage Non Uniforme : Application aux filtrages et aux conversions CAN/CNA (Convertisseurs Analogique-Numérique et Numérique/Analogique) dans les télécommunications par satellite / Non Uniform Sampling : Application to filtering and ADC/DAC conversions (Analog-to-Digital and Digital-to-Analog) in the telecommunications by satellite

Vernhes, Jean-Adrien 25 January 2016 (has links)
La théorie de l'échantillonnage uniforme des signaux, développée en particulier par C. Shannon, est à l'origine du traitement numérique du signal. Depuis, de nombreux travaux ont été consacrés à l'échantillonnage non uniforme. Celui-ci permet, d'une part, de modéliser les imperfections des dispositifs d'échantillonnage uniforme. D'autre part, l'échantillonnage peut être effectué de manière délibérément non uniforme afin de bénéficier de propriétés particulières, notamment un assouplissement des conditions portant sur le choix de la fréquence moyenne d'échantillonnage. La plupart de ces travaux reste dans un cadre théorique en adoptant des schémas d'échantillonnage et des modèles de signaux simplifiés. Or, actuellement, dans de nombreux domaines d'application, tels que les communications par satellites, la conversion analogique-numérique s'effectue sous des contraintes fortes pour les largeurs de bande mises en jeu, en raison notamment des fréquences très élevées utilisées. Ces conditions opérationnelles accentuent les imperfections des dispositifs électroniques réalisant l'échantillonnage et induisent le choix de modèles de signaux et de schémas d'échantillonnage spécifiques. Cette thèse a pour objectif général d'identifier des modèles d'échantillonnage adaptés à ce cadre applicatif. Ceux-ci s'appliquent à des signaux aléatoires passe-bande, qui constituent un modèle classique en télécommunications. Ils doivent prendre en compte des facteurs technologiques, économiques ainsi que des contraintes bord de complexité et éventuellement intégrer des fonctionnalités propres aux télécommunications. La première contribution de cette thèse est de développer des formules d'échantillonnage non uniforme qui intègrent dans le domaine numérique des fonctionnalités délicates à implémenter dans le domaine analogique aux fréquences considérées. La deuxième contribution consiste à caractériser et à compenser les erreurs de synchronisation de dispositifs d'échantillonnage non uniforme particuliers, à savoir les convertisseurs analogique-numérique entrelacés temporellement, via des méthodes supervisées ou aveugles. / The theory of uniform sampling, developed among others by C. Shannon, is the foundation of today digital signal processing. Since then, numerous works have been dedicated to non uniform sampling schemes. On the one hand, these schemes model uniform sampling device imperfections. On the other hand, sampling can be intentionally performed in a non uniform way to benefit from specific properties, in particular simplifications concerning the choice of the mean sampling frequency. Most of these works have focused on theoretical approaches, adopting simplified models for signals and sampling devices. However, in many application domains, such as satellite communications, analog-to-digital conversion is submitted to strong constraints over the involved bandwidth due to the very high frequencies used. These operational conditions enhance the imperfections of the involved electronic devices and require the choice of particular signal models and sampling schemes. This thesis aims at proposing sampling models suitable for this context. These models apply to random band-pass signals, which are the classical models for telecommunication signals. They must take into account technological, economical factors and on-board complexity constraints and allow to integrate particular functionalities useful for telecommunication applications. This thesis first contribution is to develop non uniform sampling formulas that can digitally integrate functionalities that appear to be tricky in the analog domain at the considered frequencies. The thesis second contribution consists in applying non uniform sampling theory to the estimation and compensation of synchronization errors encountered in particular sampling devices, the timeinterleaved analog-to-digital converters. This estimation will be performed through supervised or blind methods.
199

Modeling and monitoring of new GNSS signal distortions in the context of civil aviation / Modélisation et surveillance des distorsions pour les nouveaux signaux GNSS dans le contexte de l'aviation civile

Pagot, Jean-Baptiste 20 December 2016 (has links)
Le GNSS est actuellement présent dans de nombreux domaines et permet le positionnement et la navigation. Parmi ces domaines, l’aviation civile a besoin d’une qualité de service élevée, notamment pendant les phases de vol les plus exigeantes en termes d’intégrité, de précision, de disponibilité et de continuité. Afin de satisfaire ces exigences, toutes les sources de dégradations potentielles du service doivent être prises en compte. Les distorsions des signaux GNSS générées par la charge utile du satellite sont un exemple de problème qui doit être pris en compte par l’aviation civile. Elles peuvent se manifester de deux manières différentes: les distorsions nominales générées par les satellites en fonctionnement normal et les distorsions non nominales générées lors d’une panne de la charge utile. Tout d’abord, cette thèse aborde le problème des déformations nominales affectant les signaux GPS L1 C/A et Galileo E1C. Différentes observations sont réalisées à partir de la visualisation de la fonction de corrélation ou du signal et par l’utilisation d’antennes à haut gain et d’une antenne omnidirectionnelle. Après l’observation des distorsions nominales, cette thèse aborde le sujet des distorsions non nominales du signal. En utilisant les travaux réalisés dans le passé par l’aviation civile dans le cadre du signal GPS L1 C/A, le but est de proposer de nouveaux modèles de distorsions associés aux nouveaux signaux GPS et Galileo qui vont être utilisés par l’aviation civile après 2020. Dans cette optique, de nouveaux modèles de menace (appelés TMs) pour les nouveaux signaux (GPS L5 et Galileo E5a et E1C) sont proposés. La dernière étape de cette thèse se focalise sur l’étude d’une technique capable de protéger un utilisateur de l’aviation civile contre les TMs proposés pour les nouveaux signaux. Cette technique appelée SQM est aujourd’hui implémentée dans les systèmes GBAS et SBAS pour détecter les distorsions de la fonction de corrélation dans le cadre des signaux GPS L1 C/A. / GNSS is used nowadays in various fields for navigation and positioning including safety -of-life applications. Among these applications is civil aviation that requires a very high quality of service for the most demanding phases of flight in terms of integrity, accuracy, availability and continuity. To meet these requirements any source of potential service degradations has to be accounted for. One such example is GNSS signal distortions due to the satellite payload which can manifest in two ways: nominal distortions that are generated by healthy satellites due to payload imperfections and nonnominal distortions that are triggered by a satellite payload failure. The thesis first looks at the nominal distortions through GPS L1 C/A and Galileo E1C signals. Different types of observations are used based on correlation or chip domain visualization, and using high-gain and omnidirectional antennas. After the observation of nominal distortions, the dissertation investigates the non-nominal distortions due to the payload failure. Supported by the groundwork performed by civil aviation on signal distortion for the GPS L1 C/A signal, this dissertation aims at proposing new distortions models associated to the new GPS and Galileo signals that will be used by civil aviation after 2020. In particular, new TMs for new signals (GPS L5, Galileo E5a and Galileo E1C) are proposed. Finally, in this dissertation is built an appropriate monitor, referred to as SQM that is able to detect any distortion from the proposed TMs (for new signals) that could lead to a position integrity failure. Regarding GPS L1 C/A signal monitoring, such SQM is today implemented in GNSS augmentation systems including GBAS and SBAS. The current monitors are based on the analysis of the correlation function.
200

Segmentation de la locomotion humaine dans le domaine du sport et de la déficience à partir de capteurs embarqués / Measurement and control of non-periodic motions of lower and upper limbs in functional rehabilitation

Pasquier, Maud 16 September 2013 (has links)
Cette thèse porte sur le traitement de données multi-capteurs liées à la locomotion humaine.Son objectif est de concevoir des outils pour la segmentation de la locomotion à partir d'un réseau de capteurs embarqués et appliquée à deux domaines différents: le sport avec l'ultra-marathon et la déficience causée par un symptome de la maladie de Parkinson. Pour ces deux applications, le travail peut atteindre cet objectif concerné. d'une part, les contraintes matérielles liées au réseau de capteurs, et d'autre part, les algorithmes de traitement des données. Dans un premier temps, nous avons recueilli des données multi-capteurs sur un coureur du Marathon des Sables. Le réseau des capteurs étant confronté à des conditions extrêmes, il a fallu s'adapter à des problèmes techniques avant de pouvoir proposer un outil pour segmenter et classer ces grandes quantités de données. Dans un second temps, nous avons travaillé en collaboration avec un médecin, pour comprendre au mieux le ''freezing" (symptôme perturbant la marche de certains malades atteints de la maladie de Parkinson) afin de proposer une nouvelle méthode de détection pour ce symptôme. / This thesis focuses on the treatment of multi-sensor related data locomotion humaine.Son goal is to develop tools for segmentation of locomotion from a network of embedded and applied to two different domains sensors : sport with ultra -marathon and disability caused by a symptom of Parkinson's disease . For both applications, the work can achieve this question. one hand , the physical constraints of the network sensors , and secondly , the data processing algorithms . At first , we collected multi-sensor data on a runner Marathon des Sables. The network of sensors being confronted with extreme conditions, it was necessary to adapt to technical before proposing a tool to segment and classify these large amounts of data problems. In a second step , we worked with a doctor, to understand better the '' freezing " (symptom disrupting the progress of some patients with Parkinson's disease ) to propose a new detection method for this symptom.

Page generated in 0.3624 seconds