Spelling suggestions: "subject:"designal anda image aprocessing"" "subject:"designal anda image eprocessing""
221 |
Thermographie courtes longueurs d'onde avec des caméras silicium : contribution à la modélisation radiométriqueRotrou, Yann 13 December 2006 (has links) (PDF)
Le Centre de Recherche sur les Outillages, les Matériaux et les Procédés (CROMeP) veut obtenir des cartes de températures précises, sur des moules métalliques entre 400 et 1000°C. Plusieurs équipes ont montré l'intérêt d'utiliser des caméras silicium dans ce contexte.<br />Nous nous distinguons de leurs travaux par l'approche adoptée pour modéliser le système. Nous proposons un nouveau modèle, plus précis et paramétré par un unique jeu de coefficients indépendant du temps d'intégration. Il permet d'obtenir une procédure d'étalonnage courte et précise, ainsi qu'un système dont la dynamique est contrôlable en ligne. Nous étudions d'autre part différents phénomènes perturbant la mesure, afin de l'améliorer, et d'évaluer sa précision. Ces caractérisations sont en partie effectuées au laboratoire de Conception d'Imageurs Matriciels Intégrés (CIMI).<br />Enfin nous positionnons les caméras CCD et CMOS par rapport aux systèmes de thermographie infrarouges, et présentons une application de mesures couplées dimensionnelles/thermiques, basée sur un unique capteur de stéréovision silicium.
|
222 |
Contribution à la caractérisation des performances des problèmes conjoints de détection et d'estimationChaumette, Eric 16 December 2004 (has links) (PDF)
Un grand nombre d'applications concrètes (Radar, Sonar, Télécoms ...) requièrent une étape de détection dont l'effet principal est de restreindre l'ensemble des observations disponibles pour l'estimation des paramètres inconnus. Par conséquent, nous établissons l'expression des bornes inférieures de l'Erreur Quadratique Moyenne (EQM) conditionnées par un test d'hypothèse binaire au moyen d'une approche didactique générale. Pour valider l'intérêt de cette démarche, nous montrons également à l'aide d'une application fondamentale, que le problème de la précision de prédiction de l'EQM vraie par une borne inférieure à faible RSB, peut provenir d'une formulation incorrecte de la borne inférieure ne prenant pas en compte la vraie problématique, à savoir les problèmes conjoints de détection-estimation.
|
223 |
Big Brother is watching but helping you : analyse et interprétation de mouvements humains (expressions, gestes, postures)Caplier, Alice 15 December 2005 (has links) (PDF)
Mes activités de recherche portent sur l'analyse et l'interprétation des mouvements humains à partir de données visuelles avec comme application principale l'amélioration du processus de communication entre l'homme et la machine. L'idée sous-jacente est de tendre vers une communication homme machine non pas par l'intermédiaire des traditionnels écran/clavier/souris mais vers un processus plus « humain » de communication. Ceci suppose que la machine est capable de reconnaître et d'interpréter tous les signes de communication humaine à savoir le langage verbal mais aussi tous les signes de communication non verbale. Nous nous plaçons donc en amont de la problématique des interactions homme-machine proprement dites. Ces travaux se focalisent sur l'interprétation des gestes humains de communication non verbale et en particulier sur l'interprétation des expressions faciales, des mouvements de la tête rigides (hochements...) ou non rigides (clignements, bâillement...), de certains gestes de mains (langage parlé complété destiné aux malentendants) ainsi que de certaines postures (assis, debout...).
|
224 |
Combined active and passive millimetre wave sensor for ground-based imagingPong, P. Unknown Date (has links)
No description available.
|
225 |
Imagerie grand champ en anatomopathologie / Wide-field histopathology imagingMorel, Sophie 28 November 2016 (has links)
L’objectif de cette thèse a été de développer une méthode simple et rapide (35 minutes) d'imagerie afin d’enregistrer des images grand champ (jusqu’à 2,5 cm x 2,5 cm) et multi-échelles (µm-cm) de lames de tissus colorés et non colorés en anatomopathologie.La solution proposée est basée sur l’imagerie sans lentille. C’est une méthode simple, bas coût, qui permet d’enregistrer des images grand champ (10-30 mm²) d’objets épars, comme des virus, des bactéries ou des cellules. Dans ces travaux, nous montrons qu’il est possible d'obtenir en imagerie sans lentille des images d'objets denses tels que des lames de tissus colorés ou non marqués. Pour ce faire, l’échantillon est illuminé sous différentes longueurs d’onde, et un nouvel algorithme de reconstruction holographique multi-longueurs d’onde permet de reconstruire le module et la phase d’objets denses. Chaque image est reconstruite en 1,1 seconde couvrant un champ de 10 mm². Une image totale de la lame de tissu, couvrant un champ de 6,25 cm², est obtenue en 35 minutes en scannant l’échantillon au-dessus du capteur. Les images reconstruites sont multi-échelles, permettant à l’utilisateur d’observer en une seule fois la structure générale du tissu, et de zoomer jusqu’à la cellule individuelle (3-4 µm). La méthode a été testée sur différents échantillons anatomopathologiques colorés et non colorés. Au-delà des lames de tissus, l’imagerie sans lentille multi-longueurs d’onde montre des résultats encourageants pour le diagnostic de la méningite, le suivi au cours du temps d’une population bactérienne pour l’identification et la réalisation d’antibiogrammes, et le suivi au cours du temps de cultures cellulaires. / This PhD project aims to develop a simple, fast (35 minutes), wide-field (up to 2.5 cm x 2.5 cm) multiscale (µm-cm) imaging method for stained and unstained tissue slides for digital pathology application. We present a solution based on lensfree imaging. It is a simple, low-cost technique that enables wide field imaging (10-30 mm²) of sparse objects, like viruses, bacteria or cells. In this project, we adapted lensfree imaging for dense objects observation, like stained or unstained tissue slides. The sample is illuminated under multiple illumination wavelengths, and a new multiwavelength holographic reconstruction algorithm was developed in order to reconstruct the modulus and phase of dense objects. Each image covers 10 mm² field of view, and is reconstructed in 1.1 second. An image of the whole tissue slide covers 6.25 cm². It is recorded in 35 minutes by scanning the sample over the sensor. The reconstructed images are multiscale, allowing the user to observe the overall tissue structure and to zoom down to the single cell level (3-4 µm). The method was tested on various stained and unstained pathology samples. Besides tissue slides, multiwavelength lensfree imaging shows encouraging results for meningitis diagnosis, bacteria population monitoring for identification and antibiotic susceptibility testing, and cell culture monitoring.
|
226 |
Illumination Recovery For Optical MicroscopyBrookshire, Charles Thomas 15 June 2020 (has links)
No description available.
|
227 |
Classification automatique de flux radiophoniques par Machines à Vecteurs de SupportRamona, Mathieu 21 June 2010 (has links) (PDF)
Nous présentons ici un système de classification audio parole/musique tirant parti des excellentes propriétés statistiques des Machines à Vecteurs de Support. Ce problème pose les trois questions suivantes : comment exploiter efficacement les SVM, méthode d'essence discriminatoire, sur un problème à plus de deux classes, comment caractériser un signal audio de manière pertinente, et enfin comment traiter l'aspect temporel du problème ? Nous proposons un système hybride de classification multi-classes tirant parti des approches un-contre-un et par dendogramme, et permettant l'estimation de probabilités a posteriori. Ces dernières sont exploitées pour l'application de méthodes de post-traitement prenant en compte les interdépendances entre trames voisines. Nous proposons ainsi une méthode de classification par l'application de Modèles de Markov Cachés (HMM) sur les probabilités a posteriori, ainsi qu'une approche basée sur la détection de rupture entre segments au contenu acoustique "homogène". Par ailleurs, la caractérisation du signal audio étant opérée par une grande collection des descripteurs audio, nous proposons de nouveaux algorithmes de sélection de descripteurs basés sur le récent critère d'Alignement du noyau ; critère que nous avons également exploité pour la sélection de noyau dans le processus de classification. Les algorithmes proposés sont comparés aux méthodes les plus efficaces de l'état de l'art auxquelles elles constituent une alternative pertinente en termes de coût de calcul et de stockage. Le système construit sur ces contributions a fait l'objet d'une participation à la campagne d'évaluation ESTER 2, que nous présentons, accompagnée de nos résultats.
|
228 |
Modélisation d'objets 3D par fusion silhouettes-stéréo à partir de séquences d'images en rotation non calibréesHernández Esteban, Carlos 04 May 2004 (has links) (PDF)
Nous présentons une nouvelle approche pour la modélisation d'objets 3D de haute qualité à partir de séquences d'images en rotation partiellement calibrées. L'algorithme est capable: de calibrer la caméra (la pose et la longueur focale), de reconstruire la géométrie 3D et de créer une carte de texture. Par rapport à d'autres méthodes plus classiques, le calibrage est réalisé à partir d'un ensemble de silhouettes comme seule source d'information. Nous développons le concept de cohérence d'un ensemble de silhouettes généré par un objet 3D. Nous discutons d'abord la notion de cohérence de silhouettes et définissons un critère pratique pour l'estimer. Ce critère dépend à la fois des silhouettes et des paramètres des caméras qui les ont générées. Ces paramètres peuvent être estimés pour le problème de modélisation 3D en maximisant la cohérence globale des silhouettes. La méthode de reconstruction 3D est fondée sur l'utilisation d'un modèle déformable classique, qui définit le cadre dans lequel nous pouvons fusionner l'information de la texture et des silhouettes pour reconstruire la géométrie 3D. Cette fusion est accomplie en définissant deux forces basées sur les images: une force définie par la texture et une autre définie par les silhouettes. La force de texture est calculée en deux étapes: une approche corrélation multi-stéréo par décision majoritaire, et une étape de diffusion du vecteur gradient (GVF). En raison de la haute résolution de l'approche par décision majoritaire, une version multi-résolution du GVF a été développée. En ce qui concerne la force des silhouettes, une nouvelle formulation de la contrainte des silhouettes est dérivée. Elle fournit une manière robuste d'intégrer les silhouettes dans l'évolution du modèle déformable. A la fin de l'évolution, cette force fixe les contours générateurs du modèle 3D. Finalement, une carte de texture est calculée à partir des images originales et du modèle 3D reconstruit.
|
229 |
Recherche par le contenu d'objets 3DChaouch, Mohamed 31 March 2009 (has links) (PDF)
Aujourd'hui, grâce aux technologies récentes de numérisation et de modélisation 3D, des bases d'objets 3D de taille de plus en plus grande deviennent disponibles. La recherche par le contenu apparaît être une solution nécessaire pour structurer, gérer ces données multimédia, et pour naviguer dans ces grandes bases. Dans ce contexte, nous nous sommes intéressés plus particulièrement aux trois phases qui constituent le processus de la recherche par le contenu : la normalisation, l'extraction de la signature, et la mesure de similarité entre objets 3D. La première partie de la thèse porte sur la normalisation d'objets 3D, en particulier sur la recherche de la pose optimale. Nous proposons une nouvelle méthode d'alignement d'objets 3D basée sur la symétrie de réflexion et la symétrie de translation locale. L'approche repose sur les propriétés intéressantes de l'analyse en composantes principales vis-à-vis des symétries de réflexion pour retrouver d'éventuels axes d'alignement optimaux parmi les axes principaux. La deuxième partie de la thèse est consacrée à l'étude des descripteurs de forme et des mesures de similarité associées. Dans un premier temps, nous proposons un nouveau descripteur 3D dérivé de la transformée de Gauss, appelé 3D Gaussian descriptor. Calculé sur une partition de l'espace englobant l'objet, ce descripteur permet de caractériser localement la géométrie de la surface. Dans un deuxième temps, nous avons étudié les approches multi-vues caractérisant l'objet 3D à partir des images de projection. Nous introduisons une technique d'amélioration, appelée Enhanced Multi-views Approach, pouvant s'appliquer à la plupart des approches multi-vues. Des valeurs de pertinence sont définies et introduites dans la mesure de similarité afin de pondérer les contributions des projections dans la description de la forme 3D. La dernière méthode d'indexation que nous proposons, appelée Depth Line Approach, est une approche multi-vues fondée sur les images de profondeur. Pour les caractériser, nous introduisons une méthode de transcodage qui transforme les lignes de profondeur extraites en séquence d'états. Pour permettre une comparaison efficace, la mesure de similarité associée se base sur la programmation dynamique.
|
230 |
Mise en correspondance stéréoscopique par approches variationnelles convexes ; application à la détection d'obstacles routiersSouid-Miled, Wided 17 December 2007 (has links) (PDF)
Cette thèse porte sur la mise en correspondance stéréoscopique ainsi que sur son application à la détection des obstacles routiers à partir d'un système de vision stéréoscopique. La mise en correspondance est une étape cruciale dans la reconstruction de la structure tridimensionnelle de la scène observée. Elle consiste à retrouver les pixels homologues dans deux images prises de deux points de vue différents, et se ramène à un problème d'estimation d'un champ de disparité. La première partie de ma thèse a porté sur l'estimation de la disparité, dans le cadre d'une approche ensembliste, en minimisant une fonction objective convexe sur l'intersection d'ensembles convexes, construits à partir des connaissances a priori et des observations. Dans la plupart des applications de stéréovision, le champ de disparité doit être lisse dans les zones homogènes et les zones faiblement texturées. L'une de nos contributions a consisté à proposer différentes contraintes de régularisation satisfaisant cette propriété. Pour résoudre le problème d'optimisation considéré, nous utilisons un algorithme efficace itératif par bloc. La deuxième partie traite du problème d'estimation de la disparité en présence de changements d'illumination dans la scène observée. Nous considérons pour cela un modèle d'illumination multiplicatif qui permet de compenser les variations spatiales de luminosité de la scène. Enfin, dans la troisième partie, nous appliquons notre méthode d'estimation de la disparité robuste aux variations d'illumination pour la détection des obstacles routiers.
|
Page generated in 0.0991 seconds