41 |
Reconstructing plant architecture from 3D laser scanner data / Acquisition et validation de modèles architecturaux virtuels de plantesPreuksakarn, Chakkrit 19 December 2012 (has links)
Les modèles virtuels de plantes sont visuellement de plus en plus réalistes dans les applications infographiques. Cependant, dans le contexte de la biologie et l'agronomie, l'acquisition de modèles précis de plantes réelles reste un problème majeur pour la construction de modèles quantitatifs du développement des plantes.Récemment, des scanners laser 3D permettent d'acquérir des images 3D avec pour chaque pixel une profondeur correspondant à la distance entre le scanner et la surface de l'objet visé. Cependant, une plante est généralement un ensemble important de petites surfaces sur lesquelles les méthodes classiques de reconstruction échouent. Dans cette thèse, nous présentons une méthode pour reconstruire des modèles virtuels de plantes à partir de scans laser. Mesurer des plantes avec un scanner laser produit des données avec différents niveaux de précision. Les scans sont généralement denses sur la surface des branches principales mais recouvrent avec peu de points les branches fines. Le cœur de notre méthode est de créer itérativement un squelette de la structure de la plante en fonction de la densité locale de points. Pour cela, une méthode localement adaptative a été développée qui combine une phase de contraction et un algorithme de suivi de points.Nous présentons également une procédure d'évaluation quantitative pour comparer nos reconstructions avec des structures reconstruites par des experts de plantes réelles. Pour cela, nous explorons d'abord l'utilisation d'une distance d'édition entre arborescence. Finalement, nous formalisons la comparaison sous forme d'un problème d'assignation pour trouver le meilleur appariement entre deux structures et quantifier leurs différences. / In the last decade, very realistic rendering of plant architectures have been produced in computer graphics applications. However, in the context of biology and agronomy, acquisition of accurate models of real plants is still a tedious task and a major bottleneck for the construction of quantitative models of plant development. Recently, 3D laser scanners made it possible to acquire 3D images on which each pixel has an associate depth corresponding to the distance between the scanner and the pinpointed surface of the object. Standard geometrical reconstructions fail on plants structures as they usually contain a complex set of discontinuous or branching surfaces distributed in space with varying orientations. In this thesis, we present a method for reconstructing virtual models of plants from laser scanning of real-world vegetation. Measuring plants with laser scanners produces data with different levels of precision. Points set are usually dense on the surface of the main branches, but only sparsely cover thin branches. The core of our method is to iteratively create the skeletal structure of the plant according to local density of point set. This is achieved thanks to a method that locally adapts to the levels of precision of the data by combining a contraction phase and a local point tracking algorithm. In addition, we present a quantitative evaluation procedure to compare our reconstructions against expertised structures of real plants. For this, we first explore the use of an edit distance between tree graphs. Alternatively, we formalize the comparison as an assignment problem to find the best matching between the two structures and quantify their differences.
|
42 |
Contrôle hydrodynamique de la formation des biofilms en milieu eaux usées / Hydrodynamic control of biofilm formation in wastewater systemEl Khatib, Rime 17 November 2011 (has links)
Les biofilms bactériens se développent sur toute interface liquide-solide dès que les conditions sont favorables. Ils correspondent à des assemblages de microcolonies qui baignent dans une matrice extracellulaire polymérique. Parmi les facteurs contrôlant le développement des biofilms, l’hydrodynamique est un paramètre clé qui affecte la morphologie et la composition du biofilm. Nous nous intéressons plus particulièrement dans cette thèse à l'influence du gradient de vitesse pariétal sur la formation du biofilm. Pour cela, nous utilisons un réacteur Couette-Poiseuille qui permet de travailler sous écoulement laminaire stable dans différentes conditions d'écoulement. Les biofilms obtenus après circulation d'eaux usées, sont prélevés sur des coupons et visualisés par microscopie confocale à balayage laser. Différents paramètres caractérisant la morphologie du biofilm sont déterminés après reconstruction 3D de leur structure à l'aide du modeleur GOCAD. Nous montrons que le transport convectif constitue une étape essentielle dans la formation initiale du biofilm, et qu'un gradient pariétal nul permet d'inhiber le développement de celui-ci / Bacterial biofilms develop on any solid-liquid interface whenever conditions are appropriate. They correspond to microcolony assemblages embedded in an extracellular matrix. Among the factors controlling biofilm growth, hydrodynamics is a key parameter affecting both biofilm morphology and composition. In this thesis we investigate the influence of hydrodynamics, and more precisely the wall shear rate effect on biofilm development. For this purpose, a Couette-Poiseuille reactor, allowing to work under stable laminar flow with different flow velocities, was used. Biofilms grown from urban wastewater on coupon surfaces were observed with confocal scanning microscopy. A 3D modeling using GOCAD software was established, thus allowing the determination of various biofilms structural characteristics. The results show the essential role of convective mass transport in biofilm formation, actually a zero wall shear rate inhibited bacterial deposition, and hence biofilm growth
|
43 |
Avancements dans l'estimation de pose et la reconstruction 3D de scènes à 2 et 3 vues / Advances on Pose Estimation and 3D Resconstruction of 2 and 3-View ScenesFernandez Julia, Laura 13 December 2018 (has links)
L'étude des caméras et des images a été un sujet prédominant depuis le début de la vision par ordinateur, l'un des principaux axes étant l'estimation de la pose et la reconstruction 3D. Le but de cette thèse est d'aborder et d'étudier certains problèmes et méthodes spécifiques du pipeline de la structure-from-motion afin d'améliorer la précision, de réaliser de vastes études pour comprendre les avantages et les inconvénients des modèles existants et de créer des outils mis à la disposition du public. Plus spécifiquement, nous concentrons notre attention sur les pairs stéréoscopiques et les triplets d'images et nous explorons certaines des méthodes et modèles capables de fournir une estimation de la pose et une reconstruction 3D de la scène.Tout d'abord, nous abordons la tâche d'estimation de la profondeur pour les pairs stéréoscopiques à l'aide de la correspondance de blocs. Cette approche suppose implicitement que tous les pixels du patch ont la même profondeur, ce qui produit l'artefact commun dénommé "foreground-fattening effect". Afin de trouver un support plus approprié, Yoon et Kweon ont introduit l'utilisation de poids basés sur la similarité des couleurs et la distance spatiale, analogues à ceux utilisés dans le filtre bilatéral. Nous présentons la théorie de cette méthode et l'implémentation que nous avons développée avec quelques améliorations. Nous discutons de quelques variantes de la méthode et analysons ses paramètres et ses performances.Deuxièmement, nous considérons l'ajout d'une troisième vue et étudions le tenseur trifocal, qui décrit les contraintes géométriques reliant les trois vues. Nous explorons les avantages offerts par cet opérateur dans la tâche d'estimation de pose d'un triplet de caméras par opposition au calcul des poses relatives paire par paire en utilisant la matrice fondamentale. De plus, nous présentons une étude et l’implémentation de plusieurs paramétrisations du tenseur. Nous montrons que l'amélioration initiale de la précision du tenseur trifocal n'est pas suffisante pour avoir un impact remarquable sur l'estimation de la pose après ajustement de faisceau et que l'utilisation de la matrice fondamentale avec des triplets d'image reste pertinente.Enfin, nous proposons d'utiliser un modèle de projection différent de celui de la caméra à sténopé pour l'estimation de la pose des caméras en perspective. Nous présentons une méthode basée sur la factorisation matricielle due à Tomasi et Kanade qui repose sur la projection orthographique. Cette méthode peut être utilisée dans des configurations où d'autres méthodes échouent, en particulier lorsque l'on utilise des caméras avec des objectifs à longue distance focale. La performance de notre implémentation de cette méthode est comparée à celle des méthodes basées sur la perspective, nous considérons que l'exactitude obtenue et la robustesse démontré en font un élément à considérer dans toute procédure de la SfM / The study of cameras and images has been a prominent subject since the beginning of computer vision, one of the main focus being the pose estimation and 3D reconstruction. The goal of this thesis is to tackle and study some specific problems and methods of the structure-from-motion pipeline in order to provide improvements in accuracy, broad studies to comprehend the advantages and disadvantages of the state-of-the-art models and useful implementations made available to the public. More specifically, we center our attention to stereo pairs and triplets of images and discuss some of the methods and models able to provide pose estimation and 3D reconstruction of the scene.First, we address the depth estimation task for stereo pairs using block-matching. This approach implicitly assumes that all pixels in the patch have the same depth producing the common artifact known as the ``foreground fattening effect''. In order to find a more appropriate support, Yoon and Kweon introduced the use of weights based on color similarity and spatial distance, analogous to those used in the bilateral filter. We present the theory of this method and the implementation we have developed with some improvements. We discuss some variants of the method and analyze its parameters and performance.Secondly, we consider the addition of a third view and study the trifocal tensor, which describes the geometric constraints linking the three views. We explore the advantages offered by this operator in the pose estimation task of a triplet of cameras as opposed to computing the relative poses pair by pair using the fundamental matrix. In addition, we present a study and implementation of several parameterizations of the tensor. We show that the initial improvement in accuracy of the trifocal tensor is not enough to have a remarkable impact on the pose estimation after bundle adjustment and that using the fundamental matrix with image triplets remains relevant.Finally, we propose using a different projection model than the pinhole camera for the pose estimation of perspective cameras. We present a method based on the matrix factorization due to Tomasi and Kanade that relies on the orthographic projection. This method can be used in configurations where other methods fail, in particular, when using cameras with long focal length lenses. The performance of our implementation of this method is compared to that given by the perspective-based methods, we consider that the accuracy achieved and its robustness make it worth considering in any SfM procedure
|
44 |
Towards scalable, multi-view urban modeling using structure priors / Vers une modélisation urbaine 3D extensible intégrant des à priori de structure géométriqueBourki, Amine 21 December 2017 (has links)
Nous étudions dans cette thèse le problème de reconstruction 3D multi-vue à partir d’une séquence d’images au sol acquises dans des environnements urbains ainsi que la prise en compte d’a priori permettant la préservation de la structure sous-jacente de la géométrie 3D observée, ainsi que le passage à l’échelle de tels processus de reconstruction qui est intrinsèquement délicat dans le contexte de l’imagerie urbaine. Bien que ces deux axes aient été traités de manière extensive dans la littérature, les méthodes de reconstruction 3D structurée souffrent d’une complexité en temps de calculs restreignant significativement leur intérêt. D’autre part, les approches de reconstruction 3D large échelle produisent généralement une géométrie simplifiée, perdant ainsi des éléments de structures qui sont importants dans le contexte urbain. L’objectif de cette thèse est de concilier les avantages des approches de reconstruction 3D structurée à celles des méthodes rapides produisant une géométrie simplifiée. Pour ce faire, nous présentons “Patchwork Stereo”, un framework qui combine stéréoscopie photométrique utilisant une poignée d’images issues de points de vue éloignés, et un nuage de point épars. Notre méthode intègre une analyse simultanée 2D-3D réalisant une extraction robuste de plans 3D ainsi qu’une segmentation d’images top-down structurée et repose sur une optimisation par champs de Markov aléatoires. Les contributions présentées sont évaluées via des expériences quantitatives et qualitatives sur des données d’imagerie urbaine complexes illustrant des performances tant quant à la fidélité structurelle des reconstructions 3D que du passage à l’échelle / In this thesis, we address the problem of 3D reconstruction from a sequence of calibrated street-level photographs with a simultaneous focus on scalability and the use of structure priors in Multi-View Stereo (MVS).While both aspects have been studied broadly, existing scalable MVS approaches do not handle well the ubiquitous structural regularities, yet simple, of man-made environments. On the other hand, structure-aware 3D reconstruction methods are slow and scale poorly with the size of the input sequences and/or may even require additional restrictive information. The goal of this thesis is to reconcile scalability and structure awareness within common MVS grounds using soft, generic priors which encourage : (i) piecewise planarity, (ii) alignment of objects boundaries with image gradients and (iii) with vanishing directions (VDs), and (iv) objects co-planarity. To do so, we present the novel “Patchwork Stereo” framework which integrates photometric stereo from a handful of wide-baseline views and a sparse 3D point cloud combining robust 3D plane extraction and top-down image partitioning from a unified 2D-3D analysis in a principled Markov Random Field energy minimization. We evaluate our contributions quantitatively and qualitatively on challenging urban datasets and illustrate results which are at least on par with state-of-the-art methods in terms of geometric structure, but achieved in several orders of magnitude faster paving the way for photo-realistic city-scale modeling
|
45 |
Reconstruction 3D de scènes d'intérieurs à partir de photographies / 3D reconstruction of low-texture indoor scenes from picturesSalaün, Yohann 06 July 2017 (has links)
Les méthodes actuelles de photogrammétrie permettent de reconstruire en 3D de nombreux objets et/ou scènes à partir de leurs photographies. Pour ce faire, les méthodes classiques détectent des points saillants dans les images et les mettent en correspondance entre plusieurs images. Ces correspondances permettent d'obtenir une information de calibration entre les différentes positions d'où la scène a été photographiée. Une fois ces positions déterminées, il est alors possible d'obtenir une reconstruction dense de la scène en triangulant les parties de la scène vues dans plusieurs images. La détection et la mise en correspondance de points saillants jouent un rôle crucial dans le procédé de reconstruction 3D. C'est pourquoi certaines scènes ou objets sont encore difficiles à reconstruire à partir de méthode de photogrammétrie. C'est notamment le cas des scènes d'intérieur, souvent constituées de larges pans de mur peu texturés où la détection et la mise en correspondance de points sont souvent défaillantes. De plus, la très grande présence de motifs planaires, cas dégénérés des méthodes de calibration usuelles, rend ces scènes très difficiles à calibrer. Dans cette thèse, nous nous intéressons à l'utilisation de segments pour compenser la faible efficacité des points dans le cas des scènes d'intérieur. Dans un premier temps, nous introduisons une méthode de détection de segments plus robuste au manque de contraste des scènes d'intérieur. C'est une méthode multi-échelle qui permet également d'obtenir d'aussi bons résultats quelle que soit la résolution de l'image utilisée. Nous utilisons pour cela des critères inspirés des méthodes emph{a contrario} pour éviter l'utilisation de nombreux paramètres. Nous présentons ensuite une méthode de calibration bifocale utilisant à la fois les segments et les points pour obtenir une méthode robuste au manque de texture et à la planarité de la scène tout en conservant la précision des méthodes de points. Nous introduisons alors une variante du RANSAC emph{a contrario} pour déterminer lorsqu'il vaut mieux utiliser les segments plutôt que les points pour calibrer. Enfin, pour compenser le manque de recouvrement entre photographies dans le cadre des scènes d'intérieur, nous introduisons une méthode de calibration multi-vue utilisant des contraintes de coplanarité entre segments sans avoir besoin de contraintes trifocales. Nous expliquons enfin comment modifier les contraintes trifocales usuelles pour les ajouter aux contraintes de coplanarité et ainsi obtenir une méthode plus robuste mais aussi précise que les méthodes usuelles / The 3D reconstruction of many objects and/or scenes from their photographies is made possible by current photogrammetry methods. To do so, usual methods detect salient points in every pictures and then match them between each pictures. These matches then give information on the position of every camera that took a picture of the scene. Once these positions are obtained, a dense reconstruction of the scene can be obtained by triangulating the parts seen in different pictures. Point detection and matching are crucial parts of these 3D reconstruction methods. That is why some scenes or objects are still hard to reconstruct in 3D with photogrammetry methods. Indoor scenes belong to these difficult cases, with their lack of texture that causes point detection and matching to give poor results. Moreover, the planarity of these scenes is a degenerate case for usual calibration methods. Combined, these drawbacks explain the difficulty to calibrate such scenes. In this thesis, we explain how to use segments to compensate for the lack of robustness of point methods in the case of indoor scenes. First, we introduce a segment detection method that is more robust to the lack of contrast in indoor scenes. This multi-scale method also gives good results whatever the image resolution is. We use criterion inspired from emph{a contrario} methods to avoid usage of several parameters. We then present a bifocal calibration method that uses both line segments and points. Segments allow the method to still work in low-texture and/or planar scenes and points allow the method to be as accurate as other point methods. To do so, we introduce an emph{a contrario} RANSAC variant to choose, for each scene, whether points or line segments should be used for calibration. Finally, to deal with the lack of overlap between consecutive pictures in indoor scenes, we introduce a multi-view calibration method that uses coplanarity constraints between segments when there are no trifocal constraints. We explain how to modify usual trifocal constraints to combine them with coplanarity constrains in order to obtain a method as accurate as usual methods but more robust in wide-baseline scenes
|
46 |
Fusion multimodale pour la cartographie sous-marine / Multimodal fusion for underwater mappingMéline, Arnaud 31 January 2013 (has links)
Le but de ce travail est d'analyser des scènes sous-marines naturelles et en particulier cartographier des environnements sous-marins en 3D. Il existe aujourd'hui de nombreuses techniques pour résoudre ce problème. L'originalité de ce travail se trouve dans la fusion de deux cartes obtenues avec des capteurs de différentes résolutions. Dans un premier temps, un engin autonome (ou un bateau) analyse les fonds marins avec un sonar multifaisceaux et crée une première carte globale de la zone. Cette carte est ensuite décomposée en petites cellules représentant une mosaïque du fond marin. Une deuxième analyse est ensuite réalisée sur certaines cellules particulières à l'aide d'un second capteur avec une résolution plus élevée. Cela permettra d'obtenir une carte détaillée 3D de la cellule. Un véhicule autonome sous-marin ou un plongeur muni d'un système de vision stéréoscopique effectuera cette acquisition.Ce projet se décompose en deux parties, la première s'intéressera à la reconstruction 3D de scènes sous-marines en milieu contraint à l'aide d'une paire stéréoscopique. La deuxième partie de l'étude portera sur l'aspect multimodal. Dans notre cas, nous utilisons cette méthode pour obtenir des reconstructions précises d'objets d'intérêts archéologiques (statues, amphores, etc.) détectés sur la carte globale.La première partie du travail concerne la reconstruction 3D de la scène sous-marine. Même si aujourd'hui le monde de la vision a permis de mieux appréhender ce type d'image, l'étude de scène sous-marine naturelle pose encore de nombreux problèmes. Nous avons pris en compte les bruits sous-marins lors de la création du modèle 3D vidéo ainsi que lors de la calibration des appareils photos. Une étude de robustesse à ces bruits a été réalisée sur deux méthodes de détections et d'appariements de points d'intérêt. Cela a permis d'obtenir des points caractéristiques précis et robustes pour le modèle 3D. La géométrie épipolaire nous a permis de projeter ces points en 3D. La texture a été ajoutée sur les surfaces obtenues par triangulation de Delaunay.La deuxième partie consiste à fusionner le modèle 3D obtenu précédemment et la carte acoustique. Dans un premier temps, afin d'aligner les deux modèles 3D (le modèle vidéo et le modèle acoustique), nous appliquons un recalage approximatif en sélectionnant manuellement quelques paires de points équivalents sur les deux nuages de points. Pour augmenter la précision de ce dernier, nous utilisons un algorithme ICP (Iterative Closest Points).Dans ce travail nous avons créé une carte 3D sous-marine multimodale réalisée à l'aide de modèles 3D « vidéo » et d'une carte acoustique globale. / This work aims to analyze natural underwater scenes and it focuses on mapping underwater environment in 3D. Today, many methods exist to solve this problem. The originality of this work lies in the fusion of two maps obtained from sensors of different resolutions. Initially, an autonomous vehicle (or boat) analyzes the seabed with multibeam sonar and creates a first global map of the area. This map is then divided into small cells representing a mosaic of the seabed. A second analysis is then performed on some particular cells using a second sensor with a higher resolution. This will provide a detailed map of the 3D cell. An autonomous underwater vehicle (AUV) or a diver with a stereoscopic vision system will make this acquisition. This project is divided into two parts; the first one focuses on the 3D reconstruction of underwater scenes in constrained environment using a stereoscopic pair. The second part investigates the multimodal aspect. In our study, we want to use this method to obtain accurate reconstructions of archaeological objects (statues, amphorae, etc.) detected on the global map. The first part of the work relates the 3D reconstruction of the underwater scene. Even if today the vision community has led to a better understanding of this type of images, the study of natural underwater scenes still poses many problems. We have taken into account the underwater noise during the creation of the 3D video model and during the calibration of cameras. A study of the noise robustness was performed on two methods of detection and matching of features points. This resulted into obtaining accurate and robust feature points for the 3D model. Epipolar geometry allowed us to project these points in 3D. The texture was added to the surfaces obtained by Delaunay triangulation.The second part consists of fusing the 3D model obtained previously with the acoustic map. To align the two 3D models (video and acoustic model), we use a first approximated registration by selecting manually few points on each cloud. To increase the accuracy of this registration, we use an algorithm ICP (Iterative Closest Point).In this work we created a 3D underwater multimodal map performed using 3D video model and an acoustic global map.
|
47 |
Etalonnage d'un système de lumière structurée par asservissement visuel / Structured light system calibration using visual servoingMosnier, Jérémie 12 December 2011 (has links)
Cette thèse s'inscrit dans le cadre d'un projet national nommé SRDViand dont le but fut de développer un système robotisé pour le désossage et la découpe des animaux de boucherie. Afin de déterminer les trajectoires de découpe de manière intelligente, un système de lumière structurée a été développé. Il se réfère à des systèmes de vision qui utilisent des modèles de projection de lumière pour des tâches de reconstruction 3D. Afin d'obtenir les meilleurs résultats, la définition d'une nouvelle méthode d'étalonnage pour les systèmes de lumière structurée a été établie. Basé sur un large état de l'art et également sur la proposition d'une classification de ces méthodes, il a été proposé d'étalonner une paire caméra projecteur en utilisant l'asservissement visuel. La validité et les résultats de cette méthode ont été éprouvés sur la base de nombreux tests expérimentaux menés dans le cadre du projet SRDViand. Suite à l'élaboration de cette méthode, un prototype permettant la découpe des bovins a été réalisé. / This thesis is part of a national project named SRDViand whose aim was to develop a robotic system for the deboning and cutting of animals meat. To determine the cut paths, a structured light system has been developed. It refers to vision systems that use light projection models for 3D reconstruction tasks. To achieve best results, the definition of a new calibration method for structured light systems was established . Based on a large state of the art and also with a proposed classification of these methods, it has been proposed to calibrate a camera projector pair using visual servoing . The validity and the results of this method were tested on the basis of numerous experimental tests conducted under the SRDViand project. Following the development of this method, a prototype bovine cutting was performed .
|
48 |
Reconstruction 3D complète par modélisation Monte Carlo de la matrice système. Apport aux approches quantitatives à l'iode 131Carlier, Thomas 14 December 2009 (has links) (PDF)
La correction des phénomènes physiques dégradant l'information quantitative en imagerie SPECT fait l'objet de nombreux développements. La résolution du problème est rendu particulièrement délicate pour des acquisitions à l'iode 131 compte tenu de la complexité du spectre d'émission et des nombreux biais quantitatifs qui en découlent. L'objectif de ce travail de thèse a été de mettre en oeuvre une méthode de reconstruction tridimensionnelle complète par modélisation Monte Carlo de la matrice système (F3DMC) et de l'optimiser en vue de son utilisation dans un contexte clinique. Les premiers résultats obtenus sur un fantôme analytique ont nécessité l'utilisation de l'infrastructure de calcul et de stockage massif EGEE et ont mis en évidence l'importance d'obtenir un projecteur statistiquement robuste. Afin de pallier cette difficulté nous avons utilisé une technique d'accélération des simulations fondée sur la tabulation de la fonction de réponse angulaire du couple collimateur/détecteur (ARF). Cette nouvelle méthode a été évaluée et validée pour des acquisitions à l'iode 131 et a montré que, à qualité de signal équivalente, nous pouvions atteindre un facteur d'accélération proche de 100 dans un milieu hétérogène réaliste par rapport à une simulation Monte Carlo standard. Cette méthodologie a été incorporée dans l'algorithme de construction du projecteur puis testée sur le fantôme et sur des données réelles. Cela a permis d'atteindre une robustesse statistique du projecteur nettement supérieure à celle obtenue sans utilisation de la méthode ARF avec une amélioration significative des figures de mérite quantitatives
|
49 |
Conception d'un capteur de stéréovision omnidirectionnelle: architecture, étalonnage et applications à la reconstruction de scènes 3DRagot, Nicolas 07 April 2009 (has links) (PDF)
Les travaux de thèse présentés dans ce mémoire ont pour objectif la conception et l'évaluation d'un système de vision 3D constitué de deux capteurs catadioptriques positionnés verticalement. Afin d'obtenir un modèle 3D, l'étalonnage des capteurs, c'est-à-dire l'estimation des relations entre l'espace 3D et le plan image, est un préalable indispensable. Une méthode, qualifiée de paramétrique a tout d'abord été implémentée. Elle utilise un modèle ad hoc et une mire 3D de forme cylindrique dont les points d'intérêt sont des diodes électroluminescentes. Cette méthode formule l'hypothèse d'un centre de projection unique qui peut s'avérer difficile à mettre oeuvre en pra- tique. Nous proposons donc une méthode non-paramétrique qui permet de s'affranchire des contraintes liées aux modèles. Les relations entre l'espace 3D et le plan image sont alors définies pour un nombre fini de points et des algorithmes d'interpolation numérique permettent d'approximer les fonctions de projection et rétro-projection pour tous les couples points 3D-points 2D. Nous proposons ensuite l'implémentation et l'évaluation d'une méthode de reconstruction 3D volumétrique qui modélise la scène sous forme d'un tableau 3D dont chaque cellule est un voxel. Une mesure de similarité colorimétrique des projections du voxel dans chaqu'une des images permet de statuer quant à l'appartenance du voxel à un objet de la scène. Cette méthode est évaluée pour une reconstruction statique de la scène 3D, c'est-à-dire pour une acquisition d'images simultanée. Puis cette méthode est étudiée pour des déplacements du capteur. Il s'agit d'une reconstruction dynamique définie comme l'intersection des reconstructions statiques réalisées à des instants successifs.
|
50 |
Contributions au recalage d'images et à la reconstruction 3D de scènes rigides et déformablesBartoli, Adrien 09 June 2008 (has links) (PDF)
Ce document comprend deux parties, la première rédigée en français et la deuxième en anglais. Alors que la première partie est une synthèse de l'ensemble de mes activités professionnelles (animation de la communauté scientifique, encadrement, enseignement, projets de recherche, participation à des comités de programme, expertises, publications, etc.), la deuxième partie porte sur les aspects purement scientifiques. Un résumé détaillé de la deuxième partie est cependant donné dans la première, ainsi qu'un ensemble de perspectives. La deuxième partie va de pair avec un recueil de mes articles les plus représentatifs dont la structure est similaire. L'annexe A explicite les acronymes des Universités, instituts et groupes de recherche utilisés les plus fréquemment dans ce document. Ce document couvre la période 2004 ? 2007, alors que ma thèse de doctorat couvre en détail mes contributions scientifiques sur la période 2000 ? 2003. Les contributions que je décris sont issues de travaux menés à différents endroits : au LASMEA en tant que Chargé de Recherche CNRS, à l'Université d'Oxford avec Andrew Zisserman en tant que post-doctorant, et au DIKU à Copenhague en tant que "Visiting Professor". J'ai travaillé seul sur certains thèmes et au travers de nombreuses collaborations sur d'autres, avec mes étudiants, des étudiants en visite, des stagiaires, et bien sûr d'autres chercheurs. Il est dans ce cadre important de bien manier la première et la troisième personne. J'exprime, notamment dans l'introduction et les perspectives, des points de vue qui n'engagent que moi. Ils sont parfois basés sur des travaux effectués en collaboration avec d'autres chercheurs, ce qui rend difficile le choix du pronom. J'ai essayé d'indiquer de manière rigoureuse les contributions de chacun.
|
Page generated in 0.107 seconds