Spelling suggestions: "subject:"nuages dde points 3D"" "subject:"nuages dee points 3D""
1 |
Modélisation 3D et suivi visuel pour caractériser le phénotype de variétés de tournesol / 3D modeling and tracking to characterize the phenotype of sunflower varietiesGélard, William 04 December 2018 (has links)
L'augmentation constante de la demande alimentaire et énergétique dans le monde associée au réchauffement et changements climatiques ont poussé les recherches en agronomie vers le développement d'une agriculture plus durable et l'amélioration de la performance des cultures. Pour répondre à ces demandes, les chercheurs ont concentré leurs efforts sur le développement de méthodes de génotypage à haut débit (l'étude de la séquence génomique des plantes) et ont permis aux biologistes d'identifier les génotypes d'une grande quantité de plantes. De plus, comprendre les relations qui lient les génotypes (ADN) aux phénotypes (caractéristiques visuelles) qui évoluent en fonction des conditions d'irrigation, d'illumination ou de température est devenu un enjeu majeur dans la recherche agricole. Alors que les méthodes de génotypage ont été rapidement améliorées et automatisées au cours de la dernière décennie, les méthodes de phénotypage restent manuelles et parfois destructrices. Ces méthodes consistent à mesurer certains paramètres visuels d'une plante telle que : la hauteur de la tige principale, le nombre de feuilles, les angles d'initiation des feuilles ou la surface foliaire et plus important encore, à suivre ces paramètres tout au long de la croissance des plantes. Par conséquent, le nombre de plantes à cultiver est très important et les mesures prennent beaucoup de temps. Avec l'émergence des nouvelles technologies en vision par ordinateur et en robotique, les chercheurs en agronomie y ont vu un intérêt certain en vue d'automatiser la collecte et les mesures des données visuelles sur les plantes. La thèse porte sur la conception, le développement et la validation de traitements haut débit à exécuter automatiquement sur des images acquises sur des plantes de tournesol, en vue d'amplifier les capacités de phénotypage par les chercheurs en agronomie (et ultérieurement les évaluateurs de variétés et les semenciers). L'objectif est la mise au point d'un protocole d'acquisition d'images (en plante isolée) depuis un robot mobile (ou un système d'acquisition autonome) permettant d'améliorer, de moderniser et d'automatiser les méthodes de phénotypage actuelles afin d'aider les chercheurs en agronomie à collecter une grande quantité de données. Motivés par le souhait d'effectuer un phénotypage à haut débit, nous proposons une approche 3D pour extraire automatiquement les caractéristiques visuelles des plantes de tournesol cultivées en pot. Tout d'abord, un nuage de points 3D d'une plante est acquis avec des techniques classiques de Structure-from-Motion. Une étape de segmentation est ensuite effectuée pour extraire la tige principale et les feuilles. Dans le but de suivre les caractéristiques visuelles pendant la croissance des plantes, en particulier, suivre l'expansion foliaire de chaque feuille, une étape de labellisation basée sur le modèle botanique d'une plante est appliquée pour leur affecter une étiquette unique qui ne changera pas avec le temps. Enfin, les caractéristiques visuelles sont extraites et les résultats obtenus sur les plantes de tournesol démontrent l'efficacité de notre méthode et en font une étape encourageante vers le phénotypage haut débit. / The constant increasing food and energy demand in the world associated to global warming and climate change issues, pushed the researchs in plant breeding to move towards the improvement of crops performance and development of a more sustainable agriculture. To meet these demands, the effort made by the researchers were focused on the development of high-throughput genotyping methods (i.e., the study of genome sequence of plants) and allowed the biologists to indentified the genotypes of a large amount of plants. Moreover, understanding the relationships that link the genotypes (DNA) to the phenotypes (visual characteristics) that evolve according environmental conditions like: light, water, drought, heat, etc. has become a main issue in agricultural research. While the genotyping methods were rapidly improved and automatized during the last decade, the phenotyping methods remain manual, sometimes destructive and non-replicable. The usual phenotyping methods consist to measure certain visual parameters of a plant such as: main stem heigh, number of leaves, leaf initiation angle or leaf area, but more importantly, be able to follow these parameters along the plant growth. Consequently, the number of plants to harvest is very important and the measurements are extremely time-consuming. The emergence and reliability of new technologies in computer vision and robotic have led the researchers to take an interest in them and to seek how they can be used in plant science. The thesis is focused on the design, development and validation of a high-throughput phenotyping method design for sunflower plant with an eye to amplify phenotyping capacities by Agronomists and Geneticists (and later varieties evaluators and seed producers). The aim is to improve, modernize and automatize the current phenotyping methods as a way to help the plant scientists to collect a large amount of data. Motivated by the wish to perform high-throughput plant phenotyping, we propose a 3D approach to automatically extract visual characteristics of sunflower plants grown in pot. First, a 3D point cloud of a plant is acquired with classical Structure-from-Motion techniques. A segmentation step is then proceeded to retrieve the main stem and the leaves. With the intention of following the visual characteristics during the plant growth, especially, the leaf area expansion rate of each leaf, a labelling step relying on the botanical model of a plant is performed to affect them a unique label that will not change over time. Finally, the visual characteristics are extracted and results obtained on sunflower plants demonstrate the efficiency of our method and make it an encouraging step toward high-throughput plant phenotyping.
|
2 |
Co-recalage de données hétérogènes 3D géo-référencées : contributions à la correction des relevés laser mobilesRidene, Taha 09 July 2010 (has links) (PDF)
Un développement considérable des bases de données cartographiques 3D à différentes échelles s'est produit ces dernières années. Il a été stimulé par de nombreux besoins et soutenu par de véritables progrès technologiques, et par une diversité d'approches en numérisation 3D. Nous considérons dans cette thèse un contexte de production de cartographie numérique basée sur la fusion de données hétérogènes 3D. Nous intégrons trois types de données : relevés avec laser fixe, relevés avec laser mobile issus d'un Système de Cartographie Mobile (MMS) et un Modèle Numérique de Surface (MNS). Les caractéristiques différentes de ces données muti-sources se traduisent par des incohérences et des déformations. Nous nous focalisons essentiellement sur les erreurs affectant les données du MMS. Nous décrivons une démarche innovante de correction de relevés laser terrestres en nous basant sur des données externes au système d'acquisition (MNS, BD ORTHO®...). Notre démarche est basée sur un recalage hétérogène de données 3D. Nous proposons trois variantes de recalage rigide de la famille des ICP. Nous proposons également une nouvelle méthode d'évaluation qualitative du recalage, ayant deux variantes. Celle-ci est basée sur l'extraction et la comparaison de primitives géométriques. Elle a été utilisée pour la comparaison des précisions des algorithmes de recalage développés. Les résultats expérimentaux issus de nos implémentations montrent des temps raisonnables pour une exploitation sur de grandes bases de données.
|
3 |
Traitement des objets 3D et images par les méthodes numériques sur graphes / 3D object processing and Image processing by numerical methodsEl Sayed, Abdul Rahman 24 October 2018 (has links)
La détection de peau consiste à détecter les pixels correspondant à une peau humaine dans une image couleur. Les visages constituent une catégorie de stimulus importante par la richesse des informations qu’ils véhiculent car avant de reconnaître n’importe quelle personne il est indispensable de localiser et reconnaître son visage. La plupart des applications liées à la sécurité et à la biométrie reposent sur la détection de régions de peau telles que la détection de visages, le filtrage d'objets 3D pour adultes et la reconnaissance de gestes. En outre, la détection de la saillance des mailles 3D est une phase de prétraitement importante pour de nombreuses applications de vision par ordinateur. La segmentation d'objets 3D basée sur des régions saillantes a été largement utilisée dans de nombreuses applications de vision par ordinateur telles que la correspondance de formes 3D, les alignements d'objets, le lissage de nuages de points 3D, la recherche des images sur le web, l’indexation des images par le contenu, la segmentation de la vidéo et la détection et la reconnaissance de visages. La détection de peau est une tâche très difficile pour différentes raisons liées en général à la variabilité de la forme et la couleur à détecter (teintes différentes d’une personne à une autre, orientation et tailles quelconques, conditions d’éclairage) et surtout pour les images issues du web capturées sous différentes conditions de lumière. Il existe plusieurs approches connues pour la détection de peau : les approches basées sur la géométrie et l’extraction de traits caractéristiques, les approches basées sur le mouvement (la soustraction de l’arrière-plan (SAP), différence entre deux images consécutives, calcul du flot optique) et les approches basées sur la couleur. Dans cette thèse, nous proposons des méthodes d'optimisation numérique pour la détection de régions de couleurs de peaux et de régions saillantes sur des maillages 3D et des nuages de points 3D en utilisant un graphe pondéré. En se basant sur ces méthodes, nous proposons des approches de détection de visage 3D à l'aide de la programmation linéaire et de fouille de données (Data Mining). En outre, nous avons adapté nos méthodes proposées pour résoudre le problème de la simplification des nuages de points 3D et de la correspondance des objets 3D. En plus, nous montrons la robustesse et l’efficacité de nos méthodes proposées à travers de différents résultats expérimentaux réalisés. Enfin, nous montrons la stabilité et la robustesse de nos méthodes par rapport au bruit. / Skin detection involves detecting pixels corresponding to human skin in a color image. The faces constitute a category of stimulus important by the wealth of information that they convey because before recognizing any person it is essential to locate and recognize his face. Most security and biometrics applications rely on the detection of skin regions such as face detection, 3D adult object filtering, and gesture recognition. In addition, saliency detection of 3D mesh is an important pretreatment phase for many computer vision applications. 3D segmentation based on salient regions has been widely used in many computer vision applications such as 3D shape matching, object alignments, 3D point-point smoothing, searching images on the web, image indexing by content, video segmentation and face detection and recognition. The detection of skin is a very difficult task for various reasons generally related to the variability of the shape and the color to be detected (different hues from one person to another, orientation and different sizes, lighting conditions) and especially for images from the web captured under different light conditions. There are several known approaches to skin detection: approaches based on geometry and feature extraction, motion-based approaches (background subtraction (SAP), difference between two consecutive images, optical flow calculation) and color-based approaches. In this thesis, we propose numerical optimization methods for the detection of skins color and salient regions on 3D meshes and 3D point clouds using a weighted graph. Based on these methods, we provide 3D face detection approaches using Linear Programming and Data Mining. In addition, we adapted our proposed methods to solve the problem of simplifying 3D point clouds and matching 3D objects. In addition, we show the robustness and efficiency of our proposed methods through different experimental results. Finally, we show the stability and robustness of our methods with respect to noise.
|
4 |
3D Semantic SLAM of Indoor Environment with Single Depth Sensor / SLAM sémantique 3D de l'environnement intérieur avec capteur de profondeur simpleGhorpade, Vijaya Kumar 20 December 2017 (has links)
Pour agir de manière autonome et intelligente dans un environnement, un robot mobile doit disposer de cartes. Une carte contient les informations spatiales sur l’environnement. La géométrie 3D ainsi connue par le robot est utilisée non seulement pour éviter la collision avec des obstacles, mais aussi pour se localiser et pour planifier des déplacements. Les robots de prochaine génération ont besoin de davantage de capacités que de simples cartographies et d’une localisation pour coexister avec nous. La quintessence du robot humanoïde de service devra disposer de la capacité de voir comme les humains, de reconnaître, classer, interpréter la scène et exécuter les tâches de manière quasi-anthropomorphique. Par conséquent, augmenter les caractéristiques des cartes du robot à l’aide d’attributs sémiologiques à la façon des humains, afin de préciser les types de pièces, d’objets et leur aménagement spatial, est considéré comme un plus pour la robotique d’industrie et de services à venir. Une carte sémantique enrichit une carte générale avec les informations sur les entités, les fonctionnalités ou les événements qui sont situés dans l’espace. Quelques approches ont été proposées pour résoudre le problème de la cartographie sémantique en exploitant des scanners lasers ou des capteurs de temps de vol RGB-D, mais ce sujet est encore dans sa phase naissante. Dans cette thèse, une tentative de reconstruction sémantisée d’environnement d’intérieur en utilisant une caméra temps de vol qui ne délivre que des informations de profondeur est proposée. Les caméras temps de vol ont modifié le domaine de l’imagerie tridimensionnelle discrète. Elles ont dépassé les scanners traditionnels en termes de rapidité d’acquisition des données, de simplicité fonctionnement et de prix. Ces capteurs de profondeur sont destinés à occuper plus d’importance dans les futures applications robotiques. Après un bref aperçu des approches les plus récentes pour résoudre le sujet de la cartographie sémantique, en particulier en environnement intérieur. Ensuite, la calibration de la caméra a été étudiée ainsi que la nature de ses bruits. La suppression du bruit dans les données issues du capteur est menée. L’acquisition d’une collection d’images de points 3D en environnement intérieur a été réalisée. La séquence d’images ainsi acquise a alimenté un algorithme de SLAM pour reconstruire l’environnement visité. La performance du système SLAM est évaluée à partir des poses estimées en utilisant une nouvelle métrique qui est basée sur la prise en compte du contexte. L’extraction des surfaces planes est réalisée sur la carte reconstruite à partir des nuages de points en utilisant la transformation de Hough. Une interprétation sémantique de l’environnement reconstruit est réalisée. L’annotation de la scène avec informations sémantiques se déroule sur deux niveaux : l’un effectue la détection de grandes surfaces planes et procède ensuite en les classant en tant que porte, mur ou plafond; l’autre niveau de sémantisation opère au niveau des objets et traite de la reconnaissance des objets dans une scène donnée. A partir de l’élaboration d’une signature de forme invariante à la pose et en passant par une phase d’apprentissage exploitant cette signature, une interprétation de la scène contenant des objets connus et inconnus, en présence ou non d’occultations, est obtenue. Les jeux de données ont été mis à la disposition du public de la recherche universitaire. / Intelligent autonomous actions in an ordinary environment by a mobile robot require maps. A map holds the spatial information about the environment and gives the 3D geometry of the surrounding of the robot to not only avoid collision with complex obstacles, but also selflocalization and for task planning. However, in the future, service and personal robots will prevail and need arises for the robot to interact with the environment in addition to localize and navigate. This interaction demands the next generation robots to understand, interpret its environment and perform tasks in human-centric form. A simple map of the environment is far from being sufficient for the robots to co-exist and assist humans in the future. Human beings effortlessly make map and interact with environment, and it is trivial task for them. However, for robots these frivolous tasks are complex conundrums. Layering the semantic information on regular geometric maps is the leap that helps an ordinary mobile robot to be a more intelligent autonomous system. A semantic map augments a general map with the information about entities, i.e., objects, functionalities, or events, that are located in the space. The inclusion of semantics in the map enhances the robot’s spatial knowledge representation and improves its performance in managing complex tasks and human interaction. Many approaches have been proposed to address the semantic SLAM problem with laser scanners and RGB-D time-of-flight sensors, but it is still in its nascent phase. In this thesis, an endeavour to solve semantic SLAM using one of the time-of-flight sensors which gives only depth information is proposed. Time-of-flight cameras have dramatically changed the field of range imaging, and surpassed the traditional scanners in terms of rapid acquisition of data, simplicity and price. And it is believed that these depth sensors will be ubiquitous in future robotic applications. In this thesis, an endeavour to solve semantic SLAM using one of the time-of-flight sensors which gives only depth information is proposed. Starting with a brief motivation in the first chapter for semantic stance in normal maps, the state-of-the-art methods are discussed in the second chapter. Before using the camera for data acquisition, the noise characteristics of it has been studied meticulously, and properly calibrated. The novel noise filtering algorithm developed in the process, helps to get clean data for better scan matching and SLAM. The quality of the SLAM process is evaluated using a context-based similarity score metric, which has been specifically designed for the type of acquisition parameters and the data which have been used. Abstracting semantic layer on the reconstructed point cloud from SLAM has been done in two stages. In large-scale higher-level semantic interpretation, the prominent surfaces in the indoor environment are extracted and recognized, they include surfaces like walls, door, ceiling, clutter. However, in indoor single scene object-level semantic interpretation, a single 2.5D scene from the camera is parsed and the objects, surfaces are recognized. The object recognition is achieved using a novel shape signature based on probability distribution of 3D keypoints that are most stable and repeatable. The classification of prominent surfaces and single scene semantic interpretation is done using supervised machine learning and deep learning systems. To this end, the object dataset and SLAM data are also made publicly available for academic research.
|
5 |
3D urban cartography incorporating recognition and temporal integration / Cartographie urbaine 3D avec reconnaissance et intégration temporelleAijazi, Ahmad Kamal 15 December 2014 (has links)
Au cours des dernières années, la cartographie urbaine 3D a suscité un intérêt croissant pour répondre à la demande d’applications d’analyse des scènes urbaines tournées vers un large public. Conjointement les techniques d’acquisition de données 3D progressaient. Les travaux concernant la modélisation et la visualisation 3D des villes se sont donc intensifiés. Des applications fournissent au plus grand nombre des visualisations efficaces de modèles urbains à grande échelle sur la base des imageries aérienne et satellitaire. Naturellement, la demande s’est portée vers des représentations avec un point de vue terrestre pour offrir une visualisation 3D plus détaillée et plus réaliste. Intégrées dans plusieurs navigateurs géographiques comme Google Street View, Microsoft Visual Earth ou Géoportail, ces modélisations sont désormais accessibles et offrent une représentation réaliste du terrain, créée à partir des numérisateurs mobiles terrestres. Dans des environnements urbains, la qualité des données obtenues à partir de ces véhicules terrestres hybrides est largement entravée par la présence d’objets temporairement statiques ou dynamiques (piétons, voitures, etc.) dans la scène. La mise à jour de la cartographie urbaine via la détection des modifications et le traitement des données bruitées dans les environnements urbains complexes, l’appariement des nuages de points au cours de passages successifs, voire la gestion des grandes variations d’aspect de la scène dues aux conditions environnementales constituent d’autres problèmes délicats associés à cette thématique. Plus récemment, les tâches de perception s’efforcent également de mener une analyse sémantique de l’environnement urbain pour renforcer les applications intégrant des cartes urbaines 3D. Dans cette thèse, nous présentons un travail supportant le passage à l’échelle pour la cartographie 3D urbaine automatique incorporant la reconnaissance et l’intégration temporelle. Nous présentons en détail les pratiques actuelles du domaine ainsi que les différentes méthodes, les applications, les technologies récentes d’acquisition des données et de cartographie, ainsi que les différents problèmes et les défis qui leur sont associés. Le travail présenté se confronte à ces nombreux défis mais principalement à la classification des zones urbaines l’environnement, à la détection automatique des changements, à la mise à jour efficace de la carte et l’analyse sémantique de l’environnement urbain. Dans la méthode proposée, nous effectuons d’abord la classification de l’environnement urbain en éléments permanents et temporaires. Les objets classés comme temporaire sont ensuite retirés du nuage de points 3D laissant une zone perforée dans le nuage de points 3D. Ces zones perforées ainsi que d’autres imperfections sont ensuite analysées et progressivement éliminées par une mise à jour incrémentale exploitant le concept de multiples passages. Nous montrons que la méthode d’intégration temporelle proposée permet également d’améliorer l’analyse sémantique de l’environnement urbain, notamment les façades des bâtiments. Les résultats, évalués sur des données réelles en utilisant différentes métriques, démontrent non seulement que la cartographie 3D résultante est précise et bien mise à jour, qu’elle ne contient que les caractéristiques permanentes exactes et sans imperfections, mais aussi que la méthode est également adaptée pour opérer sur des scènes urbaines de grande taille. La méthode est adaptée pour des applications liées à la modélisation et la cartographie du paysage urbain nécessitant une mise à jour fréquente de la base de données. / Over the years, 3D urban cartography has gained widespread interest and importance in the scientific community due to an ever increasing demand for urban landscape analysis for different popular applications, coupled with advances in 3D data acquisition technology. As a result, in the last few years, work on the 3D modeling and visualization of cities has intensified. Lately, applications have been very successful in delivering effective visualizations of large scale models based on aerial and satellite imagery to a broad audience. This has created a demand for ground based models as the next logical step to offer 3D visualizations of cities. Integrated in several geographical navigators, like Google Street View, Microsoft Visual Earth or Geoportail, several such models are accessible to large public who enthusiastically view the real-like representation of the terrain, created by mobile terrestrial image acquisition techniques. However, in urban environments, the quality of data acquired by these hybrid terrestrial vehicles is widely hampered by the presence of temporary stationary and dynamic objects (pedestrians, cars, etc.) in the scene. Other associated problems include efficient update of the urban cartography, effective change detection in the urban environment and issues like processing noisy data in the cluttered urban environment, matching / registration of point clouds in successive passages, and wide variations in environmental conditions, etc. Another aspect that has attracted a lot of attention recently is the semantic analysis of the urban environment to enrich semantically 3D mapping of urban cities, necessary for various perception tasks and modern applications. In this thesis, we present a scalable framework for automatic 3D urban cartography which incorporates recognition and temporal integration. We present in details the current practices in the domain along with the different methods, applications, recent data acquisition and mapping technologies as well as the different problems and challenges associated with them. The work presented addresses many of these challenges mainly pertaining to classification of urban environment, automatic change detection, efficient updating of 3D urban cartography and semantic analysis of the urban environment. In the proposed method, we first classify the urban environment into permanent and temporary classes. The objects classified as temporary are then removed from the 3D point cloud leaving behind a perforated 3D point cloud of the urban environment. These perforations along with other imperfections are then analyzed and progressively removed by incremental updating exploiting the concept of multiple passages. We also show that the proposed method of temporal integration also helps in improved semantic analysis of the urban environment, specially building façades. The proposed methods ensure that the resulting 3D cartography contains only the exact, accurate and well updated permanent features of the urban environment. These methods are validated on real data obtained from different sources in different environments. The results not only demonstrate the efficiency, scalability and technical strength of the method but also that it is ideally suited for applications pertaining to urban landscape modeling and cartography requiring frequent database updating.
|
Page generated in 0.0852 seconds