• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 191
  • 63
  • 25
  • 3
  • 1
  • Tagged with
  • 273
  • 78
  • 49
  • 31
  • 30
  • 29
  • 24
  • 22
  • 20
  • 20
  • 19
  • 18
  • 17
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Contributions à l'analyse de visages en 3D : approche régions, approche holistique et étude de dégradations

Lemaire, Pierre 29 March 2013 (has links)
Historiquement et socialement, le visage est chez l'humain une modalité de prédilection pour déterminer l'identité et l'état émotionnel d'une personne. Il est naturellement exploité en vision par ordinateur pour les problèmes de reconnaissance de personnes et d'émotions. Les algorithmes d'analyse faciale automatique doivent relever de nombreux défis : ils doivent être robustes aux conditions d'acquisition ainsi qu'aux expressions du visage, à l'identité, au vieillissement ou aux occultations selon le scénario. La modalité 3D a ainsi été récemment investiguée. Elle a l'avantage de permettre aux algorithmes d'être, en principe, robustes aux conditions d'éclairage ainsi qu'à la pose. Cette thèse est consacrée à l'analyse de visages en 3D, et plus précisément la reconnaissance faciale ainsi que la reconnaissance d'expressions faciales en 3D sans texture. Nous avons dans un premier temps axé notre travail sur l'apport que pouvait constituer une approche régions aux problèmes d'analyse faciale en 3D. L'idée générale est que le visage, pour réaliser les expressions faciales, est déformé localement par l'activation de muscles ou de groupes musculaires. Il est alors concevable de décomposer le visage en régions mimiques et statiques, et d'en tirer ainsi profit en analyse faciale. Nous avons proposé une paramétrisation spécifique, basée sur les distances géodésiques, pour rendre la localisation des régions mimiques et statiques le plus robustes possible aux expressions. Nous avons également proposé une approche régions pour la reconnaissance d'expressions du visage, qui permet de compenser les erreurs liées à la localisation automatique de points d'intérêt. Les deux approches proposées dans ce chapitre ont été évaluées sur des bases standards de l'état de l'art. Nous avons également souhaité aborder le problème de l'analyse faciale en 3D sous un autre angle, en adoptant un système de cartes de représentation de la surface 3D. Nous avons ainsi proposé de projeter sur le plan 2D des informations liées à la topologie de la surface 3D, à l'aide d'un descripteur géométrique inspiré d'une mesure de courbure moyenne. Les problèmes de reconnaissance faciale et de reconnaissance d'expressions 3D sont alors ramenés à ceux de l'analyse faciale en 2D. Nous avons par exemple utilisé SIFT pour l'extraction puis l'appariement de points d'intérêt en reconnaissance faciale. En reconnaissance d'expressions, nous avons utilisé une méthode de description des visages basée sur les histogrammes de gradients orientés, puis classé les expressions à l'aide de SVM multi-classes. Dans les deux cas, une méthode de fusion simple permet l'agrégation des résultats obtenus à différentes échelles. Ces deux propositions ont été évaluées sur la base BU-3DFE, montrant de bonnes performances tout en étant complètement automatiques. Enfin, nous nous sommes intéressés à l'impact des dégradations des modèles 3D sur les performances des algorithmes d'analyse faciale. Ces dégradations peuvent avoir plusieurs origines, de la capture physique du visage humain au traitement des données en vue de leur interprétation par l'algorithme. Après une étude des origines et une théorisation des types de dégradations potentielles, nous avons défini une méthodologie permettant de chiffrer leur impact sur des algorithmes d'analyse faciale en 3D. Le principe est d'exploiter une base de données considérée sans défauts, puis de lui appliquer des dégradations canoniques et quantifiables. Les algorithmes d'analyse sont alors testés en comparaison sur les bases dégradées et originales. Nous avons ainsi comparé le comportement de 4 algorithmes de reconnaissance faciale en 3D, ainsi que leur fusion, en présence de dégradations, validant par la diversité des résultats obtenus la pertinence de ce type d'évaluation. / Historically and socially, the human face is one of the most natural modalities for determining the identity and the emotional state of a person. It has been exploited by computer vision scientists within the automatic facial analysis domain. Still, proposed algorithms classically encounter a number of shortcomings. They must be robust to varied acquisition conditions. Depending on the scenario, they must take into account intra-class variations such as expression, identity (for facial expression recognition), aging, occlusions. Thus, the 3D modality has been suggested as a counterpoint for a number of those issues. In principle, 3D views of an object are insensitive to lightning conditions. They are, theoretically, pose-independant as well. The present thesis work is dedicated to 3D Face Analysis. More precisely, it is focused on non-textured 3D Face Recognition and 3D Facial Expression Recognition. In the first instance, we have studied the benefits of a region-based approach to 3D Face Analysis problems. The general concept is that a face, when performing facial expressions, is deformed locally by the activation of muscles or groups of muscles. We then assumed that it was possible to decompose the face into several regions of interest, assumed to be either mimic or static. We have proposed a specific facial surface parametrization, based upon geodesic distance. It is designed to make region localization as robust as possible regarding expression variations. We have also used a region-based approach for 3D facial expression recognition, which allows us to compensate for errors relative to automatic landmark localization. We also wanted to experiment with a Representation Map system. Here, the main idea is to project 3D surface topology data on the 2D plan. This translation to the 2D domain allows us to benefit from the large amount of related works in the litterature. We first represent the face as a set of maps representing different scales, with the help of a geometric operator inspired by the Mean Curvature measure. For Facial Recognition, we perform a SIFT keypoints extraction. Then, we match extracted keypoints between corresponding maps. As for Facial Expression Recognition, we normalize and describe every map thanks to the Histograms of Oriented Gradients algorithm. We further classify expressions using multi-class SVM. In both cases, a simple fusion step allows us to aggregate the results obtained on every single map. Finally, we have studied the impact of 3D models degradations over the performances of 3D facial analysis algorithms. A 3D facial scan may be an altered representation of its real life model, because of several reasons, which range from the physical caption of the human model to data processing. We propose a methodology that allows us to quantify the impact of every single type of degradation over the performances of 3D face analysis algorithms. The principle is to build a database regarded as free of defaults, then to apply measurable degradations to it. Algorithms are further tested on clean and degraded datasets, which allows us to quantify the performance loss caused by degradations. As an experimental proof of concept, we have tested four different algorithms, as well as their fusion, following the aforementioned protocol. With respect to the various types of contemplated degradations, the diversity of observed behaviours shows the relevance of our approach.
112

Aide à la conception de légendes personnalisées et originales : proposition d'une méthode coopérative pour le choix des couleurs / Helping users to make on-demand and original legends : proposition of a cooperative method to choose colours

Christophe, Sidonie 30 October 2009 (has links)
Aide à la conception de légendes personnalisées et originales : proposition d'une méthode coopérative pour le choix des couleurs Les utilisateurs s'approprient aisément les outils cartographiques numériques pour se construire leur propre carte. Cependant, l'accès aux outils ne suffit pas pour concevoir une légende cartographique de qualité. Il est nécessaire de savoir comment faire de bons choix de représentation graphique, en particulier de bons choix de couleurs. Une expertise cartographique comportant des connaissances en sémiologie graphique et en perception des couleurs (contrastes et harmonies) est nécessaire : soit l'utilisateur possède ces connaissances, soit les outils doivent les lui apporter. Dans ce contexte, nous cherchons à aider les utilisateurs à concevoir des légendes personnalisées et originales, en nous concentrant sur l'aide au choix des couleurs. Nous proposons une méthode de conception coopérative en quatre phases reposant sur des interactions homme-machine : 1- choix d'une source d'inspiration, 2- acquisition des préférences de l'utilisateur sur les sources d'inspiration, 3- interprétation des préférences et construction de légendes adaptées, 4- retouche de légendes. Deux stratégies de conception sont envisagées en utilisant deux types de sources d'inspiration : des échantillons de carte et des toiles de maîtres. En partant du constat que des désaccords entre l'utilisateur et le système peuvent se produire, nous proposons d'utiliser des techniques de dialogue homme-machine pour améliorer l'adaptation du système à l'utilisateur. Le modèle de dialogue ainsi proposé est implémenté dans le prototype COLorLEGend (COLLEG) / Helping users to make on-demand and original legends : proposition of a cooperative method to choose colours Current cartographic tools allow technically novice and expert users to make maps. However resulting legends may be of poor quality because users do not know how to make good choices of graphic representation and especially good choices of colours. Cartographic expertise including semiologic rules and colour perception knowledge (contrasts and harmony) is required. If users are not experts, cartographic tools should other them this expertise. In this context, we want to help users to design customized and original legends, by helping them to select suitable colours. We propose a cooperative method in four stages : 1- selection of an inspiration source, 2- identification of user's colour preferences on inspiration sources, 3- interpretation of preferences and design of suitable legends, 4- refinement of legends. Two legend design strategies, based on map samples and master paintings, are used. However, conflicts between the user and the system may appear. Therefore we propose to rely on human-machine dialog techniques in order to better adapt the process to the user. A dialog model is implemented and the prototype COLorLEGend (COLLEG) is presented
113

Exploitation de données tridimensionnelles pour la cartographie et l'exploration autonome d'environnements urbains

Fournier, Jonathan 12 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / Une solution de plus en plus courante pour appuyer les forces militaires déployées en milieu urbain consiste à utiliser des plates-formes robotisées pour la réalisation des tâches présentant un niveau de risque important. Dans cette optique, les travaux de recherche présentés dans ce mémoire ont permis de développer un système exploitant un capteur volumétrique 3D pour effectuer la modélisation d'environnements urbains et l'exploration efficace de ceux-ci à l'aide d'une plate-forme mobile autonome. Un aspect important de ce projet est que, le modèle 3D de l'environnement étant préservé sous forme d'octree multirésolution tout au long du processus, les modules de cartographie, d'exploration et de navigation qui composent la plate-forme mobile peuvent y avoir accès en tout temps afin d'effectuer leurs tâches respectives. À partir des résultats obtenus pour des tests effectués en simulation et dans un environnement réel, il a été possible de valider que le système développé permet d'explorer un environnement de façon autonome tout en générant de façon simultanée un modèle 3D complet de l'espace parcouru.
114

Etude asymptotique de grands objets combinatoires aléatoires / Asymptotic study of large random combinatorial objects

Curien, Nicolas 10 June 2011 (has links)
Dans ce travail, nous nous sommes intéressés à l'étude asymptotique d'objets combinatoires aléatoires. Deux thèmes ont particulièrement retenu notre attention : les cartes planaires aléatoires et les modèles combinatoires liés à la théorie des fragmentations. La théorie mathématique des cartes planaires aléatoires est née à l'aube de notre millénaire avec les travaux pionniers de Benjamini & Schramm, Angel & Schramm et Chassaing & Schaeffer. Elle a ensuite beaucoup progressé, mais à l'heure où ces lignes sont écrites, de nombreux problèmes fondamentaux restent ouverts. Résumons en quelques mots clés nos principales contributions dans le domaine : l'introduction et l'étude du cactus brownien (avec J.F. Le Gall et G. Miermont), l'étude de la quadrangulation infinie uniforme vue de l'infini (avec L. Ménard et G. Miermont), ainsi que des travaux plus théoriques sur les graphes aléatoires stationnaires d'une part et les graphes empilables dans $\R^d$ d'autre part (avec I. Benjamini). La théorie des fragmentations est beaucoup plus ancienne et remonte à des travaux de Kolmogorov (1941) et de Filippov (1961). Elle est maintenant bien développée (voir par exemple l'excellent livre de J. Bertoin), et nous ne nous sommes pas focalisés sur cette théorie mais plutôt sur ses applications à des modèles combinatoires. Elle s'avère en effet très utile pour étudier différents modèles de triangulations récursives du disque (travail effectué avec J.F. Le Gall) et les recherches partielles dans les quadtrees (travail effectué avec A. Joseph). / The subject of this thesis is the asymptotic study of large random combinatorial objects. This is obviously very broad, and we focused particularly on two themes: random planar maps and their limits, and combinatorial models that are in a way linked to fragmentation theory. The mathematical theory of random planar maps is quite young and was triggered by works of Benjamini & Schramm, Angel & Schramm and Chassaing & Schaeffer. This fascinating field is still growing and fundamental problems remain unsolved. We present some new results in both the scaling limit and local limit theories by introducing and studying the Brownian Cactus (with J.F. Le Gall and G. Miermont), giving a new view point, a view from infinity, at the Uniform Infinite Planar Quadrangulation (UIPQ) and bringing more theoretical contributions on stationary random graphs and sphere packable graphs (with I. Benjamini). Fragmentation theory is much older and can be tracked back to Kolmogorov and Filippov. Our goal was not to give a new abstract contribution to this well-developed theory (see the beautiful book of J. Bertoin) but rather to apply it to random combinatorial objects. Indeed, fragmentation theory turned out to be useful in the study of the so-called random recursive triangulations of the disk (joint work with J.F. Le Gall) and partial match queries in random quadtrees (joint work with A. Joseph).
115

Suivi d'objets dans une séquence d'images par modèle d'apparence : conception et évaluation

Mikram, Mounia 15 December 2008 (has links)
Le travail présenté dans ce mémoire s’inscrit dans le cadre du suivi d'objets dans des vidéos, et plus particulièrement, sur l'utilisation de représentations par modèle d'apparence pour le suivi. La notion de modèle d'apparence est précisée sur la base de l'extraction de descripteurs visuels comparés à l'aide de similarités à une référence. De nouvelles techniques pour évaluer les performances vis à vis du suivi sont présentées. Les approches classiques d’évaluation considèrent uniquement la qualité des trajectoires finales estimées. Les métriques proposées dans ce mémoire s’en distinguent par le fait qu’elles quantifient la performance intrinsèque des modèles d’apparence utilisés au sein du système. Deux axes sont ainsi développés : d’une part, un ensemble de mesures de la précision spatiale d’un modèle couplées à la mesure de la robustesse vis-à-vis d’une initialisation spatiale approximative, et d’autre part, la proposition d’une méthodologie permettant de mesurer la stabilité d’un modèle du point de vue temporel sur des données vidéos naturelles. Ces techniques seront utilisées dans la suite du mémoire pour évaluer les méthodes existantes ainsi que celles présentées. Deux nouveaux modèles d'apparence sont ensuite introduits. Le premier modèle dénommé l’histogramme multi-échelles permet de limiter les ambigüités liées à la représentation par histogramme de couleurs. Le deuxième modèle, fondé sur une extension de la métrique de Matusita pour la comparaison de distributions de couleurs, prend en compte les variations possibles des couleurs des objets liées aux conditions de changement d’illumination. Enfin, le lien entre modèle d'apparence et technique de recherche de la position optimale est abordé dans le contexte du suivi multi-noyaux à travers la proposition d'un nouvel algorithme de suivi basé sur une approche compositionnelle inverse. Celui-ci offre un temps de calcul fortement réduit pour une qualité de suivi similaire aux algorithmes existants. / Abstract
116

Utilisation d'ontologies comme support à la recherche et à la navigation dans une collection de documents / ONTOLOGY BASED INFORMATION RETRIEVAL

Sy, Mohameth François 11 December 2012 (has links)
Les ontologies offrent une modélisation des connaissances d'un domaine basée sur une hiérarchie des concepts clefs de ce domaine. Leur utilisation dans le cadre des Systèmes de Recherche d'Information (SRI), tant pour indexer les documents que pour exprimer une requête, permet notamment d'éviter les ambiguïtés du langage naturel qui pénalisent les SRI classiques. Les travaux de cette thèse portent essentiellement sur l'utilisation d'ontologies lors du processus d'appariement durant lequel les SRI ordonnent les documents d'une collection en fonction de leur pertinence par rapport à une requête utilisateur. Nous proposons de calculer cette pertinence à l'aide d'une stratégie d'agrégation de scores élémentaires entre chaque document et chaque concept de la requête. Cette agrégation, simple et intuitive, intègre un modèle de préférences dépendant de l'utilisateur et une mesure de similarité sémantique associée à l'ontologie. L'intérêt majeur de cette approche est qu'elle permet d'expliquer à l'utilisateur pourquoi notre SRI, OBIRS, estime que les documents qu'il a sélectionnés sont pertinents. Nous proposons de renforcer cette justification grâce à une visualisation originale où les résultats sont représentés par des pictogrammes, résumant leurs pertinences élémentaires, puis disposés sur une carte sémantique en fonction de leur pertinence globale. La Recherche d'Information étant un processus itératif, il est nécessaire de permettre à l'utilisateur d'interagir avec le SRI, de comprendre et d'évaluer les résultats et de le guider dans sa reformulation de requête. Nous proposons une stratégie de reformulation de requêtes conceptuelles basée sur la transposition d'une méthode éprouvée dans le cadre de SRI vectoriels. La reformulation devient alors un problème d'optimisation utilisant les retours faits par l'utilisateur sur les premiers résultats proposés comme base d'apprentissage. Nous avons développé une heuristique permettant de s'approcher d'une requête optimale en ne testant qu'un sous-espace des requêtes conceptuelles possibles. Nous montrons que l'identification efficace des concepts de ce sous-espace découle de deux propriétés qu'une grande partie des mesures de similarité sémantique vérifient, et qui suffisent à garantir la connexité du voisinage sémantique d'un concept.Les modèles que nous proposons sont validés tant sur la base de performances obtenues sur des jeux de tests standards, que sur la base de cas d'études impliquant des experts biologistes. / Domain ontologies provide a knowledge model where the main concepts of a domain are organized through hierarchical relationships. In conceptual Information Retrieval Systems (IRS), where they are used to index documents as well as to formulate a query, their use allows to overcome some ambiguities of classical IRSs based on natural language processes.One of the contributions of this study consists in the use of ontologies within IRSs, in particular to assess the relevance of documents with respect to a given query. For this matching process, a simple and intuitive aggregation approach is proposed, that incorporates user dependent preferences model on one hand, and semantic similarity measures attached to a domain ontology on the other hand. This matching strategy allows justifying the relevance of the results to the user. To complete this explanation, semantic maps are built, to help the user to grasp the results at a glance. Documents are displayed as icons that detail their elementary scores. They are organized so that their graphical distance on the map reflects their relevance to a query represented as a probe. As Information Retrieval is an iterative process, it is necessary to involve the users in the control loop of the results relevancy in order to better specify their information needs. Inspired by experienced strategies in vector models, we propose, in the context of conceptual IRS, to formalize ontology based relevance feedback. This strategy consists in searching a conceptual query that optimizes a tradeoff between relevant documents closeness and irrelevant documents remoteness, modeled through an objective function. From a set of concepts of interest, a heuristic is proposed that efficiently builds a near optimal query. This heuristic relies on two simple properties of semantic similarities that are proved to ensure semantic neighborhood connectivity. Hence, only an excerpt of the ontology dag structure is explored during query reformulation.These approaches have been implemented in OBIRS, our ontological based IRS and validated in two ways: automatic assessment based on standard collections of tests, and case studies involving experts from biomedical domain.
117

Lane-level vehicle localization with integrity monitoring for data aggregation / Estimation intègre par les véhicules de leur voie de circulation pour l’agrégation de données

Li, Franck 18 December 2018 (has links)
Les informations contenues dans les cartes routières numériques revêtent une importance grandissante dans le domaine des véhicules intelligents. La prise en compte d’environnements de plus en plus complexes a augmenté le niveau de précision exigé des informations cartographiques. Les cartes routières numériques, considérées ici comme des bases de données géographiques, contiennent des informations contextuelles sur le réseau routier, facilitant la compréhension correcte de l’environnement. En les combinant avec les données provenant des capteurs embarqués, une représentation plus fine de l’environnement peut être obtenue, améliorant grandement la compréhension de contexte du véhicule et la prise de décision. La performance des différents capteurs peut varier grandement en fonction du lieu considéré, ceci étant principalement dû à des facteurs environnementaux. Au contraire, une carte peut fournir ses informations de manière fiable, sans être affectée par ces éléments extérieurs, mais pour cela, elle doit reposer sur un autre élément essentiel : une source de localisation. Le secteur automobile utilise les systèmes de localisation globale par satellite (GNSS) à des fins de localisation absolue, mais cette solution n’est pas parfaite, étant soumise à différentes sources d’erreur. Ces erreurs sont elles aussi dépendantes de l’environnent d’évolution du véhicule (par exemple, des multi-trajets causés par des bâtiments). Nous sommes donc en présence de deux systèmes centraux, dont les performances sont d´dépendantes du lieu considéré. Cette étude se focalise sur leur dénominateur commun : la carte routière numérique, et son utilisation en tant qu’outil d’évaluation de leur performance. L’idée développée durant cette thèse est d’utiliser la carte en tant que canevas d’apprentissage, pour stocker des informations géoréférencées sur la performance des diésèrent capteurs équipant le véhicule, au cours de trajets répétitifs. Pour cela, une localisation robuste, relative à la carte, est nécessaire au travers d’une méthode de map-matching. La problématique principale réside dans la différence de précision entre la carte et le positionnement GNSS, créant des situations ambigües. Durant cette thèse, un algorithme de map-matching a été conçu pour gérer ces ambigüités en fournissant des hypothèses multiples lorsque nécessaire. L’objectif est d’assurer l’intégrité de l’algorithme en retournant un ensemble d’hypothèses contenant l’hypothèse correcte avec une grande probabilité. Cet algorithme utilise les capteurs proprioceptifs dans une approche de navigation à l’estime aidée d’informations cartographiques. Une procédure d’évaluation de cohérence, utilisant le GNSS comme information redondante de positionnement est ensuite appliquée, visant à isoler une hypothèse cohérente unique qui pourra ainsi être utilisée avec confiance dans le processus d’écriture dans la carte. L’utilisation de la carte numérique en écriture/lecture a été évaluée et la procédure complète d’écriture a été testée sur des données réelles, enregistrées par des véhicules expérimentaux sur route ouverte. / The information stored in digital road maps has become very important for intelligent vehicles. As intelligent vehicles address more complex environments, the accuracy requirements for this information have increased. Regarded as a geographic database, digital road maps contain contextual information about the road network, crucial for a good understanding of the environment. When combined with data acquired from on-board sensors, a better representation of the environment can be made, improving the vehicle’s situation understanding. Sensors performance can vary drastically depending on the location of the vehicle, mainly due to environmental factors. Comparatively, a map can provide prior information more reliably but to do so, it depends on another essential component: a localization system. Global Navigation Satellite Systems (GNSS) are commonly used in automotive to provide an absolute positioning of the vehicle, but its accuracy is not perfect: GNSS are prone to errors, also depending greatly on the environment (e.g., multipaths). Perception and localization systems are two important components of an intelligent vehicle whose performances vary in function of the vehicle location. This research focuses on their common denominator, the digital road map, and its use as a tool to assess their performance. The idea developed during this thesis is to use the map as a learning canvas, to store georeferenced information about the performance of the sensors during repetitive travels. This requires a robust localization with respect to the map to be available, through a process of map-matching. The main problematic is the discrepancy between the accuracy of the map and of the GNSS, creating ambiguous situations. This thesis develops a map-matching algorithm designed to cope with these ambiguities by providing multiple hypotheses when necessary. The objective is to ensure the integrity of the result by returning a hypothesis set containing the correct matching with high probability. The method relies on proprioceptive sensors via a dead-reckoning approach aided by the map. A coherence checking procedure using GNSS redundant information is then applied to isolate a single map-matching result that can be used to write learning data with confidence in the map. The possibility to handle the digital map in read/write operation has been assessed and the whole writing procedure has been tested on data recorded by test vehicles on open roads.
118

Application des cartes combinatoires à la modélisation géométrique et sémantique des bâtiments / Application of the combinatiorial maps to geometric and semantic modelling of buildings

Diakité, Abdoulaye Abou 11 December 2015 (has links)
Les modèles 3D de bâtiment sont largement utilisés dans l'industrie de la construction et sont nécessités par plusieurs applications telles que la représentation architecturale et les processus de simulation. Malheureusement, ces modèles manquent souvent d'informations d'une importance majeure pour permettre d'effectuer des opérations d'analyse et de calcul. Les modèles originaux sont alors souvent reconstruits par les différents acteurs qui les utilisent afin de les rendre plus adaptés à leur besoins. Dans le but de pallier ce problème, nous introduisons une approche permettant d'enrichir un modèle 3D de bâtiment et le rendre beaucoup plus interopérable. À partir de l'information géométrique seulement, nous rajoutons au modèle des informations topologiques et sémantiques. Une subdivision cellulaire de l'espace occupé par le bâtiment est d'abord effectuée en se basant sur sa géométrie, puis les relations topologiques entre les cellules sont reconstruites et explicitement définies. Des étiquettes sémantiques sont ensuite attribuées aux composants identifiés du bâtiment à l'aide de la topologie reconstruite et des règles heuristiques prédéfinies. Une structure de données topologique appelée carte combinatoire 3D (3-carte) est utilisée comme une base solide pour la mise au point des opération de reconstruction et le traitement des informations reconstruites. À partir du modèle enrichi, nous montrons comment extraire des données pour des applications dédiées, par exemple la simulation acoustique et lancer de rayon pour la navigation intérieure. Notre méthode se présente comme un pont entre les approches de modélisation et les applications d'analyse du bâtiment qui utilisent ces modèles. Il est entièrement automatique et présente des résultats intéressants sur plusieurs types de modèles / 3D building models are widely used in the civil engineering industry. While the models are needed by several applications, such as architectural representations and simulation processes, they often lack of information that are of major importance for the consistency of the calculations. The original models are then often rebuilt in the way that fits better to the intended applications. To overcome this drawback, we introduce a framework allowing to enrich a 3D model of a building presenting just a geometry, in a way more interoperable model, by adding to it topological and semantic information. A cellular subdivision of the building space is first performed relying on its geometry, then the topological relationships between the cells are explicitely defined. Semantic labels are then attributed to the identified components based on the topology and defined heuristic rules. A 3D combinatorial map data structure (3-map) is used to handle the reconstructed information. From the enriched model we show how to extract applications-driven information allowing to perform acoustic simulation and indoor ray tracing navigation. The approach stands as a bridge between the modeling approaches and the applications in building analysis using the model. It is fully automatic and present interesting results on several types of building models
119

Extraction de fragments forestiers et caractérisation de leurs évolutions spatio-temporelles pour évaluer l'effet de l'histoire sur la biodiversité : une approche multi-sources / Forest fragments extraction and characterization of their spatiotemporal evolution to evaluate the effects of history on biodiversity : a multi-source approach

Herrault, Pierre-Alexis 19 June 2015 (has links)
La biodiversité dans les paysages dépend des caractéristiques de ce paysage mais peut aussi être influencée par son histoire. En effet, certaines espèces ne réagissent pas immédiatement à une perturbation mais peuvent montrer un temps de réponse plus ou moins long. De ce fait, la prise en compte de l'évolution de l'habitat des espèces est devenue un enjeu important en écologie depuis quelques années, pour mieux comprendre la présence ou la diversité biologique actuelle. L'objectif de cette thèse en géomatique s'inscrit dans ce contexte applicatif d'écologie historique. Le sujet que nous traitons porte sur l'extraction automatique d'îlots boisés et la caractérisation de leur évolution spatio-temporelle depuis le milieu du XIXe siècle pour modéliser l'effet de leur trajectoire historique sur la diversité actuelle en syrphes forestiers (Diptera : Syrphidae). Le site d'étude est un paysage agri-forestier des Coteaux de Gascogne. La démarche générale proposée se compose de trois étapes principales : (1) la constitution de la base de données spatiales des îlots boisés intégrant plusieurs sources de données hétérogènes, (2) l'appariement des îlots boisés aux différentes dates avec la caractérisation de leur évolution spatio-temporelle, (3) la modélisation statistique des relations espèces-habitats intégrant l'histoire comme un des facteurs explicatifs de la diversité en syrphes observée. Plusieurs contributions méthodologiques ont été apportées à cette démarche. Nous avons proposé une nouvelle méthode de correction géométrique fondée sur la régression ridge à noyau pour rendre compatible les données spatiales anciennes et actuelles mobilisées. Nous avons également développé une approche et un outil de vectorisation automatique des forêts dans les dessins-minutes de la carte d'Etat-Major du XIXe siècle. Enfin, une première évaluation de l'impact de l'incertitude spatiale sur la réponse des modèles espèces-habitats a également été initiée. D'un point de vue écologique, les résultats ont révélé un effet significatif de la continuité temporelle des habitats sur la diversité en syrphes forestiers. Nous avons montré que les forêts les plus isolées présentaient une dette d'extinction ou un crédit de colonisation selon le type d'évolutions apparues au cours de la dernière période étudiée (1979-2010). Il s'est avéré qu'une durée de 30 ans n'était pas suffisante aux syrphes forestiers pour qu'ils retrouvent un été d'équilibre à la suite d'une évolution spatiale de leur habitat isolé. / Biodiversity in landscapes depends on landscape spatial patterns but can also be influenced by landscape history. Indeed, some species are likely to respond in the longer term to habitat disturbances. Therefore, in recent years, landscape dynamics have become a possible factor to explain current biodiversity. The aim of this thesis in GIS is part of this historical ecology context. We are dealing with automatic extraction of forest patches and characterization of their spatiotemporal evolution. The objective is to evaluate forest dynamics effects on current diversity of forest hoverflies. (Diptera: Syrphidae) in the agri-forestry landscape of Coteaux de Gascogne. The proposed general approach consists of three main steps: (1) the forest spatial database production from heterogeneous sources, (2) forest patches matching and characterization of their spatiotemporal evolution, (3) species-habitat modeling while integrating history as one of the factors likely to explain hoverflies diversity. Several methodological contributions were made. We proposed a new geometric correction approach based on kernel ridge regression to make consistent past and present selected data sources. We also developed an automatic extraction approach of forest from Historical Map of France of the 19th century. Finally, spatial uncertainty effects on ecological models responses have been assessed. From an ecological viewpoint, a significant effect from historical continuity of patches on forest hoverflies diversity was revealed. The most isolated fragments presented an extinction debt or a colonization credit according to area dynamics occurred in the last time-period (1970-2010). As it turns out, 30 years was not sufficient for forest hoverflies to reach new equilibrium after isolated habitat changes.
120

Télédétection des groupes phytoplanctoniques via l'utilisation conjointe de mesures satellites, in situ et d'une méthode de classification automatique / Remote sensing of phytoplakton types via the joint use of satellite measurements, in situ, and a method of automatic classification

Ben Mustapha, Zied 07 November 2013 (has links)
La télédétection de la couleur de l'océan représente un outil adapté à l'observation du phytoplancton avec des résolutions spatio-temporelles élevées et pouvant être adaptées à chaque cas d'étude. Plusieurs méthodes ont été développées ces dernières années afin de permettre la distinction de différents groupes de phytoplancton en utilisant les données des capteurs de la couleur de l'océan. Dans le cadre de cette thèse, on présente une nouvelle approche, appelée PHYSAT-SOM, qui se base sur l'application d'un algorithme de classification automatique non supervisée (SOM ou Self-Organizing Maps) à l'extraction de différentes formes et amplitudes de spectres d'anomalies de luminances (Ra ou Radiance Anomaly). Cette anomalie spectrale a été définie par Alvain et al. (2005), lors du développement de la méthode PHYSAT et il est actuellement admis que sa variabilité est reliée à celle de la composition des communautés phytoplanctoniques. L'utilisation des SOM vise à améliorer la caractérisation de la variabilité des Ra en termes de forme et amplitude ainsi que l'expansion du potentiel de leur utilisation à de grandes bases de données in situ de pigments. En considérant un même jeu de données de spectres de Ra, une comparaison entre la précédente version de PHYSAT et la nouvelle approche, basée sur SOM a montré qu'il est maintenant possible de couvrir toute la variabilité spectrale des Ra. Ceci n'était pas le cas avec l'ancienne approche du fait de l'utilisation de seuils, définis dans le but d'éviter les chevauchements entre les signatures spectrales des différents groupes de phytoplancton. La méthode basée sur SOM est pertinente pour caractériser une grande variété de spectres de Ra, de par sa capacité à gérer de grandes quantités de données et de sa fiabilité statistique. La première approche aurait pu, de ce fait, introduire des biais potentiels et donc, les possibilités de son extension à de plus grandes bases de données in situ étaient relativement restreintes. Par la suite, SOM a été utilisé pour classer les spectres de Ra fréquemment observés à l'échelle globale. Ces spectres ont ensuite été empiriquement reliés à différents groupes de phytoplancton, identifiés à partir de données in situ de pigments. Cette classification a été appliquée aux archives satellite du capteur SeaWiFS, permettant l'étude de la distribution globale de chaque groupe. Grâce à sa capacité à caractériser un large éventail de spectres de Ra et de gérer une plus grande base de données in situ, l'outil SOM permet de classer un nombre plus élevé de pixels (2x plus) que la précédente approche de PHYSAT. En outre, différentes signatures spectrales de Ra ont été associées aux diatomées. Ces signatures sont situées dans divers environnements où les propriétés optiques inhérentes affectant les spectres de Ra sont susceptibles d'être significativement différentes. Par ailleurs, les floraisons de diatomées dans certaines conditions sont plus clairement visibles avec la nouvelle méthode. La méthode PHYSAT-SOM offre ainsi plusieurs perspectives afin d'aller plus loin dans l'utilisation des données de la couleur de l'océan pour la détection des groupes de phytoplancton. On peut citer l'exemple d'une application future dans les eaux du Cas 2, moyennant une approche de normalisation adéquate du signal de luminances. Une étude préliminaire en Manche et Mer du Nord est présentée dans le dernier chapitre, montrant qu'il sera possible d'utiliser PHYSAT-SOM dans cet environnement optiquement complexe. / Remote sensing of ocean color is a powerful tool for monitoring phytoplankton in the ocean with a high spatial and temporal resolution. Several methods were developed in the past years for detecting phytoplankton functional types from satellite observations. In this thesis, we present an automatic classification method, based on a neural network clustering algorithm, in order to classify the anomalies of water leaving radiances spectra (Ra), introduced in the PHYSAT method by Alvain et al. (2005) and analyze their variability at the global scale. The use of an unsupervised classification aims at improving the characterization of the spectral variability of Ra in terms of shape and amplitude as well as the expansion of its potential use to larger in situ datasets for global phytoplankton remote sensing. The Self-Organizing Map Algorithm (SOM) aggregates similar spectra into a reduced set of pertinent groups, allowing the characterization of the Ra variability, which is known to be linked with the phytoplankton community composition. Based on the same sample of Ra spectra, a comparison between the previous version of PHYSAT and the new one using SOM shows that is now possible to take into consideration all the types of spectra. This was not possible with the previous approach, based on thresholds, defined in order to avoid overlaps between the spectral signatures of each phytoplankton group. The SOM-based method is relevant for characterizing a wide variety of Ra spectra through its ability to handle large amounts of data, in addition to its statistical reliability compared to the previous PHYSAT. The former approach might have introduced potential biases and thus, its extension to larger databases was very restricted. In a second step, some new Ra spectra have been related to phytoplankton groups using collocated field pigments inventories from a large in situ database. Phytoplankton groups were identified based on biomarker pigments ratios thresholds taken from the literature. SOM was then applied to the global daily SeaWiFS imagery archive between 1997 and 2010. Global distributions of major phytoplankton groups were analyzed and validated against in situ data. Thanks to its ability to capture a wide range of spectra and to manage a larger in situ pigment dataset, the neural network tool allows to classify a much higher number of pixels (2 times more) than the previous PHYSAT method for the five phytoplankton groups taken into account in this study (Synechococcus-Like-Cyanobacteria, diatoms, Prochloroccus, Nanoeucaryots and Phaeocystis-like). In addition, different Ra spectral signatures have been associated to diatoms. These signatures are located in various environments where the inherent optical properties affecting the Ra spectra are likely to be significantly different. Local phenomena such as diatoms blooms in the upwelling regions or during climatic events(i.e. La Nina) are more clearly visible with the new method. The PHYSAT-SOM method provides several perspectives concerning the use of the ocean color remote sensing data for phytoplankton group identification, such as, the potential application of the method in Case 2 waters, using an appropriate nLw signal normalization approach. A preliminary case study in the English Channel and North Sea waters is presented in the last chapter of the thesis, showing the possibility of a future use of PHYSAT-SOM in these optically complex waters.

Page generated in 0.0517 seconds