• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 188
  • 63
  • 25
  • 3
  • 1
  • Tagged with
  • 270
  • 78
  • 49
  • 31
  • 29
  • 28
  • 24
  • 21
  • 20
  • 20
  • 19
  • 18
  • 17
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Suivi d'objets dans une séquence d'images par modèle d'apparence : conception et évaluation

Mikram, Mounia 15 December 2008 (has links)
Le travail présenté dans ce mémoire s’inscrit dans le cadre du suivi d'objets dans des vidéos, et plus particulièrement, sur l'utilisation de représentations par modèle d'apparence pour le suivi. La notion de modèle d'apparence est précisée sur la base de l'extraction de descripteurs visuels comparés à l'aide de similarités à une référence. De nouvelles techniques pour évaluer les performances vis à vis du suivi sont présentées. Les approches classiques d’évaluation considèrent uniquement la qualité des trajectoires finales estimées. Les métriques proposées dans ce mémoire s’en distinguent par le fait qu’elles quantifient la performance intrinsèque des modèles d’apparence utilisés au sein du système. Deux axes sont ainsi développés : d’une part, un ensemble de mesures de la précision spatiale d’un modèle couplées à la mesure de la robustesse vis-à-vis d’une initialisation spatiale approximative, et d’autre part, la proposition d’une méthodologie permettant de mesurer la stabilité d’un modèle du point de vue temporel sur des données vidéos naturelles. Ces techniques seront utilisées dans la suite du mémoire pour évaluer les méthodes existantes ainsi que celles présentées. Deux nouveaux modèles d'apparence sont ensuite introduits. Le premier modèle dénommé l’histogramme multi-échelles permet de limiter les ambigüités liées à la représentation par histogramme de couleurs. Le deuxième modèle, fondé sur une extension de la métrique de Matusita pour la comparaison de distributions de couleurs, prend en compte les variations possibles des couleurs des objets liées aux conditions de changement d’illumination. Enfin, le lien entre modèle d'apparence et technique de recherche de la position optimale est abordé dans le contexte du suivi multi-noyaux à travers la proposition d'un nouvel algorithme de suivi basé sur une approche compositionnelle inverse. Celui-ci offre un temps de calcul fortement réduit pour une qualité de suivi similaire aux algorithmes existants. / Abstract
112

Utilisation d'ontologies comme support à la recherche et à la navigation dans une collection de documents / ONTOLOGY BASED INFORMATION RETRIEVAL

Sy, Mohameth François 11 December 2012 (has links)
Les ontologies offrent une modélisation des connaissances d'un domaine basée sur une hiérarchie des concepts clefs de ce domaine. Leur utilisation dans le cadre des Systèmes de Recherche d'Information (SRI), tant pour indexer les documents que pour exprimer une requête, permet notamment d'éviter les ambiguïtés du langage naturel qui pénalisent les SRI classiques. Les travaux de cette thèse portent essentiellement sur l'utilisation d'ontologies lors du processus d'appariement durant lequel les SRI ordonnent les documents d'une collection en fonction de leur pertinence par rapport à une requête utilisateur. Nous proposons de calculer cette pertinence à l'aide d'une stratégie d'agrégation de scores élémentaires entre chaque document et chaque concept de la requête. Cette agrégation, simple et intuitive, intègre un modèle de préférences dépendant de l'utilisateur et une mesure de similarité sémantique associée à l'ontologie. L'intérêt majeur de cette approche est qu'elle permet d'expliquer à l'utilisateur pourquoi notre SRI, OBIRS, estime que les documents qu'il a sélectionnés sont pertinents. Nous proposons de renforcer cette justification grâce à une visualisation originale où les résultats sont représentés par des pictogrammes, résumant leurs pertinences élémentaires, puis disposés sur une carte sémantique en fonction de leur pertinence globale. La Recherche d'Information étant un processus itératif, il est nécessaire de permettre à l'utilisateur d'interagir avec le SRI, de comprendre et d'évaluer les résultats et de le guider dans sa reformulation de requête. Nous proposons une stratégie de reformulation de requêtes conceptuelles basée sur la transposition d'une méthode éprouvée dans le cadre de SRI vectoriels. La reformulation devient alors un problème d'optimisation utilisant les retours faits par l'utilisateur sur les premiers résultats proposés comme base d'apprentissage. Nous avons développé une heuristique permettant de s'approcher d'une requête optimale en ne testant qu'un sous-espace des requêtes conceptuelles possibles. Nous montrons que l'identification efficace des concepts de ce sous-espace découle de deux propriétés qu'une grande partie des mesures de similarité sémantique vérifient, et qui suffisent à garantir la connexité du voisinage sémantique d'un concept.Les modèles que nous proposons sont validés tant sur la base de performances obtenues sur des jeux de tests standards, que sur la base de cas d'études impliquant des experts biologistes. / Domain ontologies provide a knowledge model where the main concepts of a domain are organized through hierarchical relationships. In conceptual Information Retrieval Systems (IRS), where they are used to index documents as well as to formulate a query, their use allows to overcome some ambiguities of classical IRSs based on natural language processes.One of the contributions of this study consists in the use of ontologies within IRSs, in particular to assess the relevance of documents with respect to a given query. For this matching process, a simple and intuitive aggregation approach is proposed, that incorporates user dependent preferences model on one hand, and semantic similarity measures attached to a domain ontology on the other hand. This matching strategy allows justifying the relevance of the results to the user. To complete this explanation, semantic maps are built, to help the user to grasp the results at a glance. Documents are displayed as icons that detail their elementary scores. They are organized so that their graphical distance on the map reflects their relevance to a query represented as a probe. As Information Retrieval is an iterative process, it is necessary to involve the users in the control loop of the results relevancy in order to better specify their information needs. Inspired by experienced strategies in vector models, we propose, in the context of conceptual IRS, to formalize ontology based relevance feedback. This strategy consists in searching a conceptual query that optimizes a tradeoff between relevant documents closeness and irrelevant documents remoteness, modeled through an objective function. From a set of concepts of interest, a heuristic is proposed that efficiently builds a near optimal query. This heuristic relies on two simple properties of semantic similarities that are proved to ensure semantic neighborhood connectivity. Hence, only an excerpt of the ontology dag structure is explored during query reformulation.These approaches have been implemented in OBIRS, our ontological based IRS and validated in two ways: automatic assessment based on standard collections of tests, and case studies involving experts from biomedical domain.
113

Lane-level vehicle localization with integrity monitoring for data aggregation / Estimation intègre par les véhicules de leur voie de circulation pour l’agrégation de données

Li, Franck 18 December 2018 (has links)
Les informations contenues dans les cartes routières numériques revêtent une importance grandissante dans le domaine des véhicules intelligents. La prise en compte d’environnements de plus en plus complexes a augmenté le niveau de précision exigé des informations cartographiques. Les cartes routières numériques, considérées ici comme des bases de données géographiques, contiennent des informations contextuelles sur le réseau routier, facilitant la compréhension correcte de l’environnement. En les combinant avec les données provenant des capteurs embarqués, une représentation plus fine de l’environnement peut être obtenue, améliorant grandement la compréhension de contexte du véhicule et la prise de décision. La performance des différents capteurs peut varier grandement en fonction du lieu considéré, ceci étant principalement dû à des facteurs environnementaux. Au contraire, une carte peut fournir ses informations de manière fiable, sans être affectée par ces éléments extérieurs, mais pour cela, elle doit reposer sur un autre élément essentiel : une source de localisation. Le secteur automobile utilise les systèmes de localisation globale par satellite (GNSS) à des fins de localisation absolue, mais cette solution n’est pas parfaite, étant soumise à différentes sources d’erreur. Ces erreurs sont elles aussi dépendantes de l’environnent d’évolution du véhicule (par exemple, des multi-trajets causés par des bâtiments). Nous sommes donc en présence de deux systèmes centraux, dont les performances sont d´dépendantes du lieu considéré. Cette étude se focalise sur leur dénominateur commun : la carte routière numérique, et son utilisation en tant qu’outil d’évaluation de leur performance. L’idée développée durant cette thèse est d’utiliser la carte en tant que canevas d’apprentissage, pour stocker des informations géoréférencées sur la performance des diésèrent capteurs équipant le véhicule, au cours de trajets répétitifs. Pour cela, une localisation robuste, relative à la carte, est nécessaire au travers d’une méthode de map-matching. La problématique principale réside dans la différence de précision entre la carte et le positionnement GNSS, créant des situations ambigües. Durant cette thèse, un algorithme de map-matching a été conçu pour gérer ces ambigüités en fournissant des hypothèses multiples lorsque nécessaire. L’objectif est d’assurer l’intégrité de l’algorithme en retournant un ensemble d’hypothèses contenant l’hypothèse correcte avec une grande probabilité. Cet algorithme utilise les capteurs proprioceptifs dans une approche de navigation à l’estime aidée d’informations cartographiques. Une procédure d’évaluation de cohérence, utilisant le GNSS comme information redondante de positionnement est ensuite appliquée, visant à isoler une hypothèse cohérente unique qui pourra ainsi être utilisée avec confiance dans le processus d’écriture dans la carte. L’utilisation de la carte numérique en écriture/lecture a été évaluée et la procédure complète d’écriture a été testée sur des données réelles, enregistrées par des véhicules expérimentaux sur route ouverte. / The information stored in digital road maps has become very important for intelligent vehicles. As intelligent vehicles address more complex environments, the accuracy requirements for this information have increased. Regarded as a geographic database, digital road maps contain contextual information about the road network, crucial for a good understanding of the environment. When combined with data acquired from on-board sensors, a better representation of the environment can be made, improving the vehicle’s situation understanding. Sensors performance can vary drastically depending on the location of the vehicle, mainly due to environmental factors. Comparatively, a map can provide prior information more reliably but to do so, it depends on another essential component: a localization system. Global Navigation Satellite Systems (GNSS) are commonly used in automotive to provide an absolute positioning of the vehicle, but its accuracy is not perfect: GNSS are prone to errors, also depending greatly on the environment (e.g., multipaths). Perception and localization systems are two important components of an intelligent vehicle whose performances vary in function of the vehicle location. This research focuses on their common denominator, the digital road map, and its use as a tool to assess their performance. The idea developed during this thesis is to use the map as a learning canvas, to store georeferenced information about the performance of the sensors during repetitive travels. This requires a robust localization with respect to the map to be available, through a process of map-matching. The main problematic is the discrepancy between the accuracy of the map and of the GNSS, creating ambiguous situations. This thesis develops a map-matching algorithm designed to cope with these ambiguities by providing multiple hypotheses when necessary. The objective is to ensure the integrity of the result by returning a hypothesis set containing the correct matching with high probability. The method relies on proprioceptive sensors via a dead-reckoning approach aided by the map. A coherence checking procedure using GNSS redundant information is then applied to isolate a single map-matching result that can be used to write learning data with confidence in the map. The possibility to handle the digital map in read/write operation has been assessed and the whole writing procedure has been tested on data recorded by test vehicles on open roads.
114

Application des cartes combinatoires à la modélisation géométrique et sémantique des bâtiments / Application of the combinatiorial maps to geometric and semantic modelling of buildings

Diakité, Abdoulaye Abou 11 December 2015 (has links)
Les modèles 3D de bâtiment sont largement utilisés dans l'industrie de la construction et sont nécessités par plusieurs applications telles que la représentation architecturale et les processus de simulation. Malheureusement, ces modèles manquent souvent d'informations d'une importance majeure pour permettre d'effectuer des opérations d'analyse et de calcul. Les modèles originaux sont alors souvent reconstruits par les différents acteurs qui les utilisent afin de les rendre plus adaptés à leur besoins. Dans le but de pallier ce problème, nous introduisons une approche permettant d'enrichir un modèle 3D de bâtiment et le rendre beaucoup plus interopérable. À partir de l'information géométrique seulement, nous rajoutons au modèle des informations topologiques et sémantiques. Une subdivision cellulaire de l'espace occupé par le bâtiment est d'abord effectuée en se basant sur sa géométrie, puis les relations topologiques entre les cellules sont reconstruites et explicitement définies. Des étiquettes sémantiques sont ensuite attribuées aux composants identifiés du bâtiment à l'aide de la topologie reconstruite et des règles heuristiques prédéfinies. Une structure de données topologique appelée carte combinatoire 3D (3-carte) est utilisée comme une base solide pour la mise au point des opération de reconstruction et le traitement des informations reconstruites. À partir du modèle enrichi, nous montrons comment extraire des données pour des applications dédiées, par exemple la simulation acoustique et lancer de rayon pour la navigation intérieure. Notre méthode se présente comme un pont entre les approches de modélisation et les applications d'analyse du bâtiment qui utilisent ces modèles. Il est entièrement automatique et présente des résultats intéressants sur plusieurs types de modèles / 3D building models are widely used in the civil engineering industry. While the models are needed by several applications, such as architectural representations and simulation processes, they often lack of information that are of major importance for the consistency of the calculations. The original models are then often rebuilt in the way that fits better to the intended applications. To overcome this drawback, we introduce a framework allowing to enrich a 3D model of a building presenting just a geometry, in a way more interoperable model, by adding to it topological and semantic information. A cellular subdivision of the building space is first performed relying on its geometry, then the topological relationships between the cells are explicitely defined. Semantic labels are then attributed to the identified components based on the topology and defined heuristic rules. A 3D combinatorial map data structure (3-map) is used to handle the reconstructed information. From the enriched model we show how to extract applications-driven information allowing to perform acoustic simulation and indoor ray tracing navigation. The approach stands as a bridge between the modeling approaches and the applications in building analysis using the model. It is fully automatic and present interesting results on several types of building models
115

Extraction de fragments forestiers et caractérisation de leurs évolutions spatio-temporelles pour évaluer l'effet de l'histoire sur la biodiversité : une approche multi-sources / Forest fragments extraction and characterization of their spatiotemporal evolution to evaluate the effects of history on biodiversity : a multi-source approach

Herrault, Pierre-Alexis 19 June 2015 (has links)
La biodiversité dans les paysages dépend des caractéristiques de ce paysage mais peut aussi être influencée par son histoire. En effet, certaines espèces ne réagissent pas immédiatement à une perturbation mais peuvent montrer un temps de réponse plus ou moins long. De ce fait, la prise en compte de l'évolution de l'habitat des espèces est devenue un enjeu important en écologie depuis quelques années, pour mieux comprendre la présence ou la diversité biologique actuelle. L'objectif de cette thèse en géomatique s'inscrit dans ce contexte applicatif d'écologie historique. Le sujet que nous traitons porte sur l'extraction automatique d'îlots boisés et la caractérisation de leur évolution spatio-temporelle depuis le milieu du XIXe siècle pour modéliser l'effet de leur trajectoire historique sur la diversité actuelle en syrphes forestiers (Diptera : Syrphidae). Le site d'étude est un paysage agri-forestier des Coteaux de Gascogne. La démarche générale proposée se compose de trois étapes principales : (1) la constitution de la base de données spatiales des îlots boisés intégrant plusieurs sources de données hétérogènes, (2) l'appariement des îlots boisés aux différentes dates avec la caractérisation de leur évolution spatio-temporelle, (3) la modélisation statistique des relations espèces-habitats intégrant l'histoire comme un des facteurs explicatifs de la diversité en syrphes observée. Plusieurs contributions méthodologiques ont été apportées à cette démarche. Nous avons proposé une nouvelle méthode de correction géométrique fondée sur la régression ridge à noyau pour rendre compatible les données spatiales anciennes et actuelles mobilisées. Nous avons également développé une approche et un outil de vectorisation automatique des forêts dans les dessins-minutes de la carte d'Etat-Major du XIXe siècle. Enfin, une première évaluation de l'impact de l'incertitude spatiale sur la réponse des modèles espèces-habitats a également été initiée. D'un point de vue écologique, les résultats ont révélé un effet significatif de la continuité temporelle des habitats sur la diversité en syrphes forestiers. Nous avons montré que les forêts les plus isolées présentaient une dette d'extinction ou un crédit de colonisation selon le type d'évolutions apparues au cours de la dernière période étudiée (1979-2010). Il s'est avéré qu'une durée de 30 ans n'était pas suffisante aux syrphes forestiers pour qu'ils retrouvent un été d'équilibre à la suite d'une évolution spatiale de leur habitat isolé. / Biodiversity in landscapes depends on landscape spatial patterns but can also be influenced by landscape history. Indeed, some species are likely to respond in the longer term to habitat disturbances. Therefore, in recent years, landscape dynamics have become a possible factor to explain current biodiversity. The aim of this thesis in GIS is part of this historical ecology context. We are dealing with automatic extraction of forest patches and characterization of their spatiotemporal evolution. The objective is to evaluate forest dynamics effects on current diversity of forest hoverflies. (Diptera: Syrphidae) in the agri-forestry landscape of Coteaux de Gascogne. The proposed general approach consists of three main steps: (1) the forest spatial database production from heterogeneous sources, (2) forest patches matching and characterization of their spatiotemporal evolution, (3) species-habitat modeling while integrating history as one of the factors likely to explain hoverflies diversity. Several methodological contributions were made. We proposed a new geometric correction approach based on kernel ridge regression to make consistent past and present selected data sources. We also developed an automatic extraction approach of forest from Historical Map of France of the 19th century. Finally, spatial uncertainty effects on ecological models responses have been assessed. From an ecological viewpoint, a significant effect from historical continuity of patches on forest hoverflies diversity was revealed. The most isolated fragments presented an extinction debt or a colonization credit according to area dynamics occurred in the last time-period (1970-2010). As it turns out, 30 years was not sufficient for forest hoverflies to reach new equilibrium after isolated habitat changes.
116

Télédétection des groupes phytoplanctoniques via l'utilisation conjointe de mesures satellites, in situ et d'une méthode de classification automatique / Remote sensing of phytoplakton types via the joint use of satellite measurements, in situ, and a method of automatic classification

Ben Mustapha, Zied 07 November 2013 (has links)
La télédétection de la couleur de l'océan représente un outil adapté à l'observation du phytoplancton avec des résolutions spatio-temporelles élevées et pouvant être adaptées à chaque cas d'étude. Plusieurs méthodes ont été développées ces dernières années afin de permettre la distinction de différents groupes de phytoplancton en utilisant les données des capteurs de la couleur de l'océan. Dans le cadre de cette thèse, on présente une nouvelle approche, appelée PHYSAT-SOM, qui se base sur l'application d'un algorithme de classification automatique non supervisée (SOM ou Self-Organizing Maps) à l'extraction de différentes formes et amplitudes de spectres d'anomalies de luminances (Ra ou Radiance Anomaly). Cette anomalie spectrale a été définie par Alvain et al. (2005), lors du développement de la méthode PHYSAT et il est actuellement admis que sa variabilité est reliée à celle de la composition des communautés phytoplanctoniques. L'utilisation des SOM vise à améliorer la caractérisation de la variabilité des Ra en termes de forme et amplitude ainsi que l'expansion du potentiel de leur utilisation à de grandes bases de données in situ de pigments. En considérant un même jeu de données de spectres de Ra, une comparaison entre la précédente version de PHYSAT et la nouvelle approche, basée sur SOM a montré qu'il est maintenant possible de couvrir toute la variabilité spectrale des Ra. Ceci n'était pas le cas avec l'ancienne approche du fait de l'utilisation de seuils, définis dans le but d'éviter les chevauchements entre les signatures spectrales des différents groupes de phytoplancton. La méthode basée sur SOM est pertinente pour caractériser une grande variété de spectres de Ra, de par sa capacité à gérer de grandes quantités de données et de sa fiabilité statistique. La première approche aurait pu, de ce fait, introduire des biais potentiels et donc, les possibilités de son extension à de plus grandes bases de données in situ étaient relativement restreintes. Par la suite, SOM a été utilisé pour classer les spectres de Ra fréquemment observés à l'échelle globale. Ces spectres ont ensuite été empiriquement reliés à différents groupes de phytoplancton, identifiés à partir de données in situ de pigments. Cette classification a été appliquée aux archives satellite du capteur SeaWiFS, permettant l'étude de la distribution globale de chaque groupe. Grâce à sa capacité à caractériser un large éventail de spectres de Ra et de gérer une plus grande base de données in situ, l'outil SOM permet de classer un nombre plus élevé de pixels (2x plus) que la précédente approche de PHYSAT. En outre, différentes signatures spectrales de Ra ont été associées aux diatomées. Ces signatures sont situées dans divers environnements où les propriétés optiques inhérentes affectant les spectres de Ra sont susceptibles d'être significativement différentes. Par ailleurs, les floraisons de diatomées dans certaines conditions sont plus clairement visibles avec la nouvelle méthode. La méthode PHYSAT-SOM offre ainsi plusieurs perspectives afin d'aller plus loin dans l'utilisation des données de la couleur de l'océan pour la détection des groupes de phytoplancton. On peut citer l'exemple d'une application future dans les eaux du Cas 2, moyennant une approche de normalisation adéquate du signal de luminances. Une étude préliminaire en Manche et Mer du Nord est présentée dans le dernier chapitre, montrant qu'il sera possible d'utiliser PHYSAT-SOM dans cet environnement optiquement complexe. / Remote sensing of ocean color is a powerful tool for monitoring phytoplankton in the ocean with a high spatial and temporal resolution. Several methods were developed in the past years for detecting phytoplankton functional types from satellite observations. In this thesis, we present an automatic classification method, based on a neural network clustering algorithm, in order to classify the anomalies of water leaving radiances spectra (Ra), introduced in the PHYSAT method by Alvain et al. (2005) and analyze their variability at the global scale. The use of an unsupervised classification aims at improving the characterization of the spectral variability of Ra in terms of shape and amplitude as well as the expansion of its potential use to larger in situ datasets for global phytoplankton remote sensing. The Self-Organizing Map Algorithm (SOM) aggregates similar spectra into a reduced set of pertinent groups, allowing the characterization of the Ra variability, which is known to be linked with the phytoplankton community composition. Based on the same sample of Ra spectra, a comparison between the previous version of PHYSAT and the new one using SOM shows that is now possible to take into consideration all the types of spectra. This was not possible with the previous approach, based on thresholds, defined in order to avoid overlaps between the spectral signatures of each phytoplankton group. The SOM-based method is relevant for characterizing a wide variety of Ra spectra through its ability to handle large amounts of data, in addition to its statistical reliability compared to the previous PHYSAT. The former approach might have introduced potential biases and thus, its extension to larger databases was very restricted. In a second step, some new Ra spectra have been related to phytoplankton groups using collocated field pigments inventories from a large in situ database. Phytoplankton groups were identified based on biomarker pigments ratios thresholds taken from the literature. SOM was then applied to the global daily SeaWiFS imagery archive between 1997 and 2010. Global distributions of major phytoplankton groups were analyzed and validated against in situ data. Thanks to its ability to capture a wide range of spectra and to manage a larger in situ pigment dataset, the neural network tool allows to classify a much higher number of pixels (2 times more) than the previous PHYSAT method for the five phytoplankton groups taken into account in this study (Synechococcus-Like-Cyanobacteria, diatoms, Prochloroccus, Nanoeucaryots and Phaeocystis-like). In addition, different Ra spectral signatures have been associated to diatoms. These signatures are located in various environments where the inherent optical properties affecting the Ra spectra are likely to be significantly different. Local phenomena such as diatoms blooms in the upwelling regions or during climatic events(i.e. La Nina) are more clearly visible with the new method. The PHYSAT-SOM method provides several perspectives concerning the use of the ocean color remote sensing data for phytoplankton group identification, such as, the potential application of the method in Case 2 waters, using an appropriate nLw signal normalization approach. A preliminary case study in the English Channel and North Sea waters is presented in the last chapter of the thesis, showing the possibility of a future use of PHYSAT-SOM in these optically complex waters.
117

Etude de la calibration et de la reconstruction des cartes du ciel avec les données Planck-HFI / Study of Calibration and Mapmaking algorithms for Planck-HFI data

Filliard, Clement 13 July 2012 (has links)
N.c. / N.c.
118

Convergence de cartes et tas de sable / Convergence of random maps and sandpile model

Selig, Thomas 11 December 2014 (has links)
Cette thèse est dédiée à l'étude de divers problèmes se situant à la frontière entre combinatoire et théorie des probabilités. Elle se compose de deux parties indépendantes : la première concerne l'étude asymptotique de certaines familles de \cartes" (en un sens non traditionnel), la seconde concerne l'étude d'une extension stochastique naturelle d'un processus dynamique classique sur un graphe appelé modèle du tas de sable. Même si ces deux parties sont a priori indépendantes, elles exploitent la même idée directrice, à savoir les interactions entre les probabilités et la combinatoire, et comment ces domaines sont amenés à se rendreservice mutuellement. Le Chapitre introductif 1 donne un bref aperçu des interactions possibles entre combinatoire et théorie des probabilités, et annonce les principaux résultats de la thèse. Le Chapitres 2 donne une introduction au domaine de la convergence des cartes. Les contributions principales de cette thèse se situent dans les Chapitres 3, 4 (pour les convergences de cartes) et 5 (pour le modèle stochastique du tas de sable). / This Thesis studies various problems located at the boundary between Combinatorics and Probability Theory. It is formed of two independent parts. In the first part, we study the asymptotic properties of some families of \maps" (from a non traditional viewpoint). In thesecond part, we introduce and study a natural stochastic extension of the so-called Sandpile Model, which is a dynamic process on a graph. While these parts are independent, they exploit the same thrust, which is the many interactions between Combinatorics and Discrete Probability, with these two areas being of mutual benefit to each other. Chapter 1 is a general introduction to such interactions, and states the main results of this Thesis. Chapter 2 is an introduction to the convergence of random maps. The main contributions of this Thesis can be found in Chapters 3, 4 (for the convergence of maps) and 5 (for the Stochastic Sandpile model).
119

Interactive generation and rendering of massive models : a parallel procedural approach / Génération interactive et rendu des modèles massifs : une approche procédurale parallèle

Buron, Cyprien 04 February 2014 (has links)
Afin de créer des productions toujours plus réalistes, les industries du jeu vidéo et du cinéma cherchent à générer des environnements de plus en plus larges et complexes. Cependant, la modélisation manuelle des objets 3D dans de tels décors se révèle très coûteuse. A l’inverse, les méthodes de génération procédurale permettent de créer facilement une grande variété d’objets, tels que les plantes et les bâtiments. La modélisation par règles de grammaire offre un outil de haut niveau pour décrire ces objets, mais utiliser correctement ces règles s’avère très souvent compliqué. De plus, aucune solution de modélisation basée grammaire ne supporte l’édition et la visualisation d’environnements massifs en temps interactif. Dans un tel scénario, les artistes doivent modifier les objets en dehors de la scène avant de voir le résultat intégré.Dans ces travaux de recherche, nous nous intéressons à la génération procédurale et au rendu d’environnements à grande échelle. Nous voulons aussi faciliter la tâche des artistes avec des outils intuitifs de contrôle de grammaires. Tout d’abord nous proposons un système permettant la génération procédurale en parallèle sur le GPU en temps interactif. Pour cela, nous adoptons une approche d’expansion indépendante par segment, permettant une amplification des données en parallèle. Nous étendons ce système pour générer des modèles basés sur une structure interne, tels que les toits. Nous présentons aussi une solution utilisant des contextes externes pour contrôler facilement les grammaires par le biais de surface ou de texture. Pour finir nous intégrons un système de niveaux de détails et des techniques d’optimisation permettant la génération, l’édition et la visualisation interactives d’environnements à grande échelle. Grâce à notre système il est possible de générer et d’afficher interactivement des scènes comprenant des milliers de bâtiments et d’arbres, représentant environ 2 téraoctets de données. / With the increasing computing and storage capabilities of recent hardware, movie and video games industries desire huger realistic environments. However, modeling such sceneries by hand turns out to be highly time consuming and costly. On the other hand, procedural modeling provides methods to easily generate high diversity of elements such as vegetation and architecture. While grammar rules bring a high-level powerful modeling tool, using these rules is often a tedious task, necessitating frustrating trial and error process. Moreover, as no solution proposes real-time generation and rendering for massive environments, artists have to work on separate parts before integrating the whole and see the results.In this research, we aim to provide interactive generation and rendering of very large sceneries, while offering artist-friendly methods for controlling grammars behavior. We first introduce a GPU-based pipeline providing parallel procedural generation at render time. To this end we propose a segment-based expansion method working on independent elements, thus allowing for parallel amplification. We then extend this pipeline to permit the construction of models relying on internal contexts, such as roofs. We also present external contexts to control grammars with surface and texture data. Finally, we integrate a LOD system with optimization techniques within our pipeline providing interactive generation, edition and visualization of massive environments. We demonstrate the efficiency of our pipeline with a scene comprising hundred thousand trees and buildings each, representing 2 terabytes of data.
120

Les bassins versants sensibles aux "crues rapides" dans le Bassin Parisien - Analyse de la structure et de la dynamique de systèmes spatiaux complexes

Douvinet, Johnny 02 December 2008 (has links) (PDF)
En raison de leur caractère torrentiel, les « crues rapides » qui apparaissent en périodes printanière et estivale dans les régions du nord de la France constituent aujourd'hui la forme la plus originale et la plus dangereuse des inondations rencontrées dans ces régions. Le poids des activités humaines dans le fonctionnement de ces crises hydrologiques est incontestable. Ces crues turbides prennent naissance sur des territoires agricoles où les espaces cultivés ne cessent de se développer. L'urbanisation croissante et la place du réseau routier dans les axes majeurs d'écoulement aggravent la rapidité des flux et la vulnérabilité des biens et des personnes. Afin d'améliorer la connaissance sur ces événements, un inventaire a été réalisé à partir des dossiers « CatNat ». L'approche comparative menée sur les 189 bassins versants recensés (1983-2005) a permis de faire ressortir l'influence de la morphologie à différentes échelles. La vitesse de concentration de l'écoulement rapide est principalement liée à la combinaison entre le système de pentes, l'organisation des réseaux de talwegs et la forme des bassins versants. Il n'existait cependant aucune méthode permettant de mesurer, de manière synthétique et continue, le rôle de cette composante sur la dynamique hydrologique d'un bassin versant. Les approches quantitatives se sont limitées à des mesures séparées des composantes morphologiques (indices de compacité, rapport de confluence d'Horton, courbe hypsométrique...). En s'appuyant sur la théorie des systèmes complexes, et en particulier sur les automates cellulaires, il a été possible de développer des méthodes permettant de quantifier l'efficacité de la structuration en trois dimensions du « bassin versant ». L'adaptation de ces nouvelles méthodes d'analyse spatiale, encore peu employées en géomorphologie, nécessitera une réflexion sur la validité des outils et la pertinence des<br />résultats en réintégrant progressivement les autres variables de l'hydrosystème. Tous ces résultats aboutissent à la réalisation de différentes cartes de sensibilité dans ces régions du nord de la France.

Page generated in 0.1442 seconds