• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 175
  • 124
  • 30
  • Tagged with
  • 334
  • 189
  • 80
  • 65
  • 56
  • 55
  • 49
  • 46
  • 44
  • 40
  • 38
  • 38
  • 38
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse statistique de la pauvreté et des inégalités

Diouf, Mame Astou January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
32

Résolution de problème inverse et propagation d'incertitudes : application à la dynamique des gaz compressibles / Inverse problem and uncertainty quantification : application to compressible gas dynamics

Birolleau, Alexandre 30 April 2014 (has links)
Cette thèse porte sur la propagation d'incertitudes et la résolution de problème inverse et leur accélération par Chaos Polynomial. L'objectif est de faire un état de l'art et une analyse numérique des méthodes spectrales de type Chaos Polynomial, d'en comprendre les avantages et les inconvénients afin de l'appliquer à l'étude probabiliste d'instabilités hydrodynamiques dans des expériences de tubes à choc de type Richtmyer-Meshkov. Le second chapitre fait un état de l'art illustré sur plusieurs exemples des méthodes de type Chaos Polynomial. Nous y effectuons son analyse numérique et mettons en évidence la possibilité d'améliorer la méthode, notamment sur des solutions irrégulières (en ayant en tête les difficultés liées aux problèmes hydrodynamiques), en introduisant le Chaos Polynomial généralisé itératif. Ce chapitre comporte également l'analyse numérique complète de cette nouvelle méthode. Le chapitre 3 a fait l'objet d'une publication dans Communication in Computational Physics, celle-ci a récemment été acceptée. Il fait l'état de l'art des méthodes d'inversion probabilistes et focalise sur l'inférence bayesienne. Il traite enfin de la possibilité d'accélérer la convergence de cette inférence en utilisant les méthodes spectrales décrites au chapitre précédent. La convergence théorique de la méthode d'accélération est démontrée et illustrée sur différents cas-test. Nous appliquons les méthodes et algorithmes des deux chapitres précédents à un problème complexe et ambitieux, un écoulement de gaz compressible physiquement instable (configuration tube à choc de Richtmyer-Meshkov) avec une analyse poussée des phénomènes physico-numériques en jeu. Enfin en annexe, nous présentons quelques pistes de recherche supplémentaires rapidement abordées au cours de cette thèse. / This thesis deals with uncertainty propagation and the resolution of inverse problems together with their respective acceleration via Polynomial Chaos. The object of this work is to present a state of the art and a numerical analysis of this stochastic spectral method, in order to understand its pros and cons when tackling the probabilistic study of hydrodynamical instabilities in Richtmyer-Meshkov shock tube experiments. The first chapter is introductory and allows understanding the stakes of being able to accurately take into account uncertainties in compressible gas dynamics simulations. The second chapter is both an illustrative state of the art on generalized Polynomial Chaos and a full numerical analysis of the method keeping in mind the final application on hydrodynamical problems developping shocks and discontinuous solutions. In this chapter, we introduce a new method, naming iterative generalized Polynomial Chaos, which ensures a gain with respect to generalized Polynomial Chaos, especially with non smooth solutions. Chapter three is closely related to an accepted publication in Communication in Computational Physics. It deals with stochastic inverse problems and introduces bayesian inference. It also emphasizes the possibility of accelerating the bayesian inference thanks to iterative generalized Polynomial Chaos described in the previous chapter. Theoretical convergence is established and illustrated on several test-cases. The last chapter consists in the application of the above materials to a complex and ambitious compressible gas dynamics problem (Richtmyer-Meshkov shock tube configuration) together with a deepened study of the physico-numerical phenomenon at stake. Finally, in the appendix, we also present some interesting research paths we quickly tackled during this thesis.
33

La compréhension d'histoires de littérature jeunesse chez l'enfant : quelle évolution en matière de production d'inférences émotionnelles et humoristiques entre 6 et 10 ans ? / Children's comprehension of stories : how children produce emotional and humorous inferences between 6 to 10 years ?

Creissen, Sara 24 September 2015 (has links)
Deux objectifs centraux sont au cœur de cette thèse menée sur la compréhension de récits chez des enfants d'école élémentaire (i.e., de 6 ans à 10 ans). S'agissant du premier objectif, la compréhension des différentes facettes de la dimension émotionnelle d'une histoire (i.e., émotion désignée, expression comportementale de l'émotion et émotion à inférer) est examinée ainsi que le type d'informations émotionnelles que les enfants privilégient pour produire des inférences prédictives (i.e., c'est-à-dire la capacité à anticiper sur ce qu'il va se passer dans la suite d'une l'histoire). Deux supports de présentation des histoires de littérature jeunesse ont été comparés (i.e., auditif vs. audiovisuel). Trois principaux résultats sont à considérer. Premièrement les enfants de 6 ans ont le plus de difficulté à se représenter la dimension émotionnelle ainsi qu'à produire des inférences prédictives. Deuxièmement, les émotions à inférer sont difficilement représentées par rapport aux émotions explicitées dans l'histoire (i.e., émotions désignées et comportementales). Troisièmement, le caractère généralisable des habiletés de compréhension de la dimension émotionnelle a été confirmé. S'agissant du deuxième objectif, il consiste en l'étude de l'appréciation (i.e., c'est drôle/c'est non drôle) et de la compréhension (i.e., niveau d'interprétation de l'information humoristique) des informations humoristiques et non humoristiques des histoires de littérature jeunesse. Deux types d'informations humoristiques ont été considérés : l'humour de situation (i.e., comique de situation) et un humour plus complexe qui nécessite la production d'une inférence (i.e., interpréter un jeu de mots). Les principaux résultats montrent que les enfants discriminent mieux les évènements non humoristiques que les événements humoristiques. Pour les évènements humoristiques, ils apprécient mieux l'humour de situation que l'humour qui requiert la production d'une inférence et ce d'autant plus qu'ils sont jeunes. Aussi, la situation audiovisuelle favorise l'appréciation de l'humour alors que la situation auditive favorise la représentation des informations non humoristiques. Enfin, pour interpréter l'humour, les jeunes enfants favorisent des explications de haut niveau alors que les plus grands n'ont pas de préférence. Les résultats seront interprétés à la lumière de la littérature existante sur ces deux domaines d'investigation. / The aim of this thesis was double. First, we explored how children aged 6 to 10 years monitor and represent the emotional dimension of stories. Three types of emotional information were distinguished: emotional label, emotional behavior and emotion requiring an inference. The two first studies examined the representation of these types of emotional information usually encountered in natural stories both in auditory and audiovisual context. The third study focused on children's ability to use emotional information to make predictive inferences (i.e., children had to anticipate what would happened next in a story). The main results indicated that young children (i.e., 6 years old) encountered more difficulties to make emotional inferences and predictive inferences than the olders. Moreover, results showed that children more accurately represented emotional label and emotional behavior than emotional inference. Finally, the results revealed that the ability to understand the emotion was generalizable across different media. The second purpose of this thesis was to study how children aged 6 to 10 years identify, appreciate and understand humorous and nonhumorous passages in auditory and audiovisual natural stories. Two types of humorous information were considered: protagonist's humorous behaviors (i.e., explicit humor) and implicit humorous information that required the ability to make an inference. The main results revealed that children more easily identified nonhumorous passages compared to humorous ones. Furthermore, the audiovisual situation favored the identification of humorous passages and auditory situation promoted the identification of nonhumorous passages. Finally, to interpret humorous situations, young children use more often high explication level and old children use similarly high and low explication levels. These findings were discussed regarding literature.
34

Expliciter et inférer dans la conversation : modélisation de la séquence d’explicitation dans l’interaction / Making explicit and inferring in conversation : a model of explicitation sequence in interaction

Chernyshova, Elizaveta 17 December 2018 (has links)
Cette thèse porte sur la co-construction de la signification en interaction et les manifestations des processus interprétatifs des participants. En s’intéressant au processus d’explicitation, c’est-à-dire le processus par lequel un contenu informationnel devient explicite dans la conversation, elle propose une étude pluridimensionnelle de la séquence conversationnelle en jeu dans ce processus. La co-construction de la signification est ici abordée comme relevant d’une transformation informationnelle et de l’inférence.Nos analyses ont porté sur un corpus de français parlé en interaction, en contexte de repas et apéritifs entre amis. A partir d’une collection de séquences d’explicitation, définies comme des configurations dans lesquelles une inférence estsoumise à validation, ce travail propose une analyse multidimensionnelle, portant un double regard sur les données : celui de l’analyse conversationnelle et celui d’une modélisation de la pratique d’explicitation. Ainsi, nous proposons de parcourir cettepratique selon trois axes d’analyse : (a) une analyse séquentielle, s’intéressant au déploiement de la séquence d’explicitation et des éléments la composant, (b) une analyse reposant sur une modélisation de la gestion informationnelle dans cetteséquence, et (c) une analyse des formats linguistiques employés pour l’exhibition du processus inférentiel. Un des enjeux de ce travail l’élaboration d’un modèle conversationnaliste pour la gestion informationnelle et son application à l’analyse desdonnées de langue parlée en interaction. / This dissertation deals with the co-construction of meaning in interaction and the ways in which conversationalists exhibit their interpretative processes. The focus of this study is the process of explicitation, i.e. the process through which an informational content becomes explicit in conversation. By offering a multi-level analysis of conversational sequences engaged in this practice, the study approaches the co-construction of meaning from the point of view of informational transformation and inference.The analyses presented here have been conducted on a corpus of spoken French in interaction, within the setting of informal encounters between friends around a meal or a drink. The explicitation sequence is defined as a conversational pattern where an inference is being submitted for confirmation. Starting from a collection of these sequences, this study offers a twofold approach: that of conversation analysis, and that of modeling of the conversational sequence. The practice of making a content explicit is here being explored according to three analytical lines: (a) the sequential analysis, focusing on the deployment of the explicitation sequence and its components; (b) the analysis according to a device elaborated by means of modeling information management in these sequences; and (c) the analysis of the linguistic designs used when exhibiting the inference. One of themain challenges of the present study is that of a proposition of a conversationalist model, dealing with information management and its enforcement through analysis of talk in interaction.
35

Cross-model queries and schemas : complexity and learning / Requêtes et schémas hétérogènes : complexité et apprentissage

Ciucanu, Radu 01 July 2015 (has links)
La spécification de requêtes est généralement une tâche difficile pour les utilisateurs non-experts. Le problème devient encore plus difficile quand les utilisateurs ont besoin d'interroger des bases de données de grande taille et donc difficiles à visualiser. Le schéma pourrait aider à cette spécification, mais celui-ci manque souvent ou est incomplet quand les données viennent de sources hétérogènes. Dans cette thèse, nous abordons le problème de la spécification de requêtes pour les utilisateurs non-experts. Nous identifions deux approches pour attaquer ce problème : apprendre les requêtes à partir d'exemples ou transformer les données dans un format plus facilement interrogeable par l'utilisateur. Nos contributions suivent ces deux directions et concernent trois modèles de données parmi les plus populaires : XML, relationnel et orienté graphe. Cette thèse comprend deux parties, consacrées à (i) la définition et la transformation de schémas, et (ii) l'apprentissage de schémas et de requêtes. Dans la première partie, nous définissons des formalismes de schémas pour les documents XML non-ordonnés et nous analysons leurs propriétés computationnelles; nous étudions également la complexité du problème d'échange de données entre une source relationnelle et une cible orientée graphe. Dans la deuxième partie, nous étudions le problème de l'apprentissage à partir d'exemples pour les schémas XML proposés dans la première partie, ainsi que pour les requêtes de jointures relationnelles et les requêtes de chemins sur les graphes. Nous proposons notamment un scénario interactif qui permet d'aider des utilisateurs non-experts à définir des requêtes dans ces deux classes. / Specifying a database query using a formal query language is typically a challenging task for non-expert users. In the context of big data, this problem becomes even harder because it requires the users to deal with database instances of large size and hence difficult to visualize. Such instances usually lack a schema to help the users specify their queries, or have an incomplete schema as they come from disparate data sources. In this thesis, we address the problem of query specification for non-expert users. We identify two possible approaches for tackling this problem: learning queries from examples and translating the data in a format that the user finds easier to query. Our contributions are aligned with these two complementary directions and span over three of the most popular data models: XML, relational, and graph. This thesis consists of two parts, dedicated to (i) schema definition and translation, and to (ii) learning schemas and queries. In the first part, we define schema formalisms for unordered XML and we analyze their computational properties; we also study the complexity of the data exchange problem in the setting of a relational source and a graph target database. In the second part, we investigate the problem of learning from examples the schemas for unordered XML proposed in the first part, as well as relational join queries and path queries on graph databases. The interactive scenario that we propose for these two classes of queries is immediately applicable to assisting non-expert users in the process of query specification.
36

Contrôle exécutif et mémoire : inférences probabilistes et récupérations mnésiques dans les lobes frontaux / Executive control and memory : probabilistic inferences and task-sets retrievals in the frontal lobes

Ekovich, Muriel 28 October 2014 (has links)
Les humains doivent sans cesse s’adapter à des environnements incertains, changeants et ouverts. Pour ce faire, il est nécessaire d’explorer, d’ajuster et d’exploiter plusieurs task-sets, c’est-à-dire des associations sensorimotrices flexibles entre des stimuli, des actions et des résultats. Collins et Kœchlin ont proposé un modèle computationnel qui contrôle la création, l’apprentissage, le stockage, la récupération et la sélection de tels task-sets pour guider le comportement (Collins & Kœchlin, 2012, PloS biology). Le modèle met à jour les fiabilités d’un ensemble de task-sets, c’est-à-dire leur capacité à prédire correctement les conséquences des actions. Cette mise à jour des fiabilités est réalisée par inférence bayésienne en intégrant les résultats des actions et l’information contextuelle. Elle permet d’arbitrer entre l’exploitation du task-set le plus fiable et l’exploration de nouveaux task-sets. En l’absence d’information contextuelle, la fiabilité des task-sets appris est maintenue et mise à jour dans le cortex frontopolaire (Donoso, Collins & Kœchlin, Science, 2014). Ce travail de thèse a pour but d’élucider les mécanismes neuraux permettant le monitorage et la récupération de task-sets stockés en mémoire, que ce soit selon les indices contextuels ou les résultats des actions. Pour ce faire, nous avons élaboré une expérience d’IRM fonctionnelle dans laquelle des sujets sains doivent apprendre, par essais et erreurs, plusieurs task-sets associés à divers indices contextuels, puis réutiliser les task-sets appris. Les conditions expérimentales varient de façon non prédictible de telle sorte que : (i) des task-sets précédemment appris doivent être réutilisés soit avec le même indice contextuel, soit avec un indice contextuel nouveau ; (ii) de nouveaux task-sets doivent être appris soit avec de nouveaux indices contextuels, soit avec des indices connus. Les résultats comportementaux montrent que les sujets apprennent, maintiennent, mettent à jour et réutilisent un répertoire grandissant de task-sets tel que le prédit le modèle computationnel. Plus précisément : (i) les indices contextuels connus sont utilisés de façon proactive (avant l’exécution d’une action) pour sélectionner le task-set correspondant ; (ii) lorsque les indices contextuels sont inconnus, les sujets sélectionnent le task-set de façon réactive, selon les résultats des actions. Les résultats d’imagerie révèlent que la fiabilité des task-sets est mise à jour dans le cortex frontopolaire et le cortex préfrontal dorso-latéral. De plus, le cortex préfrontal latéral est impliqué dans le processus de sélection proactif et réactif. Cependant, les récupérations proactives et réactives dépendent de réseaux distincts : (i) d’une part la récupération proactive repose sur un réseau ventral qui inclut le cortex préfrontal ventro-médian, le striatum et l’hippocampe ;(ii) d’autre part, la récupération réactive repose sur un réseau frontal incluant notamment le cortex frontopolaire. / Humans need to adapt to uncertain, changing, and open-ended environ- ments. In such situations, decision-making involves exploring, adjusting and ex- ploiting multiple task-sets – defined as flexible sensorimotor mappings associating stimuli, actions, and expected outcomes. Collins and Kœchlin proposed a computational model that controls the crea- tion, learning, storage, retrieval, and selection of such task-sets for driving action (Collins & Kœchlin, 2012, PloS biology). The model monitors the reliability of a collection of concurrent task-sets - i.e., the ability of alternative task-sets to correctly predict action outcomes. Task-set reliability is updated in a Bayesian manner according to outcomes and contextual information and arbitrates between exploiting the most reliable task- set or exploring new ones to drive action. It has recently been shown that, without contextual information, the reliability of alternative learned task-sets is monito- red in frontopolar cortex (Donoso, Collins & Kœchlin, Science, 2014). The goal of this study is to investigate the neural mechanisms that subserve the monitoring and retrieval of stored task-sets according to both contextual cues and action outcomes. We designed an fMRI experiment requiring healthy human subjects to learn by trials and errors and to switch between multiple task-sets associated with va- rious contextual cues. Experimental conditions varied unpredictably such that: (i) previously learned task-sets re-occurred with either the same or new contextual cues, (ii) new task-sets that needed to be learned occurred with new cues or pre- viously encountered ones. Behavioral results and model fits show that subjects learned, monitored and switched across an expanding repertoire of task-sets as predicted by the compu- tational model. More specifically : (i) Known contextual cues were used proactively (before performing any action) to select the corresponding task-set ; (ii) When previously learned task-sets re-occurred with unknown contextual cues, subjects selected the stored task-set reactively based on action outcomes. Model-based fMRI results revealed that task-set reliability is updated in the frontopolar cortex and the lateral prefrontal cortex. Moreover, lateral prefrontal cortex is engaged in the selection process in both cases. However distinct networks are involved depending on whether the retrieval is cue or outcome-based: (i) on the one hand, proactive retrieval relies on a ventral pathway including ventromedial prefrontal cortex, striatum and bilateral hippocampus ;(ii) on the other hand, reactive retrieval relies on a frontal network including frontopolar cortex.
37

Stochastic modelling of flood phenomena based on the combination of mechanist and systemic approaches

Boutkhamouine, Brahim 14 December 2018 (has links) (PDF)
Flood forecasting describes the rainfall-runoff transformation using simplified representations. These representations are based on either empirical descriptions, or on equations of classical mechanics of the involved physical processes. The performances of the existing flood predictions are affected by several sources of uncertainties coming not only from the approximations involved but also from imperfect knowledge of input data, initial conditions of the river basin, and model parameters. Quantifying these uncertainties enables the decision maker to better interpret the predictions and constitute a valuable decision-making tool for flood risk management. Uncertainty analysis on existing rainfall-runoff models are often performed using Monte Carlo (MC)- simulations. The implementation of this type of techniques requires a large number of simulations and consequently a potentially important calculation time. Therefore, quantifying uncertainties of real-time hydrological models is challenging. In this project, we develop a methodology for flood prediction based on Bayesian networks (BNs). BNs are directed acyclic graphs where the nodes correspond to the variables characterizing the modelled system and the arcs represent the probabilistic dependencies between these variables. The presented methodology suggests to build the RBs from the main hydrological factors controlling the flood generation, using both the available observations of the system response and the deterministic equations describing the processes involved. It is, thus, designed to take into account the time variability of different involved variables. The conditional probability tables (parameters), can be specified using observed data, existing hydrological models or expert opinion. Thanks to their inference algorithms, BN are able to rapidly propagate, through the graph, different sources of uncertainty in order to estimate their effect on the model output (e.g. riverflow). Several case studies are tested. The first case study is the Salat river basin, located in the south-west of France, where a BN is used to simulate the discharge at a given station from the streamflow observations at 3 hydrometric stations located upstream. The model showed good performances estimating the discharge at the outlet. Used in a reverse way, the model showed also satisfactory results when characterising the discharges at an upstream station by propagating back discharge observations of some downstream stations. The second case study is the Sagelva basin, located in Norway, where a BN is used to simulate the accumulation of snow water equivalent (SWE) given available weather data observations. The performances of the model are affected by the learning dataset used to train the BN parameters. In the absence of relevant observation data for learning, a methodology for learning the BN-parameters from deterministic models is proposed and tested. The resulted BN can be used to perform uncertainty analysis without any MC-simulations to be performed in real-time. From these case studies, it appears that BNs are a relevant decisionsupport tool for flood risk management.
38

Suivi multi-locuteurs avec information audio-visuel pour la perception du robot / audio-visual multiple-speaker tracking for robot perception

Ban, Yutong 10 May 2019 (has links)
La perception des robots joue un rôle crucial dans l’interaction homme-robot (HRI). Le système de perception fournit les informations au robot sur l’environnement, ce qui permet au robot de réagir en consequence. Dans un scénario de conversation, un groupe de personnes peut discuter devant le robot et se déplacer librement. Dans de telles situations, les robots sont censés comprendre où sont les gens, ceux qui parlent et de quoi ils parlent. Cette thèse se concentre sur les deux premières questions, à savoir le suivi et la diarisation des locuteurs. Nous utilisons différentes modalités du système de perception du robot pour remplir cet objectif. Comme pour l’humain, l’ouie et la vue sont essentielles pour un robot dans un scénario de conversation. Les progrès de la vision par ordinateur et du traitement audio de la dernière décennie ont révolutionné les capacités de perception des robots. Dans cette thèse, nous développons les contributions suivantes : nous développons d’abord un cadre variationnel bayésien pour suivre plusieurs objets. Le cadre bayésien variationnel fournit des solutions explicites, rendant le processus de suivi très efficace. Cette approche est d’abord appliqué au suivi visuel de plusieurs personnes. Les processus de créations et de destructions sont en adéquation avec le modèle probabiliste proposé pour traiter un nombre variable de personnes. De plus, nous exploitons la complémentarité de la vision et des informations du moteur du robot : d’une part, le mouvement actif du robot peut être intégré au système de suivi visuel pour le stabiliser ; d’autre part, les informations visuelles peuvent être utilisées pour effectuer l’asservissement du moteur. Par la suite, les informations audio et visuelles sont combinées dans le modèle variationnel, pour lisser les trajectoires et déduire le statut acoustique d’une personne : parlant ou silencieux. Pour expérimenter un scenario où l’information visuelle est absente, nous essayons le modèle pour la localisation et le suivi des locuteurs basé sur l’information acoustique uniquement. Les techniques de déréverbération sont d’abord appliquées, dont le résultat est fourni au système de suivi. Enfin, une variante du modèle de suivi des locuteurs basée sur la distribution de von-Mises est proposée, celle-ci étant plus adaptée aux données directionnelles. Toutes les méthodes proposées sont validées sur des bases de données specifiques à chaque application. / Robot perception plays a crucial role in human-robot interaction (HRI). Perception system provides the robot information of the surroundings and enables the robot to give feedbacks. In a conversational scenario, a group of people may chat in front of the robot and move freely. In such situations, robots are expected to understand where are the people, who are speaking, or what are they talking about. This thesis concentrates on answering the first two questions, namely speaker tracking and diarization. We use different modalities of the robot’s perception system to achieve the goal. Like seeing and hearing for a human-being, audio and visual information are the critical cues for a robot in a conversational scenario. The advancement of computer vision and audio processing of the last decade has revolutionized the robot perception abilities. In this thesis, we have the following contributions: we first develop a variational Bayesian framework for tracking multiple objects. The variational Bayesian framework gives closed-form tractable problem solutions, which makes the tracking process efficient. The framework is first applied to visual multiple-person tracking. Birth and death process are built jointly with the framework to deal with the varying number of the people in the scene. Furthermore, we exploit the complementarity of vision and robot motorinformation. On the one hand, the robot’s active motion can be integrated into the visual tracking system to stabilize the tracking. On the other hand, visual information can be used to perform motor servoing. Moreover, audio and visual information are then combined in the variational framework, to estimate the smooth trajectories of speaking people, and to infer the acoustic status of a person- speaking or silent. In addition, we employ the model to acoustic-only speaker localization and tracking. Online dereverberation techniques are first applied then followed by the tracking system. Finally, a variant of the acoustic speaker tracking model based on von-Mises distribution is proposed, which is specifically adapted to directional data. All the proposed methods are validated on datasets according to applications.
39

Inverse procedural Street Modelling : from interactive to automatic reconstruction / Modélisation et synthèse 3D procédurale à partir de données urbaines

Cura, Rémi 12 September 2016 (has links)
La population mondiale augmente rapidement, et avec elle, le nombre de citadins, ce qui rend d'autant plus importantes la planification et la gestion des villes.La gestion "intelligente" de ces villes et les nombreuses applications (gestion, tourisme virtuel, simulation de trafic, etc.) nécessitent plus de données réunies dans des modèles virtuels de villes.En milieu urbain, les rues et routes sont essentielles par leur rôle d'interface entre les espaces publics et privés, et entre ces différents usages.Il est difficile de modéliser les rues (ou de les reconstruire virtuellement) car celles-ci sont très diverses (de par leur forme, fonction, morphologie), et contiennent des objets très divers (mobilier, marquages, panneaux).Ce travail de thèse propose une méthode (semi-) automatique pour reconstruire des rues en utilisant le paradigme de la modélisation procédurale inverse dont le principe est de générer un modèle procéduralement, puis de l'adapter à des observations de la réalité.Notre méthode génère un premier modèle approximatif - à partir de très peu d'informations (un réseau d'axes routiers + attributs associés) - assez largement disponible.Ce modèle est ensuite adapté à des observations de façon interactive (interaction en base compatible avec les logiciels SIG communs) et (semi-) automatique (optimisation).L'adaptation (semi-) automatique déforme le modèle de route de façon à ce qu'il corresponde à des observations (bords de trottoir, objets urbains) extraites d'images et de nuages de points.La génération (StreetGen) et l'édition interactive se font dans un serveur de base de données ; de même que la gestion des milliards de points Lidar (Point Cloud Server).La génération de toutes les rues de la ville de Paris prends quelques minutes, l'édition multi-utilisateurs est interactive (<0.3 s). Les premiers résultats de l'adaptation (semi-) automatique (qq minute) sont prometteurs (la distance moyenne à la vérité terrain passe de 2.0 m à 0.5 m).Cette méthode, combinée avec d'autres telles que la reconstruction de bâtiment, de végétation, etc., pourrait permettre rapidement et semi automatiquement la création de modèles précis et à jour de ville / World urban population is growing fast, and so are cities, inducing an urgent need for city planning and management.Increasing amounts of data are required as cities are becoming larger, "Smarter", and as more related applications necessitate those data (planning, virtual tourism, traffic simulation, etc.).Data related to cities then become larger and are integrated into more complex city model.Roads and streets are an essential part of the city, being the interface between public and private space, and between urban usages.Modelling streets (or street reconstruction) is difficult because streets can be very different from each other (in layout, functions, morphology) and contain widely varying urban features (furniture, markings, traffic signs), at different scales.In this thesis, we propose an automatic and semi-automatic framework to model and reconstruct streets using the inverse procedural modelling paradigm.The main guiding principle is to generate a procedural generic model and then to adapt it to reality using observations.In our framework, a "best guess" road model is first generated from very little information (road axis network and associated attributes), that is available in most of national databases.This road model is then fitted to observations by combining in-base interactive user edition (using common GIS software as graphical interface) with semi-automated optimisation.The optimisation approach adapts the road model so it fits observations of urban features extracted from diverse sensing data.Both street generation (StreetGen) and interactions happen in a database server, as well as the management of large amount of street Lidar data (sensing data) as the observations using a Point Cloud Server.We test our methods on the entire Paris city, whose streets are generated in a few minutes, can be edited interactively (<0.3 s) by several concurrent users.Automatic fitting (few m) shows promising results (average distance to ground truth reduced from 2.0 m to 0.5m).In the future, this method could be mixed with others dedicated to reconstruction of buildings, vegetation, etc., so an affordable, precise, and up to date City model can be obtained quickly and semi-automatically.This will also allow to such models to be used in other application areas.Indeed, the possibility to have common, more generic, city models is an important challenge given the cost an complexity of their construction
40

Brain-inspired predictive control of robotic sensorimotor systems / Contrôle prédictif neuro-inspiré de systèmes robotiques sensori-moteurs

Lopez, Léo 05 July 2017 (has links)
Résumé indisponible. / Résumé indisponible.

Page generated in 0.0642 seconds