• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 461
  • 98
  • 63
  • 11
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 652
  • 208
  • 139
  • 76
  • 59
  • 51
  • 51
  • 50
  • 47
  • 46
  • 43
  • 41
  • 40
  • 40
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Mesurer la parole en ligne : traces, dispositifs et régimes de l'opinion sur le web / Measuring the online speech : digital footprints, instruments and regimes of online opinion

Kotras, Baptiste 09 December 2016 (has links)
“Know what people think”. Ce slogan, affiché sur la page d’accueil du site de l’entreprise britannique Brandwatch, résume à lui seul la promesse de l’industrie nouvelle associée à l’étude des opinions sur le web : savoir enfin ce que les gens pensent, et cela sans même avoir besoin de le leur demander. Un ensemble d’agences, de start-ups et d’éditeurs de logiciels propose en effet depuis le milieu des années 2000 de connaître les opinions du grand public à partir des millions de publications quotidiennes sur le web social : tweets, billets de blogs, messages sur les forums ou encore commentaires de la presse en ligne. Ces données massivement disponibles sont ainsi investies par des acteurs et des instruments extrêmement variés pour mesurer aussi bien la réputation des grandes marques et entreprises, que les réactions à une campagne publicitaire ou un débat télévisé, ou encore des pratiques de consommation émergentes ; tous ont en commun de s’intéresser pour cela aux opinions non sollicitées des internautes. Cette démarche rencontre par ailleurs un succès considérable depuis plusieurs années : en 2015, soit dix ans après la création des premières entreprises dans ce domaine, l’industrie des logiciels de social media analysis générait 2,2 milliards de dollars de chiffre d’affaires selon le cabinet Markets and Markets, qui prévoit par ailleurs la croissance de ce marché jusqu’à 17,9 milliards de dollars en 2019.À distance du positivisme qui entoure ces technologies comme d’une critique constructiviste extérieure à son objet, cette thèse cherche à décrire l’émergence de médiations d’un nouveau type qui se saisissent des traces conversationnelles du web social pour la mesure de l’opinion, et renouvellent ainsi le contenu épistémologique et politique de cette catégorie. Partant de l’hypothèse d’une pluralité des formes de l’opinion et des dispositifs qui la mesurent, nous suivons ainsi un ensemble extrêmement varié de modélisations, construites par des start-ups et entreprises innovantes. Nous nous intéressons ainsi dans un premier temps les tentatives de redéfinition de la notion de représentativité par l’échantillonnage de publics mobilisés et influents. Dans un second temps, nous étudions le modèle qui semble l’emporter sur ce marché, fondé sur des logiciels visant l’indexation exhaustive et continue des traces de la conversation en ligne. Mesurant l’opinion comme un flux continu d’événements singuliers, ces instruments rompent définitivement avec l’idée de représentativité et réactualisent une grammaire de l’opinion comme activité collective et discursive, attentive aux dynamiques médiatiques et relationnelles de la discussion en ligne. Ce régime indiciel de connaissance des opinions délaisse donc la quantification des majorités et des minorités pour la mesure des mobilisations et des mouvements de l’opinion. / "Know what people think." This slogan, posted on the homepage of the British company Brandwatch website, contains the promise of the new industry associated with the study of online opinion: know what people think, finally, without even having to ask. Indeed, since the mid-2000s, a group of agencies, startups and software companies offers to know the opinion from millions of daily publications on the social web: tweets, blog posts or messages on forums. These massively available data are invested by extremely diverse actors and instruments, to measure brand reputation, reactions to an advertising campaign or a televised debate, or emerging consumer practices. To this purpose, all have in common an interest for unsolicited opinions of Internet users. This approach met considerable success in recent years: in 2015, ten years after the creation of the first companies in this area of social media software industry analysis generated $ 2.2 billion in revenue by the firm markets and markets, which also provides for the growth of this market to $ 17.9 billion in 2019.Taking distance with both positivism, which surrounds these technologies, and with an external and critical constructivism, this thesis seeks to describe the emergence of a new type of mediation that captures conversational traces from the social web for measuring opinion, and thus renews the epistemological and political content of this category. Assuming the plurality of the instruments and regimes that measure opinion, we follow a very diverse set of models built by start-ups and innovative companies. We first analyze some attempts made by them to redefine the concept of representative sampling, based on the selection of mobilized and influential publics. Secondly, we study the model that seems to prevail in this market, based on software seeking a comprehensive and continuous indexing of the online conversation. Measuring the opinion as a continuous flow of singular events, these instruments definitively break with the idea of representativeness and reactualize a conception of opinion as collective and discursive activity, focused on the relational dynamics of the online discussion. This regime thus abandons the quantification of majorities and minorities, to concentrate on the mobilizations and movements of online opinion.
212

Caractérisation des sols par l'analyse d'images hyperspectrales en télédétection / A Study on Hyperspectral Remote Sensing Data Processing and Analysis applied to 3D Mineral Mapping

Wang, Jinnian 31 October 2014 (has links)
Les images hyperspectrales fournissent des informations intéressantes quant à la composition des sols, en particulier au niveau minéral, ce qui permet de caractériser efficacement les « groupements de minerai » et les « minerais isolés ». Ce travail de recherche avait pour objectif d'établir un système de cartographie 3D des minerais qui intègre des informations de surfaces (acquises par satellite ou à partir d'un aéronef) et des informations souterraines (par forages) à partir de données hyperspectrales. Le travail décrit dans ce mémoire s'articule de la manière suivante :- Pour la cartographie de surface, nous avons développé et optimisé des algorithmes pour mesurer de manière à la fois précise et homogène au niveau des transitions, le taux de minerais à toutes les longueurs d'ondes (de 0.2 à 12m) à partir de l'imagerie hyperspectrale par satellite et aéroportée. Un travail a été également fait à ce sujet pour améliorer la correction atmosphérique. Nous avons utilisé le modèle de BRDF de Hapke pour étudier la composition, linéaire et non linéaire, des modèles spectres- Pour la cartographie minéralogique souterraine, nous avons développé un système que nous avons appelé Field Imaging Spectrometer System (FISS), dont le verrou scientifique était dans le calcul et la mise en oeuvre de la précision sur les produits minéraux recherchés.- Nous avons mis cela en application par la suite, de manière à mieux comprendre le système minéral, et ce à partir de méthode utilisant les données hyperspectrales. Pour cela, nous avons utilisé les Systèmes d'Information Géographique (SIG), ce qui nous a permis de produire des simulations relatives à l'exploitation minière. / Hyperspectral remote sensing has been used successfully to identify and map abundances and compositional difference of mineral groups and single mineral phases. This research will toward developing a 3D mineral mapping system that integrate surface (airborne and satellite) and subsurface (drill core) hyperspectral remote sensing data and carries it into quantitative mineral systems analysis. The main content and result is introduced as follows:- For Surface mineralogy mapping, we have developed and optimized the processing methods for accurate, seamless mineral measurements using Airborne and Satellite hyperspectral image. This requires solutions for unmixing background effects from target minerals to leave residual scaled mineral abundances equivalent to vegetation-free pixels. Another science challenge is to improve the atmospheric correction. Also Hapke BRDF model is used on the study in the linear and nonlinear mineral spectral mixing models.- For the subsurface mineralogy mapping, we have developed Field Imaging Spectrometer System (FISS) and Drill Core Logging for the subsurface mineralogy mapping, the Key science challenges will be establishing the accuracy of derived mineral products through associated laboratory analysis, including investigations from SWIR into the thermal infrared for measuring minerals.- The 3D mineral maps derived from hyperspectral methods can distinctly improve our understanding of mineral system. We use GIS system integrating surface and subsurface mineralogy mapping, with 3D mineral models for demonstration exploitation of economic mineral deposits in test site.
213

Plasticité phénotypique et architecture génétique de la croissance et de la densité du bois du pin maritime (Pinus pinaster Ait.) / Growth of Maritime pine (Pinus pinaster Ait.) in response to its environment : phenotypic variability and genetic architecture

Lagraulet, Hélène 27 April 2015 (has links)
Evaluer l'effet du climat sur la croissance des arbres forestiers, et notamment leur capacité de production de biomasse en situation de contrainte hydrique, passe par la quantification du niveau de plasticité phénotypique des individus et de la diversité génétique des populations au sein de l'espèce étudiée. Le pin maritime, plante pérenne d'intérêt économique majeur en Aquitaine, largement étudiée au niveau génétique et écophysiologique, est un excellent modèle biologique pour mener à bien ce type d'étude. Dans le cadre de cette thèse, nous avons étudié la variabilité phénotypique de nombreux caractères liés à la croissance du pin maritime au jeune âge, en fonction de contraintes abiotiques essentiellement liées à la disponibilité en eau. Nous avons par ailleurs documenté l'architecture génétique de ces traits en termes de nombre, position sur une carte génétique et effet des gènes majeurs (QTL) qui contrôlent une partie de cette variabilité phénotypique.Dans le cadre de travaux de cette thèse, nous avons utilisé deux dispositifs expérimentaux: l'un composé de trois familles F1 issues de croisements contrôlés de parents d'origines géographiques contrastées (Corse, Landes et Maroc), l'autre d'une famille F2 issue de l'autofécondation d'un hybride Corse x Landes. Le premier essai comprenait 1500 individus semés en 2007 sur lesquels la hauteur et le diamètre ont été mesurés annuellement de 2010 à 2014. Nous avons également noté l'évolution de la phénologie du débourrement apical pendant deux années consécutives (2012 et 2013). Enfin, la dynamique de la croissance radiale de 239 génotypes (répartis sur deux des trois familles) a été suivie en continu pendant trois années (2011-2013) grâce à un dispositif unique de capteurs de déplacement continu (microdendromètres). Le second essai comprenait 500 arbres semés en 1998 et dont le carottage au niveau du tronc début 2011 a permis d’établir le profil microdensitométrique sur 7 années consécutives (2004-2010). En parallèle, le génotypage des descendants des 4 croisements a été réalisé grâce à l'aide de biopuces à ADN, ce qui a permis de construire des cartes génétiques. L'analyse conjointe de l'information phénotypique et génotypique a permis d'identifier des QTL pour l'ensemble des caractères et d'étudier leur stabilité en fonction des conditions environnementales et du fond génétique.Cette étude a montré que le débourrement est variable en années en fonction des contraintes de températures et du fond génétique. Tout comme la croissance primaire et secondaire, le débourrement est contrôlé par de nombreux QTL à effets modérés qui varient en fonction de l’environnement climatique et du fond génétique. Le suivi de la dynamique saisonnière de la formation du bois a également montré une interaction QTL x environnement révélant que la densité du bois est régulée par différents gènes ou le même jeu de gènes régulé de façon différentielle en fonction du climat. Enfin, La dernière partie de cette étude a permis de mettre en évidence, pour la première fois, la variabilité intra-spécifique des fluctuations journalières du tronc et son interaction avec des variables environnementales. [...] / Evaluating the impact of climate change on current plantations supposes the evaluation of their phenotypic plasticity and their genotypic diversity within the species, under abiotic pressure. Maritime pine is a perennial species of major economical interest in the french Aquitaine region. Wildly studied genetically and ecophysiologically, maritime pine is a very good biological model to see that type of study to the end. In this thesis, we intend to study various traits related to maritime pine growth under a biotic constraints, according to the following approaches: (1) evalutation of the phenotypic variability and (2)dissection of the genetic architecture of the traits (number, location and effects of QTLs). The comparisonbetween envrionmental and phenotypic data will allow us to appreciate the phenotypic pasticity of individuals. Afterwards, studying the genetic architecture of these traits and its variability according to the genetic background of individuals and environmental conditions will allow us to assess the stability ofdetected QTLs.We used 4 progenies of maritime pines: 3 controlled crosses of parents originated from contrasted ecotypes (Corsica, Landes and Morocco) and 1 controlled cross from a second generation of self-pollination (F2). Micro-cores were extracted from the individuals of the F2 population andmicrodensity profiles were established trough 7 consecutive years. Total height and diameter of eachindividual were measured once a year on the 3 others crosses, from 2010 to 2014. Dynamics of apical budburst was also followed on the same individuals in 2012 and 2013. Finally, dynamics of radial growth were monitored on a sub-sample of 239 individuals (spread in 2 of the 3 controlled crosses) during 3 yearsthanks to a unique device of microdendrometers.At the same time, all individuals (form the 4 crosses) were genotyped with several DNA bioarraysof molecular markers, allowing the building of genetic maps. The confrontation of phenotypic and genotypic data enabled to identify genome are as involved in the genetic architecture behind the traitsand to study their stability according to environmental conditions and the genetic background of individuals.This study showed that bud burst varies from year to year, depending on the conditions oftemperature and of the genetic background of individuals. Same way as growth, bud burst is controlled bymany QTLs of moderate effect, varying according to climatic conditions and the genetic background of individuals. The monitoring of seasonal dynamics of wood formation also showed a QTL x environment interaction revealing that wood density is regulated by different genes or the same set of genes,differentially regulated in response to the climate. The last part of the study puts forwards, for the firsttime, the variability of radius daily fluctuations within a full-sib family and its interaction with environmental variables. [...]
214

Population structure and genome-wide association in the malaria vectors Anopheles gambiae and Anopheles coluzzii / Structure de population et large génome association dans les vecteurs de malaria Anopheles gambiae et Anopheles coluzzii

Redmond, Seth 23 February 2015 (has links)
Malgré le succès des insecticides pour le contrôle du paludisme, la transmission continue dans la plupart des pays d’Afrique sub-saharienne. La recherche pour de nouveaux moyens de contrôle (plus spécialement la modification génétique des populations vecteurs), ou l'utilisation plus efficace des contrôles actuels, vont nécessiter une recherche sur les structures de populations de moustiques et les processus d’immunisation qui importent pour la transmission du Plasmodium chez les moustiques sauvages. Par ailleurs, l’utilisation des techniques d’association génomique ‘GWAS’ est basée sur un réelle compréhension des structures des populations.Ma thèse inclura une description detaillée du système immunitaire du moustique, basée sur la recherche actuelle et des comparaisons génomiques; ainsi que des descriptions des principales voies immunitaires, et des gênes potentiels mal-caracterisés qui peuvent être trouvés dans une étude GWAS. Ainsi qu’une description des connaissances actuelles des structures des populations, dont la speciation du gambiae / coluzzii, et les effets des grandes variations structurelles.Je présenterai le développement d’un nouveau moyen d'identification des variations structurelles ; utilisant les techniques d’ “apprentissage automatique” permettant d'identifier les karyotypes directement à partir des séquences haut-débit, menant à des résultats d’une précision sans précédent.Je présenterai également la première vraie cartographie génomique du ‘tout-génome’ du moustique. Les colonies sont fondées par des moustiques sauvages; les fondateurs sont controlées par strates, incluant également des sous-espèces et variations structurelles majeures. Avec ces colonies une méthode innovant de cartographie est utilisée: dans un premier temps, une identification des grandes régions au sein des groupes phenotypées par la perte de hétérogénéité; puis dans un second temps, le génotypage individuel ‘Sequenom’ sera utilisé pour une cartographie exacte. Cette méthode est utilisée pour l’identification d’une région avec un effet phenotypique sur la prévalence des infections dans la nature.Enfin, je suggèrerai comment ces techniques peuvent être importantes à l’avenir pour l’application du contrôle génomique dans la nature. / Despite successes in the use of insecticides in the control of malaria, malaria transmission continues in much of sub-saharan Africa. The search for novel methods of control (in particular genetic modification of vector populations), or of superior implementation of the currently available methods will require both greater knowledge of the population structure of the mosquito, and of the immune processes that are important in the wild. It is important to note that the mapping of novel immune genes, via genome wide association studies (GWAS) is predicated on a firm understanding of the population structure.My thesis will include a detailed description of the mosquito innate immune system based on current research and comparative genomics; this will illustrate the major pathways that might be employed in the anti-malarial response, and some potential uncharacterised genes that might be implicated in any GWAS study. It will also include a summary of what is known about the mosquito’s population structure, in particular the gambiae / coluzzii speciation event and the implication of chromosomal inversions in the speciation process.I will present the development of a novel approach to the identification of chromosomal inversions; using machine-learning techniques in order to call inversion karyotypes directly from sequence, leading to calls of unprecedented accuracy.I will also present the first truly genome-wide association study to have been performed in the mosquito. Strata-controlled populations of mosquitoes were derived from the wild, including restriction on the basis of subspecies and chromosomal inversion. A two-stage mapping design was then devised in which loss-of-heterozygosity is used to identify broad regions in phenotype pools, before fine-resolution mapping by Sequenom genotyping in individuals. This was used to identify a novel locus with a phenotypic effect on infection prevalence.Finally I will describe how these techniques and findings could be important in the future application of genetic control in the wild.
215

Evaluation et développement de la méthode IRIP de cartographie du ruissellement. Application au contexte ferroviaire / Evaluation and development of the IRIP method of surface runoff mapping. Application to the railway context.

Lagadec, Lilly-Rose 05 December 2017 (has links)
Le ruissellement pluvial est à l’origine de phénomènes violents tels que des inondations, de l’érosion ou des coulées de boue. Les voies ferrées interceptent les écoulements de surface, ce qui peut engendrer une dégradation précoce de l’infrastructure ou la destruction d’éléments, tels que la plateforme ou les talus. La méthode IRIP, « Indicateur de Ruissellement Intense Pluviale », permet de représenter le ruissellement en trois cartes, la production, le transfert et l’accumulation. La méthode IRIP se veut simple et robuste, pour un usage sur tous types de territoires et sans calage. Comme tout modèle de ruissellement, l’évaluation de la méthode IRIP se heurte au manque de données. Pourtant, l’évaluation est une étape cruciale dans le développement de modèles. Pour un usage opérationnel ou pour poursuivre les développements, il est nécessaire d’estimer la valeur et la fiabilité des informations produites. L’objectif de la thèse est donc de proposer une méthode d’évaluation de la méthode IRIP par comparaison à des données d’impacts sur les voies ferrées. La difficulté réside dans la différence de fond et de forme des données à comparer et dans la nécessité de prendre en compte la vulnérabilité de l’infrastructure. La méthode d’évaluation proposée est basée sur le calcul de tableaux de contingence et d’indicateurs de performance, couplé à des analyses détaillées d’incidents. Après une estimation de la performance de la méthode IRIP, des développements sont testés et évalués grâce à la méthode d’évaluation élaborée. La lisibilité des cartes est finalement améliorée, tout en gardant de bons scores de performance. En appliquant la méthode IRIP à des contextes opérationnels, il est montré en quoi IRIP peut être considéré comme un outil d’aide à l’expertise. Différentes tâches du processus de gestion des risques sont testées, telles que les diagnostics de risques sur les voies ferrées, les retours d’expérience post-évènement ou encore la réalisation de zonage règlementaire. De manière générale, cette thèse contribue à l’amélioration des connaissances sur le phénomène du ruissellement et propose des méthodes pour améliorer la gestion des risques liés au ruissellement. / Surface runoff is the source of severe hazards such as floods, erosion or mudflows. Railways can disturb natural surface water flow path, which can generate accelerated deterioration of the infrastructure, or the destruction of railway elements, such as the roadbed or the embankments. The IRIP method ‘Indicator of Intense Pluvial Runoff’ (French acronym) allows mapping surface runoff through three maps, generation, transfer and accumulation. The IRIP method aims to be simple and reliable, in order to be used on all types of lands, without calibration stage. As for others surface runoff models, the IRIP method evaluation faces the lack of data. However, evaluation is a crucial stage for the development of models. In the perspective of an operational use, or simply for the model development, it is essential to estimate the value and the reliability of the model outputs. The thesis objective is to provide an evaluation method using surface runoff impacts on railways. Difficulties lie in the fact that data to be compared differ in terms of form and content. Moreover, the infrastructure vulnerability must be characterized. The proposed evaluation method is based on the computation of contingency tables and of verification indicators, together with detailed analysis of specific impacts. After an estimation of the IRIP method performance, further developments can be tested and evaluated thanks to the proposed evaluation method. Finally, maps comprehensibility is enhanced, while preserving satisfying performance scores. By applying the IRIP method to operational contexts, it has been shown how the IRIP method can be used as a tool in expert appraisals. Different tasks of the risk management process have been studied such as risk analysis on railways, post-event investigation or the realisation of regulatory zonings. More generally, this thesis contributes to improve knowledge about surface runoff and provide methods for improving the risk management.
216

Hybrid mapping for large urban environments / Cartographie hybride pour des environnements de grande taille

Üzer, Ferit 02 March 2016 (has links)
Dans cette thèse, nous présentons une nouvelle méthode de cartographie visuelle hybride qui exploite des informations métriques, topologiques et sémantiques. Notre but est de réduire le coût calculatoire par rapport à des techniques de cartographie purement métriques. Comparé à de la cartographie topologique, nous voulons plus de précision ainsi que la possibilité d’utiliser la carte pour le guidage de robots. Cette méthode hybride de construction de carte comprend deux étapes. La première étape peut être vue comme une carte topo-métrique avec des nœuds correspondants à certaines régions de l’environnement. Ces cartes sont ensuite complétées avec des données métriques aux nœuds correspondant à des sous-séquences d’images acquises quand le robot revenait dans des zones préalablement visitées. La deuxième étape augmente ce modèle en ajoutant des informations sémantiques. Une classification est effectuée sur la base des informations métriques en utilisant des champs de Markov conditionnels (CRF) pour donner un label sémantique à la trajectoire locale du robot (la route dans notre cas) qui peut être "doit", "virage" ou "intersection". L’information métrique des secteurs de route en virage ou en intersection est conservée alors que la métrique des lignes droites est effacée de la carte finale. La fermeture de boucle n’est réalisée que dans les intersections ce qui accroît l’efficacité du calcul et la précision de la carte. En intégrant tous ces nouveaux algorithmes, cette méthode hybride est robuste et peut être étendue à des environnements de grande taille. Elle peut être utilisée pour la navigation d’un robot mobile ou d’un véhicule autonome en environnement urbain. Nous présentons des résultats expérimentaux obtenus sur des jeux de données publics acquis en milieu urbain pour démontrer l’efficacité de l’approche proposée. / In this thesis, a novel vision based hybrid mapping framework which exploits metric, topological and semantic information is presented. We aim to obtain better computational efficiency than pure metrical mapping techniques, better accuracy as well as usability for robot guidance compared to the topological mapping. A crucial step of any mapping system is the loop closure detection which is the ability of knowing if the robot is revisiting a previously mapped area. Therefore, we first propose a hierarchical loop closure detection framework which also constructs the global topological structure of our hybrid map. Using this loop closure detection module, a hybrid mapping framework is proposed in two step. The first step can be understood as a topo-metric map with nodes corresponding to certain regions in the environment. Each node in turn is made up of a set of images acquired in that region. These maps are further augmented with metric information at those nodes which correspond to image sub-sequences acquired while the robot is revisiting the previously mapped area. The second step augments this model by using road semantics. A Conditional Random Field based classification on the metric reconstruction is used to semantically label the local robot path (road in our case) as straight, curved or junctions. Metric information of regions with curved roads and junctions is retained while that of other regions is discarded in the final map. Loop closure is performed only on junctions thereby increasing the efficiency and also accuracy of the map. By incorporating all of these new algorithms, the hybrid framework presented can perform as a robust, scalable SLAM approach, or act as a main part of a navigation tool which could be used on a mobile robot or an autonomous car in outdoor urban environments. Experimental results obtained on public datasets acquired in challenging urban environments are provided to demonstrate our approach.
217

Algorithmes SLAM : Vers une implémentation embarquée / SLAM Algorithms : Towards embedded implementations

Abouzahir, Mohamed 25 February 2017 (has links)
La navigation autonome est un axe de recherche principal dans le domaine de la robotique mobile. Dans ce contexte, le robot doit disposer des algorithmes qui lui permettent d’évoluer de manière autonome dans des environnements complexes et inconnus. Les algorithmes de SLAM permettent à un robot de cartographier son environnement tout en se localisant dans l’espace. Les algorithmes SLAM sont de plus en plus performants, mais aucune implémentation matérielle ou architecturale complète n’a eu. Une telle implantation d’architecture doit prendre en considération la consommation d’énergie, l’embarquabilité et la puissance de calcul. Ce travail scientifique vise à évaluer des systèmes embarqués impliquant de la localisation ou reconstruction de scène. La méthodologie adoptera une approche A3 (Adéquation Algorithme Architecture) pour améliorer l’efficacité de l’implantation des algorithmes plus particulièrement pour des systèmes à fortes contraintes. Le système SLAM embarqué doit disposer d’une architecture électronique et logicielle permettant d’assurer la production d’information pertinentes à partir de données capteurs, tout en assurant la localisation de l’embarquant dans son environnement. L’objectif est donc de définir, pour un algorithme choisi, un modèle d’architecture répondant aux contraintes de l’embarqué. Les premiers travaux de cette thèse ont consisté à explorer les différentes approches algorithmiques permettant la résolution du problème de SLAM. Une étude plus approfondie de ces algorithmes est réalisée. Ceci nous a permet d’évaluer quatre algorithmes de différente nature : FastSLAM2.0, ORB SLAM, RatSLAM et le SLAM linéaire. Ces algorithmes ont été ensuite évalués sur plusieurs architectures pour l’embarqué afin d’étudier leur portabilité sur des systèmes de faible consommation énergétique et de ressources limitées. La comparaison prend en compte les temps d’exécutions et la consistance des résultats. Après avoir analysé profondément les évaluations temporelles de chaque algorithme, le FastSLAM2.0 est finalement choisi, pour un compromis temps d’exécution-consistance de résultat de localisation, comme candidat pour une étude plus approfondie sur une architecture hétérogène embarquée. La second partie de cette thèse est consacré à l’étude d’un système embarqué implémentant le FastSLAM2.0 monoculaire dédié aux environnements larges. Une réécriture algorithmique du FastSLAM2.0 a été nécessaire afin de l’adapter au mieux aux contraintes imposées par les environnements de grande échelle. Dans une démarche A3, le FastSLAM2.0 a été implanté sur une architecture hétérogène CPU-GPU. Grâce à un partitionnement efficace, un facteur d’accélération global de l’ordre de 22 a été obtenu sur une architecture récente dédiée pour l’embarqué. La nature du traitement de l’algorithme FastSLAM2.0 pouvait bénéficier d’une architecture fortement parallèle. Une deuxième instance matérielle basée sur une architecture programmable FPGA est proposée. L’implantation a été réalisée en utilisant des outils de synthèse de haut-niveau afin de réduire le temps de développement. Une comparaison des résultats d’implantation sur cette architecture matérielle par rapport à des architectures à base de GPU a été réalisée. Les gains obtenus sont conséquent, même par rapport aux GPU haut-de-gamme avec un grand nombre de cœurs. Le système résultant peut cartographier des environnements larges tout en garantissant le compromis entre la consistance des résultats de localisation et le temps réel. L’utilisation de plusieurs calculateurs implique d’utiliser des moyens d’échanges de données entre ces derniers. Cela passe par des couplages forts. Ces travaux de thèse ont permis de mettre en avant l’intérêt des architectures hétérogènes parallèles pour le portage des algorithmes SLAM. Les architectures hétérogènes à base de FPGA peuvent particulièrement devenir des candidats potentiels pour porter des algorithmes complexes traitant des données massives. / Autonomous navigation is a main axis of research in the field of mobile robotics. In this context, the robot must have an algorithm that allow the robot to move autonomously in a complex and unfamiliar environments. Mapping in advance by a human operator is a tedious and time consuming task. On the other hand, it is not always reliable, especially when the structure of the environment changes. SLAM algorithms allow a robot to map its environment while localizing it in the space.SLAM algorithms are becoming more efficient, but there is no full hardware or architectural implementation that has taken place . Such implantation of architecture must take into account the energy consumption, the embeddability and computing power. This scientific work aims to evaluate the embedded systems implementing locatization and scene reconstruction (SLAM). The methodology will adopt an approach AAM ( Algorithm Architecture Matching) to improve the efficiency of the implementation of algorithms especially for systems with high constaints. SLAM embedded system must have an electronic and software architecture to ensure the production of relevant data from sensor information, while ensuring the localization of the robot in its environment. Therefore, the objective is to define, for a chosen algorithm, an architecture model that meets the constraints of embedded systems. The first work of this thesis was to explore the different algorithmic approaches for solving the SLAM problem. Further study of these algorithms is performed. This allows us to evaluate four different kinds of algorithms: FastSLAM2.0, ORB SLAM, SLAM RatSLAM and linear. These algorithms were then evaluated on multiple architectures for embedded systems to study their portability on energy low consumption systems and limited resources. The comparison takes into account the time of execution and consistency of results. After having deeply analyzed the temporal evaluations for each algorithm, the FastSLAM2.0 was finally chosen for its compromise performance-consistency of localization result and execution time, as a candidate for further study on an embedded heterogeneous architecture. The second part of this thesis is devoted to the study of an embedded implementing of the monocular FastSLAM2.0 which is dedicated to large scale environments. An algorithmic modification of the FastSLAM2.0 was necessary in order to better adapt it to the constraints imposed by the largescale environments. The resulting system is designed around a parallel multi-core architecture. Using an algorithm architecture matching approach, the FastSLAM2.0 was implemeted on a heterogeneous CPU-GPU architecture. Uisng an effective algorithme partitioning, an overall acceleration factor o about 22 was obtained on a recent dedicated architecture for embedded systems. The nature of the execution of FastSLAM2.0 algorithm could benefit from a highly parallel architecture. A second instance hardware based on programmable FPGA architecture is proposed. The implantation was performed using high-level synthesis tools to reduce development time. A comparison of the results of implementation on the hardware architecture compared to GPU-based architectures was realized. The gains obtained are promising, even compared to a high-end GPU that currently have a large number of cores. The resulting system can map a large environments while maintainingthe balance between the consistency of the localization results and real time performance. Using multiple calculators involves the use of a means of data exchange between them. This requires strong coupling (communication bus and shared memory). This thesis work has put forward the interests of parallel heterogeneous architectures (multicore, GPU) for embedding the SLAM algorithms. The FPGA-based heterogeneous architectures can particularly become potential candidatesto bring complex algorithms dealing with massive data.
218

Etude d'électrodes grande surface d'électrolyseurs PEM : inhomogénéités de fonctionnement et intégration de catalyseurs innovants / Study of large surface area PEM WE electrodes : homogeneity of current distribution and innovative catalysts integration

Verdin, Baptiste 21 March 2018 (has links)
La production d’hydrogène par électrolyse de l’eau PEM prendra une place importante dans le paysage énergétique pour le stockage des EnR. Le changement d’échelle nécessaire ne peut s’envisager que par une augmentation significative de la puissance nominale, passant essentiellement par l’accroissement de leur taille et de la densité de courant. Dans ces conditions, un fonctionnement optimal et une durée de vie suffisante ne pourront être obtenus que par l’homogénéisation de la répartition du courant à la surface des électrodes. Au cours de cette thèse, nous avons utilisé pour la première fois un outil de cartographie des distributions de courant et de température à la surface d’AME grande surface, issus d’un design industriel. Une carte de mesure S++® conçue sur mesure et adaptée à l’utilisation envisagée a été intégrée à une monocellule PEM de 250cm². Une caractérisation électro-mécanique de la cellule a mis en évidence le lien existant entre le champ de forces de compression mécanique et de la densité de courant. Nous montrons qu’une compression mécanique optimale n’est pas suffisante pour homogénéiser la distribution de courant : le design de cellule, et plus particulièrement la distribution des fluides, joue un rôle majeur dans l’inhomogénéité de la distribution de courant, récurrente entre le centre et la périphérie de la cellule. Nous soulignons la concentration des lignes de courant vers le centre de l’AME lors de tests dynamiques, conséquence d’un vieillissement spatialement différencié. Nous avons également développé une structure d’électrode permettant de ré-homogénéiser globalement la distribution de courant, ce qui permet un meilleur maintien des performances dans le temps. Nous avons également développé un modèle numérique de la couche catalytique permettant de mieux comprendre la répartition des lignes de courant en fonction des caractéristiques géométriques des collecteurs poreux. Nous mettons en lumière le rôle majeur des surtensions dans le pouvoir répartiteur de la couche active, qui est particulièrement faible côté cathodique. Nous préconisons de densifier la couche catalytique pour une meilleure répartition du courant et pour limiter les différenciations locales de vieillissement. L’ensemble des observations en mono cellule a été confirmé par des essais sur un stack commercial. / Hydrogen production from PEM water electrolysis will take a great place in the energy landscape for RES storage. This scale shift requires a significant increase of the nominal power, and therefore an increase in size and a gain in the current density. Optimal operation (in terms of efficiency and lifetime) can be obtained only if the distribution of current lines over the electrode surface is adequately homogeneous. In this thesis, we have used for the first time a specific tool for the in-situ mapping of current and temperature in a large surface area PEM single cell. A customized S++® measuring plate, adapted to our application, has been implemented in a 250cm² PEM single cell. Electromechanical characterization of the cell has put into evidence the link between the field of clamping force and the local current density. We have shown that an optimal mechanical compression is not sufficient to homogenize current distribution. We have demonstrated that the cell design, in particular the fluid distribution, plays a major role in current distribution inhomogeneities, which recurrently form between the center and the periphery of the cell. We have also shown that during dynamic operation, current lines tend to concentrate at the center of the cell as a consequence of spatially differentiated ageing. We have developed an electrode structure that facilitates the global re-homogenization of current lines and additionally shows an increased durability. In parallel, we have developed a numerical model to calculate the distribution of current lines within the thickness of catalytic layers as a function of the geometry of the PTL. We have found that overvoltages play a major role in current distribution, and that the cathode is prone to more heterogeneities. We propose to densify the catalyst layers for a better current repartition and a lesser differentiated ageing. Key findings from single cell tests have been confirmed on a commercial stack.
219

Cartographie topographique et radiologique 3D en temps réel : acquisition, traitement, fusion des données et gestion des incertitudes / Real-time 3D topographical and radiological mapping : acquisition, fusion, data processing and uncertainties management.

Hautot, Félix 16 June 2017 (has links)
Dans le cadre des activités de maintenance, de décontamination et de démantèlement d’installations nucléaires, il est nécessaire d’effectuer un état des lieux précis des structures potentiellement contaminées ou activées, préalablement à toute intervention. Pour des raisons économiques, cet état des lieux doit être le plus souvent réalisé dans un temps court. Par ailleurs, il est généralement effectué par un opérateur, dont le temps d’exposition aux rayonnements doit être minimisé. Une des difficultés récurrentes réside dans l’éventuelle obsolescence ou de l’inexistence des plans, et dans le cas d’investigations en intérieur, de la perte de signaux GPS, et de la difficulté d’employer des systèmes de localisations externes et pré-calibrés. En effet, l’état des lieux est obtenu en couplant une cartographie de l’environnement avec des mesures nucléaires destinées à évaluer le niveau de radiations dans les lieux étudiés. Dans ce cadre, il est nécessaire de disposer d’un instrument portatif permettant de délivrer une cartographie radiologique et topographique la plus exhaustive possible des locaux afin d’établir des scénarii d’intervention. Afin de minimiser le temps d’exposition de l’opérateur, il est essentiel que les données acquises soient exploitables en temps réel. Ce type d’instrument doit permettre de procéder à des interventions complexes et doit fournir les meilleures prévisions dosimétriques afin d’optimiser les temps d’intervention lors du démantèlement ainsi que la gestion des éventuels déchets. À ces fins, Areva STMI a développé un système autonome de positionnement et de calcul de déplacement de sondes de mesures nucléaires en temps-réel basé sur les techniques de SLAM (Simultaneous Localization And Mapping). Ces développements ont conduit au dépôt d’un brevet. Ce travail de thèse a consisté à poursuive cette étude, et en particulier à décomposer l’ensemble des sous-systèmes, à poursuivre les développements inhérents à la fusion de données topographiques et radiologiques, à proposer des moyens d’optimisation, et à poser les bases d’une technique d’analyse, en temps réel, des incertitudes associées. Les méthodes SLAM utilisent l’odométrie visuelle qui peut reposer sur la capture d’images à l’aide de caméras RGB-D (caméras de type Microsoft Kinect®). Le processus d’acquisition délivre une carte tridimensionnelle contenant la position et l’orientation en 3D des appareils de mesure ainsi que les mesures elles-mêmes (débit de dose et spectrométrie gamma CZT) sans implication d’infrastructure préexistante. Par ailleurs, des méthodes de détections de sources basées sur les techniques d’interpolation spatiale et de rétroprojection de signal en « proche temps-réel » ont été développées. Ainsi, il est possible d’évaluer la position des sources radioactives dans l’environnement acquis. Il est ainsi possible de calculer rapidement des cartes de son état radiologique sans délai après l’acquisition. La dernière partie de ce travail a consisté à poser les bases d’une méthode originale pour l’estimation, en proche temps réel, de la précision des résultats issus de la chaîne d’acquisition et de traitement. Cette première approche nous a permis de formuler l’évaluation et la propagation des incertitudes tout au long de cette chaîne d’acquisition en temps réel, afin d’évaluer les méthodes que nous avons employées en termes de précision et de fiabilité de chaque acquisition réalisée. Enfin, une phase de benchmark permet d’estimer les résultats par rapport à des méthodes de référence. / In the field of nuclear related activities such as maintenance, decontamination and dismantling status reports of potentially contaminated or activated elements are required beforehand. For economic reasons, this status report must be quickly performed. So as to be done quickly, the operation is realized by an operator, and his exposure time must be reduced as much as possible. Concerning indoor environments, it can be hard to make such investigations due to out-of-date plans or maps, loose of GPS signal, pre-positioning of underlying or precalibrated systems. Indeed, the premises status report is obtained by coupling nuclear measurements and topographical mapping. In such kind of situation it is necessary to have a portative instrument that delivers an exhaustive radiological and topographical mapping in order to deliver a decision support concerning the best intervention scenario to set up as fast as possible. Furthermore, and so as to reduce operator’s exposure time, such kind of method must be usable in real time. This method enables to proceed to complex intervention within the best radiological previsions for optimizing operator’s exposition time and waste management. In this goal, Areva STMI then developed a nuclear measurement probes autonomous positioning and motion estimation system based on visual SLAM (Simultaneous Localization And Mapping). These developments led to apply a patent. This thesis consisted in pursuing this survey, especially decomposing all the underlying systems, continuing the data fusion developments, proposing optimisations, and setting the basis of a real-time associated uncertainties analysis. SLAM based on visual odometry can be performed with RGB-D sensor (Microsoft Kinect®-like sensors). The acquisition process delivers a 3D map containing radiological sensors poses (positions and orientations in 3D) and measurements (dose rate and CZT gamma spectrometry) without any external signal or device. Moreover, a few radioactive sources localization algorithms based on geostatistics and back projection of measurements can also be performed in near real-time. It is then possible to evaluate the position of radioactive sources in the scene and compute fast radiological mappings of premises close to the acquisition. The last part of this work consisted in developing an original method for real-time evaluation of the process chain and results accuracies. The evaluation of uncertainties and their propagation along the acquisition and process chain in real-time provide feedbacks on employed methods for investigations or intervention processes and enable to evaluate the reliability of acquired data. Finally, a set of benchmarks has been performed in order to estimate the results quality by comparing them to reference methods.
220

Approximation robuste de surfaces avec garanties / Robust shape approximation and mapping between surfaces

Mandad, Manish 29 November 2016 (has links)
Cette thèse comprend deux parties indépendantes.Dans la première partie nous contribuons une nouvelle méthode qui, étant donnée un volume de tolérance, génère un maillage triangulaire surfacique garanti d’être dans le volume de tolérance, sans auto-intersection et topologiquement correct. Un algorithme flexible est conçu pour capturer la topologie et découvrir l’anisotropie dans le volume de tolérance dans le but de générer un maillage de faible complexité.Dans la seconde partie nous contribuons une nouvelle approche pour calculer une fonction de correspondance entre deux surfaces. Tandis que la plupart des approches précédentes procède par composition de correspondance avec un domaine simple planaire, nous calculons une fonction de correspondance en optimisant directement une fonction de sorte à minimiser la variance d’un plan de transport entre les surfaces / This thesis is divided into two independent parts.In the first part, we introduce a method that, given an input tolerance volume, generates a surface triangle mesh guaranteed to be within the tolerance, intersection free and topologically correct. A pliant meshing algorithm is used to capture the topology and discover the anisotropy in the input tolerance volume in order to generate a concise output. We first refine a 3D Delaunay triangulation over the tolerance volume while maintaining a piecewise-linear function on this triangulation, until an isosurface of this function matches the topology sought after. We then embed the isosurface into the 3D triangulation via mutual tessellation, and simplify it while preserving the topology. Our approach extends toDépôt de thèseDonnées complémentairessurfaces with boundaries and to non-manifold surfaces. We demonstrate the versatility and efficacy of our approach on a variety of data sets and tolerance volumes.In the second part we introduce a new approach for creating a homeomorphic map between two discrete surfaces. While most previous approaches compose maps over intermediate domains which result in suboptimal inter-surface mapping, we directly optimize a map by computing a variance-minimizing mass transport plan between two surfaces. This non-linear problem, which amounts to minimizing the Dirichlet energy of both the map and its inverse, is solved using two alternating convex optimization problems in a coarse-to-fine fashion. Computational efficiency is further improved through the use of Sinkhorn iterations (modified to handle minimal regularization and unbalanced transport plans) and diffusion distances. The resulting inter-surface mapping algorithm applies to arbitrary shapes robustly and efficiently, with little to no user interaction.

Page generated in 0.0378 seconds