• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • Tagged with
  • 4
  • 4
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Les bases de données environnementales : entre complexité et simplification : mutualisation et intégration d’outils partagés et adaptés à l’observatoire O-LiFE / Environmental databases : between complexity and simplification : mutualization and integration of shared tools adapted to O-LiFE Observatory

Hajj-Hassan, Hicham 19 December 2016 (has links)
O-LiFE est un observatoire de l’environnement dédié à l’étude des ressources et de la biodiversité dans la zone critique à la vie, focalisé sur la méditerranée. C’est aussi une structure à l’interface entre la recherche fondamentale et les porteurs d’enjeux. Cette plateforme initiée en collaboration entre des équipes libanaises et françaises se focalise d’abord sur l’observation systémique du milieu naturel, autour des thématiques de l’eau, la biodiversité et la gestion de l’environnement. Le fondement de l’observatoire est la mise en oeuvre d’une approche transdisciplinaire du défi du changement global. Structurer, partager, pérenniser et valoriser les données environnementales constitue un objectif prioritaire pour permettre à une large communauté de converger vers une approche réellement systémique et transdisciplinaire des enjeux environnementaux en Méditerranée. La construction d’un système d’information permettant cette mise en relation complète des données est donc prioritaire. Cependant cette mise en oeuvre est rendu complexe par plusieurs défis à relever pour répondre aux utilisateurs finaux et producteurs de données qui ne partagent pas les mêmes besoins, et pour tenir compte de l’hétérogénéité naturelle des données.Dans cette thèse, nous détaillons par conséquent les réflexions et travaux menés pour la mise en place de l’architecture du SI de l’observatoire. Le travail a été initié par une enquête permettant de mieux connaître les sources de données existantes. Nous avons ensuite proposé d’utiliser les environnements de gestion de données d’observations basés sur des ontologies partagées et les recommandations des consortiums reconnus (OGC). Des extensions sont proposées pour permettre la prise en compte de points de vue distincts sur les données via des multi-mapping. Cette extension permet un découplage entre la vision initiale du producteur de données et les multiples utilisations possibles des données à l’aide de croisement avec d’autres sources de données et/ou d’autres points de vue.Nous avons enfin appliqué la méthodologie sur les données O-LiFE et avons pu extraire des croisements de données inter-bases (entre deux sources de données distinctes) et intra-bases (en juxtaposant des points de vue distincts sur une même source de données). Ce travail est une démonstration du rôle fondamental des outils du SI et des observatoires dans le rapprochement indispensable des communautés scientifiques autant que des porteurs d’enjeux pour la résolution des grands défis sociétaux environnementaux, notamment en Méditerranéen. / O-LiFE is an environmental observatory dedicated to the study of resources and biodiversity in the critical area of life, focused on the Mediterranean. It is also a structure at the interface between basic research and the holders of issues. This platform initiated in collaboration between Lebanese and French teams focuses first on systemic observation of the natural environment around the themes of water, biodiversity and environmental management. The foundation of the observatory is the implementation of a transdisciplinary approach to the challenge of global change.Organize, share, sustain and enhance environmental data is a priority objective to enable the wider community to converge towards a truly systemic and transdisciplinary approach to environmental issues in the Mediterranean. The construction of an information system allowing complete connection of data is therefore a priority. However, this implementation is complicated by a number of challenges to meet the end users and data producers expectations who do not share the same needs, and to take into account thenatural heterogeneity of data.In this PhD, we detail brainstorming and work needed for the development of the architecture of the information system of the observatory. The work was initiated by a survey to better understand theexisting sources of data. We then proposed to use observational data management environments based on shared ontologies and the recommendations of recognized consortia (OGC). Extensions are proposed to enable the inclusion of different perspectives on data through multi-mapping. This extension allows a decouplingbetween the original vision of the data producer and the many possible uses of the data with crossbreeding with other data sources and / or other views.We then applied the methodology on the O-LiFE data and were able to extract inter-data analysis (between two distinct data sources) and intra-bases analysis (by juxtaposing different points of view on the same data source). This work is a demonstration of the fundamental role of IS tools and observatories in the essential gathering of the scientific communities as much as stakeholders to resolve major environmental challenges facing society, particularly in Mediterranean.
2

Fouille de données tensorielles environnementales / Environmental Multiway Data Mining

Cohen, Jérémy E. 05 September 2016 (has links)
Parmi les techniques usuelles de fouille de données, peu sont celles capables de tirer avantage de la complémentarité des dimensions pour des données sous forme de tableaux à plusieurs dimensions. A l'inverse les techniques de décomposition tensorielle recherchent spécifiquement les processus sous-jacents aux données, qui permettent d'expliquer les données dans toutes les dimensions. Les travaux rapportés dans ce manuscrit traitent de l'amélioration de l'interprétation des résultats de la décomposition tensorielle canonique polyadique par l'ajout de connaissances externes au modèle de décomposition, qui est par définition un modèle aveugle n'utilisant pas la connaissance du problème physique sous-jacent aux données. Les deux premiers chapitres de ce manuscrit présentent respectivement les aspects mathématiques et appliqués des méthodes de décomposition tensorielle. Dans le troisième chapitre, les multiples facettes des décompositions sous contraintes sont explorées à travers un formalisme unifié. Les thématiques abordées comprennent les algorithmes de décomposition, la compression de tenseurs et la décomposition tensorielle basée sur les dictionnaires. Le quatrième et dernier chapitre présente le problème de la modélisation d'une variabilité intra-sujet et inter-sujet au sein d'un modèle de décomposition contraint. L'état de l'art en la matière est tout d'abord présenté comme un cas particulier d'un modèle flexible de couplage de décomposition développé par la suite. Le chapitre se termine par une discussion sur la réduction de dimension et quelques problèmes ouverts dans le contexte de modélisation de variabilité sujet. / Among commonly used data mining techniques, few are those which are able to take advantage of the multiway structure of data in the form of a multiway array. In contrast, tensor decomposition techniques specifically look intricate processes underlying the data, where each of these processes can be used to describe all ways of the data array. The work reported in the following pages aims at incorporating various external knowledge into the tensor canonical polyadic decomposition, which is usually understood as a blind model. The first two chapters of this manuscript introduce tensor decomposition techniques making use respectively of a mathematical and application framework. In the third chapter, the many faces of constrained decompositions are explored, including a unifying framework for constrained decomposition, some decomposition algorithms, compression and dictionary-based tensor decomposition. The fourth chapter discusses the inclusion of subject variability modeling when multiple arrays of data are available stemming from one or multiple subjects sharing similarities. State of the art techniques are studied and expressed as particular cases of a more general flexible coupling model later introduced. The chapter ends on a discussion on dimensionality reduction when subject variability is involved, as well a some open problems.
3

Etude en vue de la réalisation de logiciels bas niveau dédiés aux réseaux de capteurs sans fil : microsystème de fichiers

De Sousa, Gil 27 October 2008 (has links) (PDF)
De nombreux travaux de recherche actuels s'intéressent aux réseaux de capteurs sans fil (RCSF) et à leurs différentes problématiques. L'une d'entre elles est la gestion des données présentes au sein du RCSF. Généralement, les deux grands types de données manipulées sont soit celles collectées à l'aide d'un dispositif de mesure, soit celles gérées par le système d'exploitation. L'objectif de cette thèse est de proposer des solutions à cette problématique. Un microsystème de fichier a ainsi été conçu en prenant comme support un noyau temps réel au fonctionnement hybride à la fois multitâche et basé sur les événements. Ce noyau utilise un concept permettant d'offrir un niveau d'abstraction pour la gestion des processus ou des événements. Ce concept a été repris, au niveau du microsystème de fichiers, dans le cadre de l'accès aux données. L'autre caractéristique principale de ce microsystème de fichiers, par rapport aux systèmes existants, est de réunir, au sein d'un même système, des fonctionnalités de gestion de mémoire et d'interrogation de données. Ces deux éléments, que sont le microsystème de fichiers et le noyau temps réel, associés à un capteur sans fil multi-composant constituent une plateforme adaptative permettant la mise en place d'applications d'acquisition de données environnementales.
4

Preprocessing and analysis of environmental data : Application to the water quality assessment of Mexican rivers / Pré-traitement et analyse des données environnementales : application à l'évaluation de la qualité de l'eau des rivières mexicaines

Serrano Balderas, Eva Carmina 31 January 2017 (has links)
Les données acquises lors des surveillances environnementales peuvent être sujettes à différents types d'anomalies (i.e., données incomplètes, inconsistantes, inexactes ou aberrantes). Ces anomalies qui entachent la qualité des données environnementales peuvent avoir de graves conséquences lors de l'interprétation des résultats et l’évaluation des écosystèmes. Le choix des méthodes de prétraitement des données est alors crucial pour la validité des résultats d'analyses statistiques et il est assez mal défini. Pour étudier cette question, la thèse s'est concentrée sur l’acquisition des données et sur les protocoles de prétraitement des données afin de garantir la validité des résultats d'analyse des données, notamment dans le but de recommander la séquence de tâches de prétraitement la plus adaptée. Nous proposons de maîtriser l'intégralité du processus de production des données, de leur collecte sur le terrain et à leur analyse, et dans le cas de l'évaluation de la qualité de l'eau, il s’agit des étapes d'analyse chimique et hydrobiologique des échantillons produisant ainsi les données qui ont été par la suite analysées par un ensemble de méthodes statistiques et de fouille de données. En particulier, les contributions multidisciplinaires de la thèse sont : (1) en chimie de l'eau: une procédure méthodologique permettant de déterminer les quantités de pesticides organochlorés dans des échantillons d'eau collectés sur le terrain en utilisant les techniques SPE–GC-ECD (Solid Phase Extraction - Gas Chromatography - Electron Capture Detector) ; (2) en hydrobiologie : une procédure méthodologique pour évaluer la qualité de l’eau dans quatre rivières Mexicaines en utilisant des indicateurs biologiques basés sur des macroinvertébrés ; (3) en science des données : une méthode pour évaluer et guider le choix des procédures de prétraitement des données produites lors des deux précédentes étapes ainsi que leur analyse ; et enfin, (4) le développement d’un environnement analytique intégré sous la forme d’une application développée en R pour l’analyse statistique des données environnementales en général et l’analyse de la qualité de l’eau en particulier. Enfin, nous avons appliqué nos propositions sur le cas spécifique de l’évaluation de la qualité de l’eau des rivières Mexicaines Tula, Tamazula, Humaya et Culiacan dans le cadre de cette thèse qui a été menée en partie au Mexique et en France. / Data obtained from environmental surveys may be prone to have different anomalies (i.e., incomplete, inconsistent, inaccurate or outlying data). These anomalies affect the quality of environmental data and can have considerable consequences when assessing environmental ecosystems. Selection of data preprocessing procedures is crucial to validate the results of statistical analysis however, such selection is badly defined. To address this question, the thesis focused on data acquisition and data preprocessing protocols in order to ensure the validity of the results of data analysis mainly, to recommend the most suitable sequence of preprocessing tasks. We propose to control every step in the data production process, from their collection on the field to their analysis. In the case of water quality assessment, it comes to the steps of chemical and hydrobiological analysis of samples producing data that were subsequently analyzed by a set of statistical and data mining methods. The multidisciplinary contributions of the thesis are: (1) in environmental chemistry: a methodological procedure to determine the content of organochlorine pesticides in water samples using the SPE-GC-ECD (Solid Phase Extraction – Gas Chromatography – Electron Capture Detector) techniques; (2) in hydrobiology: a methodological procedure to assess the quality of water on four Mexican rivers using macroinvertebrates-based biological indices; (3) in data sciences: a method to assess and guide on the selection of preprocessing procedures for data produced from the two previous steps as well as their analysis; and (4) the development of a fully integrated analytics environment in R for statistical analysis of environmental data in general, and for water quality data analytics, in particular. Finally, within the context of this thesis that was developed between Mexico and France, we have applied our methodological approaches on the specific case of water quality assessment of the Mexican rivers Tula, Tamazula, Humaya and Culiacan.

Page generated in 0.1093 seconds