• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 79
  • 53
  • 8
  • Tagged with
  • 136
  • 136
  • 91
  • 88
  • 24
  • 23
  • 22
  • 21
  • 21
  • 20
  • 19
  • 19
  • 16
  • 15
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

SGBD open-source pour historisation de données et impact des mémoires flash / Open-source DBMS for data historization and impact of flash memories

Chardin, Brice 07 December 2011 (has links)
L'archivage de données industrielles est un problème complexe : il s'agit de stocker un grand nombre de données sur plusieurs décennies, tout en supportant la charge des insertions temps réel et des requêtes d'extraction et d'analyse. Pour ce type d'application, des produits « de niche » se sont spécialisés pour ce segment du marché : les progiciels d'historisation. Il s'agit de solutions propriétaires avec des coûts de licence de l'ordre de plusieurs dizaines de milliers d'euros, et dont le fonctionnement interne n'est pas dévoilé. Nous avons donc dans un premier temps mis en évidence les spécificités de ces progiciels d'historisation, tant au niveau des fonctionnalités que des performances. Néanmoins, l'archivage de données industrielles peut s'appliquer à des contexte très différents. L'IGCBox par exemple est un mini PC industriel utilisant MySQL pour l'archivage à court terme des données de production des centrales hydrauliques d'EDF. Ce matériel présente quelques spécificités, la principale étant son système de mémoire non volatile basé uniquement sur la technologie flash, pour sa fiabilité importante en milieu industriel et sa faible consommation d'énergie. Les SGBD possèdent pour des raisons historiques de nombreuses optimisations spécifiques aux disques durs, et le manque d'optimisation adaptée aux mémoires flash peut dégrader significativement les performances. Le choix de ce type de mémoire a donc eu des répercussions notables sur les performances pour l'insertion, avec une dégradation importante par rapport aux disques durs. Nous avons donc proposé Chronos, un SGBD dédié à l'historisation de données sur mémoires flash. Pour cela, nous avons en particulier identifié un algorithme d'écriture « quasi-séquentiel » efficace pour accéder à la mémoire, ainsi que des mécanismes de bufferisation et de mise à jour d'index optimisés pour les charges typiques de l'historisation. Les résultats expérimentaux montrent un gain significatif pour les insertions par rapport à des solutions équivalentes, d'un facteur 20 à 54. Chronos est donc une solution compétitive lorsque les insertions correspondent à une proportion importante de la charge soumise au SGBD. En particulier pour les charges typiques des IGCBox, Chronos se distingue en proposant des performances globales améliorées d'un facteur 4 à 18 par rapport aux autres solutions. / Archiving industrial data is a complex issue: a large volume of data has to be stored for several decades while meeting performance requirements for real-time insertions, along with retrieval and analysis queries. For these applications, niche products have specialized in this market segment: data historians. Data historians are proprietary solutions, with license fees of tens of thousands of dollars, and whose internal mechanisms are not documented. Therefore, we first emphasized data historian specificities, with regards to functionalities as much as performance. However, archiving industrial data can occur in very different contexts. IGCBoxes for example are industrial mini PCs using MySQL for short-term data archiving in hydroelectric power stations at EDF. These equipments expose distinctive features, mainly on their storage system based exclusively on flash memory, for its reliability in an industrial environment and its low energy consumption. For historical reasons, DBMS include many hard disk drive-oriented optimizations, and the lack of adjustment for flash memories can significantly decrease performance. This type of memory thus had notable consequences on insert performance, with a substantial drop compared with hard disk drives. We therefore designed Chronos, a DBMS for historization data management on flash memories. For that purpose, we especially identified an efficient “quasi-sequential” write pattern on flash memories, along with buffer and index management techniques optimized for historization typical workloads. Experimental results demonstrate improved performance for insertions over different solutions, by a factor of 20 to 54. Chronos is therefore competitive when insertions make up an extensive part of the workload. For instance, Chronos stands out with the typical workload of IGCBoxes, with global performance improved by a factor of 4 to 18 compared with other solutions.
62

Les risques hydrologiques dans les bassins versants sous contrôle anthropique : modélisation de l'aléa, de la vulnérabilité et des conséquences sur les sociétés. : Cas de la région Sud-ouest de Madagascar / Hydrological risks in anthropized watersheds : modeling of hazard, vulnerability and impacts on population from south-west of Madagascar

Rakotoarisoa, Mahefa 11 December 2017 (has links)
La ville de Toliara qui se trouve à l’exutoire du bassin de Fiherenana (Madagascar) est soumise chaque année aux aléas inondations. Les enjeux sont donc d'une importance majeure dans cette région. Cette étude débute par l’analyse de l’aléa avec les données hydro climatiques existantes. On cherche alors à déterminer les tendances en utilisant des modèles statistiques basés sur les séries temporelles. Une méthode de reconstitution des données manquantes est alors proposée. Ensuite, deux approches sont menées afin d’évaluer la vulnérabilité de la ville de Toliara et des villages alentours : une approche statique, à partir de relevés de terrain et de l’utilisation d’un système d’information géographique (SIG) ; et une autre avec l'utilisation d'un modèle multi-agents (SMA). La première étape est la cartographie d’un indicateur de vulnérabilité qui est l’agencement de plusieurs critères statiques propre à chaque maison comme la hauteur d’eau potentielle ou la typologie architecturale. La deuxième partie mettra en scène des agents afin de simuler un évènement catastrophique (montée des eaux et évacuation en simultanée). On cherche à savoir quelles sont les chances pour que les occupants d’une habitation puissent sortir indemne d’une inondation, en comparant divers paramètres et scénarios afin d’évaluer le degré de vulnérabilité de chaque ménage. Certains scénarios prennent en compte l’effet de certaines prises de décisions (Informations, sensibilisations etc.). Les indicateurs et les simulations permettent alors de mieux appréhender les risques inondations afin d’être une aide à la gestion des crises. / Hydrological risks are recurrent on the Fiherenana watershed - Madagascar. The city of Toliara, which is located at the outlet of the river basin, is subject each year to hurricane hazards and floods. The stakes are of major importance in this part of the island. This study begins with the analysis of hazard by collecting all existing hydro-climatic data on the catchment. It then seeks to determine trends, despite the significant lack of data, using statistical models (time series). Then, two approaches are used to assess the vulnerability of the city of Toliara and its surrounding villages. First, a static approach, from surveys of land and the use of GIS are conducted. Then, the second method is based on a multi-agent model. The first step is the mapping of a microscale vulnerability index which is an arrangement of several static criteria. For each House, there are several criteria of vulnerability such as potential water depth or architectural typology. As for the second part, scenes of agents are simulated in order to evaluate the degree of housing vulnerability to flooding. The model aims to estimate the chances of the occupants to escape from a catastrophic flood. For this purpose, we compare various settings and scenarios, some of which are conducted to take into account the effect of various decisions made by the responsible entities (awareness campaign etc.). The simulation consists of two essential parts: the simulation of the rise of water and the simulation of the behaviour of the people facing the occurence of hazard. Indicators and simulations allow to better understand the risks in order to help crisis management. Key Words: Hy
63

Prédiction des séries temporelles larges / Prediction of large time series

Hmamouche, Youssef 13 December 2018 (has links)
De nos jours, les systèmes modernes sont censés stocker et traiter des séries temporelles massives. Comme le nombre de variables observées augmente très rapidement, leur prédiction devient de plus en plus compliquée, et l’utilisation de toutes les variables pose des problèmes pour les modèles classiques.Les modèles de prédiction sans facteurs externes sont parmi les premiers modèles de prédiction. En vue d’améliorer la précision des prédictions, l’utilisation de multiples variables est devenue commune. Ainsi, les modèles qui tiennent en compte des facteurs externes, ou bien les modèles multivariés, apparaissent, et deviennent de plus en plus utilisés car ils prennent en compte plus d’informations.Avec l’augmentation des données liées entre eux, l’application des modèles multivariés devient aussi discutable. Le challenge dans cette situation est de trouver les facteurs les plus pertinents parmi l’ensemble des données disponibles par rapport à une variable cible.Dans cette thèse, nous étudions ce problème en présentant une analyse détaillée des approches proposées dans la littérature. Nous abordons le problème de réduction et de prédiction des données massives. Nous discutons également ces approches dans le contexte du Big Data.Ensuite, nous présentons une méthodologie complète pour la prédiction des séries temporelles larges. Nous étendons également cette méthodologie aux données très larges via le calcul distribué et le parallélisme avec une implémentation du processus de prédiction proposé dans l’environnement Hadoop/Spark. / Nowadays, storage and data processing systems are supposed to store and process large time series. As the number of variables observed increases very rapidly, their prediction becomes more and more complicated, and the use of all the variables poses problems for classical prediction models.Univariate prediction models are among the first models of prediction. To improve these models, the use of multiple variables has become common. Thus, multivariate models and become more and more used because they consider more information.With the increase of data related to each other, the application of multivariate models is also questionable. Because the use of all existing information does not necessarily lead to the best predictions. Therefore, the challenge in this situation is to find the most relevant factors among all available data relative to a target variable.In this thesis, we study this problem by presenting a detailed analysis of the proposed approaches in the literature. We address the problem of prediction and size reduction of massive data. We also discuss these approaches in the context of Big Data.The proposed approaches show promising and very competitive results compared to well-known algorithms, and lead to an improvement in the accuracy of the predictions on the data used.Then, we present our contributions, and propose a complete methodology for the prediction of wide time series. We also extend this methodology to big data via distributed computing and parallelism with an implementation of the prediction process proposed in the Hadoop / Spark environment.
64

Usage des anti-infectieux et infections invasives à pneumocoque en France, étude d'associations temporelles / Antibiotics Exposure and Community-Acquired Pneumococcal Invasive Infections, Temporal Associations

Vibet, Marie-Anne 19 December 2014 (has links)
Le pneumocoque est une cause majeure d'infections bactériennes communautaires dans le monde. D'après la littérature, la consommation d'antibiotiques pourrait influer sur le risque de colonisation ou d'infection par pneumocoque à sensibilité diminuée aux antibiotiques spécifiques. La France, grande consommatrice d'antibiotiques, a mis en place, à l'automne 2002, un plan national pour préserver l'efficacité des antibiotiques et améliorer leur usage. Cette campagne a conduit à une diminution significative de la consommation d'antibiotiques durant les périodes hivernales. En 2003, une vaccination anti-pneumococcique des enfants de moins de deux ans a été recommandée afin de réduire les infections communautaires à pneumocoque chez l'enfant. Au vu du contexte français, il paraît important d'étudier la dynamique des infections invasives communautaires à pneumocoque en prenant en compte les deux interventions de santé publique. L'étude de l'association entre deux ou plusieurs séries temporelles saisonnières doit être effectuée sur des séries stationnarisées afin d'éliminer tout risque de confusion. Les différentes méthodes de désaisonnalisation ont été comparées à travers une étude de simulations afin d'identifier la stratégie optimale. De plus, le modèle de régression linéaire adapté aux séries temporelles repose sur l'hypothèse de la linéarité du lien. Cependant, cette hypothèse est critiquable en particulier lorsqu'on s'intéresse au lien associé à une série de type épidémique. Une deuxième étude de simulations a été réalisée afin d'étudier l'impact de l'hypothèse de la linéarité du lien lors de son estimation.A partir des stratégies permettant d'étudier le lien entre plusieurs séries saisonnières identifiées à partir des études de simulations, la dynamique des infections invasives communautaires à pneumocoque a été étudiée en France entre janvier 2002 et décembre 2009. / Streptococcus pneumoniae is a leading cause of communitary-acquired pneumococcal invasive infections worldwide. Recent surveys studied the association between pneumococcal carriage and antibiotic consumption. Reducing antibiotic consumption migth reduce pneumococcal carriage. In France, a national campaign was launched in 2002 in order to reduce antibiotic consumption mainly in the community. In 2003, the seven-valent pneumococcal conjugate vaccine was introduced and recommanded for to children in order to reduce the risk of invasive pneumococcal infections. In this contexte, it is worth investigating the evolution of communitary-acquired pneumococcal invasive infections in France.When examining the association between two monthly time series data with some common seasonal pattern, we are faced with the problem of eliminating this seasonal variation. Indeed this common seasonal feature will act as a confounder if not removed. Even if several methods exist, such as the use of semi-parametric or trigonometric functions, no optimal method has been yet identified. Hence, we compared performances of available smoothing approaches to estimate a temporal link between two series using extensive simulations. The linear regression usually used to estimate the link between two time series is based on the hypothesis of a linear link. However, such a link might not be linear when considering an association with an epidemic time series. In order to check whether this linear model can also manage non linear relationships, a simulation study was also settled. Finally, from these simulation studies, we identified strategies that where implemented to estimate the association between community-acquired pneumococcal invasive infections and antibiotic exposure.
65

Réseaux Bayésiens pour fusion de données statiques et temporelles / Bayesian networks for static and temporal data fusion

Rahier, Thibaud 11 December 2018 (has links)
La prédiction et l'inférence sur des données temporelles sont très souvent effectuées en utilisant uniquement les séries temporelles. Nous sommes convaincus que ces tâches pourraient tirer parti de l'utilisation des métadonnées contextuelles associées aux séries temporelles, telles que l'emplacement, le type, etc. Réciproquement, les tâches de prédiction et d'inférence sur les métadonnées pourraient bénéficier des informations contenues dans les séries temporelles. Cependant, il n'existe pas de méthode standard pour modéliser conjointement les données de séries temporelles et les métadonnées descriptives. De plus, les métadonnées contiennent fréquemment des informations hautement corrélées ou redondantes et peuvent contenir des erreurs et des valeurs manquantes.Nous examinons d’abord le problème de l’apprentissage de la structure graphique probabiliste inhérente aux métadonnées en tant que réseau Bayésien. Ceci présente deux avantages principaux: (i) une fois structurées en tant que modèle graphique, les métadonnées sont plus faciles à utiliser pour améliorer les tâches sur les données temporelles et (ii) le modèle appris permet des tâches d'inférence sur les métadonnées uniquement, telles que l'imputation de données manquantes. Cependant, l'apprentissage de la structure de réseau Bayésien est un défi mathématique conséquent, impliquant un problème d'optimisation NP-difficile. Pour faire face à ce problème, nous présentons un algorithme d'apprentissage de structure sur mesure, inspiré de nouveaux résultats théoriques, qui exploite les dépendances (quasi)-déterministes généralement présentes dans les métadonnées descriptives. Cet algorithme est testé sur de nombreux jeux de données de référence et sur certains jeux de métadonnées industriels contenant des relations déterministes. Dans les deux cas, il s'est avéré nettement plus rapide que l'état de la l'art, et a même trouvé des structures plus performantes sur des données industrielles. De plus, les réseaux Bayésiens appris sont toujours plus parcimonieux et donc plus lisibles.Nous nous intéressons ensuite à la conception d'un modèle qui inclut à la fois des (méta)données statiques et des données temporelles. En nous inspirant des modèles graphiques probabilistes pour les données temporelles (réseaux Bayésiens dynamiques) et de notre approche pour la modélisation des métadonnées, nous présentons une méthodologie générale pour modéliser conjointement les métadonnées et les données temporelles sous forme de réseaux Bayésiens hybrides statiques-dynamiques. Nous proposons deux algorithmes principaux associés à cette représentation: (i) un algorithme d'apprentissage qui, bien qu'optimisé pour les données industrielles, reste généralisable à toute tâche de fusion de données statiques et dynamiques, et (ii) un algorithme d'inférence permettant les d'effectuer à la fois des requêtes sur des données temporelles ou statiques uniquement, et des requêtes utilisant ces deux types de données.%Nous fournissons ensuite des résultats sur diverses applications inter-domaines telles que les prévisions, le réapprovisionnement en métadonnées à partir de séries chronologiques et l’analyse de dépendance d’alarmes en utilisant les données de certains cas d’utilisation difficiles de Schneider Electric.Enfin, nous approfondissons certaines des notions introduites au cours de la thèse, et notamment la façon de mesurer la performance en généralisation d’un réseau Bayésien par un score inspiré de la procédure de validation croisée provenant de l’apprentissage automatique supervisé. Nous proposons également des extensions diverses aux algorithmes et aux résultats théoriques présentés dans les chapitres précédents, et formulons quelques perspectives de recherche. / Prediction and inference on temporal data is very frequently performed using timeseries data alone. We believe that these tasks could benefit from leveraging the contextual metadata associated to timeseries - such as location, type, etc. Conversely, tasks involving prediction and inference on metadata could benefit from information held within timeseries. However, there exists no standard way of jointly modeling both timeseries data and descriptive metadata. Moreover, metadata frequently contains highly correlated or redundant information, and may contain errors and missing values.We first consider the problem of learning the inherent probabilistic graphical structure of metadata as a Bayesian Network. This has two main benefits: (i) once structured as a graphical model, metadata is easier to use in order to improve tasks on temporal data and (ii) the learned model enables inference tasks on metadata alone, such as missing data imputation. However, Bayesian network structure learning is a tremendous mathematical challenge, that involves a NP-Hard optimization problem. We present a tailor-made structure learning algorithm, inspired from novel theoretical results, that exploits (quasi)-determinist dependencies that are typically present in descriptive metadata. This algorithm is tested on numerous benchmark datasets and some industrial metadatasets containing deterministic relationships. In both cases it proved to be significantly faster than state of the art, and even found more performant structures on industrial data. Moreover, learned Bayesian networks are consistently sparser and therefore more readable.We then focus on designing a model that includes both static (meta)data and dynamic data. Taking inspiration from state of the art probabilistic graphical models for temporal data (Dynamic Bayesian Networks) and from our previously described approach for metadata modeling, we present a general methodology to jointly model metadata and temporal data as a hybrid static-dynamic Bayesian network. We propose two main algorithms associated to this representation: (i) a learning algorithm, which while being optimized for industrial data, is still generalizable to any task of static and dynamic data fusion, and (ii) an inference algorithm, enabling both usual tasks on temporal or static data alone, and tasks using the two types of data.%We then provide results on diverse cross-field applications such as forecasting, metadata replenishment from timeseries and alarms dependency analysis using data from some of Schneider Electric’s challenging use-cases.Finally, we discuss some of the notions introduced during the thesis, including ways to measure the generalization performance of a Bayesian network by a score inspired from the cross-validation procedure from supervised machine learning. We also propose various extensions to the algorithms and theoretical results presented in the previous chapters, and formulate some research perspectives.
66

Exploitation de séries temporelles d'images multi-sources pour la cartographie des surfaces en eau / Use of multi-source image time series for surface water mapping

Bioresita, Filsa 07 March 2019 (has links)
Les eaux de surface sont des ressources importantes pour la biosphère et l'anthroposphère. Elles favorisent la préservation des habitats, le développement de la biodiversité et le maintien des services écosystémiques en contrôlant le cycle des nutriments et le carbone à l’échelle mondiale. Elles sont essentielles à la vie quotidienne de l’homme, notamment pour l'irrigation, la consommation d’eau potable, la production hydro-électrique, etc. Par ailleurs, lors des inondations, elles peuvent présenter des dangers pour l'homme, les habitations et les infrastructures. La surveillance des changements dynamiques des eaux de surface a donc un rôle primordial pour guider les choix des gestionnaires dans le processus d’aide à la décision. L’imagerie satellitaire constitue une source de données adaptée permettant de fournir des informations sur les eaux de surface. De nos jours, la télédétection satellitaire a connu une révolution avec le lancement des satellites Sentinel-1 (Radar) et Sentinel-2 (Optique) qui disposent d’une haute fréquence de revisite et d’une résolution spatiale moyenne à élevée. Ces données peuvent fournir des séries temporelles essentielles pour apporter davantage d'informations afin d'améliorer la capacité d'observation des eaux de surface. L’exploitation de telles données massives et multi-sources pose des défis en termes d’extraction de connaissances et de processus de traitement d’images car les chaines de traitement doivent être le plus automatiques possibles. Dans ce contexte, l'objectif de ce travail de thèse est de proposer de nouvelles approches permettant de cartographier l’extension spatiales des eaux de surface et des inondations, en explorant l'utilisation unique et combinée des données Sentinel-1 et Sentinel-2. / Surface waters are important resources for the biosphere and the anthroposphere. Surface waters preserve diverse habitat, support biodiversity and provide ecosystem service by controlling nutrient cycles and global carbon. Surface waters are essential for human's everyday life, such as for irrigation, drinking-water and/or the production of energy (power plants, hydro-electricity). Further, surface waters through flooding can pose hazards to human, settlements and infrastructures. Monitoring the dynamic changes of surface waters is crucial for decision making process and policy. Remote sensing data can provide information on surface waters. Nowadays, satellite remote sensing has gone through a revolution with the launch of the Sentinel-1 SAR data and Sentinel-2 optical data with high revisit time at medium to high spatial resolution. Those data can provide time series and multi-source data which are essential in providing more information to upgrade ability in observing surface water. Analyzing such massive datasets is challenging in terms of knowledge extraction and processing as nearly fully automated processing chains are needed to enable systematic detection of water surfaces.In this context, the objectives of the work are to propose new (e.g. fully automated) approaches for surface water detection and flood extents detection by exploring the single and combined used of Sentinel-1 and Sentinel-2 data.
67

The artificial immune ecosystem : a scalable immune-inspired active classifier, an application to streaming time series analysis for network monitoring / L’écosystème immunitaire artificiel : un classifieur actif inspiré des systèmes immunitaires, et son application à l’analyse de données chronologiques en flux pour la supervision de réseaux informatiques

Guigou, Fabio 18 June 2019 (has links)
Introduits au début des années 1990, les systèmes immunitaires artificiels visent à adapter les propriétés du système immunitaire biologique, telles que sa scalabilité et son adaptivité, à des problèmes informatiques : sécurité, mais également optimisation et classification. Cette thèse explore une nouvelle direction en se concentrant non sur les processus biologiques et les cellules elles-mêmes, mais sur les interactions entre les sous-systèmes. Ces modes d’interaction engendrent les propriétés reconnues du système immunitaire : détection d’anomalies, reconnaissance des pathogènes connus, réaction rapide après une exposition secondaire et tolérance à des organismes symbiotiques étrangers. Un ensemble de systèmes en interaction formant un écosystème, cette nouvelle approche porte le nom d’Écosystème Immunitaire Artificiel. Ce modèle est mis à l’épreuve dans un contexte particulièrement sensible à la scalabilité et à la performance : la supervision de réseaux, qui nécessite l’analyse de séries temporelles en temps réel avec un expert dans la boucle, c’est-à-dire en utilisant un apprentissage actif plutôt que supervisé. / Since the early 1990s, immune-inspired algorithms have tried to adapt the properties of the biological immune system to various computer science problems, not only in computer security but also in optimization and classification. This work explores a different direction for artificial immune systems, focussing on the interaction between subsystems rather than the biological processes involved in each one. These patterns of interaction in turn create the properties expected from immune systems, namely their ability to detect anomalies, memorize their signature to react quickly upon secondary exposure, and remain tolerant to symbiotic foreign organisms such as the intestinal fauna. We refer to a set of interacting systems as an ecosystem, thus this new approach has called the Artificial Immune Ecosystem. We demonstrate this model in the context of a real-world problem where scalability and performance are essential: network monitoring. This entails time series analysis in real time with an expert in the loop, i.e. active learning instead of supervised learning.
68

Dynamic time warping : apports théoriques pour l'analyse de données temporelles : application à la classification de séries temporelles d'images satellites / Dynamic time warping : theoretical contributions for data mining, application to the classification of satellite image time series

Petitjean, François 13 September 2012 (has links)
Les séries temporelles d’images satellites (STIS) sont des données cruciales pour l’observation de la terre. Les séries temporelles actuelles sont soit des séries à haute résolution temporelle (Spot-Végétation, MODIS), soit des séries à haute résolution spatiale (Landsat). Dans les années à venir, les séries temporelles d’images satellites à hautes résolutions spatiale et temporelle vont être produites par le programme Sentinel de l’ESA. Afin de traiter efficacement ces immenses quantités de données qui vont être produites (par exemple, Sentinel-2 couvrira la surface de la terre tous les cinq jours, avec des résolutions spatiales allant de 10m à 60m et disposera de 13 bandes spectrales), de nouvelles méthodes ont besoin d’être développées. Cette thèse se focalise sur la comparaison des profils d’évolution radiométrique, et plus précisément la mesure de similarité « Dynamic Time Warping », qui constitue un outil permettant d’exploiter la structuration temporelle des séries d’images satellites. / Satellite Image Time Series are becoming increasingly available and will continue to do so in the coming years thanks to the launch of space missions, which aim at providing a coverage of the Earth every few days with high spatial resolution (ESA’s Sentinel program). In the case of optical imagery, it will be possible to produce land use and cover change maps with detailed nomenclatures. However, due to meteorological phenomena, such as clouds, these time series will become irregular in terms of temporal sampling. In order to consistently handle the huge amount of information that will be produced (for instance, Sentinel-2 will cover the entire Earth’s surface every five days, with 10m to 60m spatial resolution and 13 spectral bands), new methods have to be developed. This Ph.D. thesis focuses on the “Dynamic Time Warping” similarity measure, which is able to take the most of the temporal structure of the data, in order to provide an efficient and relevant analysis of the remotely observed phenomena.
69

Etude par imagerie in situ des processus biophysiques en milieu fluvial : éléments méthodologiques et applications / Study of fluvial biophysical processes using ground imagery : methodological elements and applications

Benacchio, Véronique 10 July 2017 (has links)
La télédétection est une technique de plus en plus utilisée dans le domaine fluvial, et si des images acquises à haute, voire très haute altitude via des vecteurs aéroportés et satellites sont traditionnellement utilisées, l’imagerie in situ (ou « imagerie de terrain ») constitue un outil complémentaire qui présente de nombreux avantages (facilité de mise en place, coûts réduits, point de vue oblique, etc.). Les possibilités de programmer les prises de vue fixes à des fréquences relativement élevées (de quelques dixièmes de secondes dans le cas de vidéos, à quelques heures par exemple) mais aussi de pouvoir observer les évènements au moment où ils surviennent, est sans commune mesure avec les contraintes associées à l’acquisition de l’imagerie « classique » (dont les plus hautes fréquences s’élèvent à quelques jours). Cela permet de produire des jeux de données conséquents, dont l’analyse automatisée est nécessaire et constitue l’un des enjeux de cette thèse. Le traitement et l’analyse de jeux de données produits sur cinq sites test français et québécois ont permis de mieux évaluer les potentialités et les limites liées à l’utilisation de l’imagerie in situ dans le cadre de l’étude des milieux fluviaux. La définition des conditions optimales d’installation des capteurs en vue de l’acquisition des données constitue la première étape d’une démarche globale, présentée sous forme de modules optionnels, à prendre en compte selon les objectifs de l’étude. L’extraction de l’information radiométrique, puis le traitement statistique du signal ont été évalués dans plusieurs situations tests. La classification orientée-objet avec apprentissage supervisé des images a notamment été expérimentée via des random forests. L’exploitation des jeux de données repose principalement sur l’analyse de séries temporelles à haute fréquence. Cette thèse expose les forces et les faiblesses de cette approche et illustre des usages potentiels pour la compréhension des dynamiques fluviales. Ainsi, l’imagerie in situ est un très bon outil pour l’étude et l’analyse des cours d’eau, car elle permet la mesure de différents types de temporalités régissant les processus biophysiques observés. Cependant, il est nécessaire d’optimiser la qualité des images produites et notamment de limiter au maximum l’angle de vue du capteur, ou la variabilité des conditions de luminosité entre clichés, afin de produire des séries temporelles pleinement exploitables. / Remote sensing is more and more used in river sciences, mainly using satellite and airborne imagery. Ground imagery constitutes a complementary tool which presents numerous advantages for the study of rivers. For example, it is easy to set up; costs are limited; it allows an oblique angle; etc. It also presents the possibility to set up the triggering with very high frequency, ranging, for instance, from a few seconds to a few hours. The possibility to monitor events at the instant they occur makes ground imagery extremely advantageous compared to aerial or spatial imagery (whose highest acquisition frequency corresponds to a few days). Such frequencies produce huge datasets, which require automated analyses. This is one of the challenges addressed in this thesis. Processing and analysis of data acquired at five study sites located in France and Québec, Canada, facilitated the evaluation of ground imagery potentials, as well as its limitations with respect to the study of fluvial systems. The identification of optimal conditions to set up the cameras and to acquire images is the first step of a global approach, presented as a chain of optional modules. Each one is to be taken into account according to the objectives of the study. The extraction of radiometric information and the subsequent statistical analysis of the signal were tested in several situations. In particular, random forests were applied, as a supervised object-oriented classification method. The datasets were principally exploited using high frequency time series analyses, which allowed demonstrating strengths and weaknesses of this approach, as well as some potential applications. Ground imagery is a powerful tool to monitor fluvial systems, as it facilitates the definition of various kinds of time characteristics linked with fluvial biophysical processes. However, it is necessary to optimize the quality of the data produced. In particular, it is necessary to minimize the acquisition angle and to limit the variability of luminosity conditions between shots in order to acquire fully exploitable datasets.
70

La Station Laser Ultra Mobile - De l'obtention d'une exactitude centimétrique des mesures à des applications en océanographie et géodésie spatiales

NICOLAS, Joëlle 07 December 2000 (has links) (PDF)
La Station Laser Ultra Mobile est la plus petite station de télémétrie laser au monde, ne pesant que 300 kg, dédiée à la poursuite de satellites équipés de rétroréflecteurs laser. Elle utilise un petit télescope de 13 cm de diamètre placé sur une monture issue d'un théodolite de précision et motorisé, un laser très compact et une photodiode à avalanche permettant la détection au niveau du simple photo-électron. Les premières expériences (Corse, fin 1996) ont révélé des instabilités dans la qualité des mesures. Ce travail concerne l'étude et la mise en place de nombreuses modifications techniques afin d'atteindre une exactitude centimétrique des mesures et de pouvoir participer à la campagne de validation des orbites et d'étalonnage de l'altimètre du satellite océanographique JASON-1 (2001). La précision instrumentale souhaitée a été vérifiée avec succès en laboratoire.<br />Outre cet aspect instrumental et métrologique, une analyse a été développée afin de pouvoir estimer l'exactitude et la stabilité des observations de la station mobile après intégration des modifications. A partir d'une expérience de co-localisation entre les deux stations laser fixe du plateau de Calern, on a fait une analyse fondée sur l'ajustement, par station, de coordonnées et d'un biais instrumental moyen à partir d'une orbite de référence des satellites LAGEOS. Des variations saisonnières très cohérentes ont été mises en évidence dans les séries temporelles des différentes composantes. La comparaison locale des déformations de la croûte terrestre se traduisant par des variations d'altitude issues des données laser montre une cohérence avec les mesures d'un gravimètre absolu transportable (FG5). Des signaux de même amplitude ont été observés par GPS. Ces variations sont également mises en évidence à l'échelle mondiale et leur interprétation géophysique est due à la combinaison des effets de marées terrestres et polaire et des effets de charge atmosphérique.

Page generated in 0.0485 seconds