Spelling suggestions: "subject:"grandeéchelle"" "subject:"grandeséchelles""
31 |
Large-scale and high-quality multi-view stereo / Stéréo multi-vues à grande-échelle et de haute-qualitéVu, Hoang Hiep 05 December 2011 (has links)
L'acquisition de modèles 3D des scènes réelles trouve son utilité dans de nombreuses applications pratiques, comme l'archivage numérique, les jeux vidéo, l'ingénierie, la publicité. Il existe principalement deux méthodes pour acquérir un modèle 3D: la reconstruction avec un scanner laser (méthode active) et la reconstruction à partir de plusieurs photographies d'une même scène prise dans des points de vues différentes (méthode passive). Si la méthode active permet d'acquérir des modèles avec une grande précision, il est cependant coûteux et difficile à mettre en place pour de grandes scènes extérieures. La méthode passive, ou la stéréo multi-vues est en revanche plus flexible, facile à mettre en oeuvre et surtout moins coûteuse que la méthode active. Cette thèse s'attaque au problème de la reconstruction de stéréo multi-vues à grande échelle et précise pour les scènes extérieures. Nous améliorons des méthodes précédentes et les assemblons pour créer une chaîne de stéréo multi-vues efficace tirant parti de l'accélération de cartes graphiques. La chaîne produit des maillages de qualité à partir d'images de haute résolution, ce qui permet d'atteindre les meilleurs scores dans de nombreuses évaluations. Aux plus grandes échelles, nous développons d'une part des techniques de type diviser-pour-régner pour reconstruire des morceaux partiaux de la scène. D'autre part, pour combiner ces résultats séparés, nous créons une nouvelle méthode qui fusionne rapidement des centaines de maillages. Nous réussissons à reconstruire de beaux maillages urbains et des monuments historiques précis à partir de grandes collections d'images (environ 1600 images de 5M Pixel) / Acquisition of 3D model of real objects and scenes is indispensable and useful in many practical applications, such as digital archives, game and entertainment industries, engineering, advertisement. There are 2 main methods for 3D acquisition : laser-based reconstruction (active method) and image-based reconstruction from multiple images of the scene in different points of view (passive method). While laser-based reconstruction achieves high accuracy, it is complex, expensive and difficult to set up for large-scale outdoor reconstruction. Image-based, or multi-view stereo methods are more versatile, easier, faster and cheaper. By the time we begin this thesis, most multi-view methods could handle only low resolution images under controlled environment. This thesis targets multi-view stereo both both in large scale and high accuracy issues. We significantly improve some previous methods and combine them into a remarkably effective multi-view pipeline with GPU acceleration. From high-resolution images, we produce highly complete and accurate meshes that achieve best scores in many international recognized benchmarks. Aiming even larger scale, on one hand, we develop Divide and Conquer approaches in order to reconstruct many small parts of a big scene. On the other hand, to combine separate partial results, we create a new merging method, which can merge automatically and quickly hundreds of meshes. With all these components, we are successful to reconstruct highly accurate water-tight meshes for cities and historical monuments from large collections of high-resolution images (around 1600 images of 5 M Pixel images)
|
32 |
Baryonic acoustic oscillations with emission line galaxies at intermediate redshift : the large-scale structure of the universe. / Observation des oscillations baryoniques primordiales des galaxies à raie d’émission à décalage vers le rouge modéré : la structure aux grandes échelles dans l’univers.Comparat, Johan 21 June 2013 (has links)
J'ai démontrer la faisabilité de la sélection de la cible pour les galaxies en ligne des émissions lumineuses. Je comprends maintenant les principaux mécanismes physiques de conduite de l'efficacité d'une sélection, en particulier le rapport à la photométrie de parent. Une question reste perplexe, je ne pouvais pas encore estimer quantitativement l'impact de la poussière sur l'efficacité de la sélection. J'espère que d'aborder cette question avec l'ensemble des données décrites dans le chapitre 4.En dehors de la ligne de sélection de la cible de la galaxie d'émission, j'ai étudié, au premier ordre, les deux principales erreurs systématiques sur la détermination de l'échelle BAO nous attendent en raison de l'utilisation galaxies en ligne des émissions comme traceurs de la question. J'ai d'abord montré le caractère incomplet de la distribution redshift, en raison de la mesure du décalage spectral avec [Oii], est lié à la résolution instrumentale. Je trouve qu'il ya deux régimes intéressants. Pour une observation des plus brillants [OII] émetteurs, une résolution modérée est suffisante, alors que pour une enquête plus faible, la plus haute de la résolution le meilleur. Deuxièmement, j'ai estimé le biais de la galaxie linéaire des sélections discuté avant et je trouve qu'ils sont très biaisés. D'une part, ce sont d'excellentes nouvelles pour les observateurs, comme le temps nécessaire pour observer à un signal donné au bruit dans le spectre de puissance diminue avec le carré de la partialité. D'autre part, elle constitue un nouveau défi pour les algorithmes de reconstruction et la fabrication de catalogues simulacres. / In this PhD, I demonstrate the feasibility of the target selection for bright emission line galaxies. Also I now understand the main physical mechanisms driving the efficiency of a selection, in particular the relation to the parent photometry. A puzzling issue remains, I could not yet estimate quantitatively the impact of the dust on the selection efficiency. I hope to address this question with the data set described in chapter 4.Apart from the emission line galaxy target selection, I investigated, at first order, the two main systematic errors on the determination of the BAO scale we expect due to using emission line galaxies as tracers of the matter. First I showed the incompleteness in the redshift distribution, due to the measurement of the redshift with [Oii], is related to the instrumental resolution. I find there are two interesting regimes. For an observation of the brightest [Oii]emitters, a moderate resolution is sufficient, whereas for a fainter survey, the highest the resolution the best. Secondly, I estimated the linear galaxy bias of the selections discussed before and I find they are highly biased. On one hand, this is great news for the observers, as the time required to observed at a given signal to noise in the power spectrum decreases with the square of the bias. On the other hand, it constitutes a new challenge for reconstruction algorithms and the making of mock catalogs. The work in progress described in the last chapter shows I am starting to try and handle these questions in a robust manner.
|
33 |
Diffraction électromagnétique par des réseaux et des surfaces rugueuses aléatoires : mise en œuvre deméthodes hautement efficaces pour la résolution de systèmes aux valeurs propres et de problèmesaux conditions initiales / Electromagnetic scattering by gratings and random rough surfaces : implementation of high performance algorithms for solving eigenvalue problems and problems with initial conditionsPan, Cihui 02 December 2015 (has links)
Dans cette thèse, nous étudions la diffraction électromagnétique par des réseau et surfaces rugueuse aléatoire. Le méthode C est une méthode exacte développée pour ce but. Il est basé sur équations de Maxwell sous forme covariante écrite dans un système de coordonnées non orthogonal. Le méthode C conduisent à résoudre le problème de valeur propre. Le champ diffusé est expansé comme une combinaison linéaire des solutions propres satisfaisant à la condition d’onde sortant.Nous nous concentrons sur l’aspect numérique de la méthode C, en essayant de développer une application efficace de cette méthode exacte. Pour les réseaux, nous proposons une nouvelle version de la méthode C qui conduit `a un système différentiel avec les conditions initiales. Nous montrons que cette nouvelle version de la méthode C peut être utilisée pour étudier les réseaux de multicouches avec un médium homogène.Nous vous proposons un algorithme QR parallèle conçu spécifiquement pour la méthode C pour résoudre le problème de valeurs propres. Cet algorithme QR parallèle est une variante de l’algorithme QR sur la base de trois tech- niques: “décalage rapide”, poursuite de renflement parallèle et de dégonflage parallèle agressif précoce (AED). / We study the electromagnetic diffraction by gratings and random rough surfaces. The C-method is an exact method developed for this aim. It is based on Maxwell’s equations under covariant form written in a nonorthogonal coordinate system. The C-method leads to an eigenvalue problem, the solution of which gives the diffracted field.We focus on the numerical aspect of the C-method, trying to develop an efficient application of this exact method. For gratings, we have developed a new version of C-method which leads to a differential system with initial conditions. This new version of C-method can be used to study multilayer gratings with homogeneous medium.We implemented high performance algorithms to the original versions of C-method. Especially, we have developed a specifically designed parallel QR algorithm for the C- method and spectral projection method to solve the eigenvalue problem more efficiently. Experiments have shown that the computation time can be reduced significantly.
|
34 |
Optimisation des méthodes à induction électromagnétique pour l'ingénierie des sols / Optimization of electromagnetic induction methods for soil engineeringPareilh-Peyrou, Mathias 19 December 2016 (has links)
Le travail de recherche présenté dans ce mémoire de thèse, qui s’est déroulée dans le cadre d’un dispositif CIFRE (Conventions Industrielles de Formation par la Recherche) en collaboration avec le pôle géophysique du CEBTP à clermont-ferrand et le laboratoire Magmas et Volcans de l’UCA. Ce travail porte sur l’amélioration du rendement de la méthode géophysique électromagnétique de sub-surface. L’idée est de parvenir à extraire plus d’informations à partir des données électromagnétiques en gardant une méthode de prospection proche des méthodes classiques actuelles. Les techniques électromagnétiques (EM) sont des méthodes géophysiques fondées sur la mesure des variations de champs magnétiques et sont utilisé pour réaliser des mesures des caractéristiques électriques des sols. Ces appareils EM sont dits inductifs et ne nécessitent donc pas de contact avec le sol. Ils peuvent donc être mis en œuvre avec une vitesse d’acquisition plus importante que la plupart des autres méthodes géophysiques (profils électriques, gravimétrie, sismique...).Dans le cadre de ce travail, différents développements ont été effectués pour répondre à la problématique de l’amélioration des outils de prospection EM. La prospection sur le terrain a été améliorée grâce au développement d’un prototype de système d’acquisition automatisé. Celui ci est composé d’un conductivimètre (EM-31), d’un chariot support en fibre de verre, d’un GPS et d’un ordinateur assurant un enregistrement continu et géo-référencé des données à l’aide d’un programme spécialement conçu en Python.Ce mémoire présente également une procédure de correction des valeurs du conductivimètre EM-31, notamment la correction des effets de la hauteur de l’appareil par rapport au sol.Un programme Matlab a également spécifiquement été conçu pour le traitement automatisé de données EM. Ce programme permet de disposer rapidement des outils de base pour le traitement et la bonne visualisation des données.Deux études de cas ont été réalisées dans le cadre de ce travail doctoral.La première concerne une prospection linéaire d’une centaine de kilomètres sur des digues de protection contre les crues le long du fleuve Loire. Cette étude met en évidence les difficultés rencontrées lors d’une prospection de grande envergure et permet d’identifier les problématiques d’une étude géophysique à grande échelle, notamment la gestion du grand nombre de données. Cela contraint le choix de la méthodologie de prospection et permet de mettre en place les procédures d’automatisation des traitements.La seconde étude concerne la mise en œuvre des outils EM sur des terrains de nature volcanique. La prospection EM a su s’avérer très efficace pour la cartographie de nombreux sites archéologiques. Cependant les sols et les roches en région volcaniques sont connus pour avoir des effets magnétiques forts. Il s’agit ici dans le cadre d’une prospection archéologique, de déterminer plus précisément les effets magnétiques du sous-sol sur la mesure EM. / This study has been conducted in the framework of the CIFRE doctoral contract, in collaboration with the Ginger CEBTP Geophysics pole and the “Laboratoire Magmas et Volcans”. The main objective of this work is to improve the performance of the sub-surface electromagnetic induction method.The principle is to retrieve more information from electromagnetic data keeping a prospecting method close to current field methods. Electromagnetic (EM) methods are based upon magnetic fields variations in order to to measure electrical characteristics of soils. EM devices are inductive and so don’t need contact with the ground. Thus they can be implemented faster than most of others geophysical methods (seismic, electrical profiles, gravimetry). In this framework, several developments have been performed to respond to the improvement of EM prospecting methods. The field survey was improved by the development of an automated acquisition system including a conductivimeter (EM-31) mounted on a fibreglass cart with a GPS receiver and a computer running a special Python program which ensure continuous data recording and geo-reference. In this thesis we present a correction procedure for the EM-31 conductivimeter values, in particular the device height above the ground. A Matlab program was also specifically conceived for automated EM data processing. It combines basic data processing and visualization tools. Two case studies was conducted during this doctoral work. The first one is about a hundred kilometers of linear prospecting along the Loire protection dykes (France). This study highlights the difficulties of large scale geophysical prospecting and allows to identify specific issues such as management of large data number. This influence the prospecting methodology and allows implementation of adapted automatized data processing. The second case study is about the implementation of EM devices on volcanic fields. Several archaeological sites has been mapped using EM methods. However in volcanic regions, soils and rocks are known to have strong magnetic effects. In this specific case of an archaeological study the purpose is to determine precisely the magnetic effects of soils on EM measures.
|
35 |
Cartographier l'occupation du sol à grande échelle : optimisation de la photo-interprétation par segmentation d'image. / Land cover mapping at large scale using photo-interpretation : Contribution of image segmentationVitter, Maxime 23 March 2018 (has links)
Depuis une quinzaine d’années, l’émergence des données de télédétection à Très Haute Résolution Spatiale (THRS) et la démocratisation des Systèmes d’Information Géographique (SIG) aident à répondre aux nouveaux besoins croissants d’informations spatialisées. Le développement de nouvelles méthodes de cartographie offre une opportunité pour comprendre et anticiper les mutations des surfaces terrestres aux grandes échelles, jusqu’ici mal connues. En France, l’emploi de bases de données spatialisées sur l’occupation du sol à grande échelle (BD Ocsol GE) est devenu incontournable dans les opérations courantes de planification et de suivi des territoires. Pourtant, l’acquisition de ce type de bases de données spatialisées est encore un besoin difficile à satisfaire car les demandes portent sur des productions cartographiques sur-mesure, adaptées aux problématiques locales des territoires. Face à cette demande croissante, les prestataires réguliers de ce type de données cherchent à optimiser les procédés de fabrication avec des techniques récentes de traitements d’image. Cependant, la Photo-Interprétation Assistée par Ordinateur (PIAO) reste la méthode privilégiée des prestataires. En raison de sa grande souplesse, elle répond toujours au besoin de cartographie aux grandes échelles, malgré son coût important. La substitution de la PIAO par des méthodes de production entièrement automatisées est rarement envisagée. Toutefois, les développements récents en matière de segmentation d’images peuvent contribuer à l’optimisation de la pratique de la photo-interprétation. Cette thèse présente ainsi une série d’outils (ou modules) qui participent à l’élaboration d’une assistance à la digitalisation pour l’exercice de photo-interprétation d’une BD Ocsol GE. L’assistance se traduit par la réalisation d’un prédécoupage du paysage à partir d’une segmentation menée sur une image THRS. L’originalité des outils présentés est leur intégration dans un contexte de production fortement contraint. La construction des modules est conduite à travers trois prestations cartographiques à grande échelle commandités par des entités publiques. L’apport de ces outils d’automatisation est analysé à travers une analyse comparative entre deux procédures de cartographie : l’une basée sur une démarche de photo-interprétation entièrement manuelle et la seconde basée sur une photo-interprétation assistée en amont par une segmentation numérique. Les gains de productivité apportés par la segmentation sont, évalués à l’aide d’indices quantitatifs et qualitatifs, sur des configurations paysagères différentes. À des degrés divers, il apparaît que quelque soit le type de paysage cartographié, les gains liés à la cartographie assistée sont substantiels. Ces gains sont discutés, à la fois, d’un point de vue technique et d’un point de vue thématique dans une perspective commerciale. / Over the last fifteen years, the emergence of remote sensing data at Very High Spatial Resolution (VHRS) and the democratization of Geographic Information Systems (GIS) have helped to meet the new and growing needs for spatial information. The development of new mapping methods offers an opportunity to understand and anticipate land cover change at large scales, still poorly known. In France, spatial databases about land cover and land use at large scale have become an essential part of current planning and monitoring of territories. However, the acquisition of this type of database is still a difficult need to satisfy because the demands concern tailor-made cartographic productions, adapted to the local problems of the territories. Faced with this growing demand, regular service providers of this type of data seek to optimize manufacturing processes with recent image-processing techniques. However, photo interpretation remains the favoured method of providers. Due to its great flexibility, it still meets the need for mapping at large scale, despite its high cost. Using fully automated production methods to substitute for photo interpretation is rarely considered. Nevertheless, recent developments in image segmentation can contribute to the optimization of photo-interpretation practice. This thesis presents a series of tools that participate in the development of digitalization assistance for the photo-interpretation exercise. The assistance results in the realization of a pre-cutting of the landscape from a segmentation carried out on a VHRS image. Tools development is carried out through three large-scale cartographic services, each with different production instructions, and commissioned by public entities. The contribution of these automation tools is analysed through a comparative analysis between two mapping procedures: manual photo interpretation versus digitally assisted segmentation. The productivity gains brought by segmentation are evaluated using quantitative and qualitative indices on different landscape configurations. To varying degrees, it appears that whatever type of landscape is mapped, the gains associated with assisted mapping are substantial. These gains are discussed both technically and thematically from a commercial perspective.
|
36 |
Contrôle du foncier, agricultures d'entreprise et restructurations agraires : une perspective critique des investissements fonciers à grande échelle : Le cas de la partie centrale du Mozambique / Land control, agricultural firms and agrarian restructuration : a critical perspective of large scale land-based investment : The case of central MozambiqueBoche, Mathieu 15 December 2014 (has links)
La demande croissante pour l’alimentation, l’énergie et les ressources naturelles, combinée à la limitation des ressources et à la libéralisation du commerce sont parmi les facteurs ayant entrainé une nouvelle « ruée sur les terres agricoles » observée depuis quelques années. Alors que certains ont exprimé des inquiétudes sur les implications potentielles de ces projets sur les droits et les moyens de subsistance des populations rurales des pays en développement, d’autres ont souligné le potentiel de ces opportunités dans la lutte pour la sécurité alimentaire et le développement rural que constituait ces annonces d’investissements dans un secteur longtemps négligé. Cette thèse interroge la complexité économique, institutionnelle et sociale des investissements fonciers à grande échelle et leur capacité à engendrer des restructurations agraires et un changement du modèle de développement agricole au Mozambique. En raison de leur fort taux d’échec et des difficultés d’implantation des projets, il apparait que les investissements fonciers à grande échelle n’ont pas entrainé une rupture dans les structures agraires locales marquée par un changement des caractéristiques des exploitations majoritairement productrices dans le secteur agricole national. En revanche, l’intérêt des investisseurs étrangers tend à influencer les autorités nationales vers une réactivation du modèle de développement agricole qui prévalait après l’Indépendance, c’est-à-dire un secteur agricole dual avec des agriculteurs familiaux marginalisés d’une part et des exploitations agricoles à grande échelle établies avec des investissements étrangers de l’autre. Ainsi, non seulement la grande majorité des agriculteurs familiaux ne bénéficient pas de la dynamique actuelle de projets d’investissement, mais les politiques agricoles et foncières et les mesures de soutien tendent à se détourner d’eux au profit de la facilitation des investissements à grande échelle. Nos résultats remettent en cause la capacité des projets actuels à enclencher une trajectoire de développement agricole capable de répondre aux défis des économies africaines. / The growing demand for food, energy and natural resources, combined with the limited stock of natural resources available and the process of trade liberalization are among the factors that have triggered a new rush for land observed in the last years. Despite an extensive literature, most analyses of large scale land based investment are politically and ideologically anchored, reflecting strong opposing stances. On one hand, some have expressed some concerns on the potential implications of these projects on peasants’ land rights and livelihood. On the other hand, some other researchers have argued that these projects should be seen as opportunities in the struggle for food security and rural development. This thesis questions the economic, social and institutional complexity of large scale land based investment including their differentiated evolutionary dynamics and implications in terms of agricultural development and agrarian change in Mozambique. Because of a high failure rate and difficulties to establish the production structures, it appears that large scale land based investments haven’t led to a shift from small scale farming to large scale farming as the main farming organization in Mozambique. However, the rising interest of foreign investors tend to influence national authorities in rehabilitating the post-Independence agricultural development model, which was characterized by a dual system composed of marginalized subsistence farmers on one hand and foreign owned large scale farms. So, not only do smallholders benefit little from present agricultural investment dynamics, but also agricultural policies and support measures tend to shift away from the former towards the facilitation of large-scale investment. Our results questions the capacity of actual large scale land based investments to trigger a trajectory of agricultural development able to meet African economies challenges.
|
37 |
Learning compact representations for large scale image search / Apprentissage de représentations compactes pour la recherche d'images à grande échelleJain, Himalaya 04 June 2018 (has links)
Cette thèse aborde le problème de la recherche d'images à grande échelle. Pour aborder la recherche d'images à grande échelle, il est nécessaire de coder des images avec des représentations compactes qui peuvent être efficacement utilisées pour comparer des images de manière significative. L'obtention d'une telle représentation compacte peut se faire soit en comprimant des représentations efficaces de grande dimension, soit en apprenant des représentations compactes de bout en bout. Le travail de cette thèse explore et avance dans ces deux directions. Dans notre première contribution, nous étendons les approches de quantification vectorielle structurée telles que la quantification de produit en proposant une représentation somme pondérée de codewords. Nous testons et vérifions les avantages de notre approche pour la recherche approximative du plus proche voisin sur les caractéristiques d'image locales et globales, ce qui est un moyen important d'aborder la recherche d'images à grande échelle. L'apprentissage de la représentation compacte pour la recherche d'images a récemment attiré beaucoup d'attention avec diverses approches basées sur le hachage profond proposées. Dans de telles approches, les réseaux de neurones convolutifs profonds apprennent à coder des images en codes binaires compacts. Dans cette thèse, nous proposons une approche d'apprentissage supervisé profond pour la représentation binaire structurée qui rappelle une approche de quantification vectorielle structurée telle que PQ. Notre approche bénéficie de la recherche asymétrique par rapport aux approches de hachage profond et apporte une nette amélioration de la précision de la recherche au même débit binaire. L'index inversé est une autre partie importante du système de recherche à grande échelle en dehors de la représentation compacte. À cette fin, nous étendons nos idées pour l'apprentissage de la représentation compacte supervisée pour la construction d'index inversés. Dans ce travail, nous abordons l'indexation inversée avec un apprentissage approfondi supervisé et essayons d'unifier l'apprentissage de l'indice inversé et de la représentation compacte. Nous évaluons minutieusement toutes les méthodes proposées sur divers ensembles de données accessibles au public. Nos méthodes surpassent ou sont compétitives avec l'état de l'art. / This thesis addresses the problem of large-scale image search. To tackle image search at large scale, it is required to encode images with compact representations which can be efficiently employed to compare images meaningfully. Obtaining such compact representation can be done either by compressing effective high dimensional representations or by learning compact representations in an end-to-end manner. The work in this thesis explores and advances in both of these directions. In our first contribution, we extend structured vector quantization approaches such as Product Quantization by proposing a weighted codeword sum representation. We test and verify the benefits of our approach for approximate nearest neighbor search on local and global image features which is an important way to approach large scale image search. Learning compact representation for image search recently got a lot of attention with various deep hashing based approaches being proposed. In such approaches, deep convolutional neural networks are learned to encode images into compact binary codes. In this thesis we propose a deep supervised learning approach for structured binary representation which is a reminiscent of structured vector quantization approaches such as PQ. Our approach benefits from asymmetric search over deep hashing approaches and gives a clear improvement for search accuracy at the same bit-rate. Inverted index is another important part of large scale search system apart from the compact representation. To this end, we extend our ideas for supervised compact representation learning for building inverted indexes. In this work we approach inverted indexing with supervised deep learning and make an attempt to unify the learning of inverted index and compact representation. We thoroughly evaluate all the proposed methods on various publicly available datasets. Our methods either outperform, or are competitive with the state-of-the-art.
|
38 |
Contribution de la future mission altimétrique à large fauchée SWOT pour la modélisation hydrologique à grande échelle / Contribution of the wide-swath altimetry mission SWOT to improve large-scale hydrological modelingEmery, Charlotte 03 February 2017 (has links)
L'objectif scientifique de ce travail de thèse est d'améliorer l'estimation des flux d'eau à la surface des continents, à l'échelle saisonnière et interannuelle (de quelques années à décennale). En particulier, il s'agit d'étudier l'apport de données satellites, notamment de la future mission SWOT (Surface Water and Ocean Topography, lancement prévu en 2021), pour l'étude de la partie continentale du cycle de l'eau à l'échelle globale, à l'aide du modèle global de surfaces continentales ISBA-TRIP (Intéractions Sol-Biosphère-Atmosphère/Total Runoff and Integrating Pathways). Dans ce travail de thèse, j'explore le potentiel des données d'altimétrie satellitaire, pour corriger certains paramètres du modèle de routage de rivière TRIP et aussi pour corriger ses variables d'état. Pour ce faire, une plateforme d'assimilation de données virtuelles SWOT, mais aussi de données d'altimètres nadirs actuels a été mise en place. Mais avant l'assimilation de ces données de télédétection, il a été nécessaire de faire une analyse de sensibilité du modèle TRIP à ses paramètres, pour déterminer quels paramètres ont le plus d'influence sur les observables SWOT et qui donc pourront être corrigés. L'analyse de sensibilité (ANOVA) a alors été menée sur les principaux paramètres de TRIP. L'analyse de sensibilité a été menée sur le bassin de L'Amazone et les résultats ont été publiés. Les résultats ont montré que les hauteurs d'eau simulées sont sensibles aux paramètres géomorphologiques locaux exclusivement tandis que les débits simulés sont sensibles à l'ensemble des paramètres amont (selon le réseau de routage TRIP) et surtout au paramètre lié au temps de résidence des eaux souterraines. Enfin, les anomalies de hauteurs présentent des sensibilités similaires aux hauteurs d'eau mais avec des variations temporelles plus marquées. Ces résultats nous ont permis de faire les choix algorithmiques dans le cadre de l'assimilation de données. Ensuite, je me suis concentrée sur le développement de la maquette d'assimilation de données consistant en un Filtre de Kalman d'Ensemble (EnKF) et permet de faire soit de l'estimation de paramètres, soit de l'estimation d'état. La maquette en " estimation de paramètres " est testée et validée par une série d'expériences jumelles. On a assimilé des pseudo-observations de hauteurs et d'anomalies d'eau le long des traces du satellite SWOT, afin de corriger les coefficients de Manning du lit de la rivière, avec possibilité d'étendre à d'autres paramètres. Les premiers résultats montrent que la maquette est capable de retrouver la bonne distribution des coefficients de Manning en assimilant les hauteurs d'eau et les anomalies. Pour l'estimation d'état, on réalise des étapes d'assimilation journalières pour corriger le stock d'eau initial (condition initiale du modèle), en assimilant des débits estimés à partir de séries altimétriques de côtes d'eau ENVISAT. A partir de courbe de tarage hauteurs d'eau-débits calibrées sur le bassin de l'Amazone avec le modèle hydrologique MGB-IPH, les côtes d'eau ont été transformées en " débits altimétriques " que l'on assimile alors dans la maquette. Ces expériences d'estimation d'état nous permettent de sortir du cadre idéalisé des expériences jumelles en assimilant des données réelles, mais nous permet aussi de tester l'apport d'un premier jeu de données de débits provenant de mesures satellites, qui préfigure le futur produit de débit SWOT. Les résultats montrent que les erreurs sur le débits sont globalement améliorées : le run libre donne un RMSE de 2,79x103 m3/s (73,6 %) par rapport aux données in situ disponible sur le bassin et le run corrigé un RMSE de 1,98 x 103 m3/s (53,9 %). / Scientific objective of this PhD work is to improve water fluxes estimation on the continental surfaces, at interanual and interseasonal scale (from few years to decennial time period). More specifically, it studies contribution of remotely-sensed measurements to improve hydrology model. Notably, this work focuses on the incoming SWOT mission (Surface Water and Ocean Topography, launch scheduled for 2021) for the study of the continental water cycle at global scale, and using the land surface model ISBA-TRIP. In this PhD work, I explore the potential of satellite data to correct both input parameters of the river routing scheme TRIP and its state variables. To do so, a data assimilation platform has been set to assimilate SWOT virtual observation as well as discharge estimated from real nadir altimetry data. Beforehand, it was necessary to do a sensibility analysis of TRIP model to its parameters. The aim of such study was to highlight what are the most impacting parameters on SWOT-observed variables and therefore select the ones to correct via data assimilation. The sensibility analysis (ANOVA) has been led on TRIP main parameters. The study has been done over the Amazon basin. The results showed that the simulated water levels are sensitive to local geomorphological parmaters exclusively. On the other hand, the simulated discharges are sensitive to upstream parameters (according to the TRIP river routing network) and more particularly to the groundwater time constant. Finally, water anomalies present sensitivities similar to those of the water levels but with more pronounced temporal variations. These results also lead me to do some choices in the implementation of the assimilation scheme and have been published. Therefore, in the second part of my PhD, I focused on developing a data assimilation platform which consists in an Ensemble Kalman Filter (EnKF). It could either correct the model input parameters or directly its state. A series of twin experiments is used to test and validate the parameter estimation module of the platform. SWOT virtual-observations of water heights and anomalies along SWOT tracks are assimilated to correct the river manning coefficient, with the possibility to easily extend to other parameters. First results show that the platform is able to recover the "true" Manning distribution assimilating SWOT-like water heights and anomalies. In the state estimation mode, daily assimilation cycles are realized to correct TRIP river water storage initial state by assimilating ENVISAT-based discharge. Those observations are derived from ENVISAT water elevation measures, using rating curves from the MGB-IPH hydrological model (calibrated over the Amazon using in situ gages discharge). Using such kind of observation allows going beyond idealized twin experiments and also to test contribution of a remotely-sensed discharge product, which could prefigure the SWOT discharge product. The results show that discharge after assimilation are globally improved : the root-mean-square error between the analysis discharge ensemble mean and in situ discharges is reduced by 28 \%, compared to the root-mean-square error between the free run and in situ discharges (RMSE are respectively equal to 2.79 x 103 m3/s and 1.98 x 103 m3/s).
|
39 |
Convection turbulente dans une cellule de Rayleigh-Bénard cryogénique : de nouveaux éléments en faveur du Régime Ultime de KraichnanGauthier, Frédéric 08 December 2008 (has links) (PDF)
Cette thèse est consacrée à l'étude de la convection turbulente pour des nombres de Rayleigh (Ra) pouvant atteindre 10^14 grâce à l'utilisation de l'hélium cryogénique. Nous nous intéressons plus particulièrement au régime de convection apparaissant pour Ra≈10^12. Ce régime a été observé et interprété à Grenoble il y a une dizaine d'années, comme la transition vers le Régime Ultime de la convection prédit par R. Kraichnan en 1962. Deux signatures de ce régime avaient alors été observées : une augmentation du nombre de Nusselt (Nu) ainsi qu'un changement qualitatif sur les fluctuations de température dans le cœur de la cellule, cette dernière signature ayant été contestée en invoquant un effet de taille de capteurs. Dans un premier temps, nous confirmons la transition déjà observée sur les mesures locales de température, à partir de mesures réalisées avec un thermomètre dix fois plus petit. Ce résultat est complété par une étude de l'influence de la taille des thermomètres sur les mesures. Des thermomètres dont la taille varie de 17 microns à 2 mm ont été fabriqués dans ce but. Ensuite, nous observons indirectement une instabilité de la couche limite thermique, en accord avec les prédictions sur le Régime Ultime. Cette observation est réalisée à partir de mesures des fluctuations de température de la plaque inférieure de la cellule. Cette transition et celle sur Nu interviennent pour le même Ra. Enfin, nous écartons l'hypothèse selon laquelle la transition observée sur le transfert thermique serait associée à une transition de l'écoulement à grande échelle dans la cellule, grâce à une caractérisation de cet écoulement avant et après la transition.
|
40 |
Déploiement à grande échelle de la voix sur IP dans des environnements hétérogènesTrad, Abdelbasset 21 June 2006 (has links) (PDF)
Dans cette thèse, nous nous intéressons au déploiement à grande échelle de la Voix sur IP (VoIP) dans des environnements Internet hétérogènes. Après une description des mécanismes de codage et de transmission de la voix sur l'Internet, nous étudions dans une première partie de la thèse, les limites de performance dans le cas d'une transmission d'un grand nombre de flux de voix sur IP entre deux passerelles téléphoniques. Nous discutons le besoin d'utilisation de mécanismes de contrôle de congestion pour le trafic de voix sur IP qui est en croissance continue sur l'Internet. Nous proposons un nouveau schéma de contrôle de congestion de la voix sur IP. Ce schéma combine le multiplexage de flux RTP et le mécanisme de contrôle TCP-amical (TCP-friendly) afin d'améliorer l'efficacité et la performance de la transmission des flux de voix sur IP et de garantir l'équité avec les autres types de trafic coexistant sur l'Internet. La deuxième partie de la thèse est consacrée à l'étude de la transmission de la voix dans des environnements de réseaux locaux sans fil IEEE 802.11e. Nous développons un modèle analytique permettant d'évaluer la capacité d'un réseau 802.11e en nombre de communications de voix sur IP en fonction des paramètres de l'application (codage audio utilisé) ainsi que des paramètres relatifs aux canal de transmission sans fil. Ce modèle peut être utilisé pour ajuster ces paramètres afin d'augmenter la capacité du réseau sans fil tout en considérant les contraintes strictes des communications interactives de la voix sur IP. Dans la dernière partie de la thèse, nous étudions le cas de la transmission de la voix sur IP dans des environnements Internet hétérogènes (filaires/sans fil) constitués en partie par des liens d'accès sans fil. Nous proposons une architecture basée sur une passerelle de voix sur IP placée au bord du réseau sans fil. Cette passerelle est utilisée pour adapter les flux de voix aux caractéristiques du réseau sans fil. Le mécanisme d'adaptation proposé estime dynamiquement l'état de congestion du canal sans fil et permet la différentiation entre les pertes de paquets causées par la congestion et celles dûes aux erreurs de transmission sur le canal sans fil. L'adaptation appropriée est alors appliquée. Le mécanisme d'adaptation proposé, ne nécessite pas de modifications du protocole de contrôle d'accès au canal sans fil (MAC), ce qui facilite son déploiement sur l'infrastructure réseau existante.
|
Page generated in 0.0851 seconds