• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 436
  • 319
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 785
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 92
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Etude de quelques modèles issus de la théorie des jeux en champ moyen / Study of some models from Mean Field Games theory

Swiecicki, Igor 29 September 2016 (has links)
La théorie des jeux en champ moyen constitue un formalisme puissant introduit récemmentpour étudier des problèmes d’optimisation stochastiques avec un grand nombre d’agents. Aprèsavoir rappelé les principes de base de cette théorie et présenté quelques cas d’applicationtypiques, on étudie en détail un modèle stylisé de séminaire, de type champ moyen. Nousdérivons une équation exacte qui permet de prédire l’heure de commencement du séminaire etanalysons différents régimes limites, dans lesquels on parvient à des expressions approchées de lasolution. Ainsi on obtient un "diagramme de phase" du problème. On aborde ensuite un modèleplus complexe de population avec des effets de groupe attractifs. Grâce à une analogie formelleavec l’équation de Schrödinger non linéaire, on met en évidence des lois d’évolutions généralespour les valeurs moyennes du problème, que le système vérifie certaines lois de conservation etl’ on développe des approximations de type variationnel. Cela nous permet de comprendre lecomportement qualitatif du problème dans le régime de fortes interactions. / Mean Field Games Theory is a theoretical framework developed recently to deal withstochastic optimization problems when the number of agents is large. First the mathematicaltools are introduced heuristically, step by step, and some examples are presented in finance,economy and social problems. I study then thoroughly a seminar toymodel and derive anequation for the starting time of the meeting. The analysis of the limit regimes allows to builda "phase diagram" of the problem. In a second time, a herding problem, where individualshave their own preferences and are attracted by the group, is tackled. Thanks to a formal analogywith the Non Linear Schrödinger equation, some explicit solutions, conservation laws andso-called variational approximations are derived. Finally I use these tools to get a qualitativeunderstanding of the solution’s behaviour in the strong interaction regime.
302

Reconstruction de modèles CAO de scènes complexes à partir de nuages de points basés sur l’utilisation de connaissances a priori / Reconstruction of CAD model of industrial scenes using a priori knowledge

Bey, Aurélien 25 June 2012 (has links)
Certaines opérations de maintenance sur sites industriels nécessitent une planification à partir de modèles numériques 3D des scènes où se déroulent les interventions. Pour permettre la simulation de ces opérations, les modèles 3D utilisés doivent représenter fidèlement la réalité du terrain. Ces représentations virtuelles sont habituellement construites à partir de nuages de points relevés sur le site, constituant une description métrologique exacte de l’environnement sans toutefois fournir une description géométrique de haut niveau.Il existe une grande quantité de travaux abordant le problème de la reconstruction de modèles 3D à partir de nuages de points, mais peu sont en mesure de fournir des résultats suffisamment fiables dans un contexte industriel et cette tâche nécessite en pratique l’intervention d’opérateurs humains.Les travaux réalisés dans le cadre de cette thèse visent l’automatisation de la reconstruction,avec comme principal objectif la fiabilité des résultats obtenus à l’issu du processus. Au vu de la complexité de ce problème, nous proposons d’exploiter des connaissances et données a priori pour guider la reconstruction. Le premier a priori concerne la compositiondes modèles 3D : en Conception Assistée par Ordinateur (CAO), les scènes industrielles sont couramment décrites comme des assemblages de primitives géométriques simples telles que les plans, sphères, cylindres, cônes, tores, etc. Nous hiérarchisons l’analyse en traitant dans un premier temps les plans et les cylindres, comme un préalable à la détection de stores. On obtient ainsi une description fiable des principaux composants d’intérêt dans les environnements industriels. Nous proposons en outre d’exploiter un certain nombre de règles régissant la manière dont ces primitives s’assemblent en un modèle CAO, basées surdes connaissances ”métier” caractérisant les scènes industrielles que nous traitons. De plus,nous tirons parti d’un modèle CAO existant d´ecrivant une scène similaire à celle que nous souhaitons reconstruire, provenant typiquement de la reconstruction antérieure d’un site semblable au site d’intérêt. Bien que semblables en théorie, ces scènes peuvent présenterdes différences significatives qui s’accentuent au cours de leur exploitation.La méthode que nous développons se fonde sur une formulation Bayésienne du problème de reconstruction : il s’agit de retrouver le modèle CAO le plus probable vis à visdes différentes attentes portées par les données et les a priori sur le modèle à reconstruire. Les diverses sources d’a priori s’expriment naturellement dans cette formulation. Pour permettre la recherche du modèle CAO optimal, nous proposons une approche basée surdes tentatives d’insertion d’objets générés aléatoirement. L’acceptation ou le rejet de ces objets repose ensuite sur l’am´elioration systématique de la solution en cours de construction. Le modèle CAO se construit ainsi progressivement, par ajout et suppression d’objets, jusqu’à obtention d’une solution localement optimale. / 3D models are often used in order to plan the maintenance of industrial environments.When it comes to the simulation of maintenance interventions, these 3D models have todescribe accurately the actual state of the scenes they stand for. These representationsare usually built from 3D point clouds that are huge set of 3D measurements acquiredin industrial sites, which guarantees the accuracy of the resulting 3D model. Althoughthere exists many works addressing the reconstruction problem, there is no solution toour knowledge which can provide results that are reliable enough to be further used inindustrial applications. Therefore this task is in fact handled by human experts nowadays.This thesis aims at providing a solution automating the reconstruction of industrialsites from 3D point clouds and providing highly reliable results. For that purpose, ourapproach relies on some available a priori knowledge and data about the scene to beprocessed. First, we consider that the 3D models of industrial sites are made of simpleprimitive shapes. Indeed, in the Computer Aided Design (CAD) field, this kind of scenesare described as assemblies of shapes such as planes, spheres, cylinders, cones, tori, . . . Ourown work focuses on planes, cylinders and tori since these three kind of shapes allow thedescription of most of the main components in industrial environment. Furthermore, weset some a priori rules about the way shapes should be assembled in a CAD model standingfor an industrial facility, which are based on expert knowledge about these environments.Eventually, we suppose that a CAD model standing for a scene which is similar to theone to be processed is available. This a priori CAO model typically comes from the priorreconstruction of a scene which looks like the one we are interested in. Despite the factthat they are similar theoretically, there may be significant differences between the sitessince each one has its own life cycle.Our work first states the reconstruction task as a Bayesian problem in which we haveto find the most probable CAD Model with respect to both the point cloud and the a prioriexpectations. In order to reach the CAD model maximizing the target probability, wepropose an iterative approach which improves the solution under construction each time anew randomly generated shape is tried to be inserted in it. Thus, the CAD model is builtstep by step by adding and removing shapes, until the algorithm gets to a local maximumof the target probability.
303

On computer-aided design-space exploration for multi-cores / Exploration de l'espace de design assistée par ordinateur pour les systèmes multi-coeurs

Kempf, Jean-Francois 29 October 2012 (has links)
La complexité croissante des systèmes embarqués nécessite des formalismes de modélisation qui peuvent être simulés et analysés pour explorer l'espace des alternatives de conception. Cette thèse décrit le développement d'un formalisme de modélisation et des outils pour l'exploration de l'espace de design au plus tôt dans le flot de conception. Nous étendons le model-checking classique au pire cas pour les automates temporisés à l'analyse stochastique basée sur un raffinement des intervalles d'incertitude temporelle par des distributions sur les délais. D'une part, nous introduisons le formalisme des Duration Probabilistic Automata (DPA) à partir duquel nous pouvons réaliser de l'analyse ainsi que de l'optimisation. D'autre part nous présentons DESPEX (Design Space Explorer), un outil d'évaluation de performance de modèles de haut niveau des applications qui s'exécutent sur les plates-formes multi-coeurs. Nous montrons également son utilisation sur plusieurs cas d'étude. / The growing complexity of embedded systems calls for modeling formalisms that can be simulated and analyzed to explore the space of design alternatives. This thesis describes the development of a modeling formalism and tools for design space exploration at early design stage.We extend the classical worst-case model checking for timed automata to stochastic analysis based on a refinement of temporal uncertainty intervals into delay distribution. On one hand we introduce the formalism of Duration Probabilistic Automata (DPA) supporting analysis as well as optimization. On the other hand we provide DESPEX (DEsign SPace EXplorer), a tool for performance evaluation of high-level models of applications running on multi-core platforms. We also show its usage on several case studies.
304

Utilisation d'un panel SNPs très basse densité dans les populations en sélection de petits ruminants / Use of a very low density SNPs panel for small ruminant breeding programs

Raoul, Jérôme 28 November 2017 (has links)
Les programmes de sélection visent à produire des reproducteurs de bonnes valeurs génétiques pour la filière. La connaissance de marqueurs moléculaires du génome des individus et de mutations d’intérêt ouvrent des perspectives en termes d’organisation de la sélection. A l’aide de simulations déterministes et stochastiques, l’intérêt technique et économique de l’utilisation d’un panel de marqueurs moléculaires très basse densité a été évalué dans les populations ovines et caprines en sélection et permis d’obtenir les résultats suivants : i) utiliser un tel panel pour accroître, quand elle est limitée, la quantité de filiations paternelles n’est pas toujours rentable, ii) la stratégie de gestion des gènes d’ovulation qui maximise la rentabilité économique du plan de sélection a été déterminée par optimisation et des stratégies simples à implémenter, qui donnent des rentabilités proches de la rentabilité maximale, ont été proposées, iii) un programme de sélection génomique basé sur un panel très basse densité, permet à coût constant une efficacité supérieure aux programmes basés actuellement sur le testage sur descendance des mâles. / Breeding programs aim to transfer high genetic value breeding stock to the industry. The knowledge of molecular markers of individual’s genome and causal mutations allow to conceive new breeding program designs. Based on deterministic and stochastic simulations, the technical and economic benefits of using a very low density molecular markers panel were assessed in sheep and goat populations. Following results were obtained: i) using such a panel to increase female paternal filiations in case of incomplete pedigree is not always profitable, ii) a method of optimization has been used to derive the maximal profits of managing ovulation genes, and practical management giving profits close to the maximal profits have been determined, iii) at similar cost, a genomic design based on a very low density panel is more efficient than the current design based on progeny testing.
305

Inflation cosmologique : aspects théoriques et contraintes observationnelles / Cosmological inflation : theoretical aspects and observational constraints

Vennin, Vincent 05 September 2014 (has links)
Dans cette thèse sur articles nous nous intéressons aux contraintes observationnelles sur les modèles d'inflation cosmologique et nous étudions certains aspects fondamentaux liés à la nature quantique de la physique inflationnaire. Nous commençons par analyser de façon systématique les modèles à un champ scalaire et avec terme cinétique standard. Dans l'approximation du roulement lent, et en intégrant les contraintes venant du réchauffement, nous dérivons les prédictions associées à environ 75 potentiels. Nous utilisons ensuite les techniques d'inférence Bayésienne pour classer près de 200 modèles inflationnaires et contraindre leurs paramètres. Cela permet d'identifier les modèles favorisés par les observations et de quantifier les niveaux de tensions entre les différents jeux de données. L'intérêt d'une telle approche est renforcé par l'étude de méthodes indépendantes du modèle telle que le ``flot de Hubble'', qui se révèle biaisé. Nous calculons également le spectre de puissance au deuxième ordre pour les modèles d'inflation-k.Ensuite, nous décrivons certains aspects quantiques de la physique inflationnaire. Le formalisme de l'inflation stochastique est notamment utilisé dans le cadre du modèle à deux champs d'inflation hybride. Nous discutons les corrections quantiques sur les prédictions de ce modèle, et à l'aide d'un formalisme récursif, nous nous intéressons à la façon dont elles modifient l'amplitude des perturbations. Finalement, la transition quantique-classique et le problème de la mesure quantique sont étudiés dans un contexte cosmologique. Un modèle de réduction dynamique du paquet d'onde est appliqué à la description des perturbations inflationnaires. / This thesis by publication is devoted to the study of the observational constraints on cosmological inflationary models, and to the investigation of fundamental aspects related to the quantum nature of the inflationary physics.We first present a systematic analysis of all single-scalar-field inflationary models with canonical kinetic terms. Reheating consistent slow-roll predictions are derived for ~ 75 potentials, and Bayesian inference and model comparison techniques are developed to arrange a landscape of ~ 200 inflationary models and associated priors. In this way, we discuss what are the best models of inflation, and we properly quantify tension between data sets. Related to this massive sampling, we highlight the shortcomings of model independent approaches such as the one of ``horizon-flow''. We also pave the way for extending our computational pipeline to k-inflation models by calculating the power spectrum at next-to-next-to leading order for this class of models.In a second part, we describe some aspects related to the quantum nature of the inflationary setup. In particular, we make use of the stochastic inflation formalism, which incorporates the quantum corrections to the inflationary dynamics, in the two-field model of hybrid inflation. We discuss how the quantum diffusion can affect the observable predictions in such models, and we design a recursive strategy that incorporates its effects on the perturbations amplitude. Finally, we investigate the quantum-to-classical transition and the quantum measurement problem in a cosmological context. We apply a dynamical wavefunction collapse model to the description of inflationary perturbations.
306

Analyse post-Pareto en optimisation vectorielle stochastique et déterministe : étude théorique et algorithmes. / Post-Pareto Analysis in Stochastic Multi-Objective Optimization : Theoretical Results and Algorithms

Collonge, Julien 12 November 2014 (has links)
Cette thèse relate certains aspects liés à l'analyse post-Pareto issue de Problèmes d'Optimisation Vectorielle Stochastique. Un problème d'optimisation Vectorielle Stochastique consiste à optimiser l'espérance d'une fonction vectorielle aléatoire définie sur un ensemble arbitraire et à valeurs dans un espace sectoriel ordonné. L'ensemble des solutions de ce problème (appelé ensemble de Pareto) est composé des solutions admissibles qui assurent un certain équilibre entre les objectifs : il est impossible d'améliorer la valeur d'un objectif sans détériorer celle d'un autre. D'un point de vue technique, chaque solution de Pareto est acceptable. Nous nous posons alors le problème de la sélection de l'une d'entre elles : en supposant l'existence d'un décideur qui aurait son propre critère de décision, nous considérons le problème post-Pareto Stochastique qui vise à minimiser cette fonctionnelle sur l'ensemble de Pareto associé à un Problème d'Optimisation Vectorielle Stochastique. / This thesis explore related aspects to post-Pareto analysis arising from Stochastic Vector Optimization Problem. A Stochastic Vector Optimization Problem is to optimize a random vector objective function defined on an arbitrary set, and taking values in a partially ordered set. Its solution set (called Pareto set) consists of the feasible solutions which ensure some sort of equilibrium amongst the objectives. That is to say, Pareto solutions are such that noneof the objectives values can be improved further without deterioring another. Technically speaking, each Pareto solution is acceptable. The natural question that arises is : how to choose one solution ? One possible answer is to optimize an other objective over the Pareto set. Considering the existence of a decision-maker with its own criteria, we deal with the post-Pareto Stochastic Optimization Problem of minimizing its real-valued criteria over the Pareto set.
307

Reconstruction de champs aérodynamiques à partir de mesures ponctuelles / Reconstruction of turbulent velocity fields from punctual measurements

Arnault, Anthony 13 December 2016 (has links)
Le suivi en temps réel des écoulements turbulents est une tâche difficile ayant des applications dans de nombreux domaines. Un exemple est la mesure des tourbillons de sillage au niveau des pistes d’aéroports afin d’optimiser la distance entre les avions en phase d’approche ou de décollage. Un autre exemple se rapporte au contrôle actif d’écoulements. De tels contrôles peuvent servir à réduire le bruit des avions... Cette thèse vise à développer des outils afin d’estimer en temps réel des champs de vitesse d’écoulements turbulents à partir d’un faible nombre de mesures ponctuelles. Après une étude bibliographique centrée sur une méthode de reconstruction populaire, l’estimation stochastique (SE), ses performances sont évaluées pour la prédiction de champs de vitesse issus d’écoulements de complexité croissante. La précision des estimations obtenues étant très faibles dans certains cas, une analyse précise de la méthode est effectuée. Celle-ci a montré l’effet filtrant de la SE sur le contenu spatial et temporel des champs de vitesse. De plus, le fort impact de la position des capteurs a été mis en avant. C’est pourquoi un algorithme d’optimisation de la position des capteurs est ensuite présenté. Bien que l’optimisation de la position des capteurs mène à une amélioration de la précision des prédictions obtenues par SE, elle reste néanmoins très faible pour certains cas tests. L’utilisation d’une technique issue du domaine de l’assimilation de données, le filtre de Kalman qui combine un modèle dynamique de l’écoulement avec les mesures, a donc été étudiée. Pour certains écoulements, le filtre de Kalman permet d’obtenir des prédictions plus précises que la SE. / Real time monitoring of turbulent flows is a challenging task that concerns a large range of applications. Evaluating wake vortices around the approach runway of an airport, in order to optimize the distance between lined-up aircraft, is an example. Another one touches to the broad subject of active flow control. In aerodynamic, control of detached flows is an essential issue. Such a control can serve to reduce noise produced by airplanes, or improve their aerodynamic performances. This work aims at developing tools to produce real time prediction of turbulent velocity fields from a small number of punctual sensors. After a literature review focused on a popular reconstruction method in fluid mechanics, the Stochastic Estimation (SE), the first step was to evaluate its overall prediction performances on several turbulent flows of gradual complexity. The accuracy of the SE being very limited in some cases, a deeper characterization of the method was performed. The filtering effect of the SE in terms of spatial and temporal content was particularly highlighted. This characterization pointed out the strong influence of the sensor locations on the estimation quality. Therefore, a sensor location optimization algorithm was proposed and extended to the choice of time delays when using Multi-Time-Delay SE. While using optimized locations for the sensors hold some accuracy improvements, they were still insufficient for some test cases. The opportunity to use a data assimilation method, the Kalman filter that combines a dynamic model of the flow with sensor information, was investigated. For some cases, the results were promising and the Kalman filter outperforms all SE methods.
308

Open quantum systems and quantum stochastic processes / Systèmes quantiques ouverts et processus stochastiques quantiques

Benoist, Tristan 25 September 2014 (has links)
De nombreux phénomènes de physique quantique ne peuvent être compris que par l'analyse des systèmes ouverts. Un appareil de mesure, par exemple, est un système macroscopique en contact avec un système quantique. Ainsi, tout modèle d'expérience doit prendre en compte les dynamiques propres aux systèmes ouverts. Ces dynamiques peuvent être complexes : l'interaction du système avec son environnement peut modifier ses propriétés, l'interaction peu créer des effets de mémoire dans l'évolution du système, . . . Ces dynamiques sont particulièrement importantes dans l'étude des expériences d'optique quantique. Nous sommes aujourd'hui capables de manipuler individuellement des particules. Pour cela la compréhension et le contrôle de l'influence de l'environnement est crucial. Dans cette thèse nous étudions d'un point de vue théorique quelques procédures communément utilisées en optique quantique. Avant la présentation de nos résultats, nous introduisons et motivons l'utilisation de la description markovienne des systèmes quantiques ouverts. Nous présentons a la fois les équations maîtresses et le calcul stochastique quantique. Nous introduisons ensuite la notion de trajectoire quantique pour la description des mesures indirectes continues. C'est dans ce contexte que l'on présente les résultats obtenus au cours de cette thèse. Dans un premier temps, nous étudions la convergence des mesures non destructives. Nous montrons qu'elles reproduisent la réduction du paquet d'onde du système mesuré. Nous montrons que cette convergence est exponentielle avec un taux fixe. Nous bornons le temps moyen de convergence. Dans ce cadre, en utilisant les techniques de changement de mesure par martingale, nous obtenons la limite continue des trajectoires quantiques discrètes. Dans un second temps, nous étudions l'influence de l'enregistrement des résultats de mesure sur la préparation d'état par ingénierie de réservoir. Nous montrons que l'enregistrement des résultats de mesure n'a pas d'influence sur la convergence proprement dite. Cependant, nous trouvons que l'enregistrement des résultats de mesure modifie le comportement du système avant la convergence. Nous retrouvons une convergence exponentielle avec un taux équivalent au taux sans enregistrement. Mais nous trouvons aussi un nouveau taux de convergence correspondant a une stabilité asymptotique. Ce dernier taux est interprété comme une mesure non destructive ajoutée. Ainsi l'état du système ne converge qu'après un temps aléatoire. A partir de ce temps la convergence peut être bien plus rapide. Nous obtenons aussi une borne sur le temps moyen de convergence. / Many quantum physics phenomena can only be understood in the context of open system analysis. For example a measurement apparatus is a macroscopic system in contact with a quantum system. Therefore any experiment model needs to take into account open system behaviors. These behaviors can be complex: the interaction of the system with its environment might modify its properties, the interaction may induce memory effects in the system evolution, ... These dynamics are particularly important when studying quantum optic experiments. We are now able to manipulate individual particles. Understanding and controlling the environment influence is therefore crucial. In this thesis we investigate at a theoretical level some commonly used quantum optic procedures. Before the presentation of our results, we introduce and motivate the Markovian approach to open quantum systems. We present both the usual master equation and quantum stochastic calculus. We then introduce the notion of quantum trajectory for the description of continuous indirect measurements. It is in this context that we present the results obtained during this thesis. First, we study the convergence of non demolition measurements. We show that they reproduce the system wave function collapse. We show that this convergence is exponential with a fixed rate. We bound the mean convergence time. In this context, we obtain the continuous time limit of discrete quantum trajectories using martingale change of measure techniques. Second, we investigate the influence of measurement outcome recording on state preparation using reservoir engineering techniques. We show that measurement outcome recording does not influence the convergence itself. Nevertheless, we find that measurement outcome recording modifies the system behavior before the convergence. We recover an exponential convergence with a rate equivalent to the rate without measurement outcome recording. But we also find a new convergence rate corresponding to an asymptotic stability. This last rate is interpreted as an added non demolition measurement. Hence, the system state converges only after a random time. At this time the convergence can be much faster. We also find a bound on the mean convergence time.
309

Relation " communauté-ressource " : cas des communautés marines d'invertébrés benthiques qui exploitent les débris grossiers dérivés de plantes terrestres / « Community-Resource » relationship : case of communities of marine benthic invertebrates exploiting coarse debris derived from terrestrial plants

Fanfard, Sandrine 13 December 2016 (has links)
Dérivants ou submergés, les débris grossiers dérivés de plantes terrestres fournissent de l'énergie et des nutriments pour les écosystèmes marins. En considérant cette matière organique allochtone, l'objectif de ma thèse est de décrire le processus d'assemblage d'une communauté autour d'une ressource trophique et de considérer en retour l'effet de la diversité et de la composition observée au sein de cette communauté sur la dynamique d'exploitation de la ressource. Pour ce faire, j'ai combiné des expériences in situ et la modélisation avec l'intention de parvenir à une description cohérente et quantitative du lien écogéochimique entre la biodiversité et le fonctionnement des écosystèmes. En utilisant de la litière de feuilles et du bois mort, cette approche a permis: (i) de montrer l'importance des interactions biotiques dès le début du processus d'assemblage de la communauté, (ii) de faire le lien explicite entre la consommation des ressources et la dynamique de populations des consommateurs, et (iii) de tester comment la transformation des ressources est affectée par la diversité observée au sein des communautés. / Either adrift or submerged, coarse debris derived from terrestrial plants provide energy and nutrients for marine ecosystems. By considering this allochtonous organic material, the goals of my PhD were to describe the assembly process of macrobenthic communities around food sources and to consider the feedback effect of the observed communities on the geochemical fate of the resource. To do so, I combined in situ experiments and modelling with the intention to build a consistent, quantitative description of the ecogeochemical link between biodiversity and ecosystem functioning. Using leaf litter and dead wood, this approach allowed: (i) to show the importance of biotic interactions from the beginning of the community assembly process, (ii) to make the explicit connection between the resource consumption and the population dynamics of the consumers, and (iii) and to test how resource processing is affected by the specific diversity of the communities.
310

Modélisation numérique de l'impact des grands tremblements de terre sur la dynamique des rivières / Numerical modeling of the impact of major earthquakes on river dynamics

Croissant, Thomas 28 November 2016 (has links)
Dans les chaînes de montagnes, les séismes de magnitudes intermédiaires à fortes (Mw>6) déclenchent systématiquement un grand nombre de glissements de terrain responsables de l'introduction de volumes massifs de sédiments dans le réseau fluviatile. L'évacuation progressive de ces sédiments hors de la zone épicentrale affecte la dynamique des rivières et provoque des aléas hydro-sédimentaires dans les plaines alluviales (avulsion des rivières, crues...). La quantification des transferts sédimentaires est essentielle pour mieux comprendre l'évolution des paysages à court et moyen terme (de l'heure au siècle) et permettre une gestion efficace des risques dans les zones d'accumulation. Cependant, les flux de sédiments grossiers étant difficiles à mesurer, les facteurs contrôlant l'évacuation des glissements de terrain restent à ce jour mal compris. Cette thèse a donc porté sur l'étude, via la modélisation, des paramètres influençant la mobilisation des glissements de terrain, la préservation de la capacité de transport la transition entre gorge et plaine alluviale et la dynamique court terme des cônes alluviaux soumis à de forts apports sédimentaires. Les approches développées sont appliquées au contexte de la côte Ouest de la Nouvelle Zélande où la probabilité d'occurrence d'un séisme de magnitude 8 est de 50% dans les 50 ans à venir. Cette problématique à été abordée analytiquement et via une approche numérique avec le modèle 2D d'évolution des paysages et des rivières, Eros. Avec l'approche analytique, nous démontrons que la conservation de la capacité de transport long terme à la transition entre gorges et plaines alluviales est généralement réalisée par le passage à un système en tresse. Nous identifions aussi la variabilité des débits comme facteur dominant de la capacité de transport long terme comparé à l'effet de la végétation riparienne. Avec l'approche numérique, nous utilisons Eros qui est composé 1. d'un modèle hydrodynamique 2D, 2. d'un modèle de transport/dépôt de sédiments et 3. de modèles gérant les flux latéraux d'érosion et de dépôt. La combinaison de ces éléments permet l'émergence de diverses géométries de rivières alluviales (droites/sinueuses ou en tresses) en fonction des forçages externes qu'elles subissent (débit d'eau, flux sédimentaires). L'application d'Eros à des cas naturels a nécessité la validation et la calibration de ses paramètres principaux à l'aide: 1. de solutions analytiques et 2. de la reproduction morphodynamique de systèmes naturels, tel que l'évolution de la rivière Poerua en Nouvelle Zélande suite au glissement de terrain du Mont Adams. Dans la partie aval du bassin, les simulations numériques démontrent les capacités du modèle 1) à prédire efficacement l'évolution de plaines alluviales soumises à plusieurs scénario d'apports sédimentaires massifs et 2) à générer des cartes de risques probabilistes. Dans la partie amont du bassin, les résultats mettent en évidence le rôle clef de la réduction dynamique de largeur des rivières par rapport à la largeur de la gorge fluviatile, sur l'accélération de l'évacuation des sédiments issus des glissements de terrain. Une loi unique caractérisant les temps d'export d'une distribution de glissements de terrain peut être définie en fonction du rapport entre volume de sédiment et capacité de transport initiale de la rivière, permettant ainsi d'estimer leur temps de résidence moyen à 5-30 ans pour un scénario de séisme de Mw=8 beaucoup plus faibles que ceux estimés précédemment (~100 ans). L'approche numérique développée dans ce travail suggère que l'étude de la réponse des chaînes de montagnes à un forçage sismique fort ne peut être effectuée efficacement qu'avec un modèle 2D capable de prendre en compte les non-linéarités entre écoulements des rivières, leurs géométries et le transport sédimentaire. Les résultats obtenus permettent une meilleure caractérisation de la dynamique des paysages à l'échelle du cycle sismique et des aléas à court terme. / In mountainous areas, intermediate to large earthquakes (Mw > 6) systematically trigger a large number of landslides supplying the fluvial network with massive volumes of sediment. The progressive evacuation of the sediment out of the epicentral area alters river dynamics and may cause hydro-sedimentary hazards in alluvial plains (river avulsion, inundations, bank erosion, ...). The quantification of sediment transfers is critical to better understand landscape evolution on short timescales (i.e. hours to centuries) and improve hazard management in deposition areas. However, the factors controlling the coarse sediment transfers are still poorly known due to a lack of field measurements and adequate numerical models. The aim of this work is thus to study, via numerical modeling, the parameters influencing landslides evacuation, the transport capacity variations at the gorge/alluvial plain transition and the short-term dynamics and hazards of alluvial fans. This work is set up in the context of the West Coast of New Zealand (NZ) which presents a 50% probability to experience a magnitude 8 earthquake in the next 50 years. This problematic has been addressed analytically and via a numerical approach. Using the analytical approach, we demonstrate that the conservation of long-term transport capacity at the bedrock gorge and alluvial plain transition usually implies the channel narrowing in the alluvial part that is generally realized by a transition to a braided system. We identify discharge variability as the dominant factor of alluvial river long term transport capacity compared to riparian vegetation. To explore the role of channel self-organization on coarse sediment transport, we use Eros, a 2D morphodynamic model able to simulate landscape evolution improved by a new 2D hydrodynamic model. Combined with a sediment transport/deposition model and lateral fluxes modeling (bank erosion and transverse deposition), Eros allows for the emergence of diverse alluvial river regimes and geometries (e.g. straight/sinuous and braided channels) as a function of the external forcing experienced by the river (water and sediment fluxes). The application of Eros on natural cases has required the validation and calibration of its principal parameters using analytical solutions and the morphodynamic reproduction of natural systems such as the evolution of the Poerua river in New Zealand following the Mount Adams landslide. In the downstream part of the catchment, the ensemble numerical simulations demonstrate Eros abilities to 1) efficiently predict the morphodynamic evolution of alluvial fans submitted to different scenarios of large sediment supplies and 2) generate probabilistic risk maps. In the upstream part, the results highlight the dominant role of dynamic river narrowing reducing export times of landslide-derived sediments. We define a new law characterizing export times as a function of landslide volume and pre-landslide transport capacity that predicts mean residence times for a M8 earthquake in a mountain range of 5-30 yr, much lower than previous estimations of ~ 100 yr. The numerical approach developed in this work suggests that the study of mountain ranges response to severe landslide disruption can only be addressed with a 2D model able to account for the non-linearities between river flow, channel geometry and sediment transport. The results allow for a better characterization of landscape dynamics at the scale of a seismic cycle and hydro-sedimentary hazards in the short term.

Page generated in 0.1685 seconds