• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 4
  • 1
  • Tagged with
  • 15
  • 15
  • 7
  • 6
  • 6
  • 6
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Segmentation automatique d'images sur des critères géométriques, application à l'inspection visuelle de produits agroalimentaires / Automated segmentation of images using geometrical criteria, application on image processing for good inspection

Dubosclard, Pierre 25 January 2016 (has links)
À l’échelle mondiale, la récolte de céréales atteint plusieurs milliards de tonnes chaque année. Les producteurs céréaliers échangent leurs récoltes selon un prix déterminé par la qualité de leur production. Cette évaluation, appelée agréage, est réalisée pour chaque lot sur un échantillon jugé représentatif. La difficulté au cours de cette évaluation est de parvenir à parfaitement caractériser l'échantillon. Il faut pour cela qualifier chacun de ses éléments, en d'autres termes, il est nécessaire d'évaluer chaque grain de céréale de manière individuelle. Cette opération est historiquement réalisée par un opérateur qui isole chaque grain manuellement pour l’inspecter et l'évaluer. Ce procédé est exposé à différents problèmes : d'une part les résultats obtenus par un opérateur ne sont pas parfaitement répétables : son état de fatigue visuelle peut influencer son appréciation ; d'autre part l'évaluation dépend de l'opérateur : elle n'est pas reproductible, les résultats peuvent varier d'un opérateur à l'autre. Cette thèse a donc pour but de mettre au point un système capable de réaliser cette inspection visuelle.Le système d’acquisition est présenté dans un premier temps. Cette enceinte contient les dispositifs d’éclairage et d’acquisition d’images. Différents outils ont été mis en œuvre pour s’assurer de la justesse et de la stabilité des acquisitions. Une méthode d’apprentissage de modèles de forme est ensuite présentée : elle a pour but de définir et de modéliser le type de forme des grains de l’application considérée (blé, riz, orge). Cette étape est réalisée sur une image d’objets isolés. Deux méthodes de détection sont ensuite présentées : une approche déterministe et une approche probabiliste. Ces deux méthodes, mises au point pour segmenter les objets d’une image, utilisent des outils communs bien qu’elles soient conçues différemment. Les résultats obtenus et présentés dans cette thèse démontrent la capacité du système automatique à se positionner comme une solution fiable à la problématique d’inspection visuelle de grains de céréales. / In agriculture, the global grain harvest reached several billion tons each year. Cereal producers exchange their crops at a price determined by the quality of their production. This assessment, called grading, is performed for each set on a representative sample. The difficulty of this assessment is to fully characterize the sample. To do so, it is necessary to qualify each of its elements. In other words, it is necessary to evaluate each individual cereal grain. Historically, this has been performed manually by an operator who isolates each evaluated grain. This method is exposed to various problems: firstly, results obtained by an operator are not perfectly repeatable. For example, eyestrain can influence the assessment. On the other hand the evaluation depends on the operator: it is not reproducible. The results can vary from one operator to another. The aim of this thesis is to develop a system that can handle this visual inspection. In a first time, the acquisition system is introduced. Image acquisition and lighting parts are placed in a cabin. Several methods have been introduced to manage accuracy and stability of the acquisitions. Then, a shape model learning is detailed: this step, based on an image with manually separated objects, defines and modelizes shape of the considered cereal grains (wheat, rice, barley). Two detection approaches are then introduced: a deterministic method and a probabilistic one. Both are based on the same tools to process the objects segmentation of an image, but they deal with the question in a different way. The results provided by the system and presented in this thesis emphasize the ability of this automatic system to process the visual inspection of food products.
2

Fondation d'un planificateur robotique intégrant le symbolique et le géométrique

GRAVOT, Fabien 24 March 2004 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur la planification de tâches pour des systèmes robotiques qui prennent en compte des contraintes géométriques, cinématiques et symboliques. Nous souhaitons notamment traiter des problèmes nécessitant la manipulation et l'assemblage d'objets par plusieurs robots mobiles manipulateurs dans un environnement contraint. Dans le cadre de cette thèse nous avons développé un planificateur nommé "aSyMov" qui offre un cadre innovant pour combiner les techniques issues de la planification de mouvements et de la planification de tâches. Dans un premier temps nous faisons un état de l'art des techniques de la planification de mouvements. Puis une nouvelle représentation de l'espace de recherche et de nouvelles techniques de planifications seront développées afin de généraliser et de combiner les algorithmes décrits dans l'état de l'art. Dans un second temps nous abordons les techniques de la planification de tâches et définissons une manière originale de lier le domaine géométrique au domaine symbolique. Puis nous présentons l'architecture et les algorithmes de notre planificateur. ASyMov effectue une recherche en avant dans l'espace d'état. L'état d'aSyMov a la particularité de représenter l'ensemble des instanciations géométriques possibles pour un état symbolique donné. La procédure de validation des actions va essayer de minimiser les instances géométriques à vérifier. Ce ne sera que quand les actions vont contraindre la géométrie qu'une propagation arrière de ces contraintes sera faite pour trouver de nouvelles instances valides. Nous décrivons aussi comment il est possible de combiner à la fois l'apprentissage de la topologie de l'environnement et la recherche d'une solution avec les connaissances déjà acquises. Pour finir nous présentons plusieurs problèmes complexes qui ont été résolus par aSyMov.
3

Variabilité des propriétés du béton : caractérisation expérimentale et modélisation probabiliste de la lixiviation

De Larrard, Thomas 27 September 2010 (has links) (PDF)
L'évaluation de la durabilité des modélisation probabiliste de la lixiviation structures nécessite de prendre en compte la variabilité des propriétés du matériau. La thèse présente deux aspects principaux : d'une part une campagne expérimentale visant à quantifier la variabilité d'indicateurs du comportement du béton ; d'autre part le développement d'une modélisation simple de la lixiviation des bétons afin de mettre en œuvre des méthodes probabilistes pour estimer la durée de vie de structures liées notamment au stockage des déchets radioactifs. La campagne expérimentale consiste à suivre deux chantiers et à quantifier la variabilité de ces indicateurs, étudier leur corrélation et caractériser la variabilité des champs aléatoires des grandeurs considérées (notamment vis-à-vis d'une longueur de corrélation). Afin de dépouiller des essais de lixiviation accélérée au nitrate d'ammonium en s'affranchissant des effets de la température, un outil d'analyse inverse basé sur la théorie des réseaux de neurones a été élaboré. Des outils numériques simples sont présentés afin d'étudier la propagation de la variabilité dans des problèmes de durabilité, de quantifier l'influence de celle-ci sur la durée de vie des structures et d'expliquer la variabilité des différents paramètres d'entrée du modèle numérique et des grandeurs physiques du matériau.
4

Apport des méthodes probabilistes aux études d'intégration des énergies renouvelables aux systèmes électriques

Bayem, Herman 23 November 2009 (has links) (PDF)
La production renouvelable (l'éolien, solaire photovoltaïque) a la particularité d'être variable et surtout non contrôlable du fait de la variabilité des sources. Compte tenu de ces particularités, les études d'impact des EnR sur les systèmes électriques, basées sur les méthodes déterministes s'avèrent inadaptées. L'objectif de ce travail est d'étudier l'apport des méthodes probabilistes dans les études d'intégration des EnR aux systèmes électriques. Les variations des paramètres du système imposent aux gestionnaires de réseaux des défis dont un des plus importants est la maîtrise de l'impact lié à ces variations. Cela passe par une caractérisation probabiliste du système électrique qui a été développée dans ce travail. Des méthodes probabilistes ont été développées pour réaliser les différentes analyses (transits, tensions, stabilité...) d'impact des EnR. De même pour les études d'intégration du type calcul du taux de pénétration en EnR dans un système donné, une méthode probabiliste a été proposée. Le principe de ces études est d'effectuer les analyses classiques sur grand nombre de points de fonctionnement représentatifs du comportement du système sur la période d'étude. Ces points de fonctionnement sont obtenus par tirage Monte Carlo sur les lois de probabilités des différents paramètres du système. A l'issue de ces analyses, l'impact des EnR est défini par un risque de défaillance. Il s'agit donc d'une étude du « risque de défaillance » à la différence d'une étude déterministe qui est du type « défaillance /pas défaillance ». Les méthodes déterministe et probabiliste ont été comparées pour deux cas : le raccordement d'une unité de production renouvelable à un réseau de distribution et l'étude du taux de pénétration d'un parc d'EnR dans un réseau de type insulaire.
5

Inférences sur l'histoire des populations à partir de leur diversité génétique : étude de séquences démographiques de type fondation-explosion

Calmet, Claire 16 December 2002 (has links) (PDF)
L'étude de la démographie dans une perspective historique participe à la compréhension des processus évolutifs. Les données de diversité génétique sont potentiellement informatives quant au passé démographique des populations: en effet, ce passé est enregistré avec perte d'information par les marqueurs moléculaires, par l'intermédiaire de leur histoire généalogique et mutationnelle. L'acquisition de données de diversité génétique est de plus en plus rapide et aisée, et concerne potentiellement n'importe quel organisme d'intérêt. D'où un effort dans la dernière décennie pour développer les outils statistiques permettant d'extraire l'information démographique des données de typage génétique.<br />La présente thèse propose une extension de la méthode d'inférence bayésienne développée en 1999 par M. Beaumont. Comme la méthode originale, (i) elle est basée sur le coalescent de Kingman avec variations d'effectif, (ii) elle utilise l'algorithme de Metropolis-Hastings pour échantillonner selon la loi a posteriori des paramètres d'intérêt et (iii) elle permet de traiter des données de typage à un ou plusieurs microsatellites indépendants. La version étendue généralise les modèles démographique et mutationnel supposés dans la méthode initiale: elle permet d'inférer les paramètres d'un modèle de fondation-explosion pour la population échantillonnée et d'un modèle mutationnel à deux phases, pour les marqueurs microsatellites typés. C'est la première fois qu'une méthode probabiliste exacte incorpore pour les microsatellites un modèle mutationnel autorisant des sauts.<br />Le modèle démographique et mutationnel est exploré. L'analyse de jeux de données simulés permet d'illustrer et de comparer la loi a posteriori des paramètres pour des scénarios historiques: par exemple une stabilité démographique, une croissance exponentielle et une fondation-explosion. Une typologie des lois a posteriori est proposée. Des recommandations sur l'effort de typage dans les études empiriques sont données: un unique marqueur microsatellite peut conduire à une loi a posteriori très structurée. Toutefois, les zones de forte densité a posteriori représentent des scénarios de différents types. 50 génomes haploides typés à 5 marqueurs microsatellites suffisent en revanche à détecter avec certitude (99% de la probabilité a posteriori) une histoire de fondation-explosion tranchée. Les conséquences de la violation des hypothèses du modèle démographique sont discutées, ainsi que les interactions entre processus et modèle mutationnel. En particulier, il est établi que le fait de supposer un processus mutationnel conforme au modèle SMM, alors que ce processus est de type TPM, peut générer un faux signal de déséquilibre génétique. La modélisation des sauts mutationnels permet de supprimer ce faux signal.<br />La méthode est succinctement appliquée à l'étude de deux histoires de fondation-explosion: l'introduction du chat Felis catus sur les îles Kerguelen et celle du surmulot Rattus norvegicus sur les îles du large de la Bretagne. Il est d'abord montré que la méthode fréquentiste développée par Cornuet et Luikart (1996) ne permet pas de détecter les fondations récentes et drastiques qu'ont connu ces populations. Cela est vraisemblablement dû à des effets contraires de la fondation et de l'explosion, sur les statistiques utilisées dans cette méthode.<br />La méthode bayésienne ne détecte pas non plus la fondation si l'on force une histoire démographique en marche d'escalier, pour la même raison. La fondation et l'explosion deviennent détectables si le modèle démographique les autorise. Toutefois, les dépendances entre les paramètres du modèle empêchent de les inférer marginalement avec précision. Toute information a priori sur un paramètre contraint fortement les valeurs des autres paramètres. Ce constat confirme le potentiel de populations d'histoire documentée pour l'estimation indirecte des paramètres d'un modèle de mutation des marqueurs.
6

Etude déterministe et probabiliste du comportement des tunnels

Mollon, Guilhem 06 October 2012 (has links) (PDF)
Les travaux présentés dans ce mémoire s'attachent à étudier le comportement des tunnels creusés à faible profondeur à l'aide d'un tunnelier à front pressurisé, en se penchant plus particulièrement sur deux aspects fondamentaux lors de l'excavation : la stabilité du front de taille à l'effondrement et au refoulement, et l'apparition de mouvements de sol en surface. L'étude est menée sous un angle déterministe puis probabiliste. Dans un premier temps, un certain nombre de modèles analytique de détermination des pressions limites d'effondrement et de refoulement sont développés à partir d'observations effectuées sur des modèles numériques. Deux de ces modèles analytiques présentent, respectivement pour des sols frottants et non frottants, des résultats très satisfaisants à la fois en termes de pressions limites et de faciès de rupture. Par ailleurs, des modèles numériques de différents degrés de complexité sont programmés afin d'évaluer les mouvements de sol induits par l'excavation et leur propagation jusqu'à la surface. Les modèles déterministes ainsi définis sont ensuite utilisés dans un cadre probabiliste. La méthode de la surface de réponse stochastique par collocation est présentée, validée, et perfectionnée afin de rendre possible pour un faible coût calculatoire des études paramétriques sur les propriétés probabilistes des variables d'entrée des modèles. La propagation de l'incertitude au travers des modèles déterministes de stabilité et de mouvements de sol est évaluée, et des méthodes de dimensionnement fiabiliste sont proposées. Dans une dernière partie, la variabilité spatiale du sol est prise en compte par l'intermédiaire de la théorie des champs aléatoires, et appliquée à un modèle analytique 2D d'effondrement d'un front de taille. Ce modèle, développé dans le but de prendre en compte cette variabilité spatiale pour des temps de calcul inférieurs à ceux des modèles numériques, est validé numériquement et soumis à des tirages aléatoires en grand nombre. L'effet de la variabilité est évaluée, et des phénomènes nouveaux liés à cette variabilité sont mis en lumière.
7

Robust, precise and reliable simultaneous localization and mapping for and underwater robot. Comparison and combination of probabilistic and set-membership methods for the SLAM problem / Localisation et cartographie en simultané fiable, précise et robuste d'un robot sous-marin

Nicola, Jérémy 18 September 2017 (has links)
Dans cette thèse on s'intéresse au problème de la localisation d'un robot sous-marin et de la cartographie en simultané d'un jeu de balises acoustiques installées sur le fond marin, en utilisant un distance-mètre acoustique et une centrale inertielle. Nous nous focalisons sur les deux approches principales utilisées pour résoudre ce type de problème: le filtrage de Kalman et le filtrage ensembliste basé sur l'analyse par intervalles. Le filtre de Kalman est optimal quand les équations d'état du robot sont linéaires et les bruits sont additifs, Gaussiens. Le filtrage par intervalles ne modélise pas les incertitudes dans un cadre probabiliste, et ne fait qu'une seule hypothèse sur leur nature: elles sont bornées. De plus, l'approche utilisant les intervalles permet la propagation rigoureuse des incertitudes, même quand les équations sont non linéaires. Cela résulte en une estimation hautement fiable, au prix d'une précision réduite. Nous montrons que dans un contexte sous-marin, quand le robot est équipé avec une centrale inertielle de haute précision, une partie des équations du SLAM peut raisonnablement être considérée comme linéaire avec un bruit Gaussien additif, en faisant le terrain de jeu idéal d'un filtre de Kalman. De l'autre côté, les équations liées aux observations du distance-mètre acoustique sont bien plus problématiques: le système n'est pas observable, les équations sont non linéaires, et les outliers sont fréquents. Ces conditions sont idéales pour une approche à erreur bornées basée sur l'analyse par intervalles. En prenant avantage des propriétés des bruits Gaussiens, cette thèse réconcilie le traitement probabiliste et ensembliste des incertitudes pour les systèmes aussi bien linéaires que non linéaires sujets à des bruits Gaussiens additifs. En raisonnant de manière géométrique, nous sommes capables d'exprimer la partie des équations du filtre de Kalman modélisant la dynamique du véhicule dans un cadre ensembliste. De la même manière, un traitement plus rigoureux et précis des incertitudes est décrit pour la partie des équations du filtre de Kalman liée aux mesures de distances. Ces outils peuvent ensuite être combinés pour obtenir un algorithme de SLAM qui est fiable, précis et robuste. Certaines des méthodes développées dans cette thèse sont illustrées sur des données réelles. / In this thesis, we work on the problem of simultaneously localizing an underwater robot while mapping a set of acoustic beacons lying on the seafloor, using an acoustic range-meter and an inertial navigation system. We focus on the two main approaches classically used to solve this type of problem: Kalman filtering and set-membership filtering using interval analysis. The Kalman filter is optimal when the state equations of the robot are linear, and the noises are additive, white and Gaussian. The interval-based filter do not model uncertainties in a probabilistic framework, and makes only one assumption about their nature: they are bounded. Moreover, the interval-based approach allows to rigorously propagate the uncertainties, even when the equations are non-linear. This results in a high reliability in the set estimate, at the cost of a reduced precision.We show that in a subsea context, when the robot is equipped with a high precision inertial navigation system, a part of the SLAM equations can reasonably be seen as linear with additive Gaussian noise, making it the ideal playground of a Kalman filter. On the other hand, the equations related to the acoustic range-meter are much more problematic: the system is not observable, the equations are non-linear, and the outliers are frequent. These conditions are ideal for a set-based approach using interval analysis.By taking advantage of the properties of Gaussian noises, this thesis reconciles the probabilistic and set-membership processing of uncertainties for both linear and non-linear systems with additive Gaussian noises. By reasoning geometrically, we are able to express the part of the Kalman filter equations linked to the dynamics of the vehicle in a set-membership context. In the same way, a more rigorous and precise treatment of uncertainties is described for the part of the Kalman filter linked to the range-measurements. These two tools can then be combined to obtain a SLAM algorithm that is reliable, precise and robust. Some of the methods developed during this thesis are demonstrated on real data.
8

Evaluation et amélioration des méthodes de chaînage de données / Evaluation and improvement of data chaining methods

Li, Xinran 29 January 2015 (has links)
Le chaînage d’enregistrements est la tâche qui consiste à identifier parmi différentes sources de données les enregistrements qui concernent les mêmes entités. En l'absence de clé d’identification commune, cette tâche peut être réalisée à l’aide d’autres champs contenant des informations d’identifications, mais dont malheureusement la qualité n’est pas parfaite. Pour ce faire, de nombreuses méthodes dites « de chaînage de données » ont été proposées au cours des dernières décennies.Afin d’assurer le chaînage valide et rapide des enregistrements des mêmes patients dans le cadre de GINSENG, projet qui visait à mettre en place une infrastructure de grille informatique pour le partage de données médicales distribuées, il a été nécessaire d’inventorier, d’étudier et parfois d’adapter certaines des diverses méthodes couramment utilisées pour le chaînage d’enregistrements. Citons notamment les méthodes de comparaison approximative des champs d’enregistrement selon leurs épellations et leurs prononciations, les chaînages déterministe et probabiliste d’enregistrements, ainsi que leurs extensions. Ces méthodes comptent des avantages et des inconvénients qui sont ici clairement exposés.Dans la pratique, les champs à comparer étant souvent imparfaits du fait d’erreurs typographiques, notre intérêt porte particulièrement sur les méthodes probabilistes de chaînage d’enregistrements. L’implémentation de ces méthodes probabilistes proposées par Fellegi et Sunter (PRL-FS) et par Winkler (PRL-W) est précisément décrite, ainsi que leur évaluation et comparaison. La vérité des correspondances des enregistrements étant indispensable à l’évaluation de la validité des résultats de chaînages, des jeux de données synthétiques sont générés dans ce travail et des algorithmes paramétrables proposés et détaillés.Bien qu’à notre connaissance, le PRL-W soit une des méthodes les plus performantes en termes de validité de chaînages d’enregistrements en présence d’erreurs typographiques dans les champs contenant les traits d’identification, il présente cependant quelques caractéristiques perfectibles. Le PRL-W ne permet par exemple pas de traiter de façon satisfaisante le problème de données manquantes. Notons également qu’il s’agit d’une méthode dont l’implémentation n’est pas simple et dont les temps de réponse sont difficilement compatibles avec certains usages de routine. Certaines solutions ont été proposées et évaluées pour pallier ces difficultés, notamment plusieurs approches permettant d’améliorer l’efficacité du PRL-W en présence de données manquantes et d’autres destinées à optimiser les temps de calculs de cette méthode en veillant à ce que cette réduction du temps de traitement n’entache pas la validité des décisions de chaînage issues de cette méthode. / Record linkage is the task of identifying which records from different data sources refer to the same entities. Without the common identification key among different databases, this task could be performed by comparison of corresponding fields (containing the information for identification) in records to link. To do this, many record linkage methods have been proposed in the last decades.In order to ensure a valid and fast linkage of the same patients’ records for GINSENG, a research project which aimed to implement a grid computing infrastructure for sharing medical data, we first studied various commonly used methods for record linkage. These are the methods of approximate comparison of fields in record according to their spellings and pronunciations; the deterministic and probabilistic record linkages and their extensions. The advantages and disadvantages of these methods are clearly demonstrated.In practice, as fields to compare are sometimes subject to typographical errors, we focused on probabilistic record linkage. The implementation of these probabilistic methods proposed by Fellegi and Sunter (PRL-FS) and Winkler (PRL-W) is described in details, and also their evaluation and comparison. Synthetic data sets were used in this work for knowing the truth of matches to evaluate the linkage results. A configurable algorithm for generating synthetic data was therefore proposed.To our knowledge, the PRL-W is one of the most effective methods in terms of validity of linkages in the presence of typographical errors in the field. However, the PRL-W does not satisfactorily treat the missing data problem in the fields, and the implementation of PRL-W is complex and has a computational time that impairs its opportunity in routine use. Solutions are proposed here with the objective of improving the effectiveness of PRL-W in the presence of missing data in the fields. Other solutions are tested to simplify the PRL-W algorithm and both reduce computational time and keep and optimal linkage accuracy.Keywords:
9

Origine et transport des sédiments dans un bassin versant alpin englacé (Glacier des Bossons, France) : une quantification couplant mesures hydro-sédimentaires haute-résolution, suivi radio-fréquence de galets, teneur en nucléides cosmogéniques et méthodes probabilistes / Origin and transport of sediments in an alpine glaciated catchment (Bossons glacier, France) : a quantification combining hydro-sedimentary data, radio-frequency identification of pebbles, cosmogenic nuclides content and probabilistic methods

Guillon, Hervé 17 May 2016 (has links)
Agents érosifs parmi les plus efficaces, les glaciers réagissent dynamiquement aux variations climatiques et entraînent à l’aval des modifications importantes des flux de sédiments. Dans les Alpes, et dans le cadre du réchauffement climatique actuel, se pose la question de l’évolution de la charge sédimentaire provenant de bassins versants partiellement englacés. L’export détritique issu d’un tel environnement résulte de processus d’érosion affectant plusieurs domaines géomorphologiques : les parois supra glaciaires, le substratum couvert de glace et la zone pro glaciaire à l’aval du glacier. Aussi, l’intention de ce travail de recherche doctorale est de caractériser l’origine et le transport des sédiments dans les bassins versants de deux torrents issus du glacier des Bossons (massif du Mont-Blanc, France).Dans ce but, les composantes du flux de sédiment issu des domaines supra glaciaire, sous-glaciaire et proglaciaire sont séparées et quantifiées à partir de méthodes innovantes :i. L’utilisation de la concentration en nucléides cosmogéniques comme marqueur du trans-port à la surface du glacier ;ii. L’analyse combinée de données météorologiques et de mesures hydro-sédimentaire à haute résolution temporelle (2 min) complétées par des modèles linéaires multivariés ;iii. La mise en oeuvre d’une méthode probabiliste adjointe à une application à l’échelle pluri-annuelle de l’estimation des flux sédimentaires par source ;iv. Le traçage radio-fréquence de particules grossières dans la zone pro glaciaire associé à une analyse dans le cadre d’un modèle de transport stochastique.A travers des outils numériques, l’application des méthodologies présentées apporte une estimation des taux d’érosion des domaines supra glaciaire, sous-glaciaire et pro glaciaire, et contraint le transfert des sédiments dans le bassin versant.Ainsi, dans la partie terminale du glacier, 52±14 à 9±4% de la charge supra glaciaire est transférée vers le réseau de drainage sous-glaciaire. Par ailleurs, l’évolution de ce dernier au cours de la saison de fonte entraîne sur une courte période l’export de la production sédimentaire hivernale. De plus, la configuration du drainage sous le glacier et sa dynamique de retrait contrôlent la remobilisation d’un stock sédimentaire sous-glaciaire plus ancien. Ces processus expliquent le contraste entre les taux moyens d’érosion sous-glaciaire des deux torrents instrumentés, respectivement 0.63 ± 0.37 et 0.38 ± 0.22 mm/an . Ces valeurs sont inférieures à la création topographique tectonique, ∼1.5 mm/an , et du même ordre de grandeur que le taux moyen d’érosion des parois surplombants le glacier, évalué à 0.76 ± 0.34 mm/an.A l’aval du glacier, les versants ne sont pas efficacement connectés au torrent proglaciaire et le glacier reste la source principale de l’export sédimentaire. Ainsi, en l’absence d’événements extrêmes, l’apport du domaine pro glaciaire correspond à 13 ± 10% de l’export sédimentaire total du bassin versant. Par ailleurs, la zone proglaciaire agit comme un tampon sédimentaire fonctionnant d’une échelle quotidienne à annuelle pour les silts et les sables, et à une échelle décennale pour les particules plus grossières. Au total, malgré un retrait glaciaire récent et rapide, le bassin versant du glacier des Bossons présente actuellement une dynamique paraglaciaire limitée dont l’intensité correspond à un taux moyen d’érosion proglaciaire de 0.25±0.20 mm/an. Enfin, sur l’ensemble du bassin versant, la dynamique sédimentaire est multi-fréquentielle et amortie par des stockages intermédiaires. / Among the most efficient agents of erosion, glaciers react dynamically to climate change, leading to a significant adjustment of downstream sediment flux. Present-day global warming raises the question regarding the evolution of the sediment load originating from partially glaciated catchment. The detrital export from such environment results from erosion processes operating within distinct geomorphological domains : supraglacial rockwalls, ice-covered substratum and the proglacial area, downstream from the glacier. The general intent of this doctoral research is therefore to characterize the origin and transport of sediments in the watersheds of two streams draining Bossons glacier (Mont-Blanc massif, France).For this purpose, the components of the sediment flux coming from supraglacial, subglacial and proglacial domains are separated and quantified by innovating methods:i. Using the terrestrial cosmogenic nuclides concentrations as evidence of a supraglacialtransport;ii. Combining meteorological data and hydro-sedimentary data acquired at a high timeresolution (2 min) and completed by multi-linear models;iii. Estimating sediment flux by source for 7 years and with a probabilistic method;iv. Associating radio-frequency identification of pebbles in the proglacial area with a stochas-tic transport analysis.Through numerical tools, applying the presented methodologies provides erosion rates of thesupraglacial, subglacial and proglacial domains, and determines the sediment transfer mecha-nisms within the catchment.Thus in the terminal part of the glacier, 52±14 to 9±4% of the supraglacial load is transferred to the subglacial drainage network. Moreover, its evolution throughout the melt season leads to the export of the winter sediment production during a limited period. Furthermore, the drainage configuration beneath the glacier and its retreat control the remobilization of a long-term sediment stock. These processes explain the contrast between the mean subglacial erosion rates of the two monitored streams, 0.63 ± 0.37 et 0.38 ± 0.22 mm/yr, respectively. This values are lower than the tectonic uplift, ∼1.5 mm/an, and of the same order of magnitude than the mean erosion rate of supraglacial rockwalls, evaluated at 0.76 ± 0.34 mm/an.Downstream from the glacier, hillslopes are not efficiently connected to the proglacial stream and the glacier is the main source of the sediment export. Hence, without extreme events, the input from proglacial domain corresponds to 13 ± 10% of the total sediment export from the catchment. Besides, the proglacial area acts as a buffer functioning from the daily to the year scales for fine particles, and at a decennial scale for coarser particles. In total, despite the rapid recent retreat of the glacier, the Bossons catchment exhibits a limited paraglacialdynamic whose intensity corresponds to a mean proglacial erosion rate of 0.25±0.20 mm/an. Finally, at the catchment scale, the sediment dynamic is multi-frequential and buffered by storage and release mechanisms.
10

Analyse et étude des processus markoviens décisionnels / A study of Markov decision processes

Nivot, Christophe 19 May 2016 (has links)
Nous explorons l'étendue du champ applicatif des processus markoviens décisionnels au travers de deux problématiques. La première, de nature industrielle, propose l'étude numérique de l'optimisation d'un processus d'intégration lanceur en collaboration avec Airbus DS. Il s'agit d'un cas particulier des problèmes de gestion d'inventaire dans lequel un calendrier de tirs joue un rôle central. La modélisation adoptée entraîne l'impossibilité d'appliquer les procédures d'optimisation classiques liées au formalisme des processus markoviens décisionnels. Nous étudions alors des algorithmes basés sur des simulations qui rendent des stratégies optimales non triviales et qui sont utilisables dans la pratique. La deuxième problématique, de nature théorique, se concentre sur les questions d'arrêt optimal partiellement observables. Nous proposons une méthode d'approximation par quantification de ces problèmes lorsque les espaces d'états sont quelconques. Nous étudions la convergence de la valeur optimale approchée vers la valeur optimale réelle ainsi que sa vitesse. Nous appliquons notre méthode à un exemple numérique. / We investigate the potential of the Markov decision processes theory through two applications. The first part of this work is dedicated to the numerical study of an industriallauncher integration process in co-operation with Airbus DS. It is a particular case of inventory control problems where a launch calendar has a key role. The model we propose implies that standard optimization techniques cannot be used. We then investigate two simulation-based algorithms. They return non trivial optimal policies which can be applied in actual practice. The second part of this work deals with the study of partially observable optimal stopping problems. We propose an approximation method using optimal quantization for problems with general state space. We study the convergence of the approximated optimal value towards the real optimal value. The convergence rate is also under study. We apply our method to a numerical example.

Page generated in 0.2971 seconds