• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 57
  • 5
  • 1
  • Tagged with
  • 167
  • 64
  • 55
  • 44
  • 39
  • 38
  • 27
  • 26
  • 23
  • 20
  • 19
  • 17
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Sismo-stratigraphie multi-échelles d'un bassin d'avant-arc : Le bassin de Marie-Galante, Petites Antilles

De Min, Lyvane 02 December 2014 (has links)
L’arc des Petites Antilles résulte de la lente subduction vers l'Ouest des plaques Nord et Sud-Américaines sous la plaque Caraïbes (2cm/an). A la latitude de l’archipel guadeloupéen et à ~150 km à l’Ouest du front de déformation, le bassin d'avant-arc de Marie-Galante forme un bassin perché, incliné vers la fosse et limité vers l’Est par un haut-fond, l’Eperon Karukéra. À cette latitude, le bassin de Marie-Galante domine le prisme d’accrétion de la Barbade et fait face à la ride de Tiburon qui balaye la zone du Nord au Sud depuis la fin du Miocène supérieur. Le remplissage sédimentaire du Bassin de Marie-Galante montre des déformations actives au moins depuis ~30 millions d’années. L’objectif du travail est de reconstituer l’évolution tectono-sédimentaire de ce bassin pour apporter de nouvelles contraintes sur la compréhension globale de la zone de subduction frontale des Petites Antilles. Ce travail s'appuie sur les données de bathymétrie multifaisceaux et de sismique réflexion multi-traces haute résolution acquises lors des campagnes du programme KaShallow. Cette base de données, complétée de profils sismiques plus basse résolution de campagnes antérieures, permet d’avoir une couverture pseudo 3D et à quatre échelles de résolution de l'ensemble du bassin. Un échantillonnage par ROV et carottage ciblé a fourni 40 prélèvements dans les principales unités sismiques. Les analyses pétrologiques et les datations biostratigraphiques autorisent des reconstitutions paléo-environnementales depuis le Paléogène supérieur jusqu’à Actuel. L’interprétation sismique multi-échelle montre un bassin sédimentaire atteignant ~4,5s temps double (~4500 à 5625 m) sur un substratum magmatique pré-structuré. Ce bassin est composé de 5 grands ensembles sédimentaires (E-1, E1, E2, E3 et E4) subdivisés en 13 unités limitées par 14 surfaces de discontinuités. L’organisation séquentielle des unités sismiques permet de mettre en évidence 10 séquences de dépôts de troisièmes ordres (S-1 à S9). Le calage biostratigraphique de l’ensemble des séquences permet de proposer une évolution tectono-sédimentaire du bassin de l’Éocène à l’Actuel. Ainsi, nous distinguons quatre systèmes de failles normales associées à trois phases d’extensions qui contrôlent l’évolution architecturale et sédimentaire du bassin. 1/ Un système N050±10°E hérité, actif dès le Paléogène supérieur, qui contrôle le basculement général du bassin vers le SSE. Il est responsable de la formation de l'escarpement de Désirade d’environ 4500 m de dénivelé. Cette première extension est interprétée comme résultant de la fragmentation de l'avant-arc en réponse à l'augmentation du rayon de courbure de la zone de subduction. 2/ Un système N130°-N150°E, structurant à l’échelle de l’Éperon Karukéra, qui contrôle la sédimentation dès le Miocène inférieur et marque une première phase d'extension transverse à l’arc. 3/ Un système N160°-N180°E qui segmente le Bassin de Marie-Galante en un sous-bassin à l'Ouest et l'Éperon Karukéra à l'Est. Cette seconde extension, globalement perpendiculaire à la marge, s'accompagne d’une subsidence et d'une inversion de la polarité du bassin en réponse à son basculement vers la fosse qui débute au cours du Miocène moyen et se poursuit actuellement à l'Est du bassin. Cette évolution à long terme de l'avant-arc, concomitante avec le recul de l'arc volcanique vers l’Ouest, est considérée comme résultant d’une érosion basale de la plaque supérieure. 4/ Un système N090±10°E plus tardif est localisé au centre du bassin et qui contrôle le développement de plates-formes carbonatées néritiques sur certaines têtes de blocs, comme par exemple à Marie-Galante. Cette dernière extension, parallèle à l’arc, se manifeste dans le bassin à partir du Pliocène inférieur. Elle se superpose au régime d'extension perpendiculaire à l'avant-arc et est interprétée comme l'accommodation du partitionnement de la déformation en réponse à l’obliquité croissante du front subduction vers le Nord. / The Lesser Antilles result of the slow westward subduction of the North and South American plate under the Caribbean plate (2 cm / year). At the latitude of the Guadeloupe archipelago and ~ 150 km to the west of the deformation front, the fore-arc basin of Marie-Galante forms a perched basin tilted to the pit and limited to the East by a shoal, the Spur Karukéra. At this latitude, Marie-Galante basin dominates the accretionary prism of Barbados and faces wrinkle Tiburon sweeping the area from North to South from the late Miocene. The sedimentary fill Basin Marie-Galante shows active deformation since at least ~ 30 million years. The aim of the work is to reconstruct the tectono-sedimentary evolution of the basin to provide new constraints on the overall understanding of the frontal subduction zone Lesser Antilles. This work relies on multibeam bathymetry data and high-resolution seismic reflection multi-traces acquired during campaigns KaShallow program. This database, supplemented by lower resolution of previous campaigns seismic profiles, provides a pseudo-3D coverage and four scales of resolution of the entire basin. ROV sampling and targeted core provided 40 samples in the main seismic units. Petrological analysis and biostratigraphic dating allow paleoenvironmental reconstructions from the upper Paleogene up Actuel. Seismic interpretation multiscale shows a sedimentary basin reaching ~ 4,5s double (~ 4500-5625 m) on a substrate pre-structured magma. This basin consists of 5 main sedimentary units (E-1, E1, E2, E3 and E4) divided into 13 units bounded by discontinuities 14 surfaces. The sequential organization of seismic units allows to highlight sequences 10 deposits of third order (S-1 to S9). The biostratigraphic calibration of all sequences able to offer a tectono-sedimentary evolution of the Eocene basin to Present. Thus, we distinguish four normal fault systems associated with three phases of extensions that control the architectural and sedimentary evolution of the basin. 1 / A system N050 ± 10 ° E inherited assets from the upper Paleogene, which controls the overall pelvic tilt towards the SSE. He is responsible for the formation of the escarpment Désirade about 4500 m elevation. The first extension is interpreted as resulting from the fragmentation of the fore-arc in response to the increase in the radius of curvature of subduction. 2 / A system N130 ° -N150 ° E, structuring across the Spur Karukéra, which controls sediment from the Miocene and marks the first phase of transverse extension arc. 3 / A system N160 ° E ° -N180 which segments Basin Marie-Galante in a sub-basin to the west and the Spur Karukéra in the East. This second extension, generally perpendicular to the margin, is accompanied by subsidence and reversing the polarity of the basin in response to his switch to the pit, beginning during the Middle Miocene and is ongoing in the East the basin. This long-term evolution of the forearc, concurrent with the decline in volcanic arc to the west, is considered as resulting from a basal erosion of the top plate. 4 / A system N090 ± 10 ° later E is located in the center of the basin and controlling the development of neritic carbonate platforms on certain blocks heads, such as Marie-Galante. This latest extension, parallel to the arc occurs in the basin from the lower Pliocene. It is superimposed on the expansion plan perpendicular to the fore-arc and is interpreted as the accommodation of the partitioning of deformation in response to the increasing obliquity front subduction north.
102

Accumulation de l'uranium, de ses descendants et des éléments traces métalliques dans les sols des zones humides autour des anciennes mines d'uranium / Uranium decay daughters and trace elements from ancient uranium mines : sources and accumulation preferences

Cuvier, Alicia 06 November 2015 (has links)
L’exploitation minière de l’uranium et les processus de traitement du minerai sont à l’origine d’un marquage potentiel de l’environnement par les descendants des chaînes de désintégration U-Th et des éléments traces métalliques (ETM) associés. Ces contaminants s’accumulent ensuite préférentiellement dans des zones de sédimentation continentales (étangs ou lacs) ou des zones humides (tourbières, berges de rivière) situées à l’aval hydraulique des mines. Les zones humides en particulier sont des milieux sensibles aux changements globaux et à la pression anthropique, situés en général en tête de bassin versant. Cela pose donc un risque en cas relargage des contaminants depuis ces milieux. L’objectif de cette étude est de mettre en place une méthodologie aisément reproductible, y compris aux sites miniers orphelins, et permettant l’identification et la caractérisation des contaminations et la compréhension des mécanismes d’accumulation et des risques de relargage. Cette étude a été réalisée dans l’environnement de l’ancienne mine de Bertholène (Aveyron, 12, France). Les zones d’accumulations préférentielles ont été identifiées par spectrométrie gamma in situ mobile et fixe. Des échantillons de sols, sédiments, végétaux, eaux et tourbes ont été prélevés autour du site, afin (a) de caractériser l’activité des différents descendants des chaînes de l’U et du Th et les contaminations en ETM associées à différentes échelles d’observation, (b) de comprendre les mécanismes d’accumulation et de relargage potentiel et (c) de tracer les sources des contaminants. Les résultats obtenus montrent que l’essentiel de la contamination est localisée dans une zone inondable de l’environnement proximal aval de la mine. Les activités en uranium élevées (U-238 > 20000 Bq.kg-1) et le fort enrichissement des radionucléides du début de chaîne par rapport à la fin de chaîne de l’U-238 traduisent un apport préférentiel d’U-238 et de Th-230, par rapport au Ra-226, lors d’inondations. Les contaminations en ETM associées sont relativement faibles, excepté en Mn, en Ba et en S. Les accumulations en radionucléides et en ETM sont expliquées à la fois par les caractéristiques géochimiques du minerai d’uranium et par les processus de traitement du minerai et des eaux d’exhaure. Les lessivages chimiques réalisés révèlent que les fractions acido-solubles et oxydes amorphes des sols constituent des pièges prépondérants des contaminants et que des variations du pH ou du potentiel d’oxydoréduction pourraient générer des relargages important d’uranium et de radium dans l’environnement. Finalement les déséquilibres radiologiques et les isotopes du plomb sont des traceurs fiables de la contamination associée à l’exploitation d’une mine d’uranium. / Uranium mining and uranium ore processing increase the environmental activity of U and Th decay products and trace elements, in particular in case of releases to the adjacent rivers. Contaminants accumulate then preferentially in sedimentation areas (such as ponds or lakes) or in wetlands (peatlands, marshes or riverbanks) located downstream to the mine. Wetlands – generally located at the head of watershed – are particularly sensitive to environmental changes and anthropogenic pressure. This poses a risk of release of contaminants from these accumulation areas. The objective of the present study is to propose an easily reproducible methodology – in particular for the orphan mining sites – to identify and characterize accumulation areas. This study also aims to improve our understanding of the mechanisms of accumulation and release, in these areas. This study was performed around the former mining site of Bertholène (France). Standing and mobile in situ gamma spectrometry is used to accurately locate the accumulation areas. Soils, sediments, vegetation, water and peat are also sampled upstream and downstream of the mine, in order to (a) characterize the activities and the disequilibria of the U-Th decay chains and the associated trace elements according to the scale of observation, (b) understand the mechanisms of accumulation and release and (c) identify the potential sources using geochemical proxies and isotopic analyses. The results obtained show that radionuclides are mainly accumulated in a flooding area located downstream the mine. Strong U-238 activities (> 20000 Bq.kg-1) and strong Ra-226/U-238 and Th-230/Ra-226 activity ratios are recorded, involving preferential inputs of U-238 and Th-230 during flooding events. Trace element contamination is low, except for Mn, Ba and S. Such contaminations are potentially explained by the geochemical composition of the uranium ore and by the past and current processes of ore and water mine. Sequential extractions highlight the importance of the acido-soluble and the amorphous oxides in the trapping of contaminants. Thus, pH or Eh potential changes could induce major releases of uranium to the environment. The large differences in Pb isotope composition between natural soils and uranium ores, as well the activity ratios of the U-238 and decay chain products, make these indicators helpful to identify the soils and the sediments impacted by uranium mining.
103

Étude des déterminants de la puissance statistique en spectrométrie de masse / Statistical power determinants in mass-spectrometry

Jouve, Thomas 03 December 2009 (has links)
La spectrométrie de masse fait partie des technologies haut débit et offre à ce titre un regard inédit, à une échelle nouvelle, sur les protéines contenues dans divers échantillons biologiques. Les études biomédicales utilisant cette technologie sont de plus en plus nombreuses et visent à détecter de nouveaux biomarqueurs de différents processus biologiques, notamment de processus pathologiques à l'origine de cancers. Cette utilisation comme outil de criblage pose des questions quant à la capacité même des expériences de spectrométrie de masse dans cette détection. La puissance statistique traduit cette capacité et rappelle que les études doivent être calibrées pour offrir des garanties suffisantes de succès. Toutefois, cette exploration de la puissance statistique en spectrométrie de masse n'a pas encore été réalisée. L'objet de cette thèse est précisément l'étude des déterminants de la puissance pour la détection de biomarqueurs en spectrométrie de masse. Une revue de la littérature a été réalisée, reprenant l'ensemble des étapes nécessaires du traitement du signal, afin de bien comprendre les techniques utilisées. Les méthodes statistiques disponibles pour l'analyse du signal ainsi traité sont revues et mises en perspective. Les situations de tests multiples, qui émergent notamment de ces données de spectrométrie de masse, suggèrent une redéfinition de la puissance, détaillée par la suite. La puissance statistique dépend du plan d'expérience. La taille d'échantillon, la répartition entre groupes étudiés et l'effet différentiel ont été investigués, par l'intermédiaire de simulations d'expériences de spectrométrie de masse. On retrouve ainsi les résultats classiques de la puissance, faisant notamment ressortir le besoin crucial d'augmenter la tailles des études pour détecter des biomarqueurs, particulièrement lorsque ceux-ci présentent un faible effet différentiel. Au delà de ces déterminants classiques de la puissance, des déterminants propres à la spectrométrie de masse apparaissent. Une chute importante de puissance est mise en évidence, due à l'erreur de mesure des technologies de spectrométrie de masse. Une synergie péjorative existe de plus entre erreur de mesure et procédure de contrôle du risque de première espèce de type FDR. D'autre part, les méthodes de détection des pics, par leurs imperfections (faux pics et pics manqués), induisent un contrôle suboptimal de ce risque de première espèce, conduisant à une autre chute de puissance. Ce travail de thèse met ainsi en évidence trois niveaux d'intervention possibles pour améliorer la puissance des études : la meilleure calibration des plans d'expérience, la minimisation de l'erreur de mesure et l'amélioration des algorithmes de prétraitement. La technologie même de spectrométrie de masse ne pourra conduire de façon fiable à la détection de nouveaux biomarqueurs qu'au prix d'un travail à ces trois niveaux. / Mass-spectrometry (MS) belongs to the high-throughput technologies and therefore offers an originalperspective on proteins contained in various biological samples, at a new scale. Biomedicalstudies using this technology are increasingly frequent. They aim at detecting new biomarkersof different biological processes, especially pathological processes leading to cancer. This use asa screening tool asks questions regarding the very detection effectiveness of MS experiments.Statistical power is the direct translation of this effectiveness and reminds us that calibratedstudies are required to offer sufficient guarantees of success. However, this exploration of statisticalpower in mass-spectrometry has not been performed yet. The theme of this work is preciselythe study of power determinants for the detection of biomarkers in MS studies.A literature review was performed, summarizing all necessary pretreatment steps of thesignal analysis, in order to understand the utilized techniques. Available statistical methods forthe analysis of this pretreated signal are also reviewed and put into perspective. Multiple testingsettings arising from MS data suggest a power redefinition. This power redefinition is detailed.Statistical power depends on the study design. Sample sizes, group repartition and the differentialeffect were investigated through MS experiment simulations. Classical results of statisticalpower are acknowledged, with an emphasis on the crucial need to increase sample sizes forbiomarker detection, especially when these markers show low differential effects.Beyond these classical power determinants, mass-spectrometry specific determinants appear.An important power drop is experienced when taking into account the high measurement variabilityencountered in mass-spectrometry. A detrimental synergy exists between measurementvariability and type 1 error control procedures (e.g. FDR). Furtheremore, the imperfections ofpeak detection methods (false and missed peaks) induce a sub-optimal control of this type 1error, leading to another power drop.This work shows three possible intervention levels if we want to improve power in MS studies: a better study design, measurement variability minimisation and pretreatment algorithmsimprovements. Only a work at these three levels can guarantee reliable biomarker detections inthese studies.
104

Modèles bayésiens d'inférence séquentielle chez l'humain / Bayesian models of human online inference

Prat-Carrabin, Arthur 28 November 2017 (has links)
Le paradigme bayésien s'est imposé comme une interprétation mathématique élégante du comportement humain dans des tâches d'inférence. Pourtant, il ne rend pas compte de la présence de sous-optimalité, de variabilité, et de biais systématiques chez les humains. De plus, le cerveau doit mettre à jour ses représentations du monde extérieur, au fil des informations qui lui parviennent, dans des environnements naturels qui changent au cours du temps, et présentent une structure temporelle. Nous étudions la question de l'inférence séquentielle à l'aide d'une expérience, dont les résultats montrent que les humains tirent parti, dans leur inférence, de la structure temporelle des signaux; et que la variabilité des réponses est elle-même fonction du processus d'inférence. Nous étudions 27 modèles sous-optimaux capturant des limitations cognitives à l'optimalité. La variabilité des réponses est reproduite par des modèles qui font une approximation, par échantillonnage durant l'inférence, du posterior, et par des modèles qui, dans leur réponse, échantillonnent le posterior, plutôt que de le maximiser. Les données expérimentales soutiennent plus fortement la première hypothèse, suggérant que le cerveau utilise quelques échantillons pour représenter, par approximation, le posterior bayésien. Enfin, nous étudions les "effets séquentiels", biais qui consistent à former des attentes erronées à propos d'un signal aléatoire. Nous supposons que les sujets infèrent les statistiques du signal, mais cette inférence est sujette à un coût cognitif, menant à des comportements non-triviaux. Considérés dans leur ensemble, nos résultats montrent, dans le cas naturel de l'inférence séquentielle, que des déviations du modèle bayésien optimal permettent de rendre compte de manière satisfaisante de la sous-optimalité, de la variabilité, et des biais systématiques constatés chez l'humain. / In past decades, the Bayesian paradigm has gained traction as an elegant and mathematically principled account of human behavior in inference tasks. Yet this success is tainted by the sub-optimality, variability, and systematic biases in human behavior. Besides, the brain must sequentially update its belief as new information is received, in natural environments that, usually, change over time and present a temporal structure. We investigate, with a task, the question of human online inference. Our data show that humans can make use of subtle aspects of temporal statistics in online inference; and that the magnitude of the variability found in responses itself depends on the inference. We investigate how a broad family of models, capturing deviations from optimality based on cognitive limitations, can account for human behavior. The variability in responses is reproduced by models approximating the posterior through random sampling during inference, and by models that select responses by sampling the posterior instead of maximizing it. Model fitting supports the former scenario and suggests that the brain approximates the Bayesian posterior using a small number of random samples. In a last part of our work, we turn to "sequential effects", biases in which human subjects form erroneous expectations about a random signal. We assume that subjects are inferring the statistics of the signal, but this inference is hindered by a cognitive cost, leading to non-trivial behaviors. Taken together, our results demonstrate, in the ecological case of online inference, how deviations from the Bayesian model, based on cognitive limitations, can account for sub-optimality, variability, and biases in human behavior.
105

Semi-parametric bayesian model, applications in dose finding studies / Modèle bayésien semi-paramétrique, applications en positionnement de dose

Clertant, Matthieu 22 June 2016 (has links)
Les Phases I sont un domaine des essais cliniques dans lequel les statisticiens ont encore beaucoup à apporter. Depuis trente ans, ce secteur bénéficie d'un intérêt croissant et de nombreuses méthodes ont été proposées pour gérer l'allocation séquentielle des doses aux patients intégrés à l'étude. Durant cette Phase, il s'agit d'évaluer la toxicité, et s'adressant à des patients gravement atteints, il s'agit de maximiser les effets curatifs du traitement dont les retours toxiques sont une conséquence. Parmi une gamme de doses, on cherche à déterminer celle dont la probabilité de toxicité est la plus proche d'un seuil souhaité et fixé par les praticiens cliniques. Cette dose est appelée la MTD (maximum tolerated dose). La situation canonique dans laquelle sont introduites la plupart des méthodes consiste en une gamme de doses finie et ordonnée par probabilité de toxicité croissante. Dans cette thèse, on introduit une modélisation très générale du problème, la SPM (semi-parametric methods), qui recouvre une large classe de méthodes. Cela permet d'aborder des questions transversales aux Phases I. Quels sont les différents comportements asymptotiques souhaitables? La MTD peut-elle être localisée? Comment et dans quelles circonstances? Différentes paramétrisations de la SPM sont proposées et testées par simulations. Les performances obtenues sont comparables, voir supérieures à celles des méthodes les plus éprouvées. Les résultats théoriques sont étendus au cas spécifique de l'ordre partiel. La modélisation de la SPM repose sur un traitement hiérarchique inférentiel de modèles satisfaisant des contraintes linéaires de paramètres inconnus. Les aspects théoriques de cette structure sont décrits dans le cas de lois à supports discrets. Dans cette circonstance, de vastes ensembles de lois peuvent aisément être considérés, cela permettant d'éviter les cas de mauvaises spécifications. / Phase I clinical trials is an area in which statisticians have much to contribute. For over 30 years, this field has benefited from increasing interest on the part of statisticians and clinicians alike and several methods have been proposed to manage the sequential inclusion of patients to a study. The main purpose is to evaluate the occurrence of dose limiting toxicities for a selected group of patients with, typically, life threatening disease. The goal is to maximize the potential for therapeutic success in a situation where toxic side effects are inevitable and increase with increasing dose. From a range of given doses, we aim to determine the dose with a rate of toxicity as close as possible to some threshold chosen by the investigators. This dose is called the MTD (maximum tolerated dose). The standard situation is where we have a finite range of doses ordered with respect to the probability of toxicity at each dose. In this thesis we introduce a very general approach to modeling the problem - SPM (semi-parametric methods) - and these include a large class of methods. The viewpoint of SPM allows us to see things in, arguably, more relevant terms and to provide answers to questions such as asymptotic behavior. What kind of behavior should we be aiming for? For instance, can we consistently estimate the MTD? How, and under which conditions? Different parametrizations of SPM are considered and studied theoretically and via simulations. The obtained performances are comparable, and often better, to those of currently established methods. We extend the findings to the case of partial ordering in which more than one drug is under study and we do not necessarily know how all drug pairs are ordered. The SPM model structure leans on a hierarchical set-up whereby certain parameters are linearly constrained. The theoretical aspects of this structure are outlined for the case of distributions with discrete support. In this setting the great majority of laws can be easily considered and this enables us to avoid over restrictive specifications than can results in poor behavior.
106

Prévision d’ensemble par agrégation séquentielle appliquée à la prévision de production d’énergie photovoltaïque / Ensemble forecasting using sequential aggregation for photovoltaic power applications

Thorey, Jean 20 September 2017 (has links)
Notre principal objectif est d'améliorer la qualité des prévisions de production d'énergie photovoltaïque (PV). Ces prévisions sont imparfaites à cause des incertitudes météorologiques et de l'imprécision des modèles statistiques convertissant les prévisions météorologiques en prévisions de production d'énergie. Grâce à une ou plusieurs prévisions météorologiques, nous générons de multiples prévisions de production PV et nous construisons une combinaison linéaire de ces prévisions de production. La minimisation du Continuous Ranked Probability Score (CRPS) permet de calibrer statistiquement la combinaison de ces prévisions, et délivre une prévision probabiliste sous la forme d'une fonction de répartition empirique pondérée.Dans ce contexte, nous proposons une étude du biais du CRPS et une étude des propriétés des scores propres pouvant se décomposer en somme de scores pondérés par seuil ou en somme de scores pondérés par quantile. Des techniques d'apprentissage séquentiel sont mises en oeuvre pour réaliser cette minimisation. Ces techniques fournissent des garanties théoriques de robustesse en termes de qualité de prévision, sous des hypothèses minimes. Ces méthodes sont appliquées à la prévision d'ensoleillement et à la prévision de production PV, fondée sur des prévisions météorologiques à haute résolution et sur des ensembles de prévisions classiques. / Our main objective is to improve the quality of photovoltaic power forecasts deriving from weather forecasts. Such forecasts are imperfect due to meteorological uncertainties and statistical modeling inaccuracies in the conversion of weather forecasts to power forecasts. First we gather several weather forecasts, secondly we generate multiple photovoltaic power forecasts, and finally we build linear combinations of the power forecasts. The minimization of the Continuous Ranked Probability Score (CRPS) allows to statistically calibrate the combination of these forecasts, and provides probabilistic forecasts under the form of a weighted empirical distribution function. We investigate the CRPS bias in this context and several properties of scoring rules which can be seen as a sum of quantile-weighted losses or a sum of threshold-weighted losses. The minimization procedure is achieved with online learning techniques. Such techniques come with theoretical guarantees of robustness on the predictive power of the combination of the forecasts. Essentially no assumptions are needed for the theoretical guarantees to hold. The proposed methods are applied to the forecast of solar radiation using satellite data, and the forecast of photovoltaic power based on high-resolution weather forecasts and standard ensembles of forecasts.
107

Opérateurs de typage non-idempotents, au delà du lambda-calcul / Non-idempotent typing operators, beyond the lambda-calculus

Vial, Pierre 07 December 2017 (has links)
L'objet de cette thèse est l'extension des méthodes de la théorie des types intersections non-idempotents, introduite par Gardner et de Carvalho, à des cadres dépassant le lambda-calcul stricto sensu.- Nous proposons d'abord une caractérisation de la normalisation de tête et de la normalisation forte du lambda-mu calcul (déduction naturelle classique) en introduisant des types unions non-idempotents. Comme dans le cas intuitionniste, la non-idempotence nous permet d'extraire du typage des informations quantitatives ainsi que des preuves de terminaison beaucoup plus élémentaires que dans le cas idempotent. Ces résultats nous conduisent à définir une variante à petits pas du lambda-mu-calcul, dans lequel la normalisation forte est aussi caractérisée avec des méthodes quantitatives. - Dans un deuxième temps, nous étendons la caractérisation de la normalisation faible dans le lambda-calcul pur à un lambda-calcul infinitaire étroitement lié aux arbres de Böhm et dû à Klop et al. Ceci donne une réponse positive à une question connue comme le problème de Klop. À cette fin, il est nécessaire d'introduire conjointement un système (système S) de types infinis utilisant une intersection que nous qualifions de séquentielle, et un critère de validité servant à se débarrasser des preuves dégénérées auxquelles les grammaires coinductives de types donnent naissance. Ceci nous permet aussi de donner une solution au problème n°20 de TLCA (caractérisation par les types des permutations héréditaires). Il est à noter que ces deux problèmes n'ont pas de solution dans le cas fini (Tatsuta, 2007).- Enfin, nous étudions le pouvoir expressif des grammaires coinductives de types, en dehors de tout critère de validité. Nous devons encore recourir au système S et nous montrons que tout terme est typable de façon non triviale avec des types infinis et que l'on peut extraire de ces typages des informations sémantiques comme l'ordre (arité) de n'importe quel lambda-terme. Ceci nous amène à introduire une méthode permettant de typer des termes totalement non-productifs, dits termes muets, inspirée de la logique du premier ordre. Ce résultat prouve que, dans l'extension coinductive du modèle relationnel, tout terme a une interprétation non vide. En utilisant une méthode similaire, nous montrons aussi que le système S collapse surjectivement sur l'ensemble des points de ce modèle. / In this dissertation, we extend the methods of non-idempotent intersection type theory, pioneered by Gardner and de Carvalho, to some calculi beyond the lambda-calculus.- We first present a characterization of head and strong normalization in the lambda-mu calculus (classical natural deduction) by introducing non-idempotent union types. As in the intuitionistic case, non-idempotency allows us to extract quantitative information from the typing derivations and we obtain proofs of termination that are far more elementary than those in the idempotent case. These results leads us to define a small-step variant of the lambda-mu calculus, in which strong normalization is also characterized by means of quantitative methods.- In the second part of the dissertation, we extend the characterization of weak normalization in the pure lambda-calculus to an infinitary lambda-calculus narrowly related to Böhm trees, which was introduced by Klop et al. This gives a positive answer to a question known as Klop's problem. In that purpose, it is necessary to simultaneously introduce a system (system S) featuring infinite types and resorting to an intersection operator that we call sequential, and a validity criterion in order to discard unsound proofs that coinductive grammars give rise to. This also allows us to give a solution to TLCA problem #20 (type-theoretic characterization of hereditary permutations). It is to be noted that those two problem do not have a solution in the finite case (Tatsuta, 2007).- Finally, we study the expressive power of coinductive type grammars, without any validity criterion. We must once more resort to system S and we show that every term is typable in a non-trivial way with infinite types and that one can extract semantical information from those typings e.g. the order (arity) of any lambda-term. This leads us to introduce a method that allows typing totally unproductive terms (the so-called mute terms), which is inspired from first order logic. This result establishes that, in the coinductive extension of the relational model, every term has a non-empty interpretation. Using a similar method, we also prove that system S surjectively collapses on the set of points of this model
108

Statistical Post-processing of Deterministic and Ensemble Wind Speed Forecasts on a Grid / Post-traitements statistiques de prévisions de vent déterministes et d'ensemble sur une grille

Zamo, Michaël 15 December 2016 (has links)
Les erreurs des modèles de prévision numérique du temps (PNT) peuvent être réduites par des méthodes de post-traitement (dites d'adaptation statistique ou AS) construisant une relation statistique entre les observations et les prévisions. L'objectif de cette thèse est de construire des AS de prévisions de vent pour la France sur la grille de plusieurs modèles de PNT, pour les applications opérationnelles de Météo-France en traitant deux problèmes principaux. Construire des AS sur la grille de modèles de PNT, soit plusieurs milliers de points de grille sur la France, demande de développer des méthodes rapides pour un traitement en conditions opérationnelles. Deuxièmement, les modifications fréquentes des modèles de PNT nécessitent de mettre à jour les AS, mais l'apprentissage des AS requiert un modèle de PNT inchangé sur plusieurs années, ce qui n'est pas possible dans la majorité des cas.Une nouvelle analyse du vent moyen à 10 m a été construite sur la grille du modèle local de haute résolution (2,5 km) de Météo-France, AROME. Cette analyse se compose de deux termes: une spline fonction de la prévision la plus récente d'AROME plus une correction par une spline fonction des coordonnées du point considéré. La nouvelle analyse obtient de meilleurs scores que l'analyse existante, et présente des structures spatio-temporelles réalistes. Cette nouvelle analyse, disponible au pas horaire sur 4 ans, sert ensuite d'observation en points de grille pour construire des AS.Des AS de vent sur la France ont été construites pour ARPEGE, le modèle global de Météo-France. Un banc d'essai comparatif désigne les forêts aléatoires comme meilleure méthode. Cette AS requiert un long temps de chargement en mémoire de l'information nécessaire pour effectuer une prévision. Ce temps de chargement est divisé par 10 en entraînant les AS sur des points de grille contigü et en les élaguant au maximum. Cette optimisation ne déteriore pas les performances de prévision. Cette approche d'AS par blocs est en cours de mise en opérationnel.Une étude préalable de l'estimation du « continuous ranked probability score » (CRPS) conduit à des recommandations pour son estimation et généralise des résultats théoriques existants. Ensuite, 6 AS de 4 modèles d'ensemble de PNT de la base TIGGE sont combinées avec les modèles bruts selon plusieurs méthodes statistiques. La meilleure combinaison s'appuie sur la théorie de la prévision avec avis d'experts, qui assure de bonnes performances par rapport à une prévision de référence. Elle ajuste rapidement les poids de la combinaison, un avantage lors du changement de performance des prévisions combinées. Cette étude a soulevé des contradictions entre deux critères de choix de la meilleure méthode de combinaison : la minimisation du CRPS et la platitude des histogrammes de rang selon les tests de Jolliffe-Primo. Il est proposé de choisir un modèle en imposant d'abord la platitude des histogrammes des rangs. / Errors of numerical weather prediction (NWP) models can be reduced thanks to post-processing methods (model output statistics, MOS) that build a statistical relationship between the observations and associated forecasts. The objective of the present thesis is to build MOS for windspeed forecasts over France on the grid of several NWP models, to be applied on operations at Météo-France, while addressing the two main issues. First, building MOS on the grid of some NWP model, with thousands of grid points over France, requires to develop methods fast enough for operational delays. Second, requent updates of NWP models require updating MOS, but training MOS requires an NWP model unchanged for years, which is usually not possible.A new windspeed analysis for the 10 m windspeed has been built over the grid of Météo-France's local area, high resolution (2,5km) NWP model, AROME. The new analysis is the sum of two terms: a spline with AROME most recent forecast as input plus a correction with a spline with the location coordinates as input. The new analysis outperforms the existing analysis, while displaying realistic spatio-temporal patterns. This new analysis, now available at an hourly rate over 4, is used as a gridded observation to build MOS in the remaining of this thesis.MOS for windspeed over France have been built for ARPEGE, Météo-France's global NWP model. A test-bed designs random forests as the most efficient MOS. The loading times is reduced by a factor 10 by training random forests over block of nearby grid points and pruning them as much as possible. This time optimisation goes without reducing the forecast performances. This block MOS approach is currently being made operational.A preliminary study about the estimation of the continuous ranked probability score (CRPS) leads to recommendations to efficiently estimate it and to generalizations of existing theoretical results. Then 4 ensemble NWP models from the TIGGE database are post-processed with 6 methods and combined with the corresponding raw ensembles thanks to several statistical methods. The best combination method is based on the theory of prediction with expert advice, which ensures good forecast performances relatively to some reference forecast. This method quickly adapts its combination weighs, which constitutes an asset in case of performances changes of the combined forecasts. This part of the work highlighted contradictions between two criteria to select the best combination methods: the minimization of the CRPS and the flatness of the rank histogram according to the Jolliffe-Primo tests. It is proposed to choose a model by first imposing the flatness of the rank histogram.
109

Sequential stopping under different environments of weak information

Dendievel, Rémi 10 November 2016 (has links) (PDF)
Notre thèse s’articule autour du thème de l’utilisation optimale de l’information contenue dans un modèle probabiliste flexible. Dans le premier chapitre, nous couvrons des résultats bien connus des martingales comme le théorème de convergence dit L1 des martingales et le théorème d’arrêt. Nous discutons de problèmes ouverts similaires au «last arrival problem» (Bruss et Yor, 2012) qui sont des vrais défis du point de vue théorique et nous ne pouvons que conjecturer la stratégie optimale.Dans les chapitres suivants, nous résolvons des extensions de problèmes d’arrêt optimal proposés par R. R. Weber (U. Cambridge), basés sur le «théorème des odds» (Bruss, 2000). En résumé, il s’agit d’effectuer une seule action (un seul arrêt) lorsque deux suites d’observations indépendantes sont observées simultanément. Nous donnons la solution à ces problèmes pour un nombre (fixé) choisi de processus.Le chapitre suivant passe en revue la plupart des développements récents (depuis 2000) réalisés autour du «théorème des odds» (Bruss, 2000). Le matériel présenté fut publié (2013), il a donc été mis à jour dans cette thèse pour inclure les derniers résultats depuis cette date.Puis nous réservons un chapitre pour une solution explicite pour un cas particulier du Problème d’arrêt optimal de Robbins. Ce chapitre est basé sur un article publié par l’auteur en collaboration avec le professeur Swan (Université de Liège). Ce chapitre offre une belle illustration des difficultés rencontrées lorsque trop d’information sur les variables est contenue dans le modèle. La solution optimale de ce problème dans le cas général n’est pas connue. Par contre, contre-intuitivement, dans le «last arrival problem» mentionné plus haut, moins d’information permet, comme nous le montrons, de trouver en effet la solution optimale.La thèse contient un dernier chapitre sur un problème de nature plus combinatoire que nous pouvons lier à la théorie des graphes dans une certaine mesure. Nous étudions le processus de création d’un graphe aléatoire particulier et les propriétés des cycles créés par celui-ci. Le problème est séquentiel et permet d’envisager des problèmes d’arrêt intéressants. Cette étude a des conséquences en théorie des graphes, en analyse combinatoire ainsi qu’en science de la chimie combinatoire pour les applications. Un de nos résultats est analogue au résultat de Janson (1987) relatif au premier cycle créé pendant la création de graphes aléatoires. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
110

Oracle-based algorithms for optimizing sophisticated decision criteria in sequential, robust and fair decision problems / Algorithmes à base d'oracles pour optimiser des critères décisionnels sophistiqués pour les problèmes de décision séquentielle, robuste et équitable

Gilbert, Hugo 11 December 2017 (has links)
Cette thèse s'inscrit dans le cadre de la théorie de la décision algorithmique, qui est une discipline au croisement de la théorie de la décision, la recherche opérationnelle et l'intelligence artificielle. Dans cette thèse, nous étudions l'utilisation de plusieurs modèles décisionnels pour résoudre des problèmes de décision séquentielle dans l'incertain, d'optimisation robuste, et d'optimisation multi-agents équitable. Pour résoudre efficacement ces problèmes, nous utilisons des méthodes de type maître-esclaves, dites à base d'oracles dans la thèse. Ces méthodes permettent de résoudre des problèmes de grande taille en procédant de manière incrémentale. Une attention particulière est portée au modèle de l'espérance d'utilité antisymétrique et bilinéaire, au modèle de l'espérance d'utilité pondérée et à leurs pendants en décision multicritère. L'intérêt de ces modèles est multiple. En effet, ils étendent les modèles standards (e.g., modèle de l'espérance d'utilité) et permettent de représenter un spectre étendu de préférences tout en conservant leurs bonnes propriétés théoriques et algorithmiques. La thèse apporte des réponses sur des aspects théoriques (e.g., résultats de complexité algorithmique) et sur des aspects opérationnels (e.g., conception de méthodes de résolution efficaces) aux problèmes soulevés par l'emploi de ces critères dans les contextes susmentionnés. / This thesis falls within the area of algorithmic decision theory, which is at the crossroads between decision theory, operational research and artificial intelligence. In this thesis, we study several decision models to solve problems in different domains: sequential decision problems under risk, robust optimization problems, and fair multi-agent optimization problems. To solve these problems efficiently, we use master-slave algorithms which solve the problem through an incremental process. These procedures, referred to as oracle methods in the thesis, make it possible to solve problems of large size. A particular attention is given to the skew-symmetric bilinear utility model, the weighted expected utility model and their counterparts in multicriteria decision making. These models are interesting at several respects. They extend the standard models (e.g., the expected utility model) and allow to represent a broader class of preferences while retaining their good theoretical and algorithmic properties. The thesis focuses both on theoretic (e.g., complexity results) and operational (e.g., design of practically efficient solution methods) aspects of the problems raised by the use of these criteria in the domains aforementioned.

Page generated in 0.3138 seconds