• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 4
  • Tagged with
  • 18
  • 18
  • 11
  • 11
  • 7
  • 7
  • 6
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Non-unique stage-discharge relations : Bayesian analysis of complex rating curves and their uncertainties / Relations hauteur-débit non univoques : analyse bayésienne des courbes de tarage complexes et de leurs incertitudes

Mansanarez, Valentin 02 November 2016 (has links)
Les courbes de tarage complexes, qui prennent en entrée la hauteur d'eau et des variables supplémentaires, sont nécessaires pour établir les chroniques de débit des cours d'eau là où la relation hauteur-débit n'est pas univoque. Dans le même cadre bayésien, des méthodes à base hydraulique sont proposées et testées pour construire les courbes de tarage complexes et estimer leurs incertitudes : des modèles hauteur-gradient-débit (SGD) pour résoudre l'hystérésis due aux écoulements transitoires, des modèles hauteur-dénivelée-pente (SFD) pour résoudre le remous variable aux stations à double échelle, le modèle hauteur-période-débit (SPD) pour résoudre les détarages nets dus aux évolutions du lit. Chaque modèle a été appliqué à des stations hydrométriques variées et évalué grâce à des analyses de sensibilité. Pour chacune des trois sources de non-univocité de la relation hauteur-débit, les méthodes bayésiennes proposées fournissent non seulement une analyse d'incertitude quantitative mais aussi des solutions efficaces à des problèmes récurrents que posent les procédures traditionnelles pour les courbes de tarage complexes. / Complex rating curves, with stage and additional variables as inputs are necessary to establish streamflow records at sites where the stage-discharge relation is non-unique. Within the same Bayesian framework, hydraulically-based methods are introduced and tested to develop complex rating curves and estimate their uncertainties: stage-gradient-discharge (SGD) models to address hysteresis due to transient flow, stage-fall-discharge (SFD) models to address variable backwater at twin gauge stations, stage-period-discharge (SPD) model to address net rating changes due to bed evolution. Each model was applied to contrasting hydrometric stations and evaluated through sensitivity analyses. For each of the three sources of non-uniqueness in the stage-discharge relation, the proposed Bayesian methods provide not only quantitative uncertainty analysis but also efficient solutions to recurrent problems with the traditional procedures for complex ratings.
2

Comportement asymptotique de la distribution des pluies extrêmes en France

Muller, Aurélie 24 November 2006 (has links) (PDF)
Le comportement des valeurs extrêmes de pluie en France a été analysé au travers de variables locales telles que les maxima annuels ou saisonniers de pluies mesurées sur différents pas de temps entre l'heure et la journée, les valeurs supérieures à un seuil élevé, ou la série temporelle de succession d'averses. Différents modèles, issus de la théorie des valeurs extrêmes uni-variée et bi-variée ou de générateurs stochastiques de pluie, ont été présentés pour étudier le comportement asymptotique de ces variables aléatoires. Dans le cas des séries temporelles d'averses, la persistance dans le temps des valeurs fortes a été modélisée à l'aide d'un processus Markovien. Les incertitudes associées aux différents modèles ont également été analysées, avec des méthodes bayésiennes ou fréquentielles. Nous avons pu valider nos modèles avec de longues séries de mesures pluviométriques, avec des chroniques de pluies horaires et avec des chroniques d'événements pluvieux décrits par des averses fournis par Météo-France et le Cemagref. Dans de nombreux cas, nous avons en particulier noté que la distribution des extrêmes est non bornée, et de queue plus lourde qu'une loi Gumbel ou exponentielle.
3

Évaluation de la variabilité interindividuelle de la toxicocinétique de composés organiques volatils chez l'humain

Peyret, Thomas January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
4

Traitement et analyse de séries chronologiques continues de turbidité pour la formulation et le test de modèles des rejets urbains par temps de pluie

Métadier, Marjolaine 14 February 2011 (has links) (PDF)
Des approches parcimonieuses sont aujourd'hui développées pour la modélisation de la qualité des rejets urbains par temps de pluie, e adéquation avec la quantité de données disponibles. De plus, l'analyse des incertitudes apparaît comme un outil incontournable pour le test des modèles. Parallèlement, le développement des techniques de mesure en continu en réseau, spectrométrie et turbidité, permet l'obtention de données continues de flux de matières en suspension et de demande chimique en oxygène en grand nombre, apportant une information riche. Ce travail constitue une des premières études en hydrologie urbaine basée sur l'exploitation d'une grande base de données acquises par la mesure de la turbidité. Des mesures sur la période 2004-2008 ont été exploitées sur deux sites. Après traitement et validation, 263 et 239 événements pluvieux ont été retenus. L'analyse des données a permis la formulation d'hypothèses sur la génération des flux pour la proposition de modèles adaptés. Le test de l'approche multi-régression a confirmé la nécessité de construire des modèles locaux, basés sur une analyse approfondie des données. Les meilleurs modèles obtenus sont ceux pour la masse événementielle qui parviennent à reproduire en tendance la variabilité des observations. La méthode bayésienne a été utilisée pour le test d'un modèle d'Accumulation-Erosion-Transfert simple à l'échelle du bassin versant. Les premiers résultats mettent e défaut la structure du modèle testé. Cependant ces premiers tests ont démontré l'efficacité de la procédure d'analyse bayésienne, dont l'application du principe d'apprentissage permet d'améliorer de manière significative les structures des modèles.
5

Évaluation de la variabilité interindividuelle de la toxicocinétique de composés organiques volatils chez l'humain

Peyret, Thomas January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
6

Comparaison automatisée de reconstructions Bayésiennes de profils expérimentaux avec des modèles physiques / Automated comparison of Bayesian reconstructions of experimental profiles with physical models

Irishkin, Maxim 13 November 2014 (has links)
Dans ce travail, nous avons développé un système expert qui intègre les fonctions suivantes :i) l'identification des profils à partir des mesures sur les plasmas de tokamak, par les méthodes bayésiennes; ii) La prédiction des quantités reconstruites, selon les modèles choisis et; iii) une comparaison intelligente des résultats provenant des deux premières étapes. Ce système comprend une vérification systématique de la cohérence interne des quantités reconstruites, permet la validation automatique des modèles. Avec un modèle validé, il peut aider à la détection de nouveaux effets physique dans une expérience. Trois applications de ce système sont présentées dans ce travail. Le système expert peut détecter automatiquement les défauts dans la reconstruction des profils et fournir (lorsque la reconstruction est valide) des statistiques sur l'accord des modèles avec les données expérimentales, c'est à dire des informations sur la validité du modèle. / In this work we developed an expert system that carries out in an integrated and fully automated way i) a reconstruction of plasma profiles from the measurements, using Bayesian analysis ii) a prediction of the reconstructed quantities, according to some models and iii) an intelligent comparison of the first two steps. This system includes systematic checking of the internal consistency of the reconstructed quantities, enables automated model validation and, if a well-validated model is used, can be applied to help detecting interesting new physics in an experiment. The work shows three applications of this quite general system. The expert system can successfully detect failures in the automated plasma reconstruction and provide (on successful reconstruction cases) statistics of agreement of the models with the experimental data, i.e. information on the model validity.
7

Analyse statistique d'IRM quantitatives par modèles de mélange : Application à la localisation et la caractérisation de tumeurs cérébrales / Statistical analysis of quantitative MRI based on mixture models : Application to the localization and characterization of brain tumors

Arnaud, Alexis 24 October 2018 (has links)
Nous présentons dans cette thèse une méthode générique et automatique pour la localisation et la caractérisation de lésions cérébrales telles que les tumeurs primaires à partir de multiples contrastes IRM. Grâce à une récente généralisation des lois de probabilités de mélange par l'échelle de distributions gaussiennes, nous pouvons modéliser une large variété d'interactions entre les paramètres IRM mesurés, et cela afin de capter l'hétérogénéité présent dans les tissus cérébraux sains et endommagés. En nous basant sur ces lois de probabilités, nous proposons un protocole complet pour l'analyse de données IRM multi-contrastes : à partir de données quantitatives, ce protocole fournit, s'il y a lieu, la localisation et le type des lésions détectées au moyen de modèles probabilistes. Nous proposons également deux extensions de ce protocole. La première extension concerne la sélection automatique du nombre de composantes au sein du modèle probabiliste, sélection réalisée via une représentation bayésienne des modèles utilisés. La seconde extension traite de la prise en compte de la structure spatiale des données IRM par l'ajout d'un champ de Markov latent au sein du protocole développé. / We present in this thesis a generic and automatic method for the localization and the characterization of brain lesions such as primary tumor using multi-contrast MRI. From the recent generalization of scale mixtures of Gaussians, we reach to model a large variety of interactions between the MRI parameters, with the aim of capturing the heterogeneity inside the healthy and damaged brain tissues. Using these probability distributions we propose an all-in-one protocol to analyze multi-contrast MRI: starting from quantitative MRI data this protocol determines if there is a lesion and in this case the localization and the type of the lesion based on probability models. We also develop two extensions for this protocol. The first one concerns the selection of mixture components in a Bayesian framework. The second one is about taking into account the spatial structure of MRI data by the addition of a random Markov field to our protocol.
8

Bayesian inference for compact binary sources of gravitational waves / Inférence Bayésienne pour les sources compactes binaires d’ondes gravitationnelles

Bouffanais, Yann 11 October 2017 (has links)
La première détection des ondes gravitationnelles en 2015 a ouvert un nouveau plan d'étude pour l'astrophysique des étoiles binaires compactes. En utilisant les données des détections faites par les détecteurs terrestres advanced LIGO et advanced Virgo, il est possible de contraindre les paramètres physiques de ces systèmes avec une analyse Bayésienne et ainsi approfondir notre connaissance physique des étoiles binaires compactes. Cependant, pour pouvoir être en mesure d'obtenir de tels résultats, il est essentiel d’avoir des algorithmes performants à la fois pour trouver les signaux de ces ondes gravitationnelles et pour l'estimation de paramètres. Le travail de cette thèse a ainsi été centré autour du développement d’algorithmes performants et adaptées au problème physique à la fois de la détection et de l'estimation des paramètres pour les ondes gravitationnelles. La plus grande partie de ce travail de thèse a ainsi été dédiée à l'implémentation d’un algorithme de type Hamiltonian Monte Carlo adapté à l'estimation de paramètres pour les signaux d’ondes gravitationnelles émises par des binaires compactes formées de deux étoiles à neutrons. L'algorithme développé a été testé sur une sélection de sources et a été capable de fournir de meilleures performances que d'autres algorithmes de type MCMC comme l'algorithme de Metropolis-Hasting et l'algorithme à évolution différentielle. L'implémentation d'un tel algorithme dans les pipelines d’analyse de données de la collaboration pourrait augmenter grandement l'efficacité de l'estimation de paramètres. De plus, il permettrait également de réduire drastiquement le temps de calcul nécessaire, ce qui est un facteur essentiel pour le futur où de nombreuses détections sont attendues. Un autre aspect de ce travail de thèse a été dédié à l'implémentation d'un algorithme de recherche de signaux gravitationnelles pour les binaires compactes monochromatiques qui seront observées par la future mission spatiale LISA. L'algorithme est une mixture de plusieurs algorithmes évolutionnistes, avec notamment l'inclusion d'un algorithme de Particle Swarm Optimisation. Cette algorithme a été testé dans plusieurs cas tests et a été capable de trouver toutes les sources gravitationnelles comprises dans un signal donné. De plus, l'algorithme a également été capable d'identifier des sources sur une bande de fréquence aussi grande que 1 mHz, ce qui n'avait pas été réalisé au moment de cette étude de thèse. / The first detection of gravitational waves in 2015 has opened a new window for the study of the astrophysics of compact binaries. Thanks to the data taken by the ground-based detectors advanced LIGO and advanced Virgo, it is now possible to constrain the physical parameters of compact binaries using a full Bayesian analysis in order to increase our physical knowledge on compact binaries. However, in order to be able to perform such analysis, it is essential to have efficient algorithms both to search for the signals and for parameter estimation. The main part of this thesis has been dedicated to the implementation of a Hamiltonian Monte Carlo algorithm suited for the parameter estimation of gravitational waves emitted by compact binaries composed of neutron stars. The algorithm has been tested on a selection of sources and has been able to produce better performances than other types of MCMC methods such as Metropolis-Hastings and Differential Evolution Monte Carlo. The implementation of the HMC algorithm in the data analysis pipelines of the Ligo/Virgo collaboration could greatly increase the efficiency of parameter estimation. In addition, it could also drastically reduce the computation time associated to the parameter estimation of such sources of gravitational waves, which will be of particular interest in the near future when there will many detections by the ground-based network of gravitational wave detectors. Another aspect of this work was dedicated to the implementation of a search algorithm for gravitational wave signals emitted by monochromatic compact binaries as observed by the space-based detector LISA. The developed algorithm is a mixture of several evolutionary algorithms, including Particle Swarm Optimisation. This algorithm has been tested on several test cases and has been able to find all the sources buried in a signal. Furthermore, the algorithm has been able to find the sources on a band of frequency as large as 1 mHz which wasn’t done at the time of this thesis study
9

Outils statistiques pour la construction et le choix de modèles en fiabilité des logiciels

El-Aroui, Mhamed-Ali 20 September 1996 (has links) (PDF)
Ce travail est consacré à l'étude de méthodes statistiques pour l'évaluation de la fiabilité des logiciels. Son but principal est de fournir des outils statistiques permettant de construire et ensuite valider des modèles en tenant compte des spécificités des logiciels étudiés. Pour ce faire deux outils sont utilisés : les modèles linéaires généralisés (paramétriques et non-paramétriques) et l'analyse statistique bayésienne. La deuxième partie de ce travail est consacrée à l'ètude mathématique des problèmes de validation et de choix de modèles en fiabilité des Logiciels. On y étudie entre autres une approche dite "préquentielle" (prédictive-séquentielle) bien adaptée aux tests d'adéquation aux processus de Poisson. Cette approche semble pouvoir se généraliser à un grand nombre de modèles de fiabilité des logiciels.
10

Approche bayésienne de l'évaluation de l'incertitude de mesure : application aux comparaisons interlaboratoires

Demeyer, Séverine 04 March 2011 (has links) (PDF)
La modélisation par équations structurelles est très répandue dans des domaines très variés et nous l'appliquons pour la première fois en métrologie dans le traitement de données de comparaisons interlaboratoires. Les modèles à équations structurelles à variables latentes sont des modèles multivariés utilisés pour modéliser des relations de causalité entre des variables observées (les données). Le modèle s'applique dans le cas où les données peuvent être regroupées dans des blocs disjoints où chaque bloc définit un concept modélisé par une variable latente. La structure de corrélation des variables observées est ainsi résumée dans la structure de corrélation des variables latentes. Nous proposons une approche bayésienne des modèles à équations structurelles centrée sur l'analyse de la matrice de corrélation des variables latentes. Nous appliquons une expansion paramétrique à la matrice de corrélation des variables latentes afin de surmonter l'indétermination de l'échelle des variables latentes et d'améliorer la convergence de l'algorithme de Gibbs utilisé. La puissance de l'approche structurelle nous permet de proposer une modélisation riche et flexible des biais de mesure qui vient enrichir le calcul de la valeur de consensus et de son incertitude associée dans un cadre entièrement bayésien. Sous certaines hypothèses l'approche permet de manière innovante de calculer les contributions des variables de biais au biais des laboratoires. Plus généralement nous proposons un cadre bayésien pour l'amélioration de la qualité des mesures. Nous illustrons et montrons l'intérêt d'une modélisation structurelle des biais de mesure sur des comparaisons interlaboratoires en environnement.

Page generated in 0.0658 seconds