• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 8
  • 1
  • Tagged with
  • 39
  • 15
  • 14
  • 13
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Estimation efficace en présence de non-réponse dans les enquêtes

Gao, Yimeng 03 1900 (has links)
No description available.
12

Pénalisation et réduction de la dimension des variables auxiliaires en théorie des sondages

Shehzad, Muhammad Ahmed 12 October 2012 (has links) (PDF)
Les enquêtes par sondage sont utiles pour estimer des caractéristiques d'une populationtelles que le total ou la moyenne. Cette thèse s'intéresse à l'étude detechniques permettant de prendre en compte un grand nombre de variables auxiliairespour l'estimation d'un total.Le premier chapitre rappelle quelques définitions et propriétés utiles pour lasuite du manuscrit : l'estimateur de Horvitz-Thompson, qui est présenté commeun estimateur n'utilisant pas l'information auxiliaire ainsi que les techniques decalage qui permettent de modifier les poids de sondage de facon à prendre encompte l'information auxiliaire en restituant exactement dans l'échantillon leurstotaux sur la population.Le deuxième chapitre, qui est une partie d'un article de synthèse accepté pourpublication, présente les méthodes de régression ridge comme un remède possibleau problème de colinéarité des variables auxiliaires, et donc de mauvais conditionnement.Nous étudions les points de vue "model-based" et "model-assisted" dela ridge regression. Cette technique qui fournit de meilleurs résultats en termed'erreur quadratique en comparaison avec les moindres carrés ordinaires peutégalement s'interpréter comme un calage pénalisé. Des simulations permettentd'illustrer l'intérêt de cette technique par compar[a]ison avec l'estimateur de Horvitz-Thompson.Le chapitre trois présente une autre manière de traiter les problèmes de colinéaritévia une réduction de la dimension basée sur les composantes principales. Nousétudions la régression sur composantes principales dans le contexte des sondages.Nous explorons également le calage sur les moments d'ordre deux des composantesprincipales ainsi que le calage partiel et le calage sur les composantes principalesestimées. Une illustration sur des données de l'entreprise Médiamétrie permet deconfirmer l'intérêt des ces techniques basées sur la réduction de la dimension pourl'estimation d'un total en présence d'un grand nombre de variables auxiliaires
13

De la neige au débit : de l'intérêt d'une meilleure contrainte et représentation de la neige dans les modèles / From snow to river flow : on the interest of a better constrain and representation of snow in the models

Riboust, Philippe 12 January 2018 (has links)
Le modèle de neige est souvent dépendant du modèle hydrologique avec lequel il est couplé, ce qui peut favoriser la représentation du débit au détriment de celle de la neige. L'objectif est de rendre le calage du modèle de neige plus indépendant de celui du modèle hydrologique en restant facilement utilisable en opérationnel. Dans cette optique, un modèle contraint sur des données d'observations de la neige permettrait d'améliorer d'une part la robustesse des paramètres du modèle de neige et d'autre part la simulation de l'état du manteau neigeux. Dans la première partie de cette thèse, nous avons étudié et modifié le modèle degrés-jour semi-distribué CemaNeige afin qu'il puisse simuler de manière plus réaliste la variable de surface d'enneigement du bassin versant. Cette modification, couplée au calage du modèle sur des données de surface enneigée et sur le débit, a permis d'améliorer la simulation de l'enneigement par le modèle sans détériorer significativement les performances en débits. Nous alors ensuite débuté le développement d'un nouveau modèle de neige à l'échelle ponctuelle. Celui-ci se compose d'un modèle de rayonnements, simulant les rayonnements incidents à partir de données d'amplitude de températures journalières, et d'un modèle de manteau neigeux. Le modèle de manteau neigeux résout les équations de la chaleur au sein du manteau neigeux à l'aide d'une représentation spectrale du profil de température. Cette représentation permet de simuler les profils et gradients de températures en utilisant moins de variables d'état qu'une discrétisation verticale par couches. Pour mieux prendre en compte les mesures ponctuelles de neige, ce modèle devra être distribué. / Snow models are often dependent on the hydrological model they are coupled with, which can promote higher performance on runoff simulation at the expense of snow state simulations performances. The objective of this thesis is to make the calibration of the snow model more independent from the calibration of the hydrological model, while remaining easily usable for runoff forecasting. Calibrating snow model on observed snow data would on one hand improve the robustness of the snow model parameters and on the other hand improve the snowpack modelling. In the first part of this manuscript, we modified the semi-distributed CemaNeige degree-day model so that it can explicitly simulate the watershed snow cover area. This modification coupled with the calibration of the model on snow cover area data and on river runoff data significantly improved the simulation of the snow cover area by the model without significantly deteriorating the runoff performances. Then we started the development of a new point scale snow model. It is based on a radiation model, which simulates incoming radiations from daily temperature range data, and a snowpack model. The snowpack model solves the heat equations within the snowpack by using a spectral representation of the temperature profile. This representation simulates the temperature profile and gradients using fewer state variables than a vertical discretization of the snowpack. In order to be able to use point scale snow observations in the model, it should be distributed on the watershed.
14

Calage en ligne d'un modèle dynamique de trafic routier pour l'estimation en temps réel des conditions de circulation / Online calibration of a dynamic traffic model for real time estimation of traffic states

Clairais, Aurélien 12 April 2019 (has links)
Les modèles de trafic ont une importance capitale pour la compréhension et la prévision des phénomènes liés aux conditions de circulation. Ils représentent une aide précieuse à tous les niveaux de gestion du trafic. Cette thèse s'attache aux problématiques liées à la gestion du trafic au quotidien. Pour les gestionnaires de réseaux, quatre enjeux sont traités. L'enjeu de rapidité renvoie au choix de l'échelle de représentation et la formulation du modèle d'écoulement. Le modèle retenu est le modèle LWR lagrangien-spatial. La fiabilité est un enjeu relatif à la prise en compte des erreurs de modèles dans les estimations des conditions de circulation. La réactivité est décrite comme la capacité de la méthode à prendre en compte en temps réel les états de trafic captés. Enfin, l'adaptabilité renvoie à la capacité des paramètres de la méthode à évoluer en tenant compte des situations de trafic observées. Les verrous scientifiques que les travaux présentés cherchent à lever s'articulent autour des quatre enjeux décrits précédemment. L'intégration de la propagation des incertitudes directement dans le modèle d'écoulement représente un premier verrou. Ensuite, la production d'indicateurs opérationnels rendant compte de la fiabilité des résultats. Concernant l'enjeu de réactivité, les verrous scientifiques traités sont la mise en place d'un schéma d'assimilation de données séquentiel et le calage des conditions internes du modèle d'écoulement intégrant les erreurs de modèle et d'observation. Enfin, concernant l'enjeu de réactivité, le verrou scientifique associé est le calage en ligne des paramètres du modèle d'écoulement. Un modèle de suivi d'erreur où les variables du modèle d'écoulement sont distribuées selon des mélanges de gaussienne est développé. Le suivi des erreurs dans le modèle est réalisé grâce à une méthode de perturbation adaptée à la formulation multi-composantes des mélanges de gaussiennes. Une analyse de sensibilité est menée afin d'établir le lien entre la robustesse de la méthode proposée et la discrétisation du réseau, le nombre de composantes dans le mélange de gaussiennes et les erreurs sur les paramètres du modèle d'écoulement. Ce modèle permet la production d'indicateurs opérationnels et leurs erreurs associées rendant compte de la fiabilité des conditions de circulation ainsi estimées. Le processus d'assimilation séquentielle permet d'estimer et de prévoir les conditions de trafic en accord avec les observations en cas de demande et d'offre non calées. L'état a posteriori est calculé à l'aide d'une formulation bayésienne connaissant les états a priori et les observations. Deux méthodes de mise à jour du modèle ont été testées. Devant les incohérences du modèle, introduites par la méthode de substitution des états a priori par les états a posteriori, la mise à jour agit aussi sur les véhicules via l'ajout, la suppression, l'avancement ou le retardement de leurs temps de passage. La validation des concepts étudiés est réalisée sur un réseau composé d'un simple lien homogène sans discontinuité. Lorsque les paramètres de l'écoulement du trafic ne sont pas calés, l'assimilation de données seule ne permet pas de propager correctement les états de trafic en accord avec la situation observée. Le calage des paramètres d'écoulement est traité dans un chapitre d'ouverture dans lequel des pistes de recherche sont suggérées afin de proposer des solutions à ce dernier verrou scientifique. Les travaux de cette thèse ouvrent la voie à des perspectives de recherche et opérationnelles. En effet, il est intéressant de quantifier le renforcement apporté par les méthodes modèle-centrées aux méthodes données-centrées usuelles dans l'estimation en temps réel et la prévision à court-terme des conditions de circulation. De plus, les méthodes développées, associées aux pistes de recherche évoquées, pourraient représenter un apport considérable aux outils d'aide à la gestion du trafic au quotidien. / Traffic models are of paramount importance for understanding and forecasting traffic dynamics. They represent a significant support for all the stages of traffic management. This thesis focuses on issues related to daily traffic management. For road network managers, four challenges are addressed. The speed refers to the choice of the scale of representation and formulation of the flow model. The selected model is the Lagrangian-Space LWR model. The reliability is associated to the integration of the model errors in the traffic conditions estimation process. The reactivity is described as the capacity of the method to take into account the prevailling traffic states in real time. Finally, the versatility refers to the capacity of the method parameters to evolve considering the observed traffic situations.The scientific challenges that the presented works aim are based on the four issues. The integration of the uncertainties into the flow model is a first challenge. Then, the production of operational indicators that account for the reliability of the results is discussed. Concerning the reactivity, the addressed scientific challenges are the establishment of a vehicle indexes based sequential data assimilation process and the calibration of the model's internal conditions. Finally, concerning the versatility, the associated scientific question is the online calibration of the parameters of the traffic flow model. A model for tracking the errors,assumed to be distributed following Gaussian mixtures, is developped. The error tracking is achieved thanks to an original perturbation method designed for multi-modal Gaussian mixtures. A sensitivity analysis is performed in order to establish a link between the designed method's robustness and the discretization of the network, the number of modes in the Gaussian mixture and the errors on the flow model's parameters. The data assimilation process enables to propagate traffic conditions in accordance with the observed situation in case of non-calibrated demand and supply. The posterior state is calculated by means of a Bayesian inference formulation knowing the prior and observed states. Two methods for model update have been tested. Facing model inconsistencies introduced by the method of substituting \textit{prior} states by \textit{posterior} states, the update acts also on the vehicles by means of addition, deletion, advancing and delaying of the passing times. The validation of the proposed solutions is achieved on a network composed of a simple homogeneous link without discontinuity. When the parameters of the traffic flow models are not calibrated, the data assimilation alone is not able to propagate the traffic states in accordance with the observed situation. The calibration of the parameters is addressed in an opening chapter in which several research avenues are proposed to resolve this last scientific question. The works in this thesis pave the way to perspectives in both research and operational domains. Indeed, it is interesting to quantify the reinforcement brought by model centered methods to usual data centered methods for the real time estimation and the short term forecasting of traffic conditions. Furthermore, the developed methods, associated to the cited research avenues, may represent a significant intake in the daily traffic management tools.
15

Modélisation distribuée des flux d'azote sur des petits bassins versants méditerranéens

PAYRAUDEAU, sylvain 01 May 2002 (has links) (PDF)
Un modèle d'exportation d'azote a été développé pour fournir un outil opérationnel d'estimation des masses produite en contexte méditerranéen. Le modèle, dénommé POL, est de type conceptuel distribué. Il repose sur un découpage du bassin en unités de production (les sous-bassins versants) dont le flux est contrôlé par un paramètre F et en unités de transport (les biefs de rivières) qui véhiculent les flux produits sur les sous-bassins. La dynamique des flux d'azote dans les biefs est contrôlée par un paramètre T. Les 2 paramètres F et T du modèle POL sont définis globalement sur le bassin. Les flux générés sur les sous-bassins versants dépendent également du stock d'azote potentiellement mobilisable lors d'un épisode de pluie. On suppose que cette grandeur conceptuelle est liée à l'occupation du sol et aux pratiques culturales. Le modèle peut être utilisé en mode événementiel ou en mode continu. <br />La sensibilité des réponses du modèle événementiel aux valeurs des paramètres est tout d'abord analysée sur un bassin élémentaire. Le modèle POL est ensuite appliqué sur 4 bassins versants d'une cinquantaine de km² situés dans l'Hérault (France). <br />Les résultats obtenus après la phase de calage et de vérification montrent la capacité du modèle événementiel à reproduire les flux d'azote générés lors des épisodes de crue. Le modèle utilisé en continu fournit une estimation des exportations d'azote avec un degré d'incertitude acceptable pour un premier diagnostic des apports annuels des bassins.
16

Estimation de la contribution des principaux aquifères du bassin versant de la Loire au fonctionnement hydrologique du fleuve à l'étiage

Monteil, Céline 12 December 2011 (has links) (PDF)
La connaissance de l'évolution des débits d'étiage de la Loire intéresse différents usagers : agglomérations, agriculteurs et industriels. La production d'électricité est une activité industrielle majeure du bassin : quatre sites nucléaires utilisent l'eau de la Loire comme source froide. Les débits d'étiage de la Loire sont dépendants des apports des principaux aquifères de son bassin versant. Trois aquifères superposés sont considérés couvrant une surface de 38 000 km² : calcaires de Beauce, craie séno-turonienne et sables cénomaniens. Un modèle hydrogéologique distribué est mis en œuvre (code Eau-Dyssée). Cinq modules couplés simulent respectivement le bilan hydrique en surface, le routage de l'eau sur les versants, le routage en rivière, le transfert en zone non-saturée et les écoulements souterrains. Le modèle est calé sur une période de 10 ans, validé sur une autre période de 10 ans, puis testé sur 35 ans. Une méthode hybride de calage, couplant inversion automatique et calage manuel, a été développée pour caler le champ de transmissivités de l'aquifère de Beauce. Les autres couches sont calées par essais et erreurs. Le modèle ajusté permet de bien simuler les débits et piézométries observés sur l'ensemble du domaine sur les 35 années avec une RMSE globale des écarts piézométriques de 2,86 m sur 197 piézomètres et des critères de Nash aux stations en Loire tous supérieurs à 0,9. Ce modèle est utilisé pour analyser le fonctionnement hydrologique du bassin à différentes échelles de temps. Les apports des nappes cumulés sur le linéaire de la Loire à l'étiage sont estimés à 15 m3/s en moyenne entre 1975 et 2008. Les premières estimations de l'impact du changement climatique indiquent une baisse des apports moyens de 8 à 50% à horizon 2100 pour les quatre projections climatiques traitées.
17

Calage d'historiques de réservoirs pétroliers par le filtre de Kalman d'ensemble et des méthodes de paramétrisation

Heidari, Leila 21 January 2011 (has links) (PDF)
Le calage historique permet l'intégration de données acquises après la production dans la construction de modèles de réservoir. Le filtre de Kalman d'ensemble (EnKF) est une méthode d'assimilation (ou calage historique) séquentielle capable d'intégrer les données mesurées dès qu'ils sont obtenus. Ce travail est basé sur l'application de l' EnKF pour le calage historique et est divisé en deux sections principales. La première section traite l'application de la EnKF à plusieurs cas d'études afin de mieux comprendre les avantages et les inconvénients de la méthode. Ces cas d'étude incluent deux cas d'étude synthétiques (un simple et un plutôt complexe), un modèle de faciès et un modèle de réservoir réel. Dans la plupart des cas, la méthode a réussi à reproduire les données mesurées. Les problèmes rencontrés sont expliqués et des solutions possibles sont proposées. La seconde partie traite deux nouveaux algorithmes proposé en combinant l'EnKF avec deux méthodes de paramétrisation: méthode des points pilotes et méthode de déformation graduelle, permettant la préservation les propriétés statistiques de l'ordre de deux (moyenne et covariance). Les deux algorithmes développés sont appliqués au cas d'étude synthétique simple : la première méthode peut réussir avec un nombre suffisant et un bon positionnement des points pilotes. Pour la déformation graduelle, l'application peut réussir si l'ensemble de fond est assez grand.
18

Modèles biocinétiques de boues activées de type ASM : Analyse théorique et fonctionnelle, vers un jeu de paramètres par défaut

Hauduc, Hélène 02 November 2010 (has links) (PDF)
La modélisation du fonctionnement des stations d'épuration est un outil largement utilisé notamment pour l'optimisation et la réhabilitation des ouvrages existants et le dimensionnement de nouvelles installations. S'assurer d'une bonne qualité des modèles est donc primordial. Or, d'après les résultats d'une enquête internationale effectuée auprès de 96 utilisateurs potentiels de modèles, deux étapes dans l'utilisation des modèles sont considérées comme particulièrement délicates: le choix du modèle à utiliser parmi les modèles disponibles et l'étape de calage de ces modèles. Le travail présenté visait à fournir des éléments pour lever des obstacles à une utilisation plus généralisée des modèles biocinétiques à boues activées. Il a porté sur sept des modèles publiés : (1) ASM1, (2) ASM2d, (3) ASM3, (4) ASM3+BioP, (5) ASM2d+TUD, (6) Barker & Dold et (7) UCTPHO+. Dans un premier temps, une analyse des connaissances pratiques des modèles a été effectuée afin d'améliorer le transfert des connaissances en modélisation. Une base de données de jeux de paramètres a été créée à partir d'études publiées et d'un questionnaire adressé aux utilisateurs de modèles. Cette base de données a notamment permis d'établir des fourchettes de valeurs utilisées pour l'ASM1 et l'ASM2d. Puis, une analyse connaissances théoriques ayant pour but d'aider les utilisateurs à mieux comprendre les sept modèles et à choisir le modèle adapté à leur projet a été réalisée. Les modèles étudiés ont d'abord été vérifiés et les erreurs de frappe et incohérences ont été corrigées. Les concepts de modélisation ont été comparés entre eux grâce à une nouvelle représentation graphique, et confrontés aux connaissances sur le fonctionnement biologique des boues activées afin de mettre en évidence les limites théoriques des modèles. En dernier lieu, une méthodologie a été développée pour l'obtention de jeux de paramètres par défaut qui pourraient être utilisés comme valeurs initiales lors du calage des modèles. Pour cela, une procédure de calage multi-jeux de données a été élaborée. Cela nécessite au préalable le développement d'une procédure de calage automatisée et l'utilisation d'un critère de qualité permettant de définir l'arrêt de la procédure de calage. Une analyse est effectuée sur les critères de qualité utilisés en sciences de l'environnement.
19

Les modèles hydrologiques conceptuelssont-ils robustes face à un climat en évolution ? Diagnostic sur un échantillon de bassins versants français et australiens

Coron, Laurent 26 March 2013 (has links) (PDF)
Les hydrologues sont questionnés au sujet de l'évolution à moyen et long terme de la ressource en eau. Pour répondre à ces questions, ils ont recours à des modèles hydrologiques. Une quantification des incertitudes associées à leurs projections leur est souvent demandée et pose la question de la robustesse de ces modèles conceptuels, notamment dans le contexte d'un climat en évolution. En effet, l'utilisation d'un modèle dans des conditions différentes de celles où il a été calé repose sur une hypothèse de transférabilité des paramètres, c'est-à-dire la possibilité d'utiliser les paramètres d'un modèle dans des conditions différentes de celles de saconstruction. Nous traitons cette problématique en tentant d'apporter des éléments de réponse aux questions suivantes :* Quel est le niveau de robustesse des modèles hydrologiques conceptuels face à des conditions climatiques variables ?* Quelles sont les causes des situations de manque de robustesse et y a-t-il des façons de s'en prémunir ?Nous y répondons à travers l'étude des performances de modèles conceptuels lors de nombreux tests de transfert temporel de leurs paramètres. Les résultats montrent des corrélations entre les problèmes de robustesse et les écarts de conditions climatiques entre les périodes de calage et de validation des modèles. Des situations de biais systématiques corrélés à des changements de température de l'air ressortent en particulier de ces analyses. Une hétérogénéité existe cependant sur notre échantillon, les variables climatiques ou le type d'erreurs associées aux problèmes détectés pouvant varier d'un bassin à un autre.L'étude des biais de simulation sur les bassins où les modèles ne sont pas robustes montre des alternances de phases de sous-estimation et surestimation des débits, le biais sur le module décennal pouvant atteindre 20%. Nos travaux révèlent que des comportements très similaires sont obtenus pour diverses périodes et méthodes de calage. Pour les modèles conceptuels utilisés dans ces travaux, les problèmes de robustesse détectés ne résultent pas simplement de quelques "mauvais" calages conduisant à la sélection de paramètres inadaptés pour reproduire le comportement du bassin considéré. Ils semblent plutôt découler de difficultés générales de ces outils de modélisation à reproduire convenablement les bilans moyens de façon simultanée sur différentes périodes.Ces travaux ouvrent des pistes de réflexion sur la capacité insuffisante de certains modèles hydrologiques conceptuels à reproduire des dynamiques basse fréquence et sur le rôle des erreurs d'estimation des forçages, notamment les variations temporelles de l'évapotranspiration, dans les situations de modélisation incorrecte.
20

Utilisation de méta-modèles multi-fidélité pour l'optimisation de la production des réservoirs / Use of multi-fidelity meta-models for optimizing reservoir production

Thenon, Arthur 20 March 2017 (has links)
Les simulations d'écoulement sur des modèles représentatifs d'un gisement pétrolier sont généralement coûteuses en temps de calcul. Une pratique courante en ingénierie de réservoir consiste à remplacer ces simulations par une approximation mathématique, un méta-modèle. La méta-modélisation peut fortement réduire le nombre de simulations nécessaires à l'analyse de sensibilité, le calibrage du modèle, l'estimation de la production, puis son optimisation. Cette thèse porte sur l'étude de méta-modèles utilisant des simulations réalisées à différents niveaux de précision, par exemple pour des modèles de réservoir avec des maillages de résolutions différentes. L'objectif est d'accélérer la construction d'un méta-modèle prédictif en combinant des simulations coûteuses avec des simulations rapides mais moins précises. Ces méta-modèles multi-fidélité, basés sur le co-krigeage, sont comparés au krigeage pour l'approximation de sorties de la simulation d'écoulement. Une analyse en composantes principales peut être considérée afin de réduire le nombre de modèles de krigeage pour la méta-modélisation de réponses dynamiques et de cartes de propriétés. Cette méthode peut aussi être utilisée pour améliorer la méta-modélisation de la fonction objectif dans le cadre du calage d'historique. Des algorithmes de planification séquentielle d'expériences sont finalement proposés pour accélérer la méta-modélisation et tirer profit d'une approche multi-fidélité. Les différentes méthodes introduites sont testées sur deux cas synthétiques inspirés des benchmarks PUNQ-S3 et Brugge. / Performing flow simulations on numerical models representative of oil deposits is usually a time consuming task in reservoir engineering. The substitution of a meta-model, a mathematical approximation, for the flow simulator is thus a common practice to reduce the number of calls to the flow simulator. It permits to consider applications such as sensitivity analysis, history-matching, production estimation and optimization. This thesis is about the study of meta-models able to integrate simulations performed at different levels of accuracy, for instance on reservoir models with various grid resolutions. The goal is to speed up the building of a predictive meta-model by balancing few expensive but accurate simulations, with numerous cheap but approximated ones. Multi-fidelity meta-models, based on co-kriging, are thus compared to kriging meta-models for approximating different flow simulation outputs. To deal with vectorial outputs without building a meta-model for each component of the vector, the outputs can be split on a reduced basis using principal component analysis. Only a few meta-models are then needed to approximate the main coefficients in the new basis. An extension of this approach to the multi-fidelity context is proposed. In addition, it can provide an efficient meta-modelling of the objective function when used to approximate each production response involved in the objective function definition. The proposed methods are tested on two synthetic cases derived from the PUNQ-S3 and Brugge benchmark cases. Finally, sequential design algorithms are introduced to speed-up the meta-modeling process and exploit the multi-fidelity approach.

Page generated in 0.2416 seconds