• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 8
  • 4
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 53
  • 30
  • 14
  • 10
  • 10
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Utilisation d'une assimilation d'ensemble pour modéliser des covariances d'erreur d'ébauche dépendantes de la situation météorologique à échelle convective / Use of an ensemble data assimilation to model flow-dependent background error covariances a convective scale

Ménétrier, Benjamin 03 July 2014 (has links)
L'assimilation de données vise à fournir aux modèles de prévision numérique du temps un état initial de l'atmosphère le plus précis possible. Pour cela, elle utilise deux sources d'information principales : des observations et une prévision récente appelée "ébauche", toutes deux entachées d'erreurs. La distribution de ces erreurs permet d'attribuer un poids relatif à chaque source d'information, selon la confiance que l'on peut lui accorder, d'où l'importance de pouvoir estimer précisément les covariances de l'erreur d'ébauche. Les méthodes de type Monte-Carlo, qui échantillonnent ces covariances à partir d'un ensemble de prévisions perturbées, sont considérées comme les plus efficaces à l'heure actuelle. Cependant, leur coût de calcul considérable limite de facto la taille de l'ensemble. Les covariances ainsi estimées sont donc contaminées par un bruit d'échantillonnage, qu'il est nécessaire de filtrer avant toute utilisation. Cette thèse propose des méthodes de filtrage du bruit d'échantillonnage dans les covariances d'erreur d'ébauche pour le modèle à échelle convective AROME de Météo-France. Le premier objectif a consisté à documenter la structure des covariances d'erreur d'ébauche pour le modèle AROME. Une assimilation d'ensemble de grande taille a permis de caractériser la nature fortement hétérogène et anisotrope de ces covariances, liée au relief, à la densité des observations assimilées, à l'influence du modèle coupleur, ainsi qu'à la dynamique atmosphérique. En comparant les covariances estimées par deux ensembles indépendants de tailles très différentes, le bruit d'échantillonnage a pu être décrit et quantifié. Pour réduire ce bruit d'échantillonnage, deux méthodes ont été développées historiquement, de façon distincte : le filtrage spatial des variances et la localisation des covariances. On montre dans cette thèse que ces méthodes peuvent être comprises comme deux applications directes du filtrage linéaire des covariances. L'existence de critères d'optimalité spécifiques au filtrage linéaire de covariances est démontrée dans une seconde partie du travail. Ces critères présentent l'avantage de n'impliquer que des grandeurs pouvant être estimées de façon robuste à partir de l'ensemble. Ils restent très généraux et l'hypothèse d'ergodicité nécessaire à leur estimation n'est requise qu'en dernière étape. Ils permettent de proposer des algorithmes objectifs de filtrage des variances et pour la localisation des covariances. Après un premier test concluant dans un cadre idéalisé, ces nouvelles méthodes ont ensuite été évaluées grâce à l'ensemble AROME. On a pu montrer que les critères d'optimalité pour le filtrage homogène des variances donnaient de très bons résultats, en particulier le critère prenant en compte la non-gaussianité de l'ensemble. La transposition de ces critères à un filtrage hétérogène a permis une légère amélioration des performances, à un coût de calcul plus élevé cependant. Une extension de la méthode a ensuite été proposée pour les composantes du tenseur de la hessienne des corrélations locales. Enfin, les fonctions de localisation horizontale et verticale ont pu être diagnostiquées, uniquement à partir de l'ensemble. Elles ont montré des variations cohérentes selon la variable et le niveau concernés, et selon la taille de l'ensemble. Dans une dernière partie, on a évalué l'influence de l'utilisation de variances hétérogènes dans le modèle de covariances d'erreur d'ébauche d'AROME, à la fois sur la structure des covariances modélisées et sur les scores des prévisions. Le manque de réalisme des covariances modélisées et l'absence d'impact positif pour les prévisions soulèvent des questions sur une telle approche. Les méthodes de filtrage développées au cours de cette thèse pourraient toutefois mener à d'autres applications fructueuses au sein d'approches hybrides de type EnVar, qui constituent une voie prometteuse dans un contexte d'augmentation de la puissance de calcul disponible. / Data assimilation aims at providing an initial state as accurate as possible for numerical weather prediction models, using two main sources of information : observations and a recent forecast called the “background”. Both are affected by systematic and random errors. The precise estimation of the distribution of these errors is crucial for the performance of data assimilation. In particular, background error covariances can be estimated by Monte-Carlo methods, which sample from an ensemble of perturbed forecasts. Because of computational costs, the ensemble size is much smaller than the dimension of the error covariances, and statistics estimated in this way are spoiled with sampling noise. Filtering is necessary before any further use. This thesis proposes methods to filter the sampling noise of forecast error covariances. The final goal is to improve the background error covariances of the convective scale model AROME of Météo-France. The first goal is to document the structure of background error covariances for AROME. A large ensemble data assimilation is set up for this purpose. It allows to finely characterize the highly heterogeneous and anisotropic nature of covariances. These covariances are strongly influenced by the topography, by the density of assimilated observations, by the influence of the coupling model, and also by the atmospheric dynamics. The comparison of the covariances estimated from two independent ensembles of very different sizes gives a description and quantification of the sampling noise. To damp this sampling noise, two methods have been historically developed in the community : spatial filtering of variances and localization of covariances. We show in this thesis that these methods can be understood as two direct applications of the theory of linear filtering of covariances. The existence of specific optimality criteria for the linear filtering of covariances is demonstrated in the second part of this work. These criteria have the advantage of involving quantities that can be robustly estimated from the ensemble only. They are fully general and the ergodicity assumption that is necessary to their estimation is required in the last step only. They allow the variance filtering and the covariance localization to be objectively determined. These new methods are first illustrated in an idealized framework. They are then evaluated with various metrics, thanks to the large ensemble of AROME forecasts. It is shown that optimality criteria for the homogeneous filtering of variances yields very good results, particularly with the criterion taking the non-gaussianity of the ensemble into account. The transposition of these criteria to a heterogeneous filtering slightly improves performances, yet at a higher computational cost. An extension of the method is proposed for the components of the local correlation hessian tensor. Finally, horizontal and vertical localization functions are diagnosed from the ensemble itself. They show consistent variations depending on the considered variable and level, and on the ensemble size. Lastly, the influence of using heterogeneous variances into the background error covariances model of AROME is evaluated. We focus first on the description of the modelled covariances using these variances and then on forecast scores. The lack of realism of the modelled covariances and the negative impact on scores raise questions about such an approach. However, the filtering methods developed in this thesis are general. They are likely to lead to other prolific applications within the framework of hybrid approaches, which are a promising way in a context of growing computational resources.
2

Détermination, maîtrise et réduction des biais et incertitudes de la réactivité du réacteur Jules HOROWITZ / Determination, control and reduction of biais and uncertainties on reactivity of the Jules Horowitz Reactor

Leray, Olivier 25 September 2012 (has links)
Le formulaire de calcul neutronique HORUS3D/N dédié au Réacteur Jules Horowitz (RJH), sert aux études de conception et de sûreté du réacteur. La maîtrise de l'ensemble des paramètres neutroniques du RJH doit être assurée pour l'instruction du rapport de sûreté de l'installation. Ce travail de recherche s'inscrit dans cet objectif et s'attache à la détermination, la maîtrise et la réduction des incertitudes dues aux données nucléaires sur la réactivité du Réacteur Jules Horowitz (RJH). Une démarche rigoureuse et générique a été mise en place : c'est un ensemble cohérent, complet et incrémental qui permet l'identification et la quantification de l'ensemble des sources d'incertitudes et qui a abouti à la maîtrise du biais et des incertitudes dus aux données nucléaires sur la réactivité du cas étudié : le Réacteur Jules Horowitz. Cette méthode est basée sur une succession d'études : l'élaboration d'un jeu de matrices de variance-covariance cohérentes concernant les données nucléaires des isotopes d'intérêt, les études de sensibilité aux données nucléaires de l'expérience et de l'application étudiées, la détermination fine des incertitudes technologiques par la mise en œuvre d'une méthode innovante une étude de transposition estimant le biais et l'incertitude a posteriori dus aux données nucléaires sur l'application étudiée. Les différentes étapes s'appuient sur les outils de calcul de référence du CEA (code de calcul Monte-Carlo TRIPOLI4, codes déterministes APOLLO2 et CRONOS2, code d'évaluation CONRAD), l'évaluation de données nucléaires JEFF-3.1.1 et des méthodes de propagation, marginalisation et de transposition des incertitudes. La propagation des incertitudes sur les données nucléaires contenues dans les matrices de variance-covariance conclut à une incertitude a priori de 637 pcm (1σ) sur la réactivité du RJH pour le combustible U3Si2Al enrichi à 19.75% en 235U. L'interprétation des mesures d'oscillation d'échantillons du programme VALMONT dans le réacteur MINERVE a permis la qualification des données nucléaires relatives au combustible du RJH de l'évaluation JEFF-3.1.1 et a mis en évidence la cohérence de leurs incertitudes. Ainsi, l'interprétation de la réactivité du cœur AMMON/Référence a été réalisée avec l'évaluation JEFF-3.1.1 (et le code de référence TRIPOLI4). Un écart calcul/expérience de +376 pcm est observé. Une étude fine de détermination des incertitudes sur la réactivité de la configuration de référence aboutit à 340 pcm (1σ) dues aux incertitudes technologiques et à 671 pcm (1σ) dues aux incertitudes sur les données nucléaires. La transposition du biais et des incertitudes de l'expérience AMMON/Référence est réalisable grâce à l'excellente représentativité de cette dernière vis-à-vis du RJH. La réduction d'un facteur 2 sur l'incertitude à appliquer sur la réactivité début de vie du RJH est ainsi obtenue, ce qui équivaut à un gain d'environ deux jours équivalents pleine puissance (1σ) sur la longueur de cycle. Ainsi, le biais et l'incertitude associée à retenir pour un combustible U3Si2Al enrichi à 19.75 % en 235U, et un cœur RJH critique non barré (réflecteur nu) en début de vie sont de +266 ± 352 pcm (1σ). / The neutronics calculation scheme HORUS3D/N is dedicated to the design and safety studies of the Jules Horowitz Reactor (JHR). The control of the whole neutronics parameters of the JHR must be ensured for the safety report. This work focuses in the determination and control of uncertainties on the reactivity of the Jules Horowitz reactor due to nuclear data. A rigorous and consistent method was used. It leads to the identification and quantification of the bias and the uncertainty bias due to nuclear data on the reactivity of the considered case: the Jules Horowitz Reactor. Several steps were followed: - the set-up of a reliable dataset of covariance matrices on nuclear data of the isotopes of interest, - the sensitivity studies to nuclear data of the representative experiment and the reactor, - an accurate determination of the technological uncertainties using an innovative method, - a transposition stage of the experimental bias and the associated uncertainty due to nuclear data using the representativity method applied to the JHR. These steps were performed using the CEA's reference calculation tools (Monte-Carlo calculation code TRIPOLI4, deterministic codes APOLLO2 and CRONOS2, evaluation code CONRAD), the European JEFF-3.1.1 nuclear data evaluation and a suitable set of uncertainty propagation, marginalization and transposition techniques. The propagation of uncertainties on nuclear data contained by the variance-covariance matrices concludes to a prior uncertainty of 637 pcm (1σ) on the JHR reactivity for U3Si2Al fuel enriched to 19.75% in 235U. The interpretation of the oscillations of the VALMONT program allowed the experimental validation of the JEFF-3.1.1 nuclear data concerning the JHR fuel and highlights the good agreement of their uncertainties Thus, the interpretation of the reactivity of the AMMON/Reference core was done with the JEFF-3.1.1 evaluation (and Monte-Carlo code TRIPOLI4) and shows a bias of + 376 pcm. A fine study of the technological uncertainties leads to a value of 340 pcm (1σ) on the reactivity and the propagation of the nuclear data uncertainties on the reactivity amounts to 671 pcm (1σ). Transposition and reduction of the bias and prior nuclear data uncertainty were made using the Representativity method which demonstrates the similarity of the AMMON experiment with JHR. The final impact of JEFF-3.1.1 nuclear data on the Begin of Life JHR reactivity calculated by the HORUS3D/N V4.0 (U3Si2Al fuel enriched to 19.75% in 235U) is a bias of +266 pcm with an associated posterior uncertainty of 352 pcm (1σ).
3

A precision measurement of the D'0 mass

Chambers, Jonathan January 1998 (has links)
No description available.
4

Estudo das covariâncias envolvidas no método k0 de análise por ativação neutrônica / Study of covariances involved in the k0 method of neutron activation analysis

Vanderlei Cardoso 19 December 2011 (has links)
O presente trabalho se propôs ao desenvolvimento de uma metodologia para o tratamento das incertezas do método k0 de Análise por Ativação Neutrônica (AAN), de forma abrangente e acurada, aplicando a metodologia de Análise por Covariâncias. Todos os parâmetros envolvidos na determinação da concentração de um elemento estudado foram analisados de forma criteriosa, estabelecendo as correlações entre eles. Também foram estabelecidas as possíveis correlações entre as concentrações de elementos diferentes, para a mesma amostra e em amostras diferentes. Este procedimento gerou um número grande de correlações que foram tratadas rigorosamente. Os dados para análise foram obtidos experimentalmente, por meio de irradiações efetuadas na posição de irradiação 24A próxima ao núcleo do reator de pesquisas IEA-R1 do IPEN-CNEN/SP. Os parâmetros α e ƒ, de caracterização do campo neutrônico, foram determinados, aplicando-se vários métodos apresentados na literatura. Um tratamento estatístico detalhado foi aplicado a cada uma das medidas, verificando-se as diversas incertezas parciais e suas correlações. Com o objetivo de aprofundar o estudo, foram escolhidos os alvos de 64Zn e 68Zn, para os quais foram determinados experimentalmente os parâmetros nucleares k0 e Q0, que apresentavam discrepâncias na literatura. Os valores destes parâmetros para o 64Zn resultaram 5,63(8) × 10-3 e 1,69(6), respectivamente. Para o 68Zn, resultaram 4,00(6) × 10-4 e 2,34(4), respectivamente. Estes valores foram comparados com os dados existentes na literatura. O método de Monte Carlo foi aplicado em diversas fases do estudo, para permitir a determinação acurada de alguns parâmetros, necessários para a análise completa dos dados. / This work aimed the development of a methodology for the treatment of uncertainty in the k0 Method for Neutron Activation Analysis (NAA), comprehensively and accurately, by applying the covariance analysis methodology. All parameters involved in determining the concentration of a given element were analyzed with criteria in order to establish the correlations among them. Also established were the possible correlations between the concentrations of different elements for the same sample and for different samples. This procedure generated a large number of correlations that have been rigorously addressed. Data for analysis were obtained experimentally by means of irradiations performed at 24A irradiation position, near the core of the IEA-R1 research reactor, located at IPEN-CNEN/SP. The parameters α and ƒ, characterizing the neutron field were determined by applying several methods from the literature. A detailed statistical treatment was applied to each measurement, verifying the various uncertainties and partial correlations. In order to deepen the study, targets of 64Zn and 68Zn were chosen, for which the nuclear parameters k0 and Q0 showed discrepancies in the literature in order to determine them experimentally. For 64Zn, the values for these parameters resulted 5.63(8) × 10-3 and 1.69(6), respectively. For 68Zn they resulted 4.00(6) × 10-4 and 2.34(4), respectively. These values were compared with data from the literature. The Monte Carlo method was applied at various stages of study, to allow accurate determination of some parameters needed for the complete data analysis.
5

Estudo das covariâncias envolvidas no método k0 de análise por ativação neutrônica / Study of covariances involved in the k0 method of neutron activation analysis

Cardoso, Vanderlei 19 December 2011 (has links)
O presente trabalho se propôs ao desenvolvimento de uma metodologia para o tratamento das incertezas do método k0 de Análise por Ativação Neutrônica (AAN), de forma abrangente e acurada, aplicando a metodologia de Análise por Covariâncias. Todos os parâmetros envolvidos na determinação da concentração de um elemento estudado foram analisados de forma criteriosa, estabelecendo as correlações entre eles. Também foram estabelecidas as possíveis correlações entre as concentrações de elementos diferentes, para a mesma amostra e em amostras diferentes. Este procedimento gerou um número grande de correlações que foram tratadas rigorosamente. Os dados para análise foram obtidos experimentalmente, por meio de irradiações efetuadas na posição de irradiação 24A próxima ao núcleo do reator de pesquisas IEA-R1 do IPEN-CNEN/SP. Os parâmetros α e ƒ, de caracterização do campo neutrônico, foram determinados, aplicando-se vários métodos apresentados na literatura. Um tratamento estatístico detalhado foi aplicado a cada uma das medidas, verificando-se as diversas incertezas parciais e suas correlações. Com o objetivo de aprofundar o estudo, foram escolhidos os alvos de 64Zn e 68Zn, para os quais foram determinados experimentalmente os parâmetros nucleares k0 e Q0, que apresentavam discrepâncias na literatura. Os valores destes parâmetros para o 64Zn resultaram 5,63(8) × 10-3 e 1,69(6), respectivamente. Para o 68Zn, resultaram 4,00(6) × 10-4 e 2,34(4), respectivamente. Estes valores foram comparados com os dados existentes na literatura. O método de Monte Carlo foi aplicado em diversas fases do estudo, para permitir a determinação acurada de alguns parâmetros, necessários para a análise completa dos dados. / This work aimed the development of a methodology for the treatment of uncertainty in the k0 Method for Neutron Activation Analysis (NAA), comprehensively and accurately, by applying the covariance analysis methodology. All parameters involved in determining the concentration of a given element were analyzed with criteria in order to establish the correlations among them. Also established were the possible correlations between the concentrations of different elements for the same sample and for different samples. This procedure generated a large number of correlations that have been rigorously addressed. Data for analysis were obtained experimentally by means of irradiations performed at 24A irradiation position, near the core of the IEA-R1 research reactor, located at IPEN-CNEN/SP. The parameters α and ƒ, characterizing the neutron field were determined by applying several methods from the literature. A detailed statistical treatment was applied to each measurement, verifying the various uncertainties and partial correlations. In order to deepen the study, targets of 64Zn and 68Zn were chosen, for which the nuclear parameters k0 and Q0 showed discrepancies in the literature in order to determine them experimentally. For 64Zn, the values for these parameters resulted 5.63(8) × 10-3 and 1.69(6), respectively. For 68Zn they resulted 4.00(6) × 10-4 and 2.34(4), respectively. These values were compared with data from the literature. The Monte Carlo method was applied at various stages of study, to allow accurate determination of some parameters needed for the complete data analysis.
6

Régularisation de problèmes inverses à l'aide de l'équation de diffusion, avec application à l'assimilation variationnelle de données océaniques

Mirouze, Isabelle 17 September 2010 (has links) (PDF)
En assimilation de données, les modèles de corrélation permettent de caractériser les structures d'erreurs pour les variables définies sur une grille numérique. L'équation de diffusion fournit un cadre flexible et efficace pour représenter des fonctions de corrélation pour des problèmes de grande dimension tels que ceux rencontrés en assimilation variationnelle pour l'atmosphère ou l'océan. Dans cette thèse, une formulation implicite est d'abord étudiée en détail en dimension un (1D). On montre qu'intégrer une équation de diffusion implicite à coefficient constant sur M pas de temps est équivalent à convoluer la condition initiale à une fonction autorégressive (AR) d'ordre M. L'échelle de corrélation de la fonction AR et le facteur de normalisation requis pour générer une amplitude égale à 1 sont donnés en fonction du coefficient de diffusion et de M. Des extensions du modèle de diffusion permettant aux fonctions de corrélation de ne pas être affectées par les frontières, et tenant compte de variations des échelles sont décrites. Une approximation des facteurs de normalisation est alors proposée. Des produits d'opérateurs de diffusion implicite 1D sont ensuite utilisés pour construire des modèles de corrélation en dimension deux et trois pour des configurations globales d'un système d'assimilation variationnelle pour le modèle océanique NEMO. Leurs performances sont comparées au modèle de diffusion explicite existant, et des exemples de structures de corrélation où les échelles sont soit paramétrées, soit issues d'une méthode d'ensemble, sont montrés. Enfin, les performances de différentes techniques de normalisation sont comparées.
7

Grobner Basis and Structural Equation Modeling

Lim, Min 23 February 2011 (has links)
Structural equation models are systems of simultaneous linear equations that are generalizations of linear regression, and have many applications in the social, behavioural and biological sciences. A serious barrier to applications is that it is easy to specify models for which the parameter vector is not identifiable from the distribution of the observable data, and it is often difficult to tell whether a model is identified or not. In this thesis, we study the most straightforward method to check for identification – solving a system of simultaneous equations. However, the calculations can easily get very complex. Grobner basis is introduced to simplify the process. The main idea of checking identification is to solve a set of finitely many simultaneous equations, called identifying equations, which can be transformed into polynomials. If a unique solution is found, the model is identified. Grobner basis reduces the polynomials into simpler forms making them easier to solve. Also, it allows us to investigate the model-induced constraints on the covariances, even when the model is not identified. With the explicit solution to the identifying equations, including the constraints on the covariances, we can (1) locate points in the parameter space where the model is not identified, (2) find the maximum likelihood estimators, (3) study the effects of mis-specified models, (4) obtain a set of method of moments estimators, and (5) build customized parametric and distribution free tests, including inference for non-identified models.
8

Grobner Basis and Structural Equation Modeling

Lim, Min 23 February 2011 (has links)
Structural equation models are systems of simultaneous linear equations that are generalizations of linear regression, and have many applications in the social, behavioural and biological sciences. A serious barrier to applications is that it is easy to specify models for which the parameter vector is not identifiable from the distribution of the observable data, and it is often difficult to tell whether a model is identified or not. In this thesis, we study the most straightforward method to check for identification – solving a system of simultaneous equations. However, the calculations can easily get very complex. Grobner basis is introduced to simplify the process. The main idea of checking identification is to solve a set of finitely many simultaneous equations, called identifying equations, which can be transformed into polynomials. If a unique solution is found, the model is identified. Grobner basis reduces the polynomials into simpler forms making them easier to solve. Also, it allows us to investigate the model-induced constraints on the covariances, even when the model is not identified. With the explicit solution to the identifying equations, including the constraints on the covariances, we can (1) locate points in the parameter space where the model is not identified, (2) find the maximum likelihood estimators, (3) study the effects of mis-specified models, (4) obtain a set of method of moments estimators, and (5) build customized parametric and distribution free tests, including inference for non-identified models.
9

Utilisation des déformations spatiales en assimilation de données / Use of spatial deformation in data assimilation

Legrand, Raphaël 10 December 2015 (has links)
L'assimilation de données permet de construire un état initial du modèle (l'analyse) à partir de deux sources d'information : les observations disponibles et une prévision récente (l'ébauche). L'importance relative de chacune des sources dépend du modèle d'erreurs qui leur est attribué. Le modèle le plus commun en prévision numérique du temps (PNT) consiste à formuler l'erreur d'ébauche comme un incrément additif en amplitude et, avec une approche probabiliste, de spécifier sa fonction de densité de probabilité (PDF) par une Gaussienne spécifiée avec une moyenne nulle et une matrice de covariance B. Le premier problème abordé durant cette thèse est le manque de dépendance au flux des modélisations de B. Le deuxième est l'écartement à l'hypothèse Gaussienne notamment en présence d'erreurs de déplacement. La démarche suivie est d'utiliser des déformations spatiales dans un cadre ensembliste pour raffiner la modélisation des corrélations d'erreurs d'ébauche, et de corriger les erreurs de déplacement pour tenter de se rapprocher de l'hypothèse Gaussienne. La première partie du travail de thèse consiste à améliorer la modélisation de B, en prenant en compte objectivement l'anisotropie des corrélations d'erreurs d'ébauche à l'aide de déformations spatiales estimées statistiquement à partir d'un ensemble de prévisions générées avec un ensemble d'assimilation (EDA). Cette méthode statistique (ST) est appliquée à une simulation réelle du modèle global de Météo-France ARPEGE, et son efficacité est comparée à celle de la transformée géostrophique (GT) à l'aide de diagnostics d'anisotropie. Les résultats montrent que la ST est plus efficace que la GT avec une prise en compte plus systématique de l'anisotropie des corrélations spatiales. Dans une deuxième partie, une documentation de la non-Gaussianité (NG) des erreurs d'ébauche d'AROME, le modèle à échelle convective de Météo-France, est proposée. La NG des distributions d'erreurs d'ébauche, diagnostiquées à partir d'un EDA, est quantifiée par un indice uniquement basé sur leur asymétrie et leur aplatissement. La NG diagnostiquée a une forte dépendance spatiale et temporelle, avec des structures spatiales qui suivent les structures météorologiques. Le lien avec certains processus non-linéaires , liés par exemple à la présence de nuages, est notamment observé. Les diagnostics montrent également que le processus d'analyse réduit fortement la NG observée dans l'ébauche, et que la vorticité et la divergence sont les variables de contrôle de l'assimilation les moins Gaussiennes. Une des causes possibles de la NG étant la présence d'erreurs de déplacement, la troisième partie de ce travail de thèse s'attache à documenter les apports de ce modèle d'erreurs alternatif. Un algorithme d'estimation des erreurs de déplacements a tout d'abord été mis en place. Cet algorithme, qui s'inspire des méthodes d'estimation du flot optique, se base sur une approche variationnelle quasi-linéaire, quasi Gaussienne et multi-échelles. Le comportement de la méthode a été testé sur des cas idéalisés, puis sur des cas réels basés sur des prévisions AROME. Ceci permet d'envisager à l'avenir l'estimation statistique des principaux paramètres caractérisants ce type d' erreurs, ainsi que leur exploitation dans des algorithmes visant à corriger ces erreurs en amont de la correction d'amplitude. / Data assimilation provides initial conditions (the analysis) for the model from two sources of information: the available observations and a short term forecast (the background). The relative weights of both sources depend on the chosen error model. Usually, background errors are modeled as additive amplitude errors and, following a probabilistic approach, their probability density function (PDF) are modeled as Gaussians, specified with a zero mean and a covariance matrix B. For this PhD, the tackled issue are the lack of flow dependency of B and the non-Gaussianity (NG) frequently arising in numerical weather prediction (NWP), especially in case of displacement error. Using spatial deformation methods and ensemble of forecasts generated from an ensemble of data (EDA), the aim of this work is to refine the model of background error correlations, and to correct displacement errors as a possible way to get closer to the Gaussian hypothesis. A first part of this work is to improve the B modeling, by accounting objectively for the anisotropy of the background error correlations thanks to spatial deformation, which is statistically estimated from an EDA. This statistical method (ST) is applied to a real dataset of ARPEGE, the global model at Météo-France. The ST is compared to an other spatial warping method, the geostrophic transform (GT), and their efficiency are quantified by an anisotropy index. Results show a better efficiency of the ST than the GT, with a more systematic accounting of the anisotropy of the spatial background correlations. The second part of this work is a documentation of the NG for the background errors of AROME, the convective scale model at Météo-France. Distributions are diagnosed from an EDA, and their Gaussianity is quantified with a statistical index only based on two shape parameters, skewness and kurtosis. The diagnosed NG is spatially and temporally dependent, with large similarities between meteorological and NG structures. Links with nonlinear processes, linked for example to cloud covering, are observed. Diagnostics also show that the analysis step is largely decreasing the observed NG of the background, and that the most non-Gaussian variables in control space are vorticity and divergence. Since, a possible reason of the NG is the displacement errors, the third part of this PhD work aims at getting insight in the documentation of this alternative error model. First, a quasi-linear, quasi-Gaussian and multi-scale method, inspired from optical flow estimation methods, is derived. It has been tested on ideal case and on real cases based on AROME forecast fields. Future works may be, first, a statistical estimation of the main parameters characterizing this kind of error, and second, the use of this algorithm to correct displacement error upstream of the additive error correction.
10

Contribution à l'amélioration des données nucléaires neutroniques du sodium pour le calcul des réacteurs de génération IV / Improvement of Sodium Neutronic Nuclear Data for the Computation of Generation IV Reactors

Archier, Pascal 14 September 2011 (has links)
Les critères de sûreté exigés pour les réacteurs rapides au sodium de Generation IV (RNR-Na) se traduisent par la nécessité d'incertitudes réduites et maîtrisées sur les grandeurs neutroniques d'intérêt. Une part de ces incertitudes provient des données nucléaires et, dans le cas des RNR-Na, des données nucléaires du sodium, qui présentent des différences significatives entre les bibliothèques internationales (JEFF-3.1.1, ENDF/B-VII.0, JENDL-4.0). L'objectif de cette thèse est d'améliorer la connaissance sur les données nucléaires du sodium afin de mieux calculer les paramètres neutroniques des RNR-Na et fournir des incertitudes fiables. Après un état des lieux des présentes données du Na23, l'impact des différences est quantifié notamment sur les effets en réactivité de vidange du sodium, calculés avec des outils neutroniques déterministe et stochastique. Les résultats montrent qu'il est nécessaire de ré-évaluer entièrement les données nucléaires du sodium. Plusieurs développements ont été effectués dans le code d'évaluation Conrad, pour intégrer de nouveaux modèles de réactions nucléaires et leurs paramètres ainsi que pour permettre de procéder à des ajustements avec des mesures intégrales. Suite à ces développements, l'analyse des données différentielles et la propagation des incertitudes expérimentales avec Conrad ont été réalisées. Le domaine des résonances résolues a été étendu à 2 MeV et le domaine du continuum débute directement au-delà de cette énergie. Une nouvelle évaluation du Na23 et les matrices de covariances multigroupes associées ont été générées pour de futurs calculs d'incertitudes. La dernière partie de la thèse se focalise sur le retour des expériences intégrales de vidange du sodium, par des méthodes d'assimilation de données intégrales, afin de réduire les incertitudes sur les sections efficaces du sodium. Ce document se clôt sur des calculs d'incertitudes pour des RNR-Na de type industriel, qui montrent une meilleure prédiction de leurs paramètres neutroniques avec la nouvelle évaluation. / The safety criteria to be met for Generation IV sodium fast reactors (SFR) require reduced and mastered uncertainties on neutronic quantities of interest. Part of these uncertainties come from nuclear data and, in the particular case of SFR, from sodium nuclear data, which show significant differences between available international libraries (JEFF-3.1.1, ENDF/B-VII.0, JENDL-4.0). The objective of this work is to improve the knowledge on sodium nuclear data for a better calculation of SFR neutronic parameters and reliable associated uncertainties. After an overview of existing Na23 data, the impact of the differences is quantified, particularly on sodium void reactivity effets, with both deterministic and stochastic neutronic codes. Results show that it is necessary to completely re-evaluate sodium nuclear data. Several developments have been made in the evaluation code Conrad, to integrate new nuclear reactions models and their associated parameters and to perform adjustments with integral measurements. Following these developments, the analysis of differential data and the experimental uncertainties propagation have been performed with Conrad. The resolved resonances range has been extended up to 2 MeV and the continuum range begins directly beyond this energy. A new Na23 evaluation and the associated multigroup covariances matrices were generated for future uncertainties calculations. The last part of this work focuses on the sodium void integral data feedback, using methods of integral data assimilation to reduce the uncertainties on sodium cross sections. This work ends with uncertainty calculations for industrial-like SFR, which show an improved prediction of their neutronic parameters with the new evaluation.

Page generated in 0.454 seconds