• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 24
  • 5
  • Tagged with
  • 78
  • 28
  • 24
  • 14
  • 14
  • 13
  • 12
  • 12
  • 10
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Images géométriques de genre arbitraire dans le domaine sphérique

Gauthier, Mathieu January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
12

Paramétrisation et optimisation sans dérivées pour le problème de calage d’historique / Parametrization and derivative free optimization for the history matching problem

Marteau, Benjamin 04 February 2015 (has links)
Dans cette thèse, on s’intéresse à un problème inverse classique en ingénierie pétrolière, àsavoir le calage d’historique. Plus précisément, une nouvelle méthode de paramétrisation géostatistiqueainsi qu’un nouvel algorithme d’optimisation sans dérivées adaptés aux particularitésdu problème sont présentés ici. La nouvelle méthode de paramétrisation repose sur les principes des méthodes de déformation graduelle et de déformation de domaines. Comme la déformation graduelle locale, elle consiste àcombiner à l’intérieur de zones préalablement définies deux réalisations ou plus de modèle avec lapossibilité supplémentaire de modifier dynamiquement la forme des zones choisies. La flexibilitéapportée par cette méthode dans le choix des zones a ainsi permis de garantir l’obtention d’unbon point initial pour l’optimisation. Concernant l’optimisation, l’hypothèse que les paramètres locaux dans le modèle de réservoir n’influent que faiblement sur les données de puits distants conduit à considérer que la fonction àoptimiser est à variables partiellement séparables. La nouvelle méthode d’optimisation développée,nommée DFO-PSOF, de type région de confiance avec modèle quadratique d’interpolation,exploite alors au maximum cette propriété de séparabilité partielle. Les résultats numériquesobtenus sur plusieurs cas de réservoir valident à la fois l’hypothèse effectuée ainsi que la qualitéde l’algorithme pour le problème de calage d’historique. En complément de cette validation numérique,un résultat théorique de convergence vers un point critique est prouvé pour la méthoded’optimisation construite / We worked in this thesis on a classical inverse problem in the petroleum industry, historymatching. We proposed a new geostatistical parameterization technique as well as a new derivativefree optimization algorithm adapted to the problem specificities. The parameterization method is based on two approaches found in the literature, the local gradual deformation method and the domain deformation method. Similarly to the local gradual deformation method, our method combines two or more model realizations inside previouslydefined zones. Moreover, our method adds the possibility to dynamically update the shape ofthe zones during the optimization process. This property substantially improves its robustnesswith regard to the initial choice of the zones. Thus, the greater flexibility brought by our methodallowed us to develop an initialization methodology which garantees a good initial point for theoptimization. To reduce the number of evaluations needed to minimize the objective function, we madethe assumption that a local parameter does not influence the production data of a distantwell. With this hypothesis, the objective function is then considered partially separable. Theoptimization algorithm we developped, called DFO-PSOF, is a trust region algorithm basedon quadratic interpolation models which exploits this partial separability property. Numericalresults obtained on some reservoir test cases validate both the hypothesis and the quality of ouralgorithm for the history matching problem. Moreover, a theoretical convergence result towardsa first order critical point, is proved for this new optimization method
13

Optimisation de formes paramétriques en grande dimension

Froment, Pierre 24 April 2014 (has links)
Les méthodes actuelles d’optimisation de formes permettent des gains importants vis-à-vis des fonctions à optimiser. Elles sont largement utilisées par les industriels, notamment dans l’automobile comme chez Renault. Parmi ces approches, l’optimisation de formes paramétriques permet d’obtenir rapidement une géométrie optimale sous réserve que l’espace de conception soit assez restreint pour pouvoir être parcouru en un temps de simulation raisonnable. Ce manuscrit présente deux méthodes d’optimisation de formes paramétriques en grande dimension pour des applications nécessitant des coûts de calculs importants, par exemple en mécanique des fluides. Une manière originale de reconstruire un modèle CAO paramétré à partir d’une surface morte est présentée au préalable. Nous proposons une approche pour identifier les zones interdites de l’espace de conception ainsi que leurs gestions dans une boucle d’optimisation par plans d’expériences. La première méthode s’appuie sur des techniques statistiques pour lever le verrou du nombre de degrés de liberté et utilise une optimisation à deux niveaux de fidélité pour minimiser les temps de calcul. Cette méthode en rupture avec le processus industriel habituel a été appliquée pour optimiser le coefficient de trainée aérodynamique d’un véhicule. La seconde méthode se base sur l’exploitation des gradients fournis par les solveurs adjoints, c’est-à-dire sur les sensibilités du critère (comme l’uniformité d’un écoulement par exemple) par rapport aux degrés de liberté de l’optimisation. Cette méthode innovante et en rupture avec les approches classiques permet de lever très naturellement le verrou du nombre de paramètres. Cependant, les gradients fournis par les logiciels ne sont pas donnés par rapport aux paramètres CAO mais par rapport aux nœuds du maillage. Nous proposons donc une façon d’étendre ces gradients jusqu’aux paramètres CAO. Des exemples académiques ont permis de montrer la pertinence et la validité de notre approche. / Current design loops for shape optimizations allow significant improvements in relation to the functions that need to be optimized. They are widely used in industry, particularly in the car industry like Renault. Among these approaches, parametric shape optimization allows rapid enhancement of the shape, on the condition that the design space is confined enough in order to be explored within a reasonable computational time. This Thesis introduces two CAD-based large-scale shape optimization methods for products requiring significant computational cost, for example in fluid mechanics. An original way to create a parameterized CAD model developed from a dead geometry is presented first. We propose an approach to identify the restricted areas of the design space and their managements in an optimization loop that uses a design of experiments. The first method is based on statistical techniques to circumvent the difficulties of large-scale optimizations and uses a two-level multi-fidelity modelling approach to minimize the computational time. This method, breaking away from the usual industrial process, was applied to optimize the aerodynamic drag coefficient of a car body. The second method is based on the gradients provided by adjoint solvers, that is to say on the sensitivity of the cost function (such as the uniformity deviation for example) with respect to the design points or displacement boundaries. This innovative method breaking away from classical approaches naturally gets over the number of degrees of freedom. However, the sensitivities provided by softwares are not computed with respect to CAD parameters but with respect to the coordinates of the vertices of the surface mesh. Thus, we propose a way to extend these gradients to CAD parameters. Academic test cases have proved the efficiency and accuracy of our method.
14

Impact de la paramétrisation convective sur la représentation de la variabilité intrasaisonnière tropicale / Impacts of convective parameterization on the representation of the Madden-Julian Oscillation

Remaud, Marine 29 October 2015 (has links)
L'Oscillation de Madden-Julian (MJO) est le principal mode de variabilité intrasaisonnière (20-90 jours) dans les tropiques. La MJO se caractérise par une perturbation de la dynamique de grande échelle et des précipitations se propageant principalement vers l'Est à une vitesse 5 m/s à l'équateur, et aussi vers le Nord en été boréal. Malgré son importance, cette perturbation est mal reproduite dans les modèles de circulation générale (MCG). Ce défaut des MCGs a été attribué en partie à un déclenchement trop fréquent du schéma de convection profonde du modèle qui préserverait trop la stabilité statique dans les tropiques et empêcherait la formation de fortes perturbations organisées de la convection et le développement de la réponse dynamique de grande échelle qui en résulte. Cette thèse a donc pour objectif d'étudier l'impact de l'inhibition de la convection sur l'état moyen et la variabilité tropicale dans le MCG LMDZ. Pour cela, deux paramètres - la fermeture et l'entraînement - d'un même schéma convectif, qui étaient initialement basés sur le profil vertical de la convergence d'humidité, ont été modifiés. Le taux entraînement du schéma modifié est proportionnel à l'humidité relative de l'environnement. Des études de sensibilité dans un modèle unidimensionnel montrent que, par rapport au schéma initial, cette modification a pour effet d'inhiber la convection dans une atmosphère sèche et de la favoriser en atmosphère humide, les précipitations deviennent donc plus rares et plus intenses. Avec ce nouvel entraînement, les simulations globales du modèle atmosphérique LMDZ présentent effectivement une plus forte variabilité tropicale de la dynamique et des précipitations à toutes les échelles de temps. Le cycle saisonnier des précipitations est aussi mieux reproduit ainsi que la propagation vers l'Est et vers le Nord des perturbations intrasaisonnières. L'ajout d'une fermeture en CAPE modifie peu ce comportement, mais accélère légèrement la propagation vers le Nord et vers l'Est de la MJO, et donne un état moyen et une variabilité un peu plus réaliste dans les tropiques. / The Madden-Julian oscillation (MJO) is the dominant mode of the Tropical intraseasonal variability. The MJO is characterized by a wide region of rain perturbation propagating eastward along the equator at a speed of about 5 m/s, from the Indian Ocean to the Central Pacific with a period of 20-90 days. Its boreal summer counterpart, referred as the Boreal Summer Intraseasonal Oscillation (BSISO), propagates both eastward and northward. The LMDZ atmospheric global circulation model (GCM), like most climate models, still has difficulties to represent correctly these two modes of tropical intraseasonal variability. One of the causes of this deficiency has been attributed to the lack of intense rain events organized at large scale. If the convection is triggered too easily in a GCM, the convective instability cannot accumulate in a column and trigger an organized convection at a basin scale. This thesis consisted in testing the role of several ways of inhibiting the convection in the simulation of the MJO in the LMDZ GCM. For this purpose, we have first evaluated the impact of entrainment and closure assumptions of the convective scheme on the structure of the atmospheric column using a 1D model and on the tropical variability using the LMDZ GCM. An entrainment that is dependant on the relative humidity of the environment has been implemented in the Tiedtke (1989) convective scheme. The new entrainment inhibits the convection in a dry environment and promotes the convection in a humid environment. This favours strong ascents and subsidence and consequently increases the variance of precipitation at all time scales. The new closure, based on the convective instability (CAPE) instead of the moisture convergence, decreases the occurrence of strong rain events and gives a more realistic mean state. The east-west ratio is increased at intraseasonal scale but it is not sufficient to organise correctly the eastward propagation related to the MJO. The seasonal cycle of the tropical precipitation over India is however improved. The LMDZ is able to reproduce correctly the signature of the northward propagation of the BSISO with a period of 40 days in Boreal Summer. We have shown, with A Local Mode Analysis (LMA), that the new entrainment produces intraseasonal perturbations related to the northward propagation of the BSISO which are more reproducible and more organized on the northern Indo-Pacific region.
15

Comptage asymptotique et algorithmique d'extensions cubiques relatives

Morra, Anna 07 December 2009 (has links)
Cette thèse traite du comptage d'extensions cubiques relatives. Dans le premier chapitre on traite un travail commun avec Henri Cohen. Soit k un corps de nombres. On donne une formule asymptotique pour le nombre de classes d'isomorphisme d'extensions cubiques L/k telles que la clôture galoisienne de L/k contienne une extension quadratique fixée K_2/k. L'outil principal est la théorie de Kummer. Dans le second chapitre, on suppose k un corps quadratique imaginaire (avec nombre de classes 1) et on décrit un algorithme pour énumérer toutes les classes d'isomorphisme d'extensions cubiques L/k jusqu'à une certaine borne X sur la norme du discriminant relatif. / This thesis is about counting relative cubic extensions. In the first chapter we describe a joint work with Henri Cohen. Let k be a number field. We give an asymptotic formula for the number of isomorphism classes of cubic extensions L/k such that the Galois closure of L/k contains a fixed quadratic extension K_2/k. The main tool is Kummer theory. In the second chapter, we suppose k to be an imaginary quadratic number field (with class number 1) and we describe an algorithm for listing all isomorphism classes of cubic extensions L/k up to a bound X on the norm of the relative discriminant ideal.
16

Management d'opérateurs communs dans les architectures de terminaux multistandards. / Management of common operators in the architectures of multi-standard terminals.

Naoues, Malek 26 November 2013 (has links)
Les équipements de communications numériques intègrent de plus en plus de standards. La commutation d’un standard à l’autre doit pouvoir se faire au prix d’un surcoût matériel modéré, ce qui impose l’utilisation de ressources communes dans des instanciations différentes. La plateforme matérielle nécessaire à l’exécution d’une couche physique multistandard est le segment du système présentant le plus de contraintes par rapport à la reconfiguration : réactivité, consommation et occupation de ressources matérielles. Nos travaux se focalisent sur la paramétrisation qui vise une implémentation multistandards efficace. L’objectif de cette technique est d’identifier des traitements communs entre les standards, voire entre blocs de traitement au sein d’un même standard, afin de définir des blocs génériques pouvant être réutilisés facilement. Nous définissons le management d’opérateurs mutualisés (opérateurs communs) et nous étudions leur implémentation en se basant essentiellement sur des évaluations de complexité pour quelques standards utilisant la modulation OFDM. Nous proposons en particulier l’architecture d’un opérateur commun permettant la gestion efficace des ressources matérielles entre les algorithmes FFT et décodage de Viterbi. L’architecture, que nous avons proposé et implémenté sur FPGA, permet d’adapter le nombre d’opérateurs communs alloués à chaque algorithme et donc permet l’accélération des traitements. Les résultats montrent que l’utilisation de cette architecture commune offre des gains en complexité pouvant atteindre 30% dans les configurations testées par rapport à une implémentation classique avec une réduction importante de l’occupation mémoire. / Today's telecommunication systems require more and more flexibility, and reconfiguration mechanisms are becoming major topics especially when it comes to multistandard designs. In typical hardware designs, the communication standards are implemented separately using dedicated instantiations which are difficult to upgrade for the support of new features. To overcome these issues, we exploit a parameterization approach called the Common Operator (CO) technique that can be considered to build a generic terminal capable of supporting a large range of communication standards. The main principle of the CO technique is to identify common elements based on smaller structures that could be widely reused across signal processing functions. This technique aims at designing a scalable digital signal processing platform based on medium granularity operators, larger than basic logic cells and smaller than signal processing functions. In this thesis, the CO technique is applied to two widely used algorithms in wireless communication systems: Viterbi decoding and Fast Fourier Transform (FFT). Implementing the FFT and Viterbi algorithms in a multistandard context through a common architecture poses significant architectural constraints. Thus, we focus on the design of a flexible processor to manage the COs and take advantage from structural similarities between FFT and Viterbi trellis. A flexible FFT/Viterbi processor was proposed and implemented on FPGA and compared to dedicated hardware implementations. The results show a considerable gain in flexibility. This gain is achieved with no complexity overhead since the complexity if even decreased up to 30% in the considered configurations.
17

Génération de texture par anamorphose pour la décoration d’objets plastiques injectés / Texture generation for decoration of manufactured plastic objects by anamorphose

Belperin, Maxime 31 May 2013 (has links)
Le contexte de ma thèse rentre dans le cadre du projet IMD3D, supporté par le FUI. L'objectif de ce projet consiste à proposer une méthode automatisée permettant la décoration d'objets 3D quelconques. La solution choisie consiste à positionner un film imprimé dans le moule, ce film sera déformé par la fermeture du moule puis par injection. Ma thèse porte sur la génération de décoration. Les données dont nous disposons en entrée sont un maillage et une ou plusieurs images. Nous souhaitons d'abord obtenir le plaquage de cette image sur le maillage, de telle sorte que le rendu visuel soit équivalent à l'image initiale. Pour cela, nous avons décidé de choisir un point de vue par image et de le favoriser. Nous paramétrions alors le maillage par le biais d'une projection orthogonale ou perspective définie par ce point de vue. Nous réalisons alors la transformée inverse de déformation du maillage. L'utilisation d'une application conforme pour la déformation inverse permet de coller au mieux à la physique du problème. Nous visualisons donc le résultat à imprimer sur le film. Il reste alors à générer la texture permettant de décorer l'objet injecté par le procédé. Il suffit de parcourir bilinéairement l'intérieur des mailles et simultanément la partie de l'image correspondante, de manière à remplir les pixels de l'image. Ceci permet d'obtenir finalement la texture finale qui sera imprimée sur le film. Mais, lors des premiers essais effectués par les industriels avec une mire colorée, un effet de décoloration a été relevé. Nous avons donc pris en compte ce changement de couleur pour modifier l'image et obtenir le résultat visuel escompte, même au niveau du rendu des couleurs / This work takes part in a global industrial project called IMD3D, which is supported by FUI and aims at decorating 3D plastic objects using Insert Molding technology with an automated process. Our goal is to compute the decoration of 3D virtual objects, using data coming from polymer film characterization and mechanical simulation. My thesis deals with the generation of decoration. Firstly, we want to map the texture onto the mesh, so that the visual rendering would be equivalent to the initial picture. In order to do so, we decided to choose a viewpoint per texture and to favor it. Thus, a specific view-dependent parameterization is defined. Thus, the first goal which is to define the texture mapping with visual constraints is reached. After this step, the inverse distortion of the mesh is performed. The use of a conformal map for this inverse transform allows to respect the physics issues. Therefore we get a planar mesh representing the initial mesh of simulation whose associated textures have also been modified by this transform. The result to be printed on the film can be viewed. Finally, the texture enabling the decoration of the object injected by the process can be generated. This texture combines information from several mapped images. The inner part of the mesh and in the same time the part of the corresponding texture shall be followed in a bilinear way in order to fill the pixel of the generated picture. But during the first tests performed by industries with a colors pattern, a discoloration effect was detected. As a consequence, we thought to take into account this color change to modify the picture and to obtain the expected visual rendering
18

Paramétrisation de la turbulence atmosphérique dans la couche limite stable / Parameterization of atmospheric turbulence in the stable boundary layer

Rodier, Quentin 14 December 2017 (has links)
Améliorer la représentation de la couche limite stable constitue un des grands challenges de la prévision numérique du temps et du climat. Sa représentation est clé pour la prévision du brouillard, du gel des surfaces, des inversions de température, du jet de basse couche et des épisodes de pollution. De plus, à l'échelle climatique, la hausse de la température moyenne globale de l'air en surface impacte davantage les régions polaires : améliorer la représentation de la couche limite stable est un enjeu important pour réduire les incertitudes autour des projections climatiques. Depuis une quinzaine d'années, les exercices d'intercomparaison de modèles GABLS ont montré que le mélange turbulent dans la couche limite stable est généralement surestimé par les modèles de prévision du temps. En effet, de nombreux modèles intensifient artificiellement l'activité de leur schéma de turbulence afin d'éviter une décroissance inévitable du mélange lorsque la stabilité dépasse un seuil critique en terme de nombre de Richardson gradient. Ce problème numérique et théorique n'est pas en accord avec de nombreuses observations et simulations à haute résolution qui montrent une activité turbulente séparée en deux régimes : un régime faiblement stable dans lequel l'atmosphère est turbulente de manière continue et intense, et un régime très stable dans lequel la turbulence est très intermittente, anisotrope et faible en intensité. Ces travaux de thèse s'articulent autour de deux parties dont l'objectif principal est d'améliorer la paramétrisation de la turbulence dans le modèle atmosphérique de recherche Méso-NH développé conjointement par Météo-France et le Laboratoire d'Aérologie, et dans le modèle opérationnel AROME. Cette étude utilise une méthodologie communément employée dans le développement de paramétrisations qui consiste à comparer des simulations à très haute résolution qui résolvent les structures turbulentes les plus énergétiques (LES) à des simulations uni-colonnes d'un modèle méso-échelle. Plusieurs simulations 3D couvrant différents régimes de stabilité de l'atmosphère sont réalisées avec Méso-NH. Les limites du modèle LES en stratification stable sont documentées. Une première partie répond à la problématique de la surestimation du mélange dans le régime faiblement stable. Une expression originale pour la longueur de mélange est formulée. La longueur de mélange est un paramètre clé pour les schémas de turbulence associés à une équation pronostique pour l'énergie cinétique turbulente. Cette longueur de mélange non-locale combine un terme de cisaillement vertical du vent horizontal à une formulation existante qui repose sur la flottabilité. Le nouveau schéma est évalué dans des simulations 1D par rapport aux LES d'une part ; et dans le modèle opérationnel AROME par rapport aux observations de l'ensemble du réseau opérationnel de Météo-France d'autre part. Une deuxième partie apporte des éléments d'évaluation d'un schéma combinant deux équations pronostiques pour les énergies cinétiques et potentielles turbulentes. En condition stable, le flux de chaleur négatif contribue à la production d'énergie potentielle turbulente. L'interaction entre les deux équations d'évolution permet, via une meilleure prise en compte de l'anisotropie et d'un terme à contre gradient dans le flux de chaleur, de limiter la destruction de l'énergie turbulente dans les modèles. Dans les cas simulés, cette nouvelle formulation ne montre pas un meilleur comportement par rapport à un schéma à une équation pour l'énergie cinétique turbulente car le mécanisme d'auto-préservation n'est pas dominant par rapport au terme de dissipation. Il conviendra d'améliorer la paramétrisation du terme de dissipation dans le régime très stable. / The modeling of the stable atmospheric boundary layer is one of the current challenge faced by weather and climate models. The stable boundary layer is a key for the prediction of fog, surface frost, temperature inversion, low-level jet and pollution peaks. Furthermore, polar regions, where stable boundary layer predominates, are one of the region with the largest temperature rise : the stable boundary layer modeling is crucial for the reduction of the spread of climate predictions. Since more than 15 years, the GABLS models intercomparison exercices have shown that turbulent mixing in the stable boundary layer is overestimated by numerical weather prediction models. Numerous models artificially strengthen the activity of their turbulence scheme to avoid a laminarization of the flow at a critical value of the gradient Richardson number. The existence of this threshold is only a theoretical and a numerical issues. Numerous observations and high-resolution numerical simulations do not support this concept and show two different regimes : the weakly stable boundary layer that is continuously and strongly turbulent; and the very stable boundary layer globally intermittent with a highly anisotropic and very weak turbulence. This thesis aims at improving the turbulence scheme within the atmospheric research model Méso-NH developped by Météo-France and the Laboratoire d'Aérologie, and the operational weather forecast model AROME. We use a traditional methodology based on the comparison of high-resolution simulations that dynamically resolve the most energetic turbulent eddies (Large-Eddy Simulations) to single-column simulations. Several LES covering the weakly and the very stable boundary layer were performed with Méso-NH. The limits of applicability of LES in stratified conditions are documented. The first part of the study deals with the overmixing in the weakly stable boundary layer. We propose a new diagnostic formulation for the mixing length which is a key parameter for turbulence schemes based on a prognostic equation for the turbulent kinetic energy. The new formulation adds a local vertical wind shear term to a non-local buoyancy-based mixing length currently used in Méso-NH and in the French operational model AROME. The new scheme is evaluated first in single-column simulations with Méso-NH and compared to LES, and then in the AROME model with respect to observations collected from the operational network of Météo-France. The second part presents a theoretical and numerical evaluation of a turbulence scheme based on two prognostic equations for the turbulent kinetic and potentiel energies. In stratified conditions, the heat flux contributes to the production of turbulent potential energy. The laminarization of the flow is then limited by a reduction of the destruction of the turbulent kinetic energy by a better representation of the anisotropy and a counter-gradient term in the heat flux. On the simulated cases, this new formulation behaves similarly than the scheme with one equation for the turbulent kinetic energy because the self-preservation mechanism is not dominant compared to the dissipation term. Further research should improve the turbulent kinetic energy dissipation closure in the very stable regime.
19

Modélisation de la turbulence dans les nuages convectifs profonds aux résolutions kilométrique et hectométrique / Representation of turbulence in deep convective clouds at kilometer and hectometer resolutions

Verrelle, Antoine 19 June 2015 (has links)
Une étude de sensibilité aux échelles kilométriques et hectométriques de simulations idéalisées de convection profonde montre qu’une résolution horizontale minimale de 1 km est nécessaire pour commencer à bien représenter les structures convectives et qu'il faut améliorer la turbulence dans les nuages convectifs. Une simulation LES (50 m de résolution) d'un nuage convectif profond permet d’obtenir les flux turbulents de référence, dégradés ensuite à différentes résolutions (2, 1 et 0.5 km), et d'évaluer ainsi la paramétrisation actuelle de la turbulence au sein des nuages convectifs. Les défauts mis en évidence sont une énergie cinétique turbulente insuffisante, liée à une sous-estimation de la production thermique notamment dans des zones à contre-gradient, et des vitesses verticales trop fortes. Une paramétrisation alternative de certains flux turbulents, basée sur des gradients horizontaux, montre une meilleure partition entre mouvements résolus et sous-maille à 1 km de résolution. / The purpose of adaptive observation (AO) strategies is to design optimal observation networks in a prognostic way to provide guidance on how to deploy future observations. The overarching objective is to improve forecast skill. Most techniques focus on adding observations. Some AO techniques account for the dynamical aspects of the atmosphere using the adjoint model and for the data assimilation system (DAS), which is usually either a 3D or 4D-Var (ie. solved by the minimization of a cost function). But these techniques rely on a single (linearisation) trajectory. One issue is to estimate how the uncertainty related to the trajectory aects the eciency of one technique in particular : the KFS. An ensemble-based approach is used to assess the sensitivity to the trajectory within this deterministic approach (ie. with the adjoint model). Experiments in a toy model show that the trajectory uncertainties can lead to signicantly diering deployments of observations when using a deterministic AO method (with adjoint model and VDAS). This is especially true when we lack knowledge on the VDAS component. During this work a new tool for observation targeting called Variance Reduction Field (VRF) has been developed. This technique computes the expected variance reduction of a forecast Score function that quanties forecast quality. The increase of forecast quality that is a reduction of variance of that function is linked to the location of an assimilated test probe. Each model grid point is tested as a potential location. The VRF has been implemented in a Lorenz 96 model using two approaches. The rst one is based on a deterministic simulation. The second approach consists of using an ensemble data assimilation and prediction system. The ensemble approach can be easily implemented when we already have an assimilation ensemble and a forecast ensemble. It does not need the use of the adjoint model. The implementation in real NWP system of the VRF has not been conducted during this work. However a preliminary study has been done to implement the VRF within OOPS (2013 version). After a description of the different components of OOPS, the elements required for the implementation of the VRF are described.
20

Validation sémantique dans les théories structurées : application à un langage de programmation générique

Drabrik, Pascal 22 November 1989 (has links) (PDF)
La spécification par type abstrait algébrique permet de décrire le comportement de structures de données particulières telles que les files, piles, arbres, etc. D'autre part, la généricité permet de spécifier le comportement de classes de structures. Nous nous intéressons dans cet ouvrage aux types abstraits génériques exprimes dans le formalisme algébrique. Ces spécifications génériques sont souvent liées entre elles par des relations telles que l'importation, la paramétrisation, etc. Toute instance d'une spécification générique s1, paramétrée par une spécification s2, doit vérifier des conditions décrites formellement dans s2. En général, ce type de vérification se traduit par la démonstration de formules logiques dans une théorie particulière. Nous définissons les différentes relations sémantiques qu'il faut valider dans le cadre d'un langage de programmation générique. Nous montrons également les principales caractéristiques de notre implémentation. Celle-ci aide a réaliser les validations sémantiques en utilisant un démonstrateur semi-automatique de théorèmes. Les expériences réalisées avec notre implantation nous ont conduit a constater le besoin de la réutilisation de démonstrations. Aussi avons nous propose les fonctionnalités d'un atelier de démonstration en utilisant le formalisme algébrique

Page generated in 0.1079 seconds