• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 33
  • 16
  • 3
  • Tagged with
  • 161
  • 161
  • 71
  • 47
  • 39
  • 39
  • 29
  • 27
  • 26
  • 24
  • 23
  • 23
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Observation adaptative : limites de la prévision et du contrôle des incertitudes / Adaptive Observation : limits of the forecast and monitoring of the uncertainties

Oger, Niels 02 July 2015 (has links)
L'observation adaptative (OA) est une pratique de prévision numérique du temps (PNT) qui cherche à prévoir quel jeu (ou réseau) d'observations supplémentaires à déployer et à assimiler dans le futur améliorera les prévisions. L'objectif est d'accroître la qualité des prévisions météorologiques en ajoutant des observations là où elles auront le meilleur impact (optimal). Des méthodes numériques d'OA apportent des réponses objectives mais partielles. Elles prennent en compte à la fois les aspects dynamiques de l'atmosphère à travers le modèle adjoint, et aussi le système d'assimilation de données. Le système d'assimilation de données le plus couramment utilisé pour l'OA est le 4D-Var. Ces méthodes linéaires (technologie de l'adjoint) reposent cependant sur une réalisation déterministe (ou trajectoire) unique. Cette trajectoire est entachée d'une incertitude qui affecte l'efficacité de l'OA. Le point de départ de ce travail est d'évaluer l'impact de l'incertitude associée au choix de cette trajectoire sur une technique: la KFS. Un ensemble de prévisions est utilisé pour étudier cette sensibilité. Les expériences réalisées dans un cadre simplifié montrent que les solutions de déploiement peuvent changer en fonction de la trajectoire choisie. Il est d'autant plus nécessaire de prendre cette incertitude en considération que le système d'assimilation utilisé n'est pas vraiment optimal du fait de simplifications liées à sa mise en oeuvre. Une nouvelle méthode d'observation adaptative, appelée Variance Reduction Field (VRF), a été développée dans le cadre de cette thèse. Cette méthode permet de déterminer la réduction de variance de la fonction score attendue en assimilant une pseudo-observation supplémentaire pour chaque point de grille. Deux approches de la VRF sont proposées, la première est basée sur une simulation déterministe. Et la seconde utilise un ensemble d'assimilations et de prévisions. Les deux approches de la VRF ont été implémentées et étudiées dans le modèle de Lorenz 96. Le calcul de la VRF à partir d'un ensemble est direct si l'on dispose déjà des membres de l'ensemble. Le modèle adjoint n'est pas nécessaire pour le calcul.L'implémentation de la VRF dans un système de prévision du temps de grande taille, tel qu'un système opérationnel, n'a pas pu être réalisée dans le cadre de cette thèse. Cependant, l'étude de faisabilité de la construction de la VRF dans l'environnement OOPS a été menée. Une description de OOPS (version 2013) est d'abord présentée dans le manuscrit, car cet environnement est une nouveauté en soi. Elle est suivie de la réflexion sur les développements à introduire pour l'implémentation de la VRF. / The purpose of adaptive observation (AO) strategies is to design optimal observation networks in a prognostic way to provide guidance on how to deploy future observations. The overarching objective is to improve forecast skill. Most techniques focus on adding observations. Some AO techniques account for the dynamical aspects of the atmosphere using the adjoint model and for the data assimilation system (DAS), which is usually either a 3D or 4D-Var (ie. solved by the minimization of a cost function). But these techniques rely on a single (linearisation) trajectory. One issue is to estimate how the uncertainty related to the trajectory affects the efficiency of one technique in particular: the KFS. An ensemble-based approach is used to assess the sensitivity to the trajectory within this deterministic approach (ie. with the adjoint model). Experiments in a toy model show that the trajectory uncertainties can lead to significantly differing deployments of observations when using a deterministic AO method (with adjoint model and VDAS). This is especially true when we lack knowledge on the VDAS component. During this work a new tool for observation targeting called Variance Reduction Field (VRF)has been developed. This technique computes the expected variance reduction of a forecast Score function that quantifies forecast quality. The increase of forecast quality that is a reduction of variance of that function is linked to the location of an assimilated test probe. Each model grid point is tested as a potential location. The VRF has been implemented in a Lorenz 96 model using two approaches. The first one is based on a deterministic simulation. The second approach consists of using an ensemble data assimilation and prediction system. The ensemble approach can be easily implemented when we already have an assimilation ensemble and a forecast ensemble. It does not need the use of the adjoint model. The implementation in real NWP system of the VRF has not been conducted during this work. However a preliminary study has been done to implement the VRF within OOPS (2013 version). After a description of the different components of OOPS, the elements required for the implementation of the VRF are described.
22

Modèles numériques personnalisés de la fibrillation auriculaire / Numerical patient-specific model of atrial-fibrillation

Gerard, Antoine 10 July 2019 (has links)
Les arythmies auriculaires constituent une pathologie majeure en cardiologie, et leur étude constitue un vaste sujet de recherche. Pour les étudier, de nombreux modèles mathématiques de la propagation du potentiel d'action dans les oreillettes ont été développés. La plupart de ces modèles génériques permettent de reproduire des séquences d'activations typiques des oreillettes. De tels modèles peuvent avoir un intérêt expérimental, voir clinique, par exemple dans l'aide à la localisation des foyers arythmiques ou encore dans l'analyse des échecs du traitement de ces arythmies. Néanmoins, pour atteindre ce but, il faut être capable de recaler au mieux le modèle, dans ses dimensions géométriques ou fonctionnelles, sur des données individuelles. L'assimilation de données, discipline mathématique dans laquelle nous cherchons à combiner de manière optimale théorie et observations, est alors un bon candidat à la personnalisation des modèles de la propagation du potentiel d'action. Dans cette thèse, nous proposons d'étudier différentes méthodes d'assimilation de données -- séquentielles et variationnelles -- dans le but de combiner les modèles de propagation avec des données électroanatomiques. Plus précisément, nous nous intéressons à deux applications possible de l'assimilation de données que sont l'estimation d'état et l'estimation de paramètres. Dans un premier temps, nous étudions un observateur d'état permettant de corriger la position du front de propagation simulé en se basant sur la position du front observé. Cet observateur est alors utilisé afin de compléter une carte d'activation obtenue lors d'une procédure clinique. Ensuite, ce même observateur est combiné à un filtre de Kalman d'ordre réduit afin d'estimer les paramètres de conductivités du modèle mathématique de propagation du potentiel d'action. Une étude de la stratégie d'estimation liée état-paramètre est ensuite réalisée pour voir comment la méthode se comporte face aux erreurs de modélisation. La méthode est ensuite testée sur un jeu de données acquis cliniquement. Puis, nous regardons du côté des méthodes d'assimilation de données variationnelles qui permettent l'estimation de paramètres spatialement distribués. Plusieurs problèmes de minimisation, permettant d'estimer un paramètre de conductivité distribué dans l'espace, sont alors introduits et analysés. Nous montrons alors que la discrétisation de ces problèmes de minimisation, dans le but d'obtenir des méthodes numériques de résolution, peut s'avérer complexe. Une méthode numérique est ensuite mise en place pour un des problèmes de minimisation étudié, et trois cas tests unidimensionnels sont analysés.Enfin, nous démontrons l'existence d'un minimum pour une des fonctions objectif étudiées en nous basant sur des résultats d'analyse fonctionnelle de la littérature. / Atrial arrhythmias are a major pathology in cardiology, and their study is alarge research topic. To study them, many mathematical models of the actionpotential propagation in atria have been developed. Most of those generic models can be used to reproduce typical activation sequences of the atria. Such models may have an experimental or even clinical interest, for example in helping the location of arrhythmic foci or in the analysis of treatment failures for these arrhythmias. Nevertheless, to achieve this goal, it isnecessary to be able to adjust the model at best, based on experimental orclinical data. Data assimilation, a mathematical discipline in which we seek to optimally combine theory and observations, is then a good candidate for the customization of action potential propagation models.In this thesis, we propose to study different data assimilation methods-- sequential and variational -- in order to adjust action potential propagation model on electroanatomical data. More precisely, we are interested in two possible applications of data assimilation: state estimation and parameter estimation.First, we study a state observer which is able to correct the simulatedpropagation front localization based on the observed front localization. Thisobserver is then used to complete an activation map obtained during a clinical procedure.Then, this observer is combined with a reduced order Kalman filterin order to estimate the conductivity parameters of the action potentialpropagation model. A study of the joint state-parameter estimationstrategy is then realized to see how the method behaves faced with modelingerrors. The method is then tested on a clinically acquired dataset.Then, we look at variational data assimilation methods that allow the estimation of spatially distributed parameters. Several minimization problems, allowing to estimate a conductivity parameter distributed in space, are then introduced and analyzed. We then show that the discretization of these minimization problems, in order to obtain numerical methods of resolution, can be complex. A numerical method is then implemented for one of the studied minimization problems, and three 1D test cases are analyzed.Finally, we demonstrate the existence of a minimum for one of the studiedobjective function based on functional analysis results from theliterature.
23

Reconstruction et prévision déterministe de houle à partir de données mesurées

Blondel-Couprie, Elise 29 October 2009 (has links) (PDF)
La prévision des états de mer est un domaine d'une extrême importance pour la planification des opérations en mer, pour des raisons évidentes de sécurité des personnels et des matériels mis en oeuvre. Les modèles de prévision actuels reposent sur une description stochastique de l'état de mer et ne prédisent pas de façon déterministe l'évolution de la houle, mais seulement celle des données spectrales dont on tire des grandeurs statistiques moyennes caractéristiques d'un état de mer. Face au besoin réel de données précises à court terme, un modèle de prévision déterministe a été développé dans le but d'améliorer l'efficacité des opérations offshore requérant une connaissance précise de la houle sur un site d'intérêt. Après avoir réalisé une étude théorique permettant de déterminer la zone spatio-temporelle de prévision disponible en fonction des caractéristiques du champ de vagues courant et des conditions de mesure, nous avons élaboré deux procédures d'assimilation de données variationnelles afin de combiner au mieux les mesures recueillies sur site et le modèle de propagation de houle choisi. Ce modèle est d'ordre deux dans le cas de houles faiblement à moyennement cambrées, ou d'ordre élevé reposant sur le modèle numérique High-Order Spectral (HOS) pour les houles cambrées non-linéaires. Les modèles à l'ordre deux étendu et à l'ordre HOS M = 3 ont été validés pour la prévision de houles 2D synthétiques et expérimentales : les erreurs moyennes de prévision obtenues sont au moins divisées par deux par rapport à une approche linéaire, l'amélioration étant d'autant plus probante que la cambrure de la houle et l'ordre du modèle sont élevés.
24

Développement et comparaison de méthodes d'assimilation de données de rang réduit dans un modèle de circulation océanique : application à l'océan Pacifique Tropical

ROBERT, Céline 21 December 2004 (has links) (PDF)
Ce travail porte sur la comparaison de deux familles de méthodes d'assimilation de données de rang réduit en océanographie physique : l'approche séquentielle de type filtre SEEK et l'approche variationnelle de type 4D-Var réduit. Cette comparaison est d'abord effectuée dans un cadre idéal d'expériences jumelles puis dans un cadre réaliste avec l'assimilation de profils réels de température dans l'océan Pacifique Tropical sur une année. Les caractéristiques propres à chaque méthode sont mises en évidence. La pertinence physique des résultats est vérifiée par comparaison avec des données indépendantes. On présente enfin une méthode hybride combinant l'estimation d'erreur du filtrage du SEEK et le lissage du 4D-Var réduit.
25

Parallélisation d'algorithmes variationnels d'assimilation de données en météorologie

Tremolet, Yannick 27 November 1995 (has links) (PDF)
Le problème de l'assimilation de données sous sa forme générale peut se formuler : "comment utiliser simultanément un modèle théorique et des observations pour obtenir la meilleure prévision météorologique ou océanographique ?", sa résolution est très coûteuse, pour la prochaine génération de modèles elle nécessitera une puissance de calcul de l'ordre de 10 Tflops. à l'heure actuelle, aucun calculateur n'est capable de fournir de telles performances mais cela devrait être possible dans quelques années, en particulier grâce aux ordinateurs parallèles à mémoire distribuée. Mais, la programmation de ces machines reste un processus compliqué et on ne connaît pas de méthode générale pour paralléliser de manière optimale un algorithme donné. Nous tenterons, de répondre au problème de la parallélisation de l'assimilation de données variationnelle, ce qui nous conduira à étudier la parallélisation d'algorithmes numériques d'optimisation assez généraux. Pour cela, nous étendrons la méthodologie de l'écriture des modèles adjoints au cas où le modèle direct est parallèle avec échanges de messages explicites. Nous étudierons les différentes approches possibles pour paralléliser la résolution du problème de l'assimilation de données : au niveau des modèles météorologiques direct et adjoints, au niveau de l'algorithme d'optimisation ou enfin au niveau du problème lui-même. Cela nous conduira à transformer un problème séquentiel d'optimisation sans contraintes en un ensemble de problèmes d'optimisation relativement indépendants qui pourront être résolus en parallèle. Nous étudierons plusieurs variantes de ces trois approches très générales et leur utilité dans le cadre du problème de l'assimilation de données. Nous terminerons par l'application des méthodes de parallélisation précédentes au modèle de Shallow Water et comparerons leurs performances. Nous présenterons également une parallélisation du modèle météorologique ARPS (Advanced Regional Prediction System).
26

Modélisation et assimilation de données en océanographie

Blayo, Eric 01 July 2002 (has links) (PDF)
Améliorer la connaissance des circulations dans les océans est d'une importance majeure pour la prévision à court et moyen terme de l'évolution du système climatique, ainsi que pour le développement de l'océanographie cotière et de l'océanographie opérationnelle. Les sources d'information disponibles pour accéder à cette connaissance sont, comme en météorologie, les modèles physiques et numériques et les observations. Dans ce contexte, ce mémoire résume l'essentiel de mes travaux de recherche de ces dernieres années, consacrés à la modélisation numérique et l'assimilation de données pour l'océanographie. J'y présente tout d'abord quelques aspects concernant les schémas utilisés dans les modèles numériques. On s'intéresse ensuite au raffinement, éventuellement adaptatif de maillage dans ces modèles, et à son extension naturelle vers le couplage de modèles. Enfin, la dernière partie est consacrée aux méthodes d'assimilation de données, qui visent à fournir un compromis optimal entre observations et prévisions du modèle, et plus particulièrement au développement de méthodes de rang réduit.
27

Analyse et prévision de l'ozone issues d'une assimilation de données satellitaires à haute résolution

Pajot, Benjamin 12 December 2011 (has links) (PDF)
Pour améliorer la représentation du champ d'ozone atmosphérique fournie par des observations ou bien par un modèle numérique, on peut combiner ces deux sources d'information par des techniques d'assimilation de données. La taille des pixels des données issues des instruments embarqués à bord des satellites de dernière génération est cependant bien inférieure à la résolution horizontale couramment utilisée dans les Modèles de Chimie-Transport (MCT) en version globale. Ainsi ces observations apportent de l'information sur des structures de petite échelle du champ d'ozone ne pouvant être représentées par le modèle qu'avec l'augmentation de sa résolution. Dans le but d'assimiler l'information de petite échelle au sein du MCT Mocage de Météo-France avec une grille horizontale haute résolution tout en conservant un coût d'exécution raisonnable, nous avons développé une version spectrale du système d'assimilation de données Valentina du Cerfacs. Puis nous utilisons l'algorithme de la boucle externe conjointement avec la méthode variationnelle 3D-Var avec FGAT. Nous montrons que cette combinaison dégrade les analyses dans le cas de situations atmosphériques dominées par le transport. En conséquence, nous optons dans la suite pour la méthode variationnelle 4D-Var en terme d'incrément pour procéder aux simulations d'ozone haute résolution. Nous utilisons le système Valentina avec le MCT Mocage à basse et haute résolutions horizontales sur le mois de septembre 2008 durant lequel des structures de petite échelle sont présentes dans le champ d'ozone au voisinage du vortex polaire antarctique. Les colonnes totales d'ozone de l'instrument IASI, choisies pour leur haute répartition spatiale, ont été moyennées sur grilles modèle basse et haute résolution en deux jeux de super-observations. Nous les combinons aux profils d'ozone de l'instrument MLS pour contraindre la répartition verticale de l'information dans la stratosphère et la haute troposphère lors du processus d'assimilation de données. L'augmentation de résolution du modèle améliore les simulations directes du MCT et, dans une moindre mesure, les analyses issues de l'assimilation du jeu de données combinées basse résolution. En revanche, l'augmentation de résolution dans les super-observations conduit à une dégradation des analyses à certains niveaux verticaux car les données de MLS qui contraignent la structure verticale du profil d'ozone sont éparses par rapport aux données de IASI. Nous mettons ce résultat en lien avec le besoin d'avoir une source d'information sur la distribution verticale de l'ozone aussi dense que le jeu de données de colonnes totales assimilées telle l'information fournie par les Averaging Kernels.
28

Sources et transports d'humidité pour les évènements de pluies intenses en région méditerranéenne : caractérisation et assimilation à mésoéchelle de radiances satellitaires infrarouges

Duffourg, Fanny 17 December 2010 (has links) (PDF)
Ce travail de thèse vise à progresser dans la compréhension et la prévision des épisodes de pluies intenses en région méditerranéenne. Cet objectif a été poursuivi sous deux angles. Nous avons tout d'abord documenté les propriétés de l'alimentation en vapeur d'eau des systèmes fortement précipitants méditerranéens en identifiant son origine et les caractéristiques de son transport à l'aide de simulations de mésoéchelle. Sur un ensemble de 10 épisodes, diverses sources d'humidité ont été identifiées et leur contribution respective caractérisée. Les trajectoires privilégiées du transport d'humidité depuis les sources extérieures lointaines et au-dessus de la Méditerranée ont été déterminées. Nous avons ensuite cherché à améliorer la description de l'humidité dans les modèles de prévision numérique du temps à échelle convective en proposant de nouveaux opérateurs d'observation plus réalistes pour l'assimilation des radiances satellitaires infrarouges. Cela a permis d'améliorer la simulation des équivalents-modèle de ces mesures dans la bande spectrale vapeur d'eau en filtrant les gradients d'humidité de fine échelle.
29

Assimilation d'images pour les fluides géophysiques

Souopgui, Innocent 25 October 2010 (has links) (PDF)
La compréhension et la prévision de l'évolution des fluides géophysiques sont d'une importance capitale et constituent un domaine de recherche scientifique aux enjeux conséquents. Une bonne prévision est basée sur la prise en compte de toutes les informations disponibles sur le système considéré. Ces informations incluent les modèles, les observations et les connaissances a priori. L'assimilation de données permet de les combiner de façon optimale pour déterminer les entrées du modèle. Les dernières décennies ont vu croître en densité et en qualité la couverture satellitaire produisant, entre autres, des séquences d'images montrant l'évolution dynamique de certains phénomènes géophysiques tels que les dépressions et les fronts. Ces séquences d'images sont jusqu'à présent sous-utilisées en assimilation de données. Cette thèse propose une extension de l'assimilation variationnelle de données aux observations de type séquence d'images. Après avoir présenté les images, leur utilisation actuelle et ses limites, nous introduisons les notions de niveau d'interprétation, d'espaces et d'opérateur image. Ces notions sont utilisées pour formuler l'assimilation directe de séquences d'images. Nous proposons également une nouvelle approche de régularisation par diffusion généralisée pour les problèmes inverses. Les résultats préliminaires en traitement d'images et en assimilation directe de séquence d'images montrent une méthode prometteuse qui résout la plupart des problèmes rencontrés avec les approches classiques de régularisation.
30

Contrôle du courant Nord Méditerranéen dans le golfe du Lion : une approche par simulation du système d'observation

Duchez, Aurélie 11 January 2011 (has links) (PDF)
La circulation du golfe du Lion est influencée par un forçage atmosphérique intense et le Courant Nord Méditerranéen (CNM). Une configuration au 1/16° a été utilisée pour modéliser la dynamique complexe de cette région, mais ne permet pas de modéliser correctement le CNM. Nous avons utilisé la méthode d'assimilation du filtre SEEK afin de combiner l'information contenue dans ce modèle et celle provenant d'observations synthétiques altimétriques (de type SARAL-AltiKa) et in situ, extraites d'une configuration réaliste du golfe du Lion au 1/64°. Afin d'évaluer la qualité des résultats, des diagnostics statistiques et physiques ont été établis et témoignent d'une bonne qualité de l'expérience. On a ainsi montré une amélioration des caractéristiques du CNM en surface et en profondeur, de son activité mésoéchelle et permis l'intrusion de branches de recirculation sur le plateau. Une meilleure représentation de ce courant a permis d'améliorer la quantité des échanges côte-large de même que la caractéristique des eaux du plateau, ce qui a permis la formation d'eaux denses hivernales, leur convection puis leur cascading le long du talus. L'assimilation a aussi amélioré les caractéristiques du panache du Rhône. On a ainsi montré que l'assimilation de nouvelles formes d'observations dans les systèmes opérationnels permettra de contrôler des processus plus fins et proches des côtes, non contrôlés par les systèmes d'observations actuels.

Page generated in 0.1303 seconds