• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 33
  • 16
  • 3
  • Tagged with
  • 161
  • 161
  • 71
  • 47
  • 39
  • 39
  • 29
  • 27
  • 26
  • 24
  • 23
  • 23
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Techniques de contrôle optimal pour un modèle quasi-géostrophique de circulation océanique. Application à l'assimilation variationnelle des données altimétriques satellitaires

Luong, Bruno 11 July 1995 (has links) (PDF)
Cette étude concerne la mise en euvre de méthodes numériques d'optimisation de type contrôle optimal appliquées à un problème d'assimilation de données en océanographie. Il s'agit d'étudier la faisabilité de la méthode dans un problème de grande taille et dans un modèle turbulent, caractéristique des circulations océaniques aux latitudes moyennes. Le modèle de circulation utilisé est un modèle quasi-géostrophique stratifié en plusieurs couches. Les données à assimiler sont les mesures altimétriques satellitaires (hauteur de la surface libre de l'océan). Elles se trouvent uniquement sur la couche de surface. Le vecteur de contrôle est choisi comme étant la condition initiale du système dynamique sur toutes les couches. Sur le plan théorique, sont étudiés : - l'existence et l'unicité de la solution de l'équation linéarisée ; - l'existence et l'unicité de l'état adjoint ; - la convergence de la méthode de contrôle par des suites minimisantes. Nous étudions ensuite la qualité de l'identification des circulations en profondeur en connaissant les informations de surface. Nous abordons aussi les différentes stratégies d'assimilation en temps (séquentielle, incrémentale, ...). Une étude au second ordre de la fonctionnelle permet d'estimer l'erreur de l'identification et de quantifier la propagation des informations de surface en profondeur. Un test de la validation croisée généralisée sur notre problème pour déterminer le coefficient de régularisation est fait grâce à cette étude au second ordre.
62

Assimilation de données pour les modèles d'hydraulique fluviale. Estimation de paramètres, analyse de sensibilité et décomposition

Mazauric, Cyril 12 December 2003 (has links) (PDF)
Le calcul de prévisions fiables des inondations ne peut se concevoir sans l'utilisation de toutes les informations disponibles. Les équations mathématiques qui permettent la construction d'un modèle, les images satellites par exemple qui décrivent le domaine, mais aussi les mesures faites in situ. Ces observations sont nécessaires à la bonne qualité des prévisions puisqu'elles sont le seul témoin de la réalité du terrain. Le but de ce mémoire est de présenter et de tester des méthodes fondées sur le contrôle optimal permettant une utilisation optimale de toute les informations disponibles. Diverses applications de ces méthodes seront présentées : l'estimation de paramètres, l'analyse de sensibilité et le couplage de modèles.
63

Modélisation numérique et assimilation de données de la dispersion de radionucléides en champ proche et à l'échelle continentale

Krysta, Monika 14 September 2006 (has links) (PDF)
La prévision des conséquences de rejets radioactifs dans l'atmosphère repose sur des modèles de dispersion qui fournissent des solutions analytiques (pX 0.1 développé par IRSN/ECL) ou numériques (Polair3D développé au CEREA) de l'équation d'advection-diffusion. Les modèles s'appuient d'une part sur des champs météorologiques possédant une résolution limitée et intègrent d'autre part des processus d'appauvrissement d'un nuage radioactif dont la description est imparfaite. Afin de contourner ces difficultés nous exploitons dans cette thèse les opportunités offertes par le couplage des modèles aux mesures, connu sous le nom d'assimilation de données. Dans un premier temps nous confrontons les modèles utilisés à des observations. Ces dernières sont fournies par des expériences effectuées avec des traceurs passifs ou collectées suite a des rejets de radionucléides. La dispersion sur une maquette de la centrale de Bugey dans une soufflerie en champ proche, l'expérience ETEX-I à l'échelle continentale et les rejets accidentels de Tchernobyl et Algésiras font l'objet d'études dans ce travail. Dans un deuxième temps, les modèles de dispersion sont associés aux mesures dans le but d'améliorer l'évaluation de conséquences de rejets radioactifs et d'inverser leur sources si la qualité du modèle le permet. En champ proche, l'approche variationnelle standard est utilisée. L'adjoint de pX 0.1 est construit à l'aide d'un différenciateur automatique. Les mesures collectées dans la soufflerie sont assimilées afin d'inverser le débit de la source. Dans le but d'obtenir un meilleur accord entre le modèle et les mesures, l'optimisation des paramètres gouvernant la distribution spatiale du panache est ensuite abordée. L'avantage de l'emploi de mesures est conditionné par leur contenu informatif. Ainsi, l'analyse a posteriori du réseau de mesures est effectuée et des possibilités de réduire sa taille en vue des applications opérationnelles sont exploitées. A l'échelle continentale, malgré la restriction aux mailles contenant des sites nucléaires, l'espace engendré par des sources est de dimension considérablement plus grande que l'espace d'observations. Par conséquent le problème inverse de reconstruction de la position et du profil temporel des sources est mal posé. Ce problème est régularisé en utilisant le principe du maximum d'entropie sur la moyenne. Des nouvelles fonctions coût prenant en compte le confinement spatio-temporel des sources accidentelles sont construites dans l'espace d'observations. Le lien entre la source recherchée et les mesures est décrit par l'adjoint de Polair3D. Les observations assimilées par la méthode sont constituées de mesures synthétiques, parfaites ou bruitées. Une série d'expériences se focalisant sur des sensibilités de la méthode est menée et leur qualité évaluée à l'aide d'un indicateur objectif. Un algorithme de réduction des sites suspectés pour des applications opérationnelles est testé. Finalement, les résultats de l'inversion du profil temporel de la source de l'accident d'Algésiras sont présentés.
64

Construction optimale de réseaux fixes et mobiles pour la surveillance opérationnelle des rejets accidentels atmosphériques

Abida, Rachid 19 February 2010 (has links) (PDF)
Mon travail de thèse se situe dans le contexte général de l'optimisation de réseaux de mesure de pollution atmosphérique, mais plus spécifiquement centré sur la surveillance des rejets accidentels de radionucléides dans l'air. Le problème d'optimisation de réseaux de mesure de la qualité de l'air a été abordé dans la littérature. En revanche, il n'a pas été traité dans le contexte de la surveillance des rejets accidentels atmosphériques. Au cours de cette thèse nous nous sommes intéressés dans un premier temps à l'optimisation du futur réseau de télésurveillance des aérosols radioactifs dans l'air, le réseau DESCARTES. Ce réseau sera mis en œuvre par l'Institut de Radioprotection et de Sûreté Nucléaire (IRSN), afin de renforcer son dispositif de surveillance de radionucléides en France métropolitaine. Plus précisément, l'objectif assigné à ce réseau est de pouvoir mesurer des rejets atmosphériques de radionucléides, provenant de l'ensemble des installations nucléaires françaises ou étrangères. Notre principal rôle était donc de formuler des recommandations vis-à-vis aux besoins exprimés par l'IRSN, concernant la construction optimale du futur réseau. Á cette fin, l'approche que nous avons considérée pour optimiser le réseau (le futur réseau), vise à maximiser sa capacité à extrapoler les concentrations d'activité mesurées sur les stations du réseau sur tout le domaine d'intérêt. Cette capacité est évaluée quantitativement à travers une fonction de coût, qui mesure les écarts entre les champs de concentrations extrapolés et ceux de références. Ces derniers représentent des scénarios de dispersion accidentels provenant des 20 centrales nucléaires françaises et, calculés sur une année de météorologie. Nos résultats soulignent notamment l'importance du choix de la fonction coût dans la conception optimale du futur réseau de surveillance. Autrement dit, la configuration spatiale du réseau optimal s'avère extrêmement sensible à la forme de la fonction coût utilisée. La deuxième partie de mon travail s'intéresse essentiellement au problème du ciblage d'observations en cas d'un rejet accidentel de radionucléides, provenant d'une centrale nucléaire. En effet, en situation d'urgence, une prévision très précise en temps réel de la dispersion du panache radioactif est vivement exigée par les décideurs afin d'entreprendre des contre-mesures plus appropriées. Cependant, la précision de la prévision du panache est très dépendante de l'estimation du terme source de l'accident. À cet égard, les techniques d'assimilation de données et de modélisation inverse peuvent être appliquées. Toutefois, le nuage radioactif peut être localement très mince et pourrait s'échapper à une partie importante du réseau local, installé autour de la centrale nucléaire. Ainsi, un déploiement de stations de mesure mobiles en suivant l'évolution du nuage pourrait contribuer à améliorer l'estimation du terme source. À cet effet, nous avons exploré la possibilité d'améliorer la qualité de la prévision numérique du panache radioactif, en couplant une stratégie de déploiement optimal de stations mobiles avec un schéma d'assimilation de données pour la reconstruction séquentielle du panache radioactif. Nos résultats montrent que le gain d'information apporté par les observations ciblées est nettement mieux que l'information apportée par les observations fixes.
65

Images & télédétection : analyse de séquences à basse et très haute résolution spatiale

Corpetti, Thomas 20 June 2011 (has links) (PDF)
Ce document d'habilitation est consacré à l'étude de séries temporelles d'images de télédétection à basse (LSR) et à très haute résolution spatiale (VHSR). Les phénomènes étudiés concernent la météorologie et l'océanographie (données LSR) et l'agriculture et le milieu urbain (données VHSR). La fréquence d'acquisition des données satellites est inversement proportionnelle à la résolution spatiale. Ainsi, pour des données LSR, la cadence d'acquisition est élevée (une images pour $15min$ avec le satellite MSG --Météosat Seconde Génération) et cela autorise l'étude des mouvement atmosphériques turbulents observés à travers le mouvement des nuages, la circulation océanique, ... Les problèmes d'analyse d'images associés concernent l'estimation du mouvement, le suivi de courbe ou encore l'interpolation de données manquantes. En ce qui concerne les données VHSR, la période séparant deux images peut varier de quelques semaines à quelques mois. Les études associées sont alors dédiées à la détection de changements structurels entre deux images. Du point de vue méthodologique, l'analyse de données LSR est principalement réalisée en introduisant des connaissances physiques a priori dans les outils classiques d'analyse d'images. Une part importante est dédiée à l'utilisation de techniques d'assimilation variationnelle de données. Pour l'analyse de données VHSR, nous proposons des descripteurs spécifiques permettant de caractériser les motifs texturés que l'on a à manipuler. Ces descripteurs sont ensuite utilisés pour résoudre différents problèmes d'analyse de données VHSR tels que la segmentation, la classification, la détection de fronts texturés ou encore l'estimation de l'orientation. Enfin, un chapitre est consacré à la détection de changements où nous proposons des techniques pour le détection binaire et multi-labels.
66

Calage d'historiques de réservoirs pétroliers par le filtre de Kalman d'ensemble et des méthodes de paramétrisation

Heidari, Leila 21 January 2011 (has links) (PDF)
Le calage historique permet l'intégration de données acquises après la production dans la construction de modèles de réservoir. Le filtre de Kalman d'ensemble (EnKF) est une méthode d'assimilation (ou calage historique) séquentielle capable d'intégrer les données mesurées dès qu'ils sont obtenus. Ce travail est basé sur l'application de l' EnKF pour le calage historique et est divisé en deux sections principales. La première section traite l'application de la EnKF à plusieurs cas d'études afin de mieux comprendre les avantages et les inconvénients de la méthode. Ces cas d'étude incluent deux cas d'étude synthétiques (un simple et un plutôt complexe), un modèle de faciès et un modèle de réservoir réel. Dans la plupart des cas, la méthode a réussi à reproduire les données mesurées. Les problèmes rencontrés sont expliqués et des solutions possibles sont proposées. La seconde partie traite deux nouveaux algorithmes proposé en combinant l'EnKF avec deux méthodes de paramétrisation: méthode des points pilotes et méthode de déformation graduelle, permettant la préservation les propriétés statistiques de l'ordre de deux (moyenne et covariance). Les deux algorithmes développés sont appliqués au cas d'étude synthétique simple : la première méthode peut réussir avec un nombre suffisant et un bon positionnement des points pilotes. Pour la déformation graduelle, l'application peut réussir si l'ensemble de fond est assez grand.
67

Simulation numérique et assimilation de données variationnelle pour la dispersion atmosphérique de polluants

Quélo, Denis 08 December 2004 (has links) (PDF)
Ce travail a permis de développer un modèle de chimie-transport tridimensionnel Polair3D pour simuler la pollution photochimique. Des comparaisons aux mesures d'ozone et d'oxydes d'azote sur la région de Lille pour l'année 1998 l'ont validé à l'échelle régionale. La méthode d'assimilation de données 4D-var a été implémentée. Elle est basée sur le modèle adjoint de Polair3D qui a été obtenu par différenciation automatique. Une application à la modélisation inverse des émissions sur Lille avec des observations réelles a montré que l'inversion de paramètres temporels d'émissions d'oxydes d'azote permet d'améliorer notablement les prévisions. La sensibilité de "second-ordre" permet d'étudier la sensibilité de l'inversion au système d'assimilation de données lui-même en calculant son conditionnement. Cette problématique est illustrée sur deux applications: la dispersion de radionucléides à petite échelle et la chimie atmosphérique, caractérisée par sa disparité d'échelles temporelles.
68

Problèmes Directs et Inverses en Interaction Fluide-Structure. Application à l'hémodynamique

Bertoglio, Cristobal 23 November 2012 (has links) (PDF)
Dans cette thèse nous traitons de la simulation d'interaction fluide- structure (FSI) dans les problèmes en hémodynamique, en mettant l'accent sur l'assimilation de données et sur la simulation dans les conditions physiologiques. La première partie présente et analyse un schéma de couplage semi-implicite des équations de Navier-Stokes (NSE) et d'un modèle de conditions aux limites réduit, lorsque les NSE sont résolues avec une méthode de projection. Cela permet de simuler des problèmes de mécanique de fluides et de FSI de fac ̧on plus robuste, c'est à dire en évitant les possibles instabilités associées à des cas-tests réalistes. La deuxième partie est consacrée à l'assimilation des données avec des méthodes séquentielles en FSI. Nous présentons d'abord une étude sur l'application d'un fil- tre de Kalman réduit pour l'estimation efficace des paramètres physiques d'intérêt, comme la distribution de la rigidité de la paroi de l'artère et la résistance proximale dans le fluide, à partir des mesures de deplacement à l'interface fluide-structure. Ensuite, nous analysons certains observateurs de Luenberger utilisés pour la mé- canique des solides en FSI, dans le but de construire des estimateurs d'état efficaces pour des problèmes FSI de grande taille. Dans la troisième et dernière partie, nous appliquons les méthodologies mention- nées ci-dessus aux problèmes physiques réels. Tout d'abord, la rigidité de la paroi est estimée (pour des modèles solides linéaires et non linéaires) à partir de données provenant d'un tube de silicone simulant une aorte. Pour finir, nous analysons une aorte réelle avec une coarctation réparée, nous testons les techniques d'estimation avec des données synthétiques et nous montrons quelques résultats obtenues à partir de données issues du patient.
69

Méthodes Variationelles pour des Modèles Fonction-Structure de Plantes : Identification de Paramètre, Contrôle et Assimilation de Données

Wu, Lin 25 April 2005 (has links) (PDF)
La thèse est consacrée à une approche variationnelle unifiée pour des applications diverses, telles que l'identification de paramètres, la contrôle optimal et l'assimilation de données, pour la modélisation de l'architecture et du fonctionnement des plantes. La formulation mathématique du modèle fonction-structure de plantes GreenLab est réalisé par l'introduction d'une formule empirique sur des facteurs environnementaux pour modèliser la photosynthèse. Un sous-modèle d'équilibre de l'eau dans le sol a été ajouté dans GreenLab pour le système dynamique de sol-plantes. La formulation dynamique permet d'obtenir des solutions numériques efficaces pour les systèmes variationnels en utilisant le modèle d'adjoint correspondant. Les algorithmes de différentiation sont utilisées pour différentier le code GreenLab d'une manière systématique afin d'obtenir le code d'adjoint. L'approche variationnelle est utilisée pour résoudre un problème de d'approvisionnement optimal d'eau pour le tournesol et pour une meilleure production de fruits. Le concept de l'assimilation de données est utilisé pour diminuer les incertitudes sur la condition initiale et les paramètres externes de modèles. Les resultats sur les problèmes étudiés montrent que les concepts d'assimilation de données et de contrôle optimal sont utilisables en agronomie.
70

Ajustement optimal des paramètres de forçage atmosphérique par assimilation de données de température de surface pour des simulations océaniques globales

Meinvielle, Marion 17 January 2012 (has links) (PDF)
La température de surface de l'océan (SST) est depuis l'avènement des satellites, l'une des variables océaniques la mieux observée. Les modèles réalistes de circulation générale océanique ne la prennent pourtant pas en compte explicitement dans leur fonction de forçage. Dans cette dernière, seules interviennent les variables atmosphériques à proximité de la surface (température, humidité, vitesse du vent, radiations descendantes et précipitations) connues pour être entachées d'incertitudes importantes dès lors qu'on considère l'objectif d'étudier la variabilité à long terme de l'océan et son rôle climatique. La SST est alors classiquement utilisée en assimilation de données pour contraindre l'état du modèle vers une solution en accord avec les observations mais sans corriger la fonction de forçage. Cette approche présente cependant les inconvénients de l'incohérence existant potentiellement entre la solution " forcée " et " assimilée ". On se propose dans cette thèse de développer dans un contexte réaliste une méthode d'assimilation de données de SST observée pour corriger les paramètres de forçage atmosphérique sans correction de l'état océanique. Le jeu de forçage faisant l'objet de ces corrections est composé des variables atmosphériques issues de la réanalyse ERAinterim entre 1989 et 2007. On utilise pour l'estimation de paramètres une méthode séquentielle basée sur le filtre de Kalman, où le vecteur d'état est augmenté des variables de forçage dont la distribution de probabilité a priori est évaluée via des expériences d'ensemble. On évalue ainsi des corrections de forçage mensuelles applicables dans un modèle libre pour la période 1989-2007 en assimilant la SST issue de la base de données de Hurrel (Hurrel, 2008), ainsi qu'une climatologie de salinité de surface (Levitus, 1994). Cette étude démontre la faisabilité d'une telle démarche dans un contexte réaliste, ainsi que l'amélioration de la représentation des flux océan-atmosphère par l'exploitation d'observations de la surface de l'océan.

Page generated in 0.1541 seconds