• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 295
  • 81
  • 18
  • 3
  • Tagged with
  • 409
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 36
  • 35
  • 31
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Sources et transports d'humidité pour les évènements de pluies intenses en région méditerranéenne : caractérisation et assimilation à mésoéchelle de radiances satellitaires infrarouges

Duffourg, Fanny 17 December 2010 (has links) (PDF)
Ce travail de thèse vise à progresser dans la compréhension et la prévision des épisodes de pluies intenses en région méditerranéenne. Cet objectif a été poursuivi sous deux angles. Nous avons tout d'abord documenté les propriétés de l'alimentation en vapeur d'eau des systèmes fortement précipitants méditerranéens en identifiant son origine et les caractéristiques de son transport à l'aide de simulations de mésoéchelle. Sur un ensemble de 10 épisodes, diverses sources d'humidité ont été identifiées et leur contribution respective caractérisée. Les trajectoires privilégiées du transport d'humidité depuis les sources extérieures lointaines et au-dessus de la Méditerranée ont été déterminées. Nous avons ensuite cherché à améliorer la description de l'humidité dans les modèles de prévision numérique du temps à échelle convective en proposant de nouveaux opérateurs d'observation plus réalistes pour l'assimilation des radiances satellitaires infrarouges. Cela a permis d'améliorer la simulation des équivalents-modèle de ces mesures dans la bande spectrale vapeur d'eau en filtrant les gradients d'humidité de fine échelle.
102

A priori structurés pour l'apprentissage supervisé en biologie computationnelle

Jacob, Laurent 25 November 2009 (has links) (PDF)
Les méthodes d'apprentissage supervisé sont utilisées pour construire des fonctions prédisant efficacement le comportement de nouvelles entités à partir de données observées. Elles sont de ce fait très utiles en biologie computationnelle, où elles permettent d'exploiter la quantité grandissante de données expérimentales disponible. Dans certains cas cependant, la quantité de données disponible n'est pas suffisante par rapport à la complexité du problème d'apprentissage. Heureusement ce type de problème mal posé n'est pas nouveau en statistiques. Une approche classique est d'utiliser des méthodes de régularisation ou de manière équivalente d'introduire un a priori sur la forme que la fonction devrait avoir. Dans cette thèse, nous proposons de nouvelles fonctions de régularisation basées sur la connaissance biologique de certains problèmes. Dans le contexte de la conception de vaccins ou de médicaments, nous montrons comment l'utilisation du fait que les cibles similaires lient des ligands similaires permet d'améliorer sensiblement les prédictions pour les cibles ayant peu ou n'ayant pas de ligands connus. Nous proposons également une fonction prenant en compte le fait que seuls certains groupes inconnus de cibles partagent leur comportement de liaison. Finalement, dans le cadre de la prédiction de métastase de tumeurs à partir de données d'expression, nous construisons une fonction de régularisation favorisant les estimateurs parcimonieux dont le support est une union de groupes de gènes potentiellement chevauchants définis a priori, ou un ensemble de gènes ayant tendance à être connectés sur un graphe défini a priori.
103

Les états initiaux pour la prévision numérique en météorologie: incertitude des données et méthode de correction

Fischer, Claude 26 February 2009 (has links) (PDF)
Le mémoire fait la synthèse de mes travaux de recherche autour de la question de la production du ''meilleur`` état initial possible pour démarrer une prévision numérique de l'évolution de l'atmosphère. Cette thématique va nous amener à considérer la problématique de l'assimilation des données. En particulier, mes travaux ont abordé cette question en relation avec les modèles numériques de prévision météorologique régionaux, à aire limitée. Le mémoire peut se lire pour l'essentiel sous deux angles: * des considérations assez amont sur la recherche de l'état optimal d'un système dynamique connu imparfaitement, mais sur lequel un contrôle par des observations indépendantes est possible: observations ciblées dans un modèle idéalisé, scénarii de mesures, croissance des erreurs et analyse par vecteurs singuliers. * études poursuivies dans le cadre de l'implémentation d'une analyse variationnelle dans le modèle régional Aladin de Météo-France: croissance des erreurs dans ce modèle, réglage des variances d'erreur de prévision, prise en compte du système coupleur (plus précisément, de son analyse) dans un système couplé, propriétés de la solution adjointe Des perspectives de recherche et de développement sont abordées en conclusion.
104

Prévision des prix du logement avec des VAR : l'impact de l'addition des effets spatiaux

Kokou, Kokouvi M. Joseph January 2008 (has links) (PDF)
Ce mémoire examine la qualité de prévision des prix immobiliers au Canada et dans cinq de ses régions métropolitaines, en utilisant trois modèles économétriques: VAR (Modèle d'autorégression vectorielle), VECM (Modèle vectoriel à correction d'erreur), VAR spatial (Modèle d'autorégression vectorielle spatiale). Le VAR spatial permet d'incorporer les effets spatiaux dans la modélisation. Les résultats des estimations du VAR, du VECM et du VAR spatial et les fonctions de réponse permettent de faire les constats suivants: (i) un choc d'emploi affecte positivement le prix du logement; (ii) un choc de politique monétaire (taux d'intérêt) a un impact négatif sur le prix immobilier. Pour mesurer la qualité prédictive des trois approches, nous avons fait appel à deux mesures de choix de modèle: la Racine de l'Erreur Quadratique Moyenne (Root Mean Squared Error, RMSE) et le gain d'efficacité (Relative Root Mean Squared Error). Les résultats indiquent que: (i) le VAR spatial donne une prévision de meilleure qualité comparativement au VECM et au VAR conventionnel; (ii) l'incorporation de l'interaction entre deux régions dans un modèle VAR permet de mieux prévoir le prix immobilier. En somme, le taux d'intérêt et l'emploi demeurent des facteurs-clés dans la modélisation du prix du logement. De plus, l'approche VAR spatial permet d'améliorer la qualité de la prévision de cette variable d'intérêt. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Économétrie, Prévision, Prix immobilier, VAR spatial, VECM, VAR.
105

L'approche méthodologique à la validation d'une paramétrisation des aérosols et nuages en utilisant le simulateur des instruments d'Earthcare

Tatarevic, Aleksandra January 2009 (has links) (PDF)
La validation d'un modèle atmosphérique avec les observations satellitaires est basée sur les différentes techniques de télédétection employées afin de récupérer des propriétés physiques et optiques de composantes atmosphériques, notamment des nuages et des aérosols. Il est bien connu que le « retrieval approach » introduit de grandes incohérences en raison des hypothèses diverses portant sur le problème d'inversion où la principale difficulté est l'unicité de la solution. Autrement dit, le milieu analysé peut être composé d'un certain nombre de paramètres physiques inconnus dont les combinaisons différentes mènent au même signal de radiation. En plus du problème d'unicité de la solution, il y a plusieurs problèmes mathématiques reliés à l'existence et à la stabilité de la solution ainsi qu'à la manière dont la solution est construite. Par contre, il est bien connu que les prévisions des modèles atmosphériques souffrent d'incertitudes portant sur l'approche numérique qui limite leurs applications à la simulation de phénomènes naturels. Malgré ces difficultés, certains aspects des prévisions numériques peuvent être considérées comme réalistes parce qu'elles prennent explicitement en considération les principes de la physique, dont des processus microphysiques des nuages et des aérosols. Dans ce contexte, la motivation principale de cette recherche est d'évaluer le potentiel de la validation des paramétrisations physiques des aérosols et des nuages dans les modèles climatiques par le biais des mesures satellitaires (radar et lidar) en utilisant les « simulation vers l'avant ». Dans cette étude, nous utilisons une approche qui emploie le modèle Simulateur des instruments d'EarthCARE afin de reproduire des mesures satellitaires comparables à celles du radar et du lidar. Compte tenu du manque de mesures satellitaires, la validation se base sur les mesures directes du lidar et du radar de l'expérience APEX-E3 réalisées au printemps 2003 où les fréquences et la performance des systèmes d'observation correspondent à celles qui vont être mesurées par le satellite EarthCARE. Les caractéristiques microphysiques des nuages et des aérosols ainsi que l'état de l'atmosphère sont produites par le modèle atmosphérique NARCM. Elles sont ensuite converties en données de réflectivité pour le radar et en données de rétrodiffusion pour lidar en utilisant le Simulateur des Instruments d'EarthCARE. Pour terminer, les résultats sont comparés aux mesures de radar et de lidar de l'expérience APEX-E3. Les champs d'aérosols simulés avec NARCM indiquent un accord important avec ceux qui sont observés, mais les propriétés microphysiques des nuages simulées ne sont pas compatibles avec les observations. Autrement dit, les résultats montrent un large désaccord entre la réflectivité observée et la réflectivité simulée en dépit du fait que ses étendues verticales sont relativement similaires. Le nuage simulé est plus mince, situé à plus haute altitude et les valeurs maximales de réflectivité dans le nuage sont environ 5-10 dBZ inférieures à celles du nuage observé. De plus, le coefficient de la rétrodiffusion simulé (sans eau liquide) au-dessous de la base et au-dessus du sommet du nuage est nettement plus faible par rapport au coefficient de rétrodiffusion observé. Il y a également, à ces deux niveaux une plus grande quantité d'eau glacée observée que dans le cas simulé par NARCM. Si la présence d'eau liquide est incluse dans le Simulateur des lnstruments d'EarthCARE, les valeurs simulées du coefficient de rétrodiffusion sont de plusieurs ordres de grandeurs supérieures à celles observées, ce qui suggère que les valeurs du contenu en eau liquide simulées par NARCM sont surestimées d'une manière significative par rapport à toutes les altitudes où le nuage observé est présent. En conclusion, l'analyse montre que la paramétrisation microphysique de Lohmann (Lohmann et Roeckner, 1996) ne possède pas la capacité de produire les quantités glace observées dans le cas de cirrostratus. Il est également constaté que le contenu d'eau glacé de NARCM est sous-estimé, et que le contenu d'eau liquide est surestimé. Les résultats de cette étude confirment donc que l'utilisation du « forward approach » a un grand potentiel dans la validation de la paramétrisation des aérosols et des nuages. Par contre, des nouvelles vérifications seront nécessaires pour accomplir le processus de validation. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Validation, Rétrodiffusion de lidar, Réflectivité de radar, Simulations régionales des modèles atmosphériques.
106

La prévision de l'inflation au Canada

Moisan, Myriam January 2010 (has links) (PDF)
Ce travail vise à présenter un modèle de prévision de l'inflation au Canada à l'aide de données mensuelles. Notre motivation vient du fait que la prévision de l'inflation, au moyen de données historiques de plusieurs années, constitue une nécessité dans le secteur financier. Contrairement aux modèles économétriques classiques, qui n'utilisent que des données macroéconomiques pour prévoir l'inflation, notre modèle utilisera des facteurs dynamiques intégrant le maximum d'information disponible. Cette modélisation, avec beaucoup de données et avec l'ajout de données financières, permettra de contrer le problème de la surparamétrisation et aussi d'augmenter le potentiel de prévision hors échantillon. Malgré que ce travail vise la prévision de l'inflation au Canada, il pourrait être appliqué à d'autres pays industrialisés avec ou sans cible explicite d'inflation. La principale raison motivant notre choix de sujet passe par le besoin de fonder et de calibrer des pondérations d'actifs avec l'information disponible sur les marchés financiers. L'analyse mensuelle de portefeuilles ou de produits structurés, sur un terme de plusieurs années, a besoin d'être pondérée par un modèle de prévision de l'inflation. Le but poursuivi par ce travail sera d'élaborer un tel modèle pour faire la prévision de l'inflation au Canada. Pour former ce modèle, quatre facteurs sont choisis pour capter le contexte d'une économie ouverte: financiers, économiques, prix et travail. Les limitations font que l'inflation des autres pays qui auraient aussi pu être considérés ne le seront pas, étant donné la disponibilité des données et des problèmes de calibration d'une telle étendue. Ce travail ciblera essentiellement la création d'un modèle pour des données canadiennes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Inflation, Facteurs dynamiques, Surparamétrisation, Conditions de non arbitrage, Marchés financiers, Prévisions hors échantillon.
107

Prévision du trafic Internet : modèles et applications

Zhani, Mohamed Faten 06 1900 (has links) (PDF)
Avec l'essor de la métrologie de l'Internet, la prévision du trafic s'est imposée comme une de ses branches les plus importantes. C'est un outil puissant qui permet d'aider à la conception, la mise en place et la gestion des réseaux ainsi qu'à l'ingénierie du trafic et le contrôle des paramètres de qualité de service. L'objectif de cette thèse est d'étudier les techniques de prévision et d'évaluer la performance des modèles de prévision et de les appliquer pour la gestion des files d'attente et le contrôle du taux de perte dans les réseaux à commutation de rafales. Ainsi, on analyse les différents paramètres qui permettent d'améliorer la performance de la prévision en termes d'erreur. Les paramètres étudiés sont : la quantité de données nécessaires pour définir les paramètres du modèle, leur granularité, le nombre d'entrées du modèle ainsi que les caractéristiques du trafic telles que sa variance et la distribution de la taille des paquets. Nous proposons aussi une technique d'échantillonnage baptisée échantillonnage basé sur le maximum (Max-Based Sampling - MBS). Nous prouvons son efficacité pour améliorer la performance de la prévision et préserver l'auto-similarité et la dépendance à long terme du trafic. Le travail porte aussi sur l'exploitation de la prévision du trafic pour la gestion du trafic et le contrôle du taux de perte dans les réseaux à commutation de rafales. Ainsi, nous proposons un nouveau mécanisme de gestion de files d'attente, baptisé α_SNFAQM, qui est basé sur la prévision du trafic. Ce mécanisme permet de stabiliser la taille de la file d'attente et par suite, contrôler les délais d'attente des paquets. Nous proposons aussi une nouvelle technique qui permet de garantir la qualité de service dans les réseaux à commutation de rafales en termes de taux de perte. Elle combine entre la modélisation, la prévision du trafic et les systèmes asservis avec feedback. Elle permet de contrôler efficacement le taux de perte des rafales pour chaque classe de service. Le modèle est ensuite amélioré afin d'éviter les feedbacks du réseau en utilisant la prévision du taux de perte au niveau TCP. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Modélisation et prévision du trafic, techniques d'échantillonnage, gestion des files d'attente, réseaux à commutation de rafales, contrôle du taux de perte, qualité de service, l'automatique.
108

Contribution à l'élaboration de stratégies prospectives pour saisir les incertitudes environnementales et territoriales : application au massif du Fouta-Djalon (Guinée)

Diallo, Alpha Issaga Pallé 02 1900 (has links) (PDF)
La complexité des systèmes territoriaux et environnementaux ainsi que les incertitudes entourant leur avenir sont au cœur du management stratégique de l'environnement à l'échelle des territoires. La compréhension de la première et la réduction des secondes constituent une préoccupation majeure pour les acteurs territoriaux et les chercheurs en prospective environnementale et territoriale. Le but de cette thèse est de contribuer à l'avancement des connaissances en prospective stratégique du territoire centrée sur l'environnement. C'est une recherche appliquée qui est à la fois descriptive, exploratoire et prospective. Elle intègre l'environnement, la géographie, l'écologie, la sociologie, l'anthropologie, l'économie régionale et la prospective stratégique. Elle combine également des démarches relevant de ces différents champs scientifiques. L'objectif de la recherche est de caractériser le développement socio-économique et écologique du système territorial du massif du Fouta-Djalon, cerner les incertitudes liées à ce développement, élaborer des outils d'aide à la décision en vue d'harmoniser et d'optimiser les actions socio-économiques et environnementales et améliorer les conditions de vie de la population. Elle aborde le développement territorial, le comportement stratégique des acteurs territoriaux et la dynamique de l'anthroposystème. Les méthodes utilisées pour l'acquisition des données sont la recherche documentaire, l'inventaire d'infrastructures sociales et d'Entreprises d'Économie Populaire (EÉP), l'enquête par entrevues semi-directives, l'enquête par questionnaire structuré et des observations physionomiques accompagnées de relevés. Celles ayant servi au traitement et à l'analyse de ces données sont l'analyse cluster (ou partitionnement des données), l'analyse discriminante, le test non paramétrique, l'analyse stratégique utilisant la MACTOR (Méthode Acteurs Objectifs et Rapports de forces), le traitement d'images Landsat pour la réalisation des cartes d'occupation du sol et la modélisation systémique basée sur la PenTe (Prospective Environnementale des Territoires). Les résultats montrent qu'en fonction des caractéristiques de développement, les CRD/CU se regroupent dans sept clusters (ou agglomérats). En plus, à une pauvreté manifeste du territoire s'ajoute une disparité de la distribution spatiale des EÉP et des infrastructures sociales. L'analyse du comportement stratégique des acteurs fait constater l'existence des inégalités sociales et l'utilisation non durable des ressources naturelles. Cela fragilise la cohésion sociale et menace l'avenir des écosystèmes naturels. La dynamique prospective du système socio-écologique vient confirmer ces constats. Pour mettre en valeur les indices latents d'équité, freiner l'expansion de l'oekoumène et assurer le développement intégré et durable du système territorial, la mise en œuvre des outils stratégiques élaborés à cet effet s'avère nécessaire. L'originalité de l'étude réside en (i) l'élaboration d'un schéma de conception et de mise en œuvre des Documents Stratégiques de Réduction de la Pauvreté (DSRP) en intégrant des perceptions de la population et des variables du développement territorial, (ii) la caractérisation quantitative et qualitative des inégalités sociales dans la gestion du territoire, (iii) la mise au point d'outils stratégiques de gestion intégrée et durable du territoire et de l'environnement en passant par la représentation sociale de la durabilité territoriale, et (iv) la compréhension de la dynamique des anthroposystèmes et l'élaboration de modèles de durabilité territoriale et environnementale à partir de l'interaction des dimensions démographique, socio-économique, écologique et la référence territoriale. À cause de quelques difficultés rencontrées pendant la collecte des données et certaines faiblesses inhérentes à toute recherche en prospective territoriale et environnementale, ces résultats ont des limites. Ces limites sont liées (i) au fait que les données d'enquête n'aient pas été comparées suivant la distance sociale des répondants dans l'analyse du développement territorial, (ii) à la faible précision des images utilisées pour l'étude de l'occupation du sol, (iii) au fait que les séries des données utilisées pour l'étude de la dynamique du système socio-écologique ne couvrent pas dans certains cas toutes les années de la période, et (iv) à la non prise en compte par le modèle de dynamique prospective du système territorial des difficultés pouvant survenir lors de sa mise en œuvre. Cependant, (a) l'investigation sur l'ensemble de l'espace géographique de la zone d'étude, (b) le traitement des images satellitales sur la base de la connaissance du milieu, (c) le tri des données à partir du croisement des diverses sources, (d) l'utilisation des perceptions et des représentations de la population selon les catégories d'acteurs territoriaux, (e) la pertinence des méthodes et techniques employées pour l'analyse et le traitement des données, et (f) la transdisciplinarité de la recherche, leurs confèrent une fiabilité scientifique certaine. Au regard de la montée des incertitudes environnementales, de la dépendance du développement territorial à des contraintes exogènes et de la demande en infrastructures et équipements, ces résultats ouvrent la perspective d'un programme global et interdisciplinaire de recherche. Ce programme doit s'inscrire dans l'optique d'un suivi écologique et socioéconomique du massif. Pour cela il doit viser une compatibilité durable entre la dynamique des systèmes social et économique et celle du système naturel. Tout en combinant, sous l'angle prospectif, la recherche expérimentale, la recherche participative et la recherche-action, il doit conjuguer l'environnement en termes d'interactions sociétés-milieux et l'environnement en tant que problème. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Environnement, Territoire, Incertitude environnementale, Incertitude territoriale, Prospective territoriale, Prospective environnementale, Massif du Fouta-Djalon.
109

Statistical methods for analysis and correction of high-throughput screening data

Dragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
110

Simulation et assimilation de données radar pour la prévision de la convection profonde à fine échelle

Caumont, Olivier 04 December 2007 (has links) (PDF)
Le travail de thèse a porté sur l'utilisation des données radar dans les domaines de la validation et de l'initialisation des modèles atmosphériques à échelle kilométrique. Dans la première partie, un simulateur radar sophistiqué et modulaire est développé dans le modèle atmosphérique à haute résolution Méso-NH. Des tests de sensibilité sur les différentes formulations utilisées pour décrire chaque processus physique impliqué dans les mesures radar (réflectivités et vents radiaux Doppler) sont effectués. Ils permettent de préciser le niveau de complexité nécessaire pour la simulation de la donnée radar à des fins de validation et pour l'opérateur d'observation à des fins d'assimilation des données radar. Dans la seconde partie, une méthode originale est développée pour assimiler les réflectivités. Cette méthode en deux temps, appelée 1D+3DVar, restitue d'abord des profils verticaux d'humidité à partir de profils de réflectivité par le biais d'une technique bayésienne qui utilise des colonnes voisines d'humidité et de réflectivité cohérentes du modèle. Les pseudo-observations restituées sont à leur tour assimilées par un système d'assimilation 3DVar à la résolution de 2,5 km. La méthode est évaluée et réglée avec à la fois des données simulées et réelles. On montre notamment le bénéfice de l'assimilation des données de réflectivité pour les prévisions à courte échéance de la situation des inondations exceptionnelles de septembre 2002 dans le Gard.

Page generated in 0.0727 seconds