• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 69
  • 27
  • 1
  • Tagged with
  • 274
  • 101
  • 77
  • 62
  • 58
  • 46
  • 42
  • 37
  • 34
  • 30
  • 30
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Simulation des débits d'étiage dans un contexte de changements climatiques : incertitude liée au choix du modèle et au critère de calage

Doucet-Généreux, Pierre-Louis January 2015 (has links)
Les récentes études sur les changements climatiques démontrent que ceux-ci auront un impact sur le régime hydrologique des rivières du Québec. Ils toucheront entre autres la fréquence et la sévérité des étiages, d’où l’importance d’approfondir nos connaissances au niveau de leur simulation. Cette étude, réalisée sur le bassin versant de la rivière Yamaska, évalue l’impact du choix d’un critère de calage sur la simulation des étiages en période de changements climatiques pour les modèles GR4J et SWAT. Les aspects suivants sont évalués en fonction du critère de calage choisi : la qualité des indicateurs d’étiage simulés et la variation de l’incertitude sur les étiages entre la période de référence (1971-1995) et la période future (2041-2065). Les deux modèles sont calés avec six critères basés sur le critère de Nash-Sutcliffe (NSE) ainsi qu’un critère basé sur l’indicateur d’étiage 7Q2 afin d’effectuer les simulations à partir de douze projections climatiques (5 MRCC, 7 NARCCAP). Pour GR4J, les résultats montrent une aggravation significative des étiages futurs. En comparaison avec l’emploi du critère NSE, l’utilisation d’un critère de calage orienté vers les étiages permet de mieux les simuler et de minimiser l’incertitude associée aux changements climatiques tout en simulant une aggravation moindre des étiages pour la période future. Pour SWAT, le choix du critère de calage n’a pas le même impact. En effet, les simulations ne montrent pas toutes une aggravation des étiages et ont de la difficulté à reproduire les indicateurs d’étiage observés. De plus, l’incertitude associée aux changements climatiques est moins influencée par le choix du critère de calage que pour le modèle GR4J. Pour une étude sur les étiages en changements climatiques, il est donc important de porter une attention particulière au choix du critère de calage. De plus, le choix du modèle est important puisque l’utilisation d’un modèle distribué tel que SWAT ne favorise pas nécessairement la simulation des étiages.
2

Equivalence en Etanchéité Minérale : Caractérisation et Prévision

Guyonnet, Dominique 26 September 2003 (has links) (PDF)
Le thème fédérateur de mes travaux de recherche passés et en cours est : la prévention et la prévision de l'impact de sources de pollution sur le sous-sol. Ce thème général a été décliné suivant plusieurs axes de recherche : a) Résolution des équations de bilan de masse décrivant la migration des polluants dans l'eau souterraine, b) Caractérisation des barrières minérales pour le confinement des déchets, c) Comportement des déchets à la lixiviation, d) Prise en compte de l'incertitude dans l'évaluation du risque d'exposition aux polluants du sol.
3

Vers une planification robuste et sûre pour les systèmes autonomes

Pepy, Romain 04 February 2009 (has links) (PDF)
De nombreux outils existent pour résoudre les problèmes de planification sous contraintes. On peut les regrouper en deux classes principales. Les plus anciens planificateurs utilisent une discrétisation préalable de l'espace d'état. Les plus récents, les planificateurs à échantillonnage, permettent une exploration plus efficace. Ces planificateurs sont utilisés dans de nombreux domaines, comme la chimie, la biologie, la robotique, l'automatique ou encore l'intelligence artificielle. La contribution majeure de nos travaux est d'apporter une réponse au problème de planification de trajectoires en présence d'incertitudes en associant une technique de planification moderne, permettant une exploration rapide de l'espace d'état à des méthodes de localisation permettant de caractériser l'incertitude sur l'état du système à un instant donné. Deux approches ont été suivies. Dans la première, le planificateur utilise une représentation probabiliste de l'état du système à un instant donné, par une densité de probabilité gaussienne. La propagation des erreurs est effectuée en utilisant un filtre de Kalman étendu. Dans la deuxième approche, nous englobons dans un ensemble calculable les états que peut prendre le système à un instant donné compte tenu de bornes sur les erreurs commises. Contrairement à l'approche probabiliste précédente, cette approche permet de fournir une garantie sur la sûreté du système, à condition bien sûr que les hypothèses sur les bruits d'états qui la fondent soient satisfaites.
4

Optimisation en présence d’incertitudes / Optimization in the presence of uncertainties

Holdorf Lopez, Rafael 31 May 2010 (has links)
L’optimisation est un sujet très important dans tous les domaines. Cependant, parmi toutes les applications de l’optimisation, il est difficile de trouver des exemples de systèmes à optimiser qui ne comprennent pas un certain niveau d'incertitude sur les valeurs de quelques paramètres. Le thème central de cette thèse est donc le traitement des différents aspects de l’optimisation en présence d’incertitudes. Nous commençons par présenter un bref état de l’art des méthodes permettant de prendre en compte les incertitudes dans l’optimisation. Cette revue de la littérature a permis de constater une lacune concernant la caractérisation des propriétés probabilistes du point d’optimum de fonctions dépendant de paramètres aléatoires. Donc, la première contribution de cette thèse est le développement de deux méthodes pour approcher la fonction densité de probabilité (FDP) d’un tel point : la méthode basée sur la Simulation de Monte Carlo et la méthode de projection en dimension finie basée sur l’Approximation par polynômes de chaos. Les résultats numériques ont montré que celle-ci est adaptée à l’approximation de la FDP du point optimal du processus d'optimisation dans les situations étudiées. Il a été montré que la méthode numérique est capable d’approcher aussi des moments d'ordre élevé du point optimal, tels que l’aplatissement et l’asymétrie. Ensuite, nous passons au traitement de contraintes probabilistes en utilisant l’optimisation fiabiliste. Dans ce sujet, une nouvelle méthode basée sur des coefficients de sécurité est développée. Les exemples montrent que le principal avantage de cette méthode est son coût de calcul qui est très proche de celui de l’optimisation déterministe conventionnelle, ce qui permet son couplage avec un algorithme d’optimisation globale arbitraire. / The optimization is a very important tool in several domains. However, among its applications, it is hard to find examples of systems to be optimized that do not possess a certain uncertainty level on its parameters. The main goal of this thesis is the treatment of different aspects of the optimization under uncertainty. We present a brief review of the literature on this topic, which shows the lack of methods able to characterize the probabilistic properties of the optimum point of functions that depend on random parameters. Thus, the first main contribution of this thesis is the development of two methods to eliminate this lack: the first is based on Monte Carlo Simulation (MCS) (considered as the reference result) and the second is based on the polynomial chaos expansion (PCE). The validation of the PCE based method was pursued by comparing its results to those provided by the MCS method. The numerical analysis shows that the PCE method is able to approximate the probability density function of the optimal point in all the problems solved. It was also showed that it is able to approximate even high order statistical moments such as the kurtosis and the asymmetry. The second main contribution of this thesis is on the treatment of probabilistic constraints using the reliability based design optimization (RBDO). Here, a new RBDO method based on safety factors was developed. The numerical examples showed that the main advantage of such method is its computational cost, which is very close to the one of the standard deterministic optimization. This fact makes it possible to couple the new method with global optimization algorithms.
5

Définition d'un cadre conceptuel et méthodologique pour concevoir un système à fléxibilité souhaitée. / Definition of a conceptual and methodological framework for designing a wished flexibility system

Lelièvre, Adrien 12 July 2011 (has links)
Dans un environnement économique décrit comme turbulent, la flexibilité est perçue comme un facteur clé de succès que les entreprises devraient maximiser. Pourtant, la notion de flexibilité est souvent présentée comme un concept relatif au domaine étudié. Celle-ci reste par conséquent un concept difficile à appréhender de façon globale et est souvent limitée à une fonction analytique malgré les nombreux travaux dont elle a fait l’objet depuis le début du XXe siècle. La complexité provient essentiellement de la multiplicité des domaines d’application, en témoignent les travaux portants sur la classification des différents types de flexibilités et de l’absence d’approche homogène pour traiter ces problématiques. L’enjeu, pour développer une gestion de la flexibilité au sein des niveaux stratégique, tactique et opérationnel, est alors d’intégrer cette dimension au processus décisionnel. Aujourd’hui, seules certaines décisions ont pour objet la flexibilité alors que tout processus de décision, par le changement d’état qu’il opère, modifie la topologie de l’espace des situations atteignables et par conséquent la capacité du système à être flexible. En vue d’établir une véritable politique de couverture du risque efficiente en univers incertain pour les entreprises, notre recherche s’est attachée à proposer une unité de gestion commune pour la flexibilité que nous avons nommée « potentialité ». Nous avons ainsi défini un cadre conceptuel sur lequel repose une méthodologie permettant de concevoir un système à flexibilité souhaitée. Nos travaux ouvrent des perspectives de recherches importantes sur deux axes majeurs. Le premier consiste à formaliser l’expression du besoin en termes de flexibilité dans le cadre de la méthodologie proposée. Le second, concerne le développement d’une politique de flexibilité basée sur la gestion d’un portefeuille de potentialités à l’instar d’une gestion de stock. / In an economic environment described as turbulent, flexibility is perceived as a key success factor which firms should maximize. Nevertheless, notion of flexibility is often presented as a concept relative to field studies. Therefore, flexibility remains a difficult concept to take on board in a global manner. Despite the fact that there are many studies on the subject since the beginning of XXth century, flexibility is often limited to an analytical function. Complexity results essentially from fields applications’ multiplicity and on lack of homogeneous approach to handle these problems as shown in carrying works on different flexibility types classifications. The aim in developing a flexibility management within strategic, tactical and operational levels, is to integrate this dimension into decisionmaking process. In today’s business, only few decisions process have for object flexibility while every decision making process, by the change of state that it operates, modifies space typology to reachable situations and consequently, modifies as well system capacity to be flexible. To establish a real policy for efficient risk cover in uncertain universe for today’s bussinesses, our research attempted to propose a unit of common management for flexibility, which we named "potentiality". Therefore, we defined a conceptual framework in which a methodology allows designing a “wished flexibility” system. Our works open on perspectives researches based on two major axes. The first one consists in formalizing expression of need in terms of flexibility within the proposed methodology framework. The second axe concerns developing a flexibility policy based on a potentialities portfolio management following stock management example.
6

Sur une théorie des méconnaissances en dynamique des structures

PUEL, Guillaume 09 December 2004 (has links) (PDF)
Dans le cadre de la quantification de la qualité d'un<br />modèle par rapport à une référence expérimentale, nous présentons<br />une nouvelle théorie basée sur le concept de méconnaissance qui<br />permet de manipuler un modèle qui est forcément une représentation<br />imparfaite de la réalité, et d'obtenir des résultats prédictifs<br />qui tiennent compte du manque de connaissance que l'on a vis-à-vis<br />de la structure réelle étudiée. Cette théorie, qui mêle théorie<br />des intervalles et théorie des probabilités, repose sur la<br />globalisation des diverses sources d'erreur à l'échelle des<br />sous-structures en utilisant une variable interne scalaire<br />contenue dans un intervalle dont les bornes suivent des lois de<br />probabilités.<br /><br />À partir de ces bornes, si l'on considère une quantité<br />d'intérêt définie sur l'ensemble de la structure (une fréquence<br />propre par exemple), il est possible à partir de la donnée du<br />modèle de méconnaissances de base de calculer un intervalle<br />d'appartenance de cette quantité d'intérêt, dont les bornes sont<br />probabilistes. On définit alors des intervalles de méconnaissances<br />dites effectives, qui ont une certaine probabilité de contenir la<br />quantité d'intérêt associée au modèle.<br /><br />La quantification de la qualité d'un modèle par rapport<br />à une référence expérimentale se traduit alors par la<br />détermination des méconnaissances de base qui sont les plus<br />représentatives des dispersions constatées. L'idée majeure de<br />cette détermination est de considérer que plus on a d'informations<br />expérimentales, plus on est susceptible de réduire les<br />méconnaissances de base. La démarche dite de réduction des<br />méconnaissances est appliquée avec succès sur des cas d'études<br />académiques ainsi que sur un exemple réel de structure<br />industrielle : le support de satellites SYLDA5 présent dans le<br />lanceur Ariane 5.
7

Stabilité des systèmes linéaires incertains à commande contrainte

Henrion, Didier 12 October 1999 (has links) (PDF)
Nous considérons l'analyse de stabilité et la stabilisation des systèmes linéaires incertains à commande contrainte. A l'aide d'une modélisation polytopique des saturations et de la notion de stabilité quadratique locale, nous proposons tout d'abord une méthode d'analyse de stabilité autorisant les saturations. Par la suite, les propriétés géométriques des ellipsoïdes et polyèdres nous permettent de décrire plusieurs méthodes de synthèse: par commande saturante, par commande linéaire par morceaux et finalement par commande polynomiale. Toutes ces méthodes font systématiquement appel à des outils numériques efficaces et largement répandus: équations algébriques de Riccati, inégalités matricielles linéaires et matrices polynomiales.
8

Vers un choix optimisé de la modélisation des dégradations du béton pour la maintenance des structures / An optimized selection of model of degradations in order to an efficient preventive maintenance strategy of reinforced concrete structures, againts corrosion of reinforcements

Rakotovao Ravahatra, Ndrianary 25 September 2015 (has links)
Il est communément accepté qu'une stratégie de maintenance préventive efficace est indispensable pour optimiser la durée de vie d'un ouvrage donné. La présent travail de thèse s'inscrit dans le cadre du projet ANR-EVADEOS (Évaluation non destructive des ouvrages pour la prévision des dégradations et l'optimisation de leur suivi) dont l'objectif est de fournir aux gestionnaires d'ouvrages en béton une stratégie de maintenance préventive vis-à-vis de la corrosion des armatures, en tenant compte des aspects physico-chimiques, ainsi que des contraintes et moyens techniques et financiers des gestionnaires. S'agissant d'une démarche préventive, l'utilisation de modèles de prévision des dégradations est nécessaire. L'objectif global de cette etude est d'orienter le gestionnaire d'ouvrage quant au choix du modèle le plus approprié pour sa structure compte tenu des données dont il dispose et de sa stratégie de maintenance souhaitée. Une synthèse des modèles existants a donc été menée. Cependant, cette étude se focalise par la suite sur les modèles simplifiés car ces derniers ont été conçus pour une utilisation en ingénierie et sont plus accessibles pour le gestionnaire d'ouvrage. La quantité de données disponibles est variable d'un ouvrage à l'autre, ce qui impose de faire des inspections lorsque les données sont insuffisantes pour alimenter les modèles prévisionnels. De plus, les modèles simplifiés ne fournissent que des informations en un point de la surface d'une structure mais ne permettent pas la description des dégradations sur l'ensemble d'une surface, chose essentielle dans une stratégie de maintenance. Enfin, les mécanismes de dégradations, les instruments de mesures et la prévision des modèles sont sujets à des incertitudes. La prise en compte de ces dernières est une démarche essentielle pour l'optimisation de la maintenance. Trois critères ont donc été proposées dans le présent travail de thèse pour le choix d'un modèle : (i) l'adéquation des moyens requis pour son utilisation avec les moyens du gestionnaire (ii) sa capacité à propager des incertitudes (iii) sa capacité à reproduire la corrélation spatiale des dégradations. Les résultats mettent en évidence que les moyens disponibles pour l'inspection ont une forte incidence sur le choix du modèle. D'autre part, l'importance des incertitudes a une influence sur la capacité des modèles à reproduire la corrélation spatiale des dégradations. Dans le travail réalisé, un maître d'ouvrage peut trouver une aide à la décision quant au choix du modèle le plus approprié pour sa structure, compte tenu de ses contraintes de gestions. / It is widely accepted that an efficient maintenance strategy is required to optimize life-cycle of a given structure. This thesis was carried out within the ANR-EVADEOS project, which aims to provide such preventive maintenance strategy for building managers, against RC-corrosion. Physicochemical phenomena as well as the management constraints and financial constraints are also taken into account. The prevision could be made using predictive models. The main objective of this work is to setup a decision tool for selecting appropriate model for a given structure with respect to data availability and management constraints. A synthesis of existing models was carried out, however, this study focused in the sequel on simplified models given that these latter are user-friendly for building managers. When available data is not sufficient to provide input parameters of the models, inspection should be carried out. On the other hand simplified models provide assessment of degradation at a given point of the structure but are not able to compute this assessment over all a surface of a structure. Finally, the degradation processes, the instruments used for inspection, and the computation of the models are all subjected to uncertainties. Taking into account these latter is of utter importance for enhancing maintenance strategy. Three criteria was identified for the selection of the models : (i) data availability and resources allocated for maintenance (ii) the ability of the model to transfer uncertainties, and (iii) to transfer spatial correlation. Results show that data availability has significant impact on the model selection. On the other hand when the magnitudes of uncertainties are larger, ability of the models to reproduce the spatial correlation of the degradations is reduced. The tool for models selection proposed in this work could be useful for building managers.
9

Contribution to control uncertainties in numerical modelling of dam performances : an application to an RCC dam / Contribution pour le contrôle des incertitudes dans la modélisation numérique de la performance de barrages : application à un barrage en BCR

Pimentel Torres Gaspar, Ana Patricia 03 November 2014 (has links)
L’application des approches probabilistes pour tenir compte des incertitudes dans le domaine des barrages est un sujet en développement. Cependant, la plupart des études ont été réalisées sur l’évaluation de la sécurité des barrages pendant leur service. Ce travail de thèse vise à appliquer ce type d’approches et à faire une contribution à l’analyse de risque des barrages en béton compacté au rouleau (BCR) d`es sa construction, à l’aide d’une simulation numérique. Les travaux présentés dans ce manuscrit proposent l’application d’une méthodologie qui vise à quantifier la vulnérabilité vis-à-vis de l’apparition de la fissuration pendant la construction du barrage, ce qui peut affecter `a long-terme la perméabilité et par conséquent, compromettre son comportement structurel. Pour ce faire, l’accent est mis sur les incertitudes liées à quelques caractéristiques des matériaux (e.g., résistance, rapport eau-ciment, entre autres) et aux conditions environnementales pendant la phase de construction. Un modèle thermo-chemo-mécanique est utilisé pour décrire le comportement du BCR. En ce qui concerne le modèle probabiliste, deux aspects sont étudiés: i) comment les incertitudes liées aux variables d’entrée sont propagées dans le modèle, et ii) quelle est l’influence de leur dispersion par rapport à la dispersion totale de la sortie. Ce dernier est évalué par l’intermédiaire d’une analyse de sensibilité globale effectuée avec la méthode RBD-FAST. En outre, la variabilité spatiale des paramètres d’entrée est aussi prise en compte à travers des champs aléatoires bidimensionnels. Par ailleurs, un couplage entre des méthodes de fiabilité et la méthode d’éléments finis est effectué de façon à évaluer le potentiel de fissuration dans chaque couche de BCR lors de sa construction en utilisant un concept de densité de fissuration. Comme résultat important issu de ce travail de recherche, des courbes de probabilité pour la densité de fissuration sont obtenues au niveau de chaque couche en fonction de leur âge et des conditions aux limites, ce qui est considérée comme étant une contribution originale de cette thèse.La méthodologie proposée peut être utilisé pour aider à comprendre comment les incertitudes vont affecter le comportement du barrage pendant sa construction et servir d’appui dans le futur pour améliorer et soutenir la phase de conception du projet de barrage. / The use of fully probabilistic approaches to account for uncertainties within dam engineering is a recently emerging field on which studies have been mostly done concerning the safety evaluation of dams under service. This thesis arises within this framework as a contribution on moving the process of risk analysis of dams beyond empirical knowledge, applying probabilistic tools on the numerical modelling of a roller compacted concrete (RCC) dam during its construction phase.The work developed here aims to propose a methodology so as to account for risks related to cracking during construction which may compromise the dam’s functional and structural behaviour.In order to do so, emphasis is given to uncertainties related to the material itself (i.e.strength, water-to-cement ratio, among others) as well as to ambient conditions during the construction phase of RCC dams. A thermo-chemo-mechanical model is used to describe theRCC behaviour. Concerning the probabilistic model, two aspects are studied : how the uncertainties related to the input variables are propagated through the model, and what is the influence of their dispersion on the dispersion of the output, assessed by performing a global sensitivity analysis by means of the RBD-FAST method. Also, spatial variability of some input parameters is accounted for through bi-dimensional random fields. Furthermore, a coupling between reliability methods and finite element methods is performed in order to evaluate the cracking potential of each casted RCC layer during construction by means of a cracking density concept. As an important outcome of this applied research,probability curves for cracking density within each casted layer as functions of both age and boundary conditions are predicted, which is believed to be an original contribution of this thesis. The proposed methodology may therefore be seen as a contribution to help engineers understand how uncertainties will affect the dam behaviour during construction and rely on it inthe future to improve and support the design phase of the dam project.
10

La décomposition en polynôme du chaos pour l'amélioration de l'assimilation de données ensembliste en hydraulique fluviale

El Moçayd, Nabil 01 March 2017 (has links) (PDF)
Ce travail porte sur la construction d'un modèle réduit en hydraulique fluviale avec une méthode de décomposition en polynôme du chaos. Ce modèle réduit remplace le modèle direct afin de réduire le coût de calcul lié aux méthodes ensemblistes en quantification d'incertitudes et assimilation de données. Le contexte de l'étude est la prévision des crues et la gestion de la ressource en eau. Ce manuscrit est composé de cinq parties, chacune divisée en chapitres. La première partie présente un état de l'art des travaux en quantification des incertitudes et en assimilation de données dans le domaine de l'hydraulique ainsi que les objectifs de la thèse. On présente le cadre de la prévision des crues, ses enjeux et les outils dont on dispose pour prévoir la dynamique des rivières. On présente notamment la future mission SWOT qui a pour but de mesurer les hauteurs d'eau dans les rivières avec un couverture globale à haute résolution. On précise notamment l'apport de ces mesures et leur complémentarité avec les mesures in-situ. La deuxième partie présente les équations de Saint-Venant, qui décrivent les écoulements dans les rivières, ainsi qu'une discrétisation numérique de ces équations, telle qu'implémentée dans le logiciel Mascaret-1D. Le dernier chapitre de cette partie propose des simplifications des équations de Saint-Venant. La troisième partie de ce manuscrit présente les méthodes de quantification et de réduction des incertitudes. On présente notamment le contexte probabiliste de la quantification d'incertitudes et d'analyse de sensibilité. On propose ensuite de réduire la dimension d'un problème stochastique quand on traite de champs aléatoires. Les méthodes de décomposition en polynômes du chaos sont ensuite présentées. Cette partie dédiée à la méthodologie s'achève par un chapitre consacré à l'assimilation de données ensemblistes et à l'utilisation des modèles réduits dans ce cadre. La quatrième partie de ce manuscrit est dédiée aux résultats. On commence par identifier les sources d'incertitudes en hydraulique que l'on s'attache à quantifier et réduire par la suite. Un article en cours de révision détaille la validation d'un modèle réduit pour les équations de Saint-Venant en régime stationnaire lorsque l'incertitude est majoritairement portée par les coefficients de frottement et le débit à l'amont. On montre que les moments statistiques, la densité de probabilité et la matrice de covariances spatiales pour la hauteur d'eau sont efficacement et précisément estimés à l'aide du modèle réduit dont la construction ne nécessite que quelques dizaines d'intégrations du modèle direct. On met à profit l'utilisation du modèle réduit pour réduire le coût de calcul du filtre de Kalman d'Ensemble dans le cadre d'un exercice d'assimilation de données synthétiques de type SWOT. On s'intéresse précisément à la représentation spatiale de la donnée telle que vue par SWOT: couverture globale du réseau, moyennage spatial entre les pixels observés. On montre notamment qu'à budget de calcul donné les résultats de l'analyse d'assimilation de données qui repose sur l'utilisation du modèle réduit sont meilleurs que ceux obtenus avec le filtre classique. On s'intéresse enfin à la construction du modèle réduit en régime instationnaire. On suppose ici que l'incertitude est liée aux coefficients de frottement. Il s'agit à présent de juger de la nécessité du recalcul des coefficients polynomiaux au fil du temps et des cycles d'assimilation de données. Pour ce travail seul des données in-situ ont été considérées. On suppose dans un deuxième temps que l'incertitude est portée par le débit en amont du réseau, qui est un vecteur temporel. On procède à une décomposition de type Karhunen-Loève pour réduire la taille de l'espace incertain aux trois premiers modes. Nous sommes ainsi en mesure de mener à bien un exercice d'assimilation de données. Pour finir, les conclusions et les perspectives de ce travail sont présentées en cinquième partie.

Page generated in 0.11 seconds