• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 109
  • 25
  • 1
  • 1
  • Tagged with
  • 425
  • 205
  • 99
  • 42
  • 39
  • 38
  • 38
  • 37
  • 36
  • 35
  • 32
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
401

Neural Network Modeling for Prediction under Uncertainty in Energy System Applications. / Modélisation à base de réseaux de neurones dédiés à la prédiction sous incertitudes appliqué aux systèmes energétiques

Ak, Ronay 02 July 2014 (has links)
Cette thèse s’intéresse à la problématique de la prédiction dans le cadre du design de systèmes énergétiques et des problèmes d’opération, et en particulier, à l’évaluation de l’adéquation de systèmes de production d’énergie renouvelables. L’objectif général est de développer une approche empirique pour générer des prédictions avec les incertitudes associées. En ce qui concerne cette direction de la recherche, une approche non paramétrique et empirique pour estimer les intervalles de prédiction (PIs) basés sur les réseaux de neurones (NNs) a été développée, quantifiant l’incertitude dans les prédictions due à la variabilité des données d’entrée et du comportement du système (i.e. due au comportement stochastique des sources renouvelables et de la demande d'énergie électrique), et des erreurs liées aux approximations faites pour établir le modèle de prédiction. Une nouvelle méthode basée sur l'optimisation multi-objectif pour estimer les PIs basée sur les réseaux de neurones et optimale à la fois en termes de précision (probabilité de couverture) et d’information (largeur d’intervalle) est proposée. L’ensemble de NN individuels par deux nouvelles approches est enfin présenté comme un moyen d’augmenter la performance des modèles. Des applications sur des études de cas réels démontrent la puissance de la méthode développée. / This Ph.D. work addresses the problem of prediction within energy systems design and operation problems, and particularly the adequacy assessment of renewable power generation systems. The general aim is to develop an empirical modeling framework for providing predictions with the associated uncertainties. Along this research direction, a non-parametric, empirical approach to estimate neural network (NN)-based prediction intervals (PIs) has been developed, accounting for the uncertainty in the predictions due to the variability in the input data and the system behavior (e.g. due to the stochastic behavior of the renewable sources and of the energy demand by the loads), and to model approximation errors. A novel multi-objective framework for estimating NN-based PIs, optimal in terms of both accuracy (coverage probability) and informativeness (interval width) is proposed. Ensembling of individual NNs via two novel approaches is proposed as a way to increase the performance of the models. Applications on real case studies demonstrate the power of the proposed framework.
402

Viabilité biologique et économique pour la gestion durable de pêcheries mixtes / Ecological and economic viability for the sustainable management of mixed fisheries

Gourguet, Sophie 06 September 2013 (has links)
L’objectif général de la thèse est de modéliser les principaux processus biologiques et économiques régissant des pêcheries multi-espèces et multi-flottilles afin de proposer des stratégies viables pour la gestion durable de ces pêcheries mixtes, dans un contexte stochastique et multiobjectif. Plus spécifiquement, cette thèse utilise des analyses de co-viabilité stochastique pour étudier les arbitrages entre des objectifs contradictoires de gestion (conservation, et viabilité économique et sociale) des pêcheries mixtes. Deux pêcheries mixtes sont analysées dans cette thèse : la pêcherie française mixte démersale du golfe de Gascogne et la pêcherie crevettière australienne du Nord (NPF). Ces deux pêcheries sont multi-espèces, et utilisent des stratégies multiples de pêche, induisant des impacts directs et indirects sur les écosystèmes. Cette thèse propose une application de la co-viabilité stochastique à ces deux cas, en prenant en compte leur histoire, leur contexte socio-politique et les différences dans les stratégies et objectifs de gestion. Les résultats suggèrent que le status quo peut être considéré comme une stratégie biologiquement durable mais socio économiquement à risque dans les deux pêcheries (ainsi qu’à risque écologique dans le cas de la pêcherie australienne). Les simulations réalisées pour le golfe de Gascogne permettent de comparer les arbitrages associés à différentes réductions de capacités par flottille et de montrer qu’il existe des solutions de gestion permettant la co-viabilité du système (viabilité biologique des différentes espèces considérées et viabilité socio-économique des flottilles) contrairement à des stratégies de gestion mono-spécifiques ou basées sur la maximisation de la rente. Dans la pêcherie crevettière australienne, l’analyse montre que les stratégies de diversification permettent de limiter le risque économique contrairement aux stratégies plus spécialisées. / Empirical evidence and the theoretical literature both point to stock sustainability and the protection of marine biodiversity as important fisheries management issues. Decision-support tools are increasingly required to operationalize the ecosystem-based approach to fisheries management. These tools need to integrate (i) ecological and socio-economic drivers of changes in fisheries and ecosystems; (ii) complex dynamics; (iii) deal with various sources of uncertainty; and (iv) incorporate multiple, rather than single objectives. The stochastic co-viability approach addresses the trade-offs associated with balancing ecological, economic and social objectives throughout time, and takes into account the complexity and uncertainty of the dynamic interactions which characterize exploited ecosystems and biodiversity. This thesis proposes an application of this co-viability approach to the sustainable management of mixed fisheries, using two contrasting case studies: the French Bay of Biscay (BoB) demersal mixed fishery and the Australian Northern Prawn Fishery (NPF). Both fisheries entail direct and indirect impacts on mixed species communities while also generating large economic returns. Their sustainability is therefore a major societal concern. A dynamic bio-economic modelling approach is used to capture the key biological and economic processes governing these fisheries, combining age- (BoB) or size- (NPF) structured models of multiple species with recruitment uncertainty, and multiple fleets (BoB) or fishing strategies (NPF). Economic uncertainties relating to input and output prices are also considered. The bioeconomic models are used to investigate how the fisheries can operate within a set of constraints relating to the preservation of Spawning Stock Biomasses (BoB) or Spawning Stock Size Indices (NPF) of a set of key target species, maintenance of the economic profitability of various fleets (BoB) or the fishery as a whole (NPF), and limitation of fishing impacts on the broader biodiversity (NPF), under a range of alternative scenarios and management strategies. Results suggest that under a status quo strategy both fisheries can be considered as biologically sustainable, while socio-economically (and ecologically in the NPF case) at risk. Despite very different management contexts and objectives, viable management strategies suggest a reduction in the number of vessels in both cases. The BoB simulations allow comparison of the trade-offs associated with different allocations of this decrease across fleets. Notably, co-viability management strategies entail a more equitable allocation of effort reductions compared to strategies aiming at maximizing economic yield. In the NPF, species catch diversification strategies are shown to perform well in controlling the levels of economic risk, by contrast with more specialized fishing strategies. Furthermore analyses emphasize the importance to the fishing industry of balancing global economic performance with inter-annual economic variability. Promising future developments based on this research involve the incorporation of a broader set of objectives including social dimensions, as well as the integration of ecological interactions, to better address the needs of ecosystem-based approaches to the sustainable harvesting of marine biodiversity.
403

Voyage au coeur des EDSRs du second ordre et autres problèmes contemporains de mathématiques financières.

Possamaï, Dylan 12 December 2011 (has links) (PDF)
Cette thèse présente deux principaux sujets de recherche indépendants, le dernier étant décliné sous la forme de deux problèmes distincts. Dans toute la première partie de la thèse, nous nous intéressons à la notion d'équations différentielles stochastiques rétrogrades du second ordre (dans la suite 2EDSR), introduite tout d'abord par Cheredito, Soner, Touzi et Victoir puis reformulée récemment par Soner, Touzi et Zhang. Nous prouvons dans un premier temps une extension de leurs résultats d'existence et d'unicité lorsque le générateur considéré est seulement continu et à croissance linéaire. Puis, nous poursuivons notre étude par une nouvelle extension au cas d'un générateur quadratique. Ces résultats théoriques nous permettent alors de résoudre un problème de maximisation d'utilité pour un investisseur dans un marché incomplet, à la fois car des contraintes sont imposées sur ses stratégies d'investissement, et parce que la volatilité du marché est supposée être inconnue. Nous prouvons dans notre cadre l'existence de stratégies optimales, caractérisons la fonction valeur du problème grâce à une EDSR du second ordre et résolvons explicitement certains exemples qui nous permettent de mettre en exergue les modifications induites par l'ajout de l'incertitude de volatilité par rapport au cadre habituel. Nous terminons cette première partie en introduisant la notion d'EDSR du second ordre avec réflexion sur un obstacle. Nous prouvons l'existence et l'unicité des solutions de telles équations, et fournissons une application possible au problème de courverture d'options Américaines dans un marché à volatilité incertaine. Le premier chapitre de la seconde partie de cette thèse traite d'un problème de pricing d'options dans un modèle où la liquidité du marché est prise en compte. Nous fournissons des développements asymptotiques de ces prix au voisinage de liquidité infinie et mettons en lumière un phénomène de transition de phase dépendant de la régularité du payoff des options considérées. Quelques résultats numériques sont également proposés. Enfin, nous terminons cette thèse par l'étude d'un problème Principal/Agent dans un cadre d'aléa moral. Une banque (qui joue le rôle de l'agent) possède un certain nombre de prêts dont elle est prête à échanger les intérêts contre des flux de capitaux. La banque peut influencer les probabilités de défaut de ces emprunts en exerçant ou non une activité de surveillance coûteuse. Ces choix de la banque ne sont connus que d'elle seule. Des investisseurs (qui jouent le rôle de principal) souhaitent mettre en place des contrats qui maximisent leur utilité tout en incitant implicitement la banque à exercer une activité de surveillance constante. Nous résolvons ce problème de contrôle optimal explicitement, décrivons le contrat optimal associé ainsi que ses implications économiques et fournissons quelques simulations numériques.
404

LA PLACE D'UNE TECHNOLOGIE D'INFORMATION ET DE COMMUNICATION DANS LE PROCESSUS DE STRUCTURATION D'UNE ORGANISATION : Le cas de l'usage d'une messagerie électronique

Fereyre, Florian 01 July 2010 (has links) (PDF)
Ce travail de recherche tente d'appréhender la place occupée par une technologie d'information et de communication (TIC) au sein de la théorie de la structuration, développée par Anthony Giddens. Nous avons, dans ce cadre, étudié l'usage d'une messagerie électronique interne Lotus Notes au sein d'une organisation commune à EDF et Gaz de France. Ce travail est fondé sur une analyse de l'usage de cette TIC dans un cadre professionnel, sur l'examen de ses formes de déterminations et sur la caractérisation des logiques dans lesquelles elle s'intègre. Ces phénomènes sont liés aux usages de la messagerie en tant que ressource d'allocation et support pour les ressources d'autorité. Ces activités s'inscrivent dans le processus de contrôle réflexif de l'action des usagers. L'étude de ces phénomènes nous a permis de mettre en évidence l'importance de la messagerie électronique en tant que conteneur d'information, participant à la cueillette, à l'entreposage et au recouvrement d'information, ainsi que la place de ces activités dans le processus de structuration à l'œuvre dans l'organisation considérée. Ces phénomènes traduisent un principe structurel fondé sur le contrôle des échanges et de l'information.
405

Réflexions sur l'utilité des modèles mathématiques dans la gestion de la pollution diffuse d'origine agricole

Kauark Leite, Luiz Augusto 26 October 1990 (has links) (PDF)
Cette étude comporte deux objectifs principaux. Le premier est de contribuer à l'évaluation des deux approches, empirique et conceptuelle, de modélisation du transport de polluants diffus d'origine agricole quant à leur capacité à représenter l'évolution temporelle des concentrations et des flux des matières en suspension, des nitrates et du phosphore, à l'exutoire d'un petit bassin versant agricole. Nous avons validé deux modèles représentatifs de chacune des approches ; le premier modèle est inspiré des modèles CREAMS et SWRRB et le deuxième est modèle le HSPF. Le deuxième objectif est d'analyser l'utilité des modèles mathématiques dans la gestion de la pollution diffuse d'origine agricole et ceci par rapport à cinq critères de décision auxquels sont confrontés les gestionnaires : (1) estimation des flux polluants, (2) évaluation du risque de dépassement d'une concentration, (3) description de mécanismes de transport de polluants , (4) détermination et quantification des sources de polluants et (5) évaluation de l'impact sur la qualité de l'eau des changements des pratiques agricoles. La première partie de ce mémoire décrit les enjeux de la pollution diffuse d'origine agricole, analyse les phases du processus de gestion de la qualité de l'eau dans les bassins versants agricoles et situe les diverses méthodologies d'aide à la gestion dans les différentes étapes de ce processus. On met en évidence de quelle manière la modélisation peut apporter une aide aux gestionnaires et aux décideurs. Elle comporte également une description des différentes étapes de la mise en oeuvre d'un modèle et une analyse des principaux problèmes extrinsèques aux modèles qui limitent leur application par les gestionnaires. La deuxième partie décrit les mécanismes mis en jeu dans le transport de polluants d'origine diffuse et les principales approches de modélisation de chaque processus individuel par cycle : l'eau, l'érosion, l'azote puis le phosphore. Enfin nous présentons les principaux modèles mathématiques de simulation du transport des polluants agricoles en les classant, en mettant en évidence leurs avantages et leurs inconvénients, et en précisant leur domaine d'application. La troisième partie présente la démarche de modélisation suivie, les modèles mathématiques utilisés et les résultats obtenus individuellement pour chacun des modèles pour le bassin versant de l'Orgeval (à Mélarchez). Finalement, nous présentons les résultats de nos réflexions sur l'utilité des modèles mathématiques dans la gestion de bassins agricoles afin d'évaluer le réel intérêt d'une telle démarche dans la résolution des problèmes concrets qui sont posés aux gestionnaires. Considérés comme outils de simulation des concentrations ou des débits à l'exutoire, ces modèles sont trop complexes par rapport à l'information disponible dans les données ce qui conduit à une sous-détermination des paramètres. De plus, l'évolution temporelle des concentrations de polluants à l'exutoire est en général mal représentée notamment lors les événements à fortes concentrations. Considérés comme outils de gestion, ces modèles ne sont guère plus performant dans l'estimation des flux polluants à l'exutoire que des modèles plus simples. Par ailleurs, ces modèles pourraient en principe simuler l'évolution d'autres variables d'état (e.g., stock d'azote du sol) ou simuler l'impact de changements des pratiques agricoles sur la qualité de l'eau tels que les modifications des surfaces cultivées ou de la rotation de différentes espèces végétales ou des changements dans la quantité ou dans le mode d'apport de fertilisants. Pour cela ils devraient être validés sur leur réalisme physique, c'est-à-dire, sur leur capacité de décrire fidèlement les processus essentiels responsables de la dynamique de polluants dans le bassin versant. Cependant, comme ils ne sont jamais validés sur cette propriété et comme aucune mesure à l'intérieur du bassin ne permet de justifier a priori la validité de la représentation, on ne peut encore raisonnablement leur accorder confiance pour la prise de décision en matière de gestion.
406

Systèmes optiques interférentiels et incertitudes

Vasseur, Olivier 07 September 2012 (has links) (PDF)
Les développements technologiques permettent aujourd'hui l'élaboration de systèmes optiques interférentiels composés d'un grand nombre de composants. Ainsi, des formules de filtres diélectriques multicouches comportant plusieurs dizaines ou centaines de couches minces ont été proposées. La combinaison cohérente de plusieurs dizaines à plusieurs centaines de sources laser fibrées fait également l'objet de nombreux travaux de recherche. De même, d'autres systèmes comme les réseaux diffractifs bi et tridimensionnels composés d'un grand nombre d'ouvertures peuvent être étudiés. L'évaluation de la robustesse de tels systèmes interférentiels aux incertitudes de fabrication constitue un enjeu important mais d'autant plus difficile que le nombre de paramètres décrivant le système est grand. Dans ce document de synthèse, sont rappelés, dans un premier temps, les méthodologies liés aux plans d'expériences numériques et les résultats concernant leur qualité d'exploration des espaces de grandes dimensions au moyen de la construction d'un graphe : l'Arbre de Longueur Minimale. Dans une seconde partie, l'analyse de l'influence des incertitudes des paramètres d'entrée de systèmes interférentiels sur leurs performances est illustrée au moyen de deux applications : les filtres interférentiels multidiélectriques et la combinaison cohérente de sources laser fibrées. La méthodologie mise en oeuvre permet notamment d'identifier les incertitudes et les synergies les plus critiques au sein du système tout en construisant des métamodèles représentatifs. A partir de ces acquis, la caractérisation spatiale du speckle de surfaces rugueuses et plus généralement la caractérisation de la variabilité spatiale de phénomènes optiques sont ensuite explicitées. Enfin, les perspectives scientifiques issues de l'ensemble de ces activités de recherche sont développées. (PS : Les planches présentées lors de la soutenance ont été ajoutées en annexe du document original : pages 170 à 202).
407

Prise en compte de l'incertitude dans l'expertise des risques naturels en montagne par analyse multicritères et fusion d'information

Tacnet, Jean-Marc 26 November 2009 (has links) (PDF)
Les phénomènes naturels gravitaires rapides tels que les avalanches ou les crues torrentielles menacent les biens et les personnes en montagne mais restent mal connus. Dans un contexte de connaissance partielle des phénomènes, l'expertise contribue, par des approches pluridisciplinaires à la fois qualitatives et quantitatives, à identifier les phénomènes, analyser les risques et proposer des mesures structurelles et/ou non-structurelles pour la réduction des risques. Les jugements d'experts dépendent de la qualité des informations disponibles. En fin de compte, les scénarios de phénomènes et les décisions peuvent ainsi reposer sur des informations incertaines et contradictoires sans pouvoir vraiment identifier la part du vrai, de l'imprécis, du contradictoire ou simplement de l'inconnu dans les hypothèses ayant conduit au résultat. Ce travail analyse les relations entre l'information, ses imperfections et la décision. Il vise d'une part l'amélioration de la traçabilité, de l'explicitation et de la qualité des composants du processus d'expertise et, d'autre part, la fourniture et l'analyse des outils d'aide multicritères à la décision capables de considérer l'information imparfaite (incertaine, imprécise) provenant de sources de fiabilité variable et potentiellement conflictuelles. Dans un premier temps, l'analyse porte sur des méthodes empiriques d'aide multicritères à la décision d'évaluation des composantes du risque. Une méthodologie est proposée pour traduire des modèles existants sous forme hiérarchique puis transformer des modèles hiérarchiques quelconques dans d'autres modèles du même type tout en conservant les mêmes résultats globaux. Cette reconfiguration exhibe des vues différentes des préférences entre critères liées par exemple à l'importance et au rˆole de scénarios basés sur une aggravation de critères dans la décision. Dans un second temps, la méthodologie ER-MCDA associe la fusion d'information et l'aide multicritères à la décision. L'aide multicritères hiérarchique à la décision (AHP) permet de formuler conceptuellement le problème de décision et d'expliciter les préférences entre les critères. Les théories des ensembles flous et des possibilités sont utilisées pour transformer des critères quantitatifs et qualitatifs dans un cadre de discernement commun de décision associé à la théorie des fonctions de croyance via d'une part, la théorie de Dempster-Shafer (DST) et, d'autre part, la théorie de Dezert-Smarandache (DSmT). Finalement, l'aide multicritères à la décision peut être vue comme une alternative pour l'évaluation des composantes du risque. Elle permet non seulement d'améliorer la qualité globale de l'expertise et du processus de décision mais aussi de créer un nouvel espace d'interaction entre l'expertise et les décideurs publics. Au-delà d'un strict intérêt technique, ces méthodes sont des soutiens aussi inattendus que pertinents dans le cadre d'approches intégrées de la gestion du risque.
408

Application en métrologie électrique de dispositifs monoélectroniques : vers une fermeture du triangle métrologique

Steck, Barthélémy 28 November 2007 (has links) (PDF)
Dans l'optique d'une modification du système international d'unités (SI), le LNE développe l'expérience du triangle métrologique (ETM). Cette expérience consiste à appliquer la loi d'Ohm à l'aide des effets Hall quantique pour la résistance, Josephson pour la tension et tunnel à un électron (SET) pour le courant. L'objectif est d'augmenter notre connaissance de la cohérence des constantes impliquées dans ces phénomènes.<br />Dans ce cadre, nous nous somme intéressés dans cette thèse à la possibilité d'utiliser les pompes à électrons de type R à 3 jonctions de façon métrologique autour de 10 pA. Notre montage expérimental est conçu afin de mesurer le courant quantifié généré par le dispositif en utilisant un comparateur cryogénique de courants (CCC).<br />Les principaux résultats ont été obtenus avec une pompe fabriquée par la PTB couplée à un CCC connecté en contre-réaction interne, i.e. utilisé comme un amplificateur de courant et ne donnant qu'une valeur relative du courant. Ces expériences ont permis de montrer l'existence de marches de courant jusqu'à environ 16 pA et une stabilité du courant généré par le dispositif sur des temps longs, indépendamment de la fréquence de pompage jusqu'à 100 MHz. Le niveau de bruit blanc est de 10-15 fA/Hz^(1/2) et, après 7 heures de mesure à une fréquence de 100 MHz, une incertitude relative de type A de 4.10^(-6) a été atteinte.<br />La dernière partie de ce travail présente la première réalisation directe de l'ETM. Dans ce cas, le courant généré par la pompe traverse une résistance étalonnée et la tension aux bornes de celle-ci est comparée à la tension délivrée par un réseau Josephson. Les premiers résultats qui sont présentés semblent prometteurs.
409

Quelle place pour les aides aux technologies de réduction d'émissions en présence d'un prix du carbone? Le cas du secteur électrique

Lecuyer, Oskar 29 November 2013 (has links) (PDF)
Cette thèse étudie les conditions d'efficacité d'un portefeuille de politiques pour réduire les émissions de gaz à effet de serre du secteur électrique. Il est montré qu'en présence d'incertitude, le prix du carbone issu d'un marché de permis d'émissions peut ne pas entraîner suffisamment de réductions d'émission, justifiant l'ajout d'une politique au marché de permis, par exemple une subvention renouvelable. Dans le cadre d'une transition vers une production électrique décarbonée, l'accumulation du capital électrique génère des effets dynamiques complexes. Il est montré que l'utilisation naïve du signal-prix du carbone ou de critères statiques pour évaluer les investissements peut alors conduire à un sous-investissement en capital vert. L'effet d'une modification à la marge du portefeuille de politiques actuel est également étudié. Il est montré en particulier que si on suppose une seule technologie de production fossile à taux d'émission constant, contrainte par un plafond d'émissions - donc toutes les réductions d'émissions proviennent des renouvelables - augmenter à la marge le tarif d'achat renouvelable réduit le prix de l'électricité perçu par le consommateur, et ce paradoxalement même si la taxe à la consommation nécessaire pour financer le tarif augmente. Cette thèse réalise enfin une évaluation qualitative du portefeuille actuel de politiques climat-énergie en France. Cet examen montre que les multiples défaillances du prix du carbone justifient l'utilisation d'une combinaison de politiques, même si le portefeuille cible varie en fonction des hypothèses sur les trajectoires du prix du carbone.
410

Quelques modèles mathématiques en chimie quantique et propagation d'incertitudes

Ehrlacher, Virginie, Ehrlacher, Virginie 12 July 2012 (has links) (PDF)
Ce travail comporte deux volets. Le premier concerne l'étude de défauts locaux dans des matériaux cristallins. Le chapitre 1 donne un bref panorama des principaux modèles utilisés en chimie quantique pour le calcul de structures électroniques. Dans le chapitre 2, nous présentons un modèle variationnel exact qui permet de décrire les défauts locaux d'un cristal périodique dans le cadre de la théorie de Thomas-Fermi-von Weiszäcker. Celui-ci est justifié à l'aide d'arguments de limite thermodynamique. On montre en particulier que les défauts modélisés par cette théorie ne peuvent pas être chargés électriquement. Les chapitres 3 et 4 de cette thèse traitent du phénomène de pollution spectrale. En effet, lorsqu'un opérateur est discrétisé, il peut apparaître des valeurs propres parasites, qui n'appartiennent pas au spectre de l'opérateur initial. Dans le chapitre 3, nous montrons que des méthodes d'approximation de Galerkin via une discrétisation en éléments finis pour approcher le spectre d'opérateurs de Schrödinger périodiques perturbés sont sujettes au phénomène de pollution spectrale. Par ailleurs, les vecteurs propres associés aux valeurs propres parasites peuvent être interprétés comme des états de surface. Nous prouvons qu'il est possible d'éviter ce problème en utilisant des espaces d'éléments finis augmentés, construits à partir des fonctions de Wannier associées à l'opérateur de Schrödinger périodique non perturbé. On montre également que la méthode dite de supercellule, qui consiste à imposer des conditions limites périodiques sur un domaine de simulation contenant le défaut, ne produit pas de pollution spectrale. Dans le chapitre 4, nous établissons des estimations d'erreur a priori pour la méthode de supercellule. En particulier, nous montrons que l'erreur effectuée décroît exponentiellement vite en fonction de la taille de la supercellule considérée. Un deuxième volet concerne l'étude d'algorithmes gloutons pour résoudre des problèmes de propagation d'incertitudes en grande dimension. Le chapitre 5 de cette thèse présente une introduction aux méthodes numériques classiques utilisées dans le domaine de la propagation d'incertitudes, ainsi qu'aux algorithmes gloutons. Dans le chapitre 6, nous prouvons que ces algorithmes peuvent être appliqués à la minimisation de fonctionnelles d'énergie fortement convexes non linéaires et que leur vitesse de convergence est exponentielle en dimension finie. Nous illustrons ces résultats par la résolution de problèmes de l'obstacle avec incertitudes via une formulation pénalisée

Page generated in 0.0329 seconds