• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 669
  • 188
  • 90
  • 90
  • 55
  • 29
  • 18
  • 18
  • 18
  • 16
  • 9
  • 9
  • 9
  • 9
  • 9
  • Tagged with
  • 1421
  • 369
  • 207
  • 166
  • 160
  • 144
  • 130
  • 125
  • 115
  • 105
  • 100
  • 92
  • 88
  • 74
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
811

Sur l'algèbre et la combinatoire des sous-graphes d'un graphe / On algebraic and combinatorial aspects of the subgraphs of a graph

Buchwalder, Xavier 30 November 2009 (has links)
On introduit une nouvelle structure algébrique qui formalise bien les problèmes de reconstruction, assortie d’une conjecture qui permettrait de traiter directement des symétries. Le cadre fournit par cette étude permet de plus d’engendrer des relations qui ont lieu entre les nombres de sous-structures, et d’une certaine façon, la conjecture formulée affirme qu’on les obtient toutes. De plus, la généralisation des résultats précédemment obtenus pour la reconstruction permet de chercher `a en apprécier les limites en recherchant des cas où ces relations sont optimales. Ainsi, on montre que les théorèmes de V.Müller et de L.Lovasz sont les meilleurs possibles en exhibant des cas limites. Cette généralisation aux algèbres d’invariants, déjà effectuée par P.J.Cameron et V.B.Mnukhin, permet de placer les problèmes de reconstruction en tenaille entre d’une part des relations (fournies) que l’on veut exploiter, et des exemples qui établissent l’optimalité du résultat. Ainsi, sans aucune donnée sur le groupe, le résultat de L.Lovasz est le meilleur possible, et si l’on considère l’ordre du groupe, le résultat de V.Müller est le meilleur possible. / A new algebraic structure is described, that is a useful framework in whichreconstruction problems and results can be expressed. A conjecture is madewhich would, provided it is true, help to address the problem of symmetries.A consequence of the abstract language in which the theory is formulated isthe expression of relations between the numbers of substructures of a structure(for example, the number of subgraphs of a given type in a graph).Moreover, a generalisation similar to the one achieved by P.J.Cameron andV.B.Mnukhin of the results of edge reconstruction to invariant algebras isstated. Examples are then provided to show that the result of L.Lovasz isbest possible if one knows nothing about the underlying group, and that theresult of V.Müller is best possible if one knows only the order of the group.Thus, reconstruction problems are set in a theory that generates relationsto address them, and at the same time, provides examples establishing thesharpness of the theorems.
812

Du nanofil bimétallique isolé à la distribution de nanofils codéposés : une vision d'ensemble(s) / Segregation in co-deposited bimetallic nanowires : finite-size effects and equilibrium distribution

Maras, Emile 19 November 2012 (has links)
Les nano-objets unidimensionnels alliés présentent des propriétés physiques spécifiques qui résultent à la fois de leur morphologie, de leur taille et de la répartition chimique des atomes. Nous exploitons un modèle d’Ising sur réseau qui rend compte en particulier des effets de ségrégation au sein de nanofils bimétalliques pour obtenir une compréhension fine des effets gouvernant cette répartition à l’équilibre.Dans une première section, nous détaillons l’équilibre d’un nanofil en fonction de sa taille et de sa composition, de manière à mettre en évidence le rôle des effets de taille finie sur la thermodynamique d’équilibre d’objets bimétalliques 1D. Contrairement aux systèmes infinis, l’équilibre dépend de l’ensemble statistique considéré. Ainsi la ségrégation est plus marquée dans l’ensemble canonique, où la concentration du nanofil est imposée, que dans l’ensemble pseudo-Grand Canonique (p-GC) où le nanofil est en équilibre avec un réservoir qui fixe la différence de potentiel chimique entre les espèces. De même, la contrainte de composition dans l’ensemble canonique induit des corrélations chimiques d’occupation des sites qui favorisent davantage les paires hétéroatomiques. Nous montrons que l’écart observé entre les isothermes des deux ensembles croît avec la courbure de l’isotherme canonique et avec l’amplitude des fluctuations de la concentration nominale dans l’ensemble p-GC. Ces fluctuations diminuant avec la taille du nanofil considéré, l’écart entre les ensembles s’annule à la limite thermodynamique. Les effets de taille finie se traduisent par ailleurs par l’apparition, à basse température et pour de petits nanofils, d’une coexistence d’un mode pur en l’espèce ségrégeante et d’un mode de faible concentration nominale constitué principalement de configurations de type cœur-coquille et Janus. Nous développons alors un formalisme permettant de caractériser cette bimodalité.Alors que les résultats évoqués précédemment concernent un nanofil considéré seul, nous étudions dans la deuxième section l’équilibre de l’ensemble des nanofils formant un co-dépôt unidimensionnel inférieur à la mono-couche. Nous montrons que la distribution en taille de ces nanofils varie globalement selon une loi de puissance, quelle que soit la composition du codépôt, de sorte que la ségrégation n’a que peu d’influence sur la microstructure observée. Par contre, en raison du rapport surface/volume et des corrélations chimiques dans ces objets, la composition des nanofils du co-dépôt varie très fortement selon leur taille, les petits nanofils étant plus riches en l’espèce ségrégeante que les plus grands. Enfin, nous étendons le diagramme de bimodalité d’un nanofil seul à l’ensemble des nanofils du co-dépôt et montrons que cette bimodalité est difficilement observable car elle ne concerne que des amas de petite taille qui sont très minoritaires du fait de la cohésion atomique. / The chemical configuration and the specific shape of 1D bimetallic nano-objects endow them with physical properties (such as magnetic ones) that strongly differ from their bulk counterparts. To get a deep insight of the parameters that govern the equilibrium configuration, we consider a rigid lattice-gas Ising model that accounts for segregation effects within bimetallic nanowires that decorate a step edge.In a first section, we detail the equilibrium of a nanowire as a function of both its size and composition in order to specify the role of finite-size effects onto the equilibrium thermodynamics of 1D bimetallic objects. Contrary to infinite systems, this equilibrium depends on the statistical ensemble to be considered. The segregation profile is indeed stiffer in the canonical ensemble where the nanowire concentration is imposed, than in the semi-grand-canonical ensemble (s-GC) where the nanowire is in equibrium with a reservoir that sets the difference of chemical potentials between the species. Moreover, the composition constraint in the canonical ensemble yields chemical correlations between occupation sites that favor heteroatomic pairs. We show that the deviation observed between the isotherms related to the two ensembles increases with the curvature of the canonical isotherm and with the amplitude of the fluctuations of the nominal concentration within the s-GC ensemble. As these fluctuations decrease with the nanowire size, the deviation between ensembles vanishes at the thermodynamical limit. The finite-size effects also imply at low temperature for small nanowires, that a pure mode of the segregating species coexists with a low-concentration mode that mainly corresponds to core-shell and Janus configurations. We develop a framework to characterize the resulting two-mode density of compositions.While the abovementioned results deal with a fixed-size nanowire, we study in the second section the equilibrium of the set of nanowires that forms a submonolayer 1D-codeposit. We show that the size distribution of these nanowires globally varies as a power law, whatever the codeposit composition, so that segregation has a slight influence onto the observed microstructure. However, due to the surface/volume ratio and chemical correlations within these objects, the composition of the nanowires of the codeposit varies strongly with their size, the smaller the richer in the segregating species. Finally we extend the two-mode diagram of the single nanowire to the set of nanowires forming the codeposit and show that this two-mode distribution is hardly visible as it concerns only short nanowires which are very rare, mainly due to atomic cohesion that is reinforced at low temperature.
813

Cooperative coevolutionary mixture of experts : a neuro ensemble approach for automatic decomposition of classification problems

Nguyen, Minh Ha, Information Technology & Electrical Engineering, Australian Defence Force Academy, UNSW January 2006 (has links)
Artificial neural networks have been widely used for machine learning and optimization. A neuro ensemble is a collection of neural networks that works cooperatively on a problem. In the literature, it has been shown that by combining several neural networks, the generalization of the overall system could be enhanced over the separate generalization ability of the individuals. Evolutionary computation can be used to search for a suitable architecture and weights for neural networks. When evolutionary computation is used to evolve a neuro ensemble, it is usually known as evolutionary neuro ensemble. In most real-world problems, we either know little about these problems or the problems are too complex to have a clear vision on how to decompose them by hand. Thus, it is usually desirable to have a method to automatically decompose a complex problem into a set of overlapping or non-overlapping sub-problems and assign one or more specialists (i.e. experts, learning machines) to each of these sub-problems. An important feature of neuro ensemble is automatic problem decomposition. Some neuro ensemble methods are able to generate networks, where each individual network is specialized on a unique sub-task such as mapping a subspace of the feature space. In real world problems, this is usually an important feature for a number of reasons including: (1) it provides an understanding of the decomposition nature of a problem; (2) if a problem changes, one can replace the network associated with the sub-space where the change occurs without affecting the overall ensemble; (3) if one network fails, the rest of the ensemble can still function in their sub-spaces; (4) if one learn the structure of one problem, it can potentially be transferred to other similar problems. In this thesis, I focus on classification problems and present a systematic study of a novel evolutionary neuro ensemble approach which I call cooperative coevolutionary mixture of experts (CCME). Cooperative coevolution (CC) is a branch of evolutionary computation where individuals in different populations cooperate to solve a problem and their fitness function is calculated based on their reciprocal interaction. The mixture of expert model (ME) is a neuro ensemble approach which can generate networks that are specialized on different sub-spaces in the feature space. By combining CC and ME, I have a powerful framework whereby it is able to automatically form the experts and train each of them. I show that the CCME method produces competitive results in terms of generalization ability without increasing the computational cost when compared to traditional training approaches. I also propose two different mechanisms for visualizing the resultant decomposition in high-dimensional feature spaces. The first mechanism is a simple one where data are grouped based on the specialization of each expert and a color-map of the data records is visualized. The second mechanism relies on principal component analysis to project the feature space onto lower dimensions, whereby decision boundaries generated by each expert are visualized through convex approximations. I also investigate the regularization effect of learning by forgetting on the proposed CCME. I show that learning by forgetting helps CCME to generate neuro ensembles of low structural complexity while maintaining their generalization abilities. Overall, the thesis presents an evolutionary neuro ensemble method whereby (1) the generated ensemble generalizes well; (2) it is able to automatically decompose the classification problem; and (3) it generates networks with small architectures.
814

Empilements de sphères et bêta-entiers

Verger-Gaugry, Jean-Louis 09 June 2006 (has links) (PDF)
Les objets considérés dans cette thèse sont les empilements de sphères égales, principalement de $R^n$, et les beta-entiers, pour lesquels on utilise indifféremment le langage des empilements de sphères ou celui des ensembles uniformément discrets pour les décrire. Nous nous sommes concentrés sur les problèmes suivants : (i) aspects métriques et topologiques de l'espace des empilements de sphères pour lequels nous prouvons un théorème de compacité qui généralise le Théorème de Sélection de Mahler relatif aux réseaux, (ii) les relations entre trous profonds et la densité par la constante de Delone ainsi que la structure interne asymptotique, en couches, des empilements les plus denses, (iii) les empilements autosimilaires de type fini pour lesquels nous montrons, pour chacun, l'existence d'un schéma de coupe-et-projection associé à un entier algébrique (l'autosimilarité) dont le degré divise le rang de l'empilement, dans le contexte des quasicristaux mathématiques, (iv) les empilements de sphères sur beta-réseaux, dont l'étude a surtout consisté à comprendre l'ensemble discret localement fini $Z_\beta$ des beta-entiers et à proposer une classification des nombres algébriques qui complémente celle de Bertrand-Mathis, reportée dans un article de Blanchard, et où la mesure de Mahler de beta intervient naturellement.
815

Determinación del equilibrio líquido-vapor de agua, aromáticos y sus mezclas mediante simulación molecular

Contreras Camacho, René Oliver 04 October 2002 (has links)
La simulación molecular presenta la ventaja de ofrecer un marco teórico importante para predecir propiedades termodinámicas y de transporte de fluidos con aplicaciones industriales. En este trabajo, se explotó está ventaja para predecir el equilibrio líquido vapor de agua, compuestos aromáticos y sus mezclas a condiciones tanto sub- como supercríticas. Se realizó una comparación de diferentes potenciales intermoleculares conocidos mediante el cálculo de propiedades termodinámicas de sistemas puros que sirvió de punto de partida para llevar a cabo una optimización de parámetros transferibles para un potencial intermolecular de agua y compuestos aromáticos. En el caso de agua, se llevo a cabo el análisis y evaluación de propiedades termodinámicas de un modelo simple de agua. En este modelo, las contribuciones electrostáticas se aproximan mediante interacciones de corto alcance en vez de las típicas fuerzas de Coulomb de largo alcance. En general, se han encontrado grandes desviaciones con respecto a los datos experimentales, tal como un valor de temperatura crítica de 360K, valor 50% alejado del valor experimental. Debido a que estos resultados nos indican la importancia de incluir las fuerzas de Coulomb en el modelo molecular empleado para reproducir correctamente las propiedades de agua, el trabajo de investigación se ha enfocado en la optimización de los parámetros de los potenciales TIP4P y SPC/E. Los resultados obtenidos muestran que es posible encontrar una mejor aproximación al punto crítico experimental a partir de la optimización del modelo SPC/E. Sin embargo, el buen acuerdo con los experimentos del modelo original a condiciones ambiente se pierde usando los parámetros del modelo optimizado. Por otro lado, la estimación de propiedades de compuestos aromáticos esta de acuerdo con los datos experimentales permitiendo la reproducción de la densidad de líquido saturado, presión de saturación y entalpía de vaporización para compuestos puros. Finalmente, en el caso de mezclas se ha aplicado el conjunto de parámetros obtenidos para aromáticos. Las propiedades termodinámicas de la mezcla binaria aromático-aromático y aromático agua son analizadas en un amplio rango de temperaturas y presiones. Las desviaciones encontradas entre los valores calculados y los experimentales sugieren aplicar un mejor método de optimización para sistemas puros o por otro lado, promover un potencial de interacción intermolecular más sofisticado. Las estimaciones a condiciones cercanas al punto crítico están en buen acuerdo con los datos experimentales. / La simulació molecular presenta l'avantatge d'oferir un marc teòric important per a cercar propietats termodinàmiques i de transport de fluids amb aplicacions industrials. En aquest treball es va explotar aquesta avantatge per predir l'equilibri líquid vapor d'aigua, components aromàtics i les seves mescles, tant a condicions sub com supercrítiques. Es va realitzar una comparació de diferents potencials intermoleculars, coneguts mitjançant el càlcul de propietats termodinàmiques de sistemes purs, que ha servit de punt de sortida per portar a terme una optimització de paràmetres transferibles per a un potencial intermolecular de propietats termodinàmiques d'un model simple d'aigua. En aquest model, les contribucions electrostàtiques s'aproximen mitjançant interaccions de curt abast en lloc de les típiques forces de Coulomb de llarg abast. En general, s'ha trobat grans desviacions respecte a les dades experimentals, tal com un valor de temperatura crítica de 360K, valor 50% allunyat del valor experimental. Degut a que aquests resultats ens indiquen la importància d'incloure les forces de Coulomb en el model molecular emprat per reproduir correctament les propietats d'aigua, el treball d'investigació s'ha enfocat en l'optimització dels paràmetres dels potencials TIP4P i SPC/E. Els resultats obtinguts mostren que és possible trobar una millor aproximació al punt crític experimental a partir de l'optimització del model SPC/E. No obstant, el bon acord amb els experiments del model original a condicions ambientals es perden usant els paràmetres del model optimitzat. Per altre banda, l'estimació de propietats de compostos aromàtics esta d'acord amb les dades experimentals permetent la reproducció de la densitat de líquid saturat, pressió de saturació i entalpia de vaporització per a compostos purs mitjançant el potencial AUA-Aromátics proposat. Finalment, en el cas de mescles s'ha aplicat el conjunt de paràmetres obtinguts per aromàtics. Les propietats termodinàmiques de la mescla binària aromàtic-aromàtic i aromàtic-aigua són analitzades en un ample rang de temperatures i pressions. Les desviacions trobades entre els valors calculats i els experimentals suggereixen aplicar un millor mètode d'optimització per a sistemes purs o, per altre banda, promoure un potencial d'interacció intermolecular més sofisticat. Les estimacions en condicions properes al punt crític tenen un bon acord amb les dades experimentals. / Molecular simulation presents the advantage of providing a unified theoretical framework to model fluid properties for industrial applications. In this work we exploit this advantage to predict thermodynamic properties of pure water and aromatics and their mixtures at sub- and supercritical conditions. A comprehensive comparison of different intermolecular potentials has been carried out in order to analyze model predictions for pure component properties. In addition, an optimization of transferable parameters has been performed for an intermolecular potential for aromatics and water. In the case of water, an analysis and evaluation of the thermodynamic properties of a simple model has been performed. In this model, the electrostatic contributions are approximated by short-range interactions instead of the typical long-range Coulombic forces. On the whole, we found huge deviations with experimental data, such as a critical temperature value of 360K, 50% far away from the experimental value. Since, these calculations indicate the importance of including the electrostatic contribution in order to correctly model water, we also focus on reproducing critical properties from an optimization of the well known TIP4P and SPC/E water model parameters. Results obtained show that a better approximation to the critical point prediction is possible from the optimization of the SPC/E parameters, however, the good agreement with experiments for the original model at room conditions vanishes using the optimized parameters. On the other hand, thermodynamic property estimations of aromatic molecules are in good agreement with experimental data and we are able to reproduce saturation liquid densities, saturation pressures, vaporization enthalpies and liquid structure for pure compounds. Finally, in the case of mixtures, we applied the optimized set of parameters obtained for aromatics. The thermodynamic properties of binary aromatic-aromatic and aromatic water mixtures are analyzed over a wide range of temperatures and pressures. Deviations between the predicted and experimental values are found at low temperatures and high densities suggesting that a better optimization process needs to be performed for the pure systems or a more sophisticated intermolecular interaction potential is needed. Nevertheless, the estimations close to critical conditions are in good agreement with experimental data.
816

Théorie KAM faible et instabilité pour familles d'hamiltoniens

Mandorino, Vito 11 March 2013 (has links) (PDF)
Dans cette thèse nous étudions la dynamique engendrée par une famille de flots Hamiltoniens. Un tel système dynamique à plusieurs générateurs est aussi appelé 'polysystème'. Motivés par des questions liées au phénomène de la diffusion d'Arnold, notre objectif est de construire des trajectoires du polysystème qui relient deux régions lointaines de l'espace des phases. La thèse est divisée en trois parties.Dans la première partie, nous considérons le polysystème engendré par les flots discrétisés d'une famille d'Hamiltoniens Tonelli. En utilisant une approche variationnelle issue de la théorie KAM faible, nous donnons des conditions suffisantes pour l'existence des trajectoires souhaitées.Dans la deuxième partie, nous traitons le cas d'un polysystème engendré par un couple de flots Hamiltoniens à temps continu, dont l'étude rentre dans le cadre de la théorie géométrique du contrôle. Dans ce contexte, nous montrons dans certains cas la transitivité d'un polysystème générique, à l'aide du théorème de transversalité de Thom.La dernière partie de la thèse est dédiée à obtenir une nouvelle version du théorème de transversalité de Thom s'exprimant en termes d'ensembles rectifiables de codimension positive. Dans cette partie il n'est pas question de polysystèmes, ni d'Hamiltoniens. Néanmoins, les résultats obtenus ici sont utilisés dans la deuxième partie de la thèse
817

Estimation de probabilités d'évènements rares et de quantiles extrêmes. Applications dans le domaine aérospatial

Pastel, Rudy 14 February 2012 (has links) (PDF)
Les techniques dédiées aux évènements rares sont d'un grand intérêt pour l'industrie aérospatiale en raison des larges sommes qui peuvent être perdues à cause des risques associés à des probabilités infimes. Cette thèse se concentre la recherche d'outils probabilistes capables d'estimer les probabilités d'évènements rares et les quantiles extrêmes associés à un système boîte noire dont les entrées sont des variables aléatoires. Cette étude est faite au travers de deux cas issus de l'industrie. Le premier est l'estimation de la probabilité de collision entre les satellites Iridium et Cosmos. La Cross-Entropy (CE), le Non-parametric Adaptive Importance Sampling (NAIS) et une technique de type Adaptive Splitting (AST) sont comparés. Au cours de la comparaison, une version améliorée de NAIS est conçue. Au contraire du NAIS qui doit être initialisé avec une variable aléatoire qui génère d'emblée des événements rares, le NAIS adaptatif (ANAIS) peut être initialisé avec la variable aléatoire d'origine du système et n'exige donc pas de connaissance a priori. Le second cas d'étude est l'estimation de la zone de sécurité vis-à-vis de la chute d'un booster de fusée. Bien que les quantiles extrêmes puissent être estimés par le bais de ANAIS ou AST, ils apparaissent comme inadaptés à une distribution spatiale. A cette fin, le Minimum Volume Set (MVS) est choisi dans la littérature. L'estimateur Monte Carlo (MC) de MVS n'étant pas adapté à l'estimation d'un MVS de niveau extrême, des estimateurs dédiés sont conçus à partir d'ANAIS et d'AST. Ces deux derniers surpassent l'estimateur de type MC.
818

Sur la convergence sous-exponentielle de processus de Markov

Wang, Xinyu 04 July 2012 (has links) (PDF)
Ma thèse de doctorat se concentre principalement sur le comportement en temps long des processus de Markov, les inégalités fonctionnelles et les techniques relatives. Plus spécifiquement, Je vais présenter les taux de convergence sous-exponentielle explicites des processus de Markov dans deux approches : la méthode Meyn-Tweedie et l'hypocoercivité (faible). Le document se divise en trois parties. Dans la première partie, Je vais présenter quelques résultats importants et des connaissances connexes. D'abord, un aperçu de mon domaine de recherche sera donné. La convergence exponentielle (ou sous-exponentielle) des chaînes de Markov et des processus de Markov (à temps continu) est un sujet d'actualité dans la théorie des probabilité. La méthode traditionnelle développée et popularisée par Meyn-Tweedie est largement utilisée pour ce problème. Dans la plupart des résultats, le taux de convergence n'est pas explicite, et certains d'entre eux seront brièvement présentés. De plus, la fonction de Lyapunov est cruciale dans l'approche Meyn-Tweedie, et elle est aussi liée à certaines inégalités fonctionnelles (par exemple, inégalité de Poincaré). Cette relation entre fonction de Lyapounov et inégalités fonctionnelles sera donnée avec les résultats au sens L2. En outre, pour l'exemple de l'équation cinétique de Fokker-Planck, un résultat de convergence exponentielle explicite de la solution sera introduite à la manière de Villani : l'hypocoercivité. Ces contenus sont les fondements de mon travail, et mon but est d'étudier la décroissance sous-exponentielle. La deuxième partie, fait l'objet d'un article écrit en coopération avec d'autres sur les taux de convergence sous-exponentielle explicites des processus de Markov à temps continu. Comme nous le savons, les résultats sur les taux de convergence explicites ont été donnés pour le cas exponentiel. Nous les étendons au cas sous-exponentielle par l'approche Meyn-Tweedie. La clé de la preuve est l'estimation du temps de passage dans un ensemble "petite", obtenue par Douc, Fort et Guillin, mais pour laquelle nous donnons une preuve plus simple. Nous utilisons aussi la construction du couplage et donnons une ergodicité sous exponentielle explicite. Enfin, nous donnons quelques applications numériques. Dans la dernière partie, mon second article traite de l'équation cinétique de Fokker-Planck. Je prolonge l'hypocoercivité à l'hypocoercivité faible qui correspond à inégalité de Poincaré faible. Grâce à cette extension, on peut obtenir le taux de convergence explicite de la solution, dans des cas sous-exponentiels. La convergence est au sens H1 et au sens L2. A la fin de ce document, j'étudie le cas de l'entropie relative comme Villani, et j'obtiens la convergence au sens de l'entropie. Enfin, Je donne deux exemples pour les potentiels qui impliquent l'inégalité de Poincaré faible ou l'inégalité de Sobolev logarithmique faible pour la mesure invariante.
819

Constraining uncertainty in climate sensitivity : an ensemble simulation approach based on glacial climate

Schneider von Deimling, Thomas January 2006 (has links)
Uncertainty about the sensitivity of the climate system to changes in the Earth’s radiative balance constitutes a primary source of uncertainty for climate projections. Given the continuous increase in atmospheric greenhouse gas concentrations, constraining the uncertainty range in such type of sensitivity is of vital importance. A common measure for expressing this key characteristic for climate models is the climate sensitivity, defined as the simulated change in global-mean equilibrium temperature resulting from a doubling of atmospheric CO2 concentration. The broad range of climate sensitivity estimates (1.5-4.5°C as given in the last Assessment Report of the Intergovernmental Panel on Climate Change, 2001), inferred from comprehensive climate models, illustrates that the strength of simulated feedback mechanisms varies strongly among different models. The central goal of this thesis is to constrain uncertainty in climate sensitivity. For this objective we first generate a large ensemble of model simulations, covering different feedback strengths, and then request their consistency with present-day observational data and proxy-data from the Last Glacial Maximum (LGM). Our analyses are based on an ensemble of fully-coupled simulations, that were realized with a climate model of intermediate complexity (CLIMBER-2). These model versions cover a broad range of different climate sensitivities, ranging from 1.3 to 5.5°C, and have been generated by simultaneously perturbing a set of 11 model parameters. The analysis of the simulated model feedbacks reveals that the spread in climate sensitivity results from different realizations of the feedback strengths in water vapour, clouds, lapse rate and albedo. The calculated spread in the sum of all feedbacks spans almost the entire plausible range inferred from a sampling of more complex models. We show that the requirement for consistency between simulated pre-industrial climate and a set of seven global-mean data constraints represents a comparatively weak test for model sensitivity (the data constrain climate sensitivity to 1.3-4.9°C). Analyses of the simulated latitudinal profile and of the seasonal cycle suggest that additional present-day data constraints, based on these characteristics, do not further constrain uncertainty in climate sensitivity. The novel approach presented in this thesis consists in systematically combining a large set of LGM simulations with data information from reconstructed regional glacial cooling. Irrespective of uncertainties in model parameters and feedback strengths, the set of our model versions reveals a close link between the simulated warming due to a doubling of CO2, and the cooling obtained for the LGM. Based on this close relationship between past and future temperature evolution, we define a method (based on linear regression) that allows us to estimate robust 5-95% quantiles for climate sensitivity. We thus constrain the range of climate sensitivity to 1.3-3.5°C using proxy-data from the LGM at low and high latitudes. Uncertainties in glacial radiative forcing enlarge this estimate to 1.2-4.3°C, whereas the assumption of large structural uncertainties may increase the upper limit by an additional degree. Using proxy-based data constraints for tropical and Antarctic cooling we show that very different absolute temperature changes in high and low latitudes all yield very similar estimates of climate sensitivity. On the whole, this thesis highlights that LGM proxy-data information can offer an effective means of constraining the uncertainty range in climate sensitivity and thus underlines the potential of paleo-climatic data to reduce uncertainty in future climate projections. / Eine der entscheidenden Hauptquellen für Unsicherheiten von Klimaprojektionen ist, wie sensitiv das Klimasystem auf Änderungen der Strahlungsbilanz der Erde reagiert. Angesichts des kontinuierlichen Anstiegs der atmosphärischen Treibhausgaskonzentrationen ist die Einschränkung des Unsicherheitsbereichs dieser Sensitivität von entscheidender Bedeutung. Ein häufig verwendetes Maß zur Beschreibung dieser charakteristischen Kenngröße von Klimamodellen ist die sogenannte Klimasensitivität, definiert als die Gleichgewichtsänderung der simulierten globalen Mitteltemperatur, welche sich aus einer Verdoppelung des atmosphärischen CO2-Gehalts ergibt. Die breite Spanne der geschätzten Klimasensitivität (1.5-4.5°C), welche ein Vergleich verschiedener komplexer Klimamodelle nahe legt (IPCC, 2001), verdeutlicht, wie groß die Unsicherheit in der Klimasensitivität ist. Diese Unsicherheit resultiert in erster Linie aus Unterschieden in der Simulation der entscheidenden Rückkopplungs-mechanismen in den verschiedenen Modellen. Das zentrale Ziel dieser Dissertation ist die Einschränkung des breiten Unsicherheitsbereichs der Klimasensitivität. Zunächst wird hierzu ein großes Ensemble an Modellsimulationen erzeugt, in welchem gezielt spezifische Modellparameter variiert, und somit unterschiedliche Rückkopplungsstärken der einzelnen Modellversionen realisiert werden. Diese Simulationen werden dann auf ihre Konsistenz mit sowohl heutigen Beobachtungsdaten, als auch Proxy-Daten des Letzten Glazialen Maximums (LGM) überprüft. Unsere Analysen basieren dabei auf einem Ensemble voll gekoppelter Modellläufe, welche mit einem Klimamodell intermediärer Komplexität (CLIMBER-2) realisiert wurden. Die betrachteten Modellversionen decken eine breite Spanne verschiedener Klimasensitivitäten (1.3-5.5°C) ab und wurden durch gleichzeitiges Variieren von 11 Modellparametern erzeugt. Die Analyse der simulierten Rückkopplungs-mechanismen offenbart, dass unterschiedliche Werte der Klimasensitivität in unserem Modellensemble durch verschiedene Realisierungen der Rückkopplungsstärken von Wasserdampf, Wolken, Temperatur-Vertikalprofil und Albedo zu erklären sind. Die berechneten Gesamt-Rückkopplungsstärken unser Modellversionen decken hierbei fast den gesamten möglichen Bereich von komplexeren Modellen ab. Wir zeigen, dass sich die Forderung nach Konsistenz zwischen simuliertem vorindustriellem Klima und Messdaten, die auf einer Wahl von sieben global gemittelten Datensätzen basieren, als vergleichsweise schwacher Test der Modellsensitivität erweist: Die Daten schränken den plausiblen Bereich der Klimasensitivität lediglich auf 1.3-4.9°C ein. Zieht man neben den genannten global gemittelten Messdaten außerdem klimatische Informationen aus Jahreszeit und geografischer Breite hinzu, lässt sich die Unsicherheit in der Klimasensitivität nicht weiter einschränken. Der neue Ansatz dieser Dissertation besteht darin, in systematischer Weise einen großen Satz an LGM-Simulationen mit Dateninformationen über die rekonstruierte glaziale Abkühlung bestimmter Regionen zu kombinieren. Unabhängig von den Unsicherheiten in Modellparametern und Rückkopplungsstärken offenbaren unsere Modellversionen eine ausgeprägte Beziehung zwischen der simulierten Erwärmung aufgrund der CO2-Verdoppelung und der Abkühlung im LGM. Basierend auf dieser engen Beziehung zwischen vergangener und zukünftiger Temperaturentwicklung definieren wir eine Methode (basierend auf linearer Regression), welche es uns erlaubt, robuste 5-95%-Quantile der Klimasensitivität abzuschätzen. Indem wir Proxy-Daten des LGM von niederen und hohen Breiten heranziehen, können wir die Unsicherheitsspanne der Klimasensitivität auf 1.3-3.5°C beschränken. Unsicherheiten im glazialen Strahlungsantrieb vergrößern diese Abschätzung auf 1.2-4.3°C, wobei die Annahme von großen strukturellen Unsicherheiten die obere Grenze um ein weiteres Grad erhöhen kann. Indem wir Proxy-Daten über tropische und antarktische Abkühlung betrachten, können wir zeigen, dass sehr unterschiedliche absolute Temperatur-Änderungen in hohen und niederen Breiten zu sehr ähnlichen Abschätzungen der Klimasensitivität führen. Vor dem Hintergrund unserer Ergebnisse zeigt diese Dissertation, dass LGM-Proxy-Daten ein effektives Mittel zur Einschränkung des Unsicherheitsbereichs der Klimasensitivität sein können und betont somit das Potenzial von Paläoklimadaten, den großen Unsicherheitsbereich von Klimaprojektionen zu reduzieren.
820

Méthodes numériques pour les problèmes des moindres carrés, avec application à l'assimilation de données / Numerical methods for least squares problems with application to data assimilation

Bergou, El Houcine 11 December 2014 (has links)
L'algorithme de Levenberg-Marquardt (LM) est parmi les algorithmes les plus populaires pour la résolution des problèmes des moindres carrés non linéaire. Motivés par la structure des problèmes de l'assimilation de données, nous considérons dans cette thèse l'extension de l'algorithme LM aux situations dans lesquelles le sous problème linéarisé, qui a la forme min||Ax - b ||^2, est résolu de façon approximative, et/ou les données sont bruitées et ne sont précises qu'avec une certaine probabilité. Sous des hypothèses appropriées, on montre que le nouvel algorithme converge presque sûrement vers un point stationnaire du premier ordre. Notre approche est appliquée à une instance dans l'assimilation de données variationnelles où les modèles stochastiques du gradient sont calculés par le lisseur de Kalman d'ensemble (EnKS). On montre la convergence dans L^p de l'EnKS vers le lisseur de Kalman, quand la taille de l'ensemble tend vers l'infini. On montre aussi la convergence de l'approche LM-EnKS, qui est une variante de l'algorithme de LM avec l'EnKS utilisé comme solveur linéaire, vers l'algorithme classique de LM ou le sous problème est résolu de façon exacte. La sensibilité de la méthode de décomposition en valeurs singulières tronquée est étudiée. Nous formulons une expression explicite pour le conditionnement de la solution des moindres carrés tronqués. Cette expression est donnée en termes de valeurs singulières de A et les coefficients de Fourier de b. / The Levenberg-Marquardt algorithm (LM) is one of the most popular algorithms for the solution of nonlinear least squares problems. Motivated by the problem structure in data assimilation, we consider in this thesis the extension of the LM algorithm to the scenarios where the linearized least squares subproblems, of the form min||Ax - b ||^2, are solved inexactly and/or the gradient model is noisy and accurate only within a certain probability. Under appropriate assumptions, we show that the modified algorithm converges globally and almost surely to a first order stationary point. Our approach is applied to an instance in variational data assimilation where stochastic models of the gradient are computed by the so-called ensemble Kalman smoother (EnKS). A convergence proof in L^p of EnKS in the limit for large ensembles to the Kalman smoother is given. We also show the convergence of LM-EnKS approach, which is a variant of the LM algorithm with EnKS as a linear solver, to the classical LM algorithm where the linearized subproblem is solved exactly. The sensitivity of the trucated sigular value decomposition method to solve the linearized subprobems is studied. We formulate an explicit expression for the condition number of the truncated least squares solution. This expression is given in terms of the singular values of A and the Fourier coefficients of b.

Page generated in 0.0316 seconds