Spelling suggestions: "subject:"deneral mathematics"" "subject:"deneral amathematics""
171 |
Équations de Schrödinger à données aléatoires : construction de solutions globales pour des équations sur-critiquesPoiret, Aurélien 19 December 2012 (has links) (PDF)
Dans cette thèse, on construit un grand nombre de solutions globales pour de nombreuses équations de Schrödinger sur-critiques. Le principe consiste à rendre la donnée initiale aléatoire, selon les mêmes méthodes que Nicolas Burq, Nikolay Tzvetkov et Laurent Thomann afin de gagner de la dérivabilité.On considère d'abord l'équation de Schrödinger cubique en dimension 3. En partant de variables aléatoires gaussiennes et de la base de L^2(R^3) formée des fonctions d'Hermite tensorielles, on construit des ensembles de solutions globales pour des données initiales qui sont moralement dans L^2(R^3). Les points clefs de la démonstration sont l'existence d'une estimée bilinéaire de type Bourgain pour l'oscillateur harmonique et la transformation de lentille qui permet de se ramener à prouver l'existence locale de solutions à l'équation de Schrödinger avec potentiel harmonique.On étudie ensuite l'effet régularisant pour prouver un théorème analogue où le gain de dérivée vaut 1/2-2/(p-1) où p correspond à la non linéarité de l'équation. Le gain est donc plus faible que précédemment mais la base de fonctions propres quelconques. De plus, la méthode s'appuyant sur des estimées linéaires, on établit le résultat pour des variables aléatoires dont la queue de distribution est à décroissance exponentielle.Enfin, on démontre des estimées multilinéaires en dimension 2 pour une base de fonctions propres quelconques ainsi que des inégalités de types chaos de Wiener pour une classe générale de variables aléatoires. Cela nous permet d'établir le théorème pour l'équation de Schrödinger quintique, avec un gain de dérivée égal à 1/3, dans le même cadre que la partie précédente.
|
172 |
MULTIPLES MÉTAMODÈLES POUR L'APPROXIMATION ET L'OPTIMISATION DE FONCTIONS NUMÉRIQUES MULTIVARIABLESGinsbourger, David 26 March 2009 (has links) (PDF)
Cette thèse s'inscrit dans la thématique de planification d'expériences numériques. Elle porte plus précisément sur l'optimisation de simulateurs numériques coûteux à évaluer, par des stratégies d'échantillonnage basées sur des représentations simplifiées du simulateur, les metamodèles. Une fois choisi un metamodèle parmi les familles existantes (polynômes, splines, modèles additifs, Krigeage, réseaux de neurones), on estime les paramètres du metamodèle. On dispose alors d'une représentation simplifiée du simulateur, que l'on pourra faire évoluer en fonction des informations apportées par de nouvelles évaluations. Etant donné qu'il est difficile de savoir a priori quel sera le type de metamodèle capable de guider au mieux un algorithme d'optimisation, une des motivations de ce travail est d'examiner comment une construction ad hoc de la structure du metamodèle, voire la prise en compte de plusieurs metamodèles, peuvent améliorer les méthodes d'approximation et les stratégies d'optimisation globale actuellement employées. Cela soulève à la fois des questions mathématiques et statistiques de sélection de modèle (quelles familles de métamodèles considérer ? Comment estimer les termes de covariance et/ou de tendance d'un métamodèle de Krigeage, et selon quels critères les évaluer ? Comment prendre en compte certaines formes d'instationnarité dans la covariance de Krigeage que sont les symétries et la présence de bruits d'observation hétérogènes ?), de combinaison de modèles (Une fois un ensemble de metamodèles choisis, comment agrège-ton les pseudo-informations qu'ils nous apportent ?), et de définition de critères décisionnels pour guider les évaluations au sein d'algorithmes d'optimisation (Comment paralléliser EGO ou des procédures similaires d'exploration sur base de Krigeage ?).
|
173 |
Applications des méthodes multigrilles à l'assimilation de données en géophysiqueNeveu, Emilie 31 March 2011 (has links) (PDF)
Depuis ces trente dernières années, les systèmes d'observation de la Terre et les modèles numériques se sont perfectionnés et complexifiés pour nous fournir toujours plus de données, réelles et numériques. Ces données, de nature très diverse, forment maintenant un ensemble conséquent d'informations précises mais hétérogènes sur les structures et la dynamique des fluides géophysiques. Dans les années 1980, des méthodes d'optimisation, capables de combiner les informations entre elles, ont permis d'estimer les paramètres des modèles numériques et d'obtenir une meilleure prévision des courants marins et atmosphériques. Ces méthodes puissantes, appelées assimilation variationnelle de données, peinent à tirer profit de la toujours plus grande complexité des informations de par le manque de puissance de calcul disponible. L'approche, que nous développons, s'intéresse à l'utilisation des méthodes multigrilles, jusque là réservées à la résolution de systèmes d'équations différentielles, pour résoudre l'assimilation haute résolution de données. Les méthodes multigrilles sont des méthodes de résolution itératives, améliorées par des corrections calculées sur des grilles de plus basses résolutions. Nous commençons par étudier dans le cas d'un modèle linéaire la robustesse de l'approche multigrille et en particulier l'effet de la correction par grille grossière. Nous dérivons ensuite les algorithmes multigrilles dans le cadre non linéaire. Les deux types d'algorithmes étudiés reposent d'une part sur la méthode de Gauss Newton multigrille et d'autre part sur une méthode sans linéarisation globale : le Full Approximation Scheme (FAS). Ceux-ci sont appliqués au problème de l'assimilation variationnelle de données dans le cadre d'une équation de Burgers 1D puis d'un modèle Shallow-water 2D. Leur comportement est analysé et comparé aux méthodes plus traditionnelles de type incrémentale ou multi-incrémentale.
|
174 |
Stabilisation des systèmes quantiques à temps discrets et stabilité des filtres quantiques à temps continusAmini, Hadis 27 September 2012 (has links) (PDF)
Dans cette thèse, nous étudions des rétroactions visant à stabiliser des systèmes quantiques en temps discret soumis à des mesures quantiques non-destructives (QND), ainsi que la stabilité des filtres quantiques à temps continu. Cette thèse comporte deux parties. Dans une première partie, nous généralisons les méthodes mathématiques sous-jacentes à une rétroaction quantique en temps discret testée expérimentalement au Laboratoire Kastler Brossel (LKB) de l'École Normale Supérieure (ENS) de Paris. Plus précisément,nous contribuons à un algorithme de contrôle qui a été utilisé lors de cette expérience récente de rétroaction quantique. L'expérience consiste en la préparation et la stabilisation à la demande d'états nombres de photons (états de Fock) d'un champ de micro-ondes au sein d'une cavité supraconductrice. Pour cela, nous concevons des filtres à temps-réel permettant d'estimer les états quantiques malgré des imperfections et des retards de mesure, et nous proposons une loi de rétroaction assurant la stabilisation d'un état cible prédéterminé. Cette rétroaction de stabilisation est obtenue grâce à des méthodes Lyapunov stochastique et elle repose sur un filtre estimant l'état quantique. Nous prouvons qu'une telle stratégie de contrôle se généralise à d'autres systèmes quantiques en temps discret soumis à des mesures QND. Dans une seconde partie, nous considérons une extension du résultat obtenu pour des filtres quantiques en temps discret au cas des filtres en temps continu. Dans ce but, nous démontrons la stabilité d'un filtre quantique associé à l'équation maîtresse stochastique usuelle découlant par un processus de Wiener. La stabilité signifie ici que la "distance"entre l'état physique et le filtre quantique associé décroit en moyenne. Cette partie étudie également la conception d'un filtre optimal en temps continu en présence d'imperfections de mesure. Pour ce faire, nous étendons la méthode utilisée précédemment pour construire les filtres quantiques en temps discret tolérants aux imperfections de mesure. Enfin,nous obtenons heuristiquement des filtres optimaux généraux en temps continu, dont la dynamique est décrite par des équations maîtresses stochastiques découlant à la fois par processus de Poisson et Wiener. Nous conjecturons que ces filtres optimaux sont stables.
|
175 |
Estimation adaptative avec des données transformées ou incomplètes. Application à des modèles de survieChagny, Gaëlle 05 July 2013 (has links) (PDF)
Cette thèse présente divers problèmes d'estimation fonctionnelle adaptative par sélection d'estimateurs en projection ou à noyaux, utilisant des critères inspirés à la fois de la sélection de modèles et des méthodes de Lepski. Le point commun de nos travaux est l'utilisation de données transformées et/ou incomplètes. La première partie est consacrée à une procédure d'estimation par "déformation'', dont la pertinence est illustrée pour l'estimation des fonctions suivantes : régression additive et multiplicative, densité conditionnelle, fonction de répartition dans un modèle de censure par intervalle, risque instantané pour des données censurées à droite. Le but est de reconstruire une fonction à partir d'un échantillon de couples aléatoires (X,Y). Nous utilisons les données déformées (ф(X),Y) pour proposer des estimateurs adaptatifs, où ф est une fonction bijective que nous estimons également (par exemple la fonction de répartition de X). L'intérêt est double : d'un point de vue théorique, les estimateurs ont des propriétés d'optimalité au sens de l'oracle ; d'un point de vue pratique, ils sont explicites et numériquement stables. La seconde partie s'intéresse à un problème à deux échantillons : nous comparons les distributions de deux variables X et Xₒ au travers de la densité relative, définie comme la densité de la variable Fₒ(X) (Fₒ étant la répartition de Xₒ). Nous construisons des estimateurs adaptatifs, à partir d'un double échantillon de données, possiblement censurées. Des bornes de risque non-asymptotiques sont démontrées, et des vitesses de convergences déduites.
|
176 |
Echanges d'intervalles. Equations cohomologiques et distributions invariantesHmili, Hadda 04 June 2012 (has links) (PDF)
Dans cette thèse, on étudie deux thèmes, a priori différents mais qui rentrent dans le cadre des systèmes dynamiques : les échanges d'intervalles, la résolution d'équations cohomologiques et la description explicite des distributions invariantes par certains difféomorphismes d'un groupe de Lie compact.1 - On établit un critère d'existence de fonctions propres continues non constantes pour les échangesd'intervalles, c'est-à-dire de non mélange faible topologique. On construit pour tout entier m > 3des échanges de m intervalles de rang 2 uniquement ergodiques et non topologiquement faiblementmélangeants. Nous répondons aussi à une question de Ferenczi et Zamboni. On construit aussi pourtout entier pair m ≥ 4 des échanges de m intervalles possédant des valeurs propres irrationnelles et desvaleurs propres rationnelles (avec fonctions propres associées continues par morceaux) et qui sont soituniquement ergodiques, soit non minimaux.2 - On montre qu'un échange d'intervalles affine, dont les pentes sont des puissances d'un mêmeentier n, et dont les coupures et leurs images sont des rationnels , a une dynamique très simple : toutesses orbites sont propres et il possède une orbite périodique ou un cycle périodique.3 - On traite deux questions d'analyse sur un groupe de Lie connexe compact G. i) Soient a ∈ Get γ le difféomorphisme de G donné par γ(x) = ax (translation 'a gauche par a). On donne lesconditions nécessaires et suffisantes pour que l'équation cohomologique f − f ◦ γ = g admette dessolutions dans l'espace de Fréchet C∞(G) des fonctions complexes C∞ sur G. ii) Lorsque G est le toreTn, on détermine explicitement les distributions sur Tn invariantes par un automorphisme affine γ i.e.γ(x) = Ax + a avec A ∈ GL(n, Z) et a ∈ Tn.4 - On donne des résultats obtenus dans 3) une application aux déformations infinitésimales d'unfeuilletage obtenu par suspension d'une translation d'un groupe de Lie compact.
|
177 |
Numerical analysis of highly oscillatory Stochastic PDEsBréhier, Charles-Edouard 27 November 2012 (has links) (PDF)
In a first part, we are interested in the behavior of a system of Stochastic PDEs with two time-scales- more precisely, we focus on the approximation of the slow component thanks to an efficient numerical scheme. We first prove an averaging principle, which states that the slow component converges to the solution of the so-called averaged equation. We then show that a numerical scheme of Euler type provides a good approximation of an unknown coefficient appearing in the averaged equation. Finally, we build and we analyze a discretization scheme based on the previous results, according to the HMM methodology (Heterogeneous Multiscale Method). We precise the orders of convergence with respect to the time-scale parameter and to the parameters of the numerical discretization- we study the convergence in a strong sense - approximation of the trajectories - and in a weak sense - approximation of the laws. In a second part, we study a method for approximating solutions of parabolic PDEs, which combines a semi-lagrangian approach and a Monte-Carlo discretization. We first show in a simplified situation that the variance depends on the discretization steps. We then provide numerical simulations of solutions, in order to show some possible applications of such a method.
|
178 |
Tsunami amplification phenomenaStefanakis, Themistoklis 30 September 2013 (has links) (PDF)
This thesis is divided in four parts. In the first one I will present our work on long wave run-up and some resonant amplification phenomena. With the use of numerical simulations for the nonlinear shallow water equations, we show that in the case of monochromatic waves normally incident on a plane beach, resonant run-up amplification occurs when the incoming wavelength is 5.2 times larger the beach length. We also show that this resonant run-up amplification can be observed for several wave profiles such as bichromatic, polychromatic and cnoidal. However, resonant run-up amplification is not restricted to infinitely sloping beaches. We varied the bathymetric profile, and we saw that resonance is present in the case of piecewise linear and real bathymetries. In the second part I will present a new analytical solution to study the propagation of tsunamis from a finite strip source over constant depth using linear shallow-water wave theory. The solution, which is based on separation of variables and a double Fourier transform in space, is exact, easy to implement and allows the study of realistic waveforms such as N-waves. In the third part I will explore the effect of localized bathymetric features on long wave generation. Even when the final displacement is known from seismic analysis, the deforming seafloor includes relief features such as mounts and trenches. We investigate analytically the effect of bathymetry on the surface wave generation, by solving the forced linear shallow water equation. Our model for bathymetry consists of a cylindrical sill on a flat bottom, to help understand the effect of seamounts on tsunami generation. We derive the same solution by applying both the Laplace and the Fourier transforms in time. We find that as the sill height increases, partial wave trapping reduces the wave height in the far field, while amplifying it above the sill. Finally, in the last part I will try to explore whether small islands can protect nearby coasts from tsunamis as it is widely believed by local communities. Recent findings for the 2010 Mentawai Islands tsunami show amplified run-up on coastal areas behind small islands, compared with the run-up on adjacent locations, not influenced by the presence of the islands. We will investigate the conditions for this run-up amplification by numerically solving the nonlinear shallow water equations. Our bathymetric setup consists of a conical island sitting on a flat bed in front of a plane beach and we send normally incident single waves. The experimental setup is governed by five physical parameters. The objective is twofold: Find the maximum run-up amplification with the least number of simulations. Given that our input space is five-dimensional and a normal grid approach would be prohibitively computationally expensive, we present a recently developed active experimental design strategy, based on Gaussian Processes, which significantly reduces the computational cost. After running two hundred simulations, we find that in none of the cases considered the island did offer protection to the coastal area behind it. On the contrary, we have measured run-up amplification on the beach behind it compared to a lateral location on the beach, not directly affected by the presence of the island, which reached a maximum factor of 1.7. Thus, small islands in the vicinity of the mainland will act as amplifiers of long wave severity at the region directly behind them and not as natural barriers as it was commonly believed so far.
|
179 |
Dictionary learning methods for single-channel source separationLefèvre, Augustin 03 October 2012 (has links) (PDF)
In this thesis we provide three main contributions to blind source separation methods based on NMF. Our first contribution is a group-sparsity inducing penalty specifically tailored for Itakura-Saito NMF. In many music tracks, there are whole intervals where only one source is active at the same time. The group-sparsity penalty we propose allows to blindly indentify these intervals and learn source specific dictionaries. As a consequence, those learned dictionaries can be used to do source separation in other parts of the track were several sources are active. These two tasks of identification and separation are performed simultaneously in one run of group-sparsity Itakura-Saito NMF. Our second contribution is an online algorithm for Itakura-Saito NMF that allows to learn dictionaries on very large audio tracks. Indeed, the memory complexity of a batch implementation NMF grows linearly with the length of the recordings and becomes prohibitive for signals longer than an hour. In contrast, our online algorithm is able to learn NMF on arbitrarily long signals with limited memory usage. Our third contribution deals user informed NMF. In short mixed signals, blind learning becomes very hard and sparsity do not retrieve interpretable dictionaries. Our contribution is very similar in spirit to inpainting. It relies on the empirical fact that, when observing the spectrogram of a mixture signal, an overwhelming proportion of it consists in regions where only one source is active. We describe an extension of NMF to take into account time-frequency localized information on the absence/presence of each source. We also investigate inferring this information with tools from machine learning.
|
180 |
Degenerate parabolic stochastic partial differential equationsHofmanová, Martina 05 July 2013 (has links) (PDF)
In this thesis, we address several problems arising in the study of nondegenerate and degenerate parabolic SPDEs, stochastic hyperbolic conservation laws and SDEs with continues coefficients. In the first part, we are interested in degenerate parabolic SPDEs, adapt the notion of kinetic formulation and kinetic solution and establish existence, uniqueness as well as continuous dependence on initial data. As a preliminary result we obtain regularity of solutions in the nondegenerate case under the hypothesis that all the coefficients are sufficiently smooth and have bounded derivatives. In the second part, we consider hyperbolic conservation laws with stochastic forcing and study their approximations in the sense of Bhatnagar-Gross-Krook. In particular, we describe the conservation laws as a hydrodynamic limit of the stochastic BGK model as the microscopic scale vanishes. In the last part, we provide a new and fairly elementary proof of Skorkhod's classical theorem on existence of weak solutions to SDEs with continuous coefficients satisfying a suitable Lyapunov condition.
|
Page generated in 0.095 seconds