• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 145
  • 45
  • 15
  • 14
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • Tagged with
  • 268
  • 70
  • 69
  • 56
  • 39
  • 26
  • 25
  • 25
  • 22
  • 22
  • 22
  • 21
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Contributions to functional inequalities and limit theorems on the configuration space / Inégalités fonctionnelles et théorèmes limites sur l'espace des configurations

Herry, Ronan 03 December 2018 (has links)
Nous présentons des inégalités fonctionnelles pour les processus ponctuels. Nous prouvons une inégalité de Sobolev logarithmique modifiée, une inégalité de Stein et un théorème du moment quatrième sans terme de reste pour une classe de processus ponctuels qui contient les processus binomiaux et les processus de Poisson. Les preuves reposent sur des techniques inspirées de l'approche de Malliavin-Stein et du calcul avec l'opérateur $Gamma$ de Bakry-Émery. Pour mettre en œuvre ces techniques nous développons une analyse stochastique pour les processus ponctuels. Plus généralement, nous mettons au point une théorie d'analyse stochastique sans hypothèse de diffusion. Dans le cadre des processus de Poisson ponctuels, l'inégalité de Stein est généralisée pour étudier la convergence stable vers des limites conditionnellement gaussiennes. Nous appliquons ces résultats pour approcher des processus Gaussiens par des processus de Poisson composés et pour étudier des graphes aléatoires. Nous discutons d'inégalités de transport et de leur conséquence en termes de concentration de la mesure pour les processus binomiaux dont la taille de l'échantillon est aléatoire. Sur un espace métrique mesuré quelconque, nous présentons un développement de la concentration de la mesure qui prend en compte l'agrandissement parallèle d'ensembles disjoints. Cette concentration améliorée donne un contrôle de toutes les valeurs propres du Laplacien métrique. Nous discutons des liens de cette nouvelle notion avec une version de la courbure de Ricci qui fait intervenir le transport à plusieurs marginales / We present functional inequalities and limit theorems for point processes. We prove a modified logarithmic Sobolev inequalities, a Stein inequality and a exact fourth moment theorem for a large class of point processes including mixed binomial processes and Poisson point processes. The proofs of these inequalities are inspired by the Malliavin-Stein approach and the $Gamma$-calculus of Bakry-Emery. The implementation of these techniques requires a development of a stochastic analysis for point processes. As point processes are essentially discrete, we design a theory to study non-diffusive random objects. For Poisson point processes, we extend the Stein inequality to study stable convergence with respect to limits that are conditionally Gaussian. Applications to Poisson approximations of Gaussian processes and random geometry are given. We discuss transport inequalities for mixed binomial processes and their consequences in terms of concentration of measure. On a generic metric measured space, we present a refinement of the notion of concentration of measure that takes into account the parallel enlargement of distinct sets. We link this notion of improved concentration with the eigenvalues of the metric Laplacian and with a version of the Ricci curvature based on multi-marginal optimal transport
172

Os teoremas de singularidade valem se considerarmos efeitos quânticos? / Do Singularity Theorems hold if we consider quantum effects?

Campos, Lissa de Souza 11 October 2018 (has links)
Há duas brechas quânticas nos Teoremas da Singularidade em Relatividade Geral: violações das condições clássicas de energia e flutuações quânticas da geometria do espaço-tempo. Nesta dissertação, estudamos a primeira brecha e abordamos os Teoremas da Singularidade através da condição de energia. Revisamos a abordagem algébrica de Teoria Quântica de Campos para o campo de Klein-Gordon e, neste formalismo, revisamos a derivação de uma desigualdade quântica de energia para os estados de Hadamard em espaços-tempos globalmente hiperbólicos. Apesar das desigualdades quânticas de energia não poderem ser aplicadas diretamente nos Teoremas de Singularidade, mostramos que generalizações dos Teoremas de Hawking e Penrose são provadas considerando condições de energia enfraquecidas inspiradas por elas. Assim sendo, os Teoremas de Singularidade continuam valendo se considerarmos efeitos quânticos sutis. A questão de se efeitos de interação ou efeitos de ``backreaction\'\' poderiam quebrá-los ainda está em aberto; há razões para se esperar ambas as respostas. / There are two quantum loopholes in the Singularity Theorems of General Relativity: violations of the classical energy conditions and quantum fluctuations of the spacetime geometry. In this dissertation, we study the first loophole and approach Singularity Theorems through the energy condition. We review the algebraic approach of Quantum Field Theory for the Klein-Gordon field and, within it, we review the derivation of a quantum energy inequality for Hadamard states on globally hyperbolic spacetimes. However quantum energy inequalities cannot be directly applied to Singularity Theorems, we show that generalized Hawking and Penrose Theorems are proven considering weakened energy conditions inspired by them. Hence, Singularity Theorems do hold under subtle quantum effects. The question of whether interaction or backreaction effects could break them is still open; there are reasons to expect both answers.
173

Géométrie algébrique : théorèmes d'annulation sur les variétés toriques

Girard, Vincent 08 1900 (has links)
No description available.
174

Marchés financiers avec une infinité d'actifs, couverture quadratique et délits d'initiés

Campi, Luciano 18 December 2003 (has links) (PDF)
Cette thèse consiste en une série d'applications du calcul stochastique aux mathématiques financières. Elle est composée de quatre chapitres. Dans le premier on étudie le rapport entre la complétude du marché et l'extrémalité des mesures martingales equivalentes dans le cas d'une infinité d'actifs. Dans le deuxième on trouve des conditions équivalentes à l'existence et unicité d'une mesure martingale equivalente sous la quelle le processus des prix suit des lois n-dimensionnelles données à n fixe. Dans le troisième on étend à un marché admettant une infinité dénombrable d'actifs une charactérisation de la stratégie de couverture optimale (pour le critère moyenne-variance) basé sur une technique de changement de numéraire et extension artificielle. Enfin, dans le quatrième on s'occupe du problème de couverture d'un actif contingent dans un marché avec information asymetrique.
175

Symmetrizations, symmetry of critical points and L1 estimates

Van Schaftingen, Jean 19 May 2005 (has links)
The first part of this thesis is devoted to symmetrizations. Symmetrizations are tranformations of functions that preserve many properties of functions and enhance their symmetry. In the calculus of variation they are a simple and powerful tool to prove that minimizers of functionals are symmetric functions. In this work, the approximation of symmetrizations by simpler symmetrizations is investigated: The existence of a universal approximating sequence is proved, sufficient conditions for deterministic and random sequences to be approximating are given. These approximation methods are then used to prove some symmetry properties of critical points obtained by minimax methods: For example if there is a solution obtained by the mountain pass theorem, then there is a symmetric solution with the same energy. This part ends with a study of the properties of anisotropic symmetrizations i.e. symmetrizations performed with respect to noneuclidean norms. The second part is devoted to L^1 estimates.  In general, the second derivative of the solution of the Poisson equation with L^1 data fails to be in L^1. Recently it was proved that if the data is a L^1 divergence-free vector-field, then even if in general it is false that the second derivative of the solution is in L^1, all the consequences thereof by Sobolev embeddings hold. Elementary proofs of such results, as well as a generalization with a second order operator replacing the divergence, are given. / La première partie de cette thèse est consacrée aux symétrisations. Les symétrisations sont des transformations de fonctions qui préservent de nombreuses propriétés des fonctions et qui améliorent leur symétrie. Elles sont un outil simple et puissant pour montrer dans le calcul des variations que les minimiseurs de certaines fonctionnelles sont des fonctions symétriques. Dans ce travail, nous étudions l'approximation des symétrisations par des symétrisations plus simples. Nous prouvons l'existence d'une suite approximante universelle et nous donnons des conditions suffisantes pour que des suites déterministes et aléatoires soient approximantes. Nous utilisons ensuite ces méthodes d'approximation pour prouver des propriétés de symétrie de points critiques obtenus par des méthodes de minimax. Par exemple, s'il y a une solution obtenue par le théorème du col, alors il y a une solution symétrique de même énergie. Nous achevons cette partie par une étude des symétrisations anisotropes (symétrisations par rapport à des normes non euclidiennes). La seconde partie est consacrée aux estimations L^1. En général, les dérivées secondes de la solution de l'équation de Poisson avec des données L^1 ne sont pas dans L^1. Recemment, on a prouvé que si les données sont un champ de vecteurs L^1 à divergence nulle, même si en général les dérivées secondes ne sont toujours pas dans L^1, toutes les conséquences qui en suivraient par les injections de Sobolev sont vraies. Nous donnons des preuves élémentaires de ces résultats, avec une extension où la divergence est remplacée par un opérateur différentiel du second ordre.
176

Interpolation of Hilbert spaces

Ameur, Yacin January 2002 (has links)
(i) We prove that intermediate Banach spaces A, B with respect to arbitrary Hilbert couples H, K are exact interpolation iff they are exact K-monotonic, i.e. the condition f0∊A and the inequality K(t,g0;K)≤K(t,f0;H), t>0 imply g0∊B and ||g0||B≤||f0||A (K is Peetre's K-functional). It is well-known that this property is implied by the following: for each ρ>1 there exists an operator T : H→K such that Tf0=g0, and K(t,Tf;K)≤ρK(t,f;H), f∊H0+H1, t>0.Verifying the latter property, it suffices to consider the "diagonal" case where H=K is finite-dimensional. In this case, we construct the relevant operators by a method which allows us to explicitly calculate them. In the strongest form of the theorem, it is shown that the statement remains valid when substituting ρ=1. (ii) A new proof is given to a theorem of W. F. Donoghue which characterizes certain classes of functions whose domain of definition are finite sets, and which are subject to certain matrix inequalities. The result generalizes the classical Löwner theorem on monotone matrix functions, and also yields some information with respect to the finer study of monotone functions of finite order. (iii) It is shown that with respect to a positive concave function ψ there exists a function h, positive and regular on ℝ+ and admitting of analytic continuation to the upper half-plane and having positive imaginary part there, such that h≤ψ≤ 2h. This fact is closely related to a theorem of Foiaş, Ong and Rosenthal, which states that regardless of the choice of a concave function ψ, and a weight λ, the weighted l2-space l2(ψ(λ)) is c-interpolation with respect to the couple (l2,l2(λ)), where we have c≤√2 for the best c. It turns out that c=√2 is best possible in this theorem; a fact which is implicit in the work of G. Sparr. (iv) We give a new proof and new interpretation (based on the work (ii) above) of Donoghue's interpolation theorem; for an intermediate Hilbert space H* to be exact interpolation with respect to a regular Hilbert couple H it is necessary and sufficient that the norm in H* be representable in the form ||f||*= (∫[0,∞] (1+t-1)K2(t,f;H)2dρ(t))1/2 with some positive Radon measure ρ on the compactified half-line [0,∞]. (v) The theorem of W. F. Donoghue (item (ii) above) is extended to interpolation of tensor products. Our result is related to A. Korányi's work on monotone matrix functions of several variables.
177

Future generations : A challenge for moral theory

Arrhenius, Gustaf January 2000 (has links)
For the last thirty years or so, there has been a search underway for a theory that canaccommodate our intuitions in regard to moral duties to future generations. The object ofthis search has proved surprisingly elusive. The classical moral theories in the literature allhave perplexing implications in this area. Classical Utilitarianism, for instance, implies thatit could be better to expand a population even if everyone in the resulting populationwould be much worse off than in the original. The main problem has been to find an adequate population theory, that is, a theoryabout the moral value of states of affairs where the number of people, the quality of theirlives, and their identities may vary. Since, arguably, any reasonable moral theory has totake these aspects of possible states of affairs into account when determining the normativestatus of actions, the study of population theory is of general import for moral theory. A number of theories have been proposed in the literature that purport to avoidcounter-intuitive implications such as the one mentioned above. The suggestions arediverse: introducing novel ways of aggregating welfare into a measure of value, revising thenotion of a, life worth living, questioning the way we can compare and measure welfare,counting people's welfare differently depending on the temporal location or the modalfeatures of their lives, and challenging the logic of axiological and normative concepts. Weinvestigate the concepts and assumptions involved in these theories as well as theirimplications for population theory. In our discussion, we propose a number of intuitively appealing and logically weakadequacy conditions for an acceptable population theory. Finally, we consider whether it ispossible to find a theory that satisfies all of these conditions. We prove that no such theory exists.
178

Coding Theorems via Jar Decoding

Meng, Jin January 2013 (has links)
In the development of digital communication and information theory, every channel decoding rule has resulted in a revolution at the time when it was invented. In the area of information theory, early channel coding theorems were established mainly by maximum likelihood decoding, while the arrival of typical sequence decoding signaled the era of multi-user information theory, in which achievability proof became simple and intuitive. Practical channel code design, on the other hand, was based on minimum distance decoding at the early stage. The invention of belief propagation decoding with soft input and soft output, leading to the birth of turbo codes and low-density-parity check (LDPC) codes which are indispensable coding techniques in current communication systems, changed the whole research area so dramatically that people started to use the term "modern coding theory'' to refer to the research based on this decoding rule. In this thesis, we propose a new decoding rule, dubbed jar decoding, which would be expected to bring some new thoughts to both the code performance analysis and the code design. Given any channel with input alphabet X and output alphabet Y, jar decoding rule can be simply expressed as follows: upon receiving the channel output y^n ∈ Y^n, the decoder first forms a set (called a jar) of sequences x^n ∈ X^n considered to be close to y^n and pick any codeword (if any) inside this jar as the decoding output. The way how the decoder forms the jar is defined independently with the actual channel code and even the channel statistics in certain cases. Under this jar decoding, various coding theorems are proved in this thesis. First of all, focusing on the word error probability, jar decoding is shown to be near optimal by the achievabilities proved via jar decoding and the converses proved via a proof technique, dubbed the outer mirror image of jar, which is also quite related to jar decoding. Then a Taylor-type expansion of optimal channel coding rate with finite block length is discovered by combining those achievability and converse theorems, and it is demonstrated that jar decoding is optimal up to the second order in this Taylor-type expansion. Flexibility of jar decoding is then illustrated by proving LDPC coding theorems via jar decoding, where the bit error probability is concerned. And finally, we consider a coding scenario, called interactive encoding and decoding, and show that jar decoding can be also used to prove coding theorems and guide the code design in the scenario of two-way communication.
179

Time Domain Scattering From Single And Multiple Objects

Azizoglu, Suha Alp 01 June 2008 (has links) (PDF)
The importance of the T-matrix method is well-known when frequency domain scattering problems are of interest. With the relatively recent and wide-spread interest in time domain scattering problems, similar applications of the T-matrix method are expected to be useful in the time domain. In this thesis, the time domain spherical scalar wave functions are introduced, translational addition theorems for the time domain spherical scalar wave functions necessary for the solution of multiple scattering problems are given, and the formulation of time domain scattering of scalar waves by two spheres and by two scatterers of arbitrary shape is presented. The whole analysis is performed in the time domain requiring no inverse Fourier integrals to be evaluated. Scattering examples are studied in order to check the numerical accuracy, and demonstrate the utility of the expressions.
180

Résumé des Travaux en Statistique et Applications des Statistiques

Clémençon, Stéphan 01 December 2006 (has links) (PDF)
Ce rapport présente brièvement l'essentiel de mon activité de recherche depuis ma thèse de doctorat [53], laquelle visait principalement à étendre l'utilisation des progrès récents de l'Analyse Harmonique Algorithmique pour l'estimation non paramétrique adaptative dans le cadre d'observations i.i.d. (tels que l'analyse par ondelettes) à l'estimation statistique pour des données markoviennes. Ainsi qu'il est éxpliqué dans [123], des résultats relatifs aux propriétés de concentration de la mesure (i.e. des inégalités de probabilité et de moments sur certaines classes fonctionnelles, adaptées à l'approximation non linéaire) sont indispensables pour exploiter ces outils d'analyse dans un cadre probabiliste et obtenir des procédures d'estimation statistique dont les vitesses de convergence surpassent celles de méthodes antérieures. Dans [53] (voir également [54], [55] et [56]), une méthode d'analyse fondée sur le renouvellement, la méthode dite 'régénérative' (voir [185]), consistant à diviser les trajectoires d'une chaîne de Markov Harris récurrente en segments asymptotiquement i.i.d., a été largement utilisée pour établir les résultats probabilistes requis, le comportement à long terme des processus markoviens étant régi par des processus de renouvellement (définissant de façon aléatoire les segments de la trajectoire). Une fois l'estimateur construit, il importe alors de pouvoir quantifier l'incertitude inhérente à l'estimation fournie (mesurée par des quantiles spécifiques, la variance ou certaines fonctionnelles appropriées de la distribution de la statistique considérée). A cet égard et au delà de l'extrême simplicité de sa mise en oeuvre (puisqu'il s'agit simplement d'eectuer des tirages i.i.d. dans l'échantillon de départ et recalculer la statistique sur le nouvel échantillon, l'échantillon bootstrap), le bootstrap possède des avantages théoriques majeurs sur l'approximation asymptotique gaussienne (la distribution bootstrap approche automatiquement la structure du second ordre dans le développement d'Edegworth de la distribution de la statistique). Il m'est apparu naturel de considérer le problème de l'extension de la procédure traditionnelle de bootstrap aux données markoviennes. Au travers des travaux réalisés en collaboration avec Patrice Bertail, la méthode régénérative s'est avérée non seulement être un outil d'analyse puissant pour établir des théorèmes limites ou des inégalités, mais aussi pouvoir fournir des méthodes pratiques pour l'estimation statistique: la généralisation du bootstrap proposée consiste à ré-échantillonner un nombre aléatoire de segments de données régénératifs (ou d'approximations de ces derniers) de manière à imiter la structure de renouvellement sous-jacente aux données. Cette approche s'est révélée également pertinente pour de nombreux autres problèmes statistiques. Ainsi la première partie du rapport vise essentiellement à présenter le principe des méthodes statistiques fondées sur le renouvellement pour des chaînes de Markov Harris. La seconde partie du rapport est consacrée à la construction et à l'étude de méthodes statistiques pour apprendre à ordonner des objets, et non plus seulement à les classer (i.e. leur aecter un label), dans un cadre supervisé. Ce problème difficile est d'une importance cruciale dans de nombreux domaines d' application, allant de l'élaboration d'indicateurs pour le diagnostic médical à la recherche d'information (moteurs de recherche) et pose d'ambitieuses questions théoriques et algorithmiques, lesquelles ne sont pas encore résolues de manière satisfaisante. Une approche envisageable consiste à se ramener à la classification de paires d'observations, ainsi que le suggère un critère largement utilisé dans les applications mentionnées ci-dessus (le critère AUC) pour évaluer la pertinence d'un ordre. Dans un travail mené en collaboration avec Gabor Lugosi et Nicolas Vayatis, plusieurs résultats ont été obtenus dans cette direction, requérant l'étude de U-processus: l'aspect novateur du problème résidant dans le fait que l'estimateur naturel du risque a ici la forme d'une U-statistique. Toutefois, dans de nombreuses applications telles que la recherche d'information, seul l'ordre relatif aux objets les plus pertinents importe véritablement et la recherche de critères correspondant à de tels problèmes (dits d'ordre localisé) et d'algorithmes permettant de construire des règles pour obtenir des 'rangements' optimaux à l'égard de ces derniers constitue un enjeu crucial dans ce domaine. Plusieurs développements en ce sens ont été réalisés dans une série de travaux (se poursuivant encore actuellement) en collaboration avec Nicolas Vayatis. Enfin, la troisième partie du rapport reflète mon intérêt pour les applications des concepts probabilistes et des méthodes statistiques. Du fait de ma formation initiale, j'ai été naturellement conduit à considérer tout d'abord des applications en finance. Et bien que les approches historiques ne suscitent généralement pas d'engouement dans ce domaine, j'ai pu me convaincre progressivement du rôle important que pouvaient jouer les méthodes statistiques non paramétriques pour analyser les données massives (de très grande dimension et de caractère 'haute fréquence') disponibles en finance afin de détecter des structures cachées et en tirer partie pour l'évaluation du risque de marché ou la gestion de portefeuille par exemple. Ce point de vue est illustré par la brève présentation des travaux menés en ce sens en collaboration avec Skander Slim dans cette troisième partie. Ces dernières années, j'ai eu l'opportunité de pouvoir rencontrer des mathématiciens appliqués et des scientifiques travaillant dans d'autres domaines, pouvant également bénéficier des avancées de la modélisation probabiliste et des méthodes statistiques. J'ai pu ainsi aborder des applications relatives à la toxicologie, plus précisément au problème de l'évaluation des risque de contamination par voie alimentaire, lors de mon année de délégation auprès de l'Institut National de la Recherche Agronomique au sein de l'unité Metarisk, unité pluridisciplinaire entièrement consacrée à l'analyse du risque alimentaire. J'ai pu par exemple utiliser mes compétences dans le domaine de la modélisation maarkovienne afin de proposer un modèle stochastique décrivant l'évolution temporelle de la quantité de contaminant présente dans l'organisme (de manère à prendre en compte à la fois le phénomène d'accumulation du aux ingestions successives et la pharmacocinétique propre au contaminant régissant le processus d'élimination) et des méthodes d'inférence statistique adéquates lors de travaux en collaboration avec Patrice Bertail et Jessica Tressou. Cette direction de recherche se poursuit actuellement et l'on peut espérer qu'elle permette à terme de fonder des recommandations dans le domaine de la santé publique. Par ailleurs, j'ai la chance de pouvoir travailler actuellement avec Hector de Arazoza, Bertran Auvert, Patrice Bertail, Rachid Lounes et Viet-Chi Tran sur la modélisation stochastique de l'épidémie du virus VIH à partir des données épidémiologiques recensées sur la population de Cuba, lesquelles constituent l'une des bases de données les mieux renseignées sur l'évolution d'une épidémie de ce type. Et bien que ce projet vise essentiellement à obtenir un modèle numérique (permettant d'effectuer des prévisions quant à l'incidence de l'épidémie à court terme, de manière à pouvoir planifier la fabrication de la quantité d'anti-rétroviraux nécéssaire par exemple), il nous a conduit à aborder des questions théoriques ambitieuses, allant de l'existence d'une mesure quasi-stationnaire décrivant l'évolution à long terme de l'épidémie aux problèmes relatifs au caractère incomplet des données épidémiologiques disponibles. Il m'est malheureusement impossible d'évoquer ces questions ici sans risquer de les dénaturer, la présentation des problèmes mathématiques rencontrés dans ce projet mériterait à elle seule un rapport entier.

Page generated in 0.0821 seconds