Spelling suggestions: "subject:"probabilités"" "subject:"probabilitées""
181 |
Optimisation stochastique avec contraintes en probabilités et applications / Chance constrained problem and its applicationsPeng, Shen 17 June 2019 (has links)
L'incertitude est une propriété naturelle des systèmes complexes. Les paramètres de certains modèles peuvent être imprécis; la présence de perturbations aléatoires est une source majeure d'incertitude pouvant avoir un impact important sur les performances du système. Dans cette thèse, nous étudierons les problèmes d’optimisation avec contraintes en probabilités dans les cas suivants : Tout d’abord, nous passons en revue les principaux résultats relatifs aux contraintes en probabilités selon trois perspectives: les problèmes liés à la convexité, les reformulations et les approximations de ces contraintes, et le cas de l’optimisation distributionnellement robuste. Pour les problèmes d’optimisation géométriques, nous étudions les programmes avec contraintes en probabilités jointes. A l’aide d’hypothèses d’indépendance des variables aléatoires elliptiquement distribuées, nous déduisons une reformulation des programmes avec contraintes géométriques rectangulaires jointes. Comme la reformulation n’est pas convexe, nous proposons de nouvelles approximations convexes basées sur la transformation des variables ainsi que des méthodes d’approximation linéaire par morceaux. Nos résultats numériques montrent que nos approximations sont asymptotiquement serrées. Lorsque les distributions de probabilité ne sont pas connues à l’avance, le calcul des bornes peut être très utile. Par conséquent, nous développons quatre bornes supérieures pour les contraintes probabilistes individuelles, et jointes dont les vecteur-lignes de la matrice des contraintes sont indépendantes. Sur la base des inégalités de Chebyshev, Chernoff, Bernstein et de Hoeffding, nous proposons des approximations déterministes. Des conditions suffisantes de convexité. Pour réduire la complexité des calculs, nous reformulons les approximations sous forme de problèmes d'optimisation convexes solvables basés sur des approximations linéaires et tangentielles par morceaux. Enfin, des expériences numériques sont menées afin de montrer la qualité des approximations étudiées sur des données aléatoires. Dans certains systèmes complexes, la distribution des paramètres aléatoires n’est que partiellement connue. Pour traiter les incertitudes dans ces cas, nous proposons un ensemble d'incertitude basé sur des données obtenues à partir de distributions mixtes. L'ensemble d'incertitude est construit dans la perspective d'estimer simultanément des moments d'ordre supérieur. Ensuite, nous proposons une reformulation du problème robuste avec contraintes en probabilités en utilisant des données issues d’échantillonnage. Comme la reformulation n’est pas convexe, nous proposons des approximations convexes serrées basées sur la méthode d’approximation linéaire par morceaux sous certaines conditions. Pour le cas général, nous proposons une approximation DC pour dériver une borne supérieure et une approximation convexe relaxée pour dériver une borne inférieure pour la valeur de la solution optimale du problème initial. Enfin, des expériences numériques sont effectuées pour montrer que les approximations proposées sont efficaces. Nous considérons enfin un jeu stochastique à n joueurs non-coopératif. Lorsque l'ensemble de stratégies de chaque joueur contient un ensemble de contraintes linéaires stochastiques, nous modélisons ces contraintes sous la forme de contraintes en probabilité jointes. Pour chaque joueur, nous formulons les contraintes en probabilité dont les variables aléatoires sont soit normalement distribuées, soit elliptiquement distribuées, soit encore définies dans le cadre de l’optimisation distributionnellement robuste. Sous certaines conditions, nous montrons l’existence d’un équilibre de Nash pour ces jeux stochastiques. / Chance constrained optimization is a natural and widely used approaches to provide profitable and reliable decisions under uncertainty. And the topics around the theory and applications of chance constrained problems are interesting and attractive. However, there are still some important issues requiring non-trivial efforts to solve. In view of this, we will systematically investigate chance constrained problems from the following perspectives. As the basis for chance constrained problems, we first review some main research results about chance constraints in three perspectives: convexity of chance constraints, reformulations and approximations for chance constraints and distributionally robust chance constraints. For stochastic geometric programs, we formulate consider a joint rectangular geometric chance constrained program. With elliptically distributed and pairwise independent assumptions for stochastic parameters, we derive a reformulation of the joint rectangular geometric chance constrained programs. As the reformulation is not convex, we propose new convex approximations based on the variable transformation together with piecewise linear approximation methods. Our numerical results show that our approximations are asymptotically tight. When the probability distributions are not known in advance or the reformulation for chance constraints is hard to obtain, bounds on chance constraints can be very useful. Therefore, we develop four upper bounds for individual and joint chance constraints with independent matrix vector rows. Based on the one-side Chebyshev inequality, Chernoff inequality, Bernstein inequality and Hoeffding inequality, we propose deterministic approximations for chance constraints. In addition, various sufficient conditions under which the aforementioned approximations are convex and tractable are derived. To reduce further computational complexity, we reformulate the approximations as tractable convex optimization problems based on piecewise linear and tangent approximations. Finally, based on randomly generated data, numerical experiments are discussed in order to identify the tight deterministic approximations. In some complex systems, the distribution of the random parameters is only known partially. To deal with the complex uncertainties in terms of the distribution and sample data, we propose a data-driven mixture distribution based uncertainty set. The data-driven mixture distribution based uncertainty set is constructed from the perspective of simultaneously estimating higher order moments. Then, with the mixture distribution based uncertainty set, we derive a reformulation of the data-driven robust chance constrained problem. As the reformulation is not a convex program, we propose new and tight convex approximations based on the piecewise linear approximation method under certain conditions. For the general case, we propose a DC approximation to derive an upper bound and a relaxed convex approximation to derive a lower bound for the optimal value of the original problem, respectively. We also establish the theoretical foundation for these approximations. Finally, simulation experiments are carried out to show that the proposed approximations are practical and efficient. We consider a stochastic n-player non-cooperative game. When the strategy set of each player contains a set of stochastic linear constraints, we model the stochastic linear constraints of each player as a joint chance constraint. For each player, we assume that the row vectors of the matrix defining the stochastic constraints are pairwise independent. Then, we formulate the chance constraints with the viewpoints of normal distribution, elliptical distribution and distributionally robustness, respectively. Under certain conditions, we show the existence of a Nash equilibrium for the stochastic game.
|
182 |
Cycles séparants, isopérimétrie et modifications de distances dans les grandes cartes planaires aléatoires / Separating cycles, isoperimetry and modifications of distances in large random planar mapsLehéricy, Thomas 04 December 2019 (has links)
Les cartes planaires sont des graphes planaires dessinés sur la sphère et vus à déformation près. De nombreuses propriétés des cartes sont supposées universelles, dans le sens où elles ne dépendent pas des détails du modèle choisi. Nous commençons par établir une inégalité isopérimétrique dans la quadrangulation infinie du plan. Nous confirmons également une conjecture de Krikun portant sur la longueur des cycles les plus courts séparant la boule de rayon $r$ de l'infini. Dans un deuxième temps, nous nous intéressons à l'effet de modifications de distances sur la géométrie à grande échelle des quadrangulations uniformes, élargissant la classe d'universalité de la carte brownienne. Nous montrons également que la bijection de Tutte, entre quadrangulations et cartes planaires, est asymptotiquement une isométrie. Enfin, nous établissons une borne supérieure sur le temps de mélange de la marche aléatoire dans les cartes aléatoires. / Planar maps are planar graphs drawn on the sphere and seen up to deformation. Many properties of maps are conjectured to be universal, in the sense that they do not depend on the details of the model.We begin by establishing an isoperimetric inequality in the infinite quadrangulation of the plane. We also confirm a conjecture by Krikun concerning the length of the shortest cycles separating the ball of radius $r$ from infinity. We then consider the effect of modifications of distances on the large-scale geometry of uniform quadrangulations, extending the universality class of the Brownian map. We also show that the Tutte bijection, between quadrangulations and planar maps, is asymptotically an isometry. Finally, we establish an upper bound on the mixing time of the random walk in random maps.
|
183 |
La fonction de densité au carrefour entre probabilités et analyse en terminale S : Etude de la conception et de la mise en oeuvre de tâches d'introduction articulant lois à densité et calcul intégral / The density function at the crossroads between probability and calculus in the scientific track of the Grade 12 : Studying of the design and implementation of introductory tasks articulating continuous probability distribution and integral calculusDerouet, Charlotte 25 November 2016 (has links)
Cette thèse porte sur les articulations entre les probabilités et l’analyse en classe de terminale scientifique. Nous avons exploré comment se créent et sont exploités les liens entre les sous-domaines mathématiques des probabilités des lois à densité et du calcul intégral, à travers une recherche centrée sur la notion de fonction de densité. En adoptant le modèle des Espaces de Travail Mathématique et des éléments de la théorie de l’activité, nous nous sommes demandé quelles tâches permettent d’introduire cette notion et de construire la relation sémiotique reliant probabilité et intégrale. Pour aborder cette question, nous avons commencé parfaire une étude épistémologique et historique de la naissance de la notion de lois à densité, qui nous a notamment permis de dégager la place importante de la statistique dans cette genèse. Puis, nous avons effectué une analyse des documents institutionnels et des manuels. Cette analyse a montré que l’articulation entre probabilités à densité et calcul intégral est imposée aux élèves et peu exploitée dans les différentes tâches qui leur sont proposées. Enfin, nous avons étudié la conception et la mise en place de tâches d’introduction originales grâce à une méthodologie de recherche que nous qualifions d’ingénierie didactique collaborative. Ces tâches ont pour objectif de faire construire, par le « collectif » classe, la notion de fonction de densité et d’amener le besoin du calcul d’aire sous une courbe. Nous avons mis en évidence les activités de ce collectif classe, dans la construction de cette notion, en analysant les circulations entre trois sous-domaines : les probabilités à densité, la statistique descriptive et le calcul intégral. / This thesis focuses on the connections between probability and analysis (calculus) in the scientific track of Grade 12 (French baccalaureate program). We explored the ways in which links between the mathematics subfields of continuous probability and integral calculus are created and explored, through a research focused on the concept of density function. Using the Mathematical Working Space model and some elements of Activity Theory, we sought to identify tasks that would allow introducing this concept and building the semiotic relationship between probability and integral. In order to address this issue, we began with an epistemological and historical study of the birth of the concept of density function, which enabled us to identify the important role of statistics in this genesis. Then, an analysis of institutional documents and textbooks showed that the link between continuous probability and integral calculus is imposed on students and rarely exploited in the different tasks given to them. Finally, we studied the design and implementation of original introductory tasks through a research methodology that we call “collaborative didactic engineering”. The goal of these tasks is to get the class “collective” to construct the concept of density function and trigger the need for calculating areas under a curve. We highlighted the activities of the class “collective” in the construction of this notion by analyzing articulations between the three subfields: continuous probability, descriptive statistics and integral calculus.
|
184 |
Combinatoire analytique et modèles d'urnesMorcrette, Basile 26 June 2013 (has links) (PDF)
Cette thèse étudie les urnes de Pólya à travers le prisme de la combinatoire analytique. Les urnes sont des modèles, conceptuellement très simples, de dynamique de croissance ou d'extinction dont les comportements limites sont extrêmement variés. Ces modèles sont largement étudiés par des approches probabilistes mais la compréhension précise des diverses lois limites reste une question ouverte. Les travaux de Flajolet et al. en 2005 ont illustré que pour ces questions, une approche par combinatoire analytique peut se révéler très fructueuse: l'étude des propriétés (nature, singularités) des séries génératrices associées aux urnes donne accès à des lois limites avec grande précision. Cette thèse s'inscrit dans la continuité de ces travaux et commence par identifier les séries des urnes de nature algébrique, grâce à un algorithme sophistiqué issu du calcul formel (Divination/Preuve automatique). Pour les classes d'urnes algébriques, nous menons des analyses, exacte et asymptotique, afin de connaître avec précision les comportements limites (structures des moments, vitesse de convergence, aspects limites locaux). Puis, l'étude d'urnes non algébriques est faite au travers d'exemples concrets portant sur la modélisation de réseaux sociaux, ainsi que sur la combinatoire des formules booléennes. Enfin, à travers des modèles d'urnes plus généraux (absence d'équilibre, présence d'aléa au sein des règles de substitution), nous montrons que l'approche symbolique de la combinatoire analytique est robuste. En particulier, une étude combinatoire générale des urnes sans condition d'équilibre est réalisée pour la première fois, unissant toute urne à une équation aux dérivées partielles.
|
185 |
Quelques Contributions à la Statistique des Processus, à la Théorie des Champs Aléatoires et à la Statistique des Champs AléatoiresDachian, Serguei 12 December 2012 (has links) (PDF)
Ce mémoire d'Habilitation à Diriger des Recherches est organisé en deux tomes. Le Tome I a pour but de présenter les travaux de recherche effectués durant ma carrière d'enseignant-chercheur (quatorze articles publiés dans des revues internationales avec comité de lecture). Les textes intégraux de ces articles sont réunis dans le Tome II.
|
186 |
Test d'adéquation à la loi de Poisson bivariée au moyen de la fonction caractéristiqueKoné, Fangahagnian 09 1900 (has links)
Les tests d’adéquation font partie des pratiques qu’ont les statisticiens pour
prendre une décision concernant l’hypothèse de l’utilisation d’une distribution
paramétrique pour un échantillon. Dans ce mémoire, une application du test
d’adéquation basé sur la fonction caractéristique proposé par Jiménez-Gamero
et al. (2009) est faite dans le cas de la loi de Poisson bivariée. Dans un premier
temps, le test est élaboré dans le cas de l’adéquation à une loi de Poisson univariée
et nous avons trouvé son niveau bon. Ensuite cette élaboration est étendue au
cas de la loi de Poisson bivariée et la puissance du test est calculée et comparée
à celle des tests de l’indice de dispersion, du Quick test de Crockett et des deux
familles de tests proposés par Novoa-Muñoz et Jiménez-Gamero (2014). Les résultats
de la simulation ont permis de constater que le test avait un bon niveau
comparativement aux tests de l’indice de dispersion et au Quick test de Crockett
et qu’il était généralement moins puissant que les autres tests. Nous avons également
découvert que le test de l’indice de dispersion devrait être bilatéral alors
qu’il ne rejette que pour de grandes valeurs de la statistique de test. Finalement,
la valeur-p de tous ces tests a été calculée sur un jeu de données de soccer et les
conclusions comparées. Avec une valeur-p de 0,009, le test a rejeté l’hypothèse que
les données provenaient d’une loi de Poisson bivariée alors que les tests proposés
par Novoa-Muñoz et Jiménez-Gamero (2014) donnaient une conclusion différente. / Our aim in this thesis is to conduct the goodness-of-fit test based on empirical
characteristic functions proposed by Jiménez-Gamero et al. (2009) in the case of
the bivariate Poisson distribution. We first evaluate the test’s behaviour in the
case of the univariate Poisson distribution and find that the estimated type I error
probabilities are close to the nominal values. Next, we extend it to the bivariate
case and calculate and compare its power with the dispersion index test for the
bivariate Poisson, Crockett’s Quick test for the bivariate Poisson and the two test
families proposed by Novoa-Muñoz et Jiménez-Gamero (2014). Simulation results
show that the probability of type I error is close to the claimed level and that it
is generally less powerful than other tests. We also discovered that the dispersion
index test should be bilateral whereas it rejects for large values only. Finally, the
p-value of all these tests is calculated on a real dataset from soccer. The p-value of
the test is 0,009 and we reject the hypothesis that the data come from a Poisson
bivariate while the tests proposed by Novoa-Muñoz et Jiménez-Gamero (2014)
leads to a different conclusion.
|
187 |
Free entropies, free Fisher information, free stochastic differential equations, with applications to Von Neumann algebras / Sur quelques propriétés des entropies libres, de l'Information de Fisher libre et des équations différentielles stochastiques libres avec des applications aux algèbres de Von NeumannDabrowski, Yoann 01 December 2010 (has links)
Ce travail étend nos connaissances des entropies libres et des équations différentielles stochastiques (EDS) libres dans trois directions. Dans un premier temps, nous montrons que l'algèbre de von Neumann engendrée par au moins deux autoadjoints ayant une information de Fisher finie n'a pas la propriété $Gamma$ de Murray et von Neumann. C'est un analogue d'un résultat de Voiculescu pour l'entropie microcanonique libre. Dans un second temps, nous étudions des EDS libres à coefficients opérateurs non-bornés (autrement dit des sortes d' EDP stochastiques libres ). Nous montrons la stationnarité des solutions dans des cas particuliers. Nous en déduisons un calcul de la dimension entropique libre microcanonique dans le cas d'une information de Fisher lipschitzienne. Dans un troisième et dernier temps, nous introduisons une méthode générale de résolutions d'EDS libres stationnaires, s'appuyant sur un analogue non-commutatif d'un espace de chemins. En définissant des états traciaux sur cet analogue, nous construisons des dilatations markoviennes de nombreux semigroupes complètement markoviens sur une algèbre de von Neumann finie, en particulier de tous les semigroupes symétriques. Pour des semigroupes particuliers, par exemple dès que le générateur s'écrit sous une forme divergence pour une dérivation à valeur dans la correspondance grossière, ces dilatations résolvent des EDS libres. Entre autres applications, nous en déduisons une inégalité de Talagrand pour l'entropie non-microcanonique libre (relative à une sous-algèbre et une application complètement positive). Nous utilisons aussi ces déformations dans le cadre des techniques de déformations/rigidité de Popa / This works extends our knowledge of free entropies, free Fisher information and free stochastic differential equations in three directions. First, we prove that if a $W^{*}$-probability space generated by more than 2 self-adjoints with finite non-microstates free Fisher information doesn't have property $Gamma$ of Murray and von Neumann (especially is not amenable). This is an analogue of a well-known result of Voiculescu for microstates free entropy. We also prove factoriality under finite non-microstates entropy. Second, we study a general free stochastic differential equation with unbounded coefficients (``stochastic PDE"), and prove stationarity of solutions in well-chosen cases. This leads to a computation of microstates free entropy dimension in case of Lipschitz conjugate variable. Finally, we introduce a non-commutative path space approach to solve general stationary free Stochastic differential equations. By defining tracial states on a non-commutative analogue of a path space, we construct Markov dilations for a class of conservative completely Markov semigroups on finite von Neumann algebras. This class includes all symmetric semigroups. For well chosen semigroups (for instance with generator any divergence form operator associated to a derivation valued in the coarse correspondence) those dilations give rise to stationary solutions of certain free SDEs. Among applications, we prove a non-commutative Talagrand inequality for non-microstate free entropy (relative to a subalgebra $B$ and a completely positive map $eta:Bto B$). We also use those new deformations in conjunction with Popa's deformation/rigidity techniques, to get absence of Cartan subalgebra results
|
188 |
Modélisation de la dépendance et mesures de risque multidimensionnelles / Dependence modeling and multidimensional risk measuresDi Bernardino, Éléna 08 December 2011 (has links)
Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant « Estimating Bivariate Tail : a copula based approach », soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: « A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation», soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant « Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory», accepté pour publication dans la revue ESAIM:Probability and Statistics. / In this PhD thesis we consider different aspects of dependence modeling with applications in multivariate risk theory. The first chapter is constituted by a general introduction. The second chapter is essentially constituted by the article “Estimating Bivariate Tail: a copula based approach”, actually submitted for publication. It deals with the problem of estimating the tail of a bivariate distribution function. We develop a general extension of the POT (Peaks-Over-Threshold) method, mainly based on a two-dimensional version of the Pickands-Balkema-de Haan Theorem. The dependence structure between the marginals in the upper tails is described by the Upper Tail Dependence Copula. Then we construct a two-dimensional tail estimator and study its asymptotic properties. The third chapter of this thesis is based on the article “A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation” and submitted for publication. We propose a multivariate generalization of risk measures as Value-at-Risk and Conditional-Tail-Expectation and we analyze the behavior of these measures in terms of classical properties of risk measures. We study the behavior of these measures with respect to different risk scenarios and stochastic ordering of marginals risks. Finally in the fourth chapter we introduce a consistent procedure to estimate level sets of an unknown bivariate distribution function, using a plug-in approach in a non-compact setting. Also this chapter is constituted by the article “Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory”, accepted for publication in ESAIM: Probability and Statistics journal.
|
189 |
Modèles de croissance aléatoire et théorèmes de forme asymptotique : les processus de contact / Models and asymptotic shape theorems : contact processesDeshayes, Aurélia 10 December 2014 (has links)
Cette thèse s'inscrit dans l'étude des systèmes de particules en interaction et plus précisément dans celle des modèles de croissance aléatoire qui représentent un quantité qui grandit au cours du temps et s'étend sur un réseau. Ce type de processus apparaît naturellement quand on regarde la croissance d'un cristal ou bien la propagation d'une épidémie. Cette dernière est bien modélisée par le processus de contact introduit en 1974 par Harris. Le processus de contact est un des plus simples systèmes de particules en interaction présentant une transition de phase et l'on connaît maintenant bien son comportement sur ses phases. De nombreuses questions ouvertes sur ses extensions, notamment celles de formes asymptotiques, ont motivé ce travail. Après la présentation de ce processus et de certaines de ses extensions, nous introduisons et étudions une nouvelle variante: le processus de contact avec vieillissement où les particules ont un âge qui influence leur capacité à donner naissance à leurs voisines. Nous effectuerons pour ce modèle un couplage avec une percolation orientée inspiré de celui de Bezuidenhout-Grimmett et nous montrerons la croissance d'ordre linéaire de ce processus. Dans la dernière partie de la thèse, nous nous intéressons à la preuve d'un théorème de forme asymptotique pour des modèles généraux de croissance aléatoire grâce à des techniques sous-Additives, parfois complexes à mettre en place à cause de la non 'survie presque sûre' de nos modèles. Nous en concluons en particulier que le processus de contact avec vieillissement, le processus de contact en environnement dynamique, la percolation orientée avec immigration hostile, et le processus de contact avec sensibilisation vérifient des résultats de forme asymptotique / This thesis is a contribution to the mathematical study of interacting particles systems which include random growth models representing a spreading shape over time in the cubic lattice. These processes are used to model the crystal growth or the spread of an infection. In particular, Harris introduced in 1974 the contact process to represent such a spread. It is one of the simplest interacting particles systems which exhibits a critical phenomenon and today, its behaviour is well-Known on each phase. Many questions about its extensions remain open and motivated our work, especially the one on the asymptotic shape. After the presentation of the contact process and its extensions, we introduce a new one: the contact process with aging where each particle has an age age that influences its ability to give birth to its neighbours. We build a coupling between our process and a supercritical oriented percolation adapted from Bezuidenhout-Grimmett's construction and we establish the 'at most linear' growth of our process. In the last part of this work, we prove an asymptotic shape theorem for general random growth models thanks to subadditive techniques, which can be complicated in the case of non-Permanent models conditioned to survive. We conclude that the process with aging, the contact process in randomly evolving environment, the oriented percolation with hostile immigration and the bounded modified contact process satisfy asymptotic shape results
|
190 |
Émergence de dynamiques classiques en probabilité quantique / Emergence of classical dynamics in quantum probabilityBardet, Ivan 07 June 2016 (has links)
Cette thèse se consacre à l'étude de certaines passerelles existantes entre les probabilités dîtes classiques et la théorie des systèmes quantiques ouverts. Le but de la première partie de ce manuscrit est d'étudier l'émergence de bruits classiques dans l'équation de Langevin quantique. Cette équation sert à modéliser l'action d'un bain quantique sur un petit système dans l'approximation markovienne. L'analogue en temps discret de cette équation est décrit par le schéma des interactions quantiques répétées étudier par Stéphane Attal et Yan Pautrat. Dans des travaux antérieurs, Attal et ses collaborateurs montrent que les bruits classiques naturels apparaissant dans ce cadre sont les variables aléatoires obtuses, dont ils étudient la structure. Mais sont-ils les seuls bruits classiques pouvant émerger, et quand est-il dans le cas général ? De même, en temps continu, il était plus ou moins admis que les seuls bruits classiques apparaissant dans l'équation de Langevin quantique sont les processus de Poisson et le mouvement brownien. Ma contribution dans ce manuscrit consiste à définir une algèbre de von Neumann pertinente sur l'environnement, dite algèbre du bruit, qui encode la structure du bruit. Elle est commutative si et seulement si le bruit est classique ; dans ce cas on confirme les hypothèses précédentes sur sa nature. Dans le cas général, elle permet de montrer une décomposition de l'environnement entre une partie classique maximale et une partie purement quantique. Dans la deuxième partie, nous nous consacrons à l'étude de processus stochastiques classiques apparaissant au sein du système. La dynamique du système est quantique, mais il existe une observable dont l'évolution est classique. Cela se fait naturellement lorsque le semi-groupe de Markov quantique laisse invariante une sous-algèbre de von Neumann commutative et maximale. Nous développons une méthode pour générer de tels semi-groupes, en nous appuyons sur une définition de Stéphane Attal de certaines dilatations d'opérateurs de Markov classiques. Nous montrons ainsi que les processus de Lévy sur Rn admettent des extensions quantiques. Nous étudions ensuite une classe de processus classiques liés aux marches quantiques ouvertes. De tels processus apparaissent lorsque cette fois l'algèbre invariante est le produit tensoriel de deux algèbres, l'une non-commutative et l'autre commutative. Par conséquent, bien que comportant l'aspect trajectoriel propre au processus classiques, de telles marches aléatoires sont hautement quantiques. Nous présentons dans ce cadre une approche variationnelle du problème de Dirichlet. Finalement, la dernière partie est dédiée à l'étude d'un processus physique appelé décohérence induite par l'environnement. Cette notion est fondamentale, puisqu'elle apporte une explication dynamique à l'absence, dans notre vie de tous les jours, de phénomènes quantiques. Nous montrons qu'une telle décohérence a toujours lieu pour des systèmes ouverts décrits par des algèbres de von Neumann finies. Nous initions ensuite une étude innovante sur la vitesse de décohérence, basée sur des inégalités fonctionnelles non-commutatives, qui permet de mettre en avant le rôle de l'intrication quantique dans la décohérence / This thesis focus on the study of several bridges that exist between classical probabilities and open quantum systems theory. In the first part of the thesis, we consider open quantum systems with classical environment. Thus the environment acts as a classical noise so that the evolution of the system results in a mixing of unitary dynamics. My work consisted in defining a relevant von Neumann algebra on the environment which, in this situation, is commutative. In the general case, we show that this algebra leads to a decomposition of the environment between a classical and a quantum part. In the second part, we forget for a time the environment in order to focus on the emergence of classical stochastic processes inside the system. This situation appears when the quantum Markov semigroup leaves an invariant commutative maximal von Neumann algebra. First, we develop a recipe in order to generate such semigroup, which emphasizes the role of a certain kind of classical dilation. We apply the recipe to prove the existence of a quantum extension for L\'evy processes. Then in the same part of the thesis we study a special kind of classical dynamics that can emerge on a bipartite quantum system, call \emph. Such walks are stochastic but displayed strong quantum behavior. We define a Dirichlet problem associated to these walks and solve it using a variational approch and non-commutative Dirichlet forms. Finally, the last part is dedicated to the study of Environment Induced Decoherence for quantum Markov semigroup on finite von Neumann algebra. We prove that such decoherence always occurs when the semigroup has a faithful invariant state. Then we focus on the fundamental problem of estimating the time of the process. To this end we define adapted non-commutative functional inequalities. The central interest of these definitions is to take into account entanglement effects, which are expected to lower the speed of decoherence
|
Page generated in 0.0447 seconds