• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 436
  • 319
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 785
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 92
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Stochastic thermodynamics of transport phenomena and reactive systems: an extended local equilibrium approach / Thermodynamique stochastique des phénomènes de transport et des systèmes réactifs :l'approche de l'équilibre local étendu

Derivaux, Jean-Francois 03 July 2020 (has links) (PDF)
Avec les progrès de la technologie, il est désormais devenu possible de manipuler des faibles quantités d’objets nanométriques, voire des objets uniques. Observer une réaction chimique de quelques centaines de molécules sur des catalyseurs, étudier le travail exercé lors du déploiement d’un brin d’ADN unique ou mesurer la chaleur émise par un unique électron dans un circuit électrique constituent aujourd’hui des actes expérimentaux courants. Cependant, à cette échelle, le caractère aléatoire des processus physiques étudiés se fait plus fortement ressentir. Développer une théorie thermodynamique à ces échelles nécessite d'y inclure de manière exhaustive ces fluctuations.Ces préoccupations et les résultats expérimentaux et théoriques associés ont mené à l’émergence de ce que l’on appelle aujourd’hui la thermodynamique stochastique. Cette thèse se propose de développer une approche originale à la thermodynamique stochastique, basée sur une extension de l'hypothèse d'équilibre local aux variables fluctuantes d'un système. Cette théorie offre de nouvelles définitions des grandeurs thermodynamiques stochastiques, dont l'évolution est donnée par des équations différentielles stochastiques (EDS).Nous avons choisi d'étudier cette théorie à travers des modèles simplifiés de phénomènes physiques variés; transport (diffusif) de chaleur ou de masse, transport couplé (comme la thermodiffusion), ainsi que des modèles de réactions chimiques linéaires et non-linéaires. A travers ces exemples, nous avons proposé des versions stochastiques de plusieurs grandeurs thermodynamiques d'intérêt. Une large part de cette thèse est dévolue à l'entropie et aux différents termes apparaissant dans son bilan (flux d'entropie, production d'entropie ou dissipation). D'autres exemples incluent l'énergie libre d'Helmholtz, la production d'entropie d'excès, ou encore les efficacités thermodynamiques dans le transport couplé.A l'aide de cette théorie, nous avons étudié les propriétés statistiques de ces différentes grandeurs, et plus particulièrement l'effet des contraintes thermodynamiques ainsi que les propriétés cinétiques du modèle sur celles-là. Dans un premier temps, nous montrons comment l'état thermodynamique d'un système (à l' équilibre ou hors d'équilibre) contraint la forme de la distribution de la production d'entropie. Au-delà de la production d'entropie, cette contrainte apparaît également pour d'autres quantités, comme l'énergie libre d'Helmholtz ou la production d'entropie d'excès. Nous montrons ensuite comment des paramètres de contrôle extérieurs peuvent induire des bimodalités dans les distributions d'efficacités stochastiques.Les non-linéarités de la cinétique peuvent également se répercuter sur la thermodynamique stochastique. En utilisant un modèle non-linéaire de réaction chimique, le modèle de Schlögl, nous avons calculé la dissipation moyenne, non-nulle, engendrée par les fluctuations du système. Les non-linéarités offrent aussi la possibilité de produire des bifurcations dans le système. Les différentes propriétés statistiques (moments et distributions) de la production d'entropie ont été étudiées à différents points avant, pendant et après la bifurcation dans le modèle de Schlögl.Ces nombreuses propriétés ont été étudiées via des développements analytiques supportés par des simulations numériques des EDS du système. Nous avons ainsi pu montrer la fine connexion existant entre les équations cinétiques du système, les contraintes thermodynamiques et les propriétés statistiques des fluctuations de différentes grandeurs thermodynamiques stochastiques. / Over the last decades, nanotechnology has experienced great steps forwards, opening new ways to manipulate micro- and nanosystems. These advances motivated the development of a thermodynamic theory for such systems, taking fully into account the unavoidable fluctuations appearing at that scale. This ultimately leads to an ensemble of experimental and theoretical results forming the emergent field of stochastic thermodynamics. In this thesis, we propose an original theoretical approach to stochastic thermodynamics, based on the extension of the local equilibrium hypothesis (LEH) to fluctuating variables in small systems. The approach provides new definitions of stochastic thermodynamic quantities, whose evolution is given by stochastic differential equations (SDEs).We applied this new formalism to a diverse range of systems: heat or mass diffusive transport, coupled transport phenomena (thermodiffusion), and linear or non-linear chemical systems. In each model, we used our theory to define key stochastic thermodynamic quantities. A great emphasis has been put on entropy and the different contributions to its evolution (entropy flux and entropy production) throughout this thesis. Other examples include also the stochastic Helmholtz energy, stochastic excess entropy production and stochastic efficiencies in coupled transport. We investigated how the statistical properties of these quantities are affected by external thermodynamic constraints and by the kinetics of the system. We first studied how the thermodynamic state of the system (equilibrium \textit{vs.} non-equilibrium) strongly impacts the distribution of entropy production. We then extended those findings to other related quantities, such as the Helmholtz free energy and excess entropy production. We also analysed how some external control parameters could lead to bimodality in stochastic efficiencies distributions.In addition, non-linearities affect stochastic thermodynamics quantities in different ways. Using the example of the Schlögl chemical model, we computed the average dissipation of the fluctuations in a non-linear system. Such systems can also undergo a bifurcation, and we studied how the moments and the distribution of entropy production change while crossing the critical point.All these properties were investigated with theoretical analyses and supported by numerical simulations of the SDEs describing the system. It allows us to show that properties of the evolution equations and external constraints could strongly reflect in the statistical properties of stochastic thermodynamic quantities. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
192

Analyse empirique et modélisation de la dynamique de la topologie de l'internet / Emperical study and modelling of the internet topology dynamics

Kirgizov, Sergey 12 December 2014 (has links)
De nombreux travaux ont étudié la topologie de l’Internet, mais peu d’entre eux se sont intéressés à comment elle évolue. Nous étudions la dynamique de la topologie de routage au niveau IP et proposons une première étape vers une modélisation réaliste de cette dynamique. Nous étudions les mesures périodiques des arbres de routage à partir d’un moniteur vers un ensemble de destinations et nous observons certaines propriétés invariantes de la dynamique de leur topologie. Ensuite nous proposons un modèle simple qui simule la dynamique d’une topologie de réseau réel. En étudiant les résultats de la simulation, nous montrons que ce modèle captures les invariantes observés. De plus, l’analyse des résultats de simulations de différents types de réseaux nous permet de trouver des caractéristiques structurelles qui ont le plus grand impact sur ​la dynamique de la topologie. Nous étudions également comment la fréquence des mesures affecte la dynamique observée. Nous sommes intéressés par les processus sous-Jacents qui causent les dynamiques observées. Nous introduisons une méthode non-Classique de l'estimation des paramètres de un processus stochastique et nous appliquons cette méthode pour les mesures modélisées et réelles afin de caractériser le taux de l'évolution de la topologie. Nous montrons aussi que la dynamique de réseau est une dynamique non-Uniforme: les parties différentes du réseau peuvent avoir différentes vitesses d'évolution. / Many works have studied the Internet topology, but few have investigated the question of how it evolves over time. This thesis focuses on the Internet routing IP-Level topology dynamics and offer a first step towards a realistic modeling of these dynamics. For this end we study data from periodic measurements of routing trees from a single monitor to a fixed destination set. Next we propose a simple model that simulates the dynamics of a topology real network. By studying the results of the simulation, we show this model catches some observed invariant properties of the real-World data. In addition, analysing the simulation results of different types of networks, we found several structural features that have great impact on the dynamics of the topology. We study also how the frequency of measurement affects the observed dynamics. We are interested in the underlying process causing the observed dynamics. We introduce a method non-Classical parameter estimation of a stochastic process apply this method to the real-World and modelled measures in order to characterise the rate of the topology evolution. We also show that the network have non-Uniform dynamics: different parts of the network can have different rates of change.
193

Contributions to decomposition methods in stochastic optimization / Contribution aux méthodes de décomposition en optimisation stochastique

Leclere, Vincent 25 June 2014 (has links)
Le contrôle optimal stochastique (en temps discret) s'intéresse aux problèmes de décisions séquentielles sous incertitude. Les applications conduisent à des problèmes d'optimisation degrande taille. En réduisant leur taille, les méthodes de décomposition permettent le calcul numérique des solutions. Nous distinguons ici deux formes de décomposition. La emph{décomposition chaînée}, comme la Programmation Dynamique, résout successivement, des sous-problèmes de petite taille. La décomposition parallèle, comme le Progressive Hedging, consiste à résoudre itérativement et parallèlement les sous-problèmes, coordonnés par un algorithme maître. Dans la première partie de ce manuscrit, Dynamic Programming: Risk and Convexity, nous nous intéressons à la décomposition chaînée, en particulier temporelle, connue sous le nom de Programmation Dynamique. Dans le chapitre 2, nous étendons le cas traditionnel, risque-neutre, de la somme en temps des coûts, à un cadre plus général pour lequel nous établissons des résultats de cohérence temporelle. Dans le chapitre 3, nous étendons le résultat de convergence de l'algorithme SDDP (Stochastic Dual Dynamic Programming Algorithm) au cas où les fonctions de coûts (convexes) ne sont plus polyhédrales. Puis, nous nous tournons vers la décomposition parallèle, en particulier autour des méthodes de décomposition obtenues en dualisant les contraintes (contraintes spatiales presque sûres, ou de non-anticipativité). Dans la seconde partie de ce manuscrit, Duality in Stochastic Optimization, nous commençons par souligner que de telles contraintes peuvent soulever des problèmes de dualité délicats (chapitre 4).Nous établissons un résultat de dualité dans les espaces pairés $Bp{mathrm{L}^infty,mathrm{L}^1}$ au chapitre 5. Finalement, au chapitre 6, nous montrons un résultat de convergence de l'algorithme d'Uzawa dans $mathrm{L}^inftyp{Omega,cF,PP;RR^n}$, qui requière l'existence d'un multiplicateur optimal. La troisième partie de ce manuscrit, Stochastic Spatial Decomposition Methods, est consacrée à l'algorithme connu sous le nom de DADP (Dual Approximate Dynamic Programming Algorithm). Au chapitre 7, nous montrons qu'une suite de problèmes d'optimisation où une contrainte presque sûre est relaxée en une contrainte en espérance conditionnelle épi-converge vers le problème original si la suite des tribus converge vers la tribu globale. Finalement, au chapitre 8, nous présentons l'algorithme DADP, des interprétations, et des résultats de convergence basés sur la seconde partie du manuscrit / Stochastic optimal control addresses sequential decision-making under uncertainty. As applications leads to large-size optimization problems, we count on decomposition methods to tackle their mathematical analysis and their numerical resolution. We distinguish two forms of decomposition. In chained decomposition, like Dynamic Programming, the original problemis solved by means of successive smaller subproblems, solved one after theother. In parallel decomposition, like Progressive Hedging, the original problemis solved by means of parallel smaller subproblems, coordinated and updated by amaster algorithm. In the first part of this manuscript, Dynamic Programming: Risk and Convexity, we focus on chained decomposition; we address the well known time decomposition that constitutes Dynamic Programming with two questions. In Chapter 2, we extend the traditional additive in time and risk neutral setting to more general ones for which we establish time-consistency. In Chapter 3, we prove a convergence result for the Stochastic Dual Dynamic Programming Algorithm in the case where (convex) cost functions are no longer polyhedral. Then, we turn to parallel decomposition, especially decomposition methods obtained by dualizing constraints (spatial or non-anticipative). In the second part of this manuscript, Duality in Stochastic Optimization, we first point out that such constraints lead to delicate duality issues (Chapter 4).We establish a duality result in the pairing $Bp{mathrm{L}^infty,mathrm{L}^1}$ in Chapter 5. Finally, in Chapter 6, we prove the convergence of the Uzawa Algorithm in~$mathrm{L}^inftyp{Omega,cF,PP;RR^n}$.The third part of this manuscript, Stochastic Spatial Decomposition Methods, is devoted to the so-called Dual Approximate Dynamic Programming Algorithm. In Chapter 7, we prove that a sequence of relaxed optimization problems epiconverges to the original one, where almost sure constraints are replaced by weaker conditional expectation ones and that corresponding $sigma$-fields converge. In Chapter 8, we give theoretical foundations and interpretations to the Dual Approximate Dynamic Programming Algorithm
194

Stochastic models for protein production : the impact of autoregulation, cell cycle and protein production interactions on gene expression / Modèles stochastiques pour la production des protéines : l'impact de l'autorégulation, du cycle cellulaire et des intéractions entre les productions de protéines sur l'expression génétique

Dessalles, Renaud 11 January 2017 (has links)
Le mécanisme de production des protéines, qui monopolise la majorité des ressources d'une bactérie, est hautement stochastique: chaque réaction biochimique qui y participe est due à des collisions aléatoires entre molécules, potentiellement présentes en petites quantités. La bonne compréhension de l'expression génétique nécessite donc de recourir à des modèles stochastiques qui sont à même de caractériser les différentes origines de la variabilité dans la production ainsi que les dispositifs biologiques permettant éventuellement de la contrôler.Dans ce contexte, nous avons analysé la variabilité d'une protéine produite avec un mécanisme d'autorégulation négatif: c'est-à-dire dans le cas où la protéine est un répresseur pour son propre gène. Le but est de clarifier l'effet de l'autorégulation sur la variance du nombre de protéines exprimées. Pour une même production moyenne de protéine, nous avons cherché à comparer la variance à l'équilibre d'une protéine produite avec le mécanisme d'autorégulation et celle produite en « boucle ouverte ». En étudiant un modèle limite, avec une mise à l'échelle (scaling), nous avons pu faire une telle comparaison de manière analytique. Il apparaît que l'autorégulation réduit effectivement la variance, mais cela reste néanmoins limité : un résultat asymptotique montre que la variance ne pourra pas être réduite de plus de 50%. L'effet sur la variance à l'équilibre étant modéré, nous avons cherché un autre effet possible de l'autorégulation: nous avons observé que la vitesse de convergence à l'équilibre est plus rapide dans le cadre d'un modèle avec autorégulation.Les modèles classiques de production des protéines considèrent un volume constant, sans phénomènes de division ou de réplication du gène, avec des ARN-polymérases et les ribosomes en concentrations constantes. Pourtant, les variation au cours du cycle de chacune de ces quantités a été proposée dans la littérature comme participant à la variabilité des protéines. Nous proposons une série de modèles de complexité croissante qui vise à aboutir à une représentation réaliste de l'expression génétique. Dans un modèle avec un volume suivant le cycle cellulaire, nous intégrons successivement le mécanisme de production des protéines (transcription et traduction), la répartition aléatoire des composés à la division et la réplication du gène. Le dernier modèle intègre enfin l'ensemble des gènes de la cellule et considère leurs interactions dans la production des différentes protéines à travers un partage commun des ARN-polymérases et des ribosomes, présents en quantités limitées. Pour les modèles où cela était possible, la moyenne et la variance de la concentration de chacune des protéines ont été déterminées analytiquement en ayant eu recours au formalisme des Processus Ponctuels de Poisson Marqués. Pour les cas plus complexes, nous avons estimé la variance au moyen de simulations stochastiques. Il apparaît que, dans l'ensemble des mécanismes étudiés, la source principale de la variabilité provient du mécanisme de production des protéines lui-même (bruit dit « intrinsèque »). Ensuite, parmi les autres aspects « extrinsèques », seule la répartition aléatoire des composés semble avoir potentiellement un effet significatif sur la variance; les autres ne montrent qu'un effet limité sur la concentration des protéines. Ces résultats ont été confrontés à certaines mesures expérimentales, et montrent un décalage encore inexpliqué entre la prédiction théorique et les données biologiques, ce qui appelle à de nouvelles hypothèses quant aux possibles sources de variabilité.En conclusion, les processus étudiés ont permis une meilleure compréhension des phénomènes biologiques en explorant certaines hypothèses difficilement testables expérimentalement. Des modèles étudiés, nous avons pu dégager théoriquement certaines tendances, montrant que la modélisation stochastique est un outil important pour la bonne compréhension des mécanismes d'expression génétique. / The mechanism of protein production, to which is dedicated the majority of resources of the bacteria, is highly stochastic: every biochemical reaction that is involved in this process is due to random collisions between molecules, potentially present in low quantities. The good understanding of gene expression requires therefore to resort to stochastic models that are able to characterise the different origins of protein production variability as well as the biological devices that potentially control it.In this context, we have analysed the variability of a protein produced with a negative autoregulation mechanism: i.e. in the case where the protein is a repressor of its own gene. The goal is to clarify the effect of this feedback on the variance of the number of produced proteins. With the same average protein production, we sought to compare the equilibrium variance of a protein produced with the autoregulation mechanism and the one produced in “open loop”. By studying the model under a scaling regime, we have been able to perform such comparison analytically. It appears that the autoregulation indeed reduces the variance; but it is nonetheless limited: an asymptotic result shows that the variance won't be reduced by more than 50%. The effect on the variance being moderate, we have searched for another possible effect for autoregulation: it havs been observed that the convergence to equilibrium is quicker in the case of a model with autoregulation.Classical models of protein production usually consider a constant volume, without any division or gene replication and with constant concentrations of RNA-polymerases and ribosomes. Yet, it has been suggested in the literature that the variations of these quantities during the cell cycle may participate to protein variability. We propose a series of models of increasing complexity that aims to reach a realistic representation of gene expression. In a model with a changing volume that follows the cell cycle, we integrate successively the protein production mechanism (transcription and translation), the random segregation of compounds at division, and the gene replication. The last model integrates then all the genes of the cell and takes into account their interactions in the productions of different proteins through a common sharing of RNA-polymerases and ribosomes, available in limited quantities. For the models for which it was possible, the mean and the variance of the concentration of each proteins have been analytically determined using the Marked Poisson Point Processes. In the more complex cases, we have estimated the variance using computational simulations. It appears that, among all the studied mechanisms, the main source of variability comes from the protein production mechanism itself (referred as “intrinsic noise”). Then, among the other “extrinsic” aspects, only the random segregation of compounds at division seems to have potentially a significant impact on the variance; the other aspects show only a limited effect on protein concentration. These results have been confronted to some experimental measures, and show a still unexplained decay between the theoretical predictions and the biological data; it instigates the formulations of new hypotheses for other possible sources of variability.To conclude, the processes studied have allowed a better understanding of biological phenomena by exploring some hypotheses that are difficult to test experimentally. In the studied models, we have been able to indicate theoretically some trends; hence showing that the stochastic modelling is an important tool for a good understanding of gene expression mechanisms.
195

Limites fondamentales de l'efficacité énergétique dans les réseaux sans fil / Fundamental limits of energy efficiency in wireless networks

Perabathini, Bhanukiran 18 January 2016 (has links)
La tâche de répondre à une demande croissante pour une meilleure qualité de l'expérience utilisateur dans les communications sans fil, est contestée par la quantité d'énergie consommée par les technologies concernées et les méthodes employées. Sans surprise, le problème de la réduction de la consommation d'énergie doit être abordé à diverses couches de l'architecture de réseau et de diverses directions. Cette thèse traite de certains aspects cruciaux de la couche physique de l'architecture de réseau sans fil afin de trouver des solutions efficaces d'énergie. Dans la première partie de cette thèse, nous explorons l'idée de l'efficacité énergétique à un niveau fondamental. A commencer par répondre aux questions telles que: - Qu'est-ce que la forme physique d'information ?, nous construisons un dispositif de communication simple afin d'isoler certaines étapes clés dans le processus physique de la communication et nous dire comment elles affectent l'efficacité énergétique d'une communication système. Dans la deuxième partie, nous utilisons des outils de la géométrie stochastique pour modéliser théoriquement réseaux cellulaires afin d'analyser l'efficacité énergétique du système. L'exploitation de la traçabilité d'une telle modélisation mathématique, nous explorons les conditions dans lesquelles la consommation d'énergie peut être réduite. En outre, dans cette partie, nous introduisons le concept de la mise en cache des données des utilisateurs à la périphérie du réseau (à savoir le final ac BS qui est en contact avec l'utilisateur) et de montrer quantitativement comment la mise en cache peut aider à améliorer l'efficacité énergétique d'un cellulaire réseau. Nous tenons également à ce traitement à un ac Hetnet scénario (à savoir quand il y a plus d'un type de glspl déployé BS) et étudions divers indicateurs de performance clés. Nous explorons également les conditions où l'efficacité énergétique d'un tel système peut être améliorée. Les résultats de thèse fournissent quelques idées clés pour améliorer l'efficacité énergétique dans un réseau cellulaire sans fil contribuant ainsi à l'avancement vers la prochaine génération (5 G) des réseaux cellulaires. / The task of meeting an ever growing demand for better quality of user experience in wireless communications, is challenged by the amount of energy consumed by the technologies involved and the methods employed. Not surprisingly, the problem of reducing energy consumption needs to be addressed at various layers of the network architecture and from various directions. This thesis addresses some crucial aspects of the physical layer of wireless network architecture in order to find energy efficient solutions.In the first part of this thesis, we explore the idea of energy efficiency at a fundamental level. Starting with answering questions such as - emph{What is the physical form of `information'?}, we build a simple communication device in order to isolate certain key steps in the physical process of communication and we comment on how these affect the energy efficiency of a communication system.In the second part, we use tools from stochastic geometry to theoretically model cellular networks so as to analyze the energy efficiency of the system. Exploiting the tractability of such a mathematical modeling, we explore the conditions under which the consumption of energy can be reduced. Further in this part, we introduce the concept of caching users' data at the edge of the network (namely the final ac{BS} that is contact with the user) and show quantitatively how caching can help improve the energy efficiency of a cellular network. We also extend this treatment to a ac{HetNet} scenario (namely when there are more than one type of glspl{BS} deployed) and study various key performance metrics. We also explore the conditions where energy efficiency of such a system can be improved.The results in thesis provide some key ideas to improve energy efficiency in a wireless cellular network thereby contributing to the advancement towards the next generation (5G) cellular networks.
196

Stratégies randomisées dans les jeux concurrents / Randomized strategies in concurrent games

Stan, Daniel 30 March 2017 (has links)
Ce travail se concentre sur l'étude de jeux joués sur des graphes finis, parun nombre arbitraire de joueurs, dont les objectifs ne sont pas antagonistes.Chaque joueur représente un agent, c'est-à-dire un programme, un processus,ou un périphérique, qui interagit avec les autres joueurs et leurenvironnement commun dans le but de satisfaire au mieux son objectifindividuel.Des concepts telsque les équilibres de Nash, permettant d'exprimer l'optimalité des stratégiesdes joueurs, ont été étudiés dans un cadre déterministe, et l'existencede tels équilibres n'est pas assurée, même lorsque les objectifs des joueurssont de simples conditions d'accessibilité ou de sûreté. En effet, lorsqueles joueurs jouent de manière déterministe, le système évolue en conservantune certaine symmétrie, ce qui nous motive à considérer un modèle stochastiqueoù les joueurs et l'environnement sont sources d'aléa. Dans le premier cas,nous montrons que les concepts classiques d'équilibres de Nash ne peuventêtre calculés, et introduisons des notions approchées d'équilibrescalculables. Dans le deuxième cas, nous nous intéressons à l'analyse desystèmes composés d'un nombre arbitraires de processus, dont l'éxécutionest déterminée par un ordonnanceur, c'est-à-dire l'environnement,probabiliste. / We study games played on graphs by an arbitrary number of players withnon-zero sum objectives. The players representagents (programs, processes or devices) that can interact to achieve their ownobjectives as much as possible. Solution concepts, as Nash Equilibrium, forsuch optimal plays,need not exist when restricting topure deterministic strategies, even with simple reachability or safetyobjectives. The symmetry induced by deterministic behavioursmotivates the studies where eitherthe players or the environment can use randomization. In the first case, weshow that classical concepts are undecidable with a fixednumber of agents and propose computable approximations.In the second case, we studyrandomization as a reasonable policy for scheduling an arbitrary number ofprocesses.
197

Machine learning based on Hawkes processes and stochastic optimization / Apprentissage automatique avec les processus de Hawkes et l'optimisation stochastique

Bompaire, Martin 05 July 2019 (has links)
Le fil rouge de cette thèse est l'étude des processus de Hawkes. Ces processus ponctuels décryptent l'inter-causalité qui peut avoir lieu entre plusieurs séries d'événements. Concrètement, ils déterminent l'influence qu'ont les événements d'une série sur les événements futurs de toutes les autres séries. Par exemple, dans le contexte des réseaux sociaux, ils décrivent à quel point l'action d'un utilisateur, par exemple un Tweet, sera susceptible de déclencher des réactions de la part des autres.Le premier chapitre est une brève introduction sur les processus ponctuels suivie par un approfondissement sur les processus de Hawkes et en particulier sur les propriétés de la paramétrisation à noyaux exponentiels, la plus communément utilisée. Dans le chapitre suivant, nous introduisons une pénalisation adaptative pour modéliser, avec des processus de Hawkes, la propagation de l'information dans les réseaux sociaux. Cette pénalisation est capable de prendre en compte la connaissance a priori des caractéristiques de ces réseaux, telles que les interactions éparses entre utilisateurs ou la structure de communauté, et de les réfléchir sur le modèle estimé. Notre technique utilise des pénalités pondérées dont les poids sont déterminés par une analyse fine de l'erreur de généralisation.Ensuite, nous abordons l'optimisation convexe et les progrès réalisés avec les méthodes stochastiques du premier ordre avec réduction de variance. Le quatrième chapitre est dédié à l'adaptation de ces techniques pour optimiser le terme d'attache aux données le plus couramment utilisé avec les processus de Hawkes. En effet, cette fonction ne vérifie pas l'hypothèse de gradient-Lipschitz habituellement utilisée. Ainsi, nous travaillons avec une autre hypothèse de régularité, et obtenons un taux de convergence linéaire pour une version décalée de Stochastic Dual Coordinate Ascent qui améliore l'état de l'art. De plus, de telles fonctions comportent beaucoup de contraintes linéaires qui sont fréquemment violées par les algorithmes classiques du premier ordre, mais, dans leur version duale ces contraintes sont beaucoup plus aisées à satisfaire. Ainsi, la robustesse de notre algorithme est d'avantage comparable à celle des méthodes du second ordre dont le coût est prohibitif en grandes dimensions.Enfin, le dernier chapitre présente une nouvelle bibliothèque d'apprentissage statistique pour Python 3 avec un accent particulier mis sur les modèles temporels. Appelée tick, cette bibliothèque repose sur une implémentation en C++ et les algorithmes d'optimisation issus de l'état de l'art pour réaliser des estimations très rapides dans un environnement multi-cœurs. Publiée sur Github, cette bibliothèque a été utilisée tout au long de cette thèse pour effectuer des expériences. / The common thread of this thesis is the study of Hawkes processes. These point processes decrypt the cross-causality that occurs across several event series. Namely, they retrieve the influence that the events of one series have on the future events of all series. For example, in the context of social networks, they describe how likely an action of a certain user (such as a Tweet) will trigger reactions from the others.The first chapter consists in a general introduction on point processes followed by a focus on Hawkes processes and more specifically on the properties of the widely used exponential kernels parametrization. In the following chapter, we introduce an adaptive penalization technique to model, with Hawkes processes, the information propagation on social networks. This penalization is able to take into account the prior knowledge on the social network characteristics, such as the sparse interactions between users or the community structure, to reflect them on the estimated model. Our technique uses data-driven weighted penalties induced by a careful analysis of the generalization error.Next, we focus on convex optimization and recall the recent progresses made with stochastic first order methods using variance reduction techniques. The fourth chapter is dedicated to an adaptation of these techniques to optimize the most commonly used goodness-of-fit of Hawkes processes. Indeed, this goodness-of-fit does not meet the gradient-Lipschitz assumption that is required by the latest first order methods. Thus, we work under another smoothness assumption, and obtain a linear convergence rate for a shifted version of Stochastic Dual Coordinate Ascent that improves the current state-of-the-art. Besides, such objectives include many linear constraints that are easily violated by classic first order algorithms, but in the Fenchel-dual problem these constraints are easier to deal with. Hence, our algorithm's robustness is comparable to second order methods that are very expensive in high dimensions.Finally, the last chapter introduces a new statistical learning library for Python 3 with a particular emphasis on time-dependent models, tools for generalized linear models and survival analysis. Called tick, this library relies on a C++ implementation and state-of-the-art optimization algorithms to provide very fast computations in a single node multi-core setting. Open-sourced and published on Github, this library has been used all along this thesis to perform benchmarks and experiments.
198

Stochastic simulation of near-surface atmospheric forcings for distributed hydrology / Simulation stochastique des forçages atmosphériques utiles aux modèles hydrologiques spatialisés

Chen, Sheng 01 February 2018 (has links)
Ce travail de thèse propose de nouveaux concepts et outils pour des activités de simulation stochastique du temps ciblant les besoins spécifiques de l'hydrologie. Nous avons utilisé une zone climatique contrastée dans le sud-est de la France, les Cévennes-Vivarais, qui est très attractive pour les aléas hydrologiques et les changements climatiques.Notre point de vue est que les caractéristiques physiques (humidité du sol, débit) liées aux préoccupations quotidiennes sont directement liées à la variabilité atmosphérique à l'échelle des bassins. Pour la modélisation de multi-variable, la covariabilité avec les précipitations est d'abord considérée.La première étape du thèse est dédiée à la prise en compte de l'hétérogénéité de la précipitation au sein du simulateur de pluie SAMPO [Leblois et Creutin, 2013]. Nous regroupons les pas de temps dans les types de pluie qui sont organisés dans le temps. Deux approches sont testées pour la simulation: un modèle semi-markovienne et un modèle de ré-échantillonnage pour la séquence des types de pluie historiques. Grâce au regroupement, toutes sortes de précipitations sont desservies par un type de pluie spécifique. Dans une zone plus vaste, où l'hypothèse d'homogénéité climatique n'est plus valide, une coordination doit être introduite entre les séquences de types de pluie sur les sous-zones délimitées, en formant à plus grande échelle.Nous avons d'abord étudié une coordination de modèle de Markov, en appliquant des durées de séjour observées par un algorithme glouton. Cet approche respecte les accumulations de longue durée et la variabilité interannuelle, mais les valeurs extrêmes de précipitation sont trop faibles. En revanche, le ré-échantillonnage est plus facile à mettre en œuvre et donne un comportement satisfaisant pour la variabilité à court terme. Cependant, il manque une variabilité inter-annuelle. Les deux accès souffrent de la délimitation stricte des zones homogènes et des types de précipitations homogènes.Pour ces raisons, une approche complètement différente est également envisagée, où les pluies totales sont modélisées conjointement en utilisant la copule, puis désagrégés sur la petite échelle en utilisant une simulation conditionnelle géostatistique.Enfin, la technique de la copule est utilisée pour relier les autres variables météorologiques (température, rayonnement solaire, humidité, vitesse du vent) aux précipitations. Puisque la modélisation multivariée vise à être pilotée par la simulation des précipitations, la copule doit être exécutée en mode conditionnel. La boîte à outils réalisée a déjà été utilisée dans des explorations scientifiques, elle est maintenant disponible pour tester aux applications réelles. En tant qu'approche pilotée par les données, elle est également adaptable à d'autres conditions climatiques. / This PhD work proposes new concepts and tools for stochastic weather simulation activities targeting the specific needs of hydrology. We used, as a demonstration, a climatically contrasted area in the South-East of France, Cévennes-Vivarais, which is highly attractive to hydrological hazards and climate change.Our perspective is that physical features (soil moisture, discharge) relevant to everyday concerns (water resources assessment and/or hydrological hazard) are directly linked to the atmospheric variability at the basins scale, meaning firstly that relevant time and space scales ranges must be respected in the rainfall simulation technique. Since hydrological purposes are the target, other near-surface variates must be also considered. They may exhibit a less striking variability, but it does exist. To build the multi-variable modeling, co-variability with rainfall is first considered.The first step of the PhD work is dedicated to take into account the heterogeneity of the precipitation within the rainfall simulator SAMPO [Leblois and Creutin, 2013]. We cluster time steps into rainfall types organized in time. Two approaches are tested for simulation: a semi-Markov simulation and a resampling of the historical rainfall types sequence. Thanks to clustering, all kind of rainfall is served by some specific rainfall type. In a larger area, where the assumption of climatic homogeneity is not considered valid, a coordination must be introduced between the rainfall type sequences over delineated sub-areas, forming rainy patterns at the larger scale.We first investigated a coordination of Markov models, enforcing observed lengths-of-stay by a greedy algorithm. This approach respects long duration aggregates and inter-annual variability, but the high values of rainfall are too low. As contrast, the joint resampling of historically observed sequences is easier to implement and gives a satisfactory behavior for short term variability. However it lacks inter-annual variability.Both approaches suffer from the strict delineation of homogeneous zones and homogeneous rainfall types.For these reasons, a completely different approach is also considered, where the areal rainfall totals are jointly modeled using a spatio-temporal copula approach, then disaggregated to the user grid using a non-deterministic, geostatistically-based conditional simulation technique. In the copula approach, the well-known problem of rainfall having atom at zero is handled in replacing historical rainfall by an appropriated atmospheric based rainfall index having a continuous distribution. Simulated values of this index can be turned to rainfall by quantile-quantile mapping.Finally, the copula technique is used to link other meteorological variables (i.e. temperature, solar radiation, humidity, wind speed) to rainfall. Since the multivariate simulation aims to be driven by the rainfall simulation, the copula needs to be run in conditional mode. The achieved toolbox has already been used in scientific explorations, it is now available for testing in real-size application. As a data-driven approach, it is also adaptable to other climatic conditions. The presence of atmospheric precursors a large scale values in some key steps may enable the simulation tools to be converted into a climate simulation disaggregation.
199

Détection non-supervisée de contours et localisation de formes à l'aide de modèles statistiques

Destrempes, François January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
200

La modélisation mathématique des réseaux logistiques : procédés divergents et positionnement par anticipation : applications à l'industrie du bois d'œuvre

Vila, Didier 12 April 2018 (has links)
Les décisions de localisation, de configuration et de définition des missions des centres de production et/ou de distribution sont des enjeux stratégiques pour le futur des entreprises manufacturières. La modélisation mathématique des réseaux logistiques a pour objectif de suggérer des décisions économiquement efficaces aux gestionnaires. Cependant, la transcription fidèle de ces enjeux en termes mathématiques conditionne la crédibilité et l’efficacité des solutions recommandées. Dès lors, l’élaboration de méthodologies réalistes apparaît être une des conditions de succès de toute formalisation. Cette thèse propose tout d’abord, une méthodologie générique réaliste de conception des réseaux logistiques pour les industries dont les procédés sont divergents. La méthodologie proposée est validée en l’appliquant à Virtu@l-Lumber, un cas virtuel mais réaliste de l’industrie du bois d’œuvre. Ensuite, une approche de positionnement par anticipation intégrant les préférences des clients est élaborée et expérimentée. Cette approche s’appuie sur un modèle de programmation stochastique avec recours. Au final, un modèle mathématique intégrateur combinant les concepts des deux méthodologies précédentes est formulé et son impact potentiel sur l’industrie du bois-d’œuvre est examiné à l’aide du cas Virtu@l-Lumber. / Strategic decisions on the location, the capacity, the layout, and the mission of production and distribution facilities are key drivers of manufacturing company’s competitiveness. The aim of supply chain design models is to recommend economically efficient decisions to the company’s administrator. The realism of the mathematical modeling of the aforementioned issues conditions the validity and the applicability of the prescribed solutions. The elaboration of realistic methodologies is thus one of the main success factors of decision support processes. This thesis first proposes a generic methodology to design the production-distribution network of divergent process industry companies. The approach is validated by applying it to Virtu@l-Lumber, a virtual but realistic case from the lumber industry. Second, an approach that takes into account market opportunities when designing production-distribution networks is proposed and tested. This approach is based on a stochastic programming with recourse model. Lastly, a mathematical model combining the two previous formulations is proposed and its potential impact on the lumber industry is investigated with the Virtu@l-Lumber case.

Page generated in 0.0582 seconds