• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 436
  • 319
  • 40
  • 1
  • 1
  • 1
  • Tagged with
  • 785
  • 383
  • 133
  • 133
  • 126
  • 124
  • 117
  • 105
  • 101
  • 92
  • 91
  • 78
  • 77
  • 77
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Contributions à des problèmes de partitionnement de graphe sous contraintes de ressources / Contributions to graph partitioning problems under resource constraints

Nguyen, Dang Phuong 06 December 2016 (has links)
Le problème de partitionnement de graphe est un problème fondamental en optimisation combinatoire. Le problème revient à décomposer l'ensemble des nœuds d'un graphe en plusieurs sous-ensembles disjoints de nœuds (ou clusters), de sorte que la somme des poids des arêtes dont les extrémités se trouvent dans différents clusters est réduite au minimum. Dans cette thèse, nous étudions le problème de partitionnement de graphes avec des poids (non négatifs) sur les nœuds et un ensemble de contraintes supplémentaires sur les clusters (GPP-SC) précisant que la capacité totale (par exemple, le poids total des nœuds dans un cluster, la capacité totale sur les arêtes ayant au moins une extrémité dans un cluster) de chaque groupe ne doit pas dépasser une limite prédéfinie (appelée limite de capacité). Ceci diffère des variantes du problème de partitionnement de graphe le plus souvent abordées dans la littérature en ce que:_ Le nombre de clusters n'est pas imposé (et fait partie de la solution),_ Les poids des nœuds ne sont pas homogènes.Le sujet de ce travail est motivé par le problème de la répartition des tâches dans les structures multicœurs. Le but est de trouver un placement admissible de toutes les tâches sur les processeurs tout en respectant leur capacité de calcul et de minimiser le volume total de la communication inter-processeur. Ce problème peut être formulé comme un problème de partitionnement de graphe sous contraintes de type sac-à-dos (GPKC) sur des graphes peu denses, un cas particulier de GPP-SC. En outre, dans de telles applications, le cas des incertitudes sur les poids des nœuds (poids qui correspondent par exemple à la durée des tâches) doit être pris en compte.La première contribution de ce travail est de prendre en compte le caractère peu dense des graphes G = (V,E) typiques rencontrés dans nos applications. La plupart des modèles de programmation mathématique existants pour le partitionnement de graphe utilisent O(|V|^3) contraintes métriques pour modéliser les partitions de nœuds et donc supposent implicitement que G est un graphe complet. L'utilisation de ces contraintes métriques dans le cas où G n'est pas complet nécessite l'ajout de contraintes qui peuvent augmenter considérablement la taille du programme. Notre résultat montre que, pour le cas où G est un graphe peu dense, nous pouvons réduire le nombre de contraintes métriques à O(|V||E|) [1], [4]... / The graph partitioning problem is a fundamental problem in combinatorial optimization. The problem refers to partitioning the set of nodes of an edge weighted graph in several disjoint node subsets (or clusters), so that the sum of the weights of the edges whose end-nodes are in different clusters is minimized. In this thesis, we study the graph partitioning problem on graph with (non negative) node weights with additional set constraints on the clusters (GPP-SC) specifying that the total capacity (e.g. the total node weight, the total capacity over the edges having at least one end-node in the cluster) of each cluster should not exceed a specified limit (called capacity limit). This differs from the variants of graph partitioning problem most commonly addressed in the literature in that:-The number of clusters is not imposed (and is part of the solution),-The weights of the nodes are not homogeneous.The subject of the present work is motivated by the task allocation problem in multicore structures. The goal is to find a feasible placement of all tasks to processors while respecting their computing capacity and minimizing the total volume of interprocessor communication. This problem can be formulated as a graph partitioning problem under knapsack constraints (GPKC) on sparse graphs, a special case of GPP-SC. Moreover, in such applications, the case of uncertain node weights (weights correspond for example to task durations) has to be taken into account.The first contribution of the present work is to take into account the sparsity character of the graph G = (V,E). Most existing mathematical programming models for the graph partitioning problem use O(|V|^3) metric constraints to model the partition of nodes and thus implicitly assume that G is a complete graph. Using these metric constraints in the case where G is not complete requires adding edges and constraints which may greatly increase the size of the program. Our result shows that for the case where G is a sparse graph, we can reduce the number of metric constraints to O(|V||E|).The second contribution of present work is to compute lower bounds for large size graphs. We propose a new programming model for the graph partitioning problem that make use of only O(m) variables. The model contains cycle inequalities and all inequalities related to the paths in the graph to formulate the feasible partitions. Since there are an exponential number of constraints, solving the model needs a separation method to speed up the computation times. We propose such a separation method that use an all pair shortest path algorithm thus is polynomial time. Computational results show that our new model and method can give tight lower bounds for large size graphs of thousands of nodes.....
332

Modélisation multivariée de variables météorologiques / Multivariate modelling of weather variables

Touron, Augustin 19 September 2019 (has links)
La production d'énergie renouvelable et la consommation d'électricité dépendent largement des conditions météorologiques : température, précipitations, vent, rayonnement solaire... Ainsi, pour réaliser des études d'impact sur l'équilibre offre-demande, on peut utiliser un générateur de temps, c'est-à-dire un modèle permettant de simuler rapidement de longues séries de variables météorologiques réalistes, au pas de temps journalier. L'une des approches possibles pour atteindre cet objectif utilise les modèles de Markov caché : l'évolution des variables à modéliser est supposée dépendre d'une variable latente que l'on peut interpréter comme un type de temps. En adoptant cette approche, nous proposons dans cette thèse un modèle permettant de simuler simultanément la température, la vitesse du vent et les précipitations, en tenant compte des non-stationnarités qui caractérisent les variables météorologiques. D'autre part, nous nous intéressons à certaines propriétés théoriques des modèles de Markov caché cyclo-stationnaires : nous donnons des conditions simples pour assurer leur identifiabilité et la consistance forte de l'estimateur du maximum de vraisemblance. On montre aussi cette propriété de l'EMV pour des modèles de Markov caché incluant des tendances de long terme sous forme polynomiale. / Renewable energy production and electricity consumption both depend heavily on weather: temperature, precipitations, wind, solar radiation... Thus, making impact studies on the supply/demand equilibrium may require a weather generator, that is a model capable of quickly simulating long, realistic times series of weather variables, at the daily time step. To this aim, one of the possible approaches is using hidden Markov models : we assume that the evolution of the weather variables are governed by a latent variable that can be interpreted as a weather type. Using this approach, we propose a model able to simulate simultaneously temperature, wind speed and precipitations, accounting for the specific non-stationarities of weather variables. Besides, we study some theoretical properties of cyclo-stationary hidden Markov models : we provide simple conditions of identifiability and we show the strong consistency of the maximum likelihood estimator. We also show this property of the MLE for hidden Markov models including long-term polynomial trends.
333

Methods and algorithms to learn spatio-temporal changes from longitudinal manifold-valued observations / Méthodes et algorithmes pour l’apprentissage de modèles d'évolution spatio-temporels à partir de données longitudinales sur une variété

Schiratti, Jean-Baptiste 23 January 2017 (has links)
Dans ce manuscrit, nous présentons un modèle à effets mixtes, présenté dans un cadre Bayésien, permettant d'estimer la progression temporelle d'un phénomène biologique à partir d'observations répétées, à valeurs dans une variété Riemannienne, et obtenues pour un individu ou groupe d'individus. La progression est modélisée par des trajectoires continues dans l'espace des observations, que l'on suppose être une variété Riemannienne. La trajectoire moyenne est définie par les effets mixtes du modèle. Pour définir les trajectoires de progression individuelles, nous avons introduit la notion de variation parallèle d'une courbe sur une variété Riemannienne. Pour chaque individu, une trajectoire individuelle est construite en considérant une variation parallèle de la trajectoire moyenne et en reparamétrisant en temps cette parallèle. Les transformations spatio-temporelles sujet-spécifiques, que sont la variation parallèle et la reparamétrisation temporelle sont définnies par les effets aléatoires du modèle et permettent de quantifier les changements de direction et vitesse à laquelle les trajectoires sont parcourues. Le cadre de la géométrie Riemannienne permet d'utiliser ce modèle générique avec n'importe quel type de données définies par des contraintes lisses. Une version stochastique de l'algorithme EM, le Monte Carlo Markov Chains Stochastic Approximation EM (MCMC-SAEM), est utilisé pour estimer les paramètres du modèle au sens du maximum a posteriori. L'utilisation du MCMC-SAEM avec un schéma numérique permettant de calculer le transport parallèle est discutée dans ce manuscrit. De plus, le modèle et le MCMC-SAEM sont validés sur des données synthétiques, ainsi qu'en grande dimension. Enfin, nous des résultats obtenus sur différents jeux de données liés à la santé. / We propose a generic Bayesian mixed-effects model to estimate the temporal progression of a biological phenomenon from manifold-valued observations obtained at multiple time points for an individual or group of individuals. The progression is modeled by continuous trajectories in the space of measurements, which is assumed to be a Riemannian manifold. The group-average trajectory is defined by the fixed effects of the model. To define the individual trajectories, we introduced the notion of « parallel variations » of a curve on a Riemannian manifold. For each individual, the individual trajectory is constructed by considering a parallel variation of the average trajectory and reparametrizing this parallel in time. The subject specific spatiotemporal transformations, namely parallel variation and time reparametrization, are defined by the individual random effects and allow to quantify the changes in direction and pace at which the trajectories are followed. The framework of Riemannian geometry allows the model to be used with any kind of measurements with smooth constraints. A stochastic version of the Expectation-Maximization algorithm, the Monte Carlo Markov Chains Stochastic Approximation EM algorithm (MCMC-SAEM), is used to produce produce maximum a posteriori estimates of the parameters. The use of the MCMC-SAEM together with a numerical scheme for the approximation of parallel transport is discussed. In addition to this, the method is validated on synthetic data and in high-dimensional settings. We also provide experimental results obtained on health data.
334

Les méthodes de caching distribué dans les réseaux small cells / Distributed caching methods in small cell networks

Bastug, Ejder 14 December 2015 (has links)
Cette thèse explore le caching proactif, l'un des principaux paradigmes des réseaux cellulaires 5G utilisé en particulier le déploiement des réseaux à petites cellules (RPCs). Doté de capacités de prévisions en combinaison avec les récents développements dans le stockage, la sensibilité au contexte et les réseaux sociaux, le caching distribué permet de réduire considérablement les pics de trafic dans la demande des utilisateurs en servant de manière proactive ces derniers en fonction de leurs demandes potentielles, et en stockant les contenus à la fois dans les stations de base et dans les terminaux des utilisateurs. Pour montrer la faisabilité des techniques de caching proactif, nous abordons le problème sous deux angles différents, à savoir théorique et pratique.Dans la première partie de cette thèse, nous utiliserons des outils de géométrie stochastique pour modéliser et analyser les gains théoriques résultant du stockage dans les stations de base. Nous nous focalisons en particulier sur 1-) les réseaux ``niveau-simple" dans lesquels de petites stations de base ayant une capacité de stockage limitée, 2-) Réseaux ``niveau-multiples" avec un backbone à capacité limitée et 3-) Les réseaux ``niveau-multiples groupés" à deux topologies différentes: déploiements en fonction de la couverture et en fonction de la capacité. Nous y caractérisons les gains de stockage en termes de débit moyen fourni et de délai moyen, puis nous montrons différents compromis en fonction du nombre de stations de base, de la taille de stockage, du facteur de popularité des contenus et du débit des contenus ciblés. Dans la seconde partie de la thèse, nous nous focalisons à une approche pratique du caching proactif et nous focalisons sur l'estimation du facteur de popularité des contenus et les aspects algorithmiques. En particulier, 1-) nous établissons dans un premier lieu les gains du caching proactif à la fois au niveau des stations de base qu'au niveau des terminaux utilisateurs, en utilisant des outils récents d'apprentissage automatique exploitant le transfert des communications appareil-à-appareil (AàA); 2-) nous proposons une approche d'apprentissage sur la base de la richesse des informations transmises entre terminaux (que nous désignons par domaine source) dans le but d'avoir une meilleure estimation de la popularité des différents contenus et des contenus à stocker de manière stratégique dans les stations de base (que nous désignons par domaine cible); 3-) Enfin, pour l'estimation de la popularité des contenus en pratique, nous collectons des données de trafic d'usagers mobiles d'un opérateur de télécommunications sur plusieurs de ses stations de base pendant un certain nombre d'observations. Cette grande quantité de données entre dans le cadre du traitement ``Big Data" et nécessite l'utilisation de nouveaux mécanismes d'apprentissage automatique adaptés à ces grandes masses de données. A ce titre, nous proposons une architecture parallélisée dans laquelle l'estimation de la popularité des contenus et celle du stockage stratégique au niveau des stations de base sont faites simultanément. Nos résultats et analyses fournissent des visions clés pour le déploiement du stockage de contenus dans les petites stations de base, l'une des solutions les plus prometteuses des réseaux cellulaires mobiles hétérogènes 5G. / This thesis explores one of the key enablers of 5G wireless networks leveraging small cell network deployments, namely proactive caching. Endowed with predictive capabilities and harnessing recent developments in storage, context-awareness and social networks, peak traffic demands can be substantially reduced by proactively serving predictable user demands, via caching at base stations and users' devices. In order to show the effectiveness of proactive caching techniques, we tackle the problem from two different perspectives, namely theoretical and practical ones.In the first part of this thesis, we use tools from stochastic geometry to model and analyse the theoretical gains of caching at base stations. In particular, we focus on 1) single-tier networks where small base stations with limited storage are deployed, 2) multi-tier networks with limited backhaul, and) multi-tier clustered networks with two different topologies, namely coverage-aided and capacity-aided deployments. Therein, we characterize the gains of caching in terms of average delivery rate and mean delay, and show several trade-offs as a function of the number of base stations, storage size, content popularity behaviour and target content bitrate. In the second part of the thesis, we take a more practical approach of proactive caching and focus on content popularity estimation and algorithmic aspects. In particular: 1) We first investigate the gains of proactive caching both at base stations and user terminals, by exploiting recent tools from machine learning and enabling social-network aware device-to-device (D2D) communications; 2) we propose a transfer learning approach by exploiting the rich contextual information extracted from D2D interactions (referred to as source domain) in order to better estimate the content popularity and cache strategic contents at the base stations (referred to as target domain); 3) finally, to estimate the content popularity in practice, we collect users' real mobile traffic data from a telecom operator from several base stations in hours of time interval. This amount of large data falls into the framework of big data and requires novel machine learning mechanisms to handle. Therein, we propose a parallelized architecture in which content popularity estimation from this data and caching at the base stations are done simultaneously.Our results and analysis provide key insights into the deployment of cache-enabled small base stations, which are seen as a promising solution for 5G heterogeneous cellular networks.
335

Méthodes de pilotage des flux avec prise : en compte des incertitudes prévisionnelles / Production Planning under Uncertainties and Forecast Updates

Claisse, Maxime 12 February 2018 (has links)
Intégrée dans la chaîne décisionnelle de la Supply Chain à un niveau tactique, la Planification de Production est un process clé qui permet de répondre au mieux aux besoins selon les ressources de l’entreprise. Un des défis du domaine est la gestion des incertitudes prévisionnelles, ayant des conséquences importantes sur des indicateurs clés comme le taux de service ou les coûts. Pour y faire face, des méthodes améliorant la flexibilité des processus sont mais en place, comme le contexte de travail en Plan Glissant. Cependant, en actualisant fréquemment les données, la stabilité du système se retrouve dégradée. Ainsi, malgré les gains issus de la gestion des incertitudes, ce cadre crée une complexité dynamique à gérer. Ce travail traite de cette complexité issue de l’actualisation des prévisions pour la planification de production en plan glissant. Plus particulièrement, la question traitée ici concerne l’optimisation du plan de production, en considérant u n système mono-produit monoétage. Une modélisation mathématique générique est tout d’abord développée pour construire un modèle d’optimisation théorique du problème. Ensuite, une procédure de résolution optimale est développée en utilisant le cadre d’optimisation dynamique stochastique. Ce modèle est appliquée à des cas concrets pour lesquels l’optimalité des solutions calculées est prouvée analytiquement grâce à un raisonnement inductif basé sur des séquences de calcul d’espérances mathématiques. Des analyses numériques finalement conduites mettent en exergue les performances de la méthode développée, ses limites, et sa sensibilité vis-à-vis de l’environnement industriel. / Production Planning, as part of tactical operations integrated into the Supply Chain process, is a key procedure allowing decisioners to balance demand and production resources. One of its most challenging issues is to handle uncertainties, especially the ones coming from the Forecasted Demand. In order to manage indicators at stake, such as service level and costs, best practices increasing flexibility in the process are implemented, as Rolling-Plan Framework. However, it creates instability since the updates procedures make the data set on change constantly. Consequently, although the gain in terms of flexibility is non-negligible for the uncertainties management, it generates on the other hand dynamics complexity. We study in this work how to deal this dynamics complexity generated by updates of the Forecasted Demand made in a Rolling-Plan Framework of a Production Planning Process. In particular, the question to which it answers is how to optimize the Production Plan in such a context. This issue is tackled considering a single item single level production system. A general mathematical model in the context of our study is built to be exploitable for analytical optimization. A theoretical optimization framework is designed, and a specific solutions computation framework using stochastic dynamic programming is developed. We apply it in some precise study cases in order to compute optimal solutions and get some valuable analytical results thanks to a dynamic computation process. The optimality of the solutions is proven through an inductive reasoning based on expectations computation. Solutions are finally implemented and calculated numerically with simulations in some particular numerical examples. Analyses and sensitivity studies are performed, highlighting the performances of our optimization method.
336

Gestion et dimensionnement d'une flotte de véhicules électriques associée à une centrale photovoltaïque : co-optimisation stochastique et distribuée / Management and Sizing of an Electric Vehicle Fleet Associated with a Photovoltaic Plant : Stochastic and Distributed Co-optimizationStationary Valorisation of Electric Vehicle Batteries taking into account their aging and availibility

Le Goff Latimier, Roman 26 September 2016 (has links)
La généralisation concomitante de consommateurs d'électricité flexibles et de producteurs imparfaitement contrôlables invite à utiliser les complémentarités de ces acteurs afin d'améliorer leur intégration dans les systèmes d'énergie. Dans le cadre de ces travaux de doctorat, la collaboration entre une flotte de véhicules électriques et une centrale photovoltaïque est étudiée. Un problème générique est tout d'abord défini afin d'augmenter la prévisibilité des échanges entre un réseau électrique et le système collaboratif ainsi créé qui devra respecter un profil d'engagement de puissance échangée. La gestion de ce système est traduite en un problème d'optimisation dans lequel on cherche à compenser les erreurs de prévision de la production photovoltaïque à l'aide de la flexibilité des recharges. Ce problème est multi-temporel du fait de la présence de batteries, stochastique à cause de la disponibilité des véhicules et des erreurs de prévision, et enfin de grande dimension puisqu'à l'échelle d'une flotte entière.Pour le résoudre, la modélisation du comportement et du vieillissement des batteries Li-ion est discutée afin d'établir des compromis entre justesse du modèle, impact sur la décision finale et coût de calcul. Par ailleurs, un modèle de Markov caché original est spécifiquement développé afin de capturer les structures temporelles de l'erreur de prévision de production photovoltaïque. Cette étude est fondée sur des données réelles de production d'une centrale et des données de prévision correspondantes.Le problème de recharge optimale d'une flotte de véhicules agrégée en une batterie équivalente est résolu par la méthode de la programmation dynamique stochastique. La sensibilité des lois de gestion obtenues est discutée vis à vis des modèles utilisés pour décrire l'erreur de prévision ou le comportement des batteries. Le vieillissement des batteries est traduit par plusieurs modèles, dont on examine les conséquences sur le dimensionnement optimal de la flotte de véhicules par rapport à la puissance crête de la centrale photovoltaïque.Enfin la puissance de recharge optimale pour chacun des véhicules de la flotte est déduite à l'aide d'un problème de partage qui est résolu par optimisation distribuée --- Alternating Direction Method of Multipliers --- et programmation dynamique. Une attention particulière est prêtée à la manière dont les préférences individuelles de chaque utilisateur peuvent être prises en compte au sein d'une flotte. Le cas d'une limitation des échanges d'information possibles entre les véhicules est investigué. Le dimensionnement optimal entre une flotte et une centrale photovoltaïque est finalement analysé pour plusieurs modèles économiques envisageables. L'interaction entre dimensionnement et gestion est traitée à l'aide d'une co-optimisation. / Simultaneous development of flexible electricity consumers and of intermittent renewable producers calls for using their complementarities. It could foster their overall integration in power systems. For the purpose of this doctoral thesis, the collaboration between an electric vehicle fleet and a photovoltaic plant is studied. First of all, a generic problem is set up to improve the predictability of the power exchange between the power grid and the so called collaboratif system. It should therefore fulfill a commitment profile constraint. The intraday management of this system consists in an optimisation problem which objective is to mitigate the production forecast errors by charging power flexibility. This is a multitime step problem, because of the battery intertia. The random availibility of vehicles and the forecast errors also make it stochastic. Finally there is a huge number of variables as it is spread other an entiere fleet.Upstream of the problem resolution, the modeling of the dynamic behaviour and of the aging of Lithium Ion batteries is discussed. It results in a range of compromises between precision, impact on the final decision and computational cost. Furthermore, a hidden Markov model is proposed and developped so as to handle temporal structures of the forecast error of the photovoltaic production. This analysis is based on production data of a real plant and on associated forecasts.An electric vehicle fleet is considered as an equivalent agregated battery. Its optimal charging power is sorted out using stochastic dynamic programming. The sensitivity of the resulting management strategies is assessed against the models which describe the production forecast error or battery behaviour. The battery aging is rendered by several models which we discuss the consequences over the optimal sizing of an electric vehicle fleet regarding to the plant power.Then the optimal charing power for each one of the vehicles among a fleet is deduced using a sharing problem. The resolution is carried out using distributed optimisation --- Alternating Direction Method of Multipliers --- and dynamic programming. A specific attention is devoted to the individual mobility priorities of the vehicles users. The vehicle charging power is thus differenticiated according to each one preferences. We also investigate a situation where information exchanges are limited. The optimal sizing of an electric vehicle fleet associated with a photovoltaic plant is finaly considered under several possibilities of economic model. The coupling between sizing and daily management is tackled thanks to a co-optimization.
337

Optimisation des investissements sur les ponts par la méthode coûts-avantages : valorisation des revenus et du modèle de détérioration

Fortin, Jean-Sébastien 24 April 2018 (has links)
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans. / This study extends the existing literature on Bridge Management Systems (BMS) by developing a decision-making program to optimize bridge rehabilitations. This decision-making tool analyses the net present value to consider the optimal moment to repair a bridge. It highlights wealth creation by the maintenance of an efficient road network. Moreover, it allows the study of uncertainty on several parameters, such as financial values of inflation and interest rates as well as the evolution of traffic flow. The ability of the decision-making tool to verify the impact of several variables and the deterioration model currently used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports is compared to two other models; a Markovian model and a stochastic model developed under this study. This project breaks new ground by considering the revenue generated by the bridge’s efficiency. It also considers uncertainty on several parameters, such as financial values of inflation and interest rate, and the evolution of traffic flow. Considering the recent establishment of the management system used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports, this study is based on several assumptions. The life span of the bridge is limited to 100 years, degradation and repairs can only be done every 5 years, a single repair can be made over the bridge lifespan and the bridge condition is represented by only a few bridge components (elements). The study highlights the importance of considering variability on the deterioration of an element/bridge, interest rates and, to a lesser extent, inflation based on the ministère des Transports, de la Mobilité durable et de l'Électrification des transports data and using a probabilistic analysis of 20,000 simulations. Thus, when the bridge is only represented by its reinforced concrete deck and using the deterministic deterioration approach, a repair between 25 and 30 years is appropriate. A rather low interest rate can even push this choice to 35 years. This choice is very broad with the Markovian approach considering the high probabilities of keeping the bridge in good condition. Finally, the stochastic approach favors repair between 20 and 35 years depending on the speed of deterioration. This choice may again change slightly with the addition of both a variable interest rate and a variable inflation rate. When a reinforced concrete deck and steel beams are considered to represent the entire bridge, the deterministic approach suggests a 25-year repair for the reinforced concrete deck and a 30-year repair for the steel beams. Stochastic financial parameters can affect this choice, making an optimal repair of 25 to 35 years possible for both elements. The optimal moments of repair are very spread out for the Markovian approach considering the high probabilities of maintaining the elements in good condition. Finally, the stochastic approach proposes a repair between 20 and 35 years for the reinforced concrete deck and between 15 and 40 years for the steel beams. These repairs are slightly affected by the addition of a variable interest rate and inflation rate as well. An in-depth analysis shows the impact that several parameters have on the model considered. These parameters include: the transition matrix, the state penalty, the variability of the matrix for stochastic deterioration, and the addition of a simultaneous repair advantage. A change in the transition matrix mainly has an impact on the volatility of the results, whereas a modification on the state penalty shifts the optimal repair time distribution for Markovian and stochastic deteriorations. The variability of the matrix for stochastic deterioration directly affects the volatility of the optimal repair time. For example, the lower the percentage of variation of the matrix, the more the optimal repair moments will be concentrated (or fixed). Finally, the implementation of a simultaneous repair benefit mainly has an impact when the optimal repair time is within 10 years of a simultaneous repair. For a deterministic deterioration, a reduction in costs of 3.72% is sufficient to reconcile repair dates to 30 years, the bridge being repair at 25 years without this benefit. However, this advantage has little impact on Markovian deterioration due to the wide distribution of optimal repair times but a considerable impact on stochastic deterioration, with the majority of repairs occurring within a range of 15 to 40 years. / Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans. / Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
338

Développement stochastique pour les processus de diffusion et applications à la valorisation d'options

Bompis, Romain 11 December 2013 (has links) (PDF)
Cette thèse est consacrée à l'approximation de l'espérance d'une fonctionnelle (pouvant dépendre de toute la trajectoire) appliquée à un processus de diffusion (pouvant être multidimensionnel). La motivation de ce travail vient des mathématiques financières où la valorisation d'options se réduit au calcul de telles espérances. La rapidité des calculs de prix et des procédures de calibration est une contrainte opérationnelle très forte et nous apportons des outils temps-réel (ou du moins plus compétitifs que les simulations de Monte Carlo dans le cas multidimensionnel) afin de combler ces besoins. Pour obtenir des formules d'approximation, on choisit un modèle proxy dans lequel les calculs analytiques sont possibles, puis nous utilisons des développements stochastiques autour de ce modèle proxy et le calcul de Malliavin afin d'approcher les quantités d'intérêt. Dans le cas où le calcul de Malliavin ne peut pas être appliqué, nous développons une méthodologie alternative combinant calcul d'Itô et arguments d'EDP. Toutes les approches (allant des EDPs à l'analyse stochastique) permettent d'obtenir des formules explicites et des estimations d'erreur précises en fonction des paramètres du modèle. Bien que le résultat final soit souvent le même, la dérivation explicite du développement peut être très différente et nous comparons les approches, tant du point de vue de la manière dont les termes correctifs sont rendus explicites que des hypothèses requises pour obtenir les estimées d'erreur. Nous considérons différentes classes de modèles et fonctionnelles lors des quatre Parties de la thèse. Dans la Partie I, nous nous concentrons sur les modèles à volatilité locale et nous obtenons des nouvelles formules d'approximation pour les prix, les sensibilités (delta) et les volatilités implicites des produits vanilles surpassant en précision les formules connues jusque-là. Nous présentons aussi des nouveaux résultats concernant la valorisation des options à départ différé. La Partie II traite de l'approximation analytique des prix vanilles dans les modèles combinant volatilité locale et stochastique (type Heston). Ce modèle est très délicat à analyser car ses moments ne sont pas tous finis et qu'il n'est pas régulier au sens de Malliavin. L'analyse d'erreur est originale et l'idée est de travailler sur une régularisation appropriée du payoff et sur un modèle habilement modifié, régulier au sens de Malliavin et à partir duquel on peut contrôler la distance par rapport au modèle initial. La Partie III porte sur la valorisation des options barrières régulières dans le cadre des modèles à volatilité locale. C'est un cas non considéré dans la littérature, difficile à cause de l'indicatrice des temps de sorties. Nous mélangeons calcul d'Itô, arguments d'EDP, propriétés de martingales et de convolutions temporelles de densités afin de décomposer l'erreur d'approximation et d'expliciter les termes correctifs. Nous obtenons des formules d'approximation explicites et très précises sous une hypothèse martingale. La Partie IV présente une nouvelle méthodologie (dénotée SAFE) pour l'approximation en loi efficace des diffusions multidimensionnelles dans un cadre assez général. Nous combinons l'utilisation d'un proxy Gaussien pour approcher la loi de la diffusion multidimensionnelle et une interpolation locale de la fonction terminale par éléments finis. Nous donnons une estimation de la complexité de notre méthodologie. Nous montrons une efficacité améliorée par rapport aux simulations de Monte Carlo dans les dimensions petites et moyennes (jusqu'à 10).
339

Calcul stochastique via régularisation en dimension infinie avec perspectives financières

Di Girolami, Cristina 05 July 2010 (has links) (PDF)
Ce document de thèse développe certains aspects du calcul stochastique via régularisation pour des processus X à valeurs dans un espace de Banach général B. Il introduit un concept original de Chi-variation quadratique, où Chi est un sous-espace du dual d'un produit tensioriel B⊗B, muni de la topologie projective. Une attention particulière est dévouée au cas où B est l'espace des fonctions continues sur [-τ,0], τ>0. Une classe de résultats de stabilité de classe C^1 pour des processus ayant une Chi-variation quadratique est établie ainsi que des formules d'Itô pour de tels processus. Un rôle significatif est joué par les processus réels à variation quadratique finie X (par exemple un processus de Dirichlet, faible Dirichlet). Le processus naturel à valeurs dans C[-τ,0] est le dénommé processus fenêtre X_t(•) où X_t(y) = X_{t+y}, y ∈ [-τ,0]. Soit T>0. Si X est un processus dont la variation quadratique vaut [X]_t = t et h = H(X_T(•)) où H:C([-T,0])→ R est une fonction de classe C^3 Fréchet par rapport à L^2([-T,0] ou H dépend d'un numéro fini d' intégrales de Wiener, il est possible de représenter h comme un nombre réel H_0 plus une intégrale progressive du type \int_0^T \xi d^-X où \xi est un processus donné explicitement. Ce résultat de répresentation de la variable aléatoire h sera lié strictement à une fonction u:[0,T] x C([-T,0])→R qui en général est une solution d'une equation au derivées partielles en dimension infinie ayant la proprieté H_0=u(0, X_0(•)), \xi_t=Du(t, X_t(•))({0}). A certains égards, ceci généralise la formule de Clark-Ocone valable lorsque X est un mouvement brownien standard W. Une des motivations vient de la théorie de la couverture d'options lorsque le prix de l'actif soujacent n'est pas une semimartingale.
340

Approximations intérieures pour des problèmes de commande optimale. Conditions d'optimalité en commande optimale stochastique.

Silva, Francisco 29 November 2010 (has links) (PDF)
Cette thèse est divisée en deux parties. Dans la première partie on s'intéresse aux problèmes de commande optimale déterministes et on étudie des approximations intérieures pour deux problèmes modèles avec des contraintes de non-négativité sur la commande. Le premier modèle est un problème de commande optimale dont la fonction de coût est quadratique et dont la dynamique est régie par une équation différentielle ordinaire. Pour une classe générale de fonctions de pénalité intérieure, on montre comment calculer le terme principal du développement ponctuel de l'état et de l'état adjoint. Notre argument principal se fonde sur le fait suivant: si la commande optimale pour le problème initial satisfait les conditions de complémentarité stricte pour le Hamiltonien sauf en un nombre fini d'instants, les estimations pour le problème de commande optimale pénalisé peuvent être obtenues à partir des estimations pour un problème stationnaire associé. Nos résultats fournissent plusieurs types de mesures de qualité de l'approximation pour la technique de pénalisation: estimations des erreurs de la commande , estimations des erreurs pour l'état et l'état adjoint et aussi estimations de erreurs pour la fonction valeur. Le second modèle est le problème de commande optimale d'une équation semi-linéaire elliptique avec conditions de Dirichlet homogène au bord, la commande étant distribuée sur le domaine et positive. L'approche est la même que pour le premier modèle, c'est-à-dire que l'on considère une famille de problèmes pénalisés, dont la solution définit une trajectoire centrale qui converge vers la solution du problème initial. De cette manière, on peut étendre les résultats, obtenus dans le cadre d'équations différentielles, au contrôle optimal d'équations elliptiques semi-linéaires. Dans la deuxième partie on s'intéresse aux problèmes de commande optimale stochastiques. Dans un premier temps, on considère un problème linéaire quadratique stochastique avec des contraintes de non-negativité sur la commande et on étend les estimations d'erreur pour l'approximation par pénalisation logarithmique. La preuve s'appuie sur le principe de Pontriaguine stochastique et un argument de dualité. Ensuite, on considère un problème de commande stochastique général avec des contraintes convexes sur la commande. L'approche dite variationnelle nous permet d'obtenir un développement au premier et au second ordre pour l'état et la fonction de coût, autour d'un minimum local. Avec ces développements on peut montrer des conditions générales d'optimalité de premier ordre et, sous une hypothèse géométrique sur l'ensemble des contraintes, des conditions nécessaires du second ordre sont aussi établies.

Page generated in 0.0924 seconds