• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contribution à la conception robuste de réseaux électriques de grande dimension au moyen des métaheuristiques d’optimisation / Contribution to the robust design of large electrical networks using metaheuristic's optimization

Ismail, Boussaad 06 May 2014 (has links)
Comme beaucoup de systèmes, un réseau électrique doit faire face à des pannes qui, compte tenu de sa grande connectivité, peuvent s'étendre à des régions entières : on parle alors de blackout (phénomène d'avalanche), c'est-à-dire ayant des conséquences à grande échelle. La taille des réseaux électriques et leur complexité rendent difficile la compréhension de ces phénomènes qui émergent localement. Un certain nombre de travaux existe et se fond sur un usage intensif des outils de physique statistique. L'adaptation de méthodes de percolation et les systèmes critiques auto-organisés sont autant d'outils de choix pour décrire les propriétés statistiques et topologiques d'un réseau. Les outils d'optimisation par métaheuristiques, plus particulièrement l'optimisation par essaim de particules (OEP, ou PSO en anglais) et les algorithmes génétiques (AGs), se sont révélés être la pierre angulaire de ce travail et ont permis de définir des structures opérationnelles. Les travaux développés dans ce domaine sont encore émergents et cette thèse y amène une contribution à plusieurs titres. Nous avons mis tout d'abord à profit des techniques d'optimisation afin de mieux “ rigidifier ” un réseau électrique en couplant la topologie de ce dernier au maintien des tensions aux noeuds du réseau par implémentation de FACTS (Flexible Alternative Current Transmission System). Pour le placement optimal de FACTS, l'objectif est de déterminer la répartition optimale de la puissance réactive, en relation avec la localisation et le dimensionnement optimal de FACTS, afin d'améliorer les performances d'un réseau électrique. Quatre principales questions sont alors abordées: 1) Où placer des FACTS dans le réseau ? Combien de FACTS ? Quelle puissance attribuer à ces FACTS ? Quel(s) type(s) de FACTS ? A quel prix ? Dans cette thèse, toutes ces questions seront modélisées et abordées d'un point de vue électrique et optimal en appliquant, dans un premier temps, l'optimisation par essaim de particules OEP basique puis, dans un deuxième temps, en proposant un nouvel algorithme OEP (alpha-SLPSO) et une recherche locale (alpha-LLS) s'inspirant ainsi du concept de l'OEP basique et des lois de probabilité stables dites «alpha-stables de Lévy». Par ailleurs, l'ampleur du projet défini par l'équipe @RiskTeam d'Alstom Grid oblige l'utilisation de plusieurs techniques (tirées de la physique, des statistiques, etc.) destinées à des fins particulières dont l'estimation des paramètres des lois alpha-stable de Lévy. Face à l'échec des techniques déjà existantes pour l'estimation des lois alpha −stable de paramètre alpha < 0.6 , nous proposons un nouvel estimateur semi-paramétrique de cette famille de probabilité utilisant les métaheuristiques pour résoudre le problème d'optimisation sous-jacent. Enfin, en annexe de cette thèse, un outil d'aide à la décision destiné à une équipe interne d'Alstom Grid qui consiste en l'optimisation de la topologie interne d'un parc éolien est détaillé dans le dernier chapitre / Like many systems, an electrical power grid must contend with faillures which, given its higth connectivity, could spread to entire regions: this is referred to blackout (avalanche phenomena), ie. with large-scale consequences. The size of power grids and their complexity make difficult to grasp these locally emergent phenomena. There is a number of existing works that were based on extensive use of statistical physics tools. The adaptation of percolation's methods and the Self-Organized-Criticality systems provide practical tools to describe the statistical and topological properties of a network. Optimization tools by metaheuristics particularly, particle swarm optimization (PSO) and genetic algorithms (GA) have proved to be the cornerstone of this work and helped to define operational structures. Works developed in this area are still emerging. This thesis brings a contribution in several ways. First of all, we have taken advantage in optimization technics to better "stiffen" a power grid by coupling its topology with maintaining voltages at the nodes of the network using FACTS (Flexible Alternative Current Transmission System). In the optimal location FACTS problem, the objective is to determine the optimal allocation of reactive power, in relation to the location and optimal sizing of FACTS, in order to improve the performance of the power grid. Four main issues are then discussed: 1) Where to place FACTS in the network? How many FACTS? What power attributed to these FACTS? What type(s) attributed to these FACTS? At what prices ? In this thesis, all these questions will be modeled and discussed from the point of view of optimal power by applying, firstly, the strandard particle swarm optimization and by proposing a novel particle swarm optimization (alpha-SLPOS) and a local search (alpha-LLS). These two algorithms are inspired by the basic concept of PSO and the stable distributions (alpha-stable laws). Moreover, the scope of the project defined by the team @RiskTeam Alstom Grid requires the use of several techniques (from physics, statistics, etc) for particular purposes including the alpha-stable parametere estimation problem. Facing the failure of the existing methods for estimating the parameters of alpha-stable laws for alpha<0.6, we propose a novel semi-parametric estimator for such of probability distribution familly using metaheuristic to solve the underlying problem of optimization. Finally, in the end of the thesis, a decision support tool is designed for an internal team of Alstom Grid to optimize the internal topology of a wind farm
2

Utilizing self-similar stochastic processes to model rare events in finance

Wesselhöfft, Niels 24 February 2021 (has links)
In der Statistik und der Mathematik ist die Normalverteilung der am meisten verbreitete, stochastische Term für die Mehrheit der statistischen Modelle. Wir zeigen, dass der entsprechende stochastische Prozess, die Brownsche Bewegung, drei entscheidende empirische Beobachtungen nicht abbildet: schwere Ränder, Langzeitabhängigkeiten und Skalierungsgesetze. Ein selbstähnlicher Prozess, der in der Lage ist Langzeitabhängigkeiten zu modellieren, ist die Gebrochene Brownsche Bewegung, welche durch die Faltung der Inkremente im Limit nicht normalverteilt sein muss. Die Inkremente der Gebrochenen Brownschen Bewegung können durch einen Parameter H, dem Hurst Exponenten, Langzeitabhängigkeiten darstellt werden. Für die Gebrochene Brownsche Bewegung müssten die Skalierungs-(Hurst-) Exponenten über die Momente verschiedener Ordnung konstant sein. Empirisch beobachten wir variierende Hölder-Exponenten, die multifraktales Verhalten implizieren. Wir erklären dieses multifraktale Verhalten durch die Änderung des alpha-stabilen Indizes der alpha-stabilen Verteilung, indem wir Filter für Saisonalitäten und Langzeitabhängigkeiten über verschiedene Zeitfrequenzen anwenden, startend bei 1-minütigen Hochfrequenzdaten. Durch die Anwendung eines Filters für die Langzeitabhängigkeit zeigen wir, dass die Residuen des stochastischen Prozesses geringer Zeitfrequenz (wöchentlich) durch die alpha-stabile Bewegung beschrieben werden können. Dies erlaubt es uns, den empirischen, hochfrequenten Datensatz auf die niederfrequente Zeitfrequenz zu skalieren. Die generierten wöchentlichen Daten aus der Frequenz-Reskalierungs-Methode (FRM) haben schwerere Ränder als der ursprüngliche, wöchentliche Prozess. Wir zeigen, dass eine Teilmenge des Datensatzes genügt, um aus Risikosicht bessere Vorhersagen für den gesamten Datensatz zu erzielen. Im Besonderen wäre die Frequenz-Reskalierungs-Methode (FRM) in der Lage gewesen, die seltenen Events der Finanzkrise 2008 zu modellieren. / Coming from a sphere in statistics and mathematics in which the Normal distribution is the dominating underlying stochastic term for the majority of the models, we indicate that the relevant diffusion, the Brownian Motion, is not accounting for three crucial empirical observations for financial data: Heavy tails, long memory and scaling laws. A self-similar process, which is able to account for long-memory behavior is the Fractional Brownian Motion, which has a possible non-Gaussian limit under convolution of the increments. The increments of the Fractional Brownian Motion can exhibit long memory through a parameter H, the Hurst exponent. For the Fractional Brownian Motion this scaling (Hurst) exponent would be constant over different orders of moments, being unifractal. But empirically, we observe varying Hölder exponents, the continuum of Hurst exponents, which implies multifractal behavior. We explain the multifractal behavior through the changing alpha-stable indices from the alpha-stable distributions over sampling frequencies by applying filters for seasonality and time dependence (long memory) over different sampling frequencies, starting at high-frequencies up to one minute. By utilizing a filter for long memory we show, that the low-sampling frequency process, not containing the time dependence component, can be governed by the alpha-stable motion. Under the alpha-stable motion we propose a semiparametric method coined Frequency Rescaling Methodology (FRM), which allows to rescale the filtered high-frequency data set to the lower sampling frequency. The data sets for e.g. weekly data which we obtain by rescaling high-frequency data with the Frequency Rescaling Method (FRM) are more heavy tailed than we observe empirically. We show that using a subset of the whole data set suffices for the FRM to obtain a better forecast in terms of risk for the whole data set. Specifically, the FRM would have been able to account for tail events of the financial crisis 2008.

Page generated in 0.055 seconds