Spelling suggestions: "subject:"stochastic algorithms"" "subject:"stochastic a.lgorithms""
1 |
Dynamic Beamforming Optimization for Anti - Jamming and Hardware Fault RecoveryBecker, Jonathan 16 May 2014 (has links)
In recent years there has been a rapid increase in the number of wireless devices for both commercial and defense applications. Such unprecedented demand has increased device cost and complexity and also added a strain on the spectrum utilization of wireless communication systems. This thesis addresses these issues, from an antenna system perspective, by developing new techniques to dynamically optimize adaptive beamforming arrays for improved anti-jamming and reliability. Available frequency spectrum is a scarce resource, and therefor e increased interference will occur as the wireless spectrum saturates. To mitig ate unintentional interference, or intentional interference from a jamming source, antenna arrays are used to focus electromagnetic energy on a signal of interest while simultaneously minimizing radio frequency energy in directions of interfering signals. The reliability of such arrays, especially in commercial satellite and defense applications, can be addressed by hardware redundancy, but at the expense of increased volume, mass as well as component and design cost. This thesis proposes the development of new models and optimization algorithms to dynamically adapt beamforming arrays to mitigate interference and increase hardware reliability. The contributions of this research are as follows. First, analytical models are developed and experimental results show that small antenna arrays can thwart interference using dynamically applied stochastic algorithms. This type of insitu optimization, with an algorithm dynamically optimizing a beamformer to thwart interference sources with unknown positions, inside of an anechoic chamber has not been done before to our knowledge. Second, it is shown that these algorithms can recover from hardware failures and localized faults in the array. Experiments were performed with a proof-of-concept four-antenna array. This is the first hardware demonstration showing an antenna array with live hardware fault recovery that is adapted by stochastic algorithms in an anechoic chamber. We also compare multiple stochastic algorithms in performing both anti-jamming and hardware fault recovery. Third, we show that stochastic algorithms can be used to continuously track and mitigate interfering signals that continuously move in an additive white Gaussian noise wireless channel.
|
2 |
Algorithmes stochastiques pour l'apprentissage, l'optimisation et l'approximation du régime stationnaire / Stochastic algorithms for learning, optimization and approximation of the steady regimeSaadane, Sofiane 02 December 2016 (has links)
Dans cette thèse, nous étudions des thématiques autour des algorithmes stochastiques et c'est pour cette raison que nous débuterons ce manuscrit par des éléments généraux sur ces algorithmes en donnant des résultats historiques pour poser les bases de nos travaux. Ensuite, nous étudierons un algorithme de bandit issu des travaux de N arendra et Shapiro dont l'objectif est de déterminer parmi un choix de plusieurs sources laquelle profite le plus à l'utilisateur en évitant toutefois de passer trop de temps à tester celles qui sont moins performantes. Notre but est dans un premier temps de comprendre les faiblesses structurelles de cet algorithme pour ensuite proposer une procédure optimale pour une quantité qui mesure les performances d'un algorithme de bandit, le regret. Dans nos résultats, nous proposerons un algorithme appelé NS sur-pénalisé qui permet d'obtenir une borne de regret optimale au sens minimax au travers d'une étude fine de l'algorithme stochastique sous-jacent à cette procédure. Un second travail sera de donner des vitesses de convergence pour le processus apparaissant dans l'étude de la convergence en loi de l'algorithme NS sur-pénalisé. La particularité de l'algorithme est qu'il ne converge pas en loi vers une diffusion comme la plupart des algorithmes stochastiques mais vers un processus à sauts non-diffusif ce qui rend l'étude de la convergence à l'équilibre plus technique. Nous emploierons une technique de couplage afin d'étudier cette convergence. Le second travail de cette thèse s'inscrit dans le cadre de l'optimisation d'une fonction au moyen d'un algorithme stochastique. Nous étudierons une version stochastique de l'algorithme déterministe de boule pesante avec amortissement. La particularité de cet algorithme est d'être articulé autour d'une dynamique qui utilise une moyennisation sur tout le passé de sa trajectoire. La procédure fait appelle à une fonction dite de mémoire qui, selon les formes qu'elle prend, offre des comportements intéressants. Dans notre étude, nous verrons que deux types de mémoire sont pertinents : les mémoires exponentielles et polynomiales. Nous établirons pour commencer des résultats de convergence dans le cas général où la fonction à minimiser est non-convexe. Dans le cas de fonctions fortement convexes, nous obtenons des vitesses de convergence optimales en un sens que nous définirons. Enfin, l'étude se termine par un résultat de convergence en loi du processus après une bonne renormalisation. La troisième partie s'articule autour des algorithmes de McKean-Vlasov qui furent introduit par Anatoly Vlasov et étudié, pour la première fois, par Henry McKean dans l'optique de la modélisation de la loi de distribution du plasma. Notre objectif est de proposer un algorithme stochastique capable d'approcher la mesure invariante du processus. Les méthodes pour approcher une mesure invariante sont connues dans le cas des diffusions et de certains autre processus mais ici la particularité du processus de McKean-Vlasov est de ne pas être une diffusion linéaire. En effet, le processus a de la mémoire comme les processus de boule pesante. De ce fait, il nous faudra développer une méthode alternative pour contourner ce problème. Nous aurons besoin d'introduire la notion de pseudo-trajectoires afin de proposer une procédure efficace. / In this thesis, we are studying severa! stochastic algorithms with different purposes and this is why we will start this manuscript by giving historicals results to define the framework of our work. Then, we will study a bandit algorithm due to the work of Narendra and Shapiro whose objectif was to determine among a choice of severa! sources which one is the most profitable without spending too much times on the wrong orres. Our goal is to understand the weakness of this algorithm in order to propose an optimal procedure for a quantity measuring the performance of a bandit algorithm, the regret. In our results, we will propose an algorithm called NS over-penalized which allows to obtain a minimax regret bound. A second work will be to understand the convergence in law of this process. The particularity of the algorith is that it converges in law toward a non-diffusive process which makes the study more intricate than the standard case. We will use coupling techniques to study this process and propose rates of convergence. The second work of this thesis falls in the scope of optimization of a function using a stochastic algorithm. We will study a stochastic version of the so-called heavy bali method with friction. The particularity of the algorithm is that its dynamics is based on the ali past of the trajectory. The procedure relies on a memory term which dictates the behavior of the procedure by the form it takes. In our framework, two types of memory will investigated : polynomial and exponential. We will start with general convergence results in the non-convex case. In the case of strongly convex functions, we will provide upper-bounds for the rate of convergence. Finally, a convergence in law result is given in the case of exponential memory. The third part is about the McKean-Vlasov equations which were first introduced by Anatoly Vlasov and first studied by Henry McKean in order to mode! the distribution function of plasma. Our objective is to propose a stochastic algorithm to approach the invariant distribution of the McKean Vlasov equation. Methods in the case of diffusion processes (and sorne more general pro cesses) are known but the particularity of McKean Vlasov process is that it is strongly non-linear. Thus, we will have to develop an alternative approach. We will introduce the notion of asymptotic pseudotrajectory in odrer to get an efficient procedure.
|
3 |
Estimation récursive dans certains modèles de déformation / Recursive estimation for some deformation modelsFraysse, Philippe 04 July 2013 (has links)
Cette thèse est consacrée à l'étude de certains modèles de déformation semi-paramétriques. Notre objectif est de proposer des méthodes récursives, issues d'algorithmes stochastiques, pour estimer les paramètres de ces modèles. Dans la première partie, on présente les outils théoriques existants qui nous seront utiles dans la deuxième partie. Dans un premier temps, on présente un panorama général sur les méthodes d'approximation stochastique, en se focalisant en particulier sur les algorithmes de Robbins-Monro et de Kiefer-Wolfowitz. Dans un second temps, on présente les méthodes à noyaux pour l'estimation de fonction de densité ou de régression. On s'intéresse plus particulièrement aux deux estimateurs à noyaux les plus courants qui sont l'estimateur de Parzen-Rosenblatt et l'estimateur de Nadaraya-Watson, en présentant les versions récursives de ces deux estimateurs.Dans la seconde partie, on présente tout d'abord une procédure d'estimation récursive semi-paramétrique du paramètre de translation et de la fonction de régression pour le modèle de translation dans la situation où la fonction de lien est périodique. On généralise ensuite ces techniques au modèle vectoriel de déformation à forme commune en estimant les paramètres de moyenne, de translation et d'échelle, ainsi que la fonction de régression. On s'intéresse finalement au modèle de déformation paramétrique de variables aléatoires dans le cadre où la déformation est connue à un paramètre réel près. Pour ces trois modèles, on établit la convergence presque sûre ainsi que la normalité asymptotique des estimateurs paramétriques et non paramétriques proposés. Enfin, on illustre numériquement le comportement de nos estimateurs sur des données simulées et des données réelles. / This thesis is devoted to the study of some semi-parametric deformation models.Our aim is to provide recursive methods, related to stochastic algorithms, in order to estimate the different parameters of the models. In the first part, we present the theoretical tools which we will use in the next part. On the one hand, we focus on stochastic approximation methods, in particular the Robbins-Monro algorithm and the Kiefer-Wolfowitz algorithm. On the other hand, we introduce kernel estimators in order to estimate a probability density function and a regression function. More particularly, we present the two most famous kernel estimators which are the one of Parzen-Rosenblatt and the one of Nadaraya-Watson. We also present their recursive version.In the second part, we present the results we obtained in this thesis.Firstly, we provide a recursive estimation method of the shift parameter and the regression function for the translation model in which the regression function is periodic. Secondly, we extend this estimation procedure to the shape invariant model, providing estimation of the height parameter, the translation parameter and the scale parameter, as well as the common shape function.Thirdly, we are interested in the parametric deformation model of random variables where the deformation is known and depending on an unknown parameter.For these three models, we establish the almost sure convergence and the asymptotic normality of each estimator. Finally, we numerically illustrate the asymptotic behaviour of our estimators on simulated data and on real data.
|
4 |
Méthode d'optimisation et d'aide à la décision en conception mécanique : application à une structure aéronautique / Optimization and decision support methodology in mechanical design : application to a structure in aeronauticsCollignan, Arnaud 30 November 2011 (has links)
En conception de produits, l’étape de conception dite architecturale doit aboutir à une solution décrivant les caractéristiques du produit, telles que les dimensions ou le choix de composants. Parmi les nombreuses solutions potentielles, il est nécessaire d’effectuer un choix et de pouvoir le justifier de manière rigoureuse. Ce choix doit en outre intégrer l’éventuelle présence d’une solution de référence, pouvant par exemple être issue de projets antérieurs, ou d’études préliminaires.Dans ce but, nos travaux présentent une méthode d’aide à la décision en vue de sélectionner une solution de conception ; nous la nommons méthode OIA (Observation-Interprétation-Agrégation). Cette méthode emploie deux types de modèle, l’un pour formaliser le comportement objectif du produit (Observation), l’autre pour les préférences subjectives du concepteur (Interprétation). Dans ces préférences, nous incluons le comportement attendu du produit, la satisfaction du concepteur ainsi que les compromis intrinsèquement réalisés lors du processus de conception. Ces compromis sont réalisés au travers de stratégies de conception et de logiques de pondérations (Agrégation). La méthode OIA est employée une première fois pour qualifier les solutions de conception en termes de performance. Cette méthode est ensuite appliquée une seconde fois afin de qualifier la solution par rapport à la solution de référence, en termes de confiance accordée par le concepteur. Nous introduisons la notion d’arc-élasticité en conception comme un indicateur de compromis entre performance et confiance pour une solution de conception.Plusieurs algorithmes stochastiques d’optimisation sont comparés comme méthodes de recherche de solutions candidates pertinentes. Nous les détaillons, les comparons et proposons une méthode de sélection multicritère afin d’identifier l’algorithme le plus pertinent.Notre travail est appliqué au dimensionnement d’une jonction rivetée dans un contexte aéronautique industriel. / In product design, the design phase called "embodiment design" results to define solutions describing main product characteristics, such as dimensions or standard components. Among numerous candidate solutions, it is necessary to select and to rigorously justify the selection. This choice must often take into account preexisting reference solutions, coming from previous projects or preliminary studies.In this context, our works propose a decision support method aiming to select a design solution; it is called OIA method (Observation-Interpretation-Aggregation). This approach uses two types of model, the first one concerns the objective behavior of the product (Observation), the second one concerns the designer's subjective preferences (Interpretation). In these preference several indicators are introduced: expected product behaviors, designer's satisfactions and usual compromises realized through design activity. These compromises are achieved through design strategies and weighting approaches (Aggregation). The OIA method is first used to qualify design solutions though the performance indicator. This method is then used to qualify design solutions related to the reference one, through the confidence indicator. The arc-elasticity is finally introduced as a compromise indicator between performance and confidence.Several stochastic optimization algorithms are compared to compute optimal solutions. Theses algorithms are investigated and compared using three criteria, and a multicriteria selection method is proposed to identify the most suitable one.This work is applied to the dimensioning of a riveted junction in an industrial context.
|
5 |
Minimizacija odstupanja grupne od individualnih odluka primenom inteligentnih stohastičkih algoritama u problemima vodoprivrede i poljoprivrede / Minimization of distance between group and individualdecisions using intelligent stochastic algorithms for waterand agricultural managementBlagojević Boško 28 May 2015 (has links)
<p>Donošenje odluka u poljoprivredi i vodoprivredi podrazumeva uvažavanje ekonomskih, društvenih i kriterijuma zaštite životne sredine. Proces je složen jer se odluke zbog nemogućnosti kvantifikacije često donose na osnovu kvalitativnih podataka, ili još češće, u kombinaciji sa postojećim kvantitativnim podacima. Analitički hijerarhijski proces (AHP) je teorijsko-metodološki koncept višekriterijumske<br />analize i optimizacije za podršku složenih procesa individualnog i grupnog odlučivanja, koji se pokazao kao jedan od najpogodnijih da podrži takve procese i zato je u svetu široko rasprostranjen. Kod odlučivanja u poljoprivredi i vodoprivredi, zbog složenosti procesa, podrazumeva se interdisciplinarni pristup sa učešćem više interesnih strana (donosilaca odluka). Kod grupnih primena AHP, odluka se<br />najčešće dobija objedinjavanjem individualnih ocena ili objedinjavanjem individualnih prioriteta. U novije vreme AHP se sve više kombinuje sa modelima za postizanje konsenzusa.<br />U disertaciji je predložen mogući novi način objedinjavanja individualnih odluka u grupnu zasnovan na minimizaciji odstupanja grupne od individualnih odluka. Ideja je da se na osnovu individualnih vrednovanja elemenata odlučivanja po metodologiji AHP generiše grupni vektor pomoću algoritma simuliranog kaljenja (SA - simulated annealing) iz klase inteligentnih stohastičkih optimizacionih algoritama, posebno pogodnog kada rešenje treba tražiti u beskonačnim diskretnim prostorima. Pošto se<br />u AHP mogu koristiti različiti metodi za određivanje vektora prioriteta, koji se uobičajeno nazivaju "prioritizacioni metodi", da bi se postupak objedinjavanja učinio nezavisnim od metoda prioritizacije, u disertaciji je definisan univerzalni pokazatelj grupne konzistentnosti nazvan grupno euklidsko rastojanje (GED - group Euclidean distance). Inteligentnim približavanjem grupnog vektora prioriteta individualnim odlukama, odnosno minimizacijom GED, identifikuje se grupni vektor koji dovoljno<br />dobro predstavlja individualne odluke. Predloženi postupak nazvan je metod SAAP (SA aggregation procedure). Za testiranje ispravnosti metoda SAAP korišćena su tri primera i rezultati predloženog metoda su poređeni sa rezultatima najčešće korišćenih kombinacija metoda grupnog objedinjavanja,<br />konsenzus modela i metoda prioritizacije koje su nazvane šeme objedinjavanja. Dobijeni rezultati su pokazali da je SAAP konkurentan sa ostalim šemama objedinjavanja.<br />U disertaciji je predložena i transparentna metodologija za grupno višekriterijumsko ocenjivanje pogodnosti lokaliteta za navodnjavanje na datoj teritoriji. U FAO dokumentima je sugerisano da treba vršiti ocenu pogodnosti lokaliteta za navodnjavanje a ne isključivo zemljišta i da treba uzeti u obzir sve<br />faktore (kriterijume) koji utiču na uspešnost uvođenja navodnjavanja. Višekriterijumsko određivanje pogodnosti lokaliteta za navodnjavanje je zasnovano na kombinaciji AHP i geografskog informacionog sistema (GIS) u grupnom kontekstu. Metodologija se sastoji iz četiri faze. U prvoj fazi se identifikuju podkriterijumi za određivanje pogodnosti lokaliteta za navodnjavanje od interesa za dato područje.<br />Podkriterijumi se zatim grupišu u kriterijume (kao što su osobine zemljišta, klima, socio-ekonomski kriterijum, tehničko-pravni kriterijum i zaštita životne sredine) i na taj način se formira hijerarhija problema odlučivanja. Identifikovani donosioci odluka vrednuju elemente hijerarhije, takođe po metodu AHP, a zatim se vrednovanja koriste za izračunavanje individualnih težina podkriterijuma.<br />Sastavni deo druge faze metodologije je predloženi višekriterijumski metod za određivanje težina donosilaca odluka. Koristeći individualne težine podkriterijuma izračunate u prvoj i težine donosilaca odluka izračunate u ovoj fazi, "otežanim" aritmetičkim osrednjavanjem određuju se grupne (konačne težine) podkriterijuma (GIS slojeva). Da bi rastersko preklapanje slojeva bilo moguće, u trećoj fazi se<br />standardizuju GIS slojevi. Množenjem vrednosti piksela u svakom sloju sa pripadajućim grupnim težinama slojeva i njihovim sabiranjem dobija se konačna mapa pogodnosti lokaliteta za navodnjavanje i ona predstavlja osnovu za definisanje prostornih prioriteta izgradnje novih sistema za navodnjavanje na datom području. U četvrtoj fazi (analiza osetljivosti) se prvo isključuju slojevi koji predstavljaju<br />antropogene podkriterijume, a zatim i slojevi zasnovani na prirodnim karakteristikama. Na ovaj način se dobijaju dve nove mape pogodnosti lokaliteta za navodnjavanje koje pružaju dodatne informacije za definisanje prostornih prioriteta izgradnje novih sistema za navodnjavanje.</p> / <p>Agricultural and water management decision problems are usually complex because many criteria (such<br />as economical, social and environmental) need to be considered. For this kind of problems, decision<br />making process is often based only on qualitative data or sometimes on combination of quantitative and<br />qualitative data. The Analytic Hierarchy Process (AHP) is a multi criteria decision-making method that<br />has been used in many applications related with decision-making based on qualitative data, and is<br />applicable to both individual and group decision making situations. Because of the increasing<br />complexity of decision making problems in agriculture and water management and the necessity to<br />include all interested participants in problem solving, nowadays many AHP decision making processes<br />take place in group settings. There are various aggregation procedures for obtaining a group priority<br />vector within AHP-supported decision making, the most common of which are the aggregation of<br />individual judgments (AIJ), aggregation of individual priorities (AIP) and aggregations based on<br />consensus models.<br />A heuristic stochastic approach to group decision making is proposed in this dissertation as an<br />aggregation procedure which searches for the best group priority vector for a given node in an AHP–<br />generated hierarchy. The group Euclidean distance (GED) is used as a group consistency measure for<br />deriving the group priority vector for a given node in the AHP hierarchy where all participating<br />individuals already set their judgments. The simulated annealing (SA) algorithm tries to minimize the<br />GED, of the process of which can be considered an objective search for maximum consensus between<br />individuals within the group. The group priority vector obtained in this way is invariant to any<br />prioritization method; that is, there is no need to have individual priority vectors as is required by some<br />other aggregation procedures. This approach is named simulated annealing aggregation procedure<br />(SAAP). In order to check validity of this approach, three examples are used to compare it's results with<br />results obtained by various combinations of aggregations (AIJ and AIP), consensus models and<br />prioritization methods. In this dissertation, SAAP and other known combinations of aggregation<br />procedures and prioritization methods are labeled as aggregation schemes. Results shows that the SAAP<br />performs better or at least equally to several other well known combinations of prioritization and<br />aggregation in AHP group decision making frameworks.<br />The second objective of this dissertation was to establish a transferable and transparent procedure for<br />multi criteria group evaluations of land suitability for irrigation. The multi criteria approach is<br />recommended because according to FAO documents all aspects of the problem (environment, social<br />aspect, economy) need to be considered in the evaluation, not just soil. To make a decision on where to<br />build new, sustainable irrigation systems, here we propose multi criteria group decision making<br />approach which combines AHP and Geographic Information System (GIS). This approach is presented<br />as four-phase decision making framework. In the first phase, subcriteria relevant in validating land<br />suitability were grouped into five major criteria: soil, climate, economy, infrastructure and environment.<br />Considered as spatially determined decision making elements, criteria and subcriteria were evaluated<br />within the AHP framework by identified experts in the subject area.<br />In the second phase new multi criteria method is developed for deriving decision makers' weights. Using<br />this weights and individual priority weights of subcriteria from first phase final group weights of<br />subcriteria (GIS layers) are computed. In third phase each subcriterion (GIS layer) is standardized. Then,<br />the cell values in each of the subcriterion layers are multiplied by the corresponding final weights of the<br />subcriteria and aggregated into the final land suitability maps for irrigation in GIS environment. Finally,<br />in the fourth phase, a sensitivity analysis is applied to check the influence of different criteria on the<br />result. By changing the weights of criteria, two more maps were generated showing land suitability for<br />irrigation regarding natural conditions and economy-water infrastructure.</p>
|
6 |
3-D modeling of shallow-water carbonate systems : a scale-dependent approach based on quantitative outcrop studiesAmour, Frédéric January 2013 (has links)
The study of outcrop modeling is located at the interface between two fields of expertise, Sedimentology and Computing Geoscience, which respectively investigates and simulates geological heterogeneity observed in the sedimentary record. During the last past years, modeling tools and techniques were constantly improved. In parallel, the study of Phanerozoic carbonate deposits emphasized the common occurrence of a random facies distribution along single depositional domain. Although both fields of expertise are intrinsically linked during outcrop simulation, their respective advances have not been combined in literature to enhance carbonate modeling studies. The present study re-examines the modeling strategy adapted to the simulation of shallow-water carbonate systems, based on a close relationship between field sedimentology and modeling capabilities.
In the present study, the evaluation of three commonly used algorithms Truncated Gaussian Simulation (TGSim), Sequential Indicator Simulation (SISim), and Indicator Kriging (IK), were performed for the first time using visual and quantitative comparisons on an ideally suited carbonate outcrop. The results show that the heterogeneity of carbonate rocks cannot be fully simulated using one single algorithm. The operating mode of each algorithm involves capabilities as well as drawbacks that are not capable to match all field observations carried out across the modeling area.
Two end members in the spectrum of carbonate depositional settings, a low-angle Jurassic ramp (High Atlas, Morocco) and a Triassic isolated platform (Dolomites, Italy), were investigated to obtain a complete overview of the geological heterogeneity in shallow-water carbonate systems. Field sedimentology and statistical analysis performed on the type, morphology, distribution, and association of carbonate bodies and combined with palaeodepositional reconstructions, emphasize similar results. At the basin scale (x 1 km), facies association, composed of facies recording similar depositional conditions, displays linear and ordered transitions between depositional domains. Contrarily, at the bedding scale (x 0.1 km), individual lithofacies type shows a mosaic-like distribution consisting of an arrangement of spatially independent lithofacies bodies along the depositional profile. The increase of spatial disorder from the basin to bedding scale results from the influence of autocyclic factors on the transport and deposition of carbonate sediments.
Scale-dependent types of carbonate heterogeneity are linked with the evaluation of algorithms in order to establish a modeling strategy that considers both the sedimentary characteristics of the outcrop and the modeling capabilities. A surface-based modeling approach was used to model depositional sequences. Facies associations were populated using TGSim to preserve ordered trends between depositional domains. At the lithofacies scale, a fully stochastic approach with SISim was applied to simulate a mosaic-like lithofacies distribution. This new workflow is designed to improve the simulation of carbonate rocks, based on the modeling of each scale of heterogeneity individually.
Contrarily to simulation methods applied in literature, the present study considers that the use of one single simulation technique is unlikely to correctly model the natural patterns and variability of carbonate rocks. The implementation of different techniques customized for each level of the stratigraphic hierarchy provides the essential computing flexibility to model carbonate systems. Closer feedback between advances carried out in the field of Sedimentology and Computing Geoscience should be promoted during future outcrop simulations for the enhancement of 3-D geological models. / Das Modellieren von geologischen Aufschlüssen liegt der Schnittstelle zwischen zwei geo-logischen Teildisziplinen, der Sedimentologie und der geologischen Modellierung. Hierbei werden geologische Heterogenitäten untersucht und simuliert, welche im Aufschluss beobachtet wurden. Während der letzten Jahre haben sich die Werkzeuge und die Technik der Modellierung stetig weiter-entwickelt. Parallel dazu hat die Untersuchung der phanerozoischen Karbonatablagerungen ihren Fokus auf gemeinsamen Vorkommen von zufälligen Faziesverteilungen in beiden Ablagerungs-gebieten. Obwohl beide Teildisziplinen durch die Aufschlussmodellierung eigentlich verbunden sind, wurden ihre jeweiligen Vorteile in der Literatur nicht miteinander verbunden, um so eine Verbesserung ähnlicher Studien zu erreichen. Die vorliegende Studie überprüft erneut die Modellierungsstrategie, angepasst an die Simulation von Flachwasser-Karbonat-Systemen und basierend auf einer engen Beziehung zwischen Sedimentologie und Modellierung.
Die vorliegende Arbeit behandelt erstmals die Evaluierung der drei am häufigsten verwendeten Algorithmen „Truncated Gaussian Simulation (TGSim)“, „Sequential Indicator Simulation (SISim)“ und „Indicator Kriging (IK)“, um sie visuell und quantitativ mit dem entsprechenden Aufschluss zu vergleichen. Die Ergebnisse zeigen, dass die Heterogenität von Karbonatgesteinen nicht komplett mit nur einem Algorithmus simuliert werden kann. Die Eigenschaften jedes einzelnen Algorithmus beinhalten Vor- und Nachteile, sodass kein Algorithmus alle Beobachtungen aus dem Aufschluss widerspiegelt.
Die zwei Endglieder im Spektrum der Ablagerungsbedingungen von Karbonaten, eine flachwinklige, jurassische Karbonat-Rampe (Hoher Atlas, Marokko) und eine isolierte, triassische Plattform (Dolomiten, Italien), wurden untersucht, um einen kompletten Überblick über die verschiedenen Heterogenitäten in Flachwasser-Karbonat- Systemen zu erhalten. Sedimentologische und statistische Analysen wurden für die verschiedenen Typen, Morphologien, Verteilungen und Assoziationen von Karbonatablagerungen durchgeführt und mit paläogeografischen Rekonstruktionen kombiniert und zeigen ähnliche Ergebnisse. Im Beckenmaßstab zeigen die Faziesassoziationen, bestehend aus Fazieszonen mit ähnlichen Ablagerungsbedingungen, einen linearen und kontinuierlichen Übergang zwischen den einzelnen Ablagerungsbereichen. Im Gegensatz dazu zeigt für einzelne Lithofaziestypen im Maßstab einzelner Schichten eine mosaikartige Verteilung, bestehend aus einer Anordnung räumlich unabhängiger Lithofazieszonen entlang des Ablagerungsprofils. Das Ansteigen der räumlichen Unordnung von der beckenweiten Ablagerung zur Ablagerung einzelner Schichten resultiert aus dem Einfluss autozyklischer Faktoren bei der Ablagerung von Karbonaten.
Die Skalenabhängigkeit von Karbonat-Heterogenität ist mit der Auswertung der Algorithmen verknüpft um eine Modellierungsstrategie zu etablieren, welche sowohl die sedimentären Charakteristiken des Aufschlusses als auch die Modellierfähigkeit berücksichtigt. Für die Modellierung der Ablagerungssequenzen wurde ein flächenbasierter Ansatz verwendet. Die Faziesassoziationen wurden durch die Benutzung des TGSim-Algorithmus simuliert, um die regulären Trends zwischen den einzelnen Ablagerungsgebieten zu erhalten. Im Bereich der verschiedenen Lithofazien wurde mit dem SISim-Algorithmus, ein voll stochastischer Ansatz angewendet, um die mosaikartige Verteilung der Lithofazies-Typen zu simulieren. Dieser neue Arbeitsablauf wurde konzipiert, um die Simulierung von Karbonaten auf Basis der einzelnen Heterogenitäten in verschiedenen Größenordnungen zu verbessern. Im Gegensatz zu den in der Literatur angewendeten Simulationsmethoden berücksichtigt diese Studie, dass eine einzelne Modellierungstechnik die natürlichen Ablagerungsmuster und Variabilität von Karbonaten wahrscheinlich nicht korrekt abbildet. Die Einführung verschiedener Techniken, angepasst auf die verschiedenen Ebenen der stratigrafischen Hierarchie, liefert die notwendige Flexibilität um Karbonatsysteme korrekt zu modellieren. Eine enge Verknüpfung zwischen den Fortschritten auf dem Gebieten der Sedimentologie und dem Gebiet der modellierenden Geowissenschaften sollte weiterhin bestehen, um auch zukünftig bei der Simulation von geologischen Gelände-Aufschlüssen eine Verbesserung der 3-D-Modellierung zu erreichen.
|
7 |
Optimization algorithms for SVM classification : Applications to geometrical chromosome analysis / Algorithmes d'optimisation pour la classification via SVM : application à l'analyse géométrique des chromosomesWang, Wenjuan 16 September 2016 (has links)
Le génome est très organisé au sein du noyau cellulaire. Cette organisation et plus spécifiquement la localisation et la dynamique des gènes et chromosomes contribuent à l'expression génétique et la différenciation des cellules que ce soit dans le cas de pathologies ou non. L'exploration de cette organisation pourrait dans le futur aider à diagnostiquer et identifier de nouvelles cibles thérapeutiques. La conformation des chromosomes peut être analysée grâce au marquage ADN sur plusieurs sites et aux mesures de distances entre ces différents marquages fluorescents. Dans ce contexte, l'organisation spatiale du chromosome III de levure a montré que les deux types de cellules, MATa et MATalpha, sont différents. Par contre, les données issues de l'imagerie electronique sont bruitées à cause de la résolution des systèmes de microscope et du fait du caractère vivant des cellules observées. Dans cette thèse, nous nous intéressons au développement de méthodes de classification pour différencier les types de cellules sur la base de mesures de distances entre 3 loci du chromosome III et d'une estimation du bruit. Dans un premier temps, nous nous intéressons de façon générale aux problèmes de classification binaire à l'aide de SVM de grandes tailles et passons en revue les algorithmes d'optimisation stochastiques du premier ordre. Afin de prendre en compte les incertudes, nous proposons un modèle d'apprentissage qui ajuste sa robustesse en fonction du bruit. La méthode évite les situations où le modèle est trop conservatif et que l'on rencontre parfois avec les formulations SVM robustes. L'amplitude des pertubations liées au bruit qui sont incorporées dans le modèle est controllée par l'optimisation d'une erreur de généralisation. Aucune hypothèse n'est faite sur la distribution de probabilité du bruit. Seule une borne estimée des pertubations est nécessaire. Le problème peut s'écrire sous la forme d'un programme biniveaux de grande taille. Afin de le résoudre, nous proposons un algorithme biniveau qui réalise des déplacements stochastiques très peu coûteux et donc adapté aux problèmes de grandes tailles. La convergence de l'algorithme est prouvée pour une classe générale de problèmes. Nous présentons des résultats numériques très encourageants qui confirment que la technique est meilleure que l'approche SOCP (Second Order Cone Programming) pour plusieurs bases de données publiques. Les expériences numériques montrent également que la nonlinéarité additionnelle générée par l'incertitude sur les données pénalise la classification des chromosomes et motivent des recherches futures sur une version nonlinéaire de la technique proposée. Enfin, nous présentons également des résultats numériques de l'algorithme biniveau stochastique pour la sélection automatique de l'hyperparamètre de pénalité dans les SVM. L'approche évite les coûteux calculs que l'on doit inévitablement réaliser lorsque l'on effectue une validation croisée sur des problèmes de grandes tailles. / The genome is highly organized within the cell nucleus. This organization, in particular the localization and dynamics of genes and chromosomes, is known to contribute to gene expression and cell differentiation in normal and pathological contexts. The exploration of this organization may help to diagnose disease and to identify new therapeutic targets. Conformation of chromosomes can be analyzed by distance measurements of distinct fluorescently labeled DNA sites. In this context, the spatial organization of yeast chromosome III was shown to differ between two cell types, MATa and MATa. However, imaging data are subject to noise, due to microscope resolution and the living state of yeast cells. In this thesis, the aim is to develop new classification methods to discriminate two mating types of yeast cells based on distance measurements between three loci on chromosome III aided by estimation the bound of the perturbations. We first address the issue of solving large scale SVM binary classification problems and review state of the art first order optimization stochastic algorithms. To deal with uncertainty, we propose a learning model that adjusts its robustness to noise. The method avoids over conservative situations that can be encountered with worst case robust support vector machine formulations. The magnitude of the noise perturbations that is incorporated in the model is controlled by optimizing a generalization error. No assumption on the distribution of noise is taken. Only rough estimates of perturbations bounds are required. The resulting problem is a large scale bi-level program. To solve it, we propose a bi-level algorithm that performs very cheap stochastic gradient moves and is therefore well suited to large datasets. The convergence is proven for a class of general problems. We present encouraging experimental results confirming that the technique outperforms robust second order cone programming formulations on public datasets. The experiments also show that the extra nonlinearity generated by the uncertainty in the data penalizes the classification of chromosome data and advocates for further research on nonlinear robust models. Additionally, we provide the experimenting results of the bilevel stochastic algorithm used to perform automatic selection of the penalty parameter in linear and non-linear support vector machines. This approach avoids expensive computations that usually arise in k-fold cross validation.
|
8 |
Vliv stochastických selhávaní linek na protokol push-sum / Impact of stochastic link failures on push-sum protocolEcler, Tomáš January 2018 (has links)
This master’s thesis deals with the distributed computing and mathematical tools for modelling the distributed systems. Firstly, my attention is focused on a description of the distributed algorithms, characteristic failures for the distributed systems, and mathematical tools for an analysis of the distributed systems.The experimental part is concerned with the impact of stochastic link failures on the chosen parameters of the protocol Push-sum, namely the deviation of the final states from the average value, the convergence rate of the protocol, the distribution of the final states, and the distribution of the convergence rates. My intention is demonstrated using Matlab on a tree, a ring, a line, a star, and a fully-connected mesh topology. Was analyzed two functionalities of the protocol Push-sum, namely an estimation of the average value and an estimation of sum.
|
9 |
Discrétisation de processus à des temps d’arrêt et Quantification d'incertitude pour des algorithmes stochastiques / Discretization of processes at stopping times and Uncertainty quantification of stochastic approximation limitsStazhynski, Uladzislau 12 December 2018 (has links)
Cette thèse contient deux parties qui étudient deux sujets différents. Les Chapitres 1-4 sont consacrés aux problèmes de discrétisation de processus à des temps d’arrêt. Dans le Chapitre 1 on étudie l'erreur de discrétisation optimale pour des intégrales stochastiques par rapport à une semimartingale brownienne multidimensionnelle continue. Dans ce cadre on établit une borne inférieure trajectorielle pour la variation quadratique renormalisée de l'erreur. On fournit une suite de temps d’arrêt qui donne une discrétisation asymptotiquement optimale. Cette suite est définie comme temps de sortie d'ellipsoïdes aléatoires par la semimartingale. Par rapport aux résultats précédents on permet une classe de semimartingales assez large. On démontre qui la borne inférieure est exacte. Dans le Chapitre 2 on étudie la version adaptative au modèle de la discrétisation optimale d’intégrales stochastique. Dans le Chapitre 1 la construction de la stratégie optimale utilise la connaissance du coefficient de diffusion de la semimartingale considérée. Dans ce travail on établit une stratégie de discrétisation asymptotiquement optimale qui est adaptative au modèle et n'utilise pas aucune information sur le modèle. On démontre l'optimalité pour une classe de grilles de discrétisation assez générale basée sur les technique de noyau pour l'estimation adaptative. Dans le Chapitre 3 on étudie la convergence en loi des erreurs de discrétisation renormalisées de processus d’Itô pour une classe concrète et assez générale de grilles de discrétisation données par des temps d’arrêt. Les travaux précédents sur le sujet considèrent seulement le cas de dimension 1. En plus ils concentrent sur des cas particuliers des grilles, ou démontrent des résultats sous des hypothèses abstraites. Dans notre travail on donne explicitement la distribution limite sous une forme claire et simple, les résultats sont démontré dans le cas multidimensionnel pour le processus et pour l'erreur de discrétisation. Dans le Chapitre 4 on étudie le problème d'estimation paramétrique pour des processus de diffusion basée sur des observations à temps d’arrêt. Les travaux précédents sur le sujet considèrent que des temps d'observation déterministes, fortement prévisibles ou aléatoires indépendants du processus. Sous des hypothèses faibles on construit une suite d'estimateurs consistante pour une classe large de grilles d'observation données par des temps d’arrêt. On effectue une analyse asymptotique de l'erreur d'estimation. En outre, dans le cas du paramètre de dimension 1, pour toute suite d'estimateurs qui vérifie un TCL sans biais, on démontre une borne inférieure uniforme pour la variance asymptotique; on montre que cette borne est exacte. Les Chapitres 5-6 sont consacrés au problème de quantification d'incertitude pour des limites d'approximation stochastique. Dans le Chapitre 5 on analyse la quantification d'incertitude pour des limites d'approximation stochastique (SA). Dans notre cadre la limite est définie comme un zéro d'une fonction donnée par une espérance. Cette espérance est prise par rapport à une variable aléatoire pour laquelle le modèle est supposé de dépendre d'un paramètre incertain. On considère la limite de SA comme une fonction de cette paramètre. On introduit un algorithme qui s'appelle USA (Uncertainty for SA). C'est une procédure en dimension croissante pour calculer les coefficients de base d'expansion de chaos de cette fonction dans une base d'un espace de Hilbert bien choisi. La convergence de USA dans cet espace de Hilbert est démontré. Dans le Chapitre 6 on analyse le taux de convergence dans L2 de l'algorithme USA développé dans le Chapitre 5. L'analyse est non trivial à cause de la dimension infinie de la procédure. Le taux obtenu dépend du modèle et des paramètres utilisés dans l'algorithme USA. Sa connaissance permet d'optimiser la vitesse de croissance de la dimension dans USA. / This thesis consists of two parts which study two separate subjects. Chapters 1-4 are devoted to the problem of processes discretization at stopping times. In Chapter 1 we study the optimal discretization error of stochastic integrals, driven by a multidimensional continuous Brownian semimartingale. In this setting we establish a path wise lower bound for the renormalized quadratic variation of the error and we provide a sequence of discretization stopping times, which is asymptotically optimal. The latter is defined as hitting times of random ellipsoids by the semimartingale at hand. In comparison with previous available results, we allow a quite large class of semimartingales and we prove that the asymptotic lower bound is attainable. In Chapter 2 we study the model-adaptive optimal discretization error of stochastic integrals. In Chapter 1 the construction of the optimal strategy involved the knowledge about the diffusion coefficient of the semimartingale under study. In this work we provide a model-adaptive asymptotically optimal discretization strategy that does not require any prior knowledge about the model. In Chapter 3 we study the convergence in distribution of renormalized discretization errors of Ito processes for a concrete general class of random discretization grids given by stopping times. Previous works on the subject only treat the case of dimension 1. Moreover they either focus on particular cases of grids, or provide results under quite abstract assumptions with implicitly specified limit distribution. At the contrast we provide explicitly the limit distribution in a tractable form in terms of the underlying model. The results hold both for multidimensional processes and general multidimensional error terms. In Chapter 4 we study the problem of parametric inference for diffusions based on observations at random stopping times. We work in the asymptotic framework of high frequency data over a fixed horizon. Previous works on the subject consider only deterministic, strongly predictable or random, independent of the process, observation times, and do not cover our setting. Under mild assumptions we construct a consistent sequence of estimators, for a large class of stopping time observation grids. Further we carry out the asymptotic analysis of the estimation error and establish a Central Limit Theorem (CLT) with a mixed Gaussian limit. In addition, in the case of a 1-dimensional parameter, for any sequence of estimators verifying CLT conditions without bias, we prove a uniform a.s. lower bound on the asymptotic variance, and show that this bound is sharp. In Chapters 5-6 we study the problem of uncertainty quantification for stochastic approximation limits. In Chapter 5 we analyze the uncertainty quantification for the limit of a Stochastic Approximation (SA) algorithm. In our setup, this limit is defined as the zero of a function given by an expectation. The expectation is taken w.r.t. a random variable for which the model is assumed to depend on an uncertain parameter. We consider the SA limit as a function of this parameter. We introduce the so-called Uncertainty for SA (USA) algorithm, an SA algorithm in increasing dimension for computing the basis coefficients of a chaos expansion of this function on an orthogonal basis of a suitable Hilbert space. The almost-sure and Lp convergences of USA, in the Hilbert space, are established under mild, tractable conditions. In Chapter 6 we analyse the L2-convergence rate of the USA algorithm designed in Chapter 5.The analysis is non-trivial due to infinite dimensionality of the procedure. Moreover, our setting is not covered by the previous works on infinite dimensional SA. The obtained rate depends non-trivially on the model and the design parameters of the algorithm. Its knowledge enables optimization of the dimension growth speed in the USA algorithm, which is the key factor of its efficient performance.
|
10 |
Využití distribuovaných a stochastických algoritmů v síti / Application of distributed and stochastic algorithms in network.Yarmolskyy, Oleksandr Unknown Date (has links)
This thesis deals with the distributed and stochastic algorithms including testing their convergence in networks. The theoretical part briefly describes above mentioned algorithms, including their division, problems, advantages and disadvantages. Furthermore, two distributed algorithms and two stochastic algorithms are chosen. The practical part is done by comparing the speed of convergence on various network topologies in Matlab.
|
Page generated in 0.0785 seconds