• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 19
  • 7
  • Tagged with
  • 76
  • 53
  • 44
  • 25
  • 25
  • 25
  • 24
  • 18
  • 16
  • 15
  • 15
  • 14
  • 12
  • 12
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

The Role of Dynamic Interactive Technology in Teaching and Learning Statistics

Burrill, Gail 12 April 2012 (has links)
Dynamic interactive technology brings new opportunities for helping students learn central statistical concepts. Research and classroom experience can be help identify concepts with which students struggle, and an \"action-consequence\" pre-made technology document can engage students in exploring these concepts. With the right questions, students can begin to make connections among their background in mathematics, foundational ideas that undergrid statistics and the relationship these ideas. The ultimate goal is to have students think deeply about simple and basic statistical ideas so they can see how they lead to reasoning and sense making about data and about making decisions about characteristics of a population from a sample.Technology has a critical role in teaching and learning statistics, enabling students to use real data in investigations, to model complex situations based on data, to visualize relationships using different representations, to move beyond calculations to interpreting statistical processes such as confidence intervals and correlation, and to generate simulations to investigate a variety of problems including laying a foundation for inference. Thus, graphing calculators, spreadsheets, and interactive dynamic software can all be thought of as tools for statistical sense making in the service of developing understanding.
32

DeltaTick: Applying Calculus to the Real World through Behavioral Modeling

Wilkerson-Jerde, Michelle H., Wilensky, Uri 22 May 2012 (has links)
Certainly one of the most powerful and important modeling languages of our time is the Calculus. But research consistently shows that students do not understand how the variables in calculus-based mathematical models relate to aspects of the systems that those models are supposed to represent. Because of this, students never access the true power of calculus: its suitability to model a wide variety of real-world systems across domains. In this paper, we describe the motivation and theoretical foundations for the DeltaTick and HotLink Replay applications, an effort to address these difficulties by a) enabling students to model a wide variety of systems in the world that change over time by defining the behaviors of that system, and b) making explicit how a system\''s behavior relates to the mathematical trends that behavior creates. These applications employ the visualization and codification of behavior rules within the NetLogo agent-based modeling environment (Wilensky, 1999), rather than mathematical symbols, as their primary building blocks. As such, they provide an alternative to traditional mathematical techniques for exploring and solving advanced modeling problems, as well as exploring the major underlying concepts of calculus.
33

Standardisierte Vorgehensweise zur Parametrisierung von sandigen Böden für das hypoplastische Stoffgesetz

Fock, Vanessa 08 February 2022 (has links)
Mit dem Ziel der Entwicklung einer standardisierten Vorgehensweise zur Parametrisierung von sandigen Böden beschäftigt sich diese Arbeit mit aktuellen Methoden zur Bestimmung der Stoffparameter für das hypoplastische Stoffgesetz mit intergranularen Dehnungen. Mit seiner Dissertation zu dem Thema „Hypoplastizität und Granulometrie einfacher Korngerüste“ etablierte HERLE (1997) eine bis heute weitestgehend übernommene Methode zur Ermittlung der acht Stoffparameter des hypoplastischen Grundmodells aus bodenmechanischen Standardversuchen. In den letzten Jahren wurden weitere Ansätze entwickelt, die auf den Überlegungen von HERLE beruhen [...]. Mit dem Minimalistic Experimental Programme von MAŠÍN (2019) und dem Online-Kalibrierungs-Tool ExCalibre des SOILMODELS-Projekts stehen allen Anwender*innen des Stoffgesetzes zwei Methoden einer solchen vereinfachten Vorgehensweise zur Verfügung. Zudem entspricht die Kalibrierung der Stoffparameter durch Anpassung der Simulationskurven an Messkurven in Element-Test-Simulationen dem Stand der Technik. Eine vergleichende Prüfung der genannten Methoden auf Grundlage der gleichen Versuchsdaten erfolgte bisher nicht. Die unterschiedlichen Parametrisierungsansätze werden in dieser Arbeit am gut dokumentierten und vielfach verwendeten Karlsruhe-Sand getestet. Es werden insgesamt acht Parametersätze ermittelt und dessen Simulationsergebnisse miteinander verglichen. Auf Grundlage dieser Ergebnisse wird ein Vorschlag einer standardisierten Vorgehensweise zur Parametrisierung der acht Stoffparameter des hypoplastischen Grundmodells gemacht [...]. Über die Parametrisierung der zusätzlichen fünf Stoffparameter der Erweiterung der intergranularen Dehnungen wird ein aktueller Überblick erarbeitet, da die Durchführung der speziellen erforderlichen bodenmechanischen Laborversuche im Rahmen der Arbeit nicht möglich war.:1 EINFÜHRUNG 2 DAS HYPOPLASTISCHE STOFFGESETZ FÜR NICHTBINDIGE BÖDEN 2.1 MECHANISCHES VERHALTEN VON NICHTBINDIGEN BÖDEN 2.2 HYPOPLASTISCHE STOFFGESETZE 2.2.1 Allgemeine Formulierung des hypoplastischen Stoffgesetzes nach VON WOLFFERSDORFF 2.2.2 Small Strain Stiffness - Intergranulare Dehnungen nach NIEMUNIS UND HERLE 3 ZUR PARAMETRISIERUNG DER HYPOPLASTISCHEN STOFFPARAMETER MIT INTERGRANULAREN DEHNUNGEN 3.1 PARAMETERBESTIMMUNG ANHAND VON LABORVERSUCHEN 3.1.1 Versuche und Methoden zur Parametrisierung der Stoffparameter 3.1.2 Vorschlag eines Prüfprogramms zur Parametrisierung der hypoplastischen Stoffparameter 3.2 PARAMETERKALIBRIERUNG MIT EXCALIBRE 4 BESCHREIBUNG DES NICHTBINDIGEN BODENS UND LABORVERSUCHE 4.1 BESCHREIBUNG DES BODENMATERIALS 4.2 ERLÄUTERUNG DER ERFORDERLICHEN LABORVERSUCHE 4.2.1 Schüttkegelversuch 4.2.2 Ödometerversuch 4.2.3 Triaxialversuch 4.3 LABORVERSUCHE AM KARLSRUHE-SAND 4.3.1 Schüttkegelversuche 4.3.2 Ödometerversuche 4.3.3 Triaxialversuche 5 PARAMETRISIERUNG DER HYPOPLASTISCHEN STOFFPARAMETER 5.1 PARAMETRISIERUNG NACH HERLE 5.2 PARAMETRISIERUNG ANHAND VON ELEMENT-TEST-SIMULATIONEN 5.3 PARAMETRISIERUNG MIT EXCALIBRE 5.4 ZUSAMMENFASSUNG DER KALIBRIERTEN PARAMETERSÄTZE 6 VALIDIERUNG DER STOFFPARAMETER 6.1 REFERENZVERSUCHE ZUR VALIDIERUNG DER PARAMETERSÄTZE 6.2 SIMULATIONEN DER REFERENZVERSUCHE 6.3 AUSWERTUNG UND VERGLEICH DER SIMULATIONS- UND MESSKURVEN 6.4 ZUSAMMENFASSUNG DER VALIDIERUNGSERGEBNISSE 7 ENTWICKLUNG DER STANDARDISIERTEN VORGEHENSWEISE ZUR PARAMETRISIERUNG VON SANDIGEN BÖDEN FÜR DAS HYPOPLASTISCHE STOFFGESETZ 7.1 BEURTEILUNG DER UNTERSUCHTEN PARAMETRISIERUNGSANSÄTZE 7.2 VORSCHLAG EINER STANDARDISIERTEN VORGEHENSWEISE ZUR PARAMETRISIERUNG 7.3 FEHLERQUELLEN UND WEITERE UNTERSUCHUNGEN ZUR VALIDIERUNG DES VORSCHLAGS 7.4 ZUSAMMENFASSUNG 8 FAZIT UND AUSBLICK 9 LITERATURVERZEICHNIS
34

Underground measurements and simulations on the muon intensity and 12C-induced nuclear reactions at low energies

Ludwig, Felix 04 January 2022 (has links)
The reaction 12C(α,γ)16O is of paramount importance for the nucleosynthesis of heavier elements in stars. It takes place during helium burning and determines the abundance of 12C and 16O at the end of this burning stage and therefore influences subsequent nuclear reactions. Currently the cross section at astrophysically relevant energies is not known with satisfactory precision. Due to the low cross section of the reaction, low background, high beam intensities and target thicknesses are necessary for experiments. Therefore a new laboratory hosting a 5 MV ion accelerator, was built in the shallow-underground tunnels of Felsenkeller. The main background component in such laboratories was investigated with a muon telescope in this thesis. It was found, that the rock overburden of about 45 m vertical depth reduces the muons by a factor of about 40 compared to the surface. Furthermore the results of the measurements were compared to a simulation based on the geometry of the facility and showed good agreement. In the next step the accelerator was put into operation. Since the experiment on 12C(α,γ)16O will be done in inverse kinematics, an intense carbon beam is necessary to reach sufficient statistics. For this, the creation and extraction of carbon ions in an external ion source was improved. The external source now provides steady currents of 12C− of above 100 μA. In the following the transmission through the accelerator and the high-energy beamline was tested with a beam restricted in width. The pressure of the gas stripper in the centre of the accelerator and the parameters of different focusing elements after the accelerator were varied. It was found, that for a desired carbon beam energy of below 9 MeV, the 2+ charge state is suited best, where up to 35% of the inserted beam could be transmitted. To ease the planning of future experiments and aid the analysis of the data, the target chamber and two different kinds of cluster detectors were modelled in Geant4. The low-energy region was verified by comparing the simulations to measurements with radioactive calibration sources. Deviations for the detectors were below 10% without target chamber, and up to 30% for individual germanium crystals of the Cluster Detectors with the target chamber. A first test measurement was undertaken to investigate the capabilities of the new laboratory. Solid tantalum targets implanted with 4 He were prepared. An ERDA analysis of the used solid targets showed contaminations with carbon and oxygen. These led to beam-induced background in the region of interest during the irradiation. Then the targets were irradiated with a carbon beam at two different energies. While no clear signal of 12C(α,γ)16O could be observed, the beam could be steered on the target for the whole duration of the beam time spanning five days. Problems during this test, like low beam current, were identified. These could be partly remedied in the scope of this thesis. Suggestions for improvements for a second test run were developed as well.
35

Phase Field Crystal Modeling of Active Matter

Alaimo, Francesco 10 January 2019 (has links)
Active matter describes systems that convert energy from their environment into directed motion. Therefore, these systems are in intrinsic nonequilibrium, unlike their passive counterparts. From a theoretical point of view, such active systems have been modeled by agent-based models, as well as hydrodynamic approaches, which allowed for the investigation of a wide range of observed collective phenomena characterizing active matter. In this thesis we develop a microscopic field-theoretical approach to describe generic properties of active systems. This description combines the phase field crystal model with a polar order parameter and a self-propulsion term. First, we validate this approach by reproducing results obtained with corresponding agent-based models, such as binary collisions, collective migration and vortex formation. We also perform a direct comparison between our model and a microscopic phase field description of active matter. Next, we use this continuum approach to simulate some larger active systems and to analyze the coarsening process in active crystals, as well as the mechanisms leading to mobile clusters. We show the generality of our approach by extending it to binary mixtures of interacting active and passive particles. Also in this case, we first validate the model by reproducing known results, such as enhanced crystallization via active doping and the suppression of collective migration in an active bath in the presence of fixed obstacles. Interestingly, for the regime of mobile passive particles in an active bath a laning state is found, which is characterized by an alignment of the active particles that is globally nematic, but polar within each lane. This state represents a theoretical prediction feasible to be validated experimentally. Finally, we explore the field of topological active matter. We develop an agent-based model to describe self-propelled particles on curved surfaces and study the complex spatiotemporal patterns that emerge. / Aktive Materie beschreibt Systeme, die Energie aus ihrer Umgebung in gerichtete bewegung umwandeln. Im Gegensatz zur passiven Materie befinden sich diese Systeme nie im physikalischen Gleichgewicht und offenbaren dadurch interessante physikalische Phänomene. Vom theoretischen Standpunkt her wurde aktive Materie bereits simuliert, typischerweise durch agenten-basierte Modelle oder hydrodynamische Ansätze, die es ermöglichen eine Vielzahl der auftretenden kollektiven Bewegungsprinzipien zu untersuchen. In dieser Doktorarbeit entwickeln wir einen mikroskopischen Kontinuumsansatz um die generischen Eigenschaften von aktiven Systemen zu untersuchen. Unsere Beschreibung kombiniert das Phasenfeld-Kristall Modell mit einem polaren Ordnungsparameter und einem Antriebsterm. Zuerst validieren wir den Ansatz durch Reproduktion bekannter Ergebnisse agenten-basierter Modelle, wie binäre Kollisionen, kollektive Bewegung und Wirbelformationen. Des Weiteren führen wir einen direkten Vergleich zwischen unserem Modell und einer mikroskopischen Phasenfeldbeschreibung aktiver Materie durch. Danach nutzen wir den kontinuierlichen Ansatz um große aktive Systeme zu simulieren und analysieren den Vergröberungsprozess in aktiven Kristallen und Mechanismen der mobilen Aggregatbildung. Wir illustrieren die Allgemeingültigkeit unseres Simulationsansatzes durch die Erweiterung auf binäre Systeme, in denen sowohl aktive als auch passive Partikel enthalten sind. Auch in diesem Fall validieren wir das Modell durch Vergleiche mit bekannten Resultaten, wie zum Beispiel die verstärkte Kristallisation durch aktives Doping oder die Unterdrückung kollektiver Bewegung durch die Einführung von Hindernissen in einem aktiven Bad. Interessanterweise finden wir bei der Präsenz mobiler passiver Partikel in einem aktiven Bad einen Fahrspur-Zustand, in welchem die aktiven Partikel nematische Fahrspuren bilden und sich nur jeweils innerhalb einer Fahrspur nematisch polar anordnen. Dieser bisher unbekannte Zustand stellt eine theoretische Vorhersage dar, die experimentell geprüft werden kann. Schließlich begeben wir uns auf das Gebiet der topologischen aktiven Materie. Wir entwickeln ein agenten-basiertes Modell um selbst-angetriebene Partikel auf gekrümmten Oberflächen zu beschreiben und untersuchen die dabei auftretenden zeitlich und räumlich komplexen Muster.%, die dabei auftreten.
36

Efficient 3D Acoustic Simulation of the Vocal Tract by Combining the Multimodal Method and Finite Elements

Blandin, Rémi, Arnela, Marc, Félix, Simon, Doc, Jean-Baptiste, Birkholz, Peter 22 February 2024 (has links)
Acoustic simulation of sound propagation inside the vocal tract is a key element of speech research, especially for articulatory synthesis, which allows one to relate the physics of speech production to other fields of speech science, such as speech perception. Usual methods, such as the transmission line method, have a very low computational cost and perform relatively good up to 4-5 kHz, but are not satisfying above. Fully numerical 3D methods such as finite elements achieve the best accuracy, but have a very high computational cost. Better performances are achieved with the state of the art semi-analytical methods, but they cannot describe the vocal tract geometry as accurately as fully numerical methods (e.g. no possibility to take into account the curvature). This work proposes a new semi-analytical method that achieves a better description of the three-dimensional vocal-tract geometry while keeping the computational cost substantially lower than the fully numerical methods. It is a multimodal method which relies on two-dimensional finite elements to compute transverse modes and takes into account the curvature and the variations of crosssectional area. The comparison with finite element simulations shows that the same degree of accuracy (about 1% of difference in the resonance frequencies) is achieved with a computational cost about 10 times lower.
37

Holistic analysis of the tribological interfaces of an axial piston pump - Focusing on pump’s efficiency

Shorbagy, Ahmed, Ivantysyn, Roman, Weber, Jürgen 01 March 2024 (has links)
Research work performed on an axial piston pump is shown in a holistic manner, analyzing each lubricating interface by linking their gap height and temperature behavior to the overall pump efficiency. The temperature field and dynamic fluid film height were measured in two of the three lubricating interfaces. This is the first time that the temperature fields and gap heights were simultaneously measured in two of the main three interfaces of an axial piston machine. For a deeper analysis of the measurement data, all gaps were simulated with a numerical tool which takes solid body deformation due to temperature and pressure loads into account. This unique combination of both extensive measurement data and sophisticated simulation resulted in novel trends that clarify the complex phenomena occurring in these hydrostatic fluid films.
38

Machine Learning-Enabled Smart Gas Sensing Platform for Identification of Industrial Gases

Huang, Shirong, Croy, Alexander, Panes-Ruiz, Luis Antonio, Khavrus, Vyacheslav, Bezugly, Viktor, Ibarlucea, Bergoi, Cuniberti, Gianaurelio 06 June 2024 (has links)
Both ammonia and phosphine are widely used in industrial processes, and yet they are noxious and exhibit detrimental effects on human health. Despite the remarkable progress on sensors development, there are still some limitations, for instance, the requirement of high operating temperatures, and that most sensors are solely dedicated to individual gas monitoring. Herein, an ultrasensitive, highly discriminative platform is demonstrated for the detection and identification of ammonia and phosphine at room temperature using a graphene nanosensor. Graphene is exfoliated and successfully functionalized by copper phthalocyanine derivate. In combination with highly efficient machine learning techniques, the developed graphene nanosensor demonstrates an excellent gas identification performance even at ultralow concentrations: 100 ppb NH3 (accuracy—100.0%, sensitivity—100.0%, specificity—100.0%) and 100 ppb PH3 (accuracy—77.8%, sensitivity—75.0%, and specificity—78.6%). Molecular dynamics simulation results reveal that the copper phthalocyanine derivate molecules attached to the graphene surface facilitate the adsorption of ammonia molecules owing to hydrogen bonding interactions. The developed smart gas sensing platform paves a path to design a highly selective, highly sensitive, miniaturized, low-power consumption, nondedicated, smart gas sensing system toward a wide spectrum of gases.
39

Improving the light yield and timing resolution of scintillator-based detectors for positron emission tomography

Thalhammer, Christof 06 July 2015 (has links)
Positronen-Emissions-Tomographie (PET) ist eine funktionelle medizinische Bildgebungstechnik. Die Lichtausbeute und Zeitauflösung Szintillator basierter PET Detektoren wird von diversen optischen Prozessen begrenzt. Dazu gehört die Lichtauskopplung aus Medien mit hohem Brechungsindex sowie Sensitivitätsbegrenzungen der Photodetektoren. Diese Arbeit studiert mikro- und nano-optische Ansätze um diese Einschränkungen zu überwinden mit dem Ziel das Signal-Rausch Verhältnis sowie die Bildqualität zu verbessern. Dafür wird ein Lichtkonzentrator vorgeschlagen um die Sensitivität von Silizium Photomultipliern zu erhöhen sowie dünne Schichten photonischer Kristalle um die Lichtauskopplung aus Szintillatoren zu verbessern. Die Ansätze werden mit optischen Monte Carlo Simulationen studiert, wobei die Beugungseigenschaften phot. Kristalle hierbei durch eine neuartige kombinierte Methode berücksichtigt werden. Proben der phot. Kristalle und Lichtkonzentratoren wurden mit Fertigungsprozessen der Halbleitertechnologie hergestellt und mit Hilfe eines Goniometer Aufbaus charakterisiert. Die simulierten Eigenschaften konnten hiermit sehr gut experimentell reproduziert werden. Daraufhin wurden Simulationen durchgeführt um den Einfluss beider Konzepte auf die Charakteristika eines PET Detektors zu untersuchen. Diese sagen signifikante Verbesserungen der Lichtausbeute und Zeitauflösung voraus. Darüber hinaus zeigen sie, dass sich auch die Kombination beider Ansätze positiv auf die Detektoreigenschaften auswirken. Diese Ergebnisse wurden in Lichtkonzentrator-Experimenten mit einzelnen Szintillatoren bestätigt. Da die Herstellung phot. Kristalle eine große technologische Herausforderung darstellt, wurde eine neue Fertigungstechnik namens "direct nano imprinting" entwickelt. Dessen Machbarkeit wurde auf Glasswafern demonstriert. Die Arbeit endet mit einer Diskussion der Vor- und Nachteile von Lichtkonzentratoren und phot. Kristallen und deren Implikationen für zukünftige PET Systeme. / Positron emission tomography (PET) is a powerful medical imaging methodology to study functional processes. The light yield and coincident resolving time (CRT) of scintillator-based PET detectors are constrained by optical processes. These include light trapping in high refractive index media and incomplete light collection by photosensors. This work proposes the use of micro and nano optical devices to overcome these limitations with the ultimate goal to improve the signal-to-noise ratio and overall image quality of PET acquisitions. For this, a light concentrator (LC) to improve the light collection of silicon photomultipliers on the Geiger-cell level is studied. Further, two-dimensional photonic crystals (PhCs) are proposed to reduced light trapping in scintillators. The concepts are studied in detail using optical Monte Carlo simulations. To account for the diffractive properties of PhCs, a novel combined simulation approach is presented that integrates results of a Maxwell solver into a ray tracing algorithm. Samples of LCs and PhCs are fabricated with various semiconductor technologies and evaluated using a goniometer setup. A comparison between measured and simulated angular characteristics reveal very good agreement. Simulation studies of implementing LCs and PhCs into a PET detector module predict significant improvements of the light yield and CRT. Also, combining both concepts indicates no adverse effects but a rather a cumulative benefit for the detector performance. Concentrator experiments with individual scintillators confirm these simulation results. Realizing the challenges of transferring PhCs to scintillators, a novel fabrication method called direct nano imprinting is evaluated. The feasibility of this approach is demonstrated on glass wafers. The work concludes with a discussion of the benefits and drawbacks of LCs and PhCs and their implications for future PET systems.
40

Numerical methods for backward stochastic differential equations of quadratic and locally Lipschitz type

Turkedjiev, Plamen 17 July 2013 (has links)
Der Fokus dieser Dissertation liegt darauf, effiziente numerische Methode für ungekoppelte lokal Lipschitz-stetige und quadratische stochastische Vorwärts-Rückwärtsdifferenzialgleichungen (BSDE) mit Endbedingungen von schwacher Regularität zu entwickeln. Obwohl BSDE viele Anwendungen in der Theorie der Finanzmathematik, der stochastischen Kontrolle und der partiellen Differenzialgleichungen haben, gibt es bisher nur wenige numerische Methoden. Drei neue auf Monte-Carlo- Simulationen basierende Algorithmen werden entwickelt. Die in der zeitdiskreten Approximation zu lösenden bedingten Erwartungen werden mittels der Methode der kleinsten Quadrate näherungsweise berechnet. Ein Vorteil dieser Algorithmen ist, dass sie als Eingabe nur Simulationen eines Vorwärtsprozesses X und der Brownschen Bewegung benötigen. Da sie auf modellfreien Abschätzungen aufbauen, benötigen die hier vorgestellten Verfahren nur sehr schwache Bedingungen an den Prozess X. Daher können sie auf sehr allgemeinen Wahrscheinlichkeitsräumen angewendet werden. Für die drei numerischen Algorithmen werden explizite maximale Fehlerabschätzungen berechnet. Die Algorithmen werden dann auf Basis dieser maximalen Fehler kalibriert und die Komplexität der Algorithmen wird berechnet. Mithilfe einer zeitlich lokalen Abschneidung des Treibers der BSDE werden quadratische BSDE auf lokal Lipschitz-stetige BSDE zurückgeführt. Es wird gezeigt, dass die Komplexität der Algorithmen im lokal Lipschitz-stetigen Fall vergleichbar zu ihrer Komplexität im global Lipschitz-stetigen Fall ist. Es wird auch gezeigt, dass der Vergleich mit bereits für Lipschitz-stetige BSDE existierenden Methoden für die hier vorgestellten Algorithmen positiv ausfällt. / The focus of the thesis is to develop efficient numerical schemes for quadratic and locally Lipschitz decoupled forward-backward stochastic differential equations (BSDEs). The terminal conditions satisfy weak regularity conditions. Although BSDEs have valuable applications in the theory of financial mathematics, stochastic control and partial differential equations, few efficient numerical schemes are available. Three algorithms based on Monte Carlo simulation are developed. Starting from a discrete time scheme, least-square regression is used to approximate conditional expectation. One benefit of these schemes is that they require as an input only the simulations of an explanatory process X and a Brownian motion W. Due to the use of distribution-free tools, one requires only very weak conditions on the explanatory process X, meaning that these methods can be applied to very general probability spaces. Explicit upper bounds for the error are obtained. The algorithms are then calibrated systematically based on the upper bounds of the error and the complexity is computed. Using a time-local truncation of the BSDE driver, the quadratic BSDE is reduced to a locally Lipschitz BSDE, and it is shown that the complexity of the algorithms for the locally Lipschitz BSDE is the same as that of the algorithm of a uniformly Lipschitz BSDE. It is also shown that these algorithms are competitive compared to other available algorithms for uniformly Lipschitz BSDEs.

Page generated in 0.1556 seconds