• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 43
  • 25
  • 1
  • 1
  • Tagged with
  • 179
  • 146
  • 103
  • 62
  • 60
  • 60
  • 37
  • 35
  • 35
  • 26
  • 23
  • 21
  • 19
  • 18
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Inferring cellular mechanisms of tumor development from tissue-scale data: A Markov chain approach

Buder, Thomas 19 September 2018 (has links)
Cancer as a disease causes about 8.8 million deaths worldwide per year, a number that will largely increase in the next decades. Although the cellular processes involved in tumor emergence are more and more understood, the implications of specific changes at the cellular scale on tumor emergence at the tissue scale remain elusive. Main reasons for this lack of understanding are that the cellular processes are often hardly observable especially in the early phase of tumor development and that the interplay between cellular and tissue scale is difficult to deduce. Cell-based mathematical models provide a valuable tool to investigate in which way observable phenomena on the tissue scale develop by cellular processes. The implications of these models can elucidate underlying mechanisms and generate quantitative predictions that can be experimentally validated. In this thesis, we infer the role of genetic and phenotypic cell changes on tumor development with the help of cell-based Markov chain models which are calibrated by tissue-scale data. In the first part, we utilize data on the diagnosed fractions of benign and malignant tumor subtypes to unravel the consequences of genetic cell changes on tumor development. We introduce extensions of Moran models to investigate two specific biological questions. First, we evaluate the tumor regression behavior of pilocytic astrocytoma which represents the most common brain tumor in children and young adults. We formulate a Moran model with two absorbing states representing different subtypes of this tumor, derive the absorption probabilities in these states and calculate the tumor regression probability within the model. This analysis allows to predict the chance for tumor regression in dependency of the remaining tumor size and implies a different clinical resection strategy for pilocytic astrocytoma compared to other brain tumors. Second, we shed light on the hardly observable early cellular dynamics of tumor development and its consequences on the emergence of different tumor subtypes on the tissue scale. For this purpose, we utilize spatial and non-spatial Moran models with two absorbing states which describe both benign and malignant tumor subtypes and estimate lower and upper bounds for the range of cellular competition in different tissues. Our results suggest the existence of small and tissue-specific tumor-originating niches in which the fate of tumor development is decided long before a tumor manifests. These findings might help to identify the tumor-originating cell types for different cancer types. From a theoretical point of view, the novel analytical results regarding the absorption behavior of our extended Moran models contribute to a better understanding of this model class and have several applications also beyond the scope of this thesis. The second part is devoted to the investigation of the role of phenotypic plasticity of cancer cells in tumor development. In order to understand how phenotypic heterogeneity in tumors arises we describe cell state changes by a Markov chain model. This model allows to quantify the cell state transitions leading to the observed heterogeneity from experimental tissue-scale data on the evolution of cell state proportions. In order to bridge the gap between mathematical modeling and the analysis of such data, we developed an R package called CellTrans which is freely available. This package automatizes the whole process of mathematical modeling and can be utilized to (i) infer the transition probabilities between different cell states, (ii) predict cell line compositions at a certain time, (iii) predict equilibrium cell state compositions and (iv) estimate the time needed to reach this equilibrium. We utilize publicly available data on the evolution of cell compositions to demonstrate the applicability of CellTrans. Moreover, we apply CellTrans to investigate the observed cellular phenotypic heterogeneity in glioblastoma. For this purpose, we use data on the evolution of glioblastoma cell line compositions to infer to which extent the heterogeneity in these tumors can be explained by hierarchical phenotypic transitions. We also demonstrate in which way our newly developed R package can be utilized to analyze the influence of different micro-environmental conditions on cell state proportions. Summarized, this thesis contributes to gain a better understanding of the consequences of both genetic and phenotypic cell changes on tumor development with the help of Markov chain models which are motivated by the specific underlying biological questions. Moreover, the analysis of the novel Moran models provides new theoretical results, in particular regarding the absorption behavior of the underlying stochastic processes.
92

Core–Shell Structuring of Pure Metallic Aerogels towards Highly Efficient Platinum Utilization for the Oxygen Reduction Reaction

Cai, Bin, Hübner, Rene, Sasaki, Kotaro, Zhang, Yuanzhe, Su, Dong, Ziegler, Christoph, Vukmirovic, Miomir, Rellinghaus, Bernd, Adzic, Radoslav, Eychmüller, Alexander 28 February 2019 (has links)
The development of core-shell structures remains a fundamental challenge for pure metallic aerogels. Here we report the synthesis of PdxAu-Pt core-shell aerogels comprised of an ultrathin Pt shell and a composition-tunable PdxAu alloy core. The universality of this strategy ensures the extension of core compositions to Pd-transition metal alloys. The core-shell aerogels exhibited largely improved Pt utilization efficiency for oxygen reduction reaction and their activities show a volcano-type relationship as a function of the lattice parameter of the core substrate. The maximum mass and specific activities are 5.25 A mg-1Pt and 2.53 mA cm-2, which are 18.7 and 4.1 times higher than those of Pt/C, respectively, demonstrating the superiority of the core-shell metallic aerogels. The proposed core-based activity descriptor provides a new possible strategy for the design of future core-shell electrocatalysts.
93

Faking the Implicit Association Test (IAT): Predictors, Processes, and Detection

Röhner, Jessica 23 January 2014 (has links)
Unverfälschbarkeit stellt ein wichtiges Gütekriterium psychologischer Testverfahren dar. Dieses Kriterium gilt dann als erfüllt, wenn das Testverfahren auf Grund seiner Konstruktion keine Steuerung oder Verzerrung der Ausprägung von Testwerten seitens der Versuchspersonen ermöglicht (vgl. Moosbrugger & Kelava, 2012). Im Gegensatz zu direkten Verfahren (z.B. Fragebogen und Interviews), bei welchen die Ausprägung hinsichtlich eines Merkmales durch Selbstbeschreibung der Versuchspersonen erfragt wird und eine Verfälschung (z.B. durch sozial erwünschtes Antwortverhalten) nicht ausgeschlossen werden kann, wurde indirekten Verfahren (z.B. dem Impliziten Assoziationstest; IAT; Greenwald, McGhee, & Schwartz, 1998) lange Zeit Immunität gegen Fälschungsversuche unterstellt. Diese begründet sich unter anderem durch die Annahme, dass mittels indirekter Verfahren implizite Merkmale gemessen werden. Implizite Merkmale unterscheiden sich von den „eher klassischen“ expliziten Merkmalen, welche vorwiegend mittels direkter Verfahren gemessen werden. Ein wesentlicher Unterschied besteht darin, dass Versuchspersonen nicht notwendigerweise um die Ausprägung hinsichtlich ihrer impliziten Merkmale wissen und dass sie diese Ausprägung auch nicht kontrollieren können (vgl. De Houwer, 2006; De Houwer & Moors, 2007, in press). Die theoretischen Annahmen bezüglich der Eigenschaften impliziter Merkmale bzw. Messergebnisse legen zwei Implikationen nahe. Erstens: Wir können implizite Merkmale ausschließlich über indirekte Zugänge erfassen, da diese nicht notwendigerweise bewusst sind und so eine Selbstauskunft nicht möglich erscheint. Zweitens: Personen können ihre impliziten Messergebnisse nicht kontrollieren und folglich auch nicht verfälschen. Vermutlich gab es auch aus diesem Grund vor wenigen Jahren einen regelrechten Boom, der zu der Entwicklung einer Vielzahl indirekter Verfahren zur Erfassung impliziter Merkmale geführt hat. Ob jedoch die Messergebnisse dieser Verfahren tatsächlich implizit und damit nicht verfälschbar sind, darf nicht nur theoretisch unterstellt, sondern muss empirisch überprüft werden (vgl. De Houwer, 2006). Der IAT gilt als das bekannteste, reliabelste und valideste indirekte Verfahren (Bosson, Swan, & Pennebaker, 2000; Rudolph, Schröder-Abé, Schütz, Gregg, & Sedikides, 2008). In meiner Dissertation habe ich mich aus diesem Grund der empirischen Überprüfung auf Verfälschbarkeit des IATs gewidmet. Die vorliegende Dissertation besteht aus insgesamt fünf Kapiteln. Das 1. Kapitel bildet eine theoretische Einführung zu den Themen Fälschung im diagnostischen Kontext und zum IAT. Grundlegende Befunde und Fragen zur Verfälschbarkeit des IATs werden dargestellt. Kapitel 2 bis 4 bilden empirische Beiträge meiner Forschung, die sich jeweils schwerpunktmäßig mit unterschiedlichen Aspekten der Verfälschbarkeit des IATs beschäftigen. In Kapitel 2 wird der Frage nachgegangen, unter welchen Bedingungen der IAT verfälschbar ist. Bis dato haben die wenigen existierenden Studien ein sehr widersprüchliches Bild bezüglich der Verfälschbarkeit des IATs aufgezeigt. Ein Grund hierfür könnte sein, dass potentiell relevante Faktoren, welche die Verfälschbarkeit des Verfahrens beeinflussen können, noch nie gemeinsam in einer Studie untersucht wurden. Die vorliegende Studie wurde genau mit diesem Ziel konstruiert und durchgeführt. Die Ergebnisse verweisen auf ein komplexes Zusammenspiel verschiedener Faktoren und zeigen auf, unter welchen Bedingungen der IAT verfälschbar ist. Implikationen dieser Ergebnisse werden kritisch diskutiert. In Kapitel 3 werden die Fragen beantwortet, wie Personen den IAT verfälschen und ob Fälschung im IAT detektierbar ist. Die Forschung hat sich bislang nur bedingt damit beschäftigt, was fälschende Personen tun, um ihre Messergebnisse wie gewünscht zu beeinflussen. Es wurde auch noch nicht untersucht, ob Versuchspersonen unter verschiedenen Bedingungen (z.B. Fälschungsziel: hohe vs. niedrige Testwerte) unterschiedliche Strategien anwenden. Dennoch wurden Indices vorgeschlagen, welche in der Lage sein sollen, Fälschung im IAT zu detektieren (Agosta, Ghirardi, Zogmaister, Castiello, & Sartori, 2011; Cvencek, Greenwald, Brown, Gray, & Snowden, 2010). In der vorgestellten Studie habe ich einerseits untersucht, welche Strategien fälschende Personen anwenden und ob sie, je nach Bedingung, zu unterschiedlichen Strategien greifen. Andererseits habe ich untersucht, welche dieser Strategien tatsächlich mit erfolgreicher Fälschung des IATs einhergehen. Schließlich habe ich untersucht, ob die in der Vergangenheit vorgeschlagenen Indices tatsächlich in der Lage sind, erfolgreiche FälscherInnen zu detektieren. Meine Ergebnisse zeigen, dass fälschende Personen unterschiedliche Strategien anwenden, um ihr Ziel zu erreichen. Damit verbunden zeigte sich auch, dass es schwerer ist als bislang angenommen, erfolgreiche FälscherInnen im IAT zu detektieren. Implikationen dieser Ergebnisse werden kritisch diskutiert. Kapitel 4 beschäftigt sich mit der Frage, ob kognitive Fähigkeiten ein erfolgreiches Fälschen im IAT erleichtern. Bisher wurden diese Fähigkeiten nur mit Fälschungserfolg in direkten Verfahren in Verbindung gebracht (vgl. Hartshorne & May, 1928; Nguyen, Biderman, & McDaniel, 2005; Ones, Viswesvaran, & Reiss, 1996; Pauls & Crost, 2005; Snell, Sydell, & Lueke, 1999; Tett, Freund, Christiansen, Fox, & Coaster, 2012; Weiner & Gibson, 2000). In der vorgestellten Studie habe ich untersucht, ob sie auch beim Fälschen des IATs eine Rolle spielen. Besonders habe ich mich dabei für die Rolle des g Faktors der Intelligenz, der Verarbeitungsgeschwindigkeit und der Konzentrationsfähigkeit interessiert. Die Ergebnisse meiner Studie zeigen auf, dass einige dieser Prädiktoren tatsächlich einen Einfluss auf den Fälschungserfolg im IAT haben. Implikationen dieser Ergebnisse werden kritisch diskutiert. Das 5. Kapitel bildet eine Zusammenführung und Integration der Befunde meiner Forschung in die bestehende Theorie. Zudem werden ein Ausblick für die weitere Forschung sowie Empfehlungen für die Praxis gegeben.
94

YBa2Cu3O7-x thin films prepared by Chemical Solution Deposition

Apetrii, Claudia 07 June 2010 (has links)
The discovery of superconductivity in ceramic materials by Bednorz and Müller [2, 3] in early 1987, immediately followed by Wu et al. [4, 5] who showed that YBa2Cu3O7−x (YBCO) becomes superconducting (92K) well above the boiling point of nitrogen (77K) created a great excitement in superconductivity research. Potential applications of high Tc-superconductors require large critical currents and high-applied magnetic fields. Effective ways to increase the critical current density at high magnetic fields in YBCO are the introduction of nanoparticles and chemical substitution of yttrium by other rare earth elements. Since low costs and environmental compatibility are essential conditions for the preparation of long length YBCO films, the cost effective chemical solution deposition (CSD) procedure was selected, given that no vacuum technology is required. To reveal the flexibility and the good optimization possibilities of the CSD approach two main processes were chosen for comparison: a fluorine-free method, namely the polymer-metal precursor technique, and a fluorine-based method, the metalorganic deposition (MOD) using the trifluoroacetates (TFA) technique. Sharp transition temperature widths DTc of 1.1K for the polymer metal method, 0.8K for TFA method and critical current densities Jc of _3.5MA/cm2 shows that high quality YBCO thin films can be produced using both techniques. Especially interesting is the magnetic field dependence of the critical current density Jc(B) of the Y(Dy)BCO (80 %) films showing that for the lower magnetic fields the critical current density Jc(B) is higher for a standard YBCO film, but at fields higher than 4.5T the critical current density Jc(B) of Y(Dy)BCO is larger than that for the YBCO. Above 8T, Jc(B) of the Y(Dy)BCO film is more than one order of magnitude higher than in pure YBCO film. / Die Entdeckung der Supraleitung in keramischen Materialien durch Bednorz und Müller 1987 und die kurz darauf folgende Beobachtung von Wu et al., dass YBa2Cu3O7−x (YBCO) supraleitende Eigenschaften deutlich oberhalb (92K) des Siedepunktes von Stickstoff (77K) aufweist, führten zu einer enormen Intensivierung der Forschung hinsichtlich neuer supraleitender Materialien sowie deren Eigenschaften und möglichen Einsatzgebieten. Potentielle Anwendungsgebiete für diese neuen Hochtemperatur-Supraleiter erfordern hohe kritische Stromdichten und hohe kritische Feldstärken. Effektive Wege zur Erhöhung der kritischen Stromdichte in starken Magnetfeldern in YBCO sind der Einbau von Nanoteilchen oder die chemische Substitution von Yttrium durch ein anderes Seltenerd-Element. Da niedrige Kosten und gute Umweltverträglichkeit wichtige Voraussetzungen für die Herstellung von YBCO-Schichten großer Länge darstellen, werden in dieser Arbeit die Vorteile und Einsatzmöglichkeiten der Chemischen Lösungsabscheidung (chemical solution deposition - CSD) untersucht. CSD Prozesse sind besonders gut geeignet, weil sie keine Vakuum-Technologie erfordern und einen hohen Grad an Flexibilität garantieren. Zur Demonstration der guten Optimierbarkeit werden zwei wichtige CSD-Verfahren miteinander verglichen: die Polymer-Metall Precursor Technik - eine Fluor-freie Methode - und die metallorganische Abscheidung mittels Trifluoroacetat (TFA-MOD), bei der Fluor zum Einsatz kommt. Scharfe supraleitende Übergänge (Polymer-Metall Precursor Technik: DTc = 1.1K; TFA -MOD: DTc = 0.8K) sowie hohe kritische Stromdichten von ca. 3.5MA/cm2 (B= 0 T) zeigen, dass mit beiden Verfahren dünne YBCO-Schichten hoher Qualität hergestellt werden können. Außerdem bieten CSD-Verfahren durch die hervorragende Kontrollierbarkeit der Stöchiometrie des Precursors die Möglichkeit Yttrium teilweise oder vollständig durch andere Seltenerd-Metalle zu ersetzen und damit die kritische Stromdichte in hohen Magnetfeldern deutlich zu erhöhen. In dieser Arbeit wird gezeigt, dass besonders die TFA-Methode besonders geeignet ist, um (RE)BCO-Schichten (RE: rare earth) herzustellen. Untersucht wurden verschiedene Zusammensetzungen mit Sm, Dy und Ho. Außerordentlich interessant sind dabei die Ergebnisse für Y(Dy)BCO-Schichten. Schichten mit einem Dy-Gehalt von 80 % zeigen oberhalb von 4.5T deutlich höhere kritische Stromdichten als reine YBCO Schichten. Bei Magnetfeldern größer als 8T beträgt der Unterschied mehr als eine Größenordnung.
95

Guided by generalization and uncertainty / A theory of human learning and exploration

Wu, Charley 15 August 2019 (has links)
Wie navigieren Menschen in unüberschaubaren Umgebungen, wenn es nicht möglich ist, alle Optionen ausführlich zu untersuchen? Die Forschung zum menschlichen Lernen hat in den letzten Jahrzehnten rasche Fortschritte gemacht: Von der Entdeckung des neuronalen Substrats für Vorhersagefehler bis hin zur Verwendung ähnlicher Prinzipien zum Aufbau künstlicher Intelligenz, die in Geschicklichkeitsspielen wie Go die besten menschlichen Spieler schlagen kann. Bisher lag der Forschungsschwerpunkt auf dem Lernen durch wiederholte Interaktionen mit ein und derselben Situation. Dabei ist ungeklärt, wie Menschen sich schnell an neue Situationen anpassen können und aus spärlichen Beispielen lernen können. Wir schlagen vor, dass die Generalisierung eine wesentliche Rolle dabei spielt, wie Men- schen effizient die Welt erforschen und sich in ihr zurechtfinden. Inspiriert von Roger Shepards „law of generalization“ präsentieren wir eine allgemeine Theorie der Generalisierung in räumlichen, konzeptuellen und strukturierten Umgebungen. Wir verwenden ein Funktionslernmodell, um zu beschreiben, wie Menschen begrenzte Erfahrungen auf eine Vielzahl neuer Situationen generalisieren, basierend auf dem einfachen Prinzip, dass ähnliche Aktionen zu ähnlichen Ergebnissen führen. Unser Modell der Generalisierung erzeugt Vorhersagen über die erwartete Belohnung und die damit verbundene Unsicherheit unerforschter Optionen—zwei wichtige Komponenten dafür, wie Menschen die Welt aktiv erkunden. / How do people navigate the vastness of real-world environments where it is not feasible to explore all possibilities and the exact same situation is rarely encountered twice? The study of human learning has made rapid progress in the past decades, from discovering the neural substrate of reward prediction errors, to using similar principles to build artificial intelligence capable of beating the best human players in skillful games such as Go. Yet this line of research has primarily focused on learning through repeated interactions with the same stimuli. How are humans able to rapidly adapt to novel situations and learn from such sparse examples? We propose that generalization plays a crucial role in guiding human exploration and learning. Inspired by Roger Shepard’s law of generalization, we present a domain general theory of generalization across spatial, conceptual, and structured environments. We use a function learning model to describe how people generalize limited experiences to a wide set of novel possibilities, based on the simple principle that similar actions produce similar outcomes. Our model of generalization generates predictions about the expected reward and underlying uncertainty of unexplored options, where both are vital components in how people actively explore the world.
96

Nonrenewal spiking in Neural and Calcium signaling

Ramlow, Lukas 24 January 2024 (has links)
Sowohl in der neuronalen als auch in der Kalzium Signalübertragung werden Informationen durch kurze Pulse oder Spikes, übertragen. Obwohl beide Systeme grundlegende Eigenschaften der Spike-Erzeugung teilen, wurden Integrate-and-fire (IF)-Modelle bisher nur auf neuronale Systeme angewendet. Diese Modelle bleiben auch dann behandelbar, wenn sie um Prozesse erweitert werden, die in Übereinstimmung mit Experimenten Spike-Zeiten mit korrelierten Interspike-Intervallen (ISI) erzeugen. Die statistische Analyse solcher nicht erneuerbarer Modelle ist Gegenstand dieser Arbeit. Das zweite Kapitel konzentriert sich auf die Berechnung des seriellen Korrelationskoeffizienten (SCC) in neuronalen Systemen. Es wird ein adaptives Modell betrachtet, das durch einen korrelierten Eingangsstrom getrieben wird. Es zeigt sich, dass neben den langsamen Prozessen auch die Dynamik des Modells den SCC bestimmt. Obwohl die Theorie für schwach gestörte IF-Modelle entwickelt wurde, kann sie auch auf stärker gestörte leitfähigkeitsbasierte Modelle angewendet werden und ist damit in der Lage, ein breites Spektrum biophysikalischer Situationen zu beschreiben. Im dritten Kapitel wird ein IF-Modell zur Beschreibung von Kalzium-Spikes formuliert, das die stochastische Freisetzung von Kalzium aus dem endoplasmatischen Retikulum (ER) und dessen Entleerung berücksichtigt. Die beobachtete Zeitskalentrennung zwischen Kalziumfreisetzung und Spikegenerierung motiviert eine Diffusionsnäherung, die eine analytische Behandlung des Modells ermöglicht. Die experimentell beobachtete Transiente, in der sich die ISIs einem stationären Wert annähern, kann durch die Entleerung des ER beschrieben werden. Es wird untersucht, wie die Statistiken der Transienten mit den stationären Intervallkorrelationen zusammenhängen. Es zeigt sich, dass eine stärkere Anpassung der Intervalle und eine kurze Transiente mit stärkeren Korrelationen einhergehen. Der Vergleich mit experimentellen Daten bestätigt diese Trends qualitativ. / In both neuronal and calcium signaling, information is transmitted by short pulses, so-called spikes. Although both systems share some basic principles of spike generation, integrate-and-fire (IF) models have so far only been applied to neuronal systems. These models remain analytically tractable even when extended to include processes that lead to the generation of spike times with correlated interspike intervals (ISIs) as observed in experiments. The statistical analysis of such non-renewal models is the subject of this thesis. In the second chapter we focus on the calculation of the serial correlation coefficient (SCC) in neural systems. We consider an adaptive model driven by a correlated input current. We show that in addition to the two slow processes, the dynamics of the model also determines the SCC. Although the theory is developed for weakly perturbed IF models, it can also be applied to more strongly perturbed conductance-based models and is thus able to account for a wide range of biophysical situations. In the third chapter, we formulate an IF model to describe the generation of calcium spikes, taking into account the stochastic release of calcium from the endoplasmic reticulum (ER) and its depletion. The observed time-scale separation between calcium release and spike generation motivates a diffusion approximation that allows an analytical treatment of the model. The experimentally observed transient, during which the ISIs approach a steady state value, can be captured by the depletion of the ER. We study how the transient ISI statistics are related to the stationary interval correlations. We show that a stronger adaptation of the intervals as well as a short transient are associated with stronger interval correlations. Comparison with experimental data qualitatively confirms these trends.
97

Lanthanum-Doped Hafnium Oxide: A Robust Ferroelectric Material

Schroeder, Uwe, Richter, Claudia, Park, Min Hyuk, Schenk, Tony, Pesič, Milan, Hoffmann, Michael, Fengler, Franz P. G., Pohl, Darius, Rellinghaus, Bernd, Zhou, Chuanzhen, Chung, Ching-Chang, Jones, Jacob L., Mikolajick, Thomas 04 October 2022 (has links)
Recently simulation groups have reported the lanthanide series elements as the dopants that have the strongest effect on the stabilization of the ferroelectric non-centrosymmetric orthorhombic phase in hafnium oxide. This finding confirms experimental results for lanthanum and gadolinium showing the highest remanent polarization values of all hafnia-based ferroelectric films until now. However, no comprehensive overview that links structural properties to the electrical performance of the films in detail is available for lanthanide-doped hafnia. La:HfO₂ appears to be a material with a broad window of process parameters, and accordingly, by optimization of the La content in the layer, it is possible to improve the performance of the material significantly. Variations of the La concentration leads to changes in the crystallographic structure in the bulk of the films and at the interfaces to the electrode materials, which impacts the spontaneous polarization, internal bias fields, and with this the field cycling behavior of the capacitor structure. Characterization results are compared to other dopants like Si, Al, and Gd to validate the advantages of the material in applications such as semiconductor memory devices.
98

Nonlinear Long-Range Correlated Stochastic Models of Temperature Time Series: Inference and Prediction

Kassel, Johannes Adrian 07 May 2024 (has links)
This thesis deals with data-driven stochastic models of daily temperature time series recorded at weather stations. These univariate time series are long-range correlated, i.e. their autocorrelation functions possess a power-law decay. In addition, their marginal distributions violate Gaussianity and their response functions are nonlinear, calling for nonlinear models. We present two methods for inferring nonlinear long-range correlated stochastic models of single-trajectory data and use them to reconstruct models of daily mean temperature data recorded at Potsdam Telegrafenberg, Germany. The first method employs fractional filtering using the estimated Hurst exponent of the time series. We render the time series short-range correlated with the first-order difference approximation of the Grünwald-Letnikov fractional derivative, the inverse of the fractional integration operation used in ARFIMA processes. Subsequently, we reconstruct a Markovian model of the fractionally differenced time series. The second inference method is ‘fractional Onsager-Machlup optimization’ (fOMo), a maximum likelihood framework apt to infer nonlinear force and diffusion terms of overdamped stochastic differential equations driven by arbitrarily correlated Gaussian noise, in particular fractional Gaussian noise. The optimization corresponds to the minimization of a stochastic action as studied in statistical field theory. The optimal drift and diffusion terms then render a given time series the most probable path of the model. Both inference methods show excellent results for temperature time series. They are applicable to other stationary, monofractal time series and thus may prove beneficial in biophysics, e.g. active matter dynamics and anomalous diffusion, neurophysics and finance. Finally, we employ stochastic temperature models reconstructed via the fractional filtering method for predictions. A forecast of the first frost date at Potsdam Telegrafenberg using the mean first-passage time of model trajectories and the zero degree temperature line shows small predictive power. The second application extends the stochastic temperature model to include an external forcing by a meteorological index time series that is associated to long-lived circulation patterns in the atmosphere. A causal analysis of Arctic Oscillation (AO) and North-Atlantic Oscillation indices and European extreme temperatures reveals the largest influence of the AO index on daily extreme winter temperatures in southern Scandinavia. We therefore reconstruct a nonlinear long-range correlated stochastic model of daily maximum and minimum winter temperatures recorded at Visby Flygplats, Sweden, with external driving by the AO index. Binary temperature forecasts show predictive power for up to 35 (30) days lead time for daily maximum (minimum) temperatures. An AR(1) model possesses predictive power for only 10 (5) days lead time for daily maximum (minimum) temperature, proving the potential of nonlinear long-range correlated models for predictions.:1 Introduction 1.1 Long-Range Correlations in Geophysical Time Series 1.2 Stochastic Modeling of Geophysical Time Series 1.3 Structure of the Thesis 2 Preliminaries 2.1 Time Series and Stochastic Processes 2.1.1 Stochastic Processes 2.1.2 Basic Concepts of Time Series Analysis 2.1.3 Classification of Stochastic Processes 2.1.4 Inference of Stochastic Processes 2.2 Markov Processes 2.2.1 Fokker-Planck Equation 2.2.2 Langevin Equation 2.2.3 Stochastic Integration 2.2.4 Correspondence of Langevin Equation and Fokker-Planck Equation 2.2.5 Numerical Solution of Langevin Equation 2.2.6 Path Integral Formulation 2.2.7 Discrete-Time Processes 2.3 Long-Range Correlated Processes 2.3.1 Self-Similarity and Long-Range Correlations 2.3.2 Fractional Calculus 2.3.3 Fractional Brownian Motion and Fractional Gaussian Noise 2.3.4 Stochastic Differential Equations driven by fGn 2.3.5 Numerical Solution of SDE driven by fGn 2.3.6 ARFIMA Processes 2.4 Estimation of the Hurst parameter 2.4.1 Estimation Methods 2.4.2 Detrended Fluctuation Analysis 2.5 Discussion of Previous Approaches to Modeling LRC Data 2.5.1 Generalized Langevin Equation 2.5.2 Modified Discrete Langevin Equation 2.5.3 Atmospheric Response Functions 3 Inference via Fractional Differencing 3.1 Surface Temperature Time Series 3.2 Fractional Differencing of Time Series 3.2.1 Removing Long-Range Correlations 3.2.2 Memory Selection 3.2.3 Testing for Markovianity 3.3 Finite-Time Kramers-Moyal Analysis 3.3.1 Kernel-Based Regression of Kramers-Moyal Moments 3.3.2 The Adjoint Fokker-Planck Equation 3.3.3 Numerical Procedure 3.3.4 Inferred Drift and Diffusion Terms 3.3.5 Model Data Generation 3.3.6 Results for Temperature Anomalies 3.4 Discrete-Time Langevin Equation 3.4.1 Estimation of Force and Diffusion Terms 3.4.2 Model Data Generation 3.4.3 Nonlinear Toy Model 3.4.4 Application to Temperature Data 3.4.5 Results for Temperature Anomalies 3.5 Discussion 4 Inference via Fractional Onsager-Machlup Optimization 4.1 Derivation of the Maximum Likelihood Estimator 4.2 Analytical Approaches 4.2.1 Force Estimation for Fixed Diffusion 4.2.2 Diffusion Estimation for Fixed Drift 4.2.3 Fractional Ornstein-Uhlenbeck Process 4.2.4 Superposition of Noise Processes 4.3 Numerical Procedure 4.4 Toy Model with Double-Well Potential 4.4.1 Comparison with Markovian Estimate 4.4.2 Finite-Size Error Scaling 4.5 Application to Temperature Data 4.5.1 Consistency of Inferred Drift and Diffusion 4.5.2 Comparison of Synthetic Data and Temperature 4.5.3 Residual Noise 4.6 Discussion 5 Predictions with Long-Range Correlated Models 5.1 First Frost Date 5.1.1 Forecast Ensemble and Forecast Error 5.1.2 Numerical Details 5.1.3 Results 5.2 Causal Analysis of Meteorological Indices and European Extreme Temperatures 5.2.1 Measures for Causal Influence 5.2.2 Causal Analysis Results 5.2.3 Causal Analysis for Visby Flygplats, Sweden 5.3 Forecasting Winter Temperature Extremes at Visby Flygplats, Sweden 5.3.1 Model Inference and Forecast 5.3.2 Root-Mean-Square Error Analysis 5.3.3 Binary Forecasts of Temperature Extremes 5.4 Discussion 6 Conclusion and Outlook 6.1 Inference of Nonlinear LRC Models 6.2 Predictions with LRC models 6.3 Further Research Directions 6.3.1 Method Extensions 6.3.2 Meteorological Applications 6.3.3 Data Interpolation 6.3.4 Anomalous Diffusion and Active Matter Dynamics Bibliography / Diese Arbeit befasst sich mit datengetriebenen stochastischen Modellen von Tagestemperatur-Zeitreihen, die von Wetterstationen aufgezeichnet wurden. Diese univariaten Zeitreihen sind langreichweitig korreliert, d.h. ihre Autokorrelationsfunktionen fallen gemäß eines Potenzgesetzes ab. Darüber hinaus sind ihre Randverteilungen nicht-Gaußsch und ihre Antwortfunktionen nichtlinear, was nichtlineare Modelle erforderlich macht. Wir stellen zwei Methoden zur Rekonstruktion nichtlinearer, langreichweitig korrelierter stochastischer Modelle von Einzeltrajektorien vor und verwenden sie zur Rekonstruktion von Modellen aus Tagesmitteltemperaturdaten, die an der Wetterstation Potsdam Telegrafenberg, Deutschland, aufgezeichnet wurden. Die erste Methode verwendet eine fraktionale Filterung unter Verwendung des geschätzten Hurst-Exponenten der Zeitreihe. Dabei werden die langreichweitigen Korrelationen der Zeitreihe mit der Differenzenapproximation erster Ordnung der fraktionalen Grünwald-Letnikov-Ableitung, der inversen Operation der in ARFIMA-Prozessen verwendeten fraktionalen Integration, entfert. Anschließend rekonstruieren wir ein Markov-Modell der fraktional differenzierten, nun kurzreichweitig korrelierten Zeitreihe. Die zweite Inferenzmethode ist die ‘fractional Onsager-Machlup optimization’ (fOMo), ein Maximum-Likelihood-Schätzer, der nichtlineare Kraft- und Diffusionsterme von überdämpften stochastischen Differentialgleichungen rekonstruiert, die von beliebig korreliertem Gaußschen Rauschen, insbesondere fraktionalem Gaußschen Rauschen, angetrieben werden. Die Optimierung entspricht der Minimierung einer stochastischen Wirkung, wie sie in der statistischen Feldtheorie untersucht wird. Die optimalen Drift- und Diffusionsterme machen die gegebene Zeitreihe dann zum wahrscheinlichsten Pfad des Modells. Beide Inferenzmethoden zeigen exzellente Ergebnisse für Temperaturzeitreihen. Sie sind auf weitere stationäre, monofraktale Zeitreihen anwendbar und können daher in der Biophysik, z. B. der Dynamik aktiver Materie und anomaler Diffusion, in der Neurophysik und im Finanzwesen nützlich sein. Schließlich verwenden wir stochastische Temperatur-Modelle, die mit Hilfe der Methode der fraktionalen Filterung rekonstruiert wurden, für Vorhersagen. Eine Vorhersage des ersten Frosttages im Herbst mit Temperaturdaten der Wetterstation Potsdam Telegrafenberg unter Verwendung der mittleren Erstauftreffszeit von Modelltrajektorien und der Null-Grad-Temperaturlinie zeigt nur geringe Vorhersagekraft. Die zweite Anwendung erweitert das stochastische Temperaturmodell um einen zusätzlichen Antrieb durch eine meteorologische Indexzeitreihe, welche langlebige Zirkulationsmuster in der Atmosphäre charakterisiert. Eine Kausalsanalyse des Einflusses der Indizes der Arktischen Oszillation und der Nordatlantischen Oszillation auf Extremtemperaturen in Europa zeigt den größten Einfluss des Arktischen-Oszillations-Index auf die täglichen Maximal- und Minimaltemperaturen im Winter in Südskandinavien. Darauf aufbauend rekonstruieren wir ein nichtlineares, langreichweitig korreliertes stochastisches Modell der Tagesmaximal- und -minimaltemperaturen im Winter der Wetterstation Visby Flygplats in Schweden mit zusätzlichem Antrieb durch den Arktischen Oszillationsindex. Binäre Vorhersagen des Modells besitzen einen Vorhersagehorizont von bis zu 35 (30) Tagen für Tages-Maximal-(Minimal-)Temperaturen. Binäre Vorhersagen mithilfe eines AR(1)-Modells besitzen einen Vorhersagehorizont von nur 10 (5) Tagen für tägliche Maximal-(Minimal-)Temperaturen. Dies beweist das Potenzial nichtlinearer, langreichweitig korrelierter Modelle für Vorhersagen.:1 Introduction 1.1 Long-Range Correlations in Geophysical Time Series 1.2 Stochastic Modeling of Geophysical Time Series 1.3 Structure of the Thesis 2 Preliminaries 2.1 Time Series and Stochastic Processes 2.1.1 Stochastic Processes 2.1.2 Basic Concepts of Time Series Analysis 2.1.3 Classification of Stochastic Processes 2.1.4 Inference of Stochastic Processes 2.2 Markov Processes 2.2.1 Fokker-Planck Equation 2.2.2 Langevin Equation 2.2.3 Stochastic Integration 2.2.4 Correspondence of Langevin Equation and Fokker-Planck Equation 2.2.5 Numerical Solution of Langevin Equation 2.2.6 Path Integral Formulation 2.2.7 Discrete-Time Processes 2.3 Long-Range Correlated Processes 2.3.1 Self-Similarity and Long-Range Correlations 2.3.2 Fractional Calculus 2.3.3 Fractional Brownian Motion and Fractional Gaussian Noise 2.3.4 Stochastic Differential Equations driven by fGn 2.3.5 Numerical Solution of SDE driven by fGn 2.3.6 ARFIMA Processes 2.4 Estimation of the Hurst parameter 2.4.1 Estimation Methods 2.4.2 Detrended Fluctuation Analysis 2.5 Discussion of Previous Approaches to Modeling LRC Data 2.5.1 Generalized Langevin Equation 2.5.2 Modified Discrete Langevin Equation 2.5.3 Atmospheric Response Functions 3 Inference via Fractional Differencing 3.1 Surface Temperature Time Series 3.2 Fractional Differencing of Time Series 3.2.1 Removing Long-Range Correlations 3.2.2 Memory Selection 3.2.3 Testing for Markovianity 3.3 Finite-Time Kramers-Moyal Analysis 3.3.1 Kernel-Based Regression of Kramers-Moyal Moments 3.3.2 The Adjoint Fokker-Planck Equation 3.3.3 Numerical Procedure 3.3.4 Inferred Drift and Diffusion Terms 3.3.5 Model Data Generation 3.3.6 Results for Temperature Anomalies 3.4 Discrete-Time Langevin Equation 3.4.1 Estimation of Force and Diffusion Terms 3.4.2 Model Data Generation 3.4.3 Nonlinear Toy Model 3.4.4 Application to Temperature Data 3.4.5 Results for Temperature Anomalies 3.5 Discussion 4 Inference via Fractional Onsager-Machlup Optimization 4.1 Derivation of the Maximum Likelihood Estimator 4.2 Analytical Approaches 4.2.1 Force Estimation for Fixed Diffusion 4.2.2 Diffusion Estimation for Fixed Drift 4.2.3 Fractional Ornstein-Uhlenbeck Process 4.2.4 Superposition of Noise Processes 4.3 Numerical Procedure 4.4 Toy Model with Double-Well Potential 4.4.1 Comparison with Markovian Estimate 4.4.2 Finite-Size Error Scaling 4.5 Application to Temperature Data 4.5.1 Consistency of Inferred Drift and Diffusion 4.5.2 Comparison of Synthetic Data and Temperature 4.5.3 Residual Noise 4.6 Discussion 5 Predictions with Long-Range Correlated Models 5.1 First Frost Date 5.1.1 Forecast Ensemble and Forecast Error 5.1.2 Numerical Details 5.1.3 Results 5.2 Causal Analysis of Meteorological Indices and European Extreme Temperatures 5.2.1 Measures for Causal Influence 5.2.2 Causal Analysis Results 5.2.3 Causal Analysis for Visby Flygplats, Sweden 5.3 Forecasting Winter Temperature Extremes at Visby Flygplats, Sweden 5.3.1 Model Inference and Forecast 5.3.2 Root-Mean-Square Error Analysis 5.3.3 Binary Forecasts of Temperature Extremes 5.4 Discussion 6 Conclusion and Outlook 6.1 Inference of Nonlinear LRC Models 6.2 Predictions with LRC models 6.3 Further Research Directions 6.3.1 Method Extensions 6.3.2 Meteorological Applications 6.3.3 Data Interpolation 6.3.4 Anomalous Diffusion and Active Matter Dynamics Bibliography
99

Luminescent sp²-Carbon-Linked 2D Conjugated Polymers with High Photostability

Xu, Shunqi, Li, Yungui, Biswal, Bishnu P., Addicoat, Matthew A., Paasch, Silvia, Imbrasas, Paulius, Park, SangWook, Shi, Huanhuan, Brunner, Eike, Richter, Marcus, Lenk, Simone, Reineke, Sebastian, Feng, Xinliang 28 September 2021 (has links)
Luminescent organic materials with high photostability are essential in optoelectronics, sensor, and photocatalysis applications. However, small organic molecules are generally sensitive to UV irradiation, giving rise to chemical decompositions. In this work, we demonstrate two novel CN-substituted two-dimensional sp²-carbon-linked conjugated polymers (2D CCPs) containing a chromophore triphenylene unit. The Knoevenagel polymerization between 2,3,6,7,10,11-hexakis(4-formylphenyl)triphenylene (HFPTP) and 1,4-phenylenediacetonitrile (PDAN) or 2,2’-(biphenyl-4,4’-diyl)diacetonitrile (BDAN), provides the crystalline 2D CCP-HFPTP-PDAN (2D CCP-1) and 2D CCP-HFPTP-BDAN (2D CCP-2) with dual pore structures, respectively. 2D CCP-1 and 2D CCP-2 exhibit the photoluminescence quantum yield (PLQY) up to 24.9% and 32.3%, which are the highest values among the reported 2D conjugated polymers and π-conjugated 2D covalent organic frameworks. Furthermore, compared with the well-known emissive small molecule tetrakis(carbazol-9-yl)-4,6-dicyanobenzene (4CzIPN), both 2D CCPs show superior photostability under UV irradiation for two hours, profiting from the twisted and rigid structures of the CN-substituted vinylene linkages. The present work will trigger the further explorations of novel organic emitters embedded in 2D CCPs with high PLQY and photostability, which can be useful for optoelectronic devices.
100

Lévy-Type Processes under Uncertainty and Related Nonlocal Equations

Hollender, Julian 17 October 2016 (has links) (PDF)
The theoretical study of nonlinear expectations is the focus of attention for applications in a variety of different fields — often with the objective to model systems under incomplete information. Especially in mathematical finance, advances in the theory of sublinear expectations (also referred to as coherent risk measures) lay the theoretical foundation for modern approaches to evaluations under the presence of Knightian uncertainty. In this book, we introduce and study a large class of jump-type processes for sublinear expectations, which can be interpreted as Lévy-type processes under uncertainty in their characteristics. Moreover, we establish an existence and uniqueness theory for related nonlinear, nonlocal Hamilton-Jacobi-Bellman equations with non-dominated jump terms.

Page generated in 0.0714 seconds