• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 104
  • 66
  • 22
  • 8
  • Tagged with
  • 200
  • 127
  • 105
  • 96
  • 71
  • 69
  • 69
  • 37
  • 27
  • 22
  • 21
  • 21
  • 19
  • 17
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Investigation of LIBS and Raman data analysis methods in the context of in-situ planetary exploration

Rammelkamp, Kristin 05 December 2019 (has links)
Die in dieser Arbeit vorgestellten Studien untersuchen verschiedene Ansätze für die Analyse von spektroskopischen Daten für die Erforschung anderer Himmelskörper. Der Fokus lag hierbei auf der laserinduzierten Plasmaspektroskopie (LIBS, engl. laser-induced breakdown spectroscopy), aber auch Daten der Raman-Spektroskopie wurden analysiert. Das erste extraterrestrisch eingesetzte LIBS Instrument, ChemCam, auf dem Mars Science Laboratory (MSL) der NASA untersucht die Marsoberfläche seit 2012 und weitere Missionen mit LIBS und Raman Instrumenten zum Mars sind geplant. Neben analytischen Ansätzen wurden statistische Methoden, die als multivariate Datenanalysen (MVA) bekannt sind, verwendet und evaluiert. In dieser Arbeit werden insgesamt vier Studien vorgestellt. In der ersten Studie wurde die Normalisierung von LIBS Daten mit Plasmaparametern, also der Plasmatemperatur und der Elektronendichte, untersucht. In der zweiten Studie wurden LIBS Messungen unter Vakuumbedingungen im Hinblick auf den Ionisierungsgrad des Plasmas untersucht. In der dritten Studie wurden MVA Methoden wie die Hauptkomponentenanalyse (PCA) und die partielle Regression kleinster Quadrate (PLS-R) zur Identifizierung und Quantifizierung von Halogenen mittels molekularer Emissionen angewandt. Die Ergebnisse sind vielversprechend, da es möglich war z.B. Chlor in einem ausgewählten Konzentrationsbereich zu quantifizieren. In der letzten Studie wurden LIBS-Daten mit komplementären Raman-Daten von Mars relevanten Salzen in einem low-level Datenfusionsansatz kombiniert. Es wurden MVA Methoden angewandt und auch Konzepte der high-level Datenfusion implementiert. Mit der low-level LIBS und Raman Datenfusion konnten im Vergleich zu den einzelnen Techniken mehr Salze richtig identifiziert werden. Der Gewinn durch die low-level Datenfusion ist jedoch vergleichsweise gering und für konkrete Missionen müssen individuelle und angepasste Strategien für die gemeinsame Analyse von LIBS und Raman-Daten gefunden werden. / The studies presented in this thesis investigate different data analysis approaches for mainly laser-induced breakdown spectroscopy (LIBS) and also Raman data in the context of planetary in-situ exploration. Most studies were motivated by Mars exploration due to the first extraterrestrially employed LIBS instrument ChemCam on NASA's Mars Science Laboratory (MSL) and further planned LIBS and Raman instruments on upcoming missions to Mars. Next to analytical approaches, statistical methods known as multivariate data analysis (MVA) were applied and evaluated. In this thesis, four studies are presented in which LIBS and Raman data analysis strategies are evaluated. In the first study, LIBS data normalization with plasma parameters, namely the plasma temperature and the electron density, was studied. In the second study, LIBS measurements in vacuum conditions were investigated with a focus on the degree of ionization of the LIBS plasma. In the third study, the capability of MVA methods such as principal component analysis (PCA) and partial least squares regression (PLS-R) for the identification and quantification of halogens by means of molecular emissions was tested. The outcomes are promising, as it was possible to distinguish apatites and to quantify chlorine in a particular concentration range. In the fourth and last study, LIBS data was combined with complementary Raman data in a low-level data fusion approach using MVA methods. Also, concepts of high-level data fusion were implemented. Low-level LIBS and Raman data fusion can improve identification capabilities in comparison to the single datasets. However, the improvement is comparatively small regarding the higher amount of information in the low-level fused data and dedicated strategies for the joint analysis of LIBS and Raman data have to be found for particular scientific objectives.
132

Benchmarking AutoML for regression tasks on small tabular data in materials design

Conrad, Felix, Mälzer, Mauritz, Schwarzenberger, Michael, Wiemer, Hajo, Ihlenfeldt, Steffen 05 March 2024 (has links)
Machine Learning has become more important for materials engineering in the last decade. Globally, automated machine learning (AutoML) is growing in popularity with the increasing demand for data analysis solutions. Yet, it is not frequently used for small tabular data. Comparisons and benchmarks already exist to assess the qualities of AutoML tools in general, but none of them elaborates on the surrounding conditions of materials engineers working with experimental data: small datasets with less than 1000 samples. This benchmark addresses these conditions and draws special attention to the overall competitiveness with manual data analysis. Four representative AutoML frameworks are used to evaluate twelve domain-specific datasets to provide orientation on the promises of AutoML in the field of materials engineering. Performance, robustness and usability are discussed in particular. The results lead to two main conclusions: First, AutoML is highly competitive with manual model optimization, even with little training time. Second, the data sampling for train and test data is of crucial importance for reliable results.
133

Special Section on the International Conference on Data Engineering 2015

Wolfgang, Lehner, Gehrke, Johannes, Shim, Kyuseok 18 January 2023 (has links)
The papers in this special section were presented at the 31st International Conference on Data Engineering that was held in Seoul, Korea, on April 13-17, 2015. 17, 2015.
134

Phenomenology of the Higgs and Flavour Physics in the Standard Model and Beyond

Alasfar, Lina 14 October 2022 (has links)
In dieser Arbeit werden einige zukünftige Aspekte der Higgs-Messungen ein Jahrzehnt nach seiner Entdeckung untersucht, wobei der Schwerpunkt auf dem Potenzial für zukünftige Läufe des Large Hadron Collider (LHC) liegt. Insbesondere sollen anspruchsvolle Kopplungen des Higgs, wie seine Selbstkopplung und die Wechselwirkung mit leichten Quarks, untersucht werden. Der erste Teil gibt einen Überblick über die Higgs-Physik innerhalb der effektiven Feldtheorie des Standardmodells (SMEFT). Der zweite Teil befasst sich mit der Single-Higgs-Produktion, beginnend mit einer Zweischleifenberechnung der Gluonenfusionskomponente von Zh, um deren theoretische Unsicherheiten zu reduzieren. Dann wird das Potenzial für die Einschränkung der trilinearen Higgs-Selbstkopplung aus Einzel-Higgs-Raten erneut untersucht, indem ebenso schwach eingeschränkte Vier-Schwer-Quark-Operatoren einbezogen werden, die bei der nächsthöheren Ordnung in die Einzel-Higgs-Raten eingehen. Diese Operatoren korrelieren in hohem Maße mit der trilinearen Selbstkopplung, was sich auf die Anpassungen auswirkt, die für diese Kopplung anhand von Einzel-Higgs-Daten vorgenommen wurden. Der dritte Teil konzentriert sich auf die Higgs-Paarproduktion, einen wesentlichen Prozess zur Messung der Higgs-Selbstkopplung, und setzt eine multivariate Analyse ein, um ihr Potenzial zur Untersuchung der leichten Yukawa-Kopplungen zu untersuchen; dadurch wird die Empfindlichkeit der Higgs-Paarproduktion für die leichten Quark-Yukawa-Wechselwirkungen erforscht. Schließlich werden im vierten Teil einige Modelle vorgestellt, die darauf abzielen, die jüngsten Flavour-Anomalien im Lichte einer globalen SMEFT-Bayesian-Analyse zu erklären, die Flavour- und elektroschwache Präzisionsmessungen kombiniert. / This thesis investigates some future aspects of Higgs measurements a decade after its discovery, focusing on the potential for future runs of the Large Hadron Collider (LHC). In particular, it aims to probe challenging couplings of the Higgs like its self-coupling and interaction with light quarks. The first part provides an overview of Higgs physics within the Standard Model Effective Field theory (SMEFT). The second part is about single-Higgs production, starting with a two-loop calculation of the gluon fusion component of Zh to reduce its theoretical uncertainties. Then, the potential for constraining the Higgs trilinear self-coupling from single Higgs rates is revisited; by including equally weaklyconstrained four-heavy-quark operators entering at the next-to-leading order in single Higgs rates. These operators highly correlate with the trilinear self-coupling, thus affecting the fits made on this coupling from single Higgs data. The third part focuses on the Higgs pair production, an essential process for measuring Higgs-self coupling, employing multivariate analysis to study its potential for probing light Yukawa couplings; thereby exploring the sensitivity of Higgs pair production for the light-quark Yukawa interactions. Finally, the fourth part showcases some models aiming to explain the recent flavour anomalies in the light of a global SMEFT Bayesian analysis combining flavour and electroweak precision measurements.
135

Score-Based Approaches to Heterogeneity in Psychological Models

Arnold, Manuel 30 May 2022 (has links)
Statistische Modelle menschlicher Kognition und Verhaltens stützen sich häufig auf aggregierte Daten und vernachlässigen dadurch oft Heterogenität in Form von Unterschieden zwischen Personen oder Gruppen. Die Nichtberücksichtigung vorliegender Heterogenität kann zu verzerrten Parameterschätzungen und zu falsch positiven oder falsch negativen Tests führen. Häufig kann Heterogenität mithilfe von Kovariaten erkannt und vorhergesagt werden. Allerdings erweist sich die Identifizierung von Prädiktoren von Heterogenität oft als schwierige Aufgabe. Zur Lösung dieses Problems schlage ich zwei neue Ansätze vor, um individuelle und gruppenspezifische Unterschiede mithilfe von Kovariaten vorherzusagen. Die vorliegende kumulative Dissertation setzt sich aus drei Projekten zusammen. Projekt 1 widmet sich dem Verfahren IPC-Regression (Individual Parameter Contribution), welches die Exploration von Parameterheterogenität in Strukturgleichungsmodellen (SEM) mittels Kovariaten erlaubt. Unter anderem evaluiere ich IPC-Regression für dynamische Panel-Modelle, schlage eine alternative Schätzmethode vor und leite IPCs für allgemeine Maximum-Likelihood-Schätzer her. Projekt 2 veranschaulicht, wie IPC-Regression in der Praxis eingesetzt werden kann. Dazu führe ich schrittweise in die Implementierung von IPC-Regression im ipcr-Paket für die statistische Programmiersprache R ein. Schließlich werden in Projekt 3 SEM-Trees weiterentwickelt. SEM-Trees sind eine modellbasierte rekursive Partitionierungsmethode zur Identifizierung von Kovariaten, die Gruppenunterschiede in SEM-Parametern vorhersagen. Die bisher verwendeten SEM-Trees sind sehr rechenaufwendig. In Projekt 3 kombiniere ich SEM-Trees mit unterschiedlichen Score-basierten Tests. Die daraus resultierenden Score-Guided-SEM-Tees lassen sich deutlich schneller als herkömmlichen SEM-Trees berechnen und zeigen bessere statistische Eigenschaften. / Statistical models of human cognition and behavior often rely on aggregated data and may fail to consider heterogeneity, that is, differences across individuals or groups. If overlooked, heterogeneity can bias parameter estimates and may lead to false-positive or false-negative findings. Often, heterogeneity can be detected and predicted with the help of covariates. However, identifying predictors of heterogeneity can be a challenging task. To solve this issue, I propose two novel approaches for detecting and predicting individual and group differences with covariates. This cumulative dissertation is composed of three projects. Project 1 advances the individual parameter contribution (IPC) regression framework, which allows studying heterogeneity in structural equation model (SEM) parameters by means of covariates. I evaluate the use of IPC regression for dynamic panel models, propose an alternative estimation technique, and derive IPCs for general maximum likelihood estimators. Project 2 illustrates how IPC regression can be used in practice. To this end, I provide a step-by-step introduction to the IPC regression implementation in the ipcr package for the R system for statistical computing. Finally, Project 3 progresses the SEM tree framework. SEM trees are a model-based recursive partitioning method for finding covariates that predict group differences in SEM parameters. Unfortunately, the original SEM tree implementation is computationally demanding. As a solution to this problem, I combine SEM trees with a family of score-based tests. The resulting score-guided SEM trees compute quickly, solving the runtime issues of the original SEM trees, and show favorable statistical properties.
136

Functional data analysis with applications in finance

Benko, Michal 26 January 2007 (has links)
An vielen verschiedenen Stellen der angewandten Statistik sind die zu untersuchenden Objekte abhängig von stetigen Parametern. Typische Beispiele in Finanzmarktapplikationen sind implizierte Volatilitäten, risikoneutrale Dichten oder Zinskurven. Aufgrund der Marktkonventionen sowie weiteren technisch bedingten Gründen sind diese Objekte nur an diskreten Punkten, wie zum Beispiel an Ausübungspreise und Maturitäten, für die ein Geschäft in einem bestimmten Zeitraum abgeschlossen wurde, beobachtbar. Ein funktionaler Datensatz ist dann vorhanden, wenn diese Funktionen für verschiedene Zeitpunkte (z.B. Tage) oder verschiedene zugrundeliegende Aktiva gesammelt werden. Das erste Thema, das in dieser Dissertation betrachtet wird, behandelt die nichtparametrischen Methoden der Schätzung dieser Objekte (wie z.B. implizierte Volatilitäten) aus den beobachteten Daten. Neben den bekannten Glättungsmethoden wird eine Prozedur für die Glättung der implizierten Volatilitäten vorgeschlagen, die auf einer Kombination von nichtparametrischer Glättung und den Ergebnissen der arbitragefreien Theorie basiert. Der zweite Teil der Dissertation ist der funktionalen Datenanalyse (FDA), speziell im Zusammenhang mit den Problemen, der empirischen Finanzmarktanalyse gewidmet. Der theoretische Teil der Arbeit konzentriert sich auf die funktionale Hauptkomponentenanalyse -- das funktionale Ebenbild der bekannten Dimensionsreduktionstechnik. Ein umfangreicher überblick der existierenden Methoden wird gegeben, eine Schätzmethode, die von der Lösung des dualen Problems motiviert ist und die Zwei-Stichproben-Inferenz basierend auf der funktionalen Hauptkomponentenanalyse werden behandelt. Die FDA-Techniken sind auf die Analyse der implizierten Volatilitäten- und Zinskurvendynamik angewandt worden. Darüber hinaus, wird die Implementation der FDA-Techniken zusammen mit einer FDA-Bibliothek für die statistische Software Xplore behandelt. / In many different fields of applied statistics an object of interest is depending on some continuous parameter. Typical examples in finance are implied volatility functions, yield curves or risk-neutral densities. Due to the different market conventions and further technical reasons, these objects are observable only on a discrete grid, e.g. for a grid of strikes and maturities for which the trade has been settled at a given time-point. By collecting these functions for several time points (e.g. days) or for different underlyings, a bunch (sample) of functions is obtained - a functional data set. The first topic considered in this thesis concerns the strategies of recovering the functional objects (e.g. implied volatilities function) from the observed data based on the nonparametric smoothing methods. Besides the standard smoothing methods, a procedure based on a combination of nonparametric smoothing and the no-arbitrage-theory results is proposed for implied volatility smoothing. The second part of the thesis is devoted to the functional data analysis (FDA) and its connection to the problems present in the empirical analysis of the financial markets. The theoretical part of the thesis focuses on the functional principal components analysis -- functional counterpart of the well known multivariate dimension-reduction-technique. A comprehensive overview of the existing methods is given, an estimation method based on the dual problem as well as the two-sample inference based on the functional principal component analysis are discussed. The FDA techniques are applied to the analysis of the implied volatility and yield curve dynamics. In addition, the implementation of the FDA techniques together with a FDA library for the statistical environment XploRe are presented.
137

Leitfaden zur Substrat- und Effizienzbewertung an Biogasanlagen

Weinrich, Sören, Paterson, Mark, Roth, Ursula 07 July 2022 (has links)
Vor dem Hintergrund der aktuellen energiepolitischen Entwicklungen und des zunehmenden Kostendruckes steigen die Anforderungen an eine präzise und zugleich praxisnahe Bilanzierung, Bewertung und Optimierung des Biogasprozesses. Dies beinhaltet sowohl die detaillierte Charakterisierung und Qualitätsbewertung der individuell eingesetzten Substrate als auch die Effizienzbewertung ihrer verfahrensspezifischen Umsetzung im Fermenter. Grundsätzlich existieren in der Wissenschaft und Praxis vielfältige Untersuchungsverfahren und Berechnungsmethoden, um die Eigenschaften der eingesetzten Substrate oder den aktuellen Prozesszustand zu charakterisieren. Eine direkte Vergleichbarkeit der unterschiedlichen Verfahren auf Basis der Trockensubstanz (TS, oTS, FoTS), Futtermittel-, Elementar- oder Brennwertanalyse ist bis heute nicht gegeben. Unter Berücksichtigung der konkreten Prozessbedingungen liefern experimentelle Batchtests oder kontinuierliche Laborversuche realitätsnahe Aussagen zum Methanertrag einzelner Substrate. In der großtechnischen Anlagenpraxis haben sich dabei die allgemeinen Richtwerte für Gasausbeuten des Kuratoriums für Technik und Bauwesen in der Landwirtschaft e. V. (KTBL) etabliert, welche auf einer Vielzahl an Einzelmessungen von Batchversuchen unterschiedlicher Labore und zusätzlichen Erfahrungswerten (Expertenwissen) beruhen. Ziel des vorliegenden Leitfadens ist es, die unterschiedlichen Verfahren zur Bestimmung des Methanbildungspotentials einzelner Substrate hinsichtlich ihrer praxisnahen Anwendung und Aussagekraft zu beschreiben. Auf Basis vereinfachter Massen- oder Energiebilanzen können die charakteristischen Kenngrößen der eingesetzten Substrate oder der anfallenden Gärreste dann zur Effizienzbewertung einer Biogasanlage verwendetet werden.
138

Impedanzspektroskopie an Zellschichten: Bayes’sche Datenanalyse und Modellvergleiche von experimentellen Messungen zur Charakterisierung der endothelialen Schrankenfunktion

Zimmermann, Franziska 09 July 2024 (has links)
Das Endothel stellt die entscheidende Barriere zwischen dem Intra- und Extravasalraum dar und ist damit essentiell für physiologische und pathophysiologische Vorgänge wie die Selektivität der Blut-Hirn-Schranke oder die Bildung von Ödemen. Die maßgebliche Kenngröße zur Beschreibung der Durchlässigkeit dieser Barriere ist die Permeabilität. Eine Methode zur Quantifizierung der endothelialen Schrankenfunktion ist die Impedanzspektroskopie. Hierbei wird an einem isolierten Zellmonolayer, der auf einen Filter kultiviert wurde, eine Wechselspannung angelegt und der resultierende komplexe Widerstand – die Impedanz Z(f) – für verschiedene Messfrequenzen f bestimmt. Kenngrößen sind der frequenzabhängige Verlauf von Betrag |Z| und Phase Ph der komplexen Impedanz. Zur Charakterisierung dieser Zellschicht wird oft der Transendotheliale Widerstand TER verwendet. Die Bestimmung dieses Wertes erfolgt über das Aufstellen von physikalischen Ersatzschaltbildern als mathematisches Modell, das den Messaufbau möglichst gut beschreibt und anschließender Optimierung der Modellparameter, sodass ein bestmöglicher Fit zwischen den Modellwerten und den Messdaten resultiert. Kommerziell verfügbare Impedanzmessgeräte ermöglichen die experimentell einfache Bestimmung von |Z| und Ph sowie oft eine direkte Analyse dieser Messwerte mittels voreingestellter mathematischer Modelle. Diese sind allerdings nicht erweiterbar oder austauschbar. Die resultierenden Parameter werden mitunter ohne Fehler angegeben, dieser soll dann über Mehrfachmessungen bestimmt werden. Zudem ist kein quantitativer Modellvergleich möglich. Diese Arbeit hatte daher das Ziel, die Vorteile der praktischen experimentellen Anwendung eines kommerziellen Messgerätes zu nutzen, aber die Analyse der Messdaten in den genannten Punkten zu erweitern und zu verbessern. Hierfür wurden beruhend auf der Bayes’schen Datenanalyse zwei verschiedene Algorithmen in python zur Auswertung impedanzspektroskopischer Daten implementiert. Bei der Bayes’schen Datenanalyse handelt es sich um einen logisch konsistenten Weg der Parameterbestimmung für eine bestimmte Modellannahme unter Berücksichtigung der gegebenen Daten und deren Fehler. Es resultieren als Ergebnis die Posterior als Wahrscheinlichkeitsverteilungen der Parameter. Aus diesen können Mittelwerte und Standardabweichungen berechnet werden. Vorwissen über die Modellparameter kann in Prioren für die Auswertung einbezogen werden. Bei der Analyse können im Gegensatz zu den kommerziellen Geräten sowohl |Z| als auch Ph berücksichtigt werden. Außerdem ermöglicht die Bestimmung der Evidenz einen quantitativen Modellvergleich, sodass valide Aussagen getroffen werden können, welches der untersuchten Modelle die gemessenen Daten am besten beschreibt. Die experimentellen Messungen wurden mit dem CellZscope (nanoAnalytics, Münster) durchgeführt. Dieses ermöglicht Messungen in einem Frequenzbereich von 1 - 100 kHz von auf Filtern kultivierten Zellmonolayern in sogenannten Wells auch unter Zugabe von Stimulatoren. Bei den zwei implementierten Algorithmen handelt es sich um das Markov-Chain-Monte-Carlo (MCMC) - Verfahren und um das MultiNested (MN) - Sampling. Das MCMC-Verfahren wurde vollständig selbstständig umgesetzt, der MN-Algorithmus beruht auf einer frei zugänglichen Bibliothek und wurde entsprechend angepasst. Diese zwei Algorithmen wurden zunächst ausführlich mit selbstgenerierten Testdaten validiert. Beide lieferten nahezu identische Ergebnisse der Parameterschätzung in hervorragender Übereinstimmung mit den gewählten Simulationsparametern. Die Einbeziehung der Ph verbesserte diese weiter und führte zusätzlich zu geringeren Parameterunsicherheiten. Als weitere Verbesserung wurde außerdem ein Verfahren zum Abschätzen der Messungenauigkeiten und deren Korrelationen aus den Messdaten etabliert, da diese bei dem CellZscope nicht angegeben werden. Für den MN-Algorithmus konnte der Jeffreys-Prior implementiert werden. Dies ermöglichte auch die korrekte Analyse mathematisch komplexer, höherparametriger Modelle. Nach dieser ausführlichen Validierung der Algorithmen hinsichtlich der Parameterschätzung, der Bestimmung der Messunsicherheiten und des Modellvergleiches erfolgte die Anwendung auf experimentelle Messungen. Bei diesen wurden Endothelzellen der menschlichen Nabelschnurvene (HUVEC) mit Thrombin in verschiedenen Konzentrationen und Triton X-100 stimuliert. Thrombin führt bei Endothelzellen u.a. zu Zellretraktion und Ausbildung ontrazellulärer Gaps mit Steigerung der Makromolekülpermeabilität. Triton X-100, ein nicht-ionisches Detergenz, zerstört die Lipidschicht der Zellmembranen. Vergleichend wurden zu den Messungen an Wells mit Medium und zellbedecktem Filter auch Messungen an Wells nur mit Medium sowie mit Medium und zellfreiem Filter durchgeführt. Es wurden basierend auf einer ausführlichen Literaturrecherche verschiedene Modelle untersucht, deren gemeinsames Merkmal ein konstantes Phasenelement (CPE) für die Elektroden-Elektrolyt-Grenzfläche und eine Reihenschaltung mehrerer RC-Glieder (Parallelschaltung eines Widerstandes R und eines Kondensators C) ist. Als das geeignetste Modell resultierte für alle diese drei Konditionen eine Reihenschaltung eines CPE mit mehreren RC-Gliedern, aber ohne weitere Elemente. Für die Wells mit nur Medium und die mit zellbedecktem Filter wurde die Anzahl nRC der RC-Glieder mit jeweils nRC = 4, für die Wells mit zellfreiem Filter mit nRC = 3 bestimmt. Dies zeigte, dass die in der Literatur oft verwendete Beschreibung des Mediums mit einem ohmschen Widerstand unzureichend ist. Auffallend war, dass bei allen Konditionen ein RC-Glied eine sehr niedrige Kapazität in der Größenordnung einiger nF aufwies. Für den Filter resultierte ein in der Kapazität charakteristisches RC-Glied, dennoch ergaben sich insgesamt weniger RC-Glieder als für die Messungen nur mit Medium. Bei den Messungen mit zellbedecktem Filter konnte der aus der Literatur bekannte konzentrationsabhängige Anstieg des TER dargestellt werden. Der Modellvergleich legte nahe, dass die Integrität des Zellmonolayers bei hohen Thrombinkonzentrationen nicht vollständig zerstört wird, da weiterhin ein Modell, das auch ein zellspezifisches RC-Glied enthält, die höchste Modellwahrscheinlichkeit aufwies. Für die Stimulation mit Triton X-100 ergab sich dagegen eine höhere Wahrscheinlichkeit für ein Modell, das einen Filter ohne Zellschicht beschreibt. Somit scheint hier der Monolayer nicht mehr intakt zu sein. Zur genaueren Untersuchung der biophysikalischen Bedeutung einzelner Modellparameter wurden außerdem erste zellfreie Messungen an Wells mit deionisiertem Wasser und Natriumchloridlösungen unterschiedlicher Konzentration durchgeführt und mit Berechnungen aus der Literatur verglichen. Hierbei konnte die bei allen Wells bestimmte sehr niedrige Kapazität auf den Aufbau des Wells zurückgeführt werden. Für die anderen RC-Glieder des Mediums und des Filters ergaben sich Hinweise, dass diese auf der Ausbildung dünner ionischer Schichten beruhen. Zusammenfassend haben sich die implementierten Algorithmen der Bayes’schen Datenanalyse als hervorragend geeignet für die Auswertung impedanzspektroskopischer Messungen dargestellt. Durch die ausführliche Validierung mit Testdaten liegt ein hohes Maß an Reliabilität der Ergebnisse vor. Die Parameterschätzung der Messung an Zellmonolayern gelang auch für sehr komplexe Modelle und über die Evidenz kann ein quantitativer Modellvergleich erfolgen. Die Modellparameter wurden auch hinsichtlich ihrer biophysikalischen Bedeutung untersucht. Die Technik ist somit der direkten Analyse des CellZscope vorzuziehen und kann auch zur verbesserten Planung zukünftiger Experimente (experimental design) verwendet werden. Außerdem ist eine Anwendung neuer Modelle, beispielsweise zur Quantifizierung der Fläche des noch intakten Monolayers bei starker Thrombinstimulation oder die Beschreibung komplexerer Setups wie Co-Kulturen verschiedener Zellarten möglich.
139

Entwicklung eines Systems zur Erfassung und Untersuchung von Certificate Transparency Logs

Meesters, Johannes 13 July 2024 (has links)
Angesichts der zentralen Rolle der Root-Zertifizierungsstellen als Vertrauensanker der Web PKI und der in der Vergangenheit aufgetretenen Vorfälle mit unberechtigt oder inkorrekt ausgestellten Zertifikaten, ist die Transparenz und Verantwortlichkeit dieser Root CAs von großer Bedeutung. Seit der Einführung von Certificate Transparency Logs werden alle von Certificate Authorities ausgestellten Zertifikate in diese öffentlichen Logs eingetragen. Die Arbeit stellt die Problematik der eingeschränkten Zugänglichkeit dieser Daten für die Wissenschaft dar und entwickelt ein Werkzeug, dass eine unabhängige Aufzeichnung und Auswertung von Certificate Transparency Logs ermöglicht. Das entwickelte System nutzt eine containerbasierte Architektur und Elasticsearch zur effizienten Speicherung und Analyse der Daten. Es bewältigt ein hohes Datenaufkommen von durchschnittlich 25 Millionen Log-Einträgen pro Tag und ermöglicht eine anpassbare Datenverarbeitung und -auswertung. Die Vorverarbeitung und Indexierung sowie die Auswertung der Daten erfolgte mit Python, was eine flexible Anpassung des Systems an unterschiedliche Forschungsfragen erlaubt. Über einen Zeitraum von 42 Tagen wurden insgesamt 645 Millionen CT Log-Einträge aufgezeichnet und analysiert. Aus den Auswertungen geht hervor, wie verschiedene CAs und deren Root-Zertifikate genutzt werden und wie stark die unterschiedlichen CT Logs von CAs verwendet werden. Die Arbeit identifiziert jedoch auch Herausforderungen, wie den hohen Speicherbedarf und notwendige Optimierungen in der Datenindexierung.:1 Einleitung 1.1 Problemstellung 1.2 Zielstellung 2 Grundlagen 2.1 X509-Zertifikate 2.1.1 Felder 2.1.2 Erweiterungen 2.2 Certificate Transparency 2.2.1 Certificate Transparency Log 2.2.2 Überprüfung durch User Agents 2.2.3 Überprüfung durch Monitors 2.2.4 Eintragung durch Certificate Authorities 3 Konzeptionierung 3.1 Abfrage der CT Logs 3.2 Verarbeitung der Zertifikate 3.3 Speicherung & Auswertung der Daten 3.4 Überwachung 3.5 Docker 4 Implementierung 4.1 Plattform 4.2 Überwachung 4.3 certstream-server 4.4 Verarbeitung 4.4.1 Pufferung (stream-to-queue-publisher) 4.4.2 Vorverarbeitung (cert-indexer) 4.5 Elasticsearch 4.5.1 Speicherverbrauch 4.5.2 Field Mappings 5 Auswertung 5.1 Logs & Log-Betreiber 5.2 Certificate Authorites 5.3 Zertifikats-Größe 5.4 Gültigkeitsdauer 6 Schluss 6.1 Fazit 6.2 Ausblick A Beispiel X509 Leaf-Zertifikat B Beispiel X509 Root-Zertifikat C Beispiele Elasticsearch Abfragen Literatur Abbildungsverzeichnis Tabellenverzeichnis / In view of the central role of the root certification authorities as trust anchors of the Web PKI and the incidents that have occurred in the past with unauthorised or incorrectly issued certificates, the transparency and accountability of these root CAs is of great importance. With the introduction of Certificate Transparency Logs, all certificates issued by Certificate Authorities are now entered in public logs. The work presents the problem of the limited accessibility of this data for science and develops a tool that enables an independent recording and evaluation of Certificate Transparency Logs. The developed system uses a container-based architecture and Elasticsearch to efficiently store and analyse the data. It can handle a high volume of data, averaging 25 million log entries per day, and enables customisable data processing and analysis. Python was used to pre-process, index and analyse the data, allowing the system to be flexibly adapted to different research questions. A total of 645 million CT log entries were recorded and analysed over a period of 42 days. The analyses show how different CAs and their root certificates are used and how much the different CT logs are used by CAs. However, the work also identifies challenges, such as the high memory requirements and necessary optimisations in data indexing.:1 Einleitung 1.1 Problemstellung 1.2 Zielstellung 2 Grundlagen 2.1 X509-Zertifikate 2.1.1 Felder 2.1.2 Erweiterungen 2.2 Certificate Transparency 2.2.1 Certificate Transparency Log 2.2.2 Überprüfung durch User Agents 2.2.3 Überprüfung durch Monitors 2.2.4 Eintragung durch Certificate Authorities 3 Konzeptionierung 3.1 Abfrage der CT Logs 3.2 Verarbeitung der Zertifikate 3.3 Speicherung & Auswertung der Daten 3.4 Überwachung 3.5 Docker 4 Implementierung 4.1 Plattform 4.2 Überwachung 4.3 certstream-server 4.4 Verarbeitung 4.4.1 Pufferung (stream-to-queue-publisher) 4.4.2 Vorverarbeitung (cert-indexer) 4.5 Elasticsearch 4.5.1 Speicherverbrauch 4.5.2 Field Mappings 5 Auswertung 5.1 Logs & Log-Betreiber 5.2 Certificate Authorites 5.3 Zertifikats-Größe 5.4 Gültigkeitsdauer 6 Schluss 6.1 Fazit 6.2 Ausblick A Beispiel X509 Leaf-Zertifikat B Beispiel X509 Root-Zertifikat C Beispiele Elasticsearch Abfragen Literatur Abbildungsverzeichnis Tabellenverzeichnis
140

Zwangsmobilität und Verkehrsmittelorientierung junger Erwachsener / Forced mobility and orientation towards transport modes of young adults: Creation of a typology

Wittwer, Rico 23 January 2015 (has links) (PDF)
In der Mobilitätsforschung entstand in den vergangenen Jahrzehnten eine breite Wissensbasis für das Verständnis von Verkehrsursachen und Zusammenhängen, die das Verkehrsverhalten determinieren. Mit der Entwicklung von Verkehrsmodellen lag das Forschungsinteresse zunächst primär bei Ökonomen und Ökonometrikern sowie Verkehrsingenieuren. Bald kamen andere Wissenschaftsbereiche wie die Psychologie oder die Geowissenschaften hinzu, welche sich in der Folge zunehmend mit dem Thema Mobilität befassten und die zur Erklärung des menschlichen Verhaltens ganz unterschiedliche Methoden und Maßstäbe nutzten. Heute versuchen zumeist handlungsorientierte Ansätze, auf Individualebene, Faktoren zu bestimmen, die Aufschluss über die Verhaltensvariabilität in der Bevölkerung geben und damit einen möglichst großen Beitrag zur Varianzaufklärung leisten. Werden Einflussfaktoren in geeigneter Weise identifiziert und quantifiziert, können Defizite und Chancen erkannt und das Verhalten steuernde Maßnahmen entworfen werden. Mit deren Hilfe wird ungewollten Entwicklungen entgegengesteuert. Junge Erwachsene stellen aufgrund ihrer sehr unterschiedlichen Phasen im Lebenszyklus, z. B. gerade anstehender oder abgeschlossener Ausbildung, Umzug in eine eigene Wohnung, Familiengründung, Neuorientierung in Arbeitsroutinen oder das Einleben in ein anderes Lebensumfeld einer fremden Stadt, intuitiv eine sehr heterogene Gruppe dar. Die Modellierung des Verhaltens ist für diese Altersgruppe besonders schwierig. Aus der Komplexität dieser Problemstellung heraus ist ersichtlich, dass fundierte Analysen zur Mobilität junger Erwachsener notwendig sind, um verkehrsplanerische Defizite aufzudecken und Chancen zu erkennen. Der methodische Schwerpunkt des Beitrages liegt auf der Bildung einer Typologie des Verkehrsverhaltens junger Erwachsener. Die verwendete Datengrundlage ist das „Deutsche Mobilitätspanel – MOP“. Dabei wird der Versuch unternommen, zunächst Variablen aller relevanten Dimensionen des handlungsorientierten, aktivitätsbasierten Verkehrsverhaltens zusammenzustellen und für eine entsprechende Analyse aufzubereiten. Im Anschluss werden geeignete und in den Sozialwissenschaften erprobte Verfahren zur Ähnlichkeitsmessung eingesetzt, um möglichst verhaltensähnliche Personen zu typologisieren. Im Weiteren finden konfirmatorische Analysetechniken Anwendung, mit deren Hilfe Verhaltenshintergründe erklärt und inferenzstatistisch geprüft werden. Als Ergebnis wird eine clusteranalytische Typologisierung vorgestellt, die im Anschluss anhand soziodemografischer Indikatoren und raumstruktureller Kriterien der Lagegunst beschrieben wird. Aufgrund der gewonnenen Erkenntnisse können objektive und im Idealfall quantifizierbare, d. h. prognosefähige Merkmale zur Bildung verkehrssoziologischer und weitgehend verhaltensähnlicher Personengruppen genutzt werden. / Over the last few decades of mobility research, a wide base of knowledge for understanding travel determinants and causal relationships in mobility behavior has been established. The development of travel models was at first of interest primarily to economists and econometricians as well as transportation engineers. They were soon joined by other scientific areas such as psychology or the geosciences, which as a result increasingly addressed the theme of mobility and used quite different methodologies and criteria for explaining human behavior. Today, activity-oriented approaches generally attempt to determine individual-level factors that provide information on behavioral variability within the population, thereby contributing greatly to explaining variances. If explanatory factors can be properly identified and quantified, then deficiencies and opportunities can be recognized and measures for influencing behavior can be conceptualized. With their help, undesirable developments can be avoided. Because of their highly differing stages in life, e.g. upcoming or recently completed education, moving into their own apartment, starting a family, becoming oriented in a work routine or adapting to a new environment in a different city, young adults are intuitively a very heterogeneous group. Modeling the behavior of this age group is particularly difficult. This problem makes it clear that founded analysis of the mobility of young adults is necessary in order to recognize deficiencies and opportunities in transportation planning. The methodological focus of this work is on creating a typology of young adults’ travel behavior. The base data is from the “Deutsches Mobilitätspanel – MOP” (German Mobility Panel). An attempt is made to gather and prepare all relevant dimensions of decision-oriented, activity-based travel behavior for a corresponding analysis. Afterward, appropriate and proven methods from the social sciences are used to test for similarity in order to identify groups of persons which are as behaviorally homogeneous as possible. In addition, confirmatory data analysis is utilized which helps explain and test, through inferential statistics, determinants of behavior. The resulting typology from the cluster analysis is presented and followed by a description using sociodemographic indicators and spatial criteria of accessibility. The findings make it possible to use objective and, ideally, quantifiable and therefore forecastable characteristics for identifying sociological population groups within which similar travel behavior is displayed.

Page generated in 0.4444 seconds