• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 10
  • 2
  • 1
  • Tagged with
  • 32
  • 27
  • 27
  • 27
  • 11
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Statistische Methoden der industriellen Prozessmodellierung zur Echtzeitqualitätskontrolle am Beispiel einer kontinuierlichen Produktion von Faserplatten

Hasener, Jörg. Unknown Date (has links) (PDF)
Universiẗat, Diss., 2004--Hamburg.
22

Squaring the square

Langenau, Holger 10 February 2018 (has links) (PDF)
Given a square with integer side length n, we ask for the number of different ways to divide it into sub-squares, considering only the list of parts. We enumerate all possible lists and check whether a placement with those squares is possible. In order to do this, we propose a new algorithm for creating perfect square packings.
23

Squaring the square

Langenau, Holger 10 February 2018 (has links)
Given a square with integer side length n, we ask for the number of different ways to divide it into sub-squares, considering only the list of parts. We enumerate all possible lists and check whether a placement with those squares is possible. In order to do this, we propose a new algorithm for creating perfect square packings.
24

A contribution to extend the capabilities of ultrasonic process instrumentation

Schäfer, Robert January 2008 (has links)
Zugl.: Magdeburg, Univ., Diss., 2008
25

Parameterschätzung für elastisch-plastische Deformationsgesetze bei Berücksichtigung lokaler und globaler Vergleichsgrößen

Benedix, Ulrich 19 May 2000 (has links)
Der Begriff ¨Parameteridentifikation¨ bedeutet die Berechnung von Parametern eines (i. a. nichtlinearen) Modells eines physikalischen Prozesses durch Minimierung eines Fehlerquadratfunktionals aus gemessenen und mit Hilfe des Modells berechneten Vergleichswerten. Unter einer ¨Parameterschätzung¨ wird zusätzlich die Bestimmung von Konfidenzintervallen der optimalen Parameter und von Korrelationskoeffizienten der Parameter untereinander verstanden. In der vorliegenden Untersuchung wurde eine Parameterschätzung am Beispiel elastisch-plastischer Deformationsgesetze für kleine Verzerrungen vorgenommen, wobei als experimentelle Vergleichswerte sowohl lokale Größen (Spannungen) als auch globale Größen (Biegemoment und Längskraft) zur Verfügung standen. Die Integration des nichtlinearen Deformationsgesetzes erfolgte mit Hilfe des impliziten Euler-Verfahrens. Die Sensitivitätsanalyse zur Bestimmung der für die anschließende Optimierung benötigten Ableitungen der Vergleichsgrößen nach den Parametern ist eingebettet in den Integrationsalgorithmus. Zur Optimierung der Zielfunktion wurde das Levenberg-Marquardt-Verfahren verwendet. Anhand von Berechnungsergebnissen für unterschiedliche Modellfunktionen bei Einbeziehung verschiedenartiger Versuche werden Beispiele für erfolgreiche Parameterschätzungen sowie für das Auftreten systematischer Fehler und überparametrisierter Modelle angegeben. / The aim of the ``parameter identification'' is the calculation of parameters of a (generally nonlinear) model of a physical process by minimization of a least squares functional containing differences between measured and numerical calculated comparative quantities. ``Parameter estimation'' includes additionally the determination of confidence intervals of the optimal parameters and the calculation of correlation coefficients of the parameters to each other. The present investigation deals with the parameter estimation in case of an elastic-plastic deformation law for small strains considering both local quantities (stresses) and global quantities (bending moment and longitudinal force) as experimental values. The integration of the nonlinear deformation law has been done by the implicit Euler method. The sensitivity analysis to determine the derivatives of the comparative quantities with respect to the parameters needed for the optimization process is embedded into the integration algorithm.The optimization of the objective function has been carried out using the Levenberg-Marquardt algorithm. Numerical results of the successful parameter estimation in case of different models and analyzing various experiments are presented. Some examples detecting the occurance of systematic errors and overparameterized models are given.
26

Identifizierung von Biomarkern mittels LC-MS-basiertem Metabonomics - Merkaptursäuren als Indikatoren für die Bildung toxischer Intermediate / Identification of biomarkers via LC-MS-based metabonomics – mercapturic acids as indicators for the formation of toxic intermediates

Wagner, Silvia January 2008 (has links) (PDF)
Metabonomics bildet das Ende der Omics-Kaskade und stellt eine top-down-Strategie zur Erfassung und Interpretation des Metaboloms, d. h. der Gesamtheit aller niedermolekularen Metaboliten in einem intakten Organismus, dar. Ziel der Technik ist es, mittels geeigneter ungerichteter Screeningverfahren in nicht-invasiv zu gewinnenden biologischen Proben wie Urin oder Blut charakteristische Metabolitenprofile zu bestimmen. Im Kontext des Metabonomics wurde in Anlehnung an den Geno- bzw. Phänotyp hierfür der Begriff „Metabotyp“ geprägt. Durch biostatistische Methoden, die auf Mustererkennung (pattern recognition) basieren, können Signaturen gegenübergestellt und auf diesem Weg gruppenspezifische Metaboliten, d. h. Biomarker bzw. Metabolitenmuster, extrahiert werden. Metabonomics kann folglich als Fusion klassischer bioanalytischer und biostatistischer Verfahren aufgefasst werden. Seit der Einführung im Jahr 1999 hat sich das Konzept des Metabonomics in mehrere Richtungen weiterentwickelt. So gab es Bestrebungen, die Technik, die ursprünglich zur Prädiktion von toxischen Effekten bei der Arzneistoffentwicklung etabliert wurde, auf Fragestellungen zu übertragen, die den Menschen im Mittelpunkt haben. Neben präklinischen Anwendungen verfolgt man mit Metabonomics zunehmend das Ziel, einer personalisierten Medizin und Ernährung einen Schritt näher zu kommen. Da sich die ursprünglich eingesetzte NMR-Technik als zu unempfindlich und die resultierenden Metabolitenprofile als zu anfällig gegenüber biologischen und analytischen Einflussgrößen (Confoundern) erwiesen haben, wurde parallel auf sensitivere Verfahren wie die Massenspektrometrie gesetzt. Insbesondere die Kopplung mit der Hochdruckflüssigchromatographie erwies sich hierbei für das Metabolitenscreening als geeignet. Schnell wurde allerdings klar, dass aus den klassischen full scan/TOF-Methoden Datensätze resultierten, die häufig zu komplex waren, um mit nachgeschalteten chemometrischen Verfahren die „Spreu vom Weizen trennen“ zu können. Da sich Metabolitendatenbanken bisher noch im Aufbau befinden, ist die Identifizierung der Marker mit zusätzlichen Schwierigkeiten verbunden und bedarf aufwändiger analytischer Verfahren. Eine Strategie stellt daher die Beschränkung auf ein Metabolitensubset dar. Indem man sich auf Metabolitenklassen fokussiert, die einen Bezug zum untersuchten Mechanismus haben, können die Erfolgsaussichten bei der Identifizierung charakteristischer Biomarker deutlich erhöht werden. Aufgrund zahlreicher exogener und endogener Faktoren (Arzneistoffe, Industriechemikalien, Nahrungsbestandteile, Tabakrauchbestandteile, Produkte der Lipidperoxidation etc.) ist der menschliche Organismus stets einer Vielzahl an elektrophilen Verbindungen ausgesetzt. Oxidative Schädigungen an Strukturen wie der DNA, Proteinen und Lipiden werden mit einer Reihe von Krankheitsbildern in Zusammenhang gebracht, darunter Parkinson, Alzheimer, Krebs und Volkskrankheiten wie Arteriosklerose, Allergien und koronare Herzerkrankungen. Mit dem Glutathionsystem verfügt der Körper über einen wirksamen Detoxifizierungsmechanismus. Das Tripeptid Glutathion reagiert als Nukleophil mit den exogen oder endogen gebildeten elektrophilen Intermediaten. Endprodukte sind Merkaptursäuren (N-Acetyl-L-Cystein-Addukte) bzw. deren Sulfoxide, die in erster Linie mit dem Urin ausgeschieden werden. Folglich besteht zwischen diesen Merkaptursäurederivaten und der elektrophilen Belastung eines Organismus ein direkter Zusammenhang. Vor diesem Hintergrund war es das Ziel der Arbeit, einen nicht-invasiven Metabonomicsansatz zur Anwendung am Menschen zu entwickeln. Durch die Fokussierung des Metabolitenscreenings auf die Effekt-, Dosis- und Suszeptibilitätsmarkerklasse der Merkaptursäuren sollten hierbei die Erfolgsaussichten im Hinblick auf die Identifizierung potentieller Biomarker für diverse toxikologische sowie medizinische Endpunkte erhöht werden. / Metabonomics forms the end of the omics-cascade and represents a top-down strategy for the interpretation of the metabolome, i. e. all the low molecular weight metabolites in an intact organism. The aim of the approach is to analyse characteristic metabolite profiles by suitable untargeted screening methods in biological samples like urine or blood that can be obtained in a non-invasive manner. In the context of metabonomics, the term “metabotype” was defined according to the geno- and phenotype, respectively. Biostatistical methods based on pattern recognition techniques allow comparing metabolic signatures and extracting group specific metabolites and biomarkers. Therefore, metabonomics can be regarded as the fusion of bioanalytical and biostatistical techniques. Since its introduction in 1999, the concept of metabonomics has permanently gained importance in many fields of scientific research. One aim was to transfer the methodology, which was originally established to predict toxic effects in drug development processes, to human issues. Apart from preclinical questions, metabonomics is increasingly applied in the area of personalised medicine and nutrition. As the NMR technique used by pioneers of the field was too insensitive and the resulting metabolite profiles were too susceptible to biological and analytical confounders, more sensitive techniques like mass spectrometry were more and more applied. Especially mass spectrometry in combination with high performance liquid chromatography showed great promise for the screening of metabolites. However, after a very short time, it was clear that the data sets resulting from full scan/TOF-methods were too complex to “separate the wheat from the chaff” with chemometric procedures. Metabolite databases are still under construction, and therefore marker identification is challenging and requires complex analytical techniques. Thus, one strategy is to concentrate on a certain metabolite subset. The focus on a metabolite class with a close relation to the mechanism under investigation can considerably increase the prospects of success in the biomarker identification process. Due to a variety of exogenous and endogenous factors (drugs, industrial chemicals, food ingredients, and tobacco smoke) the human organism is steadily confronted with a multitude of electrophilic compounds. Oxidative damage of the DNA, proteins, and lipids is associated with the development of diseases like Parkinson’s, Alzheimer’s, cancer and widespread diseases like arteriosclerosis, allergies and coronary heart diseases. With the glutathione system the human organism is equipped with an efficient detoxification mechanism. The tripeptide glutathione reacts as nucleophile with exogenously and endogenously formed electrophilic intermediates. End products are mercapturic acids (N-acetyl-L-cysteine-adducts) and respective sulfoxides that are predominantly excreted with urine. Therefore, there is a close relationship between these mercapturic acid patterns and the electrophilic burden of an organism. In this context, the aim of this thesis was to develop a non-invasive human metabonomics approach that focuses the metabolite screening on the effect, dose and susceptibility marker class of the mercapturic acids. Thus, the prospects of success regarding the identification of potential biomarkers for various toxicological and pathological endpoints should be increased.
27

Least Squares Estimation in Multiple Change-Point Models

Mauer, René 07 September 2018 (has links)
Change-point analysis is devoted to the detection and estimation of the time of structural changes within a data set of time-ordered observations. In this thesis, we estimate simultaneously multiple change-points by the least squares method and examine asymptotic properties of such estimators. Using argmin theorems, we prove weak and strong consistency under different moment conditions and investigate convergence in distribution. The identification of the limit variable allows us to derive an asymptotic confidence region for the unknown parameters. Based on a simulation study we evaluate these results.
28

Least Squares in Sampling Complexity and Statistical Learning

Bartel, Felix 19 January 2024 (has links)
Data gathering is a constant in human history with ever increasing amounts in quantity and dimensionality. To get a feel for the data, make it interpretable, or find underlying laws it is necessary to fit a function to the finite and possibly noisy data. In this thesis we focus on a method achieving this, namely least squares approximation. Its discovery dates back to around 1800 and it has since then proven to be an indispensable tool which is efficient and has the capability to achieve optimal error when used right. Crucial for the least squares method are the ansatz functions and the sampling points. To discuss them, we gather tools from probability theory, frame subsampling, and $L_2$-Marcinkiewicz-Zygmund inequalities. With that we give results in the worst-case or minmax setting, when a set of points is sought for approximating a class of functions, which we model as a generic reproducing kernel Hilbert space. Further, we give error bounds in the statistical learning setting for approximating individual functions from possibly noisy samples. Here, we include the covariate-shift setting as a subfield of transfer learning. In a natural way a parameter choice question arises for balancing over- and underfitting effect. We tackle this by using the cross-validation score, for which we show a fast way of computing as well as prove the goodness thereof.:1 Introduction 2 Least squares approximation 3 Reproducing kernel Hilbert spaces (RKHS) 4 Concentration inequalities 5 Subsampling of finite frames 6 L2 -Marcinkiewicz-Zygmund (MZ) inequalities 7 Least squares in the worst-case setting 8 Least squares in statistical learning 9 Cross-validation 10 Outlook
29

Multiple Outlier Detection: Hypothesis Tests versus Model Selection by Information Criteria

Lehmann, Rüdiger, Lösler, Michael 14 June 2017 (has links) (PDF)
The detection of multiple outliers can be interpreted as a model selection problem. Models that can be selected are the null model, which indicates an outlier free set of observations, or a class of alternative models, which contain a set of additional bias parameters. A common way to select the right model is by using a statistical hypothesis test. In geodesy data snooping is most popular. Another approach arises from information theory. Here, the Akaike information criterion (AIC) is used to select an appropriate model for a given set of observations. The AIC is based on the Kullback-Leibler divergence, which describes the discrepancy between the model candidates. Both approaches are discussed and applied to test problems: the fitting of a straight line and a geodetic network. Some relationships between data snooping and information criteria are discussed. When compared, it turns out that the information criteria approach is more simple and elegant. Along with AIC there are many alternative information criteria for selecting different outliers, and it is not clear which one is optimal.
30

Numerical methods for backward stochastic differential equations of quadratic and locally Lipschitz type

Turkedjiev, Plamen 17 July 2013 (has links)
Der Fokus dieser Dissertation liegt darauf, effiziente numerische Methode für ungekoppelte lokal Lipschitz-stetige und quadratische stochastische Vorwärts-Rückwärtsdifferenzialgleichungen (BSDE) mit Endbedingungen von schwacher Regularität zu entwickeln. Obwohl BSDE viele Anwendungen in der Theorie der Finanzmathematik, der stochastischen Kontrolle und der partiellen Differenzialgleichungen haben, gibt es bisher nur wenige numerische Methoden. Drei neue auf Monte-Carlo- Simulationen basierende Algorithmen werden entwickelt. Die in der zeitdiskreten Approximation zu lösenden bedingten Erwartungen werden mittels der Methode der kleinsten Quadrate näherungsweise berechnet. Ein Vorteil dieser Algorithmen ist, dass sie als Eingabe nur Simulationen eines Vorwärtsprozesses X und der Brownschen Bewegung benötigen. Da sie auf modellfreien Abschätzungen aufbauen, benötigen die hier vorgestellten Verfahren nur sehr schwache Bedingungen an den Prozess X. Daher können sie auf sehr allgemeinen Wahrscheinlichkeitsräumen angewendet werden. Für die drei numerischen Algorithmen werden explizite maximale Fehlerabschätzungen berechnet. Die Algorithmen werden dann auf Basis dieser maximalen Fehler kalibriert und die Komplexität der Algorithmen wird berechnet. Mithilfe einer zeitlich lokalen Abschneidung des Treibers der BSDE werden quadratische BSDE auf lokal Lipschitz-stetige BSDE zurückgeführt. Es wird gezeigt, dass die Komplexität der Algorithmen im lokal Lipschitz-stetigen Fall vergleichbar zu ihrer Komplexität im global Lipschitz-stetigen Fall ist. Es wird auch gezeigt, dass der Vergleich mit bereits für Lipschitz-stetige BSDE existierenden Methoden für die hier vorgestellten Algorithmen positiv ausfällt. / The focus of the thesis is to develop efficient numerical schemes for quadratic and locally Lipschitz decoupled forward-backward stochastic differential equations (BSDEs). The terminal conditions satisfy weak regularity conditions. Although BSDEs have valuable applications in the theory of financial mathematics, stochastic control and partial differential equations, few efficient numerical schemes are available. Three algorithms based on Monte Carlo simulation are developed. Starting from a discrete time scheme, least-square regression is used to approximate conditional expectation. One benefit of these schemes is that they require as an input only the simulations of an explanatory process X and a Brownian motion W. Due to the use of distribution-free tools, one requires only very weak conditions on the explanatory process X, meaning that these methods can be applied to very general probability spaces. Explicit upper bounds for the error are obtained. The algorithms are then calibrated systematically based on the upper bounds of the error and the complexity is computed. Using a time-local truncation of the BSDE driver, the quadratic BSDE is reduced to a locally Lipschitz BSDE, and it is shown that the complexity of the algorithms for the locally Lipschitz BSDE is the same as that of the algorithm of a uniformly Lipschitz BSDE. It is also shown that these algorithms are competitive compared to other available algorithms for uniformly Lipschitz BSDEs.

Page generated in 0.0393 seconds