• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 8
  • 2
  • 1
  • Tagged with
  • 25
  • 15
  • 15
  • 9
  • 9
  • 9
  • 6
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Prognosefaktoren und Indikationsstellung bei der Behandlung kolorektaler Lebermetastasen

Sammain, Simon Nadim 17 January 2011 (has links) (PDF)
Ziel der vorliegenden Arbeit ist die retrospektive Beurteilung der Sicherheit und Effektivität der Leberteilresektion bei der Behandlung von Lebermetastasen des kolorektalen Karzinoms sowie der Re-Resektion bei Patienten mit Rezidivlebermetastasen. Weiterhin soll das operative Vorgehen bei synchronen Lebermetastasen hinsichtlich simultaner Resektionsverfahren und zweizeitigen Vorgehens untersucht werden. Insgesamt wurden die Ergebnisse von 660 Patienten ausgewertet, die zwischen 1988 und 2004 mit 685 Leberteilresektionen behandelt wurden. Unter diesen waren 75 Patienten, die eine Re-Resektion erhielten sowie 202 Patienten, bei denen die Lebermetastasen synchron auftraten. Neben der Analyse der postoperativen Letalität und postoperativen Komplikationen sollen prognostische Faktoren für das Langzeitüberleben und das Auftreten von Tumorrezidiven nach Leberteilresektion identifiziert werden. Da sich die Studienpopulation aus einem Zeitraum von über 15 Jahren rekrutiert, sollen außerdem verschiedene Zeitabschnitte vergleichend analysiert werden. Die Leberteilresektion ist derzeit die einzige potentiell kurative Therapie bei kolorektalen Lebermetastasen. Als prognostisch günstige Parameter in der multivariaten Analyse zeigten sich die Radikalität des Eingriffes, die Anzahl der Metastasen, vorhandene ligamentäre Lymph-knotenmetastasen sowie das Jahr der Resektion. Auch bei Rezidiven kolorektaler Lebermetastasen ist das chirurgische Vorgehen derzeit die einzige kurative Intervention. Re-Resektionen weisen ein vergleichbares operatives Risiko und vergleichbare Langzeitüberlebensraten auf wie Erstresektionen. Als einziger prognostischer Parameter für das Langzeitüberleben erwies sich in der multivariaten Analyse die Radikalität des Eingriffes. Bei synchronen Lebermetastasen sind die wichtigsten Kriterien, um eine simultane Resektion durchzuführen, die Berücksichtigung des Alters sowie des Resektionsausmaßes. Simultane Resektionen sind bei synchronen kolorektalen Lebermetastasen dann so sicher und effizient durchführbar wie Resektionen im zweizeitigen Vorgehen.
12

Simultane Zwillingspolymerisation von Silizium- und Borzwillingsmonomeren

Weißhuhn, Julia 04 July 2018 (has links)
In der vorliegenden Arbeit wurden Bor- und Siliziumzwillingsmonomere mit Salicylalkohol und Methoxybenzylalkohol als Reaktanden synthetisiert. Die erhaltenen Verbindungen wurden mittels spektroskopischer Methoden charakterisiert und anhand von thermischen Analysemethoden umfassend hinsichtlich ihrer Polymerisierbarkeit untersucht. Durch die Kombination verschiedener Monomere in der Simultanen Zwillingspolymerisation gelang es, organisch-anorganische, nanostrukturierte Hybridmaterialien herzustellen. Die säure- und basenkatalysierte Simultane Zwillingspolymerisation von 2,2’-Spirobi[4H-1,3,2-benzodioxasilin] und 2,2’-disubstituierten 4H-1,3,2-Benzodioxasilin-Zwillingsmonomeren ermöglichte es, Hybridmaterialien bestehend aus Siliziumdioxid, Polysiloxan und Phenolharz zu synthetisieren. Der Einfluss der verschiedenen Substituenten am Silizium auf die Ausbildung des anorganischen Netzwerkes wurde mittels Festkörper-NMR-Spektroskopie untersucht. Die mechanischen Eigenschaften der Hybridmaterialien wurden mittels Nanoindentation analysiert. Das Tetra-n-butylammonium-bis(ortho-hydroxymethylphenolato)borat wurde gemeinsam mit 2,2’-Spirobi[4H-1,3,2-benzodioxasilin] zu einem Hybridmaterial aus Siliziumdioxid, Boroxid und Phenolharz umgesetzt. Hier erfolgte die Aufklärung der molekularen Struktur neben der Festkörper-NMR-Spektroskopie vorwiegend mittels IR- und Röntgenphotoelektronenspektroskopie. Die erhaltenen Materialien wurden mittels TGA-Messungen an Luft und UL94 hinsichtlich ihrer Eignung als Flammschutzmaterialien untersucht. Die Herstellung von Siliziumdioxid/Boroxid/Anisolharz-Hybridmaterialien gelang durch die Alternierende Simultane Zwillingspolymerisation von methoxysubstituierten Zwillingsmonomeren. Hierbei stand die Kombination von Monomeren mit unterschiedlichen Reaktivitäten bezüglich der Carbeniumionenstabilität und der pi-Nukleophilie im Vordergrund, um den Einfluss auf das Reaktionsverhalten und die Produktbildung zu untersuchen. Weiterhin wurden aus den Hybridmaterialien zudem poröse Kohlenstoffe und Oxide hergestellt und deren Eigenschaften mittels Stickstoffsorptionsmessungen analysiert.
13

Generalized quantile regression

Guo, Mengmeng 22 August 2012 (has links)
Die generalisierte Quantilregression, einschließlich der Sonderfälle bedingter Quantile und Expektile, ist insbesondere dann eine nützliche Alternative zum bedingten Mittel bei der Charakterisierung einer bedingten Wahrscheinlichkeitsverteilung, wenn das Hauptinteresse in den Tails der Verteilung liegt. Wir bezeichnen mit v_n(x) den Kerndichteschätzer der Expektilkurve und zeigen die stark gleichmßige Konsistenzrate von v-n(x) unter allgemeinen Bedingungen. Unter Zuhilfenahme von Extremwerttheorie und starken Approximationen der empirischen Prozesse betrachten wir die asymptotischen maximalen Abweichungen sup06x61 |v_n(x) − v(x)|. Nach Vorbild der asymptotischen Theorie konstruieren wir simultane Konfidenzb änder um die geschätzte Expektilfunktion. Wir entwickeln einen funktionalen Datenanalyseansatz um eine Familie von generalisierten Quantilregressionen gemeinsam zu schätzen. Dabei gehen wir in unserem Ansatz davon aus, dass die generalisierten Quantile einige gemeinsame Merkmale teilen, welche durch eine geringe Anzahl von Hauptkomponenten zusammengefasst werden können. Die Hauptkomponenten sind als Splinefunktionen modelliert und werden durch Minimierung eines penalisierten asymmetrischen Verlustmaßes gesch¨atzt. Zur Berechnung wird ein iterativ gewichteter Kleinste-Quadrate-Algorithmus entwickelt. Während die separate Schätzung von individuell generalisierten Quantilregressionen normalerweise unter großer Variablit¨at durch fehlende Daten leidet, verbessert unser Ansatz der gemeinsamen Schätzung die Effizienz signifikant. Dies haben wir in einer Simulationsstudie demonstriert. Unsere vorgeschlagene Methode haben wir auf einen Datensatz von 150 Wetterstationen in China angewendet, um die generalisierten Quantilkurven der Volatilität der Temperatur von diesen Stationen zu erhalten / Generalized quantile regressions, including the conditional quantiles and expectiles as special cases, are useful alternatives to the conditional means for characterizing a conditional distribution, especially when the interest lies in the tails. We denote $v_n(x)$ as the kernel smoothing estimator of the expectile curves. We prove the strong uniform consistency rate of $v_{n}(x)$ under general conditions. Moreover, using strong approximations of the empirical process and extreme value theory, we consider the asymptotic maximal deviation $\sup_{ 0 \leqslant x \leqslant 1 }|v_n(x)-v(x)|$. According to the asymptotic theory, we construct simultaneous confidence bands around the estimated expectile function. We develop a functional data analysis approach to jointly estimate a family of generalized quantile regressions. Our approach assumes that the generalized quantiles share some common features that can be summarized by a small number of principal components functions. The principal components are modeled as spline functions and are estimated by minimizing a penalized asymmetric loss measure. An iteratively reweighted least squares algorithm is developed for computation. While separate estimation of individual generalized quantile regressions usually suffers from large variability due to lack of sufficient data, by borrowing strength across data sets, our joint estimation approach significantly improves the estimation efficiency, which is demonstrated in a simulation study. The proposed method is applied to data from 150 weather stations in China to obtain the generalized quantile curves of the volatility of the temperature at these stations
14

Bootstrap confidence sets under model misspecification

Zhilova, Mayya 07 December 2015 (has links)
Diese Arbeit befasst sich mit einem Multiplier-Bootstrap Verfahren für die Konstruktion von Likelihood-basierten Konfidenzbereichen in zwei verschiedenen Fällen. Im ersten Fall betrachten wir das Verfahren für ein einzelnes parametrisches Modell und im zweiten Fall erweitern wir die Methode, um Konfidenzbereiche für eine ganze Familie von parametrischen Modellen simultan zu schätzen. Theoretische Resultate zeigen die Validität der Bootstrap-Prozedur für eine potenziell begrenzte Anzahl an Beobachtungen, eine große Anzahl an betrachteten parametrischen Modellen, wachsende Parameterdimensionen und eine mögliche Misspezifizierung der parametrischen Annahmen. Im Falle eines einzelnen parametrischen Modells funktioniert die Bootstrap-Approximation, wenn die dritte Potenz der Parameterdimension ist kleiner als die Anzahl an Beobachtungen. Das Hauptresultat über die Validität des Bootstrap gilt unter der sogenannten Small-Modeling-Bias Bedingung auch im Falle, dass das parametrische Modell misspezifiert ist. Wenn das wahre Modell signifikant von der betrachteten parametrischen Familie abweicht, ist das Bootstrap Verfahren weiterhin anwendbar, aber es führt zu etwas konservativeren Schätzungen: die Konfidenzbereiche werden durch den Modellfehler vergrößert. Für die Konstruktion von simultanen Konfidenzbereichen entwickeln wir ein Multiplier-Bootstrap Verfahren um die Quantile der gemeinsamen Verteilung der Likelihood-Quotienten zu schätzen und eine Multiplizitätskorrektur der Konfidenzlevels vorzunehmen. Theoretische Ergebnisse zeigen die Validität des Verfahrens; die resultierende Approximationsfehler hängt von der Anzahl an betrachteten parametrischen Modellen logarithmisch. Hier betrachten wir auch wieder den Fall, dass die parametrischen Modelle misspezifiziert sind. Wenn die Misspezifikation signifikant ist, werden Bootstrap-generierten kritischen Werte größer als die wahren Werte sein und die Bootstrap-Konfidenzmengen sind konservativ. / The thesis studies a multiplier bootstrap procedure for construction of likelihood-based confidence sets in two cases. The first one focuses on a single parametric model, while the second case extends the construction to simultaneous confidence estimation for a collection of parametric models. Theoretical results justify the validity of the bootstrap procedure for a limited sample size, a large number of considered parametric models, growing parameters’ dimensions, and possible misspecification of the parametric assumptions. In the case of one parametric model the bootstrap approximation works if the cube of the parametric dimension is smaller than the sample size. The main result about bootstrap validity continues to apply even if the underlying parametric model is misspecified under a so-called small modelling bias condition. If the true model deviates significantly from the considered parametric family, the bootstrap procedure is still applicable but it becomes conservative: the size of the constructed confidence sets is increased by the modelling bias. For the problem of construction of simultaneous confidence sets we suggest a multiplier bootstrap procedure for estimating a joint distribution of the likelihood ratio statistics, and for adjustment of the confidence level for multiplicity. Theoretical results state the bootstrap validity; a number of parametric models enters a resulting approximation error logarithmically. Here we also consider the case when parametric models are misspecified. If the misspecification is significant, then the bootstrap critical values exceed the true ones and the bootstrap confidence set becomes conservative. The theoretical approach includes non-asymptotic square-root Wilks theorem, Gaussian approximation of Euclidean norm of a sum of independent vectors, comparison and anti-concentration bounds for Euclidean norm of Gaussian vectors. Numerical experiments for misspecified regression models nicely confirm our theoretical results.
15

Erweiterung der Verkehrsnachfragemodellierung um Aspekte der Raum- und Infrastrukturplanung / Extension of traffic demand modeling by considerations of land use and infrastructure planning

Schiller, Christian 09 August 2007 (has links) (PDF)
Diese Arbeit stellt grundlegend zwei Modellentwicklungen der Verkehrsangebots- und Verkehrsnachfragemodellierung vor. Die erste Entwicklung bezieht sich auf die simultane Ziel- und Verkehrsmittelwahl in Abhängigkeit von Strukturgrößen und/oder Lagegunst. Es werden neue Randsummenbedingungen beschrieben und vorhandene neu definiert. Der neue Modellansatz erlaubt eine Bestimmung minimaler und maximaler Verkehrsaufkommen und stellt eine Erweiterung der theoretischen Grundlagen als auch der praktischen Anwendbarkeit dar. So können alle derzeit bekannten Randsummenbedingungen durch einen Algorithmus (auch innerhalb einer Quelle-Ziel-Gruppe) berechnet werden. Der zweite Ansatz ist ein Werkzeug, welches in Abhängigkeit des vorhandenen Verkehrsangebotes verkehrsplanerisch wünschenswerte quantitative Flächen- bzw. Gebietsnutzungen abschätzt. Aufbauend auf der Verkehrsangebots- und Verkehrsnachfragemodellierung werden Infrastrukturgrößen durch eine aufzustellende Zielfunktion (z. B. minimale Verkehrsarbeit), unter Beachtung vorhandener Freiheitsgrade der Flächennutzung je Verkehrsbezirk, optimiert. Diese Freiheitsgrade werden als minimale und maximale Strukturgrößengrenzen durch die Raum- und Stadtplanung definiert, womit sie den vielfältigen Einflussgrößen dieser Planungen unterliegen und dadurch städtebaulich verträglich sind. Der Modellansatz bildet die für die Infrastrukturplanung wichtigen Wechselwirkungen des durch den Stadt- und Verkehrsplaner angestrebten Systemoptimums (Infrastrukturgrößenverteilung eines Gebietes) mit dem durch den einzelnen Verkehrsteilnehmer angestrebten Nutzenoptimum (Verkehrsnachfrage) ab. / This work basically introduces two model developments of traffic supply and traffic demand modeling. The first development refers to the simultaneous destination and mode choice into dependence of structure sizes and/or accessibility. New constraints are described and available constraints were defined newly. The new model enables the determination of minimal and maximum volumes of traffic (constraints). The new explanatory model is an expansion of the theoretical bases and the practical applicability. So all currently known constraints can be calculated by one algorithm (also within an origin destination group). The second approach is a tool which describes desirable quantitative traffic planningly land uses against the available traffic supply. It uses an algorithm that keeps minimal and maximum structure size limits while it determining e.g. minimal traffic work. Within the algorithm the complete traffic demand will be calculated. The complete model shows the important interactions of the infrastructure planning by the town and transport planer (a striven system optimum) with the traffic demand by the single road user (a striven user equilibrium).
16

Simulation of Unsteady Gas-Particle Flows including Two-way and Four-way Coupling on a MIMD Computer Architectur

Pachler, Klaus, Frank, Thomas, Bernert, Klaus 17 April 2002 (has links) (PDF)
The transport or the separation of solid particles or droplets suspended in a fluid flow is a common task in mechanical and process engineering. To improve machinery and physical processes (e.g. for coal combustion, reduction of NO_x and soot) an optimization of complex phenomena by simulation applying the fundamental conservation equations is required. Fluid-particle flows are characterized by the ratio of density of the two phases gamma=rho_P/rho_F, by the Stokes number St=tau_P/tau_F and by the loading in terms of void and mass fraction. Those numbers (Stokes number, gamma) define the flow regime and which relevant forces are acting on the particle. Dependent on the geometrical configuration the particle-wall interaction might have a heavy impact on the mean flow structure. The occurrence of particle-particle collisions becomes also more and more important with the increase of the local void fraction of the particulate phase. With increase of the particle loading the interaction with the fluid phase can not been neglected and 2-way or even 4-way coupling between the continous and disperse phases has to be taken into account. For dilute to moderate dense particle flows the Euler-Lagrange method is capable to resolve the main flow mechanism. An accurate computation needs unfortunately a high number of numerical particles (1,...,10^7) to get the reliable statistics for the underlying modelling correlations. Due to the fact that a Lagrangian algorithm cannot be vectorized for complex meshes the only way to finish those simulations in a reasonable time is the parallization applying the message passing paradigma. Frank et al. describes the basic ideas for a parallel Eulererian-Lagrangian solver, which uses multigrid for acceleration of the flow equations. The performance figures are quite good, though only steady problems are tackled. The presented paper is aimed to the numerical prediction of time-dependend fluid-particle flows using the simultanous particle tracking approach based on the Eulerian-Lagrangian and the particle-source-in-cell (PSI-Cell) approach. It is shown in the paper that for the unsteady flow prediction efficiency and load balancing of the parallel numerical simulation is an even more pronounced problem in comparison with the steady flow calculations, because the time steps for the time integration along one particle trajectory are very small per one time step of fluid flow integration and so the floating point workload on a single processor node is usualy rather low. Much time is spent for communication and waiting time of the processors, because for cold flow particle convection not very extensive calculations are necessary. One remedy might be a highspeed switch like Myrinet or Dolphin PCI/SCI (500 MByte/s), which could balance the relative high floating point performance of INTEL PIII processors and the weak capacity of the Fast-Ethernet communication network (100 Mbit/s) of the Chemnitz Linux Cluster (CLIC) used for the presented calculations. Corresponding to the discussed examples calculation times and parallel performance will be presented. Another point is the communication of many small packages, which should be summed up to bigger messages, because each message requires a startup time independently of its size. Summarising the potential of such a parallel algorithm, it will be shown that a Beowulf-type cluster computer is a highly competitve alternative to the classical main frame computer for the investigated Eulerian-Lagrangian simultanous particle tracking approach.
17

Confidence bands for structural relationship models / Konfidenbänder für strukturelle Modelle

Valeinis, Janis 18 January 2007 (has links)
No description available.
18

Estimation and Inference in Special Nonparametric Models with Applications to Topics in Development Economics / Schätzung und Inferenz in speziellen nichtparametrischen Modellen mit Andwendungen in der Entwicklungsökonomie

Wiesenfarth, Manuel 11 May 2012 (has links)
No description available.
19

Simulation of Unsteady Gas-Particle Flows including Two-way and Four-way Coupling on a MIMD Computer Architectur

Pachler, Klaus, Frank, Thomas, Bernert, Klaus 17 April 2002 (has links)
The transport or the separation of solid particles or droplets suspended in a fluid flow is a common task in mechanical and process engineering. To improve machinery and physical processes (e.g. for coal combustion, reduction of NO_x and soot) an optimization of complex phenomena by simulation applying the fundamental conservation equations is required. Fluid-particle flows are characterized by the ratio of density of the two phases gamma=rho_P/rho_F, by the Stokes number St=tau_P/tau_F and by the loading in terms of void and mass fraction. Those numbers (Stokes number, gamma) define the flow regime and which relevant forces are acting on the particle. Dependent on the geometrical configuration the particle-wall interaction might have a heavy impact on the mean flow structure. The occurrence of particle-particle collisions becomes also more and more important with the increase of the local void fraction of the particulate phase. With increase of the particle loading the interaction with the fluid phase can not been neglected and 2-way or even 4-way coupling between the continous and disperse phases has to be taken into account. For dilute to moderate dense particle flows the Euler-Lagrange method is capable to resolve the main flow mechanism. An accurate computation needs unfortunately a high number of numerical particles (1,...,10^7) to get the reliable statistics for the underlying modelling correlations. Due to the fact that a Lagrangian algorithm cannot be vectorized for complex meshes the only way to finish those simulations in a reasonable time is the parallization applying the message passing paradigma. Frank et al. describes the basic ideas for a parallel Eulererian-Lagrangian solver, which uses multigrid for acceleration of the flow equations. The performance figures are quite good, though only steady problems are tackled. The presented paper is aimed to the numerical prediction of time-dependend fluid-particle flows using the simultanous particle tracking approach based on the Eulerian-Lagrangian and the particle-source-in-cell (PSI-Cell) approach. It is shown in the paper that for the unsteady flow prediction efficiency and load balancing of the parallel numerical simulation is an even more pronounced problem in comparison with the steady flow calculations, because the time steps for the time integration along one particle trajectory are very small per one time step of fluid flow integration and so the floating point workload on a single processor node is usualy rather low. Much time is spent for communication and waiting time of the processors, because for cold flow particle convection not very extensive calculations are necessary. One remedy might be a highspeed switch like Myrinet or Dolphin PCI/SCI (500 MByte/s), which could balance the relative high floating point performance of INTEL PIII processors and the weak capacity of the Fast-Ethernet communication network (100 Mbit/s) of the Chemnitz Linux Cluster (CLIC) used for the presented calculations. Corresponding to the discussed examples calculation times and parallel performance will be presented. Another point is the communication of many small packages, which should be summed up to bigger messages, because each message requires a startup time independently of its size. Summarising the potential of such a parallel algorithm, it will be shown that a Beowulf-type cluster computer is a highly competitve alternative to the classical main frame computer for the investigated Eulerian-Lagrangian simultanous particle tracking approach.
20

Erweiterung der Verkehrsnachfragemodellierung um Aspekte der Raum- und Infrastrukturplanung

Schiller, Christian 11 July 2007 (has links)
Diese Arbeit stellt grundlegend zwei Modellentwicklungen der Verkehrsangebots- und Verkehrsnachfragemodellierung vor. Die erste Entwicklung bezieht sich auf die simultane Ziel- und Verkehrsmittelwahl in Abhängigkeit von Strukturgrößen und/oder Lagegunst. Es werden neue Randsummenbedingungen beschrieben und vorhandene neu definiert. Der neue Modellansatz erlaubt eine Bestimmung minimaler und maximaler Verkehrsaufkommen und stellt eine Erweiterung der theoretischen Grundlagen als auch der praktischen Anwendbarkeit dar. So können alle derzeit bekannten Randsummenbedingungen durch einen Algorithmus (auch innerhalb einer Quelle-Ziel-Gruppe) berechnet werden. Der zweite Ansatz ist ein Werkzeug, welches in Abhängigkeit des vorhandenen Verkehrsangebotes verkehrsplanerisch wünschenswerte quantitative Flächen- bzw. Gebietsnutzungen abschätzt. Aufbauend auf der Verkehrsangebots- und Verkehrsnachfragemodellierung werden Infrastrukturgrößen durch eine aufzustellende Zielfunktion (z. B. minimale Verkehrsarbeit), unter Beachtung vorhandener Freiheitsgrade der Flächennutzung je Verkehrsbezirk, optimiert. Diese Freiheitsgrade werden als minimale und maximale Strukturgrößengrenzen durch die Raum- und Stadtplanung definiert, womit sie den vielfältigen Einflussgrößen dieser Planungen unterliegen und dadurch städtebaulich verträglich sind. Der Modellansatz bildet die für die Infrastrukturplanung wichtigen Wechselwirkungen des durch den Stadt- und Verkehrsplaner angestrebten Systemoptimums (Infrastrukturgrößenverteilung eines Gebietes) mit dem durch den einzelnen Verkehrsteilnehmer angestrebten Nutzenoptimum (Verkehrsnachfrage) ab. / This work basically introduces two model developments of traffic supply and traffic demand modeling. The first development refers to the simultaneous destination and mode choice into dependence of structure sizes and/or accessibility. New constraints are described and available constraints were defined newly. The new model enables the determination of minimal and maximum volumes of traffic (constraints). The new explanatory model is an expansion of the theoretical bases and the practical applicability. So all currently known constraints can be calculated by one algorithm (also within an origin destination group). The second approach is a tool which describes desirable quantitative traffic planningly land uses against the available traffic supply. It uses an algorithm that keeps minimal and maximum structure size limits while it determining e.g. minimal traffic work. Within the algorithm the complete traffic demand will be calculated. The complete model shows the important interactions of the infrastructure planning by the town and transport planer (a striven system optimum) with the traffic demand by the single road user (a striven user equilibrium).

Page generated in 0.0571 seconds