• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 8
  • 2
  • 1
  • Tagged with
  • 25
  • 15
  • 15
  • 9
  • 9
  • 9
  • 6
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processing

Ziehe, Andreas January 2005 (has links)
<p>This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals.</p> <P> In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization.</p> <P> As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed.</p> <P> These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms.</p> <P> Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings.</p> / <p>Diese Arbeit befasst sich mit der Lösung des Problems der blinden Signalquellentrennung (BSS). Das BSS Problem tritt häufig in vielen wissenschaftlichen und technischen Anwendungen auf. Im Kern besteht das Problem darin, aus einem Gemisch von überlagerten Signalen die zugrundeliegenden Quellsignale zu extrahieren.</p> <P> In wissenschaftlichen Publikationen zu diesem Thema werden hauptsächlich zwei Lösungsansätze verfolgt:</p> <P> Ein Ansatz ist die sogenannte "Analyse der unabhängigen Komponenten", die zum Ziel hat, eine lineare Transformation <B>V</B> der Daten <B>X</B> zu finden, sodass die Komponenten U<sub>n</sub> der transformierten Daten <B>U</B> = <B> V X</B> (die sogenannten "independent components") so unabhängig wie möglich sind. Ein anderer Ansatz beruht auf einer simultanen Diagonalisierung mehrerer spezieller Matrizen, die aus den Daten gebildet werden. Diese Möglichkeit der Lösung des Problems der blinden Signalquellentrennung bildet den Schwerpunkt dieser Arbeit.</p> <P> Als Hauptbeitrag der vorliegenden Arbeit präsentieren wir neue Algorithmen zur simultanen Diagonalisierung mehrerer Matrizen mit Hilfe einer nicht-orthogonalen Transformation.</p> <P> Die neu entwickelten Algorithmen werden anhand von numerischen Simulationen getestet und mit bereits bestehenden Diagonalisierungsalgorithmen verglichen. Es zeigt sich, dass unser neues Verfahren sehr effizient und leistungsfähig ist. Schließlich werden Anwendungen der BSS Methoden auf Probleme der biomedizinischen Signalverarbeitung erläutert und anhand von realistischen biomagnetischen Messdaten wird die Nützlichkeit in der explorativen Datenanalyse unter Beweis gestellt.</p>
12

Prognosefaktoren und Indikationsstellung bei der Behandlung kolorektaler Lebermetastasen

Sammain, Simon Nadim 17 January 2011 (has links) (PDF)
Ziel der vorliegenden Arbeit ist die retrospektive Beurteilung der Sicherheit und Effektivität der Leberteilresektion bei der Behandlung von Lebermetastasen des kolorektalen Karzinoms sowie der Re-Resektion bei Patienten mit Rezidivlebermetastasen. Weiterhin soll das operative Vorgehen bei synchronen Lebermetastasen hinsichtlich simultaner Resektionsverfahren und zweizeitigen Vorgehens untersucht werden. Insgesamt wurden die Ergebnisse von 660 Patienten ausgewertet, die zwischen 1988 und 2004 mit 685 Leberteilresektionen behandelt wurden. Unter diesen waren 75 Patienten, die eine Re-Resektion erhielten sowie 202 Patienten, bei denen die Lebermetastasen synchron auftraten. Neben der Analyse der postoperativen Letalität und postoperativen Komplikationen sollen prognostische Faktoren für das Langzeitüberleben und das Auftreten von Tumorrezidiven nach Leberteilresektion identifiziert werden. Da sich die Studienpopulation aus einem Zeitraum von über 15 Jahren rekrutiert, sollen außerdem verschiedene Zeitabschnitte vergleichend analysiert werden. Die Leberteilresektion ist derzeit die einzige potentiell kurative Therapie bei kolorektalen Lebermetastasen. Als prognostisch günstige Parameter in der multivariaten Analyse zeigten sich die Radikalität des Eingriffes, die Anzahl der Metastasen, vorhandene ligamentäre Lymph-knotenmetastasen sowie das Jahr der Resektion. Auch bei Rezidiven kolorektaler Lebermetastasen ist das chirurgische Vorgehen derzeit die einzige kurative Intervention. Re-Resektionen weisen ein vergleichbares operatives Risiko und vergleichbare Langzeitüberlebensraten auf wie Erstresektionen. Als einziger prognostischer Parameter für das Langzeitüberleben erwies sich in der multivariaten Analyse die Radikalität des Eingriffes. Bei synchronen Lebermetastasen sind die wichtigsten Kriterien, um eine simultane Resektion durchzuführen, die Berücksichtigung des Alters sowie des Resektionsausmaßes. Simultane Resektionen sind bei synchronen kolorektalen Lebermetastasen dann so sicher und effizient durchführbar wie Resektionen im zweizeitigen Vorgehen.
13

Simultane Zwillingspolymerisation von Silizium- und Borzwillingsmonomeren

Weißhuhn, Julia 04 July 2018 (has links)
In der vorliegenden Arbeit wurden Bor- und Siliziumzwillingsmonomere mit Salicylalkohol und Methoxybenzylalkohol als Reaktanden synthetisiert. Die erhaltenen Verbindungen wurden mittels spektroskopischer Methoden charakterisiert und anhand von thermischen Analysemethoden umfassend hinsichtlich ihrer Polymerisierbarkeit untersucht. Durch die Kombination verschiedener Monomere in der Simultanen Zwillingspolymerisation gelang es, organisch-anorganische, nanostrukturierte Hybridmaterialien herzustellen. Die säure- und basenkatalysierte Simultane Zwillingspolymerisation von 2,2’-Spirobi[4H-1,3,2-benzodioxasilin] und 2,2’-disubstituierten 4H-1,3,2-Benzodioxasilin-Zwillingsmonomeren ermöglichte es, Hybridmaterialien bestehend aus Siliziumdioxid, Polysiloxan und Phenolharz zu synthetisieren. Der Einfluss der verschiedenen Substituenten am Silizium auf die Ausbildung des anorganischen Netzwerkes wurde mittels Festkörper-NMR-Spektroskopie untersucht. Die mechanischen Eigenschaften der Hybridmaterialien wurden mittels Nanoindentation analysiert. Das Tetra-n-butylammonium-bis(ortho-hydroxymethylphenolato)borat wurde gemeinsam mit 2,2’-Spirobi[4H-1,3,2-benzodioxasilin] zu einem Hybridmaterial aus Siliziumdioxid, Boroxid und Phenolharz umgesetzt. Hier erfolgte die Aufklärung der molekularen Struktur neben der Festkörper-NMR-Spektroskopie vorwiegend mittels IR- und Röntgenphotoelektronenspektroskopie. Die erhaltenen Materialien wurden mittels TGA-Messungen an Luft und UL94 hinsichtlich ihrer Eignung als Flammschutzmaterialien untersucht. Die Herstellung von Siliziumdioxid/Boroxid/Anisolharz-Hybridmaterialien gelang durch die Alternierende Simultane Zwillingspolymerisation von methoxysubstituierten Zwillingsmonomeren. Hierbei stand die Kombination von Monomeren mit unterschiedlichen Reaktivitäten bezüglich der Carbeniumionenstabilität und der pi-Nukleophilie im Vordergrund, um den Einfluss auf das Reaktionsverhalten und die Produktbildung zu untersuchen. Weiterhin wurden aus den Hybridmaterialien zudem poröse Kohlenstoffe und Oxide hergestellt und deren Eigenschaften mittels Stickstoffsorptionsmessungen analysiert.
14

Generalized quantile regression

Guo, Mengmeng 22 August 2012 (has links)
Die generalisierte Quantilregression, einschließlich der Sonderfälle bedingter Quantile und Expektile, ist insbesondere dann eine nützliche Alternative zum bedingten Mittel bei der Charakterisierung einer bedingten Wahrscheinlichkeitsverteilung, wenn das Hauptinteresse in den Tails der Verteilung liegt. Wir bezeichnen mit v_n(x) den Kerndichteschätzer der Expektilkurve und zeigen die stark gleichmßige Konsistenzrate von v-n(x) unter allgemeinen Bedingungen. Unter Zuhilfenahme von Extremwerttheorie und starken Approximationen der empirischen Prozesse betrachten wir die asymptotischen maximalen Abweichungen sup06x61 |v_n(x) − v(x)|. Nach Vorbild der asymptotischen Theorie konstruieren wir simultane Konfidenzb änder um die geschätzte Expektilfunktion. Wir entwickeln einen funktionalen Datenanalyseansatz um eine Familie von generalisierten Quantilregressionen gemeinsam zu schätzen. Dabei gehen wir in unserem Ansatz davon aus, dass die generalisierten Quantile einige gemeinsame Merkmale teilen, welche durch eine geringe Anzahl von Hauptkomponenten zusammengefasst werden können. Die Hauptkomponenten sind als Splinefunktionen modelliert und werden durch Minimierung eines penalisierten asymmetrischen Verlustmaßes gesch¨atzt. Zur Berechnung wird ein iterativ gewichteter Kleinste-Quadrate-Algorithmus entwickelt. Während die separate Schätzung von individuell generalisierten Quantilregressionen normalerweise unter großer Variablit¨at durch fehlende Daten leidet, verbessert unser Ansatz der gemeinsamen Schätzung die Effizienz signifikant. Dies haben wir in einer Simulationsstudie demonstriert. Unsere vorgeschlagene Methode haben wir auf einen Datensatz von 150 Wetterstationen in China angewendet, um die generalisierten Quantilkurven der Volatilität der Temperatur von diesen Stationen zu erhalten / Generalized quantile regressions, including the conditional quantiles and expectiles as special cases, are useful alternatives to the conditional means for characterizing a conditional distribution, especially when the interest lies in the tails. We denote $v_n(x)$ as the kernel smoothing estimator of the expectile curves. We prove the strong uniform consistency rate of $v_{n}(x)$ under general conditions. Moreover, using strong approximations of the empirical process and extreme value theory, we consider the asymptotic maximal deviation $\sup_{ 0 \leqslant x \leqslant 1 }|v_n(x)-v(x)|$. According to the asymptotic theory, we construct simultaneous confidence bands around the estimated expectile function. We develop a functional data analysis approach to jointly estimate a family of generalized quantile regressions. Our approach assumes that the generalized quantiles share some common features that can be summarized by a small number of principal components functions. The principal components are modeled as spline functions and are estimated by minimizing a penalized asymmetric loss measure. An iteratively reweighted least squares algorithm is developed for computation. While separate estimation of individual generalized quantile regressions usually suffers from large variability due to lack of sufficient data, by borrowing strength across data sets, our joint estimation approach significantly improves the estimation efficiency, which is demonstrated in a simulation study. The proposed method is applied to data from 150 weather stations in China to obtain the generalized quantile curves of the volatility of the temperature at these stations
15

Erweiterung der Verkehrsnachfragemodellierung um Aspekte der Raum- und Infrastrukturplanung / Extension of traffic demand modeling by considerations of land use and infrastructure planning

Schiller, Christian 09 August 2007 (has links) (PDF)
Diese Arbeit stellt grundlegend zwei Modellentwicklungen der Verkehrsangebots- und Verkehrsnachfragemodellierung vor. Die erste Entwicklung bezieht sich auf die simultane Ziel- und Verkehrsmittelwahl in Abhängigkeit von Strukturgrößen und/oder Lagegunst. Es werden neue Randsummenbedingungen beschrieben und vorhandene neu definiert. Der neue Modellansatz erlaubt eine Bestimmung minimaler und maximaler Verkehrsaufkommen und stellt eine Erweiterung der theoretischen Grundlagen als auch der praktischen Anwendbarkeit dar. So können alle derzeit bekannten Randsummenbedingungen durch einen Algorithmus (auch innerhalb einer Quelle-Ziel-Gruppe) berechnet werden. Der zweite Ansatz ist ein Werkzeug, welches in Abhängigkeit des vorhandenen Verkehrsangebotes verkehrsplanerisch wünschenswerte quantitative Flächen- bzw. Gebietsnutzungen abschätzt. Aufbauend auf der Verkehrsangebots- und Verkehrsnachfragemodellierung werden Infrastrukturgrößen durch eine aufzustellende Zielfunktion (z. B. minimale Verkehrsarbeit), unter Beachtung vorhandener Freiheitsgrade der Flächennutzung je Verkehrsbezirk, optimiert. Diese Freiheitsgrade werden als minimale und maximale Strukturgrößengrenzen durch die Raum- und Stadtplanung definiert, womit sie den vielfältigen Einflussgrößen dieser Planungen unterliegen und dadurch städtebaulich verträglich sind. Der Modellansatz bildet die für die Infrastrukturplanung wichtigen Wechselwirkungen des durch den Stadt- und Verkehrsplaner angestrebten Systemoptimums (Infrastrukturgrößenverteilung eines Gebietes) mit dem durch den einzelnen Verkehrsteilnehmer angestrebten Nutzenoptimum (Verkehrsnachfrage) ab. / This work basically introduces two model developments of traffic supply and traffic demand modeling. The first development refers to the simultaneous destination and mode choice into dependence of structure sizes and/or accessibility. New constraints are described and available constraints were defined newly. The new model enables the determination of minimal and maximum volumes of traffic (constraints). The new explanatory model is an expansion of the theoretical bases and the practical applicability. So all currently known constraints can be calculated by one algorithm (also within an origin destination group). The second approach is a tool which describes desirable quantitative traffic planningly land uses against the available traffic supply. It uses an algorithm that keeps minimal and maximum structure size limits while it determining e.g. minimal traffic work. Within the algorithm the complete traffic demand will be calculated. The complete model shows the important interactions of the infrastructure planning by the town and transport planer (a striven system optimum) with the traffic demand by the single road user (a striven user equilibrium).
16

Simulation of Unsteady Gas-Particle Flows including Two-way and Four-way Coupling on a MIMD Computer Architectur

Pachler, Klaus, Frank, Thomas, Bernert, Klaus 17 April 2002 (has links) (PDF)
The transport or the separation of solid particles or droplets suspended in a fluid flow is a common task in mechanical and process engineering. To improve machinery and physical processes (e.g. for coal combustion, reduction of NO_x and soot) an optimization of complex phenomena by simulation applying the fundamental conservation equations is required. Fluid-particle flows are characterized by the ratio of density of the two phases gamma=rho_P/rho_F, by the Stokes number St=tau_P/tau_F and by the loading in terms of void and mass fraction. Those numbers (Stokes number, gamma) define the flow regime and which relevant forces are acting on the particle. Dependent on the geometrical configuration the particle-wall interaction might have a heavy impact on the mean flow structure. The occurrence of particle-particle collisions becomes also more and more important with the increase of the local void fraction of the particulate phase. With increase of the particle loading the interaction with the fluid phase can not been neglected and 2-way or even 4-way coupling between the continous and disperse phases has to be taken into account. For dilute to moderate dense particle flows the Euler-Lagrange method is capable to resolve the main flow mechanism. An accurate computation needs unfortunately a high number of numerical particles (1,...,10^7) to get the reliable statistics for the underlying modelling correlations. Due to the fact that a Lagrangian algorithm cannot be vectorized for complex meshes the only way to finish those simulations in a reasonable time is the parallization applying the message passing paradigma. Frank et al. describes the basic ideas for a parallel Eulererian-Lagrangian solver, which uses multigrid for acceleration of the flow equations. The performance figures are quite good, though only steady problems are tackled. The presented paper is aimed to the numerical prediction of time-dependend fluid-particle flows using the simultanous particle tracking approach based on the Eulerian-Lagrangian and the particle-source-in-cell (PSI-Cell) approach. It is shown in the paper that for the unsteady flow prediction efficiency and load balancing of the parallel numerical simulation is an even more pronounced problem in comparison with the steady flow calculations, because the time steps for the time integration along one particle trajectory are very small per one time step of fluid flow integration and so the floating point workload on a single processor node is usualy rather low. Much time is spent for communication and waiting time of the processors, because for cold flow particle convection not very extensive calculations are necessary. One remedy might be a highspeed switch like Myrinet or Dolphin PCI/SCI (500 MByte/s), which could balance the relative high floating point performance of INTEL PIII processors and the weak capacity of the Fast-Ethernet communication network (100 Mbit/s) of the Chemnitz Linux Cluster (CLIC) used for the presented calculations. Corresponding to the discussed examples calculation times and parallel performance will be presented. Another point is the communication of many small packages, which should be summed up to bigger messages, because each message requires a startup time independently of its size. Summarising the potential of such a parallel algorithm, it will be shown that a Beowulf-type cluster computer is a highly competitve alternative to the classical main frame computer for the investigated Eulerian-Lagrangian simultanous particle tracking approach.
17

Confidence bands for structural relationship models / Konfidenbänder für strukturelle Modelle

Valeinis, Janis 18 January 2007 (has links)
No description available.
18

Estimation and Inference in Special Nonparametric Models with Applications to Topics in Development Economics / Schätzung und Inferenz in speziellen nichtparametrischen Modellen mit Andwendungen in der Entwicklungsökonomie

Wiesenfarth, Manuel 11 May 2012 (has links)
No description available.
19

Simulation of Unsteady Gas-Particle Flows including Two-way and Four-way Coupling on a MIMD Computer Architectur

Pachler, Klaus, Frank, Thomas, Bernert, Klaus 17 April 2002 (has links)
The transport or the separation of solid particles or droplets suspended in a fluid flow is a common task in mechanical and process engineering. To improve machinery and physical processes (e.g. for coal combustion, reduction of NO_x and soot) an optimization of complex phenomena by simulation applying the fundamental conservation equations is required. Fluid-particle flows are characterized by the ratio of density of the two phases gamma=rho_P/rho_F, by the Stokes number St=tau_P/tau_F and by the loading in terms of void and mass fraction. Those numbers (Stokes number, gamma) define the flow regime and which relevant forces are acting on the particle. Dependent on the geometrical configuration the particle-wall interaction might have a heavy impact on the mean flow structure. The occurrence of particle-particle collisions becomes also more and more important with the increase of the local void fraction of the particulate phase. With increase of the particle loading the interaction with the fluid phase can not been neglected and 2-way or even 4-way coupling between the continous and disperse phases has to be taken into account. For dilute to moderate dense particle flows the Euler-Lagrange method is capable to resolve the main flow mechanism. An accurate computation needs unfortunately a high number of numerical particles (1,...,10^7) to get the reliable statistics for the underlying modelling correlations. Due to the fact that a Lagrangian algorithm cannot be vectorized for complex meshes the only way to finish those simulations in a reasonable time is the parallization applying the message passing paradigma. Frank et al. describes the basic ideas for a parallel Eulererian-Lagrangian solver, which uses multigrid for acceleration of the flow equations. The performance figures are quite good, though only steady problems are tackled. The presented paper is aimed to the numerical prediction of time-dependend fluid-particle flows using the simultanous particle tracking approach based on the Eulerian-Lagrangian and the particle-source-in-cell (PSI-Cell) approach. It is shown in the paper that for the unsteady flow prediction efficiency and load balancing of the parallel numerical simulation is an even more pronounced problem in comparison with the steady flow calculations, because the time steps for the time integration along one particle trajectory are very small per one time step of fluid flow integration and so the floating point workload on a single processor node is usualy rather low. Much time is spent for communication and waiting time of the processors, because for cold flow particle convection not very extensive calculations are necessary. One remedy might be a highspeed switch like Myrinet or Dolphin PCI/SCI (500 MByte/s), which could balance the relative high floating point performance of INTEL PIII processors and the weak capacity of the Fast-Ethernet communication network (100 Mbit/s) of the Chemnitz Linux Cluster (CLIC) used for the presented calculations. Corresponding to the discussed examples calculation times and parallel performance will be presented. Another point is the communication of many small packages, which should be summed up to bigger messages, because each message requires a startup time independently of its size. Summarising the potential of such a parallel algorithm, it will be shown that a Beowulf-type cluster computer is a highly competitve alternative to the classical main frame computer for the investigated Eulerian-Lagrangian simultanous particle tracking approach.
20

Erweiterung der Verkehrsnachfragemodellierung um Aspekte der Raum- und Infrastrukturplanung

Schiller, Christian 11 July 2007 (has links)
Diese Arbeit stellt grundlegend zwei Modellentwicklungen der Verkehrsangebots- und Verkehrsnachfragemodellierung vor. Die erste Entwicklung bezieht sich auf die simultane Ziel- und Verkehrsmittelwahl in Abhängigkeit von Strukturgrößen und/oder Lagegunst. Es werden neue Randsummenbedingungen beschrieben und vorhandene neu definiert. Der neue Modellansatz erlaubt eine Bestimmung minimaler und maximaler Verkehrsaufkommen und stellt eine Erweiterung der theoretischen Grundlagen als auch der praktischen Anwendbarkeit dar. So können alle derzeit bekannten Randsummenbedingungen durch einen Algorithmus (auch innerhalb einer Quelle-Ziel-Gruppe) berechnet werden. Der zweite Ansatz ist ein Werkzeug, welches in Abhängigkeit des vorhandenen Verkehrsangebotes verkehrsplanerisch wünschenswerte quantitative Flächen- bzw. Gebietsnutzungen abschätzt. Aufbauend auf der Verkehrsangebots- und Verkehrsnachfragemodellierung werden Infrastrukturgrößen durch eine aufzustellende Zielfunktion (z. B. minimale Verkehrsarbeit), unter Beachtung vorhandener Freiheitsgrade der Flächennutzung je Verkehrsbezirk, optimiert. Diese Freiheitsgrade werden als minimale und maximale Strukturgrößengrenzen durch die Raum- und Stadtplanung definiert, womit sie den vielfältigen Einflussgrößen dieser Planungen unterliegen und dadurch städtebaulich verträglich sind. Der Modellansatz bildet die für die Infrastrukturplanung wichtigen Wechselwirkungen des durch den Stadt- und Verkehrsplaner angestrebten Systemoptimums (Infrastrukturgrößenverteilung eines Gebietes) mit dem durch den einzelnen Verkehrsteilnehmer angestrebten Nutzenoptimum (Verkehrsnachfrage) ab. / This work basically introduces two model developments of traffic supply and traffic demand modeling. The first development refers to the simultaneous destination and mode choice into dependence of structure sizes and/or accessibility. New constraints are described and available constraints were defined newly. The new model enables the determination of minimal and maximum volumes of traffic (constraints). The new explanatory model is an expansion of the theoretical bases and the practical applicability. So all currently known constraints can be calculated by one algorithm (also within an origin destination group). The second approach is a tool which describes desirable quantitative traffic planningly land uses against the available traffic supply. It uses an algorithm that keeps minimal and maximum structure size limits while it determining e.g. minimal traffic work. Within the algorithm the complete traffic demand will be calculated. The complete model shows the important interactions of the infrastructure planning by the town and transport planer (a striven system optimum) with the traffic demand by the single road user (a striven user equilibrium).

Page generated in 0.0474 seconds