• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 8
  • 4
  • Tagged with
  • 24
  • 15
  • 12
  • 12
  • 10
  • 9
  • 8
  • 8
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Anwendung der Principal Component Analysis auf die Commodity-Preise

Schmid, Martin. January 2007 (has links) (PDF)
Master-Arbeit Univ. St. Gallen, 2007.
2

Automatic ECG analysis using principal component analysis and wavelet transformation

Khawaja, Antoun January 2006 (has links)
Zugl.: Karlsruhe, Univ., Diss., 2006
3

Automatic ECG analysis using principal component analysis and wavelet transformation

Khawaja, Antoun January 2006 (has links)
Zugl.: Karlsruhe, Univ., Diss., 2006
4

Integration von Kern-Methoden in das medizinische Monitoring /

Lücke-Janssen, Daniela. January 2008 (has links)
Zugl.: Duisburg, Essen, Universiẗat, Diss., 2008.
5

Kombiniert integrierte Veränderungsanalyse zur Schadenskartierung in urbanen Gebieten auf Basis sehr hoch auflösender multispektraler Bilddaten

Tomowski, Daniel 29 July 2011 (has links)
Die vorliegende Arbeit gibt einen Überblick in gängige Verfahren, Texturen sprachlich und mathematisch zu beschreiben sowie über häufig genutzte Methoden der fernerkundlichen Veränderungsanalyse. Ferner werden grundlegende Ansätze zur Qualitätsbewertung erläutert. Darauf aufbauend wird ein neues, dreigliedriges, kombiniertes Verfahren der Veränderungsanalyse für die Anwendung in urbanen Katastrophengebieten vorgestellt. Nach einer Anforderungsanalyse zur Determinierung der genauen Spezifikationen wird hierfür zuerst die Eignung von Texturmerkmalen zur Charakterisierung unterschiedlicher Oberflächen untersucht mit dem Ergebnis, dass das haralicksche Texturmerkmal „Energy“ eine gute Möglichkeit zur Differenzierung von Landbedeckungsklassen darstellt. Im Anschluss wird ein neuer Verfahrensansatz einer kombinierten Veränderungsanalyse vorgestellt und exemplarisch evaluiert, mit dem Resultat, dass die durch eine Farbtexturanalyse und Hauptkomponententransformation automatisiert abgeleitete texturelle Veränderungsinformationen allein zu viele Veränderungen in urbanen Katastrophengebieten anzeigen. Aus diesem Grund werden die texturbasierten Veränderungsinformationen mit spektralen, korrelationsbasierten Veränderungsinformationen über ein entscheidungsbasiertes Netzwerk miteinander kombiniert, um die Veränderung an einzelnen Gebäuden zu determinieren. Basierend auf diesen binären Veränderungsinformationen wird das Ausmaß des Schadens regionsbasiert in Schadensintervallen visualisiert und klassenbasiert evaluiert. Im Ergebnis konnte die exemplarische Einsetzbarkeit und Übertragbarkeit des entwickelten Verfahrens an zwei unterschiedlichen Fallbeispielen demonstriert werden, wobei Gesamtgenauig-keiten von 80,19 % bis 97,69 % erzielt worden sind.
6

Effiziente Einbringung von statistischem Formwissen in die Segmentierung von ATPase gefärbten Muskelfaserbildern

Bornschein, Jens 20 April 2020 (has links)
Diese Arbeit beschäftigt sich mit dem statistischen Mittel der Hauptkomponentenanalyse zur Nutzung bei der Segmentierung von ATPase eingefärbten Muskelfaserzellen. Vorhandenes a priori Wissen wird hierdurch effzient nutzbar gemacht. Dabei wird die Segmentierung durch einen Energieminimierungsprozess auf Level-Set-Funktionen realisiert und eine Konturevolution auf wenigen formbeschreibenden Parametern ermöglicht.:1. Einführung 2. Medizinische Grundlagen 2.1. Muskelfasern 2.2. Myofibrilläre ATPase-Färbung 3. Hauptkomponentenanalyse 3.1. Mathematische Grundlagen und praktische Realisierung 3.1.1. Begriffsbestimmung 3.1.2. Ermittlung der Hauptkomponenten 3.1.3. Approximation und Rücktransformation 3.2. Hauptkomponentenanalyse für hochdimensionale Daten 3.3. Schwachstellen der PCA 3.4. Ein Beispiel 3.5. Zusammenfassung 4. Segmentierung 4.1. Segmentierungsansätze 4.2. Formdaten und statistische Auswertung 4.2.1. Beispieldaten 4.2.2. Formrepräsentation 4.3. Umsetzung der Hauptkomponentenanalyse 4.4. Energieminimierung 4.5. Gradientenabstieg 4.5.1. Probleme und deren Lösungsansätze 4.6. Seeded-Region-Growing-Ansatz 4.7. Zusammenfassung 5. Ergebnisse 6. Zusammenfassung und Ausblick
7

Risikoprämien von Unternehmensanleihen

Lu, Yun 14 November 2013 (has links) (PDF)
Die Risikoprämie einer Unternehmensanleihe dient prinzipiell der wirtschaftlichen Kompensation für die Übernahme zusätzlicher Risiken gegenüber den Risiken der Benchmark. Allerdings findet sich in der bisher veröffentlichen Literatur eine Vielzahl von den praktischen Messkonzepten, die in vielen Fällen nicht fehlerfrei und problemlos zustande gekommen sind. Daher ist die präzise und quantitative Messung der Risikoprämien von Unternehmensanleihen eine betriebswirtschaftliche Notwendigkeit. In der vorliegenden Arbeit werden im Hinblick auf die Erreichbarkeit drei alternative Messkonzepte bezüglich der Risikoprämien von Unternehmensanleihen vorgestellt und miteinander verglichen. Einige bisherige Studien sind der Auffassung, dass die Risikoprämien von Unternehmensanleihen zumeist von den Nicht-Kreditkomponenten beeinflusst werden. Um diese Marktanomalien zu erklären, verwenden die vorliegenden Untersuchungen das statistische lineare Faktor-Modell. In diesem Zusammenhang wird die Untersuchung von LITTERMAN/SCHEINKMAN (1991) auf die risikobehafteten Unternehmensanleihen übertragen. Im Kern steht die Frage, welche Risikoarten bzw. wie viele Einflussfaktoren wirken sich auf die Risikoprämien von Unternehmensanleihen in wieweit aus. Das Ziel ist ein sparsames lineares Faktor-Modell mit wirtschaftlicher Bedeutung aufzubauen. Somit leistet diese Dissertationsschrift einen wesentlichen Beitrag zur Gestaltung der Anleiheanalyse bzw. zur Portfolioverwaltung.
8

Risikoprämien von Unternehmensanleihen: Eine theoretische und empirische Untersuchung

Lu, Yun 10 July 2013 (has links)
Die Risikoprämie einer Unternehmensanleihe dient prinzipiell der wirtschaftlichen Kompensation für die Übernahme zusätzlicher Risiken gegenüber den Risiken der Benchmark. Allerdings findet sich in der bisher veröffentlichen Literatur eine Vielzahl von den praktischen Messkonzepten, die in vielen Fällen nicht fehlerfrei und problemlos zustande gekommen sind. Daher ist die präzise und quantitative Messung der Risikoprämien von Unternehmensanleihen eine betriebswirtschaftliche Notwendigkeit. In der vorliegenden Arbeit werden im Hinblick auf die Erreichbarkeit drei alternative Messkonzepte bezüglich der Risikoprämien von Unternehmensanleihen vorgestellt und miteinander verglichen. Einige bisherige Studien sind der Auffassung, dass die Risikoprämien von Unternehmensanleihen zumeist von den Nicht-Kreditkomponenten beeinflusst werden. Um diese Marktanomalien zu erklären, verwenden die vorliegenden Untersuchungen das statistische lineare Faktor-Modell. In diesem Zusammenhang wird die Untersuchung von LITTERMAN/SCHEINKMAN (1991) auf die risikobehafteten Unternehmensanleihen übertragen. Im Kern steht die Frage, welche Risikoarten bzw. wie viele Einflussfaktoren wirken sich auf die Risikoprämien von Unternehmensanleihen in wieweit aus. Das Ziel ist ein sparsames lineares Faktor-Modell mit wirtschaftlicher Bedeutung aufzubauen. Somit leistet diese Dissertationsschrift einen wesentlichen Beitrag zur Gestaltung der Anleiheanalyse bzw. zur Portfolioverwaltung.
9

Signalanalyse-Verfahren zur Segmentierung von Multimediadaten

Haenselmann, Thomas. Unknown Date (has links) (PDF)
Universiẗat, Diss., 2004--Mannheim.
10

Identifizierung von Biomarkern mittels LC-MS-basiertem Metabonomics - Merkaptursäuren als Indikatoren für die Bildung toxischer Intermediate / Identification of biomarkers via LC-MS-based metabonomics – mercapturic acids as indicators for the formation of toxic intermediates

Wagner, Silvia January 2008 (has links) (PDF)
Metabonomics bildet das Ende der Omics-Kaskade und stellt eine top-down-Strategie zur Erfassung und Interpretation des Metaboloms, d. h. der Gesamtheit aller niedermolekularen Metaboliten in einem intakten Organismus, dar. Ziel der Technik ist es, mittels geeigneter ungerichteter Screeningverfahren in nicht-invasiv zu gewinnenden biologischen Proben wie Urin oder Blut charakteristische Metabolitenprofile zu bestimmen. Im Kontext des Metabonomics wurde in Anlehnung an den Geno- bzw. Phänotyp hierfür der Begriff „Metabotyp“ geprägt. Durch biostatistische Methoden, die auf Mustererkennung (pattern recognition) basieren, können Signaturen gegenübergestellt und auf diesem Weg gruppenspezifische Metaboliten, d. h. Biomarker bzw. Metabolitenmuster, extrahiert werden. Metabonomics kann folglich als Fusion klassischer bioanalytischer und biostatistischer Verfahren aufgefasst werden. Seit der Einführung im Jahr 1999 hat sich das Konzept des Metabonomics in mehrere Richtungen weiterentwickelt. So gab es Bestrebungen, die Technik, die ursprünglich zur Prädiktion von toxischen Effekten bei der Arzneistoffentwicklung etabliert wurde, auf Fragestellungen zu übertragen, die den Menschen im Mittelpunkt haben. Neben präklinischen Anwendungen verfolgt man mit Metabonomics zunehmend das Ziel, einer personalisierten Medizin und Ernährung einen Schritt näher zu kommen. Da sich die ursprünglich eingesetzte NMR-Technik als zu unempfindlich und die resultierenden Metabolitenprofile als zu anfällig gegenüber biologischen und analytischen Einflussgrößen (Confoundern) erwiesen haben, wurde parallel auf sensitivere Verfahren wie die Massenspektrometrie gesetzt. Insbesondere die Kopplung mit der Hochdruckflüssigchromatographie erwies sich hierbei für das Metabolitenscreening als geeignet. Schnell wurde allerdings klar, dass aus den klassischen full scan/TOF-Methoden Datensätze resultierten, die häufig zu komplex waren, um mit nachgeschalteten chemometrischen Verfahren die „Spreu vom Weizen trennen“ zu können. Da sich Metabolitendatenbanken bisher noch im Aufbau befinden, ist die Identifizierung der Marker mit zusätzlichen Schwierigkeiten verbunden und bedarf aufwändiger analytischer Verfahren. Eine Strategie stellt daher die Beschränkung auf ein Metabolitensubset dar. Indem man sich auf Metabolitenklassen fokussiert, die einen Bezug zum untersuchten Mechanismus haben, können die Erfolgsaussichten bei der Identifizierung charakteristischer Biomarker deutlich erhöht werden. Aufgrund zahlreicher exogener und endogener Faktoren (Arzneistoffe, Industriechemikalien, Nahrungsbestandteile, Tabakrauchbestandteile, Produkte der Lipidperoxidation etc.) ist der menschliche Organismus stets einer Vielzahl an elektrophilen Verbindungen ausgesetzt. Oxidative Schädigungen an Strukturen wie der DNA, Proteinen und Lipiden werden mit einer Reihe von Krankheitsbildern in Zusammenhang gebracht, darunter Parkinson, Alzheimer, Krebs und Volkskrankheiten wie Arteriosklerose, Allergien und koronare Herzerkrankungen. Mit dem Glutathionsystem verfügt der Körper über einen wirksamen Detoxifizierungsmechanismus. Das Tripeptid Glutathion reagiert als Nukleophil mit den exogen oder endogen gebildeten elektrophilen Intermediaten. Endprodukte sind Merkaptursäuren (N-Acetyl-L-Cystein-Addukte) bzw. deren Sulfoxide, die in erster Linie mit dem Urin ausgeschieden werden. Folglich besteht zwischen diesen Merkaptursäurederivaten und der elektrophilen Belastung eines Organismus ein direkter Zusammenhang. Vor diesem Hintergrund war es das Ziel der Arbeit, einen nicht-invasiven Metabonomicsansatz zur Anwendung am Menschen zu entwickeln. Durch die Fokussierung des Metabolitenscreenings auf die Effekt-, Dosis- und Suszeptibilitätsmarkerklasse der Merkaptursäuren sollten hierbei die Erfolgsaussichten im Hinblick auf die Identifizierung potentieller Biomarker für diverse toxikologische sowie medizinische Endpunkte erhöht werden. / Metabonomics forms the end of the omics-cascade and represents a top-down strategy for the interpretation of the metabolome, i. e. all the low molecular weight metabolites in an intact organism. The aim of the approach is to analyse characteristic metabolite profiles by suitable untargeted screening methods in biological samples like urine or blood that can be obtained in a non-invasive manner. In the context of metabonomics, the term “metabotype” was defined according to the geno- and phenotype, respectively. Biostatistical methods based on pattern recognition techniques allow comparing metabolic signatures and extracting group specific metabolites and biomarkers. Therefore, metabonomics can be regarded as the fusion of bioanalytical and biostatistical techniques. Since its introduction in 1999, the concept of metabonomics has permanently gained importance in many fields of scientific research. One aim was to transfer the methodology, which was originally established to predict toxic effects in drug development processes, to human issues. Apart from preclinical questions, metabonomics is increasingly applied in the area of personalised medicine and nutrition. As the NMR technique used by pioneers of the field was too insensitive and the resulting metabolite profiles were too susceptible to biological and analytical confounders, more sensitive techniques like mass spectrometry were more and more applied. Especially mass spectrometry in combination with high performance liquid chromatography showed great promise for the screening of metabolites. However, after a very short time, it was clear that the data sets resulting from full scan/TOF-methods were too complex to “separate the wheat from the chaff” with chemometric procedures. Metabolite databases are still under construction, and therefore marker identification is challenging and requires complex analytical techniques. Thus, one strategy is to concentrate on a certain metabolite subset. The focus on a metabolite class with a close relation to the mechanism under investigation can considerably increase the prospects of success in the biomarker identification process. Due to a variety of exogenous and endogenous factors (drugs, industrial chemicals, food ingredients, and tobacco smoke) the human organism is steadily confronted with a multitude of electrophilic compounds. Oxidative damage of the DNA, proteins, and lipids is associated with the development of diseases like Parkinson’s, Alzheimer’s, cancer and widespread diseases like arteriosclerosis, allergies and coronary heart diseases. With the glutathione system the human organism is equipped with an efficient detoxification mechanism. The tripeptide glutathione reacts as nucleophile with exogenously and endogenously formed electrophilic intermediates. End products are mercapturic acids (N-acetyl-L-cysteine-adducts) and respective sulfoxides that are predominantly excreted with urine. Therefore, there is a close relationship between these mercapturic acid patterns and the electrophilic burden of an organism. In this context, the aim of this thesis was to develop a non-invasive human metabonomics approach that focuses the metabolite screening on the effect, dose and susceptibility marker class of the mercapturic acids. Thus, the prospects of success regarding the identification of potential biomarkers for various toxicological and pathological endpoints should be increased.

Page generated in 0.0968 seconds