21 |
Entwicklungen der Dichte linearer Integralfunktionale schwach korrelierter ProzesseIlzig, Katrin, vom Scheidt, Jürgen 19 May 2008 (has links)
Zur Approximation der Dichte von linearen Integralfunktionalen schwach korrelierter
Prozesse mit Korrelationslänge wurden bisher Gram-Charlier-Reihen benutzt.
In diesem Artikel werden weitere Verfahren zur Dichteapproximation "integraler"
Zufallsgrößen beschrieben und untersucht, ob sie sinnvoll auf das Dichteapproximationsproblem
bei linearen Integralfunktionalen angewendet werden können.
|
22 |
Asymptotische Entwicklungen der Korrelationsfunktion von Integralfunktionalen differenzierbarer schwach korrelierter Prozessevom Scheidt, Jürgen, Weiß, Hendrik 22 May 2008 (has links)
Lineare Systeme von gewöhnlichen Differentialgleichungen eignen sich zur Modellierung
von Schwingungssystemen, die zufällig erregt werden. Die stationäre Lösung
beschreibt deren Langzeitverhalten. Für die Korrelationsfunktionen der stationären
Lösung und deren Ableitungen werden asymptotische Entwicklungen angegeben,
wenn die zufällige Erregung durch differenzierbare schwach korrelierte
Prozesse erfolgt. Die Eigenschaften differenzierbarer schwach korrelierter Prozesse
werden diskutiert und B-Spline vorgestellt, die Korrelationsfunktionen solcher
Prozesse sind.
Verschiedene Darstellungen der stationären Lösung führen zu verschiedenen
asymptotischen Entwicklungen für die Korrelationsfunktion. An einem Beispiel werden
beide verglichen und der Einfluß der Differenzierbarkeit der Erregung untersucht.
|
23 |
Does it have to be trees? : Data-driven dependency parsing with incomplete and noisy training dataSpreyer, Kathrin January 2011 (has links)
We present a novel approach to training data-driven dependency parsers on incomplete annotations. Our parsers are simple modifications of two well-known dependency parsers, the transition-based Malt parser and the graph-based MST parser. While previous work on parsing with incomplete data has typically couched the task in frameworks of unsupervised or semi-supervised machine learning, we essentially treat it as a supervised problem. In particular, we propose what we call agnostic parsers which hide all fragmentation in the training data from their supervised components.
We present experimental results with training data that was obtained by means of annotation projection. Annotation projection is a resource-lean technique which allows us to transfer annotations from one language to another within a parallel corpus. However, the output tends to be noisy and incomplete due to cross-lingual non-parallelism and error-prone word alignments. This makes the projected annotations a suitable test bed for our fragment parsers. Our results show that (i) dependency parsers trained on large amounts of projected annotations achieve higher accuracy than the direct projections, and that (ii) our agnostic fragment parsers perform roughly on a par with the original parsers which are trained only on strictly filtered, complete trees. Finally, (iii) when our fragment parsers are trained on artificially fragmented but otherwise gold standard dependencies, the performance loss is moderate even with up to 50% of all edges removed. / Wir präsentieren eine neuartige Herangehensweise an das Trainieren von daten-gesteuerten Dependenzparsern auf unvollständigen Annotationen. Unsere Parser sind einfache Varianten von zwei bekannten Dependenzparsern, nämlich des transitions-basierten Malt-Parsers sowie des graph-basierten MST-Parsers.
Während frühere Arbeiten zum Parsing mit unvollständigen Daten die Aufgabe meist in Frameworks für unüberwachtes oder schwach überwachtes maschinelles Lernen gebettet haben, behandeln wir sie im Wesentlichen mit überwachten Lernverfahren. Insbesondere schlagen wir "agnostische" Parser vor, die jegliche Fragmentierung der Trainingsdaten vor ihren daten-gesteuerten Lernkomponenten verbergen.
Wir stellen Versuchsergebnisse mit Trainingsdaten vor, die mithilfe von Annotationsprojektion gewonnen wurden. Annotationsprojektion ist ein Verfahren, das es uns erlaubt, innerhalb eines Parallelkorpus Annotationen von einer Sprache auf eine andere zu übertragen. Bedingt durch begrenzten crosslingualen Parallelismus und fehleranfällige Wortalinierung ist die Ausgabe des Projektionsschrittes jedoch üblicherweise verrauscht und unvollständig. Gerade dies macht projizierte Annotationen zu einer angemessenen Testumgebung für unsere fragment-fähigen Parser. Unsere Ergebnisse belegen, dass (i) Dependenzparser, die auf großen Mengen von projizierten Annotationen trainiert wurden, größere Genauigkeit erzielen als die zugrundeliegenden direkten Projektionen, und dass (ii) die Genauigkeit unserer agnostischen, fragment-fähigen Parser der Genauigkeit der Originalparser (trainiert auf streng gefilterten, komplett projizierten Bäumen) annähernd gleichgestellt ist. Schließlich zeigen wir mit künstlich fragmentierten Gold-Standard-Daten, dass (iii) der Verlust an Genauigkeit selbst dann bescheiden bleibt, wenn bis zu 50% aller Kanten in den Trainingsdaten fehlen.
|
24 |
Untersuchungen zur Selektivität unterschiedlich substituierter Iminodiessigsäure-Ionenaustauscher gegenüber zweiwertigen Metallionen / Research into the selectivity of iminodiacetat-ion-exchangers compared to bivalent metalsNiehus, Christina January 2007 (has links)
Zur selektiven Entfernung von Schwermetallen aus industriellen Abwässern und Prozesslösungen der metallverarbeitenden Industrie werden synthetische metallkomplexierende funktionelle Polymere – mit Iminodiessigsäure (IDE) als aktive Spezies – seit Jahren erfolgreich zur Eliminierung störender Kationen eingesetzt. Ständig steigende Anforderungen an die Qualität der aufzubereitenden Wässer verlangen nach leistungsfähigen Selektivaustauschern, die den Erhalt der Eigenschaften von Prozesslösungen (z. B. pH-Wert, Salzgehalt) ermöglichen. Ziel der Untersuchungen war es, die strukturellen Matrixeinflüsse auf Beladung, Kapazität, Selektivität und Kinetik durch Variation der Matrix und der experimentellen Bedingungen näher zu untersuchen. Auf Basis einer monodispersen Erstsubstitution eines Styren-Divinylbenzen-Copolymerisates wurde durch gezielten Einbau funktioneller Gruppen – Synthese mit differenziertem Substitutionsgrad (TK/N 1-2) – versucht, systematisch den Einfluss des Substitutionsgrades der Matrix auf die Eigenschaften der Ionenaustauscher zu analysieren. Methodisch geordnet wurden zunächst die Versuche nach dem Batch- und anschließend nach dem Säulenverfahren durchgeführt und parallel dazu die Matrix charakterisiert. Das Verhalten der funktionellen Ankergruppen in Abhängigkeit vom pH-Wert der Lösung (pH-Bereich 2 - 5) wurde untersucht, der optimale Anreicherungs-pH-Wert, die maximale Beladung (Kapazität) und Selektivität der unterschiedlich substituierten Proben für die Schwermetall-Ionen Cu, Zn, Ni, Cd, Pb und Co ermittelt. Den statischen Versuchen folgten dynamische Untersuchungen im Säulenverfahren. Ziel war die Ermittlung des Durchbruchverhaltens und der Durchbruchkapazität bei optimalem pH-Wert in Abhängigkeit vom Substitutionsgrad gegenüber den Einzelmetallionen (Cu, Ni, Zn) und ausgewählten Paaren (Cu/Ni, Cu/Zn, Ni/Zn). Alle Ionenaustauscher wurden ausschließlich in der Ca-Form eingesetzt. / Selective ion exchange offers a good solution for cleaning many waste streams. The aim of this study was to develop selective ion exchange materials for effective and economical applications in waste water treatment. The investigation of chelate resins is based on iminodiacetate with different secondary substitution (degree of substitution TK/N 1 - 2, from aminoacetic acid to iminodiacetate as functional group). As comparison the weak acid resin Lewatit TP 207 was used.
The research focused on the application of selective ion exchange resins for waste effluents to ascertain the feasibility of a selective ion exchange process employing chelating cation exchangers for heavy metal removal. The metals of interest were copper (Cu), zinc (Zn), nickel (Ni), cobalt (Co), lead (Pb) and cadmium (Cd) and the resins appointed in the Ca-form.
The batch operation was conducted to determine the equilibrium data and the operating resin capacity, one of the most important properties. The main equilibrium parameter affecting the ion exchange was the pH value (array 2-5). The best accumulation pH value was obtained using pH 5 for all metals. The only exception was lead with pH 3. After determining the viability of the different resins with batch systems, this study has focused on the column mode experiments. They were generated for the selected resins in the continuous ion exchange process which are essentially reserved for industrial applications. A practical application of the breakthrough curves is the determination of the breakthrough time which helps to find the best operating conditions.
|
25 |
Implementierung eines Algorithmus zur Partitionierung von GraphenRiediger, Steffen 05 July 2007 (has links) (PDF)
Partitionierung von Graphen ist im Allgemeinen sehr schwierig. Es stehen
derzeit keine Algorithmen zur Verfügung, die ein allgemeines Partitionierungsproblem
effizient lösen. Aus diesem Grund werden heuristische
Ansätze verfolgt.
Zur Analyse dieser Heuristiken ist man derzeit gezwungen zufällige Graphen
zu Verwenden. Daten realer Graphen sind derzeit entweder nur
sehr schwer zu erheben (z.B. Internetgraph), oder aus rechtlichen bzw.
wirtschaftlichen Gründen nicht zugänglich (z.B. soziale Netzwerke). Die
untersuchten Heuristiken liefern teilweise nur unter bestimmten Voraussetzungen
Ergebnisse. Einige arbeiten lediglich auf einer eingeschränkten
Menge von Graphen, andere benötigen zum Erkennen einer Partition
einen mit der Knotenzahl steigenden Durchschnittsgrad der Knoten, z.B.
[DHM04].
Der im Zuge dieser Arbeit erstmals implementierte Algorithmus aus
[CGL07a] benötigt lediglich einen konstanten Durchschnittsgrad der
Knoten um eine Partition des Graphen, wenn diese existiert, zu erkennen.
Insbesondere muss dieser Durchschnittsgrad nicht mit der Knotenzahl
steigen.
Nach der Implementierung erfolgten Tests des Algorithmus an zufälligen
Graphen. Diese Graphen entsprachen dem Gnp-Modell mit eingepflanzter Partition. Die untersuchten Clusterprobleme waren dabei große
Schnitte, kleine Schnitte und unabhängige Mengen. Der von der Art des
Clusterproblems abhängige Durchschnittsgrad wurde während der Tests
bestimmt.
|
26 |
Tagungsband zum Workshop "Stochastische Analysis" ,29.09.2003 - 01.10.2003vom Scheidt, Jürgen, Richter, Matthias 01 September 2004 (has links)
Von der Professur Stochastik der Fakultät für Mathematik der Technischen Universität Chemnitz werden seit 1995 regelmäßig jedes Jahr im Herbst die Workshops "Stochastische Analysis" organisiert. Ausgewählte Beiträge sollen erstmals in Form eines Tagungsbandes veröffentlicht werden. Eine jährliche Fortsetzung ist geplant.
Der 9. Workshop "Stochastische Analysis" fand vom 29.09.2003 bis zum 01.10.2003 in Bärenstein statt.
|
27 |
Tagungsband zum Workshop "Stochastische Analysis", 27.09.2004 - 29.09.2004vom Scheidt, Jürgen, Richter, Matthias 07 October 2005 (has links)
Von der Professur Stochastik der Fakultät für
Mathematik der Technischen Universität Chemnitz
werden seit 1995 regelmäßig jedes Jahr im Herbst
die Workshops "Stochastische Analysis" organisiert.
Ausgewählte Beiträge werden seit 2003 in Form
eines Tagungsbandes veröffentlicht.
Der 10. Workshop "Stochastische Analysis"
fand vom 27.09.2004 bis zum 29.09.2004 in
Klingenthal statt.
|
28 |
Tagungsband zum Workshop "Stochastische Analysis", 20.09.2006 - 22.09.2006vom Scheidt, Jürgen, Richter, Matthias, Weiß, Hendrik 22 May 2008 (has links)
Von der Professur Stochastik der Fakultät für Mathematik der Technischen Universität
Chemnitz werden seit 1995 regelmäßig jedes Jahr im Herbst die Workshops "Stochastische
Analysis" organisiert. Ausgewählte Beiträge werden in Form eines Tagungsbandes veröffentlicht.
Der 12. Workshop "Stochastische Analysis" fand vom 20.09.2006 bis zum 22.09.2006 in
Schöneck/Vogtland statt.
|
29 |
Approximation stochastischer Charakteristiken von Funktionalen schwach korrelierter ProzesseIlzig, Katrin 02 June 2010 (has links)
In praktischen Aufgabenstellungen können zur Modellierung zufälliger Einflüsse, welche sich durch schwache Abhängigkeiten auszeichnen, schwach korrelierte zufällige Funktionen genutzt werden. Die nähere Untersuchung von Funktionalen schwach korrelierter zufälliger Funktionen ist durch die Gestalt der Lösungen von praktischen Fragestellungen motiviert. Die stochastischen Charakteristiken dieser Lösungen lassen sich im Allgemeinen nicht exakt bestimmen, so dass auf Approximationsverfahren zurückgegriffen werden muss. Diese stehen im Mittelpunkt der Dissertation. Zu Beginn werden Entwicklungen von Momenten und Kumulanten der betrachteten linearen Integralfunktionale schwach korrelierter Prozesse nach der Korrelationslänge des Prozesses hergeleitet und eine Vermutung über die exakte Darstellung der Kumulanten formuliert. Für Integralfunktionale von schwach korrelierten Simulationsprozessen, welche aus der Interpolation von Moving-Average-Prozessen entstehen, werden die definierten Charakteristiken hergeleitet. Außerdem steht die Approximation der unbekannten Dichtefunktion im Fokus der Arbeit. Es werden verschiedene Zugänge genutzt. Eine alternative Herleitung zur bereits in der Literatur untersuchten Gram-Charlier-Entwicklung wird in Form der Edgeworth-Entwicklung angegeben. Des Weiteren werden die Sattelpunkt-Approximation und die Maximum-Entropie-Methode untersucht und anhand von Simulationsergebnissen für Integralfunktionale von Simulationsprozessen miteinander verglichen. / In engineering applications stochastic influences which are characterized by weak dependencies can be modelled, among others, by weakly correlated random functions. The solutions of such problems shape up as integral functionals of weakly correlated random functions which motivates more detailed investigations. In general the exact calculation of stochastic characteristics of such integral functionals is impossible so that we have to be content with approximation methods this thesis focuses on. At the beginning expansions of moments and cumulants of linear integral functionals of weakly correlated random processes with respect to the correlation length are considered and an explicit formula of cumulants is conjectured. For integral functionals of weakly correlated random simulation processes, defined as interpolations of moving average processes, the required expansion coefficients are derived. Furthermore the approximation of the unknown probability density is requested. In the thesis there are different approaches used. First we state an alternative way to achieve the already known Gram Charlier approximation by means of Edgeworth expansion. Then we study two further methods, namely the saddlepoint approximation and the maximum entropy method and compare them on the basis of simulation results for integral functionals of simulation processes.
|
30 |
Causal weak-consistency replication / a systems approachHupfeld, Felix 03 June 2009 (has links)
Replikation kann helfen, in einem verteilten System die Fehlertoleranz und Datensicherheit zu verbessern. In Systemen, die über Weitverkehrsnetze kommunizieren oder mobile Endgeräte einschließen, muß das Replikationssystem mit großen Kommunikationslatenzen umgehen können. Deshalb werden in solchen Systemen in der Regel nur asynchrone Replikationsalgorithmen mit schwach-konsistenter Änderungssemantik eingesetzt, da diese die lokale Annahme von Änderungen der Daten und deren Koordinierung mit anderen Replikaten entkoppeln und somit ein schnelles Antwortverhalten bieten können. Diese Dissertation stellt einen Ansatz für die Entwicklung schwach-konsistenter Replikationssysteme mit erweiterten kausalen Konsistenzgarantien vor und weist nach, daß auf seiner Grundlage effiziente Replikationssysteme konstruiert werden können. Dazu werden Mechanismen, Algorithmen und Protokolle vorgestellt, die Änderungen an replizierten Daten aufzeichnen und verteilen und dabei Kausalitätsbeziehungen erhalten. Kern ist ein Änderungsprotokoll, das sowohl als grundlegende Datenstruktur der verteilten Algorithmen agiert, als auch für die Konsistenz der lokalen Daten nach Systemabstürzen sorgt. Die kausalen Garantien werden mit Hilfe von zwei Algorithmen erweitet, die gleichzeitige Änderungen konsistent handhaben. Beide Algorithmen basieren auf der Beobachtung, daß die Divergenz der Replikate durch unkoordinierte, gleichzeitige Änderungen nicht unbedingt als Inkonsistenz gesehen werden muß, sondern auch als das Erzeugen verschiedener Versionen der Daten modelliert werden kann. Distributed Consistent Branching (DCB) erzeugt diese alternativen Versionen der Daten konsistent auf allen Replikaten; Distributed Consistent Cutting (DCC) wählt eine der Versionen konsistent aus. Die vorgestellten Algorithmen und Protokolle wurden in einer Datenbankimplementierung validiert. Mehrere Experimente zeigen ihre Einsetzbarkeit und helfen, ihr Verhalten unter verschiedenen Bedingungen einzuschätzen. / Data replication techniques introduce redundancy into a distributed system architecture that can help solve several of its persistent problems. In wide area or mobile systems, a replication system must be able to deal with the presence of unreliable, high-latency links. Only asynchronous replication algorithms with weak-consistency guarantees can be deployed in these environments, as these algorithms decouple the local acceptance of changes to the replicated data from coordination with remote replicas. This dissertation proposes a framework for building weak-consistency replication systems that provides the application developer with causal consistency guarantees and mechanisms for handling concurrency. By presenting an integrated set of mechanisms, algorithms and protocols for capturing and disseminating changes to the replicated data, we show that causal consistency and concurrency handling can be implemented in an efficient and versatile manner. The framework is founded on log of changes, which both acts the core data structure for its distributed algorithms and protocols and serves as the database log that ensures the consistency of the local data replica. The causal consistency guarantees are complemented with two distributed algorithms that handle concurrent operations. Both algorithms are based on the observation that uncoordinated concurrent operations introduce a divergence of state in a replication system that can be modeled as the creation of version branches. Distributed Consistent Branching (DCB) recreates these branches on all participating processes in a consistent manner. Distributed Consistent Cutting (DCC) selects one of the possible branches in a consistent and application-controllable manner and enforces a total causal order for all its operations. The contributed algorithms and protocols were validated in an database system implementation, and several experiments assess the behavior of these algorithms and protocols under varying conditions.
|
Page generated in 0.0519 seconds