• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 3
  • 2
  • Tagged with
  • 11
  • 10
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Maintaining bernoulli samples over evolving multisets

Gemulla, Rainer, Lehner, Wolfgang, Haas, Peter J. 13 December 2022 (has links)
Random sampling has become a crucial component of modern data management systems. Although the literature on database sampling is large, there has been relatively little work on the problem of maintaining a sample in the presence of arbitrary insertions and deletions to the underlying dataset. Most existing maintenance techniques apply either to the insert-only case or to datasets that do not contain duplicates. In this paper, we provide a scheme that maintains a Bernoulli sample of an underlying multiset in the presence of an arbitrary stream of updates, deletions, and insertions. Importantly, the scheme never needs to access the underlying multiset. Such Bernoulli samples are easy to manipulate, and are well suited to parallel processing environments. Our method can be viewed as an enhancement of the 'counting sample' scheme developed by Gibbons and Matias for estimating the frequency of highly frequent items. We show how the 'tracking counters' used by our maintenance scheme can be exploited to estimate population frequencies, sums, and averages in an unbiased manner, with lower variance than the usual estimators based on a Bernoulli sample. The number of distinct items in the multiset can also be estimated without bias. Finally, we discuss certain problems of subsampling and merging that a rise in systems with limited memory resources or distributed processing, respectively.
2

Finite sample analysis of profile M-estimators

Andresen, Andreas 02 September 2015 (has links)
In dieser Arbeit wird ein neuer Ansatz für die Analyse von Profile Maximierungsschätzern präsentiert. Es werden die Ergebnisse von Spokoiny (2011) verfeinert und angepasst für die Schätzung von Komponenten von endlich dimensionalen Parametern mittels der Maximierung eines Kriteriumfunktionals. Dabei werden Versionen des Wilks Phänomens und der Fisher-Erweiterung für endliche Stichproben hergeleitet und die dafür kritische Relation der Parameterdimension zum Stichprobenumfang gekennzeichnet für den Fall von identisch unabhängig verteilten Beobachtungen und eines hinreichend glatten Funktionals. Die Ergebnisse werden ausgeweitet für die Behandlung von Parametern in unendlich dimensionalen Hilberträumen. Dabei wir die Sieve-Methode von Grenander (1981) verwendet. Der Sieve-Bias wird durch übliche Regularitätsannahmen an den Parameter und das Funktional kontrolliert. Es wird jedoch keine Basis benötigt, die orthogonal in dem vom Model induzierten Skalarprodukt ist. Weitere Hauptresultate sind zwei Konvergenzaussagen für die alternierende Maximisierungsprozedur zur approximation des Profile-Schätzers. Alle Resultate werden anhand der Analyse der Projection Pursuit Prozedur von Friendman (1981) veranschaulicht. Die Verwendung von Daubechies-Wavelets erlaubt es unter natürlichen und üblichen Annahmen alle theoretischen Resultate der Arbeit anzuwenden. / This thesis presents a new approach to analyze profile M-Estimators for finite samples. The results of Spokoiny (2011) are refined and adapted to the estimation of components of a finite dimensional parameter using the maximization of a criterion functional. A finite sample versions of the Wilks phenomenon and Fisher expansion are obtained and the critical ratio of parameter dimension to sample size is derived in the setting of i.i.d. samples and a smooth criterion functional. The results are extended to parameters in infinite dimensional Hilbert spaces using the sieve approach of Grenander (1981). The sieve bias is controlled via common regularity assumptions on the parameter and functional. But our results do not rely on an orthogonal basis in the inner product induced by the model. Furthermore the thesis presents two convergence results for the alternating maximization procedure. All results are exemplified in an application to the Projection Pursuit Procedure of Friendman (1981). Under a set of natural and common assumptions all theoretical results can be applied using Daubechies wavelets.
3

Design von Stichproben in analytischen Datenbanken

Rösch, Philipp 28 July 2009 (has links) (PDF)
Aktuelle Studien belegen ein rasantes, mehrdimensionales Wachstum in analytischen Datenbanken: Das Datenvolumen verzehnfachte sich in den letzten vier Jahren, die Anzahl der Nutzer wuchs um durchschnittlich 25% pro Jahr und die Anzahl der Anfragen verdoppelte sich seit 2004 jährlich. Bei den Anfragen handelt es sich zunehmend um komplexe Verbundanfragen mit Aggregationen; sie sind häufig explorativer Natur und werden interaktiv an das System gestellt. Eine Möglichkeit, der Forderung nach Interaktivität bei diesem starken, mehrdimensionalen Wachstum nachzukommen, stellen Stichproben und eine darauf aufsetzende näherungsweise Anfrageverarbeitung dar. Diese Lösung bietet signifikant kürzere Antwortzeiten sowie Schätzungen mit probabilistischen Fehlergrenzen. Mit den Operationen Verbund, Gruppierung und Aggregation als Hauptbestandteile analytischer Anfragen ergeben sich folgende Anforderungen an das Design von Stichproben in analytischen Datenbanken: Zwischen den Stichproben fremdschlüsselverbundener Relationen ist die referenzielle Integrität zu gewährleisten, sämtliche Gruppen sind angemessen zu repräsentieren und Aggregationsattribute sind auf extreme Werte zu untersuchen. In dieser Dissertation wird für jedes dieser Teilprobleme ein Stichprobenverfahren vorgestellt, das sich durch speicherplatzbeschränkte Stichproben und geringe Schätzfehler auszeichnet. Im ersten der vorgestellten Verfahren wird durch eine korrelierte Stichprobenerhebung die referenzielle Integrität bei minimalem zusätzlichen Speicherplatz gewährleistet. Das zweite vorgestellte Stichprobenverfahren hat durch eine Berücksichtigung der Streuung der Daten eine angemessene Repräsentation sämtlicher Gruppen zur Folge und unterstützt damit beliebige Gruppierungen, und im dritten Verfahren ermöglicht eine mehrdimensionale Ausreißerbehandlung geringe Schätzfehler für beliebig viele Aggregationsattribute. Für jedes dieser Verfahren wird die Qualität der resultierenden Stichprobe diskutiert und bei der Berechnung speicherplatzbeschränkter Stichproben berücksichtigt. Um den Berechnungsaufwand und damit die Systembelastung gering zu halten, werden für jeden Algorithmus Heuristiken vorgestellt, deren Kennzeichen hohe Effizienz und eine geringe Beeinflussung der Stichprobenqualität sind. Weiterhin werden alle möglichen Kombinationen der vorgestellten Stichprobenverfahren betrachtet; diese Kombinationen ermöglichen eine zusätzliche Verringerung der Schätzfehler und vergrößern gleichzeitig das Anwendungsspektrum der resultierenden Stichproben. Mit der Kombination aller drei Techniken wird ein Stichprobenverfahren vorgestellt, das alle Anforderungen an das Design von Stichproben in analytischen Datenbanken erfüllt und die Vorteile der Einzellösungen vereint. Damit ist es möglich, ein breites Spektrum an Anfragen mit hoher Genauigkeit näherungsweise zu beantworten. / Recent studies have shown the fast and multi-dimensional growth in analytical databases: Over the last four years, the data volume has risen by a factor of 10; the number of users has increased by an average of 25% per year; and the number of queries has been doubling every year since 2004. These queries have increasingly become complex join queries with aggregations; they are often of an explorative nature and interactively submitted to the system. One option to address the need for interactivity in the context of this strong, multi-dimensional growth is the use of samples and an approximate query processing approach based on those samples. Such a solution offers significantly shorter response times as well as estimates with probabilistic error bounds. Given that joins, groupings and aggregations are the main components of analytical queries, the following requirements for the design of samples in analytical databases arise: 1) The foreign-key integrity between the samples of foreign-key related tables has to be preserved. 2) Any existing groups have to be represented appropriately. 3) Aggregation attributes have to be checked for extreme values. For each of these sub-problems, this dissertation presents sampling techniques that are characterized by memory-bounded samples and low estimation errors. In the first of these presented approaches, a correlated sampling process guarantees the referential integrity while only using up a minimum of additional memory. The second illustrated sampling technique considers the data distribution, and as a result, any arbitrary grouping is supported; all groups are appropriately represented. In the third approach, the multi-column outlier handling leads to low estimation errors for any number of aggregation attributes. For all three approaches, the quality of the resulting samples is discussed and considered when computing memory-bounded samples. In order to keep the computation effort - and thus the system load - at a low level, heuristics are provided for each algorithm; these are marked by high efficiency and minimal effects on the sampling quality. Furthermore, the dissertation examines all possible combinations of the presented sampling techniques; such combinations allow to additionally reduce estimation errors while increasing the range of applicability for the resulting samples at the same time. With the combination of all three techniques, a sampling technique is introduced that meets all requirements for the design of samples in analytical databases and that merges the advantages of the individual techniques. Thereby, the approximate but very precise answering of a wide range of queries becomes a true possibility.
4

Vergleich verschiedener Methoden zur Identifizierung Paratuberkulose–positiver Rinderherden

Kube, Julia 03 June 2014 (has links) (PDF)
Ziel der vorliegenden Arbeit war es, Screening–Methoden zu prüfen, um auf einfache, kostensparende Weise und mit ausreichender statistischer Sicherheit festzustellen, ob der Erreger der Paratuberkulose (Mycobacterium avium ssp. paratuberculosis) in einer Herde vorhanden ist oder nicht. Dazu wurden zwei auf dem kulturellen Erregernachweis beruhende Verfahren, die Untersuchung individueller Kotproben auf der Basis von Stichproben und die Untersuchung von Umgebungskotproben, einem serologischen Untersuchungsansatz, dem Nachweis von MAP–Antikörpern nach Aufkonzentrierung in gepoolten Einzelmilchproben, gegenübergestellt. Als Referenzmethode diente die kulturelle Einzeltieruntersuchung aller über 24 Monate alten Tiere des jeweiligen Bestandes. In 20 Thüringer Milchviehherden mit bekannter Einzeltierprävalenz wurden 5063 Einzeltierkotproben, 200 Umgebungskotproben und 262 aufkonzentrierte Milchpools aus 4337 laktierenden Rindern untersucht. Zusätzlich wurde eine systematische retrospektive Stichprobenkalkulation (nStichprobe = 1458 Einzeltierkotproben) vorgenommen. Die Kultivierung der Einzeltierkotproben und der Umgebungskotproben erfolgte über 12 Wochen auf HEYM–Nährmedium mit anschließender Speziesidentifizierung durch PCR und Ziehl–Neelsen–Färbung. Die Umgebungskotproben wurden zu zwei Untersuchungszeitpunkten (Frühjahr und Sommer) an jeweils fünf Lokalisationen eines Betriebes entnommen: Abkalbebereich, Melkbereich einschließlich Vorwartehof, Laufbereich, Haupttriebweg, Übergang zum Kälberbereich. Die Untersuchung der Milchpools erfolgte nach vorheriger Aufkonzentrierung mittels zweier verschiedener ELISAs. Im Frühjahr entnommene Umgebungskotproben aus 16 MAP–positiven Betrieben detektierten das Vorhandensein des Erregers in neun Betrieben (56,3 %). Betriebe mit einer Einzeltierprävalenz von über 4,5 % wurden in neun von zehn Fällen (90 %) sicher erkannt. Im Sommer entnommene Umgebungskotproben fielen durch eine sehr starke Kontamination auf. Von den 16 MAP–positiven Beständen wurden 15 Herden (93,7 %) mittels Stichprobenuntersuchung als Bestand mit Paratuberkulosevorkommen identifiziert, wobei lediglich ein Bestand mit einer Einzeltierprävalenz von 0,49 % nicht detektiert wurde. Die serologische Untersuchung der Milchpools lieferte keine verwendbaren Ergebnisse. Mit Hilfe der Untersuchung von Umgebungskotproben lassen sich Herden mit einer durch kulturelle Untersuchung ermittelten Einzeltierprävalenz von 4,5 % und darüber mit hinreichender Sicherheit auffinden. Bei der Bewertung dieses Schwellenwertes ist zu beachten, dass bei Verwendung von nur einem Kulturröhrchen je Kotprobe von einer Sensitivität der Methode von 60 % im Vergleich zur Verwendung von drei Kulturröhrchen auszugehen ist. Für eine Überwachung unverdächtiger Herden ist die Sensitivität dieses Untersuchungsansatzes jedoch zu gering. Die individuelle kulturelle Untersuchung einer Stichprobe zeigte eine ausreichend hohe Sensitivität, um bei der Überwachung größerer unverdächtiger Herden eingesetzt werden zu können. Ein Einsatz serologischer Milchuntersuchung ist zur Bewertung von Beständen zur Ermittlung des MAP–Infektionsstatus gegenwärtig nicht zu empfehlen. Für die Überwachung größerer, als Paratuberkulose–unverdächtig anerkannter Bestände ist somit ein wechselnder Einsatz von Einzeltierkotproben aller Rinder über 24 Monaten und einer aussagekräftigen systematischer Stichprobenuntersuchung möglich und trägt damit zur Erleichterung der derzeit noch zeit– und kostenintensiven Paratuberkulose–Diagnostik bei.
5

Design von Stichproben in analytischen Datenbanken

Rösch, Philipp 17 July 2009 (has links)
Aktuelle Studien belegen ein rasantes, mehrdimensionales Wachstum in analytischen Datenbanken: Das Datenvolumen verzehnfachte sich in den letzten vier Jahren, die Anzahl der Nutzer wuchs um durchschnittlich 25% pro Jahr und die Anzahl der Anfragen verdoppelte sich seit 2004 jährlich. Bei den Anfragen handelt es sich zunehmend um komplexe Verbundanfragen mit Aggregationen; sie sind häufig explorativer Natur und werden interaktiv an das System gestellt. Eine Möglichkeit, der Forderung nach Interaktivität bei diesem starken, mehrdimensionalen Wachstum nachzukommen, stellen Stichproben und eine darauf aufsetzende näherungsweise Anfrageverarbeitung dar. Diese Lösung bietet signifikant kürzere Antwortzeiten sowie Schätzungen mit probabilistischen Fehlergrenzen. Mit den Operationen Verbund, Gruppierung und Aggregation als Hauptbestandteile analytischer Anfragen ergeben sich folgende Anforderungen an das Design von Stichproben in analytischen Datenbanken: Zwischen den Stichproben fremdschlüsselverbundener Relationen ist die referenzielle Integrität zu gewährleisten, sämtliche Gruppen sind angemessen zu repräsentieren und Aggregationsattribute sind auf extreme Werte zu untersuchen. In dieser Dissertation wird für jedes dieser Teilprobleme ein Stichprobenverfahren vorgestellt, das sich durch speicherplatzbeschränkte Stichproben und geringe Schätzfehler auszeichnet. Im ersten der vorgestellten Verfahren wird durch eine korrelierte Stichprobenerhebung die referenzielle Integrität bei minimalem zusätzlichen Speicherplatz gewährleistet. Das zweite vorgestellte Stichprobenverfahren hat durch eine Berücksichtigung der Streuung der Daten eine angemessene Repräsentation sämtlicher Gruppen zur Folge und unterstützt damit beliebige Gruppierungen, und im dritten Verfahren ermöglicht eine mehrdimensionale Ausreißerbehandlung geringe Schätzfehler für beliebig viele Aggregationsattribute. Für jedes dieser Verfahren wird die Qualität der resultierenden Stichprobe diskutiert und bei der Berechnung speicherplatzbeschränkter Stichproben berücksichtigt. Um den Berechnungsaufwand und damit die Systembelastung gering zu halten, werden für jeden Algorithmus Heuristiken vorgestellt, deren Kennzeichen hohe Effizienz und eine geringe Beeinflussung der Stichprobenqualität sind. Weiterhin werden alle möglichen Kombinationen der vorgestellten Stichprobenverfahren betrachtet; diese Kombinationen ermöglichen eine zusätzliche Verringerung der Schätzfehler und vergrößern gleichzeitig das Anwendungsspektrum der resultierenden Stichproben. Mit der Kombination aller drei Techniken wird ein Stichprobenverfahren vorgestellt, das alle Anforderungen an das Design von Stichproben in analytischen Datenbanken erfüllt und die Vorteile der Einzellösungen vereint. Damit ist es möglich, ein breites Spektrum an Anfragen mit hoher Genauigkeit näherungsweise zu beantworten. / Recent studies have shown the fast and multi-dimensional growth in analytical databases: Over the last four years, the data volume has risen by a factor of 10; the number of users has increased by an average of 25% per year; and the number of queries has been doubling every year since 2004. These queries have increasingly become complex join queries with aggregations; they are often of an explorative nature and interactively submitted to the system. One option to address the need for interactivity in the context of this strong, multi-dimensional growth is the use of samples and an approximate query processing approach based on those samples. Such a solution offers significantly shorter response times as well as estimates with probabilistic error bounds. Given that joins, groupings and aggregations are the main components of analytical queries, the following requirements for the design of samples in analytical databases arise: 1) The foreign-key integrity between the samples of foreign-key related tables has to be preserved. 2) Any existing groups have to be represented appropriately. 3) Aggregation attributes have to be checked for extreme values. For each of these sub-problems, this dissertation presents sampling techniques that are characterized by memory-bounded samples and low estimation errors. In the first of these presented approaches, a correlated sampling process guarantees the referential integrity while only using up a minimum of additional memory. The second illustrated sampling technique considers the data distribution, and as a result, any arbitrary grouping is supported; all groups are appropriately represented. In the third approach, the multi-column outlier handling leads to low estimation errors for any number of aggregation attributes. For all three approaches, the quality of the resulting samples is discussed and considered when computing memory-bounded samples. In order to keep the computation effort - and thus the system load - at a low level, heuristics are provided for each algorithm; these are marked by high efficiency and minimal effects on the sampling quality. Furthermore, the dissertation examines all possible combinations of the presented sampling techniques; such combinations allow to additionally reduce estimation errors while increasing the range of applicability for the resulting samples at the same time. With the combination of all three techniques, a sampling technique is introduced that meets all requirements for the design of samples in analytical databases and that merges the advantages of the individual techniques. Thereby, the approximate but very precise answering of a wide range of queries becomes a true possibility.
6

Cardinality estimation using sample views with quality assurance

Larson, Per-Ake, Lehner, Wolfgang, Zhou, Jingren, Zabback, Peter 13 September 2022 (has links)
Accurate cardinality estimation is critically important to high-quality query optimization. It is well known that conventional cardinality estimation based on histograms or similar statistics may produce extremely poor estimates in a variety of situations, for example, queries with complex predicates, correlation among columns, or predicates containing user-defined functions. In this paper, we propose a new, general cardinality estimation technique that combines random sampling and materialized view technology to produce accurate estimates even in these situations. As a major innovation, we exploit feedback information from query execution and process control techniques to assure that estimates remain statistically valid when the underlying data changes. Experimental results based on a prototype implementation in Microsoft SQL Server demonstrate the practicality of the approach and illustrate the dramatic effects improved cardinality estimates may have.
7

Exploiting self-monitoring sample views for cardinality estimation

Larson, Per-Ake, Lehner, Wolfgang, Zhou, Jingren, Zabback, Peter 13 December 2022 (has links)
Good cardinality estimates are critical for generating good execution plans during query optimization. Complex predicates, correlations between columns, and user-defined functions are extremely hard to handle when using the traditional histogram approach. This demo illustrates the use of sample views for cardinality estimations as prototyped in Microsoft SQL Server. We show the creation of sample views, discuss how they are exploited during query optimization, and explain their potential effect on query plans. In addition, we also show our implementation of maintenance policies using statistical quality control techniques based on query feedback.
8

Sample Footprints für Data-Warehouse-Datenbanken

Rösch, Philipp, Lehner, Wolfgang 20 January 2023 (has links)
Durch stetig wachsende Datenmengen in aktuellen Data-Warehouse-Datenbanken erlangen Stichproben eine immer größer werdende Bedeutung. Insbesondere interaktive Analysen können von den signifikant kürzeren Antwortzeiten der approximativen Anfrageverarbeitung erheblich profitieren. Linked-Bernoulli-Synopsen bieten in diesem Szenario speichereffiziente, schemaweite Synopsen, d. h. Synopsen mit Stichproben jeder im Schema enthaltenen Tabelle bei minimalem Mehraufwand für die Erhaltung der referenziellen Integrität innerhalb der Synopse. Dies ermöglicht eine effiziente Unterstützung der näherungsweisen Beantwortung von Anfragen mit beliebigen Fremdschlüsselverbundoperationen. In diesem Artikel wird der Einsatz von Linked-Bernoulli-Synopsen in Data-Warehouse-Umgebungen detaillierter analysiert. Dies beinhaltet zum einen die Konstruktion speicherplatzbeschränkter, schemaweiter Synopsen, wobei unter anderem folgende Fragen adressiert werden: Wie kann der verfügbare Speicherplatz auf die einzelnen Stichproben aufgeteilt werden? Was sind die Auswirkungen auf den Mehraufwand? Zum anderen wird untersucht, wie Linked-Bernoulli-Synopsen für die Verwendung in Data-Warehouse-Datenbanken angepasst werden können. Hierfür werden eine inkrementelle Wartungsstrategie sowie eine Erweiterung um eine Ausreißerbehandlung für die Reduzierung von Schätzfehlern approximativer Antworten von Aggregationsanfragen mit Fremdschlüsselverbundoperationen vorgestellt. Eine Vielzahl von Experimenten zeigt, dass Linked-Bernoulli-Synopsen und die in diesem Artikel präsentierten Verfahren vielversprechend für den Einsatz in Data-Warehouse-Datenbanken sind. / With the amount of data in current data warehouse databases growing steadily, random sampling is continuously gaining in importance. In particular, interactive analyses of large datasets can greatly benefit from the significantly shorter response times of approximate query processing. In this scenario, Linked Bernoulli Synopses provide memory-efficient schema-level synopses, i. e., synopses that consist of random samples of each table in the schema with minimal overhead for retaining foreign-key integrity within the synopsis. This provides efficient support to the approximate answering of queries with arbitrary foreign-key joins. In this article, we focus on the application of Linked Bernoulli Synopses in data warehouse environments. On the one hand, we analyze the instantiation of memory-bounded synopses. Among others, we address the following questions: How can the given space be partitioned among the individual samples? What is the impact on the overhead? On the other hand, we consider further adaptations of Linked Bernoulli Synopses for usage in data warehouse databases. We show how synopses can incrementally be kept up-to-date when the underlying data changes. Further, we suggest additional outlier handling methods to reduce the estimation error of approximate answers of aggregation queries with foreign-key joins. With a variety of experiments, we show that Linked Bernoulli Synopses and the proposed techniques have great potential in the context of data warehouse databases.
9

Improving the Depiction of Uncertainty in Simulation Models by Exploiting the Potential of Gaussian Quadratures

Stepanyan, Davit 12 March 2021 (has links)
Simulationsmodelle sind ein etabliertes Instrument zur Analyse von Auswirkungen exogener Schocks in komplexen Systemen. Die in jüngster Zeit gestiegene verfügbare Rechenleistung und -geschwindigkeit hat die Entwicklung detaillierterer und komplexerer Simulationsmodelle befördert. Dieser Trend hat jedoch Bedenken hinsichtlich der Unsicherheit solcher Modellergebnisse aufgeworfen und daher viele Nutzer von Simulationsmodellen dazu motiviert, Unsicherheiten in ihren Simulationen zu integrieren. Eine Möglichkeit dies systematisch zu tun besteht darin, stochastische Elemente in die Modellgleichungen zu integrieren, wodurch das jeweilige Modell zu einem Problem (mehrfacher) numerischer Integrationen wird. Da es für solche Probleme meist keine analytischen Lösungen gibt, werden numerische Approximationsmethoden genutzt. Die derzeit zur Quantifizierung von Unsicherheiten in Simulationsmodellen genutzt en Techniken, sind entweder rechenaufwändig (Monte Carlo [MC] -basierte Methoden) oder liefern Ergebnisse von heterogener Qualität (Gauß-Quadraturen [GQs]). In Anbetracht der Bedeutung von effizienten Methoden zur Quantifizierung von Unsicherheit im Zeitalter von „big data“ ist es das Ziel dieser Doktorthesis, Methoden zu entwickeln, die die Näherungsfehler von GQs verringern und diese Methoden einer breiteren Forschungsgemeinschaft zugänglich machen. Zu diesem Zweck werden zwei neuartige Methoden zur Quantifizierung von Unsicherheiten entwickelt und in vier verschiedene, große partielle und allgemeine Gleichgewichtsmodelle integriert, die sich mit Agrarumweltfragen befassen. Diese Arbeit liefert methodische Entwicklungen und ist von hoher Relevanz für angewandte Simulationsmodellierer. Obwohl die Methoden in großen Simulationsmodellen für Agrarumweltfragen entwickelt und getestet werden, sind sie nicht durch Modelltyp oder Anwendungsgebiet beschränkt, sondern können ebenso in anderen Zusammenhängen angewandt werden. / Simulation models are an established tool for assessing the impacts of exogenous shocks in complex systems. Recent increases in available computational power and speed have led to simulation models with increased levels of detail and complexity. However, this trend has raised concerns regarding the uncertainty of such model results and therefore motivated many users of simulation models to consider uncertainty in their simulations. One way is to integrate stochastic elements into the model equations, thus turning the model into a problem of (multiple) numerical integration. As, in most cases, such problems do not have analytical solutions, numerical approximation methods are applied. The uncertainty quantification techniques currently used in simulation models are either computational expensive (Monte Carlo [MC]-based methods) or produce results of varying quality (Gaussian quadratures [GQs]). Considering the importance of efficient uncertainty quantification methods in the era of big data, this thesis aims to develop methods that decrease the approximation errors of GQs and make these methods accessible to the wider research community. For this purpose, two novel uncertainty quantification methods are developed and integrated into four different large-scale partial and general equilibrium models addressing agro-environmental issues. This thesis provides method developments and is of high relevance for applied simulation modelers who struggle to apply computationally burdensome stochastic modeling methods. Although the methods are developed and tested in large-scale simulation models addressing agricultural issues, they are not restricted to a model type or field of application.
10

Vergleich verschiedener Methoden zur Identifizierung Paratuberkulose–positiver Rinderherden: Vergleich verschiedener Methoden zur IdentifizierungParatuberkulose–positiver Rinderherden

Kube, Julia 11 March 2014 (has links)
Ziel der vorliegenden Arbeit war es, Screening–Methoden zu prüfen, um auf einfache, kostensparende Weise und mit ausreichender statistischer Sicherheit festzustellen, ob der Erreger der Paratuberkulose (Mycobacterium avium ssp. paratuberculosis) in einer Herde vorhanden ist oder nicht. Dazu wurden zwei auf dem kulturellen Erregernachweis beruhende Verfahren, die Untersuchung individueller Kotproben auf der Basis von Stichproben und die Untersuchung von Umgebungskotproben, einem serologischen Untersuchungsansatz, dem Nachweis von MAP–Antikörpern nach Aufkonzentrierung in gepoolten Einzelmilchproben, gegenübergestellt. Als Referenzmethode diente die kulturelle Einzeltieruntersuchung aller über 24 Monate alten Tiere des jeweiligen Bestandes. In 20 Thüringer Milchviehherden mit bekannter Einzeltierprävalenz wurden 5063 Einzeltierkotproben, 200 Umgebungskotproben und 262 aufkonzentrierte Milchpools aus 4337 laktierenden Rindern untersucht. Zusätzlich wurde eine systematische retrospektive Stichprobenkalkulation (nStichprobe = 1458 Einzeltierkotproben) vorgenommen. Die Kultivierung der Einzeltierkotproben und der Umgebungskotproben erfolgte über 12 Wochen auf HEYM–Nährmedium mit anschließender Speziesidentifizierung durch PCR und Ziehl–Neelsen–Färbung. Die Umgebungskotproben wurden zu zwei Untersuchungszeitpunkten (Frühjahr und Sommer) an jeweils fünf Lokalisationen eines Betriebes entnommen: Abkalbebereich, Melkbereich einschließlich Vorwartehof, Laufbereich, Haupttriebweg, Übergang zum Kälberbereich. Die Untersuchung der Milchpools erfolgte nach vorheriger Aufkonzentrierung mittels zweier verschiedener ELISAs. Im Frühjahr entnommene Umgebungskotproben aus 16 MAP–positiven Betrieben detektierten das Vorhandensein des Erregers in neun Betrieben (56,3 %). Betriebe mit einer Einzeltierprävalenz von über 4,5 % wurden in neun von zehn Fällen (90 %) sicher erkannt. Im Sommer entnommene Umgebungskotproben fielen durch eine sehr starke Kontamination auf. Von den 16 MAP–positiven Beständen wurden 15 Herden (93,7 %) mittels Stichprobenuntersuchung als Bestand mit Paratuberkulosevorkommen identifiziert, wobei lediglich ein Bestand mit einer Einzeltierprävalenz von 0,49 % nicht detektiert wurde. Die serologische Untersuchung der Milchpools lieferte keine verwendbaren Ergebnisse. Mit Hilfe der Untersuchung von Umgebungskotproben lassen sich Herden mit einer durch kulturelle Untersuchung ermittelten Einzeltierprävalenz von 4,5 % und darüber mit hinreichender Sicherheit auffinden. Bei der Bewertung dieses Schwellenwertes ist zu beachten, dass bei Verwendung von nur einem Kulturröhrchen je Kotprobe von einer Sensitivität der Methode von 60 % im Vergleich zur Verwendung von drei Kulturröhrchen auszugehen ist. Für eine Überwachung unverdächtiger Herden ist die Sensitivität dieses Untersuchungsansatzes jedoch zu gering. Die individuelle kulturelle Untersuchung einer Stichprobe zeigte eine ausreichend hohe Sensitivität, um bei der Überwachung größerer unverdächtiger Herden eingesetzt werden zu können. Ein Einsatz serologischer Milchuntersuchung ist zur Bewertung von Beständen zur Ermittlung des MAP–Infektionsstatus gegenwärtig nicht zu empfehlen. Für die Überwachung größerer, als Paratuberkulose–unverdächtig anerkannter Bestände ist somit ein wechselnder Einsatz von Einzeltierkotproben aller Rinder über 24 Monaten und einer aussagekräftigen systematischer Stichprobenuntersuchung möglich und trägt damit zur Erleichterung der derzeit noch zeit– und kostenintensiven Paratuberkulose–Diagnostik bei.

Page generated in 0.0604 seconds