• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 497
  • 181
  • 114
  • 1
  • 1
  • 1
  • Tagged with
  • 795
  • 502
  • 488
  • 483
  • 374
  • 144
  • 115
  • 110
  • 105
  • 103
  • 95
  • 92
  • 92
  • 87
  • 83
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Accuracy of Genomic Prediction in Dairy Cattle

Erbe, Malena 16 May 2013 (has links)
Die genomische Zuchtwertschätzung ist vor allem im Bereich der Milchrinderzucht in den letzten Jahren zu einer beliebten Methode geworden, um sichere Zuchtwerte von Tieren ohne phänotypische Information zu erhalten. Das Ziel dieser Arbeit war es, verschiedene Einflussfaktoren auf die Genauigkeit der genomischen Zuchtwertschätzung in realen Rinderdatensätzen genauer zu untersuchen. In Kapitel 2 findet sich eine grundlegende Arbeit zur Kreuzvalidierung, in der die Eigenschaften verschiedener Kreuzvalidierungsstrategien in realen Datensätzen untersucht wurden. Kreuzvalidierung bedeutet, dass die verfügbaren Daten in eine Trainings- und eine Validierungsstichprobe aufgeteilt werden, wobei für die Individuen in der Validierungsstichprobe alle Beobachtungswerte als nicht vorhanden angenommen werden. Die Werte der Individuen in der Validierungsstichprobe werden dann mit einem Modell, das mit Hilfe der Beobachtungswerte der Individuen in der Trainingsstichprobe angepasst wird, vorhergesagt. Im Kontext der genomischen Zuchtwertschätzung werden Kreuzvalidierungsstrategien benutzt, um die Genauigkeit der genomischen Zuchtwertschätzung mit einer bestimmten Trainingspopulation abzubilden. Die Korrelation zwischen maskierten und vorhergesagten Werten der Tiere in der Validierungsstichprobe spiegelt die Genauigkeit der genomischen Zuchtwertschätzung wider. Die Art und Weise, wie der Datensatz in Trainings- und Validierungsstichprobe unterteilt wird, kann die Ergebnisse einer Kreuzvalidierung beeinflussen. Das Ziel dieser Studie war es deshalb, optimale Strategien für unterschiedliche Zwecke – Beschreibung der Genauigkeit der genomischen Vorhersage für mögliche Selektionskandidaten mit dem vorhandenen Datensatz oder Vergleich von zwei Methoden zur Vorhersage – zu finden. Ein Datensatz von etwa 2‘300 Holstein Friesian-Bullen, die mit dem Illumina BovineSNP50 BeadChip (im Folgenden 50K Chip genannt) typisiert waren, wurde unterschiedlich aufgeteilt, so dass sich zwischen 800 bis 2‘200 Tiere in der Trainingsstichprobe und die jeweils restlichen Tiere in der Validierungsstichprobe befanden. Zwei BLUP-Modelle, eines mit einem zufälligen genomischen Effekt und eines mit einem zufälligen polygenen und einem zufälligen genomischen Effekt, wurden zur Vorhersage verwendet. Die höchste Genauigkeit der Vorhersage konnte mit der größten Trainingsstichprobe erreicht werden. Eine große Trainingsstichprobe bei gegebenem limitierten Datenmaterial impliziert aber auch, dass gleichzeitig die Validierungsstichproben klein und damit die Standardfehler der beobachteten Genauigkeiten sehr hoch sind. Falls es das Ziel einer Studie ist, signifikante Unterschiede zwischen Modellen nachzuweisen, ist es besser größere Validierungsstichproben zu verwenden. Eine fünffache Kreuzvalidierung scheint in vielen Fällen ein guter Kompromiss zu sein. Die Verwandtschaftsstruktur zwischen den Tieren in der Trainings- und der Validierungsstichprobe hat einen großen Effekt auf die Genauigkeit der genomischen Zuchtwertschätzung. Momentan sind noch genügend nachkommengeprüfte Bullen in den Trainingsstichproben vorhanden, mit denen die Tiere in der Validierungsstichprobe hoch verwandt sind. Wenn die genomische Selektion konsequent angewendet wird, ist es möglich, dass solche Individuen für die Trainingsstichprobe knapper werden. Deshalb enthält Kapitel 3 eine Studie, die untersucht, wie sich die Verwandtschafts- und Altersstruktur auf die Genauigkeit der genomischen Zuchtwerte von jungen Bullen auswirkt. Ein Datensatz mit 5‘698 Bullen der Rasse Holstein Friesian, die alle mit dem 50K Chip typisiert wurden und zwischen 1981 und 2005 geboren wurden, war die Basis dieser Arbeit. In allen Szenarien wurden die 500 jüngsten Bullen dieses Datensatzes als Validierungsstichprobe verwendet. Verschiedene Trainingsstichproben mit je 1‘500 Individuen wurden ausgewählt, um die genomischen Zuchtwerte der jungen Tiere (Selektionskandidaten) vorherzusagen: eine zufällige Auswahl an Bullen, die ältesten und jüngsten verfügbaren Tiere, Tiere mit Verwandtschaftskoeffizienten kleiner 0.25 oder 0.5 zu allen Selektionskandidaten, oder Tiere, die am stärksten mit den Selektionskandidaten verwandt waren. Verglichen mit dem Szenario mit der zufälligen Auswahl führte eine Verringerung der Verwandtschaft zu einer sichtbaren Abnahme der Genauigkeit der genomischen Vorhersage. Die Genauigkeit für die Szenarien mit den hoch verwandten Tieren bzw. den jüngsten Tieren in der Trainingsstichprobe war hingegen höher. Für die praktische Anwendung bedeutet dies, dass in stark verwandten Gruppen wie Elitebullen der Rasse Holstein Friesian keine weiteren Probleme für die Vorhersage junger Tiere zu erwarten sind, solange Väter, Voll- und Halbgeschwister in der Trainingsstichprobe vorhanden sind. Neue nachkommengeprüfte Bullen sollten deshalb kontinuierlich zur Trainingsstichprobe hinzugefügt werden – sonst wird eine klare Abnahme der Genauigkeit schon nach ein oder zwei Generationen zu sehen sein. Kapitel 4 beschäftigt sich mit zwei weiteren Faktoren, die die Genauigkeit der genomischen Vorhersage beeinflussen können: Markerdichte und Methodenwahl. Bis jetzt wurden normalerweise 50K SNPs für die genomische Zuchtwertschätzung verwendet, aber seit Kurzem ist auch ein neues hochdichtes SNP-Array mit 777K SNPs verfügbar. Dies lässt die Frage aufkommen, ob die höhere Markerdichte zu einem Anstieg in der Genauigkeit führen kann. Je mehr Marker verfügbar sind, umso größer wird auch die Notwendigkeit, Methoden zu entwickeln, die einen Teil der Marker als nicht informativ (d.h. ohne Effekt auf das untersuchte Merkmal) zulassen. Deshalb wurde eine neue und effiziente Bayes’sche Methode (BayesR) entwickelt, die annimmt, dass die SNP Effekte aus einer Reihe von Normalverteilungen stammen, die unterschiedliche Varianzen haben. Die Anzahl der SNPs pro Verteilung wird nicht festgesetzt, sondern mit Hilfe einer Dirichlet-Verteilung modelliert. In Kapitel 4 wird außerdem auf die Frage eingegangen, wie sich die Genauigkeit der Vorhersage im Fall von Trainingsstichproben mit mehreren Rassen bei unterschiedlicher Markerdichte verhält. Bei Milchrinderrassen sind große Trainingsstichproben erforderlich, um robuste Schätzer der SNP-Effekte zu erhalten, aber gerade bei kleinen Rassen kann es schwierig sein, solch große Trainingsstichproben aufzubauen. Trainingsstichproben, die Tiere mehrerer Rassen enthalten, können deshalb eine Möglichkeit sein, dieses Problem zu umgehen. Mit 50K SNPs war der Erfolg solcher Mehrrassen-Trainingsstichproben gering, was darauf zurückgeführt wurde, dass die Haplotypenstruktur über die Rassen hinweg bei dieser Markerdichte nicht konsistent war. Der hochdichte SNP-Chip könnte hier allerdings Verbesserungen für die Vorhersage über Rassen hinweg bringen. Die Veränderungen in der Genauigkeit der genomischen Zuchtwertschätzung innerhalb einer Rasse und über Rassen hinweg wurden mit Daten von australischen Bullen der Rassen Holstein Friesian und Jersey, die mit dem 50K Chip typisiert und auf 777K SNPs imputet waren, und zwei verschiedenen Methoden (GBLUP, BayesR) untersucht. Die Verwendung von imputeten hochdichten Markern führte zu keinem signifikanten Anstieg der Genauigkeit innerhalb einer Rasse und nur zu einer geringen Verbesserung der Genauigkeit in der kleineren Rasse im Mehrrassen-Szenario. BayesR lieferte gleichwertige oder in vielen Fällen höhere Genauigkeiten als GBLUP. Eine Eigenschaft von BayesR ist außerdem, dass es möglich ist, aus den Ergebnissen Erkenntnisse zur genetischen Architektur des Merkmals zu erhalten, z.B. indem man die durchschnittliche Anzahl an SNPs in den verschiedenen Verteilungen betrachtet. Die Genauigkeit der genomischen Zuchtwertschätzung kann mit verschiedenen Validierungsprozeduren berechnet werden, sobald reale Daten vorhanden sind. In manchen Situationen kann es jedoch von Vorteil sein, wenn man die erwartete Genauigkeit der Vorhersage im Vorfeld einer Studie abschätzen kann, z.B. um zu wissen, welche Größe die Trainingsstichprobe haben sollte oder wie hoch die Markerdichte sein sollten, um eine bestimmte Genauigkeit zu erreichen. Verschiedene deterministische Formeln zur Abschätzung der erreichbaren Genauigkeit sind in der Literatur verfügbar, die alle auf den mehr oder weniger gleichen Parametern beruhen. Einer dieser Parameter ist die Anzahl unabhängig segregierender Chromosomensegmente (Me), die normalerweise mit Hilfe von theoretischen Werten wie der effektiven Populationsgröße (Ne) deterministisch bestimmt wird. In Kapitel 5 wird ein Maximum-Likelihood Ansatz beschrieben, der es ermöglicht, Me basierend auf systematisch angelegten Kreuzvalidierungsexperimenten empirisch zu bestimmen. Darauf aufbauend wurden verschiedene deterministische Funktionen zur Vorhersage der Genauigkeit verglichen und so modifiziert, dass sie am besten zu den vorhandenen Datensätzen passten. Mit 5‘698 Holstein Friesian-Bullen, die mit dem 50K Chip typisiert waren, und 1‘333 Braunvieh-Bullen, die mit dem 50K Chip typisiert und auf 777K SNPs imputet waren, wurden mit GBLUP verschiedene k-fache Kreuzvalidierungen (k=2, 3, …, 10, 15, 20) durchgeführt. So konnte eine genomische Zuchtwertschätzung bei unterschiedlichen Größen der Trainingsstichprobe nachgebildet werden. Weiterhin wurden alle Szenarien mit verschiedenen Subsets der vorhandenen SNPs (10‘000, 20‘000, 30‘000, 42‘551 SNPs für Holstein Friesian, und jeder, jeder zweite, jeder 4., … jeder 256. SNP für Braunvieh) durchgeführt, um den Einfluss der Markerdichte erfassen zu können. Der Maximum-Likelihood Ansatz wurde angewendet, um Me für die beiden vorhandenen Datensätze bestmöglich zu schätzen. Die höchste Likelihood wurde erreicht, wenn eine modifizierte Form der deterministischen Formel von Daetwyler et al. (2010, Genetics 185:1021-1031) für die Modellierung der erwarteten Genauigkeit die Grundlage bildete. Die wahrscheinlichsten Werte für Me, wenn alle vorhandenen Marker genutzt wurden, waren 1‘241 (412) und 1‘046 (197) für die Merkmale Zellzahl und Milchmenge für Holstein Friesian (Braunvieh). Die Werte für Me für Braunvieh und Holstein Friesian unterschieden sich deutlich, während Ne für beide Populationen (berechnet auf Basis des Pedigrees oder über die Struktur des Kopplungsungleichgewichts) sehr ähnlich war. Die Schätzungen für Me variierten zwischen verschiedenen Merkmalen innerhalb von Populationen und über Populationen mit ähnlichen Populationsstrukturen hinweg. Dies zeigt, dass Me wahrscheinlich kein Parameter ist, der sich nur aus Ne und der Länge des Genoms berechnen lässt. Die Modifizierung der Formel von Daetwyler et al. (2010) bestand darin, einen Gewichtungsfaktor hinzuzufügen, der berücksichtigt, dass die maximale Genauigkeit bei gegebener Markerdichte auch mit unendlich großer Trainingsstichprobe nicht 1 sein muss. Dies basiert auf der Annahme, dass die vorhandenen SNPs nicht die ganze genetische Varianz wiedergeben können. Auch dieser Gewichtungsfaktor wurde empirisch bestimmt. Die quadrierten Werte, d.h. der Prozentsatz der genetischen Varianz, die erklärt wird, lagen zwischen 76% und 82% für 10‘000 bis 42‘551 SNPs bei Holstein Friesian und zwischen 63% und 75% für 2‘451 bis 627‘306 SNPs bei Braunvieh. Zwischen dem natürlichen Logarithmus der Markerdichte und dem Gewichtungsfaktor bestand ein linearer Zusammenhang bis zu einer populationsspezifischen Grenze hinsichtlich der Markerdichte (~ 20‘000 SNPs bei Braunvieh). Oberhalb dieser Grenze fand sich ein Plateau, was bedeutet, dass das Hinzufügen von weiteren Markern den Anteil der genetischen Varianz, der erklärt wird, nicht mehr verändert.
202

Competition mechanisms of native and exotic tree species

Kawaletz, Heike 02 August 2013 (has links)
Der Anteil an nicht-einheimischen Pflanzenarten (Neophyten), die durch menschlichen Einfluss in neue Gebiete eingebracht worden sind, hat in den letzten zwei Jahrhunderten deutlich zugenommen. Weltweit gefährdet die Invasion von Neophyten beträchtlich die einheimische Biodiversität und Ökosystemfunktionen. Verschiedene biologische Eigenschaften (z.B. hohe Zuwachsrate und schnelle Vermehrung) führen zu einer besseren Konkurrenzfähigkeit von invasiven Arten und verursachen Veränderungen in der natürlichen Artzusammensetzung. Eine genauere Erfassung der Eigenschaften, die Neophyten zu starken Konkurrenten machen, könnte dabei helfen pflanzliche Invasionen besser zu verstehen und zukünftig effektiver zu steuern. Topfversuche ermöglichen die Untersuchung von Pflanzeninteraktionen unter kontrollierten Bedingungen ohne den schwer kalkulierbaren Einfluss heterogener Umweltfaktoren. Allerdings führen die Langlebigkeit und die größeren Dimensionen von Baumindividuen zu mehr Problemen in Topfversuchen im Vergleich zur Untersuchung krautiger Pflanzen. Aus diesem Grund wurde im Rahmen eines Reviews Literatur ausgewertet, um einen Überblick über die praktische Durchführung von Topfversuchen, die sich ausschließlich mit Baumarten beschäftigen, zu geben. Es ist offensichtlich, dass der Vorteil von Topfversuchen zugleich auch einen Nachteil darstellt: Aufgrund der kontrollierten Bedingungen sind Topfversuche in ihrer Eignung natürliche Gegebenheiten zu imitieren immer eingeschränkt. Die Zuverlässigkeit von Topfversuchen bei der Vorhersage des Baumwachstums unter natürlichen Bedingungen ist daher problematisch. Eine Möglichkeit um die Übertragbarkeit von Topfversuchen zu verbessern, könnte die Durchführung zusätzlicher Felduntersuchungen sein. In einem Topfversuch wurden die, durch Unterschiede in der Wuchsrate, Biomasseproduktion und Biomasseverteilung bedingten, Konkurrenzmechanismen von zwei einheimischen (Quercus robur L., Carpinus betulus L.) und zwei nicht-einheimischen Baumarten untersucht (Prunus serotina Ehrh., Robinia pseudoacacia L.). Einjährige Jungpflanzen wurden verschiedenen intra- und interspezifischen Konkurrenzbedingungen ausgesetzt, mit oder ohne den Einfluss von Wurzelkonkurrenz. Um die Konkurrenzmechanismen genauer zu bestimmen, wurde zwischen Wurzel- und Sprosskonkurrenz unterschieden, indem entweder ober- oder unterirdische Plastiktrennwände in die Töpfe integriert wurden. Es wurde angenommen, dass die Gesamtbiomasseproduktion der Neophyten im Vergleich zur Biomasseproduktion der einheimischen Baumarten signifikant höher ist und dies zu einer Verringerung der Biomasse von Q. robur und C. betulus führt. Des Weiteren wurde der Einfluss der unterirdischen Konkurrenz auf das Wachstum und die Biomasseverteilung der einheimischen Arten gemäß der ‚balanced-growth hypothesis‘ untersucht. Unsere Ergebnisse bestätigen die Annahmen, dass die Biomasseproduktion der beiden Neophyten P. serotina und R. pseudoacacia signifikant höher ist und dies zu einem großen Konkurrenzvorteil und zu einer Biomassereduktion der beigemischten konkurrenzschwächeren einheimischen Arten führt. Der Konkurrenzdruck auf Q. robur und C. betulus wurde vor allem durch die Wurzelkonkurrenz der nicht-einheimischen Arten verursacht. Die Ausschaltung von unterirdischen Pflanzeninteraktionen durch Trennwände führte somit zu einem Anstieg der Biomasseproduktion der beiden einheimischen Arten. Demzufolge scheint sogar ein begrenztes Wurzelvolumen bessere Wachstumsbedingungen zu bieten als direkter Wurzelkontakt mit invasiven Konkurrenten. In Übereinstimmung mit der ‚balanced-growth hypothesis‘ reagieren Q. robur und C. betulus auf die starke unterirdische Konkurrenz durch die Neophyten, indem sie mehr Biomasse in Richtung der Wurzeln transportieren. Die verstärkte Investition der Pflanzen in die Wurzeln geht vor allem zu Lasten von Blatt- und Astbiomasse. Außerdem hat sich gezeigt, dass Artenmischungen aus einheimischen und nicht-einheimischen Bäumen mehr Biomasse produzieren, als man anhand des Wachstums dieser Arten in Monokulturen erwartet hätte. Im Vergleich zu Monokulturen oder Mischungen beider Neophyten war der Konkurrenzdruck für P. serotina und R. pseudoacacia in Mischungen mit den weniger produktiven einheimischen Baumarten geringer. Bei Betrachtung der beiden nicht-einheimischen Arten wird deutlich, dass P. serotina signifikant mehr Biomasse produziert. Trotzdem hat R. pseudoacacia aufgrund der starken Wurzelkonkurrenz einen negativen Einfluss auf die Biomasseproduktion von P. serotina. Wachsen die beiden konkurrenzstarken Neophyten zusammen in einem Topf, produzieren sie weniger Biomasse als in den entsprechenden Monokulturen. Es gibt Anzeichen dafür, dass die starke Konkurrenzfähigkeit der invasiven Neophyten oftmals zu Lasten ihrer Stresstoleranz geht. Damit einhergehend zeigten die beiden nicht-einheimischen Arten im Topfversuch eine höhere Mortalitätsrate: Vor allem P. serotina scheint zudem empfindlich gegenüber Schatten, Trockenheit und Überflutung zu sein. Möglicherweise könnte diese Schwachstelle der Neophyten genutzt werden, um eine weitere Ausbreitung einzudämmen.
203

Social Network Patterns of Sharing Information on Land Use and Agricultural Innovations in Ethnically Heterogeneous Communities in Ecuador

Gonzalez Gamboa, Vladimir 05 July 2013 (has links)
No description available.
204

Multivariate analysis and artificial neural network approaches of near infrared spectroscopic data for non-destructive quality attributes prediction of Mango (Mangifera indica L.)

Munawar, Agus Arip 10 February 2014 (has links)
No description available.
205

Climate change vulnerability assessments in the regional context

Holsten, Anne January 2013 (has links)
Adapting sectors to new conditions under climate change requires an understanding of regional vulnerabilities. Conceptually, vulnerability is defined as a function of sensitivity and exposure, which determine climate impacts, and adaptive capacity of a system. Vulnerability assessments for quantifying these components have become a key tool within the climate change field. However, there is a disagreement on how to make the concept operational in studies from a scientific perspective. This conflict leads to many still unsolved challenges, especially regarding the quantification and aggregation of the components and their suitable level of complexity. This thesis therefore aims at advancing the scientific foundation of such studies by translating the concept of vulnerability into a systematic assessment structure. This includes all components and implies that for each considered impact (e.g. flash floods) a clear sensitive entity is defined (e.g. settlements) and related to a direction of change for a specific climatic stimulus (e.g. increasing impact due to increasing days with heavy precipitation). Regarding the challenging aggregation procedure, two alternative methods allowing a cross-sectoral overview are introduced and their advantages and disadvantages discussed. This assessment structure is subsequently exemplified for municipalities of the German state North Rhine-Westphalia via an indicator-based deductive approach using information from literature. It can be transferred also to other regions. As for many relevant sectors, suitable indicators to express the vulnerability components are lacking, new quantification methods are developed and applied in this thesis, for example for the forestry and health sector. A lack of empirical data on relevant thresholds is evident, for example which climatic changes would cause significant impacts. Consequently, the multi-sectoral study could only provide relative measures for each municipality, in relation to the region. To fill this gap, an exemplary sectoral study was carried out on windthrow impacts in forests to provide an absolute quantification of the present and future impact. This is achieved by formulating an empirical relation between the forest characteristics and damage based on data from a past storm event. The resulting measure indicating the sensitivity is then combined with wind conditions. Multi-sectoral vulnerability assessments require considerable resources, which often hinders the implementation. Thus, in a next step, the potential for reducing the complexity is explored. To predict forest fire occurrence, numerous meteorological indices are available, spanning over a range of complexity. Comparing their performance, the single variable relative humidity outperforms complex indicators for most German states in explaining the monthly fire pattern. This is the case albeit it is itself an input factor in most indices. Thus, this meteorological factor alone is well suited to evaluate forest fire danger in many Germany regions and allows a resource-efficient assessment. Similarly, the complexity of methods is assessed regarding the application of the ecohydrological model SWIM to the German region of Brandenburg. The inter-annual soil moisture levels simulated by this model can only poorly be represented by simpler statistical approach using the same input data. However, on a decadal time horizon, the statistical approach shows a good performance and a strong dominance of the soil characteristic field capacity. This points to a possibility to reduce the input factors for predicting long-term averages, but the results are restricted by a lack of empirical data on soil water for validation. The presented assessments of vulnerability and its components have shown that they are still a challenging scientific undertaking. Following the applied terminology, many problems arise when implementing it for regional studies. Advances in addressing shortcomings of previous studies have been made by constructing a new systematic structure for characterizing and aggregating vulnerability components. For this, multiple approaches were presented, but they have specific advantages and disadvantages, which should also be carefully considered in future studies. There is a potential to simplify some methods, but more systematic assessments on this are needed. Overall, this thesis strengthened the use of vulnerability assessments as a tool to support adaptation by enhancing their scientific basis. / Die Anpassung von Sektoren an veränderte klimatische Bedingungen erfordert ein Verständnis von regionalen Vulnerabilitäten. Vulnerabilität ist als Funktion von Sensitivität und Exposition, welche potentielle Auswirkungen des Klimawandels darstellen, und der Anpassungsfähigkeit von Systemen definiert. Vulnerabilitätsstudien, die diese Komponenten quantifizieren, sind zu einem wichtigen Werkzeug in der Klimawissenschaft geworden. Allerdings besteht von der wissenschaftlichen Perspektive aus gesehen Uneinigkeit darüber, wie diese Definition in Studien umgesetzt werden soll. Ausdiesem Konflikt ergeben sich viele Herausforderungen, vor allem bezüglich der Quantifizierung und Aggregierung der einzelnen Komponenten und deren angemessenen Komplexitätsniveaus. Die vorliegende Dissertation hat daher zum Ziel die Anwendbarkeit des Vulnerabilitätskonzepts voranzubringen, indem es in eine systematische Struktur übersetzt wird. Dies beinhaltet alle Komponenten und schlägt für jede Klimaauswirkung (z.B. Sturzfluten) eine Beschreibung des vulnerablen Systems vor (z.B. Siedlungen), welches direkt mit einer bestimmten Richtung eines relevanten klimatischen Stimulus in Verbindung gebracht wird (z.B. stärkere Auswirkungen bei Zunahme der Starkregentage). Bezüglich der herausfordernden Prozedur der Aggregierung werden zwei alternative Methoden, die einen sektorübergreifenden Überblick ermöglichen, vorgestellt und deren Vor- und Nachteile diskutiert. Anschließend wird die entwickelte Struktur einer Vulnerabilitätsstudie mittels eines indikatorbasierten und deduktiven Ansatzes beispielhaft für Gemeinden in Nordrhein-Westfalen in Deutschland angewandt. Eine Übertragbarkeit auf andere Regionen ist dennoch möglich. Die Quantifizierung für die Gemeinden stützt sich dabei auf Informationen aus der Literatur. Da für viele Sektoren keine geeigneten Indikatoren vorhanden waren, werden in dieser Arbeit neue Indikatoren entwickelt und angewandt, beispielsweise für den Forst- oder Gesundheitssektor. Allerdings stellen fehlende empirische Daten bezüglich relevanter Schwellenwerte eine Lücke dar, beispielsweise welche Stärke von Klimaänderungen eine signifikante Auswirkung hervorruft. Dies führt dazu, dass die Studie nur relative Aussagen zum Grad der Vulnerabilität jeder Gemeinde im Vergleich zum Rest des Bundeslandes machen kann. Um diese Lücke zu füllen, wird für den Forstsektor beispielhaft die heutige und zukünftige Sturmwurfgefahr von Wäldern berechnet. Zu diesem Zweck werden die Eigenschaften der Wälder mit empirischen Schadensdaten eines vergangenen Sturmereignisses in Verbindung gebracht. Der sich daraus ergebende Sensitivitätswert wird anschließend mit den Windverhältnissen verknüpft. Sektorübergreifende Vulnerabilitätsstudien erfordern beträchtliche Ressourcen, was oft deren Anwendbarkeit erschwert. In einem nächsten Schritt wird daher das Potential einer Vereinfachung der Komplexität anhand zweier sektoraler Beispiele untersucht. Um das Auftreten von Waldbränden vorherzusagen, stehen zahlreiche meteorologische Indices zur Verfügung, welche eine Spannbreite unterschiedlicher Komplexitäten aufweisen. Bezüglich der Anzahl monatlicher Waldbrände weist die relative Luftfeuchtigkeit für die meisten deutschen Bundesländer eine bessere Vorhersagekraft als komplexere Indices auf. Dies ist er Fall, obgleich sie selbst als Eingangsvariable für die komplexeren Indices verwendet wird. Mit Hilfe dieses einzelnen meteorologischen Faktors kann also die Waldbrandgefahr in deutschen Region ausreichend genau ausgedrückt werden, was die Ressourceneffizienz von Studien erhöht. Die Methodenkomplexität wird auf ähnliche Weise hinsichtlich der Anwendung des ökohydrologischen Modells SWIM für die Region Brandenburg untersucht. Die interannuellen Bodenwasserwerte, welche durch dieses Modell simuliert werden, können nur unzureichend durch ein einfacheres statistisches Modell, welches auf denselben Eingangsdaten aufbaut, abgebildet werden. Innerhalb eines Zeithorizonts von Jahrzehnten, kann der statistische Ansatz jedoch das Bodenwasser zufriedenstellend abbilden und zeigt eine Dominanz der Bodeneigenschaft Feldkapazität. Dies deutet darauf hin, dass die Komplexität im Hinblick auf die Anzahl der Eingangsvariablen für langfristige Berechnungen reduziert werden kann. Allerdings sind die Aussagen durch fehlende beobachtete Bodenwasserwerte zur Validierung beschränkt. Die vorliegenden Studien zur Vulnerabilität und ihren Komponenten haben gezeigt, dass eine Anwendung noch immer wissenschaftlich herausfordernd ist. Folgt man der hier verwendeten Vulnerabilitätsdefinition, treten zahlreiche Probleme bei der Implementierung in regionalen Studien auf. Mit dieser Dissertation wurden Fortschritte bezüglich der aufgezeigten Lücken bisheriger Studien erzielt, indem eine systematische Struktur für die Beschreibung und Aggregierung von Vulnerabilitätskomponenten erarbeitet wurde. Hierfür wurden mehrere Ansätze diskutiert, die jedoch Vor- und Nachteile besitzen. Diese sollten vor der Anwendung von zukünftigen Studien daher ebenfalls sorgfältig abgewogen werden. Darüber hinaus hat sich gezeigt, dass ein Potential besteht einige Ansätze zu vereinfachen, jedoch sind hierfür weitere Untersuchungen nötig. Insgesamt konnte die Dissertation die Anwendung von Vulnerabilitätsstudien als Werkzeug zur Unterstützung von Anpassungsmaßnahmen stärken.
206

Scale- and trait dependent responses of bird communties to lowland rainforest restoration and frugivore-bird-seed interaction networks in Sumatra, Indonesia

Marthy, William 05 February 2014 (has links)
No description available.
207

Studies on dietary methionine efficiency and requirement in naked neck and normally feathered growing chickens

Khan, Daulat Rehman 05 February 2015 (has links)
No description available.
208

Food safety standards in developing countries: Exploring the role of financial literacy

Müller, Anna Katharina 12 February 2015 (has links)
No description available.
209

Effect of plant traits on host selection and performance of rape stem weevil (Ceutorhynchus napi Gyll.) (Col.: Curculionidae) on resynthesized lines and cultivars of oilseed rape (Brassica napus L.)

Schäfer-Kösterke, Heike Lena 24 July 2014 (has links)
No description available.
210

Aufklärung aktueller tierzüchterischer und verbraucherrelevanter Fragestellungen durch molekulargenetische Strategien / Elucidation of current animal breeding and consumer-relevant issues by molecular biological strategies

Floren, Claudia 18 July 2014 (has links)
<p> Klauenerkrankungen sind die dritthäufigste Abgangsursache bei Milchkühen und 90 % aller Lahmheiten gehen auf verschiedene Erkrankungen der Klauen zurück. Im Rahmen des FUGATO-plus Forschungsprojektes GENE-FL wurden die genetischen Grundlagen der Fundamentstabilität beim Rind, Schwein, Pferd und Schaf untersucht. Für die Untersuchungen beim Rind wurde Probenmaterial von insgesamt 1.962 erstlaktierenden Kühen der Rasse Holstein Friesian gesammelt. Diese stammten von sieben großen Herden aus Mecklenburg-Vorpommern mit vergleichbarem Haltungssystem und TMR-Fütterung. Der Klauenstatus der Tiere wurde zum Zeitpunkt des Klauenschnitts erfasst. Als Grundlage der molekularbiologischen Untersuchungen wurden anhand von in silico Analysen positionell-funktionelle Kandidatengene mit den assoziierten biochemischen Reaktionswegen für Fundamentmerkmale beim Rind und anderen landwirtschaftlichen Nutztierspezies ausgewählt. Aus den mehr als 1.000 ermittelten Kandidatengenen wurde ein individuell gefertigter SNP-Chip (384 SNP; ein SNP/Gen) erstellt. Mit dem SNP-Chip wurden 1.183 der phänotypisierten Tiere untersucht. Die Schwellenwertmodell-Analyse ergab eine signifikante Assoziation des im IQGAP1 (BTA21) befindlichen intronischen SNP (rs29017173, A/G) mit dem Merkmal Sohlenhämorrhagien. Des Weiteren konnte dieser SNP mit Fundamentmerkmalen der klassischen linearen Exterieurbeurteilung an zusätzlichem Datenmaterial von 2.394 Besamungsbullen der Rasse Holstein Friesian assoziiert werden. </p> <p> Bei den robusten Fleischrindern White Galloway werden im Bezug auf die Fellfarbe der Tiere vier Phänotypen unterschieden. Neben den drei weißen Fellfarbschlägen, die unterteilt werden in sehr gut markiert (wsg), übermarkiert (wsü) und untermarkiert (wss), gibt es den vollkommen schwarzen Fellfarbtyp (wsch). Als bevorzugte Fellzeichnungen gelten wsg und wsü, während die unerwünschten Zeichnungen wss und wsch sind. Auch bei gezielten Anpaarungen der phänotypisch bevorzugten Tiere kommen die nicht preferierten Farbphänotypen vermehrt vor. Zur Aufklärung des genetischen Hintergrunds der verschiedenen Farbvarianten wurden zunächst vier für die Fellfarbe relevante Gene, mast/stem cell growth factor receptor (KIT, BTA6), KIT ligand (KITLG, BTA5), melanocortin 1 receptor (MC1R, BTA18) und Tyrosinase (TYR, BTA29) vergleichend sequenziert und auf kausale kodierende Sequenzvarianten untersucht. In den potentiellen Kandidatengenen konnten keine Polymorphismen detektiert werden, die die unterschiedlichen Fellzeichnungsvarianten erklären und somit wurde eine Beteiligung dieser Gene ausgeschlossen. Eine kürzlich beim Rind beschriebene KIT Gen Duplikation und Insertion auf BTA29 bzw. Re-Insertion auf BTA6 wurde deshalb mittels Fluoreszenz-in-situ-Hybridisierung (FISH), Whole genome sequencing und Polymerasekettenreaktion (PCR)-basierter Genotypisierung der Insertionsbruchpunkte an 178 White Galloway und 64 White Park Tieren untersucht. In allen Fällen konnten die Fellfarb-Phänotypen auf die Duplikation und Insertion des KIT Gens auf BTA29 zurückgeführt werden. </p> <p> Lebensmittelskandale werden in regelmäßigen Abständen aus mehreren Ländern berichtet. Im Jahr 2013 wurden Fertigprodukte mit undeklarierten Pferdefleischbeimischungen entdeckt. Eine genaue Quantifizierung der zugesetzten undeklarierten Menge war bisher nicht verlässlich möglich. Mit der droplet digitalen PCR (ddPCR) wurden im Rahmen dieser Arbeit Testsysteme zum Nachweis entwickelt. Als Zielgene wurden das mitochondriale CYTB und das chromosomale F2 verwendet. Für die Etablierung des Verfahrens wurden als Gewebe zunächst Muskel, Fett, Sehne und Leber verwendet. Während sich in diesen Geweben die Anzahl der mtDNA-Kopien pro Zelle etwa um den Faktor 5 unterschied, war der Gehalt nukleärer DNA nahezu konstant. Ausgehend von den Spezies Rind, Schwein und Pferd wurden verschiedene DNA- und Fleischmischungen hergestellt, wobei der prozentuale Anteil der beigemischten Spezies zwischen 50 % bis 0,001 % variierte. Mit dem F2-basierten Testsystem wurde eine zuverlässige Quantifizierung (LOQ) bzw. Detektion (LOD) von Beimengungen von nur 0,01 % bzw. 0,001 % erreicht. </p>

Page generated in 0.087 seconds