• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 68
  • 15
  • 9
  • Tagged with
  • 91
  • 78
  • 59
  • 45
  • 44
  • 44
  • 21
  • 18
  • 14
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Vorhersage der Aktualisierungen auf Social Media Plattformen

Keller, Max-Emanuel 28 June 2023 (has links)
Social Media Plattformen wie Facebook, Twitter und YouTube sind nicht nur bei Endbenutzern, sondern auch bei Unternehmen seit Jahren sehr beliebt. Unternehmen nutzen diese Plattformen insbesondere für Marketingzwecke, womit herkömmliche Marketinginstrumente zunehmend in den Hintergrund rücken. Neben Unternehmen verwenden auch politische Parteien, Universitäten, Forschungseinrichtungen und viele weitere Organisationen die Möglichkeiten von Social Media für ihre Belange. Das große Interesse von Endbenutzern und Institutionen an Social Media macht es interessant für viele Anwendungen in Wirtschaft und Wissenschaft. Um Marktbeobachtung und Forschung zu Social Media zu betreiben, werden Daten benötigt, die meist über dedizierte Werkzeuge erhoben und ausgewertet werden, wobei die Einschränkungen vorhandener technischer Schnittstellen der Social Media Plattformen zu beachten sind. Für ausgewählte Forschungsfragen sind Aspekte wie Umfang und Aktualität der Daten von besonderer Bedeutung. Ein Abfragen von Aktualisierungen aus den Social Media Plattformen kann mit heute verfügbaren Mitteln nur über Polling-Verfahren durchgeführt werden. Zum Berechnen der Aktualisierungsintervalle nutzt man häufig statistische Modelle. Das Ziel der vorliegenden Arbeit ist es, geeignete Zeitpunkte zum Abruf vorgegebener Feeds auf Social Media Plattformen zu bestimmen, um neue Beiträge zeitnah abzurufen und zu verarbeiten. Die Berechnung geeigneter Aktualisierungszeitpunkte dient der Optimierung des Ressourceneinsatzes und einer Reduktion der Verzögerung der Verarbeitung. Viele Anwendungen können davon profitieren. Die vorliegende Arbeit leistet mehrere Beiträge im Hinblick auf die Zielsetzung. Zunächst wurden Arbeiten zu Social Media und angrenzenden Datenquellen im Umfeld des World Wide Web, welche die Bestimmung von Änderungsraten oder die Vorhersage von Aktualisierungen verfolgen, auf die eigene Problemstellung übertragen. Ferner wurde die Eignung der Algorithmen zur Vorhersage der Aktualisierungszeitpunkte aus bestehenden Ansätzen mithilfe quantitativer Messungen bestimmt. Die Ansätze wurden dazu auf reale Daten aus Facebook, Twitter und YouTube angewendet und mithilfe geeigneter Metriken evaluiert. Die gewonnenen Erkenntnisse zeigen, dass die Qualität der Vorhersagen wesentlich von der Wahl des Algorithmus abhängt. Hierbei konnte eine Forschungslücke im Hinblick auf die Auswahl geeigneter Algorithmen identifiziert werden, da diese nach bisherigen Erkenntnissen üblicherweise nur manuell oder nach statischen Regeln erfolgt. Ein eigener Ansatz zur Vorhersage bildet den Kern der Arbeit und bezieht die individuellen Aktualisierungsmuster bestehender Social Media Feeds ein, um für neue Feeds die geeigneten Algorithmen zur Vorhersage, mit passender Parametrisierung, auszuwählen. Entsprechend den Ergebnissen der Evaluation wird gegenüber dem Stand der Technik eine höhere Qualität der Vorhersagen bei gleichzeitiger Reduktion des Aufwands für die Auswahl erreicht.
32

Adaptive estimation for financial time series

Mercurio, Danilo 06 August 2004 (has links)
Diese Dissertation entwickelt neue lokal adaptive Methoden zur Schaetzung und Vorhersage von Zeitreihendaten. Diese Methoden sind fuer die Volatilitaetsschaetzung von Finanzmarktrenditen und fuer Regressions- und Autoregressionsprobleme konstruiert worden. Die vorgeschlagenen Ansaetze werden als lokal adaptiv bezeichnet, denn, anstatt einen globalen datenerzeugenden Prozess aufzuzwingen, welcher durch eine endliche Anzahl von Parametern beschrieben werden kann, nehmen sie nur an, dass Beobachtungen, welche chronologisch nah bei einander liegen, durch einen konstanten Prozess gut approximiert werden koennen. Diese Prozeduren sind adaptiv, weil sie fuer jede Beobachtung in einer datengesteuerten Art und Weise das Intervall der Zeithomogenitaet,d.h. die Anzahl der chronologisch benachbarten und homogen vergangenen Daten, aussuchen, fuer welchen die Hypothese einer konstanten Struktur nicht verworfen werden kann. Nichtasymptotische theoretische Ergebnisse werden hergeleitet, welche die Optimalitaet der betrachteten Algorithmen zeigen. Vergleiche mit Standardansaetzen verdeutlichen, dass die neuen Prozeduren sich kompetitiv verhalten und eine nuetzliche Alternative bieten, ausserdem liefern intensive Simulationsstudien und Anwendungen an reellen Daten gute Ergebnisse und bezeugen dabei ihre Effektivitaet und praktische Relevanz. / This thesis develops new locally adaptive methods for estimation and forecasting of financial time series data. These methods are mainly tailored for volatility estimation of financial returns and for regression and autoregression problems. The proposed approaches are defined locally adaptive because instead of imposing a stationary data generating process which can be globally described by a finite number of parameters, they only assume that observations which are chronologically close to each other can be well approximated by a constant process. These procedures are adaptive in the sense that for each observation they choose in a data driven way the interval of time homogeneity, i.e. the number of chronologically close and homogeneous past data where the hypothesis of a constant structure can not be rejected. Nonasymptotic theoretical results are derived, which show the optimality of the suggested algorithms. Comparisons with standard approaches demonstrate that the new procedures behave competitively and offer a valuable alternative, furthermore, intensive simulation studies and applications to real data provide good results, confirming their effectiveness and practical relevance.
33

pEDM: Online-Forecasting for Smart Energy Analytics

Dannecker, Lars, Rösch, Philipp, Fischer, Ulrike, Gaumnitz, Gordon, Lehner, Wolfgang, Hackenbroich, Gregor 16 September 2022 (has links)
Continuous balancing of energy demand and supply is a fundamental prerequisite for the stability of energy grids and requires accurate forecasts of electricity consumption and production at any point in time. Today's Energy Data Management (EDM) systems already provide accurate predictions, but typically employ a very time-consuming and inflexible forecasting process. However, emerging trends such as intra-day trading and an increasing share of renewable energy sources need a higher forecasting efficiency. Additionally, the wide variety of applications in the energy domain pose different requirements with respect to runtime and accuracy and thus, require flexible control of the forecasting process. To solve this issue, we introduce our novel online forecasting process as part of our EDM system called pEDM. The online forecasting process rapidly provides forecasting results and iteratively refines them over time. Thus, we avoid long calculation times and allow applications to adapt the process to their needs. Our evaluation shows that our online forecasting process offers a very efficient and flexible way of providing forecasts to the requesting applications.
34

Ökonomische und ökologische Bewertung der Auswirkungen des demografischen Wandels auf die Siedlungsentwässerung

Endrikat, Jan, Schlage, Franziska, Hillmann, Julia 28 December 2011 (has links) (PDF)
In recent publications it is questioned whether the existing wastewater management system is suitable for future requirements. The today’s wastewater infrastructure is a complex socio-technical system characterized by centralization, very long life-spans and sunk costs. Thus, it appears questionable whether this system is suitable against the background of a context of dynamic conditions as demographic change, climate change and the emerging requirements in terms of sustainability. This paper adds a contribution to the growing body of literature on prospective waste water management systems. Focusing on long term developments this paper aims to build up scenario-modules towards the year 2050. Our approach combines three methodologies which appear to be suitable with each other, namely the method of explorative scenario development, a modified Delphi method and content analysis. As the waste water sector is a very complex system with various impact factors which are characterized by high dynamics and strong uncertainty the scenario technique appears as an appropriate method. Within the scenario building process a modified Delphi method had been applied to generate the input for the scenario-modules. Key drivers and uncertainties in the field of waste water management were identified by interviewing 16 experts who are scientists or practitioners in the waste water sector. The interviews had been transliterated and then evaluated by using the content analysis approach. Afterwards scenario-modules were derived which provide a basis for further procedure towards complete scenarios for future wastewater infrastructure.
35

Combining paleontological and neontological data to assess the extinction risk of amphibians

Tietje, Melanie 12 February 2019 (has links)
Das Aussterberisiko einer Art ist nicht zufällig, sondern wird von mehreren Faktoren bestimmt, die geografische, ökologische und morphologische Merkmale umfassen. Einige dieser Merkmale sind Teil der Kriterien zur Einschätzung der Gefährdung einer Art, wie zum Beispiel in der Roten Liste der IUCN. Diese Beurteilungen sind ein wichtiges Werkzeug für den Artenschutz, da sie eine Verteilung der Maßnahmen auf die am stärksten gefährdeten Arten ermöglichen. Dies ist besonders wichtig für Amphibien, die Wirbeltiergruppe mit dem derzeit höchsten Anteil an bedrohten Arten. Bei einem großen Teil der Arten fehlt jedoch eine Einschätzung des Aussterberisikos. Weiter mangelt es auch an einer endgültigen Verifizierung des Einflusses der genutzten Merkmale auf das Aussterberisiko, da Aussterbeereignisse auf neontologischen Zeitskalen schwer zu erkennen sind. Der Fossilbericht stellt ein enormes Archiv an bereits geschehenen Aussterbeereignissen dar und bietet die Möglichkeit den Einfluss bestimmter Merkmale auf die Gefährdung zu testen. In der vorliegenden Arbeit untersuche ich Merkmale von Amphibienarten, die zum Aussterberisiko dieser zunehmend gefährdeten Gruppe beitragen und bestätige die Bedeutung der geographischen Reichweite für das Aussterberisiko. Die in dem sich aktuell entwickelnden Gebiet Conservation Paleobiology angesiedelte Arbeit konzentriert sich auf die Verbindung von paläontologischen und neontologischen Daten, und wie diese Kombination dazu beitragen kann das Wissen über Aussterberisiko-beeinflussende Faktoren zu erweitern. Dies wird durch die Analyse verschiedener im Fossilbericht überlieferter Artmerkmale und der Kombination der Erkenntnisse mit Ergebnissen der Roten Liste und Klimadaten erreicht. In meiner Arbeit zeige ich mögliche Anwendungen des Fossilberichts auf aktuellen Themen des Artenschutzes und wie eine Kombination beider Bereiche zum tieferen Verständnis von Gefährdungsfaktoren beitragen kann. / The extinction risk of a species is not random, but rather shaped by several factors comprising geographical, environmental and morphological traits. Some of these traits have been incorporated in assessment procedures for the classification of extant species' extinction risk, such as the International Union for Conservation of Nature (IUCN) Red List. These assessments are an important tool for conservation purposes, as they direct the available resources to species that are most reliant on support. This is especially important for amphibians, which are the the most endangered terrestrial vertebrate taxon today. However, a large number of species lack an assessment for extinction risk. Also, additional verification of the general influence of incorporated traits on extinction risk is needed, as real extinction events are difficult to detect on neontological time scales. The fossil record offers the opportunity to test the influence of certain traits on extinction risk as it provides an enormous archive of extinction events that already happened. In this thesis, I examine traits in amphibian species that contribute to the extinction risk of this increasingly endangered group and provide support for the importance of geographic range size on the extinction risk of species. Placed in the developing field of Conservation Paleobiology, the study concentrates on the connection between paleontological and neontological data and how this unique combination can add to the knowledge about traits that shaped the extinction risk of amphibian species. This is achieved by investigating species traits, conserved in the amphibian fossil record, and combining these findings with results from the IUCN Red List and climate data. The present dissertation shows possible applications of the fossil record to current questions in conservation biology and shows how a combination of both fields contributes to the understanding of factors that influence the extinction risk of species.
36

The Sense of Agency: Underlying Neurocognitive Mechanisms and its Attribution to Human and Non-Human Co-Actors

Goldberg, Michael 12 April 2018 (has links)
Das Gefühl der Kontrolle über die eigenen körperlichen Handlungen, und dadurch über die externe Umwelt ist einer der Grundpfeiler unserer menschlichen Existenz. Dieser fundamentale Aspekt der Identität ist bekannt als ‘Sense of Agency’ (SoA). Innerhalb der Neurowissenschaften begann die intensive Untersuchung dieses faszinierenden Konzepts erst innerhalb der letzten zwei Jahrzehnte. Das vorliegende Forschungsprojekt befasst sich mit zwei zentralen Aspekten des Sense of Agency. Zum einen wurden die zwei zugrundeliegenden neurokognitiven Mechanismen ‘Vorhersage’ und ‘Retrospektive Inferenz’ untersucht. Zum anderen wurde die Zuschreibung von Agency bei weiteren Ko-Akteuren, mit denen eine gemeinsame Aufgabe bewältigt werden musste untersucht. Das durchgeführte Forschungsprojekt trägt somit zu einem tieferen Verständnis menschlicher Agency auf individueller Ebene und im sozialen Kontext bei. Außerdem liefert es Implikationen für die Mensch-Maschine-Interaktion und die Verbesserung zukünftiger Mensch-Maschine-Schnittstellen. / The seamless feeling of control over one’s own bodily actions, and through them, over the external environment is one of the cornerstones of our existence as human beings. This fundamental aspect of personal identity has been termed the sense of agency (SoA). It is only within the last two decades that this intriguing concept has begun to be intensively studied in the cognitive neurosciences. In the current research project we addressed two central aspects of the sense of agency. First, we investigated its underlying neurocognitive mechanisms: prediction and retrospective inference. Second, we looked into the attribution of agency to other co-actors when cooperating in a joint task. Overall, the current research project has made a step towards a better and deeper understanding of human agency in the individual as well as the social contexts. Additionally, the findings presented in this work inform the field of human-computerinteraction and contribute to the improvement of future interface designs.
37

Modeling the MHC-I pathway

Peters, Björn 21 July 2003 (has links)
Das Immunsystems muss gesunde Zellen von infizierten und Krebszellen unterscheiden können, um letztere selektiv zu bekämpfen. Dies ist die Aufgabe der CTL-Zellen, die dazu auf der Zelloberfläche präsentierte Peptide die aus intrazellulären Proteinen der jeweiligen Zelle stammen untersuchen. Diese präsentierten Peptide (Epitope) werden durch den MHC-I Antigenpräsentationsweg hergestellt. Das Ziel dieser Arbeit ist es Methoden zu entwickeln die Epitope aus der großen Zahl prinzipiell in Proteinen enthaltener Peptide heraussuchen können. Dazu wird die Selektivität dreier wichtiger Komponenten des Präsentationsweges untersucht: Die Herstellung der Peptide durch das Proteasom, der Transport in das ER durch TAP, und das Binden von Peptiden an leere MHC-I Moleküle. Zur sequenzbasierten Vorhersage der Bindung von Peptiden an MHC-I Moleküle wurde ein neuer Algorithmus entwickelt. Dieser kombiniert eine Matrix, welche die individuellen Beiträge einzelner Reste zur Bindung beschreibt, mit Paarkoeffizienten, die Wechselwirkungen zwischen verschiedenen Positionen im Peptid beschreiben. Dieser Ansatz macht bessere Vorhersagen als bisher publizierte Methoden, und quantifiziert erstmals den Einfluss von Wechselwirkungen innerhalb eines Peptids auf die Bindung. Die Verteilung der Werte der Paarkoeffizienten zeigt, dass sich Wechselwirkungen nicht auf benachbarte Aminosäuren beschränken. Im Vergleich zu den Matrixeinträgen sind die Werte der Paarkoeffizienten klein, was erklärt warum Vorhersagen die Wechselwirkungen komplett vernachlässigen trotzdem gut sein können. Erstmals wurde ein Algorithmus zur Vorhersage der TAP-Transportseffizienz von Peptiden beliebiger Länge entwickelt. Das ist deshalb wichtig, da viele MHC-I Epitope als N-terminal verlängerte Prekursoren in das ER transportiert werden. Für die Vorhersage der Transportfähigkeit eines potentiellen Epitopes wird deshalb über die Transporteffiziens des Epitopes selbst und seiner Prekursoren gemittelt. Mit Hilfe dieser Definition von Transportfähigkeit wird gezeigt, dass TAP einen starken selektiven Einfluss auf die Auswahl von MHC-I Epitopen hat. Indem man Peptide die als 'nicht-transportierbar' vorhergesagt werden als mögliche Epitope ausschließt, kann man die ohnehin schon hohe Qualität von MHC-I Bindungsvorhersagen weiter steigern. So eine zweistufige Vorhersage scheitert, wenn man statt des TAP Transports die Vorhersage der Generierbarkeit eines Epitopes durch das Proteasom als Filter verwenden möchte. Dieses schlechte Abschneiden der proteasomalen Schnittvorhersagen wird auf eine mangelhafte experimentelle Datenbasis zurückgeführt, da proteasomale Schnittraten schwieriger zu messen und interpretieren sind als die Affinitätsdaten für TAP und MHC-I. Um die experimentelle Datenbasis in Zukunft verbessern zu können, wurde ein neues experimentelles Protokoll entwickelt und an einer Reihe von Experimenten getestet. Dabei werden zwei Probleme behandelt: (1) Durch die Verwendung von Massenbilanzen werden MS-Signale in quantifizierte Peptidmengen umgerechnet. (2) Durch das erste kinetische Modell des Proteasomes das die Entstehung und den Abbau von Peptiden während eines Verdaus zufrieden stellend beschreiben kann, können aus den Verdaudaten Schnittraten bestimmt werden. / A major task of the immune system is to identify cells that have been infected by a virus or that have mutated, and discriminate them from healthy cells. This duty is assigned to cytotoxic T-lymphocytes (CTL), which scan epitopes presented to them on cell surfaces derived from intracellular proteins through the MHC-I antigen processing pathway. The goal of this work is to provide computational methods that allow to predict which epitopes get presented from the large pool of peptide candidates contained in intracellular proteins. This is achieved by examining the selective influence of three major steps in the pathway: peptide generation by the proteasome, peptide transport into the ER by TAP, and binding of peptides to MHC-I molecules. For peptide binding to MHC-I, a new algorithm is developed that combines a matrix-based method describing the contribution of individual residues to binding with pair coefficients describing pair-wise interactions between positions in a peptide. This approach outperforms several previously published prediction methods, and for the first time quantifies the impact of interactions in a peptide. The distribution of the pair coefficient values shows that interactions are not limited to amino acids in direct contact, but can also play a role over longer distances. Compared to the matrix entries, the pair-coefficients are rather small, explaining why methods completely ignoring interactions can nevertheless make good predictions. Next, a novel algorithm is developed to predict the TAP affinities of peptides of any length. Longer peptides are important because several MHC-I epitopes are generated by N-terminal trimming of precursor peptides transported into the ER by TAP. As the true in vivo precursors of an epitope are not known, a generalized TAP score is established which averages across the scores of all precursors up to a certain length. The ability of this TAP score to discriminate between epitopes and random peptides shows that the influence of TAP is a consistent, strong pressure on the selection of MHC-I epitopes. Using predicted TAP transport efficiencies as a filter prior to the prediction of MHC-I binding affinities, it is possible to further improve the already very high classification accuracy achieved using MHC-I affinity predictions alone. Such a 2-step prediction protocol failed when predictions of C-terminal proteasomal cleavages were combined with MHC-I affinity predictions. This disappointing result is thought to be caused by the lack of a sufficiently large set of quantitative and consistent experimental data on proteasomal cleavage rates, which are more difficult to measure and interpret than the affinity assays used to characterize peptide binding to TAP and MHC-I. Therefore, a new protocol for the evaluation of proteasomal digests is developed, which is applied to a series of experiments. This novel protocol addresses two problems: (1) Using mass-balance equations, a method is developed to quantify peptide amounts from MS-signals. (2) By introducing the first kinetic model of the 20S proteasome capable of providing a satisfactory quantitative description of the whole time course of product formation, cleavage probabilities can be extracted reliably from proteasomal in vitro digests.
38

Bioinformatics approaches to analysing RNA mediated regulation of gene expression

Childs, Liam January 2010 (has links)
The genome can be considered the blueprint for an organism. Composed of DNA, it harbours all organism-specific instructions for the synthesis of all structural components and their associated functions. The role of carriers of actual molecular structure and functions was believed to be exclusively assumed by proteins encoded in particular segments of the genome, the genes. In the process of converting the information stored genes into functional proteins, RNA – a third major molecule class – was discovered early on to act a messenger by copying the genomic information and relaying it to the protein-synthesizing machinery. Furthermore, RNA molecules were identified to assist in the assembly of amino acids into native proteins. For a long time, these - rather passive - roles were thought to be the sole purpose of RNA. However, in recent years, new discoveries have led to a radical revision of this view. First, RNA molecules with catalytic functions - thought to be the exclusive domain of proteins - were discovered. Then, scientists realized that much more of the genomic sequence is transcribed into RNA molecules than there are proteins in cells begging the question what the function of all these molecules are. Furthermore, very short and altogether new types of RNA molecules seemingly playing a critical role in orchestrating cellular processes were discovered. Thus, RNA has become a central research topic in molecular biology, even to the extent that some researcher dub cells as “RNA machines”. This thesis aims to contribute towards our understanding of RNA-related phenomena by applying Bioinformatics means. First, we performed a genome-wide screen to identify sites at which the chemical composition of DNA (the genotype) critically influences phenotypic traits (the phenotype) of the model plant Arabidopsis thaliana. Whole genome hybridisation arrays were used and an informatics strategy developed, to identify polymorphic sites from hybridisation to genomic DNA. Following this approach, not only were genotype-phenotype associations discovered across the entire Arabidopsis genome, but also regions not currently known to encode proteins, thus representing candidate sites for novel RNA functional molecules. By statistically associating them with phenotypic traits, clues as to their particular functions were obtained. Furthermore, these candidate regions were subjected to a novel RNA-function classification prediction method developed as part of this thesis. While determining the chemical structure (the sequence) of candidate RNA molecules is relatively straightforward, the elucidation of its structure-function relationship is much more challenging. Towards this end, we devised and implemented a novel algorithmic approach to predict the structural and, thereby, functional class of RNA molecules. In this algorithm, the concept of treating RNA molecule structures as graphs was introduced. We demonstrate that this abstraction of the actual structure leads to meaningful results that may greatly assist in the characterization of novel RNA molecules. Furthermore, by using graph-theoretic properties as descriptors of structure, we indentified particular structural features of RNA molecules that may determine their function, thus providing new insights into the structure-function relationships of RNA. The method (termed Grapple) has been made available to the scientific community as a web-based service. RNA has taken centre stage in molecular biology research and novel discoveries can be expected to further solidify the central role of RNA in the origin and support of life on earth. As illustrated by this thesis, Bioinformatics methods will continue to play an essential role in these discoveries. / Das Genom eines Organismus enthält alle Informationen für die Synthese aller strukturellen Komponenten und deren jeweiligen Funktionen. Lange Zeit wurde angenommen, dass Proteine, die auf definierten Abschnitten auf dem Genom – den Genen – kodiert werden, die alleinigen Träger der molekularen - und vor allem katalytischen - Funktionen sind. Im Prozess der Umsetzung der genetischen Information von Genen in die Funktion von Proteinen wurden RNA Moleküle als weitere zentrale Molekülklasse identifiziert. Sie fungieren dabei als Botenmoleküle (mRNA) und unterstützen als Trägermoleküle (in Form von tRNA) die Zusammenfügung der einzelnen Aminosäurebausteine zu nativen Proteine. Diese eher passiven Funktionen wurden lange als die einzigen Funktionen von RNA Molekülen angenommen. Jedoch führten neue Entdeckungen zu einer radikalen Neubewertung der Rolle von RNA. So wurden RNA-Moleküle mit katalytischen Eigenschaften entdeckt, sogenannte Ribozyme. Weiterhin wurde festgestellt, dass über proteinkodierende Abschnitte hinaus, weit mehr genomische Sequenzbereiche abgelesen und in RNA Moleküle transkribiert werden als angenommen. Darüber hinaus wurden sehr kleine und neuartige RNA Moleküle identifiziert, die entscheidend bei der Koordinierung der Genexpression beteiligt sind. Diese Entdeckungen rückten RNA als Molekülklasse in den Mittelpunkt moderner molekularbiologischen Forschung und führten zu einer Neubewertung ihrer funktionellen Rolle. Die vorliegende Promotionsarbeit versucht mit Hilfe bioinformatorischer Methoden einen Beitrag zum Verständnis RNA-bezogener Phänomene zu leisten. Zunächst wurde eine genomweite Suche nach Abschnitten im Genom der Modellpflanze Arabidopsis thaliana vorgenommen, deren veränderte chemische Struktur (dem Genotyp) die Ausprägung ausgewählter Merkmale (dem Phänotyp) entscheidend beeinflusst. Dabei wurden sogenannte Ganz-Genom Hybridisierungschips eingesetzt und eine bioinformatische Strategie entwickelt, Veränderungen der chemischen Struktur (Polymorphismen) anhand der veränderten Bindung von genomischer DNA aus verschiedenen Arabidopsis Kultivaren an definierte Proben auf dem Chip zu detektieren. In dieser Suche wurden nicht nur systematisch Genotyp-Phänotyp Assoziationen entdeckt, sondern dabei auch Bereiche identifiziert, die bisher nicht als proteinkodierende Abschnitte annotiert sind, aber dennoch die Ausprägung eines konkreten Merkmals zu bestimmen scheinen. Diese Bereiche wurden desweiteren auf mögliche neue RNA Moleküle untersucht, die in diesen Abschnitten kodiert sein könnten. Hierbei wurde ein neuer Algorithmus eingesetzt, der ebenfalls als Teil der vorliegenden Arbeit entwickelt wurde. Während es zum Standardrepertoire der Molekularbiologen gehört, die chemische Struktur (die Sequenz) eines RNA Moleküls zu bestimmen, ist die Aufklärung sowohl der Struktur als auch der konkreten Funktion des Moleküls weitaus schwieriger. Zu diesem Zweck wurde in dieser Arbeit ein neuer algorithmischer Ansatz entwickelt, der mittels Computermethoden eine Zuordnung von RNA Molekülen zu bestimmten Funktionsklassen gestattet. Hierbei wurde das Konzept der Beschreibung von RNA-Sekundärstrukturen als Graphen genutzt. Es konnte gezeigt werden, dass diese Abstraktion von der konkreten Struktur zu nützlichen Aussagen zur Funktion führt. Des weiteren konnte demonstriert werden, dass graphen-theoretisch abgeleitete Merkmale von RNA-Molekülen einen neuen Zugang zum Verständnis der Struktur-Funktionsbeziehungen ermöglichen. Die entwickelte Methode (Grapple) wurde als web-basierte Anwendung der wissenschaftlichen Welt zur Verfügung gestellt. RNA hat sich als ein zentraler Forschungsgegenstand der Molekularbiologie etabliert und neue Entdeckungen können erwartet werden, die die zentrale Rolle von RNA bei der Entstehung und Aufrechterhaltung des Lebens auf der Erde weiter untermauern. Bioinformatische Methoden werden dabei weiterhin eine essentielle Rolle spielen.
39

Slice-Level Trading of Quality and Performance in Decoding H.264 Video / Slice-basiertes Abwägen zwischen Qualität und Leistung beim Dekodieren von H.264-Video

Roitzsch, Michael 02 February 2010 (has links) (PDF)
When a demanding video decoding task requires more CPU resources then available, playback degrades ungracefully today: The decoder skips frames selected arbitrarily or by simple heuristics, which is noticed by the viewer as jerky motion in the good case or as images completely breaking up in the bad case. The latter can happen due to missing reference frames. This thesis provides a way to schedule individual decoding tasks based on a cost for performance trade. Therefore, I will present a way to preprocess a video, generating estimates for the cost in terms of execution time and the performance in terms of perceived visual quality. The granularity of the scheduling decision is a single slice, which leads to a much more fine-grained approach than dealing with entire frames. Together with an actual scheduler implementation that uses the generated estimates, this work allows for higher perceived quality video playback in case of CPU overload. / Wenn eine anspruchsvolle Video-Dekodierung mehr Prozessor-Ressourcen benötigt, als verfügbar sind, dann verschlechtert sich die Abspielqualität mit aktuellen Methoden drastisch: Willkürlich oder mit einfachen Heuristiken ausgewählten Bilder werden nicht dekodiert. Diese Auslassung nimmt der Betrachter im günstigsten Fall nur als ruckelnde Bewegung wahr, im ungünstigen Fall jedoch als komplettes Zusammenbrechen nachfolgender Bilder durch Folgefehler im Dekodierprozess. Meine Arbeit ermöglicht es, einzelne Teilaufgaben des Dekodierprozesses anhand einer Kosten-Nutzen-Analyse einzuplanen. Dafür ermittle ich die Kosten im Sinne von Rechenzeitbedarf und den Nutzen im Sinne von visueller Qualität für einzelne Slices eines H.264 Videos. Zusammen mit einer Implementierung eines Schedulers, der diese Werte nutzt, erlaubt meine Arbeit höhere vom Betrachter wahrgenommene Videoqualität bei knapper Prozessorzeit.
40

Quantenchemische Modellierung der Thiol-Addition an Michael-Akzeptoren zur quantitativen Vorhersage ihrer elektrophilen Reaktivität und aquatischen Toxizität

Mulliner, Denis 22 May 2014 (has links) (PDF)
Die kovalente Bindung von elektrophilen körperfremden Stoffen an nukleophile Zentren in Peptiden und Proteinen ist der initiierende molekulare Schritt einer Vielzahl von Erkrankungen und toxischen Prozessen. Für a,b-ungesättigte Aldehyde, Ketone und Ester, die sogenannten Michael-Akzeptoren, spielt dabei die Reaktion mit endogenen Thiolen eine entscheidende Rolle. Für diese Stoffklasse ermöglicht die Quantifizierung der Thiolreaktivität (als logaritmische Geschwindigkeitskonstante zweiter Ordnung der Reaktion des Michael-Akzeptors mit dem Tripeptid Glutathion (GSH), log kGSH) eine Vorhersage der akuten aquatischen Toxizität gegenüber den Ciliaten Tetrahymena Pyriformis (quantifiziert als logaritmische 50%-Effekt-Konzentration (effect-concentration, EC) der Wachstumsinhibition, log EC50). Zum besseren Verständnis der an diesen Prozessen beteiligten Reaktionen wurden in dieser Arbeit mehrere mögliche Mechanismen der Addition von Methylthiol an a,b-ungesättigte Carbonylverbindungen quantenchemisch anhand ihrer Übergangszustände untersucht. Dabei lag der Fokus unter anderem auf der Identifikation einer Modellreaktion, deren Barriere eine quantitative Vorhersage der Thiolreaktivität ermöglicht. Entsprechende Regressionsmodelle wurde an experimentelle Daten angepasst. Auf der Basis der berechneten elektrophilen Reaktivität log kGSH und der Hydrophobie (quantifiziert als logarithmischer Oktanol/Wasser-Verteilungskoeffizient, log Kow) wurden Stoffklassenspezifische Regressionsmodelle zur Toxizitätsvorhersage entwickelt und für die Untergruppe der Ester eine Modell-Suite etabliert.

Page generated in 0.0657 seconds