41 |
Characterization of population heterogeneity in a model biotechnological process using Pseudomonas putidaJahn, Michael 07 October 2015 (has links)
Biotechnological processes are distinguished from classical chemistry by employing bio-molecules or whole cells as the catalytic element, providing unique reaction mechanisms with unsurpassed specificity. Whole cells are the most versatile \''factories\'' for natural or non-natural products, however, the conversion of e.g. hydrophobic substrates can quickly become cytotoxic. One host organism with the potential to handle such conditions is the gram-negative bacterium Pseudomonas putida, which distinguishes itself by solvent tolerance, metabolic flexibility, and genetic amenability. However, whole cell bioconversions are highly complex processes. A typical bottleneck compared to classical chemistry is lower yield and reproducibility owing to cell-to-cell variability. The intention of this work was therefore to characterize a model producer strain of P. putida KT2440 on the single cell level to identify non-productive or impaired subpopulations.
Flow cytometry was used in this work to discriminate subpopulations regarding DNA content or productivity, and further mass spectrometry or digital PCR was employed to reveal differences in protein composition or plasmid copy number.
Remarkably, productivity of the population was generally bimodally distributed comprising low and highly producing cells. When these two subpopulations were analyzed by mass spectrometry, only few metabolic changes but fundamental differences in stress related proteins were found. As the source for heterogeneity remained elusive, it was hypothesized that cell cycle state may be related to production capacity of the cells. However, subpopulations of one, two, or higher fold DNA content were virtually identical providing no clear hints for regulatory differences. On the quest for heterogeneity the loss of genetic information came into focus. A new work flow using digital PCR was created to determine the absolute number of DNA copies per cell and, finally, lack of expression could be attributed to loss of plasmid in non-producing cells. The average plasmid copy number was shown to be much lower than expected (1 instead of 10-20). In conclusion, this work established techniques for the quantification of proteins and DNA in sorted subpopulations, and by these means provided a highly detailed picture of heterogeneity in a microbial population.
|
42 |
Selbsttests und peer-reviewed Wikis zur Förderung von Anwendungs- und Analysefähigkeit in den WirtschaftswissenschaftenGleiß, Anne January 2016 (has links)
Unterschiedliche (lern-)kulturelle Hintergründe und Bachelorabschlüsse der Studierenden führen zu einem heterogenen Kursgefüge und zu großen Niveauunterschieden bei den Vorkenntnissen. Dem hohen Bedarf an individueller Förderung und der Notwendigkeit, die Wirksamkeit von Übungsaufgaben als Klausurvorbereitung zu erhöhen, kann mit dem Einsatz von E-Learning-Angeboten begegnet werden. Im hier vorgestellten Lehr-Lern-Projekt lag der Schwerpunkt auf der Erstellung eines Wikis als Lösungsskizze einer ehemaligen Klausur.
|
43 |
Generische Datenerfassung und Aufbereitung im Kontext verteilter, heterogener Sensor-Aktor-SystemeBergelt, René, Vodel, Matthias, Hardt, Wolfram January 2012 (has links)
Die vorgestellte Arbeit präsentiert ein geschlossenes Konzept für die synchronisierte Erfassung, Verarbeitung und Aufbereitung beliebiger Sensor-Informationen. Es ist nun möglich, heterogene Sensornetze sowie dedizierte, autarke Messsysteme zeitlich zu koordinieren und entsprechend in Relation zu setzen. Auf Basis von XML erfolgt die ganzheitliche Beschreibung des Monitoring-Szenarios und die Einordnung der einzelnen Datensätze. Die Informationen können nun in beliebigen Ausgabeformaten anwendungsspezifisch definiert und visualisiert werden. Zusätzlich ermöglichen Mechanismen zur gezielten Messwert-Vorverarbeitung und -Filterung eine Senkung des benötigten Datenvolumens.
Die Funktionalität des vorgestellten GREASE-Frameworks wird am Beispiel eines geschlossenen Test-Systems aus dem Automotive-Bereich evaluiert. Dabei wird die vorhandene Sensorik eines Kfz-Bordnetzes mit einem zusätzlichen Netzwerk aus Sensorknoten verfeinert. Die korrelierten Daten werden anschließend für die Visualisierung mittels Google Earth, jBEAM und anderen Lösungen aufbereitet.
|
44 |
Regulation versus Taxation: Efficiency of Zoning and Tax Instruments as Anti-Congestion PoliciesHirte, Georg, Rhee, Hyok-Joo 29 September 2016 (has links)
We examine the working mechanisms and efficiencies of zoning (regulation of floor area ratios and land-use types) and fiscal instruments (tolls, property taxes, and income transfer), and extend the instrument choice theory to include the congestion of road and nonroad infrastructure. We show that in the spatial model with heterogeneous households the standard first-best instruments do not work because they trigger distortion of spatial allocations. In addition, because of the household heterogeneity and real estate market distortions, zoning could be less efficient than, as efficient as, or more efficient than pricing instruments. However, when the zoning enacted deviates from the optimum, zoning not only becomes inferior to congestion charges but is also likely to reduce welfare. In addition, we provide a global platform that extends the instrument choice theory of pollution control to include various types of externalities and a wide range of discrete policy deviations for any reasons beyond cost–benefit uncertainties.
|
45 |
Netzwerkheterogenität und kooperative Bewegung: Untersuchung von Netzwerken unterschiedlicher Vernetzungsmechanismen mit dynamischer LichtstreuungEckert, Franziska 05 December 2008 (has links)
Die Struktur von Netzwerken wird durch die Wahl der Netzwerkaufbaureaktion, der Ausgangsmoleküle und der Reaktionsbedingungen bestimmt. Es ist schwierig, wenn nicht gar unmöglich, geeignete Reaktionsparameter zu finden, die zum Aufbau homogener Netzwerkstrukturen führen. Die unterschiedliche Reaktivität der Ausgangsmoleküle resultiert in Unregelmäßigkeiten innerhalb der Netzwerkstruktur, z. B. durch inhomogene Verteilung der Vernetzungspunkte. Als Maß für die Heterogenität eines Netzwerkes kann die Streuintensität herangezogen werden. Diese besteht bei Netzwerken aus einem dynamischen und einem statischen Teil. In stark heterogenen Netzwerken überwiegt die statische Komponente der Streuintensität, die dynamischen Beiträge sind gering. Bei homogeneren Strukturen überwiegt die dynamische Komponente. Deshalb kann der Beitrag dynamischer Konzentrationsfluktuationen zur Gesamtstreuintensität als Maß für den Grad der Heterogenität dienen. Die meisten Netzwerke werden durch radikalische Copolymerisation von Monomeren und Vernetzern synthetisiert. Aufgrund der unterschiedlichen Reaktivitäten sind die entstehenden Strukturen stark heterogen. Die Verwendung anderer Mechanismen zum Netzwerkaufbau bietet eine Möglichkeit, homogenere Netzwerke zu erhalten. Vor allem die Vernetzung polymerer Ketten, ausgehend von einer homogenen halbverdünnten Lösung, ist eine strategisch interessante Variante. Ziel dieser Arbeit war die systematische Untersuchung des Einflusses der chemischen Zusammensetzung, der Netzwerkaufbaureaktion, der Polymerkonzentration und der Netzwerkdichte auf die thermodynamischen Eigenschaften (kooperative Diffusionskoeffizienten Dcoop) und die Netzwerkstruktur (Heterogenität) unterschiedlicher Netzwerksysteme. Am Beispiel von Polyacrylsäure (PAS) Netzwerken (radikalische Vernetzung) und Poly(styrol-co-maleinsäureanhydrid) (PScoMSA) Netzwerken (Vernetzung polymerer Lösungen) wurden zwei Netzwerksysteme untersucht, die sich hinsichtlich ihrer Aufbaureaktion unterscheiden. Mittels klassischer Netzwerkanalyse können diese Systeme sehr gut charakterisiert werden. Die kooperativen Diffusionskoeffizienten sowie die Netzwerkheterogenität wurden durch dynamische Lichtstreuung bestimmt.
|
46 |
Wissen und Heterogenität in der ProduktentwicklungGöhring, Alexandra 03 January 2020 (has links)
Bereits seit einigen Jahrzehnten ist in unserer spätmodernen Gesellschaft eine Transformation zur Wissensgesellschaft zu beobachten (Hebestreit 2013). Das Zukunftsinstitut bezeichnet dies als „Megatrend Wissenskultur“, der für Transparenz, Zugänglichkeit, Demokratie und Dynamik von Wissen steht (Zukunftsinstitut GmbH 2015). Was ein Mensch im Mittelalter im Laufe eines gesamten Lebens an Informationen verarbeitete, können wir heute an einem einzigen Tag einer Tageszeitung entnehmen (Broßmann & Mödinger 2011). Dieses Beispiel verdeutlicht das exponentielle Informations- und Wissenswachstum, das konträrer Weise mit einer drastischen Wissensabnahme einhergeht, da unser Wissen immer schneller veraltet (ebd.).
|
47 |
Die Bedeutung von Verarbeitungstiefe im Musikunterricht - Dimensionen von Unterrichtsqualität in einer MusikstundeNiessen, Anne 05 June 2012 (has links)
In diesem Beitrag werden eine videographierte Musikstunde und Interviews, die mit den Schülerinnen und Schülern sowie mit der Lehrerin über die Stunde geführt wurden, in Beziehung gesetzt zu einem Modell „Dimensionen von Unterrichtsqualität“. In diesem Modell, das im Rahmen der TIMSS-Video-Studie entwickelt wurde, wird zwischen Angebot, Nutzung und Wirkung von Unterricht unterschieden. Deshalb wird das Lernangebot der videographierten Stunde mit Hilfe von Unterrichtsbeobachtung und von Äußerungen der Lehrerin erschlossen; Nutzung und Wirkung dieses Angebots werden durch eine Analyse der Schülerinterviews rekonstruiert. Im Ergebnis klaffen Angebot und Nutzung auseinander; Leistung, Verständnis und Motivation als erwünschte Wirkungen von Unterricht haben sich nicht in wünschenswertem Umfang eingestellt. In den Äußerungen der Schülerinnen und Schüler offenbart sich eine enge Verbindung zwischen der Angemessenheit des Anforderungsniveaus, ihrem Lernen und ihrer Motivation. / This article relates a videotaped lesson of general music education to a model of teaching quality that was developed within the TIMSS Video Study. The model differentiates between teaching offers, the way students make use of them and students’ learning outcomes. The teaching offer is made accessible not only by video analysis but also by evaluating a teacher interview. Student interviews allow the reconstruction of both students’ usage and outcomes. The results reveal a big difference between the learning offers on the one hand and the students’ usage of those on the other hand. Achievement, comprehension and motivation were not accomplished as desired. The student interviews show a correlation between an adequate level of requirements, the learning process and motivation.
|
48 |
Navigating the venture capital landscape: Studies on lifespan, efficiency, hypercompetition, and rapid and massive business scalingBrinkmann, Florian 30 May 2024 (has links)
The venture capital (VC) landscape is a crucial driver of economic growth and innovation, comprising a diverse range of capital investors. This dissertation highlights the heterogeneity, performance, and massive and rapid scaling efforts in this sector, focusing on the two dominant actors: Independent Venture Capital (IVC) and Corporate Venture Capital (CVC). The first study examines the contrasting lifespans of CVCs and IVCs, highlighting the early termination patterns of CVCs. The second study delves into the diverse nature of CVCs and analyzes their influence on the efficiency of portfolio firms. The third study probes the hypercompetitive environment in the VC landscape. It examines its implications and funds' strategies to provide quality signals to investors and startups in a hypercompetitive market. The fourth study looks deeper at the beneficiaries of VC funding: digital startups. Specifically, it delves into massive and rapid business scaling dynamics, shedding light on the key drivers behind this growth trajectory and its tensions. In sum, this dissertation advances the prevailing knowledge on venture capital and digital entrepreneurship, offering a deeper exploration of the heterogeneity of the VC landscape with a spotlight on CVCs. Additionally, it provides frontier research into hypercompetition and the underlying dynamics of massive and rapid business scaling.
|
49 |
Dokumentation zum Umgang mit Heterogenität: im Rahmen der Pilotphase an ausgewählten Grundschulen zum grundsätzlichen Verzicht auf die Feststellung möglichen sonderpädagogischen Förderbedarfs für die Förderschwerpunkte Lernen sowie emotionale und soziale Entwicklung bereits vor Einschulung oder in Klassenstufe 1 (Pilotphase): PraxisbeispieleBauer, Annett, Borsdorf, Katrin, Löwe, Silvia 25 June 2024 (has links)
Die Dokumentation zeigt an ausgewählten Praxisbeispielen, wie es den Grundschulen der Pilotphase gelungen ist, ihre spezifischen Konzepte, die in besonderer Weise auf die Förderung einer heterogenen Schülerschaft ausgerichtet sind, auszugestalten und weiterzuentwickeln.
Redaktionsschluss: 30.11.2023
|
50 |
Computational lipidology / prediction of lipoprotein density profiles in human blood plasmaHübner, Katrin 30 September 2008 (has links)
Wichtige Marker in der klinischen Routine für die Risikoabschätzung von kardiovaskulären Erkrankungen (CVD) sind Blutcholesterinwerte auf Basis von Lipoproteinklassen wie ''schlechtes'' LDL oder ''gutes'' HDL. Dies vernachlässigt, dass jede Lipoproteinklasse eine nicht-homogene Population von Lipoproteinpartikeln unterschiedlicher Zusammensetzung aus Lipiden und Proteinen bildet. Studien zeigen zudem, dass solche Sub-populationen von Lipoproteinen im Stoffwechsel als auch im Beitrag zu CVD unterschiedlich sind. Mehrwert und routinemäßiger Einsatz einer detaillierteren Auftrennung von Lipoproteinen sind jedoch umstritten, da die experimentelle Fraktionierung und Analyse aufwendig, zeit- und kostenintensiv sind. Die vorliegende Arbeit ''Computational Lipidology'' präsentiert einen neuartigen Modellierungsansatz für die Berechnung von Lipoproteinverteilungen (Lipoproteinprofil) im Blutplasma, wobei erstmals individuelle Lipoproteinpartikel anstelle von Lipoproteinklassen betrachtet werden. Das Modell berücksichtigt elementare Bestandteile (Lipide, Proteine) und Prozesse des Stoffwechsel von Lipoproteinen. Stochastische wie deterministische Simulationen errechnen auf Basis aller Lipoproteinpartikel im System deren Dichteverteilung. Die Modellberechnungen reproduzieren erfolgreich klinisch gemessene Lipoproteinprofile von gesunden Patienten und zeigen Hauptmerkmale von pathologischen Situationen, die durch Störung eines der zugrundeliegenden molekularen Prozesse verursacht werden. Hochaufgelöste Lipoproteinprofile zeigen die Verteilung von sogenannten ''high-resolution density sub-fractions'' (hrDS) innerhalb von Hauptlipoproteinklassen. Die Ergebnisse stimmen mit klinischen Beobachtungen sehr gut überein, was die Arbeit als einen signifikanten Schritt in Richtung Analyse von individuellen Unterschieden, patienten-orientierte Diagnose von Fettstoffwechselstörungen und Identifikation neuer Sub-populationen von potentiell klinischer Relevanz qualifiziert. / Monitoring the major lipoprotein classes, particularly low-density lipoproteins (''bad'' LDL) and high-density lipoproteins (''good'' HDL) for characterizing risk of cardiovascular disease (CVD) is well-accepted and routine in clinical practice. However, it is only one-half of the truth as lipoprotein classes comprise non-homogeneous populations of lipoprotein particles varying significantly in their composition of lipids and apolipoproteins. Various studies have shown differing metabolic behavior and contribution to CVD of individual lipoprotein sub-populations. Nevertheless, the superiority of more detailed lipoprotein fractionation is still a matter of debate because experimental separation and analysis is an elaborate, time-consuming and expensive venture and not yet worthwhile for routine measurements. The present work ''Computational Lipidology'' aims at establishing a novel modeling approach to calculate the distribution of lipoproteins (lipoprotein profile) in blood plasma being the first that settles on individual lipoprotein complexes instead of common lipoprotein classes. Essential lipoprotein constituents and processes involved in the lipoprotein metabolism are taken into account. Stochastic as well as deterministic simulations yield the distribution of lipoproteins over density based on the set of individual lipoprotein complexes in the system. The model calculations successfully reproduce lipoprotein profiles measured in healthy subjects and show main characteristics of pathological situations elicited by disorder in one of the underlying molecular processes. Moreover, the model reveals the distribution of high-resolution lipoprotein sub-fractions (hrDS) within major density classes. The results show satisfactory agreement with clinical observations which qualifies the work as a significant step towards analyzing inter-individual variability, patient-oriented diagnosis of lipid disorders and identifying new sub-fractions of potential clinical relevance.
|
Page generated in 0.0729 seconds