• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 55
  • 14
  • 6
  • Tagged with
  • 75
  • 75
  • 67
  • 48
  • 27
  • 25
  • 24
  • 24
  • 24
  • 24
  • 22
  • 17
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Performance Evaluation of Future Internet Applications and Emerging User Behavior / Leistungsbewertung von zukünftigen Internet-Applikationen und auftretenden Nutzerverhaltens

Hoßfeld, Tobias January 2009 (has links) (PDF)
In future telecommunication systems, we observe an increasing diversity of access networks. The separation of transport services and applications or services leads to multi-network services, i.e., a future service has to work transparently to the underlying network infrastructure. Multi-network services with edge-based intelligence, like P2P file sharing or the Skype VoIP service, impose new traffic control paradigms on the future Internet. Such services adapt the amount of consumed bandwidth to reach different goals. A selfish behavior tries to keep the QoE of a single user above a certain level. Skype, for instance, repeats voice samples depending on the perceived end-to-end loss. From the viewpoint of a single user, the replication of voice data overcomes the degradation caused by packet loss and enables to maintain a certain QoE. The cost for this achievement is a higher amount of consumed bandwidth. However, if the packet loss is caused by congestion in the network, this additionally required bandwidth even worsens the network situation. Altruistic behavior, on the other side, would reduce the bandwidth consumption in such a way that the pressure on the network is released and thus the overall network performance is improved. In this monograph, we analyzed the impact of the overlay, P2P, and QoE paradigms in future Internet applications and the interactions from the observing user behavior. The shift of intelligence toward the edge is accompanied by a change in the emerging user behavior and traffic profile, as well as a change from multi-service networks to multi-networks services. In addition, edge-based intelligence may lead to a higher dynamics in the network topology, since the applications are often controlled by an overlay network, which can rapidly change in size and structure as new nodes can leave or join the overlay network in an entirely distributed manner. As a result, we found that the performance evaluation of such services provides new challenges, since novel key performance factors have to be first identified, like pollution of P2P systems, and appropriate models of the emerging user behavior are required, e.g. taking into account user impatience. As common denominator of the presented studies in this work, we focus on a user-centric view when evaluating the performance of future Internet applications. For a subscriber of a certain application or service, the perceived quality expressed as QoE will be the major criterion of the user's satisfaction with the network and service providers. We selected three different case studies and characterized the application's performance from the end user's point of view. Those are (1) cooperation in mobile P2P file sharing networks, (2) modeling of online TV recording services, and (3) QoE of edge-based VoIP applications. The user-centric approach facilitates the development of new mechanisms to overcome problems arising from the changing user behavior. An example is the proposed CycPriM cooperation strategy, which copes with selfish user behavior in mobile P2P file sharing system. An adequate mechanism has also been shown to be efficient in a heterogeneous B3G network with mobile users conducting vertical handovers between different wireless access technologies. The consideration of the user behavior and the user perceived quality guides to an appropriate modeling of future Internet applications. In the case of the online TV recording service, this enables the comparison between different technical realizations of the system, e.g. using server clusters or P2P technology, to properly dimension the installed network elements and to assess the costs for service providers. Technologies like P2P help to overcome phenomena like flash crowds and improve scalability compared to server clusters, which may get overloaded in such situations. Nevertheless, P2P technology invokes additional challenges and different user behavior to that seen in traditional client/server systems. Beside the willingness to share files and the churn of users, peers may be malicious and offer fake contents to disturb the data dissemination. Finally, the understanding and the quantification of QoE with respect to QoS degradations permits designing sophisticated edge-based applications. To this end, we identified and formulated the IQX hypothesis as an exponential interdependency between QoE and QoS parameters, which we validated for different examples. The appropriate modeling of the emerging user behavior taking into account the user's perceived quality and its interactions with the overlay and P2P paradigm will finally help to design future Internet applications. / Applikationen im heutigen Internet werden immer mehr durch intelligente Endknoten bereitgestellt, deren Kommunikation in logischen, virtuellen Netzwerken, (Overlays) realisiert wird. Die verstärkte Diensterbringung durch solche Overlays, wie zum Beispiel bei Peer-to-Peer Dateitauschbörsen oder Telefonie über das Internet, wird durch einen Paradigmenwechsel von Multi-Service Networks zu Multi-Network Services beschrieben. Während in einem Multi-Service Network verschiedene Dienste innerhalb eines Netzes angeboten werden, beschreibt ein Multi-Network Service die Diensterbringung über verschiedene Netze und Netzzugangstechnologien, wie es im Internet der Fall ist. Dadurch kann die technische Güte des Telekommunikationsdienstes (Quality of Service, QoS) nicht mehr die alleinige Metrik für die Qualität eines Dienstes sein. Stattdessen ist die vom Nutzer erfahrene Dienstgüte (User Perceived Quality of Experience, QoE) zu betrachten. Diese QoE muss entsprechend modelliert werden, um die Performanz von heutigen oder auch zukünftigen Internetapplikationen zu beurteilen. Die Berücksichtigung der QoE beinhaltet unter anderem auch neuartige Verhaltensweisen der Teilnehmer, die ebenfalls modelliert werden müssen. Ein Beispiel ist der Dienstabbruch durch ungeduldige Nutzer beim Herunterladen von Filmen oder bei nicht ausreichender Qualität bei Internet-Telefonie. Durch die Verschiebung der Intelligenz von Applikationen in Richtung Endknoten entstehen neu aufkommende Verhaltensweisen der Teilnehmer und sich ändernde Charakteristika des Netzwerkverkehrs, die sie von klassischen Client-Server-Anwendungen unterscheiden. Beispiele hierfür sind egoistisches oder altruistisches Nutzerverhalten bei der Einbringung von Endnutzer-Ressourcen zur Diensterbringung oder auch bösartiges Nutzerverhalten bei der gezielten Störung eines Dienstes (Pollution). In beiden Fällen sind die zeitdynamischen Verhaltensmuster (Churn, Flash Crowds) zu berücksichtigen. Um die ausgedehnten Overlay. Netze zu planen und zu evaluieren, sind überdies auch neue Leistungsbewertungsmodelle notwendig, damit zum Beispiel die Simulation skaliert oder aber auch zeitdynamische Nutzerverhalten in analytischen Modellen abgebildet wird. Diese Doktorarbeit arbeitet diese Aspekte an drei Anwendungsbeispielen auf: Verteilernetz für Dateiinhalte (Content Distribution Network), Netzwerk-basierte Videorekorder (Online TV Recorder) und Sprachtelefonie über P2P (VoP2P). Die Ergebnisse und Untersuchungen dieser Arbeit gliedern sich entsprechend dieser Anwendungsbeispiele.
12

Mathematical Modeling of Complex Fluids

Forster, Johannes January 2013 (has links) (PDF)
This thesis gives an overview over mathematical modeling of complex fluids with the discussion of underlying mechanical principles, the introduction of the energetic variational framework, and examples and applications. The purpose is to present a formal energetic variational treatment of energies corresponding to the models of physical phenomena and to derive PDEs for the complex fluid systems. The advantages of this approach over force-based modeling are, e.g., that for complex systems energy terms can be established in a relatively easy way, that force components within a system are not counted twice, and that this approach can naturally combine effects on different scales. We follow a lecture of Professor Dr. Chun Liu from Penn State University, USA, on complex fluids which he gave at the University of Wuerzburg during his Giovanni Prodi professorship in summer 2012. We elaborate on this lecture and consider also parts of his work and publications, and substantially extend the lecture by own calculations and arguments (for papers including an overview over the energetic variational treatment see [HKL10], [Liu11] and references therein). / Die vorliegende Masterarbeit beschaeftigt sich mit der mathematischen Modellierung komplexer Fluessigkeiten. Nach einer Einfuehrung in das Thema der komplexen Fluessigkeiten werden grundlegende mechanische Prinzipien im zweiten Kapitel vorgestellt. Im Anschluss steht eine Einfuehrung in die Modellierung mit Hilfe von Energien und eines variationellen Ansatzes. Dieser wird im vierten Kapitel auf konkrete Beispiele komplexer Fluessigkeiten angewendet. Dabei werden zunaechst viskoelastische Materialien (z.B. Muskelmasse) angefuehrt und ein Modell fuer solche beschrieben, bei dem Eigenschaften von Festkoerpern und Fluessigkeiten miteinander kombiniert werden. Anschliessend untersuchen wir den Ursprung solcher Eigenschaften und die Auswirkungen von bestimmten Molekuelstrukturen auf das Verhalten der umgebenden Fluessigkeit. Dabei betrachten wir zunaechst ein Mehrskalen-Modell fuer Polymerfluessigkeiten und damit eine Kopplung mikroskopischer und makroskopischer Groessen. In einem dritten Beispiel beschaeftigen wir uns dann mit einem Model fuer nematische Fluessigkristalle, die in technischen Bereichen, wie beispielsweise der Displaytechnik, Anwendung finden. Geschlossen wird mit einem Ausblick auf weitere Anwendungsgebiete und mathematische Probleme. Wir folgen einer Vorlesung von Professor Dr. Chun Liu von der Penn State University, USA, die er im Sommer 2012 im Rahmen einer Giovanni-Prodi Gastprofessur an der Universitaet Wuerzburg ueber komplexe Fluessigkeiten gehalten hat. Bei der Ausarbeitung werden ebenfalls Teile seiner Veroeffentlichungen aufgegriffen und die Vorlesung durch eigene Rechnungen und Argumentationsschritte deutlich erweitert.
13

Einfluss der Transportrollen auf die Guterwärmung in Rollenöfen

Sokolova, Iryna 14 July 2009 (has links) (PDF)
In Durchlauföfen zur Erwärmung von Gütern werden die Materialien zu einem großen Teil entweder auf Schienen und Hubbalken oder mittels Transportrollen durch die Öfen transportiert. Die Transportrollen sind auf den ersten Blick ein Widerstand bezüglich des Wärmeübergangs aus dem Ofenraum unterhalb der Rollen an die Unterseite der Güter. Eine Vergleichsmessung zeigte allerdings, dass die Stoffe auf den Transportrollen durch die zusätzliche Wärmeabgabe der Transportrollen an die Unterseite der Werkstoffe schneller erwärmt werden als auf Schienen. Im Rahmen dieser Arbeit wurde ein mathematisches Modell entwickelt, das die Guterwärmung in einem Rollenofen abbildet. Nach der experimentellen Verifizierung des mathematischen Modells wurden die Transportrollenparameter ermittelt, die die Guterwärmung in einem Rollenofen beschleunigen. Je geringer Rollendurchmesser und Rollenteilung sind und je höher die Gutgeschwindigkeit ist, umso mehr verbessern Rollen die Guterwärmung.
14

Einfluss der Transportrollen auf die Guterwärmung in Rollenöfen

Sokolova, Iryna 24 September 2004 (has links)
In Durchlauföfen zur Erwärmung von Gütern werden die Materialien zu einem großen Teil entweder auf Schienen und Hubbalken oder mittels Transportrollen durch die Öfen transportiert. Die Transportrollen sind auf den ersten Blick ein Widerstand bezüglich des Wärmeübergangs aus dem Ofenraum unterhalb der Rollen an die Unterseite der Güter. Eine Vergleichsmessung zeigte allerdings, dass die Stoffe auf den Transportrollen durch die zusätzliche Wärmeabgabe der Transportrollen an die Unterseite der Werkstoffe schneller erwärmt werden als auf Schienen. Im Rahmen dieser Arbeit wurde ein mathematisches Modell entwickelt, das die Guterwärmung in einem Rollenofen abbildet. Nach der experimentellen Verifizierung des mathematischen Modells wurden die Transportrollenparameter ermittelt, die die Guterwärmung in einem Rollenofen beschleunigen. Je geringer Rollendurchmesser und Rollenteilung sind und je höher die Gutgeschwindigkeit ist, umso mehr verbessern Rollen die Guterwärmung.
15

On the regulation of central carbon metabolism in S. cerevisiae

Bruck, Josef 08 April 2013 (has links)
Ziel dieser Arbeit war es, den zentralen Kohlenstoffwechsel mit besonderem Fokus auf Regulation zu untersuchen, insbesondere durch die Auftrennung von zwei Regulationsebenen: metabolische Regulation, assoziiert mit direkten Wech- selwirkungen zwischen Metaboliten und Enzymen, sowie hierarchische Regulation, assoziiert mit Änderungen in Enzymmengenänderungen durch die Regulation von de novo Enzymproduktion. Unsere Untersuchungen basieren größtenteils auf drei Datensätzen aus glukoselimitierten Chemostatkulturen von S. cerevisiae. Im Kap. 2 wurden Extrazelluläre Bedingungen im Makroskopischen unter- sucht. Das wichtigsten Ergebnis dieser the- oretischen Analyse ist die Charakterisierung des Selektionsdruckes in einem Chemostatkultur. Im Kap. 4 wurde eine Analyse auf Systemebene des zentralen Kohlenstoffwech- sels durchgeführt. Unter Verwendung der Metaboliten- und der Flußdaten wurde ein kinetisches Modell konstruiert, welches wesentliche Teile des zentralen Kohlen- stoffwechsels umfaßt. Die meisten kinetischen Ausdrücke und Parameterwerte wurden aus einem bestehenden kinetischen Modells (Teusink-Modell) übernom- men. / In this work, we aimed to elucidate central carbon metabolism focusing on the aspect of regulation, especially by separating two regulatory levels: metabolic regulation, associated with direct interactions of metabolites and enzymes, and hierarchic regulation, associated with enzyme level change via regulation of de novo enzyme production. Our investigations were largely based on the analysis of three datasets from glucose limited continuous cultures of S. cerevisiae. Extracellular conditions on the macroscopic scale were investigated in Chapter 2. This was inspired by the perceived lack of clarity regarding an important aspect: concentration of glucose, the limiting nutrient and main carbon source in these cultures. The main outcome of this theoretical analysis was characterisation of the selection pressure in a chemostat culture, as selecting for cells which produce the growth rate, defined by the pre-set dilution rate, with lower external concentration of the limiting nutrient. Flux regulation on the scale of individual enzymes was investigated for selected reactions in Chapter 3. This analysis was based on the attempt to reproduce flux changes through these reactions, using enzyme kinetic expressions with inputs from the three aforementioned datasets. The notion of hierarchic and metabolic regulation was introduced and modified. System-level analysis of central carbon metabolism was undertaken in Chap- ter 4. Using the information on metabolite levels and flux, a kinetic model representing significant parts of central carbon metabolism was constructed. To get feasible flux distributions, constrained metabolic flux balance analysis was performed, using a stoichiometric network, constructed to be consistent with the model’s stoichiometry. Fitting the model resulted in two sets of parameters corresponding to steady states reproducing, the nominal data values of the anaerobic and the fully aerobic conditions.
16

Critical states of seismicity : modeling and data analysis

Zöller, Gert January 2005 (has links)
The occurrence of earthquakes is characterized by a high degree of spatiotemporal complexity. Although numerous patterns, e.g. fore- and aftershock sequences, are well-known, the underlying mechanisms are not observable and thus not understood. Because the recurrence times of large earthquakes are usually decades or centuries, the number of such events in corresponding data sets is too small to draw conclusions with reasonable statistical significance. Therefore, the present study combines both, numerical modeling and analysis of real data in order to unveil the relationships between physical mechanisms and observational quantities. The key hypothesis is the validity of the so-called "critical point concept" for earthquakes, which assumes large earthquakes to occur as phase transitions in a spatially extended many-particle system, similar to percolation models. New concepts are developed to detect critical states in simulated and in natural data sets. The results indicate that important features of seismicity like the frequency-size distribution and the temporal clustering of earthquakes depend on frictional and structural fault parameters. In particular, the degree of quenched spatial disorder (the "roughness") of a fault zone determines whether large earthquakes occur quasiperiodically or more clustered. This illustrates the power of numerical models in order to identify regions in parameter space, which are relevant for natural seismicity. The critical point concept is verified for both, synthetic and natural seismicity, in terms of a critical state which precedes a large earthquake: a gradual roughening of the (unobservable) stress field leads to a scale-free (observable) frequency-size distribution. Furthermore, the growth of the spatial correlation length and the acceleration of the seismic energy release prior to large events is found. The predictive power of these precursors is, however, limited. Instead of forecasting time, location, and magnitude of individual events, a contribution to a broad multiparameter approach is encouraging. / Das Auftreten von Erdbeben zeichnet sich durch eine hohe raumzeitliche Komplexität aus. Obwohl zahlreiche Muster, wie Vor- und Nachbeben bekannt sind, weiß man wenig über die zugrundeliegenden Mechanismen, da diese sich direkter Beobachtung entziehen. Die Zeit zwischen zwei starken Erdbeben in einer seismisch aktiven Region beträgt Jahrzehnte bis Jahrhunderte. Folglich ist die Anzahl solcher Ereignisse in einem Datensatz gering und es ist kaum möglich, allein aus Beobachtungsdaten statistisch signifikante Aussagen über deren Eigenschaften abzuleiten. Die vorliegende Arbeit nutzt daher numerische Modellierungen einer Verwerfungszone in Verbindung mit Datenanalyse, um die Beziehung zwischen physikalischen Mechanismen und beobachteter Seismizität zu studieren. Die zentrale Hypothese ist die Gültigkeit des sogenannten "kritischen Punkt Konzeptes" für Seismizität, d.h. starke Erdbeben werden als Phasenübergänge in einem räumlich ausgedehnten Vielteilchensystem betrachtet, ähnlich wie in Modellen aus der statistischen Physik (z.B. Perkolationsmodelle). Es werden praktische Konzepte entwickelt, die es ermöglichen, kritische Zustände in simulierten und in beobachteten Daten sichtbar zu machen. Die Resultate zeigen, dass wesentliche Eigenschaften von Seismizität, etwa die Magnitudenverteilung und das raumzeitliche Clustern von Erdbeben, durch Reibungs- und Bruchparameter bestimmt werden. Insbesondere der Grad räumlicher Unordnung (die "Rauhheit") einer Verwerfungszone hat Einfluss darauf, ob starke Erdbeben quasiperiodisch oder eher zufällig auftreten. Dieser Befund zeigt auf, wie numerische Modelle genutzt werden können, um den Parameterraum für reale Verwerfungen einzugrenzen. Das kritische Punkt Konzept kann in synthetischer und in beobachteter Seismizität verifiziert werden. Dies artikuliert sich auch in Vorläuferphänomenen vor großen Erdbeben: Die Aufrauhung des (unbeobachtbaren) Spannungsfeldes führt zu einer Skalenfreiheit der (beobachtbaren) Größenverteilung; die räumliche Korrelationslänge wächst und die seismische Energiefreisetzung wird beschleunigt. Ein starkes Erdbeben kann in einem zusammenhängenden Bruch oder in einem unterbrochenen Bruch (Vorbeben und Hauptbeben) stattfinden. Die beobachtbaren Vorläufer besitzen eine begrenzte Prognosekraft für die Auftretenswahrscheinlichkeit starker Erdbeben - eine präzise Vorhersage von Ort, Zeit, und Stärke eines nahenden Erdbebens ist allerdings nicht möglich. Die genannten Parameter erscheinen eher vielversprechend als Beitrag zu einem umfassenden Multiparameteransatz für eine verbesserte zeitabhängige Gefährdungsabschätzung.
17

Thermodynamische und kinetische Untersuchungen im System Lithium-Silicium

Thomas, Daniel 10 February 2015 (has links) (PDF)
Die vorliegende Dissertation stellt die experimentelle Bestimmung von grundlegenden thermodynamischen und kinetischen Stoffdaten im System Lithium-Silicium vor. Ausgehend von der Synthese qualitativ hochwertiger Lithiumsilicide wurden Wärmekapazitäten über einen großen Temperaturbereich (2-873 K) bestimmt, die aufgrund der Ergebnisse bei tiefen Temperaturen die Ermittlung weiterer Parameter wie beispielsweise der Standardentropien bzw. der Bildungsentropien der Lithiumsilicide ermöglichte. Die Eigenschaft der Silicide, mit Wasserstoff Verbindungen einzugehen, führte zudem zur Ausdehnung der Untersuchungen auf das System Li-Si-H. Aus der Erweiterung resultierte neben der formalkinetischen Beschreibung ablaufender Gleichgewichtsreaktionen die Bestimmung von Bildungsenthalpien der Silicide. Auf Grundlage der experimentell bestimmten Stoffgrößen (Cp, S°, ∆BH°), die für theoretische und praxisrelevante Berechnungen sehr verlässliche Stoffdaten darstellen, wurden thermodynamische Modellierungen im stofflichen System durchgeführt.
18

DeltaTick: Applying Calculus to the Real World through Behavioral Modeling

Wilkerson-Jerde, Michelle H., Wilensky, Uri 22 May 2012 (has links) (PDF)
Certainly one of the most powerful and important modeling languages of our time is the Calculus. But research consistently shows that students do not understand how the variables in calculus-based mathematical models relate to aspects of the systems that those models are supposed to represent. Because of this, students never access the true power of calculus: its suitability to model a wide variety of real-world systems across domains. In this paper, we describe the motivation and theoretical foundations for the DeltaTick and HotLink Replay applications, an effort to address these difficulties by a) enabling students to model a wide variety of systems in the world that change over time by defining the behaviors of that system, and b) making explicit how a system\'s behavior relates to the mathematical trends that behavior creates. These applications employ the visualization and codification of behavior rules within the NetLogo agent-based modeling environment (Wilensky, 1999), rather than mathematical symbols, as their primary building blocks. As such, they provide an alternative to traditional mathematical techniques for exploring and solving advanced modeling problems, as well as exploring the major underlying concepts of calculus.
19

Mathematical modelling in classroom: The importance of validation of the constructed model

Voskoglou, Michael Gr. 20 March 2012 (has links) (PDF)
No description available.
20

Modeling of plant in vitro cultures – overview and estimation of biotechnological processes

Maschke, Rüdiger W., Geipel, Katja, Bley, Thomas 25 January 2017 (has links) (PDF)
Plant cell and tissue cultivations are of growing interest for the production of structurally complex and expensive plant-derived products, especially in pharmaceutical production. Problems with up-scaling, low yields and high-priced process conditions result in an increased demand for models to provide comprehension, simulation, and optimization of production processes. In the last 25 years, many models have evolved in plant biotechnology; the majority of them are specialized models for a few selected products or nutritional conditions. In this article we review, delineate, and discuss the concepts and characteristics of the most commonly used models. Therefore, the authors focus on models for plant suspension and submerged hairy root cultures. The article includes a short overview of modeling and mathematics and integrated parameters, as well as the application scope for each model. The review is meant to help researchers better understand and utilize the numerous models published for plant cultures, and to select the most suitable model for their purposes.

Page generated in 0.161 seconds