• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • 1
  • Tagged with
  • 6
  • 6
  • 6
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Hierarchische nanoporöse Materialien für eine verbesserte katalytische Leistung im MTO-Prozess

Schmidt, Franz 12 June 2013 (has links) (PDF)
In dieser Arbeit werden die Ergebnisse mehrerer verschiedener Synthesemöglichkeiten für eine Optimierung der katalytischen Leistung durch Hierarchisierung zweier Molekularsiebe vorgestellt. Dabei wurde der ZSM-5 als Vertreter der Alumosilikate und der SAPO-34 (Silizium Aluminium-phosphat) ausgewählt, da diese als entsprechende MTH-Katalysatoren bereits wirtschaftliche Bedeutung erlangt haben. Die verschiedenen Möglichkeiten, ein solches hierarchisches Netzwerk zu generieren, werden dabei in Bezug auf die katalytische Leistung der jeweiligen Katalysatoren evaluiert und bewertet.
2

Hierarchische nanoporöse Materialien für eine verbesserte katalytische Leistung im MTO-Prozess

Schmidt, Franz 15 May 2013 (has links)
In dieser Arbeit werden die Ergebnisse mehrerer verschiedener Synthesemöglichkeiten für eine Optimierung der katalytischen Leistung durch Hierarchisierung zweier Molekularsiebe vorgestellt. Dabei wurde der ZSM-5 als Vertreter der Alumosilikate und der SAPO-34 (Silizium Aluminium-phosphat) ausgewählt, da diese als entsprechende MTH-Katalysatoren bereits wirtschaftliche Bedeutung erlangt haben. Die verschiedenen Möglichkeiten, ein solches hierarchisches Netzwerk zu generieren, werden dabei in Bezug auf die katalytische Leistung der jeweiligen Katalysatoren evaluiert und bewertet.
3

Concepts for In-memory Event Tracing

Wagner, Michael 14 July 2015 (has links) (PDF)
This thesis contributes to the field of performance analysis in High Performance Computing with new concepts for in-memory event tracing. Event tracing records runtime events of an application and stores each with a precise time stamp and further relevant metrics. The high resolution and detailed information allows an in-depth analysis of the dynamic program behavior, interactions in parallel applications, and potential performance issues. For long-running and large-scale parallel applications, event-based tracing faces three challenges, yet unsolved: the number of resulting trace files limits scalability, the huge amounts of collected data overwhelm file systems and analysis capabilities, and the measurement bias, in particular, due to intermediate memory buffer flushes prevents a correct analysis. This thesis proposes concepts for an in-memory event tracing workflow. These concepts include new enhanced encoding techniques to increase memory efficiency and novel strategies for runtime event reduction to dynamically adapt trace size during runtime. An in-memory event tracing workflow based on these concepts meets all three challenges: First, it not only overcomes the scalability limitations due to the number of resulting trace files but eliminates the overhead of file system interaction altogether. Second, the enhanced encoding techniques and event reduction lead to remarkable smaller trace sizes. Finally, an in-memory event tracing workflow completely avoids intermediate memory buffer flushes, which minimizes measurement bias and allows a meaningful performance analysis. The concepts further include the Hierarchical Memory Buffer data structure, which incorporates a multi-dimensional, hierarchical ordering of events by common metrics, such as time stamp, calling context, event class, and function call duration. This hierarchical ordering allows a low-overhead event encoding, event reduction and event filtering, as well as new hierarchy-aided analysis requests. An experimental evaluation based on real-life applications and a detailed case study underline the capabilities of the concepts presented in this thesis. The new enhanced encoding techniques reduce memory allocation during runtime by a factor of 3.3 to 7.2, while at the same do not introduce any additional overhead. Furthermore, the combined concepts including the enhanced encoding techniques, event reduction, and a new filter based on function duration within the Hierarchical Memory Buffer remarkably reduce the resulting trace size up to three orders of magnitude and keep an entire measurement within a single fixed-size memory buffer, while still providing a coarse but meaningful analysis of the application. This thesis includes a discussion of the state-of-the-art and related work, a detailed presentation of the enhanced encoding techniques, the event reduction strategies, the Hierarchical Memory Buffer data structure, and a extensive experimental evaluation of all concepts.
4

A time-space constrained approach for modeling travel and activity patterns

Justen, Andreas 09 September 2011 (has links)
Gegenstand der Arbeit ist die Entwicklung eines tour-basierten Verkehrsnachfragemodells zur Abbildung von Aktivitätenketten unter Berücksichtigung von raum-zeitlichen constraints. Den theoretischen Hintergrund bildet ein hierarchisch organisierter Entscheidungsprozess, um die theoretisch möglichen Entscheidungskombinationen zu reduzieren und damit eine wahrscheinlichkeitsbasierte Berechnung zu ermöglichen. Als Beispieltour dient die Aktivitätenkette ‚Wohnen-Arbeit-Sekundäraktivität-Wohnen’, auf deren Basis auch die statistischen Analysen der Mobilitätsbefragung Santiagos durchgeführt werden. Unter Verwendung eines GIS werden so genannte ‚Suchräume’ (Aktionsräume in denen Sekundäraktivitäten durchgeführt werden) ermittelt. Ein Ergebnis der Datenanalyse sind Grenzwerte der maximalen täglichen Reisezeit für eine Reihe von Modus-Kombinationen. Die Zeitfenster von Startzeiten und Aktivitätendauer werden in Abhängigkeit sozioökonomischer Gruppen ermittelt. Die Bestimmung der Suchräume erfolgt in Abhängigkeit von Arbeitsdauer sowie Distanz zwischen Wohn- und Arbeitsort. Beide Kriterien erwiesen sich in der Analyse als statistisch signifikant. Der Vergleich zwischen Modell und Empirie (Santiagos Mobilitätsbefragung) deutet darauf hin, dass die Suchräume geeignet sind und die Mehrheit der beobachteten Zielwahlentscheidungen beinhalten. Zur Berechnung der Wahrscheinlichkeitspfade (unter Verwendung der Programmsyntax von SPSS) wird ein im Umfang auf sieben Ziele reduziertes Alternativenset pro Wohn- und Arbeitsstandort bestimmt. Dabei werden Erreichbarkeit und Attraktivität der Ziele innerhalb des Suchraumes berücksichtigt. Die erzielten Ergebnisse stützen das Argument, dass die raum-zeitlichen constraints (tägliche Reisezeit, Suchräume) eine effektive Reduktion der kombinatorischen Vielfalt zulassen. Die Erfahrungen aus der Berechnung der Beispieltour eignen sich zum Übertrag auf weitere Tour-Typen, um eine Modellierung der städtischen Gesamtverkehrsnachfrage zu ermöglichen. / In this thesis we develop a tour-based approach for modeling activity and travel pattern considering time-space constraints. A hierarchical structure of choice-making builds theoretical background for the model and is based on a set of axiomatic rules. Our central argument is that the time-space constraints can be used for reducing the number of choices and, respectively, control the combinatorics associated with the probabilistic approach. The empirical analysis of our use case, a tour of type ‘Home-Work-SecondaryActivity-Home’, is based on Santiago’s travel survey. In addition, we apply GIS to estimate the so-called search spaces (potential areas where secondary activities are realized) and justify their sizes with the empirical findings. From the data analysis we identify thresholds for the tour-based maximum daily travel times considering a set of mode combinations. We define regimes of starting times and duration of activities depending on socio-economic user groups. The estimation of search spaces is realized considering the time spent at work as well as the distance between the home and work locations. Both criteria were found to be statistically significant. The comparison of modeled results with survey observations allowed concluding that the search spaces are realistic since they capture most of the observed trip destinations. For the estimation of spatial path flows of activities and trips (using SPSS programming language), we define a final choice set of no more than seven alternatives per primary location considering zone-based accessibility and land-use attractiveness. The obtained results support the argument that time-space constraints (daily travel time, search spaces) allow an effective control of combinatorial complexity. Basing on the experience obtained in process of modeling the exemplary tour, the approach can be applied to further tour types offering the possibility to estimate the entire transport demand of Santiago city.
5

Automatisierte Objekterkennung zur Interpretation hochauflösender Bilddaten in der Erdfernerkundung

Mayer, Stefan 09 June 2004 (has links)
Als Datengrundlage für die Erhebung von Flächennutzungsparametern, wie sie in geografischen Informationssystemen (GIS) abgelegt und verwaltet werden, dienen oft Bilddaten aus der Erdfernerkundung. Die zur Erkennung und Unterscheidung der Objekte notwendige hohe Pixelauflösung führt bei der Erfassung eines Zielgebiets wie beispielsweise einer Stadt zu enormen Datenmengen. Aus diesen Bilddaten gilt es, möglichst schnell und preiswert die für ein GIS notwendigen Informationen, wie Umrissvektoren und Objektattribute, zu extrahieren. Diese Arbeit ist ein Beitrag zur Automatisierung dieses Schritts mit besonderem Schwerpunkt auf der Gebäudeextraktion. Datengrundlage sind hochauflösende multispektrale Orthobilder und ein digitales Oberflächenmodell (DOM) der digitalen Luftbildkamera HRSC-A bzw. HRSC-AX zum Einsatz. Deswegen werden das Aufnahmeprinzip sowie die Datenverarbeitung der HRSC überblicksartig vorgestellt. Auf Basis dieser HRSC-Standarddatenprodukte wird ein Vorgehen zur Extraktion von Objekten entwickelt. In einer hierarchisch geordneten Abfolge an Segmentierungsschritten werden aus der Pixelinformation bedeutungstragende Einheiten extrahiert. Dieser Segmentierungsansatz lässt sich auf mehrere Objektkategorien, wie Straßen oder Ackerflächen, erweitern. So werden in der aktuellen Entwicklungsstufe neben Gebäuden auch Baumregionen detektiert. Anhand des Oberflächenmodells werden erhöhte Regionen erkannt. Dazu wird das DOM durch Berechnung eines Terrainmodells auf Grundhöhe normiert. Für erhöhte Objekte wird die Grundhöhe aus umliegenden Grundregionen abgeleitet. Die erhöhten Regionen werden anschließend in Bäume und Gebäude unterteilt. Dazu werden aus den Multispektraldaten Vegetationscharakteristika bestimmt und entsprechende Baumsegmente ermittelt. Die Gebäuderegionen resultieren aus einer Nachverarbeitung der verbleibenden Segmente. Um Gebäudekomplexe in einzelne Häuser aufzuteilen, wird ein gradientenbasierter Ansatz entwickelt. Anhand der für Brandmauern typischen Gradienteninformation werden Linienhypothesen zur Unterteilung der Gebäudesegmente generiert. Diese werden schrittweise anhand geometrischer und radiometrischer Kriterien auf ihre Plausibilität überprüft. Schließlich werden die ursprünglich aus dem DOM stammenden Konturen der Gebäudesegmente und deren Übereinstimung mit Bildkanten eines Orthobildes betrachtet. In einem adaptiven Ansatz wird das Konturpolygon durch die Gradienteninformation an angrenzende Bildkanten angepasst. Zur Umsetzung typischer Gebäudegeometrien wie rechter Winkel oder Parallelität werden innerhalb des Adaptionsprozesses entsprechende Nebenbedingungen formuliert. Die Extraktion erhöhter Objekte wie auch deren Unterteilung in Bäume und Gebäude erfolgt mit hoher Genauigkeit, z.B. liegen die Detektionsraten bei Gebäuden über 90%. Der neuartige Ansatz zur Unterteilung in einzelne Häuser ohne explizite Liniendetektion führt bereits in der vorgestellten Entwicklungsstufe zur Beschleunigung einer manuellen Interpretation. Die adaptive Verbesserung der Gebäudekontur führt zu gebäudetypischeren Umrissen ohne Beeinträchtigung der hohen Detektionsraten. / Remote sensing image data are often used as a basis for determining land use parameters, as they are stored and managed in geographic information systems (GIS). Covering a target area leads to an enormous amount of data due to the high pixel resolution required for recognizing and discriminating objects. To effectively derive GIS information like contour vectors or object attributes from these data, the extraction process has to be fast and cost-effective. This thesis is a contribution to the automization of this step with a focus on building extraction. High resolution multispectral ortho-images and a digital surface model (DSM), generated by the digital aerial camera HRSC-A or HRSC-AX, are used as data basis. Therefore, the HRSC imaging principle and data processing are summarized. Based on these HRSC standard data products, an object extraction scheme is developed. In a hierarchically ordered sequence of segmentation steps, meaningful units are extracted from pixel information. This segmentation approach is extendable to several object categories like streets or fields. Thus, tree regions, as well as buildings are detected in the current stage of implementation. Elevated regions are recognized using the digital surface model. For that purpose the DSM is normalized by calculating a terrain model. For elevated objects the terrain height is derived from surrounding ground regions. Subsequently, the elevated regions are separated into trees and buildings. Determining spectral characteristics of vegetation from the multispectral data leads to corresponding tree segments. The building regions result from post-processing the remaining segments. In order to split the building segments into single houses, a gradient based approach is developed. By means of the gradient information associated with firewalls, line hypotheses for subdividing the building segments are generated. Their plausibility is checked by gradually applying geometric and spectral criteria. Finally, the building contours, originally derived from the DSM, and their correspondence to image edges in an ortho-image, are considered. In an adaptive approach, the contour polygon is adjusted to neighboring image edges using the gradient information. Typical building geometries like right angles or parallelism are enforced by applying corresponding constraints in the adaption process. The extraction of elevated objects, as well as the separation into trees and buildings, is carried out with high accuracy, e.g. the building detection rates are over 90%. In the current development stage the novel approach for separating building segments into single houses without an explicit line detection already leads to a speeding-up of a manual interpretation. The adaptive improvement of building contours leads to building typical contours without affecting the high detection rates.
6

Concepts for In-memory Event Tracing: Runtime Event Reduction with Hierarchical Memory Buffers

Wagner, Michael 03 July 2015 (has links)
This thesis contributes to the field of performance analysis in High Performance Computing with new concepts for in-memory event tracing. Event tracing records runtime events of an application and stores each with a precise time stamp and further relevant metrics. The high resolution and detailed information allows an in-depth analysis of the dynamic program behavior, interactions in parallel applications, and potential performance issues. For long-running and large-scale parallel applications, event-based tracing faces three challenges, yet unsolved: the number of resulting trace files limits scalability, the huge amounts of collected data overwhelm file systems and analysis capabilities, and the measurement bias, in particular, due to intermediate memory buffer flushes prevents a correct analysis. This thesis proposes concepts for an in-memory event tracing workflow. These concepts include new enhanced encoding techniques to increase memory efficiency and novel strategies for runtime event reduction to dynamically adapt trace size during runtime. An in-memory event tracing workflow based on these concepts meets all three challenges: First, it not only overcomes the scalability limitations due to the number of resulting trace files but eliminates the overhead of file system interaction altogether. Second, the enhanced encoding techniques and event reduction lead to remarkable smaller trace sizes. Finally, an in-memory event tracing workflow completely avoids intermediate memory buffer flushes, which minimizes measurement bias and allows a meaningful performance analysis. The concepts further include the Hierarchical Memory Buffer data structure, which incorporates a multi-dimensional, hierarchical ordering of events by common metrics, such as time stamp, calling context, event class, and function call duration. This hierarchical ordering allows a low-overhead event encoding, event reduction and event filtering, as well as new hierarchy-aided analysis requests. An experimental evaluation based on real-life applications and a detailed case study underline the capabilities of the concepts presented in this thesis. The new enhanced encoding techniques reduce memory allocation during runtime by a factor of 3.3 to 7.2, while at the same do not introduce any additional overhead. Furthermore, the combined concepts including the enhanced encoding techniques, event reduction, and a new filter based on function duration within the Hierarchical Memory Buffer remarkably reduce the resulting trace size up to three orders of magnitude and keep an entire measurement within a single fixed-size memory buffer, while still providing a coarse but meaningful analysis of the application. This thesis includes a discussion of the state-of-the-art and related work, a detailed presentation of the enhanced encoding techniques, the event reduction strategies, the Hierarchical Memory Buffer data structure, and a extensive experimental evaluation of all concepts.

Page generated in 0.3545 seconds