• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 5
  • 5
  • Tagged with
  • 33
  • 21
  • 16
  • 14
  • 12
  • 12
  • 12
  • 9
  • 9
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

A concept for nanoparticle-based photocatalytic treatment of wastewater from textile industry

Le, Hoai Nga 14 September 2018 (has links)
Industrial wastewater, such as the effluents from textile and garment companies, may contain toxic organic pollutants, which resist conventional wastewater treatment. Their complete and environmentally friendly degradation requires innovative technologies. Photocatalysis, an advanced oxidation process, can serve this purpose. Since 1972, when the photocatalytic activity of titanium dioxide was first noticed, photocatalysis has drawn the attention of scientists and engineers but it has not yet been widely applied in industrial practice. This is mainly related to the challenges of up-scaling from laboratory experiments to large production sites. The main goal of this thesis is to develop a concept of nanoparticle-based photocatalysis for the treatment of wastewater. Ideally, process parameters should be adjustable and process conditions should be well-defined. These constraints are prerequisite for establishing process models and comparing the photocatalytic efficiency of different photocatalysts or for different pollutants. More importantly, the configuration should be scalable, in order to cover a wide spectrum of applications. In response to these requirements, this thesis introduces a new reactor concept for photocatalytic wastewater treatment, which relies on finely dispersed photocatalysts as well as uniform and defined process conditions with regard to illumination and flow. The concept was realized in a photocatalytic setup with an illuminated flow reactor. The flow channel has a rectangular cross section and meanders in a plane exposed to two dimensional illumination. Crucial process parameters, e.g., volumetric flow rate and light intensity, can be adjusted in a defined manner. This facilitates the study on the photocatalytic degradation of different organic pollutants in the presence of various photocatalytic materials under arbitrary illumination. The thesis provides a comprehensive description of the operational procedures necessary to run photocatalytic reactions in the experimental setup. It includes three main steps: i) dispersion of photocatalysts, ii) equilibration with respect to pollutant adsorption and iii) accomplishing the photocatalytic reaction. Samples are collected in a mixing tank for online or offline analysis. The proceeding decrease in the concentration of organic pollutant is used to assess the activity of the photocatalytic materials. A particular focus lies on the first of these steps, the dispersion of photocatalysts, because it is ignored in most studies. Typically, photocatalysts are in an aggregated state. The thesis demonstrates that type, intensity and energy of dispersion exert a crucial influence on size and morphology of the photocatalyst particles and, thus, on their optical properties and, accordingly, macroscopic photocatalytic behavior. Apart from this, a proper dispersion is necessary to reduce speed of gravitational solid-liquid separation, at best, to prevent catalyst sedimentation and to avoid misleading results. The photocatalytic performance was intensively investigated for the color removal of a model dye substance, methylene blue. Commercial titanium dioxide nanoparticles, widely explored in literature, were used as a photocatalyst. Their characteristics (size, morphology, stability and optical properties) were determined. Photocatalytic experiments were carried out under UV irradiation. Influences of different factors, including the concentration of the photocatalyst, the concentration of the organic compounds, light intensity, optical pathlength and pH were examined. The degradation was quantified via the decrease of methylene blue concentration. This conversion is, however, an immediate result influenced by all process parameters, e.g., the volume, the light intensity, the optical pathlength. Hence, kinetic models on macroscopic and microscopic levels are established. Normalizations with respect to process conditions are proposed. The apparent reaction kinetics are traced back to volume- and intensity-related reaction rate constants, and the reaction rate constant at the illuminated surface of the reactor. Additionally, the model is modified to be used for time-variant UV intensities, as encountered for solar photocatalysis. These achievements allow for a comparison of the experimental results from different laboratories. Moreover, they are prerequisite for the translation of laboratory results into large scale plants. Selected case studies for further applications are introduced. The photocatalytic degradation of different organic molecules (one antibiotic and two commercial dyes) with different photocatalytic materials (commercial nanomaterials and self-synthesized magnetic particles) under artificial or natural light sources was performed. Additionally, photocatalysis was studied in a realistic application. Preliminary tests with dye solutions of a textile company in Danang, Vietnam, impressively showed the feasibility of wastewater treatment by means of photocatalysis. Based on the reported capacity of wastewater in the current treatment plant of the company, the necessary process parameters were assessed. The rough estimation showed that photocatalysis can improve the working ability of the current wastewater treatment plant. In conclusion, this thesis presents a concept for wastewater treatment by slurry photocatalysis. As the process conditions are adjustable and definable, the process can be ideally performed in laboratories for research purposes, where different materials need to be tested and the working volume can be lower than hundreds of milliliters. The photocatalytic configuration is expected to work with a capacity of hundreds of liters, although appropriate experimental evidences are reserved for further up-scaling studies.
22

Skalierbare Ausführung von Prozessanwendungen in dienstorientierten Umgebungen

Preißler, Steffen 25 October 2012 (has links)
Die Strukturierung und Nutzung von unternehmensinternen IT-Infrastrukturen auf Grundlage dienstorientierter Architekturen (SOA) und etablierter XML-Technologien ist in den vergangenen Jahren stetig gewachsen. Lag der Fokus anfänglicher SOA-Realisierungen auf der flexiblen Ausführung klassischer, unternehmensrelevanter Geschäftsprozesse, so bilden heutzutage zeitnahe Datenanalysen sowie die Überwachung von geschäftsrelevanten Ereignissen weitere wichtige Anwendungsklassen, um sowohl kurzfristig Probleme des Geschäftsablaufes zu identifizieren als auch um mittel- und langfristige Veränderungen im Markt zu erkennen und die Geschäftsprozesse des Unternehmens flexibel darauf anzupassen. Aufgrund der geschichtlich bedingten, voneinander unabhängigen Entwicklung der drei Anwendungsklassen, werden die jeweiligen Anwendungsprozesse gegenwärtig in eigenständigen Systemen modelliert und ausgeführt. Daraus resultiert jedoch eine Reihe von Nachteilen, welche diese Arbeit aufzeigt und ausführlich diskutiert. Vor diesem Hintergrund beschäftigte sich die vorliegende Arbeit mit der Ableitung einer konsolidierten Ausführungsplattform, die es ermöglicht, Prozesse aller drei Anwendungsklassen gemeinsam zu modellieren und in einer SOA-basierten Infrastruktur effizient auszuführen. Die vorliegende Arbeit adressiert die Probleme einer solchen konsolidierten Ausführungsplattform auf den drei Ebenen der Dienstkommunikation, der Prozessausführung und der optimalen Verteilung von SOA-Komponenten in einer Infrastruktur.
23

Partitioning Strategy Selection for In-Memory Graph Pattern Matching on Multiprocessor Systems

Krause, Alexander, Kissinger, Thomas, Habich, Dirk, Voigt, Hannes, Lehner, Wolfgang 19 July 2023 (has links)
Pattern matching on large graphs is the foundation for a variety of application domains. The continuously increasing size of the underlying graphs requires highly parallel in-memory graph processing engines that need to consider non-uniform memory access (NUMA) and concurrency issues to scale up on modern multiprocessor systems. To tackle these aspects, a fine-grained graph partitioning becomes increasingly important. Hence, we present a classification of graph partitioning strategies and evaluate representative algorithms on medium and large-scale NUMA systems in this paper. As a scalable pattern matching processing infrastructure, we leverage a data-oriented architecture that preserves data locality and minimizes concurrency-related bottlenecks on NUMA systems. Our in-depth evaluation reveals that the optimal partitioning strategy depends on a variety of factors and consequently, we derive a set of indicators for selecting the optimal partitioning strategy suitable for a given graph and workload.
24

Dynamische Verwaltung heterogener Kontextquellen in global verteilten Systemen

Hamann, Thomas 30 January 2009 (has links) (PDF)
Im Rahmen der Dissertation wurde ein Middlewaredienst entwickelt und realisiert. Es gestattet die dynamische Verwaltung heterogener Kontextquellen. Das zugrunde liegende Komponentenmodell selbstbeschreibender Context Provieder ermöglicht die lose Kopplung von Kontextquellen und -senken. Es wird durch Filter- und Konverterkomponenten zur generischen Providersselektion anhand domänenspezifischer Merkmale ergänzt. Die Kopplung der verteilten Dienstinstanzen erfolgt durch ein hybrides Peer-to-Peer-System. Dies trägt der Heterogenität der Endgeräte Rechnung, und erlaubt die skalierbare , verteilte Verwaltung von Kontextquellen in globalen Szenarien.
25

Jobzentrisches Monitoring in Verteilten Heterogenen Umgebungen mit Hilfe Innovativer Skalierbarer Methoden

Hilbrich, Marcus 24 June 2015 (has links) (PDF)
Im Bereich des wissenschaftlichen Rechnens nimmt die Anzahl von Programmläufen (Jobs), die von einem Benutzer ausgeführt werden, immer weiter zu. Dieser Trend resultiert sowohl aus einer steigenden Anzahl an CPU-Cores, auf die ein Nutzer zugreifen kann, als auch durch den immer einfacheren Zugriff auf diese mittels Portalen, Workflow-Systemen oder Services. Gleichzeitig schränken zusätzliche Abstraktionsschichten von Grid- und Cloud-Umgebungen die Möglichkeit zur Beobachtung von Jobs ein. Eine Lösung bietet das jobzentrische Monitoring, das die Ausführung von Jobs transparent darstellen kann. Die vorliegende Dissertation zeigt zum einen Methoden mit denen eine skalierbare Infrastruktur zur Verwaltung von Monitoring-Daten im Kontext von Grid, Cloud oder HPC (High Performance Computing) realisiert werden kann. Zu diesem Zweck wird sowohl eine Aufgabenteilung unter Berücksichtigung von Aspekten wie Netzwerkbandbreite und Speicherkapazität mittels einer Strukturierung der verwendeten Server in Schichten, als auch eine dezentrale Aufbereitung und Speicherung der Daten realisiert. Zum anderen wurden drei Analyseverfahren zur automatisierten und massenhaften Auswertung der Daten entwickelt. Hierzu wurde unter anderem ein auf der Kreuzkorrelation basierender Algorithmus mit einem baumbasierten Optimierungsverfahren zur Reduzierung der Laufzeit und des Speicherbedarfs entwickelt. Diese drei Verfahren können die Anzahl der manuell zu analysierenden Jobs von vielen Tausenden, auf die wenigen, interessanten, tatsächlichen Ausreißer bei der Jobausführung reduzieren. Die Methoden und Verfahren zur massenhaften Analyse, sowie zur skalierbaren Verwaltung der jobzentrischen Monitoring-Daten, wurden entworfen, prototypisch implementiert und mittels Messungen sowie durch theoretische Analysen untersucht. / An increasing number of program executions (jobs) is an ongoing trend in scientific computing. Increasing numbers of available compute cores and lower access barriers, based on portal-systems, workflow-systems, or services, drive this trend. At the same time, the abstraction layers that enable grid and cloud solutions pose challenges in observing job behaviour. Thus, observation and monitoring capabilities for large numbers of jobs are lacking. Job-centric monitoring offers a solution to present job executions in a transparent manner. This dissertation presents methods for scalable infrastructures that handle monitoring data of jobs in grid, cloud, and HPC (High Performance Computing) solutions. A layer-based organisation of servers with a distributed storage scheme enables a task sharing that respects network bandwidths and data capacities. Additionally, three proposed automatic analysis techniques enable an evaluation of huge data quantities. One of the developed algorithms is based on cross-correlation and uses a tree-based optimisation strategy to decrease both runtime and memory usage. These three methods are able to significantly reduce the number of jobs for manual analysis from many thousands to a few interesting jobs that exhibit outlier-behaviour during job execution. Contributions of this thesis include a design, a prototype implementation, and an evaluation for methods that analyse large amounts of job-data, as well for the scalable storage concept for such data.
26

Berufsbezogene Handlungs- vs. Lageorientierung: Skalierbarkeit und Beziehung zu beruflicher Arbeitsleistung: Occupational action state orientation: Scalability and its relation to job performance

Stadelmaier, Ulrich W. 01 December 2016 (has links)
Die vorliegende Arbeit verknüpft die Theorie der Interaktion psychischer Systeme von Kuhl (2000, 2001) mit dem Modell beruflicher Arbeitsleistung von Tett und Burnett (2003). Unter Anwendung reizorientierter arbeitspsychologischer Stressmodelle werden Hypothesen über einen durch das subjektive Bedrohungs- und Belastungspotenzial der Arbeitssituation moderierten Zusammenhang zwischen dem berufsbezogenen und nach Maßgabe der Item Response Theorie skalierbaren Persönlichkeitsmerkmal Handlungs- vs. Lageorientierung und beruflicher Arbeitsleistung aufgestellt. In drei Befragungen an N = 415, N = 331 sowie N = 49 Berufstätigen wurden querschnittliche Daten zur Hypothesenprüfung erhoben. Berufsbezogene Handlungs- vs. Lageorientierung zeigt sich als valides Subkonstrukt der allgemeinen Handlungs- vs. Lageorientierung, welches gemäß Graded Response Modell von Samejima (1969, 1997) mit 14 Items skalierbar ist. Prospektive berufsbezogene Handlungs- vs. Lageorientierung erklärt in multiplen hierarchischen Regressionsanalysen, im Gegensatz zu allgemeiner Handlungs- vs. Lageorientierung, inkrementell zu Gewissenhaftigkeit, Extraversion und Neurotizismus Anteile kontextueller und aufgabenbezogener Arbeitsleistung. Hypothesenkonträr werden diese Zusammenhänge nur marginal vom subjektiven Belastungspotential der Arbeitssituation moderiert. Die Prädiktorfunktion prospektiver berufsbezogener Handlungs- vs. Lageorientierung für berufliche Arbeitsleistung bleibt auch unter pfadanalytischer Kontrolle eines vorhandenen Common Method Bias erhalten. Die dispositionelle Fähigkeit, durch berufliche Hindernisse gehemmten positiven Affekt vorbewusst gegenregulieren zu können, scheint demnach ein bedeutender Prädiktor beruflicher Arbeitsleistung zu sein, insbesondere bei Führungskräften. Für die berufliche Eignungsbeurteilung ist es damit von diagnostischem Mehrwert, Handlungs- vs. Lageorientierung kontextualisiert zu erheben. Der Einsatz probabilistisch- testtheoretisch konstruierter Skalen steigert dabei die Effizienz des Beurteilungsprozesses. / The current paper combines personality systems interaction theory (Kuhl, 2000, 2001) with the model of job performance by Tett and Burnett (2003). Using established stress models from work psychology it is hypothesized that there is a relation between occupational action state orientation, scalable by means of items response theory, and job performance, which is moderated by the subjective stress level of job characteristics. Three surveys among samples of N = 415, N = 331, and N = 49 professionals yielded cross sectional data for investigating the hypotheses. Occupational action state orientation proves a valid construct which is compatible with Samejima’s (1969, 1997) Graded Response Model using a 14-item scale. As a result of multiple hierarchical regression analyses, the hesitation dimension of specifically occupational, in contrast to general action state orientation is a predictor of both contextual and task performance, incremental to conscientiousness, extraversion, and neuroticism. Contrary to expectations this relation is only marginally moderated by stress-relevant job characteristics. Even when controlling for an occurring common method bias by means of path analysis the occupational hesitation dimension’s predictor role perseveres. Therefore, the dispositional ability in subconsciously regulating inhibited positive affect due to occupational obstacles, seems to be a crucial predictor of job performance, especially regarding leaders. Hence, professional aptitude assessment benefits from assessing action state orientation in a contextualized manner. Application of item response theory-based scales further enhances assessment process efficiency.
27

Jobzentrisches Monitoring in Verteilten Heterogenen Umgebungen mit Hilfe Innovativer Skalierbarer Methoden

Hilbrich, Marcus 24 March 2015 (has links)
Im Bereich des wissenschaftlichen Rechnens nimmt die Anzahl von Programmläufen (Jobs), die von einem Benutzer ausgeführt werden, immer weiter zu. Dieser Trend resultiert sowohl aus einer steigenden Anzahl an CPU-Cores, auf die ein Nutzer zugreifen kann, als auch durch den immer einfacheren Zugriff auf diese mittels Portalen, Workflow-Systemen oder Services. Gleichzeitig schränken zusätzliche Abstraktionsschichten von Grid- und Cloud-Umgebungen die Möglichkeit zur Beobachtung von Jobs ein. Eine Lösung bietet das jobzentrische Monitoring, das die Ausführung von Jobs transparent darstellen kann. Die vorliegende Dissertation zeigt zum einen Methoden mit denen eine skalierbare Infrastruktur zur Verwaltung von Monitoring-Daten im Kontext von Grid, Cloud oder HPC (High Performance Computing) realisiert werden kann. Zu diesem Zweck wird sowohl eine Aufgabenteilung unter Berücksichtigung von Aspekten wie Netzwerkbandbreite und Speicherkapazität mittels einer Strukturierung der verwendeten Server in Schichten, als auch eine dezentrale Aufbereitung und Speicherung der Daten realisiert. Zum anderen wurden drei Analyseverfahren zur automatisierten und massenhaften Auswertung der Daten entwickelt. Hierzu wurde unter anderem ein auf der Kreuzkorrelation basierender Algorithmus mit einem baumbasierten Optimierungsverfahren zur Reduzierung der Laufzeit und des Speicherbedarfs entwickelt. Diese drei Verfahren können die Anzahl der manuell zu analysierenden Jobs von vielen Tausenden, auf die wenigen, interessanten, tatsächlichen Ausreißer bei der Jobausführung reduzieren. Die Methoden und Verfahren zur massenhaften Analyse, sowie zur skalierbaren Verwaltung der jobzentrischen Monitoring-Daten, wurden entworfen, prototypisch implementiert und mittels Messungen sowie durch theoretische Analysen untersucht. / An increasing number of program executions (jobs) is an ongoing trend in scientific computing. Increasing numbers of available compute cores and lower access barriers, based on portal-systems, workflow-systems, or services, drive this trend. At the same time, the abstraction layers that enable grid and cloud solutions pose challenges in observing job behaviour. Thus, observation and monitoring capabilities for large numbers of jobs are lacking. Job-centric monitoring offers a solution to present job executions in a transparent manner. This dissertation presents methods for scalable infrastructures that handle monitoring data of jobs in grid, cloud, and HPC (High Performance Computing) solutions. A layer-based organisation of servers with a distributed storage scheme enables a task sharing that respects network bandwidths and data capacities. Additionally, three proposed automatic analysis techniques enable an evaluation of huge data quantities. One of the developed algorithms is based on cross-correlation and uses a tree-based optimisation strategy to decrease both runtime and memory usage. These three methods are able to significantly reduce the number of jobs for manual analysis from many thousands to a few interesting jobs that exhibit outlier-behaviour during job execution. Contributions of this thesis include a design, a prototype implementation, and an evaluation for methods that analyse large amounts of job-data, as well for the scalable storage concept for such data.
28

Dynamische Verwaltung heterogener Kontextquellen in global verteilten Systemen

Hamann, Thomas 05 December 2008 (has links)
Im Rahmen der Dissertation wurde ein Middlewaredienst entwickelt und realisiert. Es gestattet die dynamische Verwaltung heterogener Kontextquellen. Das zugrunde liegende Komponentenmodell selbstbeschreibender Context Provieder ermöglicht die lose Kopplung von Kontextquellen und -senken. Es wird durch Filter- und Konverterkomponenten zur generischen Providersselektion anhand domänenspezifischer Merkmale ergänzt. Die Kopplung der verteilten Dienstinstanzen erfolgt durch ein hybrides Peer-to-Peer-System. Dies trägt der Heterogenität der Endgeräte Rechnung, und erlaubt die skalierbare , verteilte Verwaltung von Kontextquellen in globalen Szenarien.
29

Clustering Uncertain Data with Possible Worlds

Lehner, Wolfgang, Volk, Peter Benjamin, Rosenthal, Frank, Hahmann, Martin, Habich, Dirk 16 August 2022 (has links)
The topic of managing uncertain data has been explored in many ways. Different methodologies for data storage and query processing have been proposed. As the availability of management systems grows, the research on analytics of uncertain data is gaining in importance. Similar to the challenges faced in the field of data management, algorithms for uncertain data mining also have a high performance degradation compared to their certain algorithms. To overcome the problem of performance degradation, the MCDB approach was developed for uncertain data management based on the possible world scenario. As this methodology shows significant performance and scalability enhancement, we adopt this method for the field of mining on uncertain data. In this paper, we introduce a clustering methodology for uncertain data and illustrate current issues with this approach within the field of clustering uncertain data.
30

Multi-level extensions for the fast and robust overlapping Schwarz preconditioners

Röver, Friederike 14 June 2023 (has links)
Der GDSW-Vorkonditionierer ist ein zweistufiges überlappendes Schwarz-Gebietszerlegungsverfahren mit einem energieminimierenden Grobraum, dessen parallele Skalierbarkeit durch das direkt gelöste Grobproblem begrenzt ist. Zur Verbesserung der parallelen Skalierbarkeit wurde hier eine mehrstufige Erweiterung eingeführt. Für den Fall skalarer elliptischer Probleme wurde eine Konditionierungszahlschranke aufgestellt. Die parallele Implementierung wurde in das quelloffene ShyLU/FROSch Paket der Trilinos-Softwarebibliothek (http://trilinos.org) integriert und auf mehreren der leistungsstärksten Supercomputern der Welt (JUQUEEN, Forschungszentrum Jülich; SuperMUC-NG, LRZ Garching; Theta, Argonne Leadership Computing Facility, Argonne National Laboratory, USA) für Modellprobleme (Laplace und lineare Elastizität) getestet. Das angestrebte Ziel einer verbesserten parallelen Skalierbarkeit wurde erreicht, der Bereich der Skalierbarkeit wurde um mehr als eine Größenordnung erweitert. Die größten Rechnungen verwendeten mehr als 200000 Prozessorkerne des Theta Supercomputers. Zudem wurde die Anwendung des GDSW-Vorkonditionierers auf ein vollständig gekoppeltes nichtlineare Deformations-Diffusions Problem in der Chemomechanik betrachtet.

Page generated in 0.0641 seconds