• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 7
  • 7
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

The development of smart reactors for flow chemistry : the role of additive manufacturing and online analysis for automated optimisation

Harding, Matthew J. January 2017 (has links)
This thesis investigates the application of online monitoring for the optimisation of flow chemistry, as well as how additive manufacturing can aid the integration of analysis and confer new functionality to flow reactors. The additive manufacturing (AM) processes used were stereolithography (SL) and the metal printing techniques selective laser melting (SLM) and ultrasonic consolidation (UC). Chapter 1 contains a short literature review, intended to give a clear background to the work contained herein. The literature reported gives a brief introduction to flow chemistry and some of the instrumentation used to perform it. Additionally, the evolution of reactor design is investigated leading to an overview of the use of AM for custom reactors. The subsequent use of online analytical technologies and how they relate to the enhancement of flow chemistry is discussed, as well as some of the protocols that have been employed to date to facilitate automated reaction optimisation. Chapter 2 investigates the design and manufacture of flow cells capable of online spectroscopy, as well as the integration of spectroscopic monitoring capability directly into reactors. In addition, the use of AM to produce accessories, not necessarily part of the wetted flow path, was investigated and showed that many useful parts such as fibre optic holders and screws could be produced. The capability of these flow cells was assessed through standard material analysis as well as through the online analysis of flow chemistry. In particular, the use of SL has enabled the production of flow cells with features smaller than 100 microns. This allowed in situ spectroscopy to be performed by embedding fibre optics directly adjacent to the flow channel, offering a new way for reaction monitoring by ultraviolet (UV) spectroscopy to be performed cheaply, and with full user control over the flow cell specification. No additional quartz features were required for these cheap and highly customisable parts. Flow cells of larger path lengths were also produced, and their performance tested, identifying designs and materials suitable for the inline analysis of flow chemistry. These designs were then successfully incorporated directly within the flow channels of larger scale reactors, tailored specifically to commercial flow equipment, for true inline analysis of flow chemistry. Chapter 3 examines the use of metal reactors formed through more expensive printing processes, SLM and UC. As the parts these techniques produce are fully dense, chemically resistant and thermally stable, they were used to perform high temperature chemistry, taking solvents substantially above their boiling points to accelerate reactions and perform them in a fraction of the time of the batch process. UC was also used to produce a reactor with a copper flow path and the possibility of reaction catalysis performed with active metal sections was investigated, revealing that chemical modification of the reactor surface greatly improved the reaction yield. UC was also utilised to produce a flow reactor incorporating a thermocouple in the main body, close to the flow channel to enable accurate reaction temperatures to be measured, a significant improvement over the temperature control offered through the flow instrument. This represents the first use of UC for the production of complicated geometry flow reactors and this work has shown that many more applications of the technique for flow chemistry should be investigated. The ability to perform light mediated coupling reactions in AM produced reactors was also demonstrated successfully for the first time, and further to this that the extended UV curing of SL reactors is crucial for improved robustness of these parts. Chapter 4 centres on the use of online analytical methods to provide rapid, selective, and quantitative online analysis of flow chemistry. This chapter also outlines some of the steps required for automation to be possible, including equipment specifications and the coding approach undertaken to integrate multiple different instruments. A combination of online nuclear magnetic resonance (NMR) spectroscopy analysis and automated experiment selection was then used to optimise a pharmaceutically relevant, photoredox catalysed, C-N coupling reaction between amines and aryl halides, performed under continuous flow conditions for the first time. This optimisation required minimal user input, operating completely unattended, and revealed that lower concentrations of catalyst could be employed than previously identified, reducing the amount of toxic and expensive metal salts required, while achieving high conversion of the starting material. In summary, this thesis has demonstrated that AM, in particular SL, can be used for the production of new high resolution microfluidic flow cells, as well as larger scale flow cell designs which can be integrated into the body of large reactors, not easily performed with other manufacturing methods. SL has also been used to produce reactors capable of performing light catalysed reactions directly, with no further modifications. The use of metal printing AM techniques has allowed in situ catalysis and high temperature, high pressure reactions to be carried out with ease. Finally, the use of online NMR with computer control and experiment automation has allowed the rapid optimisation of a pharmaceutically important C-N coupling reaction.
2

Maintaining Stream Data Distribution Over Sliding Window

Chen, Jian January 2018 (has links)
In modern applications, it is a big challenge that analyzing the order statistics about the most recent parts of the high-volume and high velocity stream data. There are some online quantile algorithms that can keep the sketch of the data in the sliding window and they can answer the quantile or rank query in a very short time. But most of them take the GK algorithm as the subroutine, which is not known to be mergeable. In this paper, we propose another algorithm to keep the sketch that maintains the order statistics over sliding windows. For the fixed-size window, the existing algorithms can’t maintain the correctness in the process of updating the sliding window. Our algorithm not only can maintain the correctness but also can achieve similar performance of the optimal algorithm. Under the basis of maintaining the correctness, the insert time and query time are close to the best results, while others can't maintain the correctness. In addition to the fixed-size window algorithm, we also provide the time-based window algorithm that the window size varies over time. Last but not least, we provide the window aggregation algorithm which can help extend our algorithm into the distributed system.
3

High throughput LIBS analysis

Kadenkin, Alexander 28 December 2017 (has links)
Ziel dieser Arbeit war die Untersuchung der Eignung der laserinduzierten Plasmaspektroskopie (LIBS) bei der Online-Analyse der Materialströme in einer Sortieranlage zwecks Identifizierung der Legierungen am Beispiel der Aluminiumknetlegierungen. Als Ansatz sollten hierbei neuartige Laserquellen wie Faserlaser oder diodengepumpte Festkörperlaser verwendet werden, die mit deutlich höheren Repetitionsraten als häufig verwendete blitzlampengepumpte Festkörperlaser betrieben werden können. Im Rahmen dieser Arbeit wurde eine systematische Untersuchung der laserinduzierten Plasmaspektroskopie mit diodengepumpten Festkörperlasern als Anregungsquelle durchgeführt. Hierbei konnte festgestellt werden, dass die LIBS mit solchen Anregungsquellen ein gutes Nachweisvermögen und eine gute Stabilität besitzt. Ferner wurde ein Prototyp für die Online-Analyse der Aluminiumlegierungen entwickelt und mit einem kommerziell erhältlichen System verglichen. Es konnte festgestellt werden, dass das Nachweisvermögen des Prototyps für einige Fragestellungen bei der Sortierung von Aluminiumlegierungen ausreichend ist. Bei dem kommerziell erhältlichen System konnten dagegen selbst bei einer Fördergeschwindigkeit von 3 m/s Nachweisgrenzen erreicht werden, die für sämtlichen aktuellen analytische Fragestellungen auf diesem Gebiet ausreichend sind. Anschließend wurden die analytischen Güteziffern des kommerziell erhältlichen Systems verbessert, indem verschiedene multivariate Analysemethoden und Datenvorverarbeitungstechniken untersucht und optimiert wurden. Im nächsten Schritt wurde das System mit den optimierten Analysemethoden für die Sortierung der realen Produktionsschrotte eingesetzt. Hierbei konnte gezeigt werden, dass die Sortierung von Aluminiumlegierungen in verschiedene Gruppen der Aluminiumknetlegierungen bei einer Fördergeschwindigkeit von 3 m /s mittels LIBS möglich ist. Im letzten Schritt wurden die Möglichkeiten der Übertragung der Methoden von einem Gerät auf ein anderes untersucht. Hierbei konnte ein Algorithmus ermittelt werden, bei dem ein derartiger Transfer möglich ist. Somit kann dieser bei einer Serienproduktion der Systeme eingesetzt werden, um den experimentellen Aufwand bei der Kalibrierung drastisch zu reduzieren. / The aim of this study was the investigation of the suitability of laser-induced breakdown spectroscopy (LIBS) for online analysis of material flow in a sorting plant for identification of alloys on example of aluminum wrought alloys. As a new approach in this study, new laser sources such as fiber lasers or diode-pumped solid state lasers, which can be operated with significantly higher repetition rates as broadly used flash lamp pumped lasers, were used. In this work, a systematic study of laser-induced breakdown spectroscopy with diode-pumped solid-state laser as an excitation source has been studied. It was found that LIBS with such excitation sources has good detection capability and good stability. In addition, a prototype for the online analysis of the aluminum alloys was developed and compared with a commercially available system. It could be determined that the detection capability of the prototype was sufficient for some analytical tasks in sorting of aluminum alloys. The limits of detection of the commercially available system were even at conveyor belt speed of 3 m/s sufficient for all current analytical tasks in this field. Subsequently, the analytical figures of merit of the commercially available system were improved by the study and optimization of the different multivariate analysis techniques and data pretreatment algorithms. In the next step, the system with the optimized analytical methods was used for sorting the real production scrap. It could be demonstrated that the sorting of aluminum alloys in different groups of aluminum wrought alloys at a conveyor speed of 3 m /s is possible by the use of LIBS. In the last step, the possibilities of transfer of the methods from one device to the other one were investigated. Here, an algorithm has been found, which makes such transfer possible. Therefore, this can be used for the reduction of the experimental effort during calibration drastically in a series production of the systems.
4

Réduction à la volée du volume des traces d'exécution pour l'analyse d'applications multimédia de systèmes embarqués / Online execution trace reduction for multimedia software analysis of embedded systems

Emteu Tchagou, Serge Vladimir 15 December 2015 (has links)
Le marché de l'électronique grand public est dominé par les systèmes embarqués du fait de leur puissance de calcul toujours croissante et des nombreuses fonctionnalités qu'ils proposent.Pour procurer de telles caractéristiques, les architectures des systèmes embarqués sont devenues de plus en plus complexes (pluralité et hétérogénéité des unités de traitements, exécution concurrente des tâches, ...).Cette complexité a fortement influencé leur programmabilité au point où rendre difficile la compréhension de l'exécution d'une application sur ces architectures.L'approche la plus utilisée actuellement pour l'analyse de l'exécution des applications sur les systèmes embarqués est la capture des traces d'exécution (séquences d'événements, tels que les appels systèmes ou les changements de contexte, générés pendant l'exécution des applications).Cette approche est utilisée lors des activités de test, débogage ou de profilage des applications.Toutefois, suivant certains cas d'utilisation, les traces d'exécution générées peuvent devenir très volumineuses, de l'ordre de plusieurs centaines de gigaoctets.C'est le cas des tests d'endurance ou encore des tests de validation, qui consistent à tracer l'exécution d'une application sur un système embarqué pendant de longues périodes, allant de plusieurs heures à plusieurs jours.Les outils et méthodes d'analyse de traces d'exécution actuels ne sont pas conçus pour traiter de telles quantités de données.Nous proposons une approche de réduction du volume de trace enregistrée à travers une analyse à la volée de la trace durant sa capture.Notre approche repose sur les spécificités des applications multimédia, qui sont parmi les plus importantes pour le succès des dispositifs populaires comme les Set-top boxes ou les smartphones.Notre approche a pour but de détecter automatiquement les fragments (périodes) suspectes de l'exécution d'une application afin de n'enregistrer que les parties de la trace correspondant à ces périodes d'activités.L'approche que nous proposons comporte deux étapes : une étape d'apprentissage qui consiste à découvrir les comportements réguliers de l'application à partir de la trace d'exécution, et une étape de détection d'anomalies qui consiste à identifier les comportements déviant des comportements réguliers.Les nombreuses expériences, réalisées sur des données synthétiques et des données réelles, montrent que notre approche permet d'obtenir une réduction du volume de trace enregistrée d'un ordre de grandeur avec d'excellentes performances de détection des comportements suspects. / The consumer electronics market is dominated by embedded systems due to their ever-increasing processing power and the large number of functionnalities they offer.To provide such features, architectures of embedded systems have increased in complexity: they rely on several heterogeneous processing units, and allow concurrent tasks execution.This complexity degrades the programmability of embedded system architectures and makes application execution difficult to understand on such systems.The most used approach for analyzing application execution on embedded systems consists in capturing execution traces (event sequences, such as system call invocations or context switch, generated during application execution).This approach is used in application testing, debugging or profiling.However in some use cases, execution traces generated can be very large, up to several hundreds of gigabytes.For example endurance tests, which are tests consisting in tracing execution of an application on an embedded system during long periods, from several hours to several days.Current tools and methods for analyzing execution traces are not designed to handle such amounts of data.We propose an approach for monitoring an application execution by analyzing traces on the fly in order to reduce the volume of recorded trace.Our approach is based on features of multimedia applications which contribute the most to the success of popular devices such as set-top boxes or smartphones.This approach consists in identifying automatically the suspicious periods of an application execution in order to record only the parts of traces which correspond to these periods.The proposed approach consists of two steps: a learning step which discovers regular behaviors of an application from its execution trace, and an anomaly detection step which identifies behaviors deviating from the regular ones.The many experiments, performed on synthetic and real-life datasets, show that our approach reduces the trace size by an order of magnitude while maintaining a good performance in detecting suspicious behaviors.
5

混合式的Java網頁應用程式分析工具 / A hybrid security analyzer for Java web applications

江尚倫 Unknown Date (has links)
近年來網路應用蓬勃的發展,經由網頁應用程式提供服務或從事商業行為已經成為趨勢,因此網頁應用程式自然而然成為網路攻擊者的目標,攻擊手法也隨著時間不斷的翻新。已經有許多的方法被提出用來防範這些攻擊,增加網頁應用程式的安全性,如防火牆的機制以及加密連線,但是這些方法所帶來的效果有限,最根本的方法應為回歸原始的網頁應用程式設計,確實的找出應用程式本身的弱點,才能杜絕不斷變化的攻擊手法。以程式分析的技術來發現這些弱點是常見的方法之一,程式分析又分為靜態分析和動態分析,兩種分析技術都能有效的找出這些弱點。我們整理了近幾年的網頁應用程式分析技術,多採用靜態分析,然而比較後發現靜態分析的技術對於Java的網頁應用程式的分析,無法達到精確的分析結果,原因在於Java語言所具有的特性,如:變數的多型、反射機制的應用等。靜態分析在處理這些問題具有先天上的缺陷,由於並沒有實際的去執行程式,所以無法獲得這些執行時期才有的資訊。 本研究的重點將放在動態的程式分析技術上,也就是於程式執行期間所進行的分析,來解決分析Java網頁應用程式的上述問題。為了在程式執行期間得到可利用的分析資訊,我們運用了AspectJ的插碼技術。我們的工具會先將負責收集資訊的模組插入應用程式的源碼,並以單元測試的方式執行程式,於程式執行的過程中將分析資訊傳遞給分析模組,利用Java 語言的特性進行汙染資料的追蹤 。另外,我們考慮到以動態分析的方式偵測弱點會因為執行的路徑,導致一些潛在的弱點無法被發現,所以我們利用了線上分析的概念,設計出了線上的污染資料流分析模組,我們的工具結合了上述兩個分析模組所產生的分析結果,提供開網頁應用程式弱點資訊。 / In recent years, development of web application is flourishing and the increasing population of using internet, providing customer service and making business through network has been a prevalent trend. Consequently, the web applications have become the targets of the web hackers. With the progress of information technology, the technique of web attack becomes timeless and widespread. Some approaches have been taken to prevent from web attacks, such as firewall and encrypted connection. But these approaches have a limited effect against these attack techniques. The basic method should be taken is to eliminate the vulnerabilities inside the web application. Program analysis is common technique for detecting these vulnerabilities. There are two major program analysis approaches: static analysis and dynamic analysis. Both these approaches can detect vulnerabilities effectively. We reviewed several program analysis tools. Most of them are static analysis tool. However, we noticed that it is insufficient to analysis Java program in a static way due to the characteristic of Java language, e.g., polymorphism, reflection and more. Static has its congenital defects in examining these features, because static analysis happens when the program is not executing and lacks of runtime information. In this thesis, we focus on dynamic analysis of programs, where the analysis occurs when the program is executing, to solve the problems mentioned above in Java web application. In order to retrieving the runtime analysis information, we utilize the instrumentation mechanism provided by AspectJ. We instrument designed module in to the program and gather the needed information and execute the program in a unit testing approach. Our dynamic analysis module retrieves the information from instrumented executing program and utilizes the characteristic of Java to perform the tainted data tracking. We considered the dynamic tracking mechanism will leave some vulnerabilities undiscovered when the program is not completely executed. Hence we adopt the online analysis concept and design an online analysis module to find out the potential vulnerabilities which cannot be detected by dynamically tracking the tainted data. Our analysis tool finally integrates these two analysis results and provides the most soundness analysis result for developers.
6

Weiterentwicklung der Kohle-Online-Analytik mittels radiometrischer Messmethoden im Rheinischen Braunkohlenrevier

Schüngel, Michael 24 July 2017 (has links) (PDF)
Kernthema der Dissertation ist die Weiterentwicklung von Kohle-Online-Messtechniken zur kontinuierlichen Bestimmung, das Brennstoffverhalten in Kraftwerkskesseln beeinflussender anorganischer Kohleinhaltsstoffe im Rheinischen Braunkohlerevier, die geologisch bedingt, natürlichen Schwankungen unterliegen. Im Rahmen dieses Vorhabens wurden die Gammastrahlenabsorptionsverfahren zur Aschegehaltsbestimmung und die Prompte-Gamma-Neutronen-Aktivierungs-Analyse (PGNAA) zur Multielement-Analyse als innovative Messmethoden zur Analyse des gesamten Kohlestroms auf Förderbandanlagen identifiziert, deren Eignung im Rahmen von Voruntersuchungen bestätigt, betrieblich eingeführt und unter Praxisbedingungen optimiert. Dabei wurde die Wechselwirkung zwischen Gamma- und Neutronenstrahlung unterschiedlicher Energien mit Braunkohlen und Fördergurten unterschiedlicher Eigenschaften sowie Einflüsse variierender homogener und inhomogener Elementzusammensetzungen bei verschiedenen Messsystemanordnungen und Förderleistungen auf die Messergebnisse systematisch erfasst und für die Versuchsanlagen in der betrieblichen Praxis umgesetzt. Die Gamma-Absorptionsmethode ist im betrieblichen Einsatz, die Erprobung der PGNAA-Prototypanlage steht bevor.
7

Weiterentwicklung der Kohle-Online-Analytik mittels radiometrischer Messmethoden im Rheinischen Braunkohlenrevier

Schüngel, Michael 05 July 2017 (has links)
Kernthema der Dissertation ist die Weiterentwicklung von Kohle-Online-Messtechniken zur kontinuierlichen Bestimmung, das Brennstoffverhalten in Kraftwerkskesseln beeinflussender anorganischer Kohleinhaltsstoffe im Rheinischen Braunkohlerevier, die geologisch bedingt, natürlichen Schwankungen unterliegen. Im Rahmen dieses Vorhabens wurden die Gammastrahlenabsorptionsverfahren zur Aschegehaltsbestimmung und die Prompte-Gamma-Neutronen-Aktivierungs-Analyse (PGNAA) zur Multielement-Analyse als innovative Messmethoden zur Analyse des gesamten Kohlestroms auf Förderbandanlagen identifiziert, deren Eignung im Rahmen von Voruntersuchungen bestätigt, betrieblich eingeführt und unter Praxisbedingungen optimiert. Dabei wurde die Wechselwirkung zwischen Gamma- und Neutronenstrahlung unterschiedlicher Energien mit Braunkohlen und Fördergurten unterschiedlicher Eigenschaften sowie Einflüsse variierender homogener und inhomogener Elementzusammensetzungen bei verschiedenen Messsystemanordnungen und Förderleistungen auf die Messergebnisse systematisch erfasst und für die Versuchsanlagen in der betrieblichen Praxis umgesetzt. Die Gamma-Absorptionsmethode ist im betrieblichen Einsatz, die Erprobung der PGNAA-Prototypanlage steht bevor.:1 Hintergrund und Motivation 5 1.1 Belagsbildungen bei der Verbrennung von Braunkohlen in Dampferzeugern 5 1.2 Bildungsbedingungen von Schmelzphasen in Mehrstoffsystemen 6 1.3 Methoden zur Bewertung des Ansatzbildungspotenzials 9 1.4 Geologie des Rheinischen Braunkohlenreviers 9 1.4.1 Tektonische Vorgeschichte der Niederrheinischen Bucht 9 1.4.2 Stratigrafischer und lithologischer Überblick des Rheinischen Braunkohlenreviers 11 1.5 Lagerstätten des Rheinischen Braunkohlenreviers 14 1.5.1 Tagebau Garzweiler 14 1.5.2 Tagebau Hambach 15 1.5.3 Tagebau Inden 16 1.6 Kohlesortenkonzept des Rheinischen Braunkohlenreviers 17 2 Ziel der Arbeit 21 3 Stand von Wissenschaft und Kohle-Online-Messtechnik 22 3.1 Röntgenfluoreszenzanalyse (RFA) 22 3.2 Laser-induzierte-Plasma-Spektroskopie (LIPS) 23 3.3 Gammastrahlenabsorption 24 3.4 Prompte-Gamma-Neutronen-Aktivierungsanalyse 28 3.5 Eingesetzte Messtechniken im Rheinischen Revier 30 4 Anforderungen an Kohle-Online-Messtechniken 31 4.1 Revierweite Anforderungen an Kohle-Online-Messtechniken 31 4.2 Anforderungen an Kohle-Online-Messtechniken zur Aschegehaltsbestimmung 31 4.3 Standortspezifische Anforderungen an Kohle-Online-Messtechniken 32 5 Arbeits- und Versuchsprogramm 33 5.1 Radiometrische Aschegehaltsbestimmung mittels Gammastrahlenabsorption 33 5.2 Prompte Gamma-Neutronen-Aktivierungsanalyse (PGNAA) 36 6 Versuchsergebnisse und Diskussion 41 6.1 Radiometrische Aschegehaltsbestimmung mittels Gammastrahlenabsorption 41 6.1.1 Vorversuche mit einer Americiumquelle (Am-241) am Teilstrom (Firma Berthold) 41 6.1.2 Gammastrahlenabsorption eines stahlarmierten Fördergurts 46 6.1.3 Anlagengeometrie der betrieblichen Versuchsanlagen 57 6.1.4 Vollständige Erfassung der Bandbelegung (Detektorgeometrie) 59 6.1.5 Auswirkungen der Elementverteilungen auf die Gammastrahlenabsorption 60 6.1.6 Fehlerbetrachtungen der Gammastrahlenabsorption und Optimierungsansätze 66 6.1.7 Probennahme-Techniken für Referenzwerte der Kalibrierung 68 6.1.8 Anlagen-Kalibrierung für unterschiedliche Aschegehalte 75 6.1.9 Anlagen-Kalibrierung bei unterschiedlichen Förderleistungen 76 6.1.10 Langzeitversuche zu Lagerstättendaten und weiteren Analysetechniken 77 6.1.11 Zusammenfassung der Ergebnisse 81 6.2 Prompte Gamma-Neutronen-Aktivierungsanalyse (PGNAA) 83 6.2.1 Testmessungen mittels MEDINA-Anlage am Forschungszentrum Jülich (FZJ) 83 6.2.2 Simulationsrechnungen für heterogen verteilte Sandfrachten am FZJ 95 6.2.3 Testmessungen mittels Coalscan-Anlage bei der Firma Scantech (Australien) 99 6.2.4 Zusammenfassung der Ergebnisse 105 7 Schlussfolgerungen und Fazit 106 7.1 Radiometrische Aschegehaltsbestimmung mittels Gammastrahlenabsorption 106 7.2 Prompte Gamma-Neutronen-Aktivierungsanalyse (PGNAA) 107 8 Ausblick 108 8.1 Radiometrische Aschegehaltsbestimmung mittels Gammastrahlenabsorption 108 8.2 Prompte Gamma-Neutronen-Aktivierungsanalyse (PGNAA) 109 9 Abbildungsverzeichnis 111 10 Tabellenverzeichnis 118 11 Abkürzungsverzeichnis 120 12 Literaturverzeichnis 123 13 Anhang 126

Page generated in 0.0802 seconds