Spelling suggestions: "subject:"low analysis"" "subject:"flow analysis""
191 |
Deployment of mixed criticality and data driven systems on multi-cores architectures / Déploiement de systèmes à flots de données en criticité mixte pour architectures multi-coeursMedina, Roberto 30 January 2019 (has links)
De nos jours, la conception de systèmes critiques va de plus en plus vers l’intégration de différents composants système sur une unique plate-forme de calcul. Les systèmes à criticité mixte permettent aux composants critiques ayant un degré élevé de confiance (c.-à-d. une faible probabilité de défaillance) de partager des ressources de calcul avec des composants moins critiques sans nécessiter des mécanismes d’isolation logicielle.Traditionnellement, les systèmes critiques sont conçus à l’aide de modèles de calcul comme les graphes data-flow et l’ordonnancement temps-réel pour fournir un comportement logique et temporel correct. Néanmoins, les ressources allouées aux data-flows et aux ordonnanceurs temps-réel sont fondées sur l’analyse du pire cas, ce qui conduit souvent à une sous-utilisation des processeurs. Les ressources allouées ne sont ainsi pas toujours entièrement utilisées. Cette sous-utilisation devient plus remarquable sur les architectures multi-cœurs où la différence entre le meilleur et le pire cas est encore plus significative.Le modèle d’exécution à criticité mixte propose une solution au problème susmentionné. Afin d’allouer efficacement les ressources tout en assurant une exécution correcte des composants critiques, les ressources sont allouées en fonction du mode opérationnel du système. Tant que des capacités de calcul suffisantes sont disponibles pour respecter toutes les échéances, le système est dans un mode opérationnel de « basse criticité ». Cependant, si la charge du système augmente, les composants critiques sont priorisés pour respecter leurs échéances, leurs ressources de calcul augmentent et les composants moins/non critiques sont pénalisés. Le système passe alors à un mode opérationnel de « haute criticité ».L’ intégration des aspects de criticité mixte dans le modèle data-flow est néanmoins un problème difficile à résoudre. Des nouvelles méthodes d’ordonnancement capables de gérer des contraintes de précédences et des variations sur les budgets de temps doivent être définies.Bien que plusieurs contributions sur l’ordonnancement à criticité mixte aient été proposées, l’ordonnancement avec contraintes de précédences sur multi-processeurs a rarement été étudié. Les méthodes existantes conduisent à une sous-utilisation des ressources, ce qui contredit l’objectif principal de la criticité mixte. Pour cette raison, nous définissons des nouvelles méthodes d’ordonnancement efficaces basées sur une méta-heuristique produisant des tables d’ordonnancement pour chaque mode opérationnel du système. Ces tables sont correctes : lorsque la charge du système augmente, les composants critiques ne manqueront jamais leurs échéances. Deux implémentations basées sur des algorithmes globaux préemptifs démontrent un gain significatif en ordonnançabilité et en utilisation des ressources : plus de 60 % de systèmes ordonnançables sur une architecture donnée par rapport aux méthodes existantes.Alors que le modèle de criticité mixte prétend que les composants critiques et non critiques peuvent partager la même plate-forme de calcul, l'interruption des composants non critiques réduit considérablement leur disponibilité. Ceci est un problème car les composants non critiques doivent offrir une degré minimum de service. C’est pourquoi nous définissons des méthodes pour évaluer la disponibilité de ces composants. A notre connaissance, nos évaluations sont les premières capables de quantifier la disponibilité. Nous proposons également des améliorations qui limitent l’impact des composants critiques sur les composants non critiques. Ces améliorations sont évaluées grâce à des automates probabilistes et démontrent une amélioration considérable de la disponibilité : plus de 2 % dans un contexte où des augmentations de l’ordre de 10-9 sont significatives.Nos contributions ont été intégrées dans un framework open-source. Cet outil fournit également un générateur utilisé pour l’évaluation de nos méthodes d’ordonnancement. / Nowadays, the design of modern Safety-critical systems is pushing towards the integration of multiple system components onto a single shared computation platform. Mixed-Criticality Systems in particular allow critical components with a high degree of confidence (i.e. low probability of failure) to share computation resources with less/non-critical components without requiring software isolation mechanisms (as opposed to partitioned systems).Traditionally, safety-critical systems have been conceived using models of computations like data-flow graphs and real-time scheduling to obtain logical and temporal correctness. Nonetheless, resources given to data-flow representations and real-time scheduling techniques are based on worst-case analysis which often leads to an under-utilization of the computation capacity. The allocated resources are not always completely used. This under-utilization becomes more notorious for multi-core architectures where the difference between best and worst-case performance is more significant.The mixed-criticality execution model proposes a solution to the abovementioned problem. To efficiently allocate resources while ensuring safe execution of the most critical components, resources are allocated in function of the operational mode the system is in. As long as sufficient processing capabilities are available to respect deadlines, the system remains in a ‘low-criticality’ operational mode. Nonetheless, if the system demand increases, critical components are prioritized to meet their deadlines, their computation resources are increased and less/non-critical components are potentially penalized. The system is said to transition to a ‘high-criticality’ operational mode.Yet, the incorporation of mixed-criticality aspects into the data-flow model of computation is a very difficult problem as it requires to define new scheduling methods capable of handling precedence constraints and variations in timing budgets.Although mixed-criticality scheduling has been well studied for single and multi-core platforms, the problem of data-dependencies in multi-core platforms has been rarely considered. Existing methods lead to poor resource usage which contradicts the main purpose of mixed-criticality. For this reason, our first objective focuses on designing new efficient scheduling methods for data-driven mixed-criticality systems. We define a meta-heuristic producing scheduling tables for all operational modes of the system. These tables are proven to be correct, i.e. when the system demand increases, critical components will never miss a deadline. Two implementations based on existing preemptive global algorithms were developed to gain in schedulability and resource usage. In some cases these implementations schedule more than 60% of systems compared to existing approaches.While the mixed-criticality model claims that critical and non-critical components can share the same computation platform, the interruption of non-critical components degrades their availability significantly. This is a problem since non-critical components need to deliver a minimum service guarantee. In fact, recent works in mixed-criticality have recognized this limitation. For this reason, we define methods to evaluate the availability of non-critical components. To our knowledge, our evaluations are the first ones capable of quantifying availability. We also propose enhancements compatible with our scheduling methods, limiting the impact that critical components have on non-critical ones. These enhancements are evaluated thanks to probabilistic automata and have shown a considerable improvement in availability, e.g. improvements of over 2% in a context where 10-9 increases are significant.Our contributions have been integrated into an open-source framework. This tool also provides an unbiased generator used to perform evaluations of scheduling methods for data-driven mixed-criticality systems.
|
192 |
Förbättring av en allergenrengöring i livsmedelstillverkning / Improving the allergen cleaning in food productionHahn, Elinore January 2017 (has links)
Följande examensarbete har genomförts på Cloetta i Ljungsbro. Syftet med följande examensarbete är att undersöka hur processen för allergenrengöringen kan effektiviseras.Allergenrengöringen som undersökts i detta arbete är den som utförs på produktionslinjen linjen Conbar. Examensarbetet har haft sin grund i att undersöka tillverkningsprocessen för att få en förståelse för allergenrengöringen och dess process. Därav kunde flödet för allergenrengöringen tas fram, även kritiska moment och eventuella förbättringsområden framtogs. Denna granskning har också legat till grund för en analys av verktygen/metoderna processflödesanalys, processflödesschema och SMED för att finna vilken av dessa som hade varit mest optimal vid effektiviseringsarbete av en allergenrengöring.Metoden är baserad på en explorativ undersökning där primärdata samlats in genom observationer och intervjuer. Samtlig data har sedan sammanställts i de olika mallarna för allergenrengöringens granskning. Sammanställningen ligger tillsammans med teori till grund för analys, resultat och de potentiella förbättringsområden som presenterats.Resultatet av undersökningen är att processflödesanalysen kan användas för att visualisera flödet och förbättringsområden. Aktiviteterna som genomförs i allergenrengöringar har visats till stor del enbart bestå av interna aktiviteter som inte går att ställa om till externa. SMED som har till syfte att omvandla interna aktiviteter till externa uppfyller då inte sitt syfte och användandet av processflödesanalys eller processflödesschema har istället rekommenderats. Resultatet har också bidragit till tre potentiella förbättringsområden som är; dubbel uppsättning av pumpar till chokladdoppen, införande av 5S på redskapshanteringen och att anpassa redskapen för det specifika arbetet som utförs. / The following bachelor thesis has been done at Cloetta in Ljungsbro. The purpose with the thesis was to investigate how the process for the allergen cleaning can be more effective.The allergen cleaning which have been investigated in this thesis is the line called Conbar.The bachelor thesis has been based on the review of the allergen cleaning and analysis template to describe the process flow, identify critical stages and to visualize potential improvement areas. The analysis template has also been the foundation to the analysis regarding which method (process flow analysis, process flow chart, SMED) is the most optimal to use when working to make the allergen cleanings more effective.The method is based on an explorative survey where primary data were collected through observations and interviews. All data has then been compiled into the different templates for the first step of analysis a process. The compilation constitutes together with the theory the foundation for the analysis, the result and the proposed potential improvement areas.The result of the survey is that the survey can be used to visualize the flow and improvement areas. The activities carried out in allergen cleanings have been shown to consist almost exclusively of internal activities that can not be switched to external activities. SMED, which aim is to transform internal activities to external, does not fulfill its purpose and the use of process flow analysis has been recommended instead. The result has also contributed to three potential improvement areas that are; doubling pumps for the chocolate caps, introducing 5S for tools handling and adapting the tools for the specific work performed.
|
193 |
Podnikatelský záměr / Business PlanMurín, Miroslav January 2011 (has links)
The object of the master´s thesis is a business plan for internet portal KAMZASPORTEM.CZ, which will provide information about sports centres in Brno and surroundings. The thesis contains the theoretical introduction of the business plan and also the analysis of practical part.
|
194 |
FORENSICS AND FORMALIZED PROTOCOL CUSTOMIZATION FOR ENHANCING NETWORKING SECURITYFei Wang (11523058) 22 November 2021 (has links)
<div>Comprehensive networking security is a goal to achieve for enterprise networks. In forensics, the traffic analysis, causality dependence in intricate program network flows is needed in flow-based attribution techniques. The provenance, the connection between stealthy advanced persistent threats (APTs) and the execution of loadable modules is stripped because loading a module does not guarantee an execution. The reports of common vulnerabilities and exposures (CVE) demonstrate that lots of vulnerabilities have been introduced in protocol engineering process, especially for the emerging Internet-of-Things (IoT) applications. A code generation framework targeting secure protocol implementations can substantially enhance security.</div><div>A novel automaton-based technique, NetCrop, to infer fine-grained program behavior by analyzing network traffic is proposed in this thesis. Based on network flow causality, it constructs automata that describe both the network behavior and the end-host behavior of a whole program to attribute individual packets to their belonging programs and fingerprint the high-level program behavior. A novel provenance-oriented library tracing system, Lprov, which enforces library tracing on top of existing syscall logging based provenance tracking approaches is investigated. With the dynamic library call stack, the provenance of implicit library function execution is revealed and correlated to system events, facilitating the locating and defense of malicious libraries. The thesis presents ProFactory, in which a protocol is modeled, checked and securely generated, averting common vulnerabilities residing in protocol implementations.</div>
|
195 |
Podnikatelský záměr / Business PlanMurín, Miroslav January 2012 (has links)
The object of the master´s thesis is a business plan for internet portal Sportuj.cz, which will provide information about sports centres in Brno and surroundings. The thesis contains the theoretical introduction of the business plan and also the analysis of practical part.
|
196 |
CFD analýza vstupního kanálu turbovrtulového motoru / CFD analysis of turboprop engine air intakePrzeczek, Jan January 2011 (has links)
This diploma thesis is focused on CFD analysis of M-601 turboprop engine nacelle mounted on L-410 commuter aircraft. Calibrating exercise is performed at the beginning of the thesis in order to be more familiar with CFD problems. Next parts of the thesis are chronologically divided with respect to project progress, namely suitable geometrical model creation, mesh creation in order to obtain computational model, calculation using CFD methods, results evaluation and proposal of possible construction transformation at the conclusion.
|
197 |
Um programa interativo para estudos de fluxo de potência /Canossa, Jâine Henrique. January 2007 (has links)
Orientador: Dilson Amâncio Alves / Banca: Sergio Azevedo de Oliveira / Banca: Carlos Alberto Castro Júnior / Resumo: Este trabalho apresenta um programa interativo para a simulação do fluxo de potência e do fluxo de potência continuado. O programa foi desenvolvido no ambiente MATLAB e a simulação é realizada por meio de uma interface gráfica. A interface gráfica não só proporciona um bom desempenho computacional, mas também torna o programa mais amigável para o usuário. Através dela o usuário pode editar os arquivos de entrada e saída e visualizar e analisar os resultados obtidos diretamente na tela do computador. A partir do diagrama unifilar dos sistemas, a interface gráfica permite que o usuário: mude os parâmetros do sistema (dados de barras e de linhas de transmissão); remova uma linha de transmissão com um simples clicar sobre ela; visualize os perfis de tensão nas barras, e os fluxos de potência ativa e reativa nas linhas de transmissão. Todas estas características fazem do programa desenvolvido uma ferramenta recomendada para fins educacionais. / Abstract: This work presents an interactive computing program for power flow and continuation power flow simulations. The power flow and continuation power flow programs were developed in the MATLAB environment and the simulation is accomplished through a graphical user interface. The graphical user interface provides not only a good computational performance, but also an user-friendly teaching software. With the use of this interface the user can edit the input and output data files of the selected systems and can visualize and analyze the results of the program directly in the computer screen. Directly from the system one-line diagrams, the graphical user interface allows the user: to change the parameters of the system (bus and lines system data); to remove the transmission line clicking directly on it; to visualize the bus voltage profile, and the active and reactive power flows. All these characteristics make the developed program recommended for educational purposes. / Mestre
|
198 |
Parameters and Drivers for a Successful and Sustainable Performance of Photovoltaic ManufacturerLaux, Julia, Seiler, Romy, Vorreyer, Vanessa, Grundmann, David, Kießling, Hansgeorg, Pirl, Patrik, Rühs, Stefan, Schulze, Christopher January 2013 (has links)
The Photovoltaic Industry is at a crossroads for change. Improving the sustainability of this complex system requires a thorough understanding of the entire life cycle of the solar module production. The product life cycle is thereby divided into the value added steps of raw material extraction, outsourced production, in-house production, operation, and recycling. Furthermore, the following report distinguishes between social, ecological, and economic sustainability.
The report offers a compacted matrix with all parts of sustainability and each life cycle stage in order toshow companies of the photovoltaic industry the sensible areas. This should be a first step for improving the sustainability in the whole life cycle of a solar module.
|
199 |
Prediction of antibiotic mass flows in urban catchments and their environmental prioritizationMarx, Conrad 09 December 2015 (has links)
Urban emissions of antibiotics into the environment have the potential to adversely affect terrestrial and aquatic organisms. Developed standardized test methods allow the quantification of the resulting ecotoxicological risk, which strongly relies on a comprehensive situation analysis by predicting or measuring a representative antibiotic concentration of interest. Predicting the input loads of antibiotics to wastewater treatment plants using secondary input data (e.g. prescriptions) is a reasonable method if no analytical data is available. The absence of such data poses the question of an aquired reasonable sample quantity to capture local seasonal differences in prescriptions as well as flow conditions within the catchment area. Both, the theoretical and measurement based determination of environmental concentrations have been scarcely verified in practice. Hence, high resolution prescription data in combination with an extensive monitoring campaign at the wastewater treatment plant Dresden-Kaditz (WWTP) were used as a basis to evaluate the reliability of predicting and measuring urban antibiotic emissions.
As expected, the recovery of antibiotic input loads strongly varies among substances. The group of macrolides as well as sulfamethoxazole and trimethoprim were almost fully recovered whereas nearly all substances of the beta-lactam family exhibit high elimination rates during the wastewater transport in the sewer system. Yet other antibiotics (e.g. fluoroquinolones) show distinct fluctuations through the year, which was not obvious from relatively constant prescriptions. The latter substances are an example that available data are not per se sufficient to predict the actual release into the environment which, in certain cases, emphasizes the necessity of adequate measuring campaings. The extensive data pool of this study was hence used to calculate the necessary number of samples to determine a representative annual mean load to the WWTP. Based on the applied approach, a minimum number of 20 to 40 samples per year is proposed to reasonably estimate a representative annual input load of antibiotics and other micropollutants. Regarding the WWTP, the mass flow analysis revealed that macrolides, clindamycin/ clindamycin-sulfoxide and trimethoprim were mainly released with the effluent, while penicillins, cephalosporins as well as sulfamethoxazole were partly degraded in the studied WWTP. Levofloxacin and ciprofloxacin are the only antibiotics under investigation with a significant mass fraction bound to primary, excess and digested sludge. In this context, the sludge concentrations are considered to be highly inconsistent which leads to questionable results. It remains unclear whether the inconsistencies are due to insufficiencies in sampling and/or analytical determination or if the fluctuations can be considered reasonable for digesters.
Subsequently, verified antibiotic loads were evaluated regarding their ecotoxicological effects in the aquatic environment. Two approaches were applied (1) to address the ecological impact on individual trophic levels algae, daphnia and fish, and (2) to assess the possible synergistic potential of antibiotic combinations. Ciprofloxacin, levofloxacin and the group of cephalosporins showed to significantly affect the aquatic environment. They either have the highest impact on (one of) the lowest trophic level(s) or disproportionately increase the ecotoxicological risk due to their synergistic characteristics. In this regard, the deficiencies regarding the input prediction of these antibiotics is of particular concern. The underestimation of such critical mass flow conditions weakens the approach of assessing environmental risks on the basis of secondary data like prescriptions. Hence, efforts must be made to further develop the projection model by improving the quality of secondary data, identifying additional emitters and understanding possible retention and degradation dynamics of antibiotics within the sewer system.:Abstract 2
Danksagung 1
Table of Contents 1
Chapter 1 – Introduction 1
Scope 1
Goals and structure 3
Approach and Methods 5
Chapter 2 – Representative input load of antibiotics to WWTPs: Predictive
accuracy and determination of a required sampling quantity 11
Introduction 14
Materials and Methods 16
Results and discussion 24
Conclusion 38
References 39
Chapter 3 – Mass flow of antibiotics in a wastewater treatment plant
focusing on removal variations due to operational parameters 41
Introduction 45
Materials and Methods 47
Results and discussion 52
Conclusions 65
References 66
Chapter 4 – Species-related risk assessment of antibiotics using the
probability distribution of long-term toxicity data as weighting function
– a case study 71
Introduction 74
Materials and Methods 75
Results and discussion 86
Conclusions and summary 93
References 95
Chapter 5 – Environmental risk assessment of antibiotics including
synergistic and antagonistic combination effects 99
Materials and Methods 104
Results 113
Discussion 120
Conclusions and summary . 125
References 126
Chapter 6 – Results and conclusions 129
Individual results 131
Aggregation of results 133
Final conclusions 134
References 139
Annex 1 – Supplementary material Chapter 2 141
Annex 2 – Supplementary material Chapter 3 147
Annex 3 – Supplementary material Chapter 4 159
Annex 4 – Supplementary material Chapter 5 177 / In der Humanmedizin eingesetzte Antibiotika werden im menschlichen Körper nicht vollständig metabolisiert und gelangen über die Ausscheidungen in das kommunale Abwasser. In der Kläranlage erfolgt nur eine unvollständige Elimination dieser Stoffe, so dass der Kläranlagenablauf einen Hot Spot für Antibiotikaemissionen in die Umwelt darstellt. Das induzierte ökotoxikologische Risiko kann anhand standardisierter Testverfahren und allgemein anerkannter Bewertungsansätze für Einzelsubstanzen abgeschätzt werden. Erfolgt jedoch die Betrachtung von Antibiotikagemischen, wie es für den gereinigten Ablauf einer Kläranlage sinnvoll ist, sind aufgrund zumeist unspezifischer Wirkmechanismen und dem Mangel an repräsentativen Daten eine Reihe von Vereinfachungen und Annahmen zu treffen. Es besteht in der Folge die Gefahr einer Unterschätzung des durch Substanzgemische hervorgerufenen ökotoxikologischen Risikos. Eine vielversprechende Möglichkeit den Entscheidungsprozess über mögliche Vermeidungs- und Eliminationsmaßnahmen zu unterstützen besteht in der Priorisierung von Antibiotika entsprechend ihres Effektpotentials. Hierbei sind Substanzen zu identifizieren, die den größten Einfluss auf die Nahrungskette im Gewässer bzw. das höchste (negative) Synergiepotential mit anderen Substanzen aufweisen. Die Verringerung dieser Substanzen führt zu einer hohen ökologischen Effektivität und Effizienz der eingesetzten Mittel.
Wie im Fall des klassischen Bewertungsansatzes, ist auch für den Priorisierungsansatz eine umfängliche und zuverlässige Situationsanalyse die Grundvoraussetzung für verwertbare Ergebnisse. Die Situationsanalyse beruht auf der analytischen Bestimmung bzw. der Abschätzung von emittierten Antibiotikafrachten zur Berechnung von repräsentativen Umweltkonzentrationen. Analytisch ermittelte Umweltkonzentrationen vieler Antibiotika weisen aufgrund saisonaler Verschreibungsmuster eine hohe zeitliche und räumliche Variabilität auf. Die für eine adäquate Erfassung der Situation notwendigen Messkampagnen sind kostenintensiv, wobei die tatsächlich notwendige Häufigkeit der Probenahme von zumeist nicht hinreichend bekannten substanzspezifischen Informationen, wie der chemischen Stabilität im Rohabwasser und der saisonal beeinflussten Applikation, abhängt. Alternativ können Antibiotikaeinträge in die Kanalisation anhand von Verschreibungsdaten abgeschätzt und mit Hilfe von Stoffflussanalysen (SFA) zur ökotoxikologischen Bewertung herangezogen werden. Eine vom Umfang befriedigende, direkte Gegenüberstellung von prognostizierten und analytisch ermittelten Frachten ist bisher jedoch nicht erfolgt, so dass die Verifizierung dieses Ansatzes noch aussteht. Für den Fall einer bestehenden Verschreibungspflicht für Antibiotika besitzen Verschreibungsdaten eine vergleichsweise hohe zeitliche und räumliche Informationsgüte. In Verbindung mit einer an diese Datenqualität angepassten Messkampagne, ergibt sich die Möglichkeit einer detaillierten SFA mit substanzspezifischer Bewertung der Eignung des Prognoseansatzes.
Die am Beispiel der Stadt Dresden durchgeführte Bewertung des Prognoseansatzes fußt auf einer 15-monatigen Messkampagne und den für das Einzugsgebiet der Zentralkläranlage Dresden-Kaditz verfügbaren Verschreibungsdaten der AOK PLUS. Erwartungsgemäß ergibt der Abgleich von erwarteten und analytisch ermittelten Frachten eine starke Variation der für den Zulauf der Kläranlage ermittelten Wiederfindungsdaten verschiedener Substanzen. Die analytisch ermittelten Frachten von Sulfamethoxazol, Trimethoprim sowie der Gruppe der Makrolid-Antibiotika entsprechen nahezu den prognostizierten Mengen. Die Beta-Laktam-Antibiotika unterliegen bereits während des Abwassertransports einer umfänglichen, zumeist biologisch bedingten, Elimination, was zu hohen Unterbefunden im Zulauf der Kläranlage führt. Andere Substanzen hingegen (z.B. Fluorchinolone) weisen messtechnisch eine signifikante Jahresdynamik auf, die aufgrund der weitgehend konstanten Verschreibung in dieser Ausprägung nicht zu erwarten ist. Die Auswertung zuletzt genannter Substanzen zeigt deutlich, dass die Nutzung von Verschreibungsdaten nicht per se ausreicht, um die Emission von Antibiotika (und anderer Pharmazeutika) sowie die sich daraus ergebenden Umweltkonzentrationen mit ausreichender Sicherheit prognostizieren zu können.
Für eine nachgelagerte ökotoxikologische Bewertung ist in diesen Fällen die Durchführung von Messungen unumgänglich. Zur effizienten Planung derartiger Kampagnen wurde der umfassende Datenpool dieser Studie hinsichtlich der erforderlichen Probenanzahl zur Bestimmung einer repräsentativen mittleren Jahresfracht ausgewertet. Es ergibt sich ein Minimum von 20 bis 40 homogen über das Jahr verteilten Proben, um die jährlich in die Kläranlage eingetragene Fracht an Antibiotika bzw. anderer Mikroschadstoffe mit ausreichender Sicherheit abschätzen zu können. Im Rahmen der SFA in der Kläranlage Dresden-Kaditz wird deutlich, dass Makrolide, Clindamycin und dessen Humanmetabolit Clindamycin-Sulfoxid sowie Trimethoprim in der nahezu keiner Elimination unterliegen, wohingegen Penizilline, Cefalosporine und auch Sulfamethoxazol teilweise bis vollständig abgebaut werden. Mit Levofloxacin und Ciprofloxacin handelt es sich um die einzigen untersuchten Antibiotika, welche zu einem signifikanten Massenanteil an Primär-, Überschuss- und Faulschlamm gebunden vorgefunden werden. Aufgrund der hohen Relevanz dieses Eliminationspfades für die zuvor genannten Antibiotika bedarf die Beobachtung von z. T. widersprüchlichen Schwankungen einer kritischen Betrachtung der Ergebnisse. Es ist nicht abschließend geklärt, ob die beobachteten Fluktuationen auf eine unzureichende Qualität der Probenahme und/oder der Analytik zurückzuführen sind oder sich die Schwankungen in einem für Faulbehälter tolerierbaren Bereich befinden. Im Anschluss an die verifizierten Antibiotikaemissionen erfolgte die Priorisierung der betrachteten Antibiotika nach ihrem ökotoxikologischen Effektpotential.
Zum einen wurde der ökologische Einfluss auf verschiedene, die Nahrungskette bildende trophische Ebenen (Alge, Daphnie, Fisch) untersucht. In Anlehnung an die humanmedizinische Kombinationstherapie erfolgte im zweiten Ansatz die Beurteilung der Antibiotika hinsichtlich ihres möglichen Potentials zur Verstärkung von negativen Effekten durch das gleichzeitige Auftreten mit anderen Substanzen. Für Ciprofloxacin, Levofloxacin und die Gruppen der Makrolide und Cefalosporine konnten signifikante Beeinträchtigungen der aquatischen Umwelt nachgewiesen werden. Diese Stoffe und Stoffgruppen führten im Rahmen der untersuchten Substanzen entweder zur höchsten Schadwirkung gegenüber der niedrigsten trophischen Ebene oder besitzen das höchste Synergiepotential in Kombination mit anderen Substanzen. Die Auswertung der SFA bestätigt die grundsätzliche Eignung der Verschreibungsdaten sowie des entwickelten Prognosemodells zur Vorhersage von Antibiotikaemissionen im urbanen Raum. Die Stoffflussanalyse stellt somit ein strategisches, im Vergleich zur Messung kostengünstiges Instrument zur Identifikation von Hot Spots der Antibiotikaemission dar und erleichtert die Entscheidungsfindung für monetär aufwendige Reduktionsmaßnahmen am Ort der Entstehung oder in der Kläranlage (z.B. 4. Reinigungsstufe). Die Vorgehensweise zur Priorisierung von Substanzen hinsichtlich ihres ökotoxikologischen Effektpotentials eignet sich sehr gut, Antibiotika mit dem höchsten Schadpotential zu identifizieren.
Die Verschneidung der Kenntnis dieser Substanzen mit den Ergebnissen der SFA macht deutlich, dass mit Ausnahme der Makrolide, alle ökotoxikologisch priorisierten Antibiotika eine mangelhafte Prognosefähigkeit aufweisen. Die unvollständige Abbildung kritischer Stoffströme, wie z.B. Frachtspitzen, führt insbesondere im Fall der ökotoxikologisch priorisierten Substanzen zu einer Minderung der Aussagekraft des auf Verschreibungsdaten beruhenden Prognoseansatzes. An diesem Punkt ist in zukünftigen Betrachtungen anzusetzen, um die Qualität von Verschreibungsdaten zu verbessern, potentiell nicht erfasste Emittenten in die Betrachtungen einzubeziehen, sowie die Dynamik der Rückhalte- und Eliminationsprozesse in der Kanalisation adäquat beschreiben zu können. Die ergänzende Betrachtung weiterer Anlagentechnologien (z.B. Festbettreaktoren) kann zur Bestätigung der am Beispiel der Kläranlage Dresden-Kaditz gewonnenen Ergebnisse beitragen bzw. Unterschiede bei der Elimination von Antibiotika das Potential, die Problematik der Antibiotika und anderer Mikroschadstoffe bereits während der Planung von Abwasseranlagen berücksichtigen zu können.:Abstract 2
Danksagung 1
Table of Contents 1
Chapter 1 – Introduction 1
Scope 1
Goals and structure 3
Approach and Methods 5
Chapter 2 – Representative input load of antibiotics to WWTPs: Predictive
accuracy and determination of a required sampling quantity 11
Introduction 14
Materials and Methods 16
Results and discussion 24
Conclusion 38
References 39
Chapter 3 – Mass flow of antibiotics in a wastewater treatment plant
focusing on removal variations due to operational parameters 41
Introduction 45
Materials and Methods 47
Results and discussion 52
Conclusions 65
References 66
Chapter 4 – Species-related risk assessment of antibiotics using the
probability distribution of long-term toxicity data as weighting function
– a case study 71
Introduction 74
Materials and Methods 75
Results and discussion 86
Conclusions and summary 93
References 95
Chapter 5 – Environmental risk assessment of antibiotics including
synergistic and antagonistic combination effects 99
Materials and Methods 104
Results 113
Discussion 120
Conclusions and summary . 125
References 126
Chapter 6 – Results and conclusions 129
Individual results 131
Aggregation of results 133
Final conclusions 134
References 139
Annex 1 – Supplementary material Chapter 2 141
Annex 2 – Supplementary material Chapter 3 147
Annex 3 – Supplementary material Chapter 4 159
Annex 4 – Supplementary material Chapter 5 177
|
200 |
HIGH THROUGHPUT EXPERIMENTATION AS A GUIDE TO THE CONTINUOUS FLOW SYNTHESIS OF ACTIVE PHARMACEUTICAL INGREDIENTSZinia Jaman (6618998) 25 June 2020 (has links)
<div>
<div>
<p>Continuous flow chemistry for organic synthesis is an emerging technique in academia and industry because of its exceptional heat and mass transfer ability and, in turn, higher productivity in smaller reactor volumes. Preparative electrospray (ES) is a technique that exploits reactions in charged microdroplets that seeks to accelerate chemical synthesis. In Chapter 2, the flow synthesis of atropine, a drug which is included in the WHO list of essential of medicines and currently in shortage according to the U.S Food and Drug Administration (FDA)is reported.The two steps of atropine synthesis were initially optimized separately and then continuously synthesized using two microfluidic chips under individually optimized condition.The telescoped continuous-flow microfluidics experiment gave a 55% conversion with an average of 34% yield in 8 min residence time. In Chapter 3, a robotic HTE technique to execute reactions in 96-well arrays was coupled with fast MS analysis. Palladium-catalyzed Suzuki-Miyaura (S-M) cross-coupling reactions were screened in this system and a heat map was generated to identify the best reaction condition for downstream scale up in continuous flow. <br></p><p><br></p><p>In Chapter 4, an inexpensive and rapid synthesis of an old anticancer drug, lomustine,was synthesized. Using only four inexpensive commercially available starting materials and a total residence time of 9 min, lomustine was prepared via a linear sequence of two chemical reactions performed separately in two telescoped flow reactors. Sequential offline extraction and filtration resulted in 63% overall yield of pure lomustine at a production rate of 110 mg/h. The primary advantage of this approach lies in the rapid manufacture of lomustine with two telescoped steps to avoid isolation and purification of a labile intermediate, thereby decreasing the production cost significantly. A high throughput reaction screening approach based on desorption electrospray ionization mass spectrometry (DESI-MS) is described in Chapter 4 and 5 for finding the heat-map from a set of reaction conditions. DESI-MS is used to quickly explore a large number of reaction conditions and guide the efficient translation of optimized conditions to continuous flow synthesis that potentially accelerate the process of reaction optimization and discovery. Chapter 5 described HTE ofSNAr reactions using DESI-MS and bulk techniques with 1536 unique reaction conditions explored using both in DESI-MS and bulk reactors. The hotspots from the HTE screening effort were validated using a microfluidic system that confirmed the conditions as true positives or true.<br></p>
</div>
</div>
|
Page generated in 0.0509 seconds