Spelling suggestions: "subject:"heterogeneidad"" "subject:"heterogeneidade""
131 |
Neue effiziente Wege zur Synthese hierarchisch poröser Titanzeolithe als Epoxidierungskatalysatoren und zur Bestimmung von ZeolithaciditätWerner, Anja 11 January 2022 (has links)
Die Herausforderungen der Ressourcenknappheit und des Klimawandels erhöhen den weltweiten Bedarf an nachhaltigen Lösungen für Produktion und Konsum drastisch. Die Effizienzsteigerung industrieller Prozesse spielt eine Schlüsselrolle in der Einsparung von Energie und Ressourcen. Optimal designte, heterogene Katalysatorsysteme könnten den Energieaufwand um bis zu 50 % senken. Eine solche Energieeinsparung wird in der Realität jedoch nicht erreicht, da ihre Leistung dem Einfluss von Massen- und Wärmetransportphänomenen unterliegt. Bei Zeolithen beeinträchtigen hohe Transportwiderstände in den Mikroporen die Katalysatorleistung maßgeblich. Die von sterischen Restriktionen bestimmte Zugänglichkeit der Mikroporen beschränkt zudem ihre Anwendbarkeit auf Reaktionen mit relativ kleinen Reaktanten und Produkten. Eine bewährte Strategie zur Erhöhung der Diffusivität in Zeolithen und Erweiterung ihres Einsatzfelds stellt die Einführung größerer Transportporen (Meso-/Makroporen) dar. Aus der Ergänzung ihrer intrinsischen Mikroporosität durch eine Sekundärporosität werden hierarchisch poröse Materialien erhalten. Enormes Potenzial zur Effizienzsteigerung von Prozessen in der Kunststoff-, Agrar-, Kosmetik- und Lebensmittelindustrie sowie in der pharmazeutischen Industrie birgt der Einsatz hierarchisch poröser Titanzeolithe, die als Epoxidierungskatalysatoren wirksam sind. Ihre Synthese ist bisher jedoch zeit- und kostenintensiv und produziert große Mengen chemischen Abfalls. In vorliegender Arbeit wurde ein daher neuer, effizienter Syntheseweg erschlossen.
Die Synthesestrategie basiert auf der simultanen Durchführung zweier Modifizierungsschritte: der Hierarchisierung eines Zeolithen durch Desilizierung – d.h. der Einführung von Transportporen durch Herauslösen von Silikatspezies aus seinem Kristallgitter – und der Titanierung, d.h. dem Einbau katalytisch aktiver Titanzentren in das Gitter. Die Schwierigkeit liegt dabei in der Kombination zweier konzeptionell gegensätzlicher Prozesse: Während die Titanierung einen konstruktiven Charakter hat, handelt es sich bei der Hierarchisierung um einen destruktiven Ätzvorgang, der das Material substanziell angreift. Das Ergebnis jedes einzelnen Prozesses hängt dabei stark von den experimentellen Bedingungen ab. Die Auswahl optimaler Bedingungen für einen Syntheseschritt, der beide Einzelprozesse vereint, stellt daher ein komplexes Multiparameterproblem dar, dem in vorliegender Arbeit mit der Anwendung statistischer Versuchsmethodik (Design of Experiments) begegnet wurde.
Zu den größten Stärken der simultanen Desilizierung und Titanierung (SDT) gehören neben der Beschränkung auf nur einen Modifizierungsschritt die Möglichkeit zur Verwendung kommerziell verfügbarer Ausgangsmaterialien sowie der deutlich höhere Nutzungsgrad der ins Material eingebrachten aktiven Katalysezentren. Weitere positive Aspekte, die in dieser Arbeit demonstriert werden konnten, bilden ihre einfache Durchführbarkeit, Reproduzierbarkeit und Skalierbarkeit. Die Synthesemethode lässt sich zudem auf Zeolithe unterschiedlicher Struktur und chemischer Zusammensetzung anwenden. Ausgehend von Zeolith Beta gelang die Synthese eines hierarchischen Ti Beta mit Tetraethylammoniumhydroxid und Tetrabutylorthotitanat bei hydrothermalen Bedingungen. Weitere erfolgreiche SDT-Experimente wurden mit den Zeolithen ZSM-58 und Silikalith durchgeführt. Aus der Behandlung von Silikalith hervorgehender hierarchisch poröser TS-1 ist aufgrund seiner Anwendbarkeit für die Propenoxidsynthese besonders industrierelevant.
Die hierarchische Porosität der SDT-Produkte wurde mittels Rasterelektronenmikroskopie und Physisorptionsmessungen mit Stickstoff bzw. Argon nachgewiesen. Unter nahezu vollständiger Erhaltung von Mikroporenvolumen und Oberfläche entstanden durch die Behandlung Makroporen sowie ungeordnete intrakristalline Mesoporen mit breiter Porengrößenverteilung und flaschenhalsartiger Form. Die Kristallinität des Materials wurde dabei nur geringfügig beeinträchtigt, wie Pulverröntgendiffraktometrie-Messungen zeigten. Die Koordination der (Oberflächen-)Titanspezies wurde mittels verschiedener Spektroskopietechniken (DRUV/Vis, FTIR, XPS) untersucht. Neben dem gewünschten Einbau vierfach koordinierter Gittertitanzentren kam es auch teilweise zur Bildung von katalytisch inaktiven höher koordinierten Gitter- bzw. Extragittertitanspezies sowie Anatasverunreinigungen. Den hinreichenden Nachweis für das Vorhandensein aktiver Titanzentren lieferten Katalysetests. Als Modellreaktion diente die Flüssigphasenepoxidierung verschiedener Cycloalkene mit Wasserstoffperoxid. Der positive Effekt der Einführung größerer Transportporen auf die Katalysatorleistung konnte durch den direkten Vergleich von rein mikroporösem mit hierarchisch porösem Ti-Beta erbracht werden. Bei gleichbleibend hoher Epoxidselektivität wurde im Test mit der hierarchischen Katalysatorprobe eine fast dreimal so hohe Epoxidausbeute erreicht. Ihre hohe Aktivität lässt sich nach der Reaktion wieder nahezu vollständig regenerieren. Sie geht auf eine langsamere Verkokung zurück. Diese ist eine Folge der höheren Desorptionsrate in den Transportporen, wie aus thermischen Antwortmessungen mit n-Butan am optischen Kalorimeter InfraSORP geschlussfolgert werden konnte. Die hohe katalytische Aktivität ist außerdem auf die hervorragende Erreichbarkeit der mittels SDT eingebrachten Ti-Zentren zurückzuführen.
Die Produkteigenschaften reagieren sensibel auf Veränderungen der experimentellen SDT-Parameter und ihrer synergetischen bzw. antagonistischen Wechselwirkung untereinander. Mittels Festkörperanalytik identifizierte Parametereffekte wurden mit den Daten der Katalysetests korreliert und bildeten so eine aussagekräftige Grundlage für die wissenschaftliche Interpretation zugrundeliegender Struktur-Aktivitätsbeziehungen. Ausgehend von den gefundenen Parametereffekten wurde eine Optimierung ausgewählter SDT-Parameter in Bezug auf die mit dem Syntheseprodukt erzielte Epoxidausbeute vorgenommen. Das Produkt der optimierten Synthese erreichte im Katalysetest die höchste Ausbeute aller getesteten Katalysatorproben. Seine Turnover Frequency (TOF) übertraf die einer rein mikroporösen Vergleichsprobe um mehr als das Neunfache. Auch im Vergleich mit mikroporösen und mesoporösen Referenzproben aus der Literatur schnitt es überragend ab.
Viele Prozesse aus der Raffinerietechnik, Petrochemie und Feinchemikalienherstellung nutzen Zeolithe nicht als Epoxidierungs-, sondern als Säurekatalysatoren. Eine effiziente Methode zur Bestimmung der Zeolithacidität ist demnach von hoher Wichtigkeit für die Industrie. Zur quantitativen Analyse der Säurezentren hat sich die temperaturprogrammierte Desorption von Ammoniak (NH3-TPD) etabliert. Der größte Nachteil dieser Methode liegt in der langen Messzeit. In vorliegender Arbeit wurde die Anwendbarkeit thermischer Antwortmessungen mit Ammoniak am Gerät InfraSORP als schnelle Screeningmethode für Zeolithacidität demonstriert. Die Säurezentrenanzahl einer Probe lässt sich dabei in etwa 30 min abschätzen. Die enorme Zeitersparnis, der geringere Materialverbrauch und die Möglichkeit zur Parallelisierung der Messungen aufgrund des modularisierbaren Messprinzips machen die Methode vor allem für die industrielle Prozess- und Qualitätskontrolle interessant.
|
132 |
Fulcrum: Versatile Network Codes for Heterogeneous Communication NetworksNguyen, Vu 14 January 2022 (has links)
Two main approaches to achieve reliable data transfer over error-prone networks are retransmission and Forward Error Correction (FEC). Retransmission techniques retransmit packets when they are lost or despaired, causing significant delays, especially on multihop connections. On the contrary, to reduce latency FEC sends redundant data together with the original one. In particular, FEC through Random Linear Network Coding (RLNC) reduces the number of distinct packet transmissions in a network and minimizes packet transmissions due to poor network conditions. Consequently, RLNC has the potential to both improve energy efficiency and reduce the overall latency in a network.
Fulcrum network coding (FNC), proposed as an RLNC's variation, has partly solved the challenge of heterogeneous communication networks by providing two-layer coding, enabling the destinations to decode packets based on their computing capabilities. However, coding parameters are statically chosen before data transmission, while using feedback or retransmission is impractical in rapidly changing network conditions. FNC is unadaptable to the available capabilities of nodes in a network and thus negatively impacts the coding performance.
The main objective of this thesis is to design a versatile network coding scheme supporting heterogeneous communication networks that allow a node to adjust and adapt the coding process depending on the network condition and computing capabilities of the node. The research also focuses on reducing computational complexity in nodes while maintaining a high successful decoding probability and employing as simple operations as possible in intermediate nodes.
Particularly, three main approaches are investigated in a source, intermediate, and destination node to achieve the objectives. First, the research examines both static and dynamic combinations of original packets in the encoding process by proposing dynamic sparsity and expansion packets (DSEP). This scheme significantly increases the coding throughput at both source and destination. Second, a new recoding scheme is proposed to manage the number of packets stored and recoded. Thus, this recoding scheme reduces memory usage and computing complexity at intermediate nodes, processing huge traffic. Finally, the research proposes adaptive decoding algorithms, which allow the destinations to choose the proper decoder depending on the network conditions. These algorithms improve the decoding probability in an unreliable network while reducing the computational complexity in a reliable network. For each proposed approach, both mathematical analysis and practical implementation were performed. Especially, the implementation leverages Kodo, a well-known network coding library for simulation and real-time implementation using during the last decade.:Abstract
Acknowledgements
List of Tables
List of Figures
Abbreviations and Symbols
1 Introduction
1.1 Fundamentals
1.2 Research motivation
1.3 Objectives
1.4 Methodology
1.5 Main contributions
1.5.1 Summary
1.5.2 List of publications
1.6 Thesis organization
2 Background and Related Work
2.1 RLNC and its variations
2.2 FNC: General principles and coding specification
2.2.1 General principles
2.2.2 Encoding specification
2.2.3 Decoding specification
2.3 Related work
2.4 Analysis of FNC performance
2.4.1 Preliminaries: MDS outer code property for theoretical analysis
2.4.2 Delay modelling: Number of required packet receptions for decoding
2.4.3 Decoding probability
2.4.4 Decoding probability for broadcast to heterogeneous destinations
2.4.5 Overhead
2.4.6 Throughput
2.5 Summary and discussion
3 Sparse Fulcrum Network Coding
3.1 Introduction
3.2 Encoding and decoding implementations
3.2.1 Encoding implementation
3.2.2 Decoding implementation
3.3 Integrating sparsity into FNC
3.3.1 Sparse inner and outer encoding
3.3.2 Sparse recoding and decoding
3.3.3 Evaluation setup
3.3.4 Throughput results
3.3.5 Decoding probability results
3.4 Summary
4 DSEP Fulcrum: Dynamic Expansion Packets and Sparsity
4.1 Introduction
4.2 Probability of linearly independent coded packets
4.3 Dynamic sparsity and expansion packets
4.3.1 Dynamic sparsity
4.3.2 Dynamic expansion packets
4.3.3 Sparsity level as a function of number of expansion packets and decoder rank
4.4 DSEP schemes
4.4.1 Example scheme: Dynamic sparsity with expansion packets region-based
4.4.2 Example scheme: Dynamic sparsity with expansion packets stepping up
4.5 Evaluation of DSEP schemes
4.5.1 Throughput results
4.5.2 Decoding probability results
4.5.3 Impact of feedback and packet losses
4.5.4 Energy consumption in IoT devices
4.6 Summary
5 Exploring Benefits of Recoding
5.1 Introduction
5.2 Recoding principle
5.3 Recoding scheme
5.3.1 General idea
5.3.2 An unlimited buffer recoding
5.3.3 A limited buffer recoding
5.4 Evaluation
5.4.1 Coding overhead
5.4.2 Recoding and decodinEvaluation.5 Summary
6 Adaptive Decoding for Fulcrum Codes
6.1 Introduction
6.2 Adaptive Fulcrum decoder
6.2.1 Motivating example
6.2.2 Adaptive Fulcrum decoding algorithm
6.3. Advanced adaptive Fulcrum decoder
6.3.1 Principles
6.3.2 Advanced adaptive Fulcrum decoding algorithm
6.4 Analysis
6.4.1 Decoding delay
6.4.2 Decoding probability
6.4.3 Overhead
6.5 Evaluation of adaptive Fulcrum decoding algorithms
6.5.1 Performance metrics
6.5.2 Evaluation results
6.6 Summary
7 Conclusion and Future Work
7.1 Summary and main contributions
7.2 Future work
A Reed-Solomon Outer Code: Proof of Full Rank Property of Remapped Packets
Bibliography
|
133 |
Heterogene chemo-enzymatische dynamisch kinetische Racematspaltung symmetrischer und asymmetrischer α-HydroxyketonePetrenz-Beck, Annika 06 September 2018 (has links)
Für die Herstellung pharmazeutisch interessanter α-Hydroxyketone ist die dynamsich kinetische Racematspaltung (DKR) der korrespondierenden Racemate eine interessante und leistungsfähige Methode. Die dafür benötigten Lipasen zeichnen sich insbesondere durch ihre Aktivität und Stabilität in rein organischen Lösungsmitteln aus. Der Verzicht von Cofaktoren macht diese Enzymklasse für einen industriellen Einsatz besonders attraktiv. Für α-Hydroxyketone mit großen Seitenketten hat sich die Lipase TL aus Pseudomonas stutzeri als Biokatalysator als am geeignetsten gezeigt. In vorherigen Studien wurde die Lipase TL erfolgreich mit dem homogenen Shvo-Katalysator für eine effektive DKR von Benzoin und Benzoinderivaten kombiniert und eine strikte (S)-Selektivität der Lipase TL festgestellt. In einer weiteren Studie wurde eine komplett heterogene DKR etabliert. Hierbei wurde die Lipase TL adsorptiv auf dem Polypropylenträger Accurel MP1001 immobilisiert und der Shvo-Katalysator durch verschiedene Metallkatalysatoren ersetzt. Als Modellsubstrat wurde Benzoin verwendet. Das beste Ergebnis der DKR von Benzoin wurde mit den Katalysator Zr-TUD-1 (25) im Lösungsmittel Toluol erreicht.
Hauptziel dieser Arbeit war die Übertragung der heterogenen DKR von Benzoin auf weitere pharmazeutisch relevante α-Hydroxyketone. Dafür wurde zunächst eine generelle Optimierung der Immobilisierung der Lipase TL durch Verwendung verschiedener trägerbasierter und trägerloser Methoden und die Charakterisierung der Wasseraktivitätsabhängigkeit der KR und der Racemisierung durchgeführt. Zur Verbesserung der Umweltfreundlichkeit der Reaktion wurden außerdem alternative Lösungsmittel als Reaktionsmedium untersucht. Das optimierte Reaktionssystem wurde auf ausgewählte symmetrische und asymmetrische α-Hydroxyketone übertragen und die Eignung der Lipase TL sowie der CALB als Biokatalysatoren überprüft. Nach der Wahl der passenden Lipase wurde die DKR der ausgewählten α-Hydroxyketone untersucht und optimiert.
|
134 |
Adaptive work placement for query processing on heterogeneous computing resourcesKarnagel, Thomas, Habich, Dirk, Wolfgang 10 November 2022 (has links)
The hardware landscape is currently changing from homogeneous multi-core systems towards heterogeneous systems with many di↵erent computing units, each with their own characteristics. This trend is a great opportunity for database systems to increase the overall performance if the heterogeneous resources can be utilized eciently. To achieve this, the main challenge is to place the right work on the right computing unit. Current approaches tackling this placement for query processing assume that data cardinalities of intermediate results can be correctly estimated. However, this assumption does not hold for complex queries. To overcome this problem, we propose an adaptive placement approach being independent of cardinality estimation of intermediate results. Our approach is incorporated in a novel adaptive placement sequence. Additionally, we implement our approach as an extensible virtualization layer, to demonstrate the broad applicability with multiple database systems. In our evaluation, we clearly show that our approach significantly improves OLAP query processing on heterogeneous hardware, while being adaptive enough to react to changing cardinalities of intermediate query results.
|
135 |
Dynamic Power Management in a Heterogeneous Processor ArchitectureArega, Frehiwot Melak, Hähnel, Markus, Dargie, Waltenegus 15 May 2023 (has links)
Emerging mobile platforms integrate heterogeneous, multicore processors to efficiently deal with the heterogeneity of data (in magnitude, type, and quality). The main goal is to achieve a high degree of energy-proportionality which corresponds with the nature and fluctuation of mobile workloads. Most existing power and energy consumption analyses of these architectures rely on simulation or static benchmarks neither of which truly reflects the type of workload the processors handle in reality. By contrast, we generate two types of stochastic workloads and employ four types of dynamic voltage and frequency scaling (DVFS) policies to investigate the energy proportionality and the dynamic power consumption characteristics of a heterogeneous processor architecture when operating in different configurations. The analysis illustrates, both qualitatively and quantitatively, that knowledge of the statistics of the incoming workload is critical to determine the appropriate processor configuration.
|
136 |
Three Essays on the Role of Financial Frictions in MacroeconomicsKönig, Tobias 04 November 2022 (has links)
Diese Dissertation besteht aus drei Aufsätzen, die die Rolle unterschiedlichester Arten von finanziellen Friktionen sowohl auf Firmenseite, als auch auf Bankenseite, für die Übertragung von finanziellen Schocks und Geldpolitik analysieren.
Im ersten Aufsatz, "Firm Heterogeneity and the Capital Market", studiere ich welche Art von Finanzbeschränkungen der Firmen für die Übertragung von Kapitalmarktfinanzierungsschocks, als auch geldpolitischen Schocks, ausschlaggebend sind. Hierbei gehöre ich zu den Ersten in der Literatur, die Kapitalmarktfinanzierungsschocks direkt aus Firmendaten schätzen. Ich zeige in meiner Studie, dass es für ein tieferes Verständnis von Firmeninvestitionen entscheidend ist, zwischen verschiedenen potentiellen Maßzahlen für Finanzbeschränkungen der Firmen zu unterscheiden. Konkret zeige ich, dass finanzbeschränkte Firmen mit hohen erwarteten zukünftigen Gewinnen nach einem Kapitalmarktfinanzierungsschock ihre Investitionen stärker als andere Firmen erhöhen. Im Unterschied dazu, spielt für die Übertragung von Geldpolitik auf Firmeninvestitionen die Liquidität und die Verschuldungsquote eine stärkere Rolle. Diese Resultate implizieren, dass für Politikmaßnahmen die eine Erhöhung von gesamtwirtschaftlichen Investitionen zum Ziel haben, sowohl Geldpolitik als auch der Zugang zum Kapitalmarkt im Blick behalten werden muss.
Der zweite Aufsatz, "The Macroeconomic Effects of a European Deposit (Re-)Insurance Scheme", wurde gemeinsam mit Marius Clemens und Stefan Gebauer geschrieben. Hier analysieren wir die Wohlfahrts- und Stabilisierungseffekte einer europäischen Einlagenrückversicherung. Unser Regime-Switching-Zwei-Länder-DSGE-Modell impliziert, dass eine europäischer Einlagenrückversicherungsfond Konjunkturschwankungen in beiden Ländern gut ausgleichen kann und die Risikoteilung zwischen beiden Ländern verbessert. Allerdings kann das Wirtschaftswachstum langfristig leiden, wenn die Einzahlungen der Banken in den jeweiligen Ländern in die europäische Einlagenversicherung schlecht gelöst sind.
Im dritten Aufsatz, "The Financial Accelerator, Wages and Optimal Monetary Policy", analysiere ich in einem makroökonomischen Modell, welche Rolle Geldpolitik einnehmen sollte, wenn Friktionen auf der Bankenseite und Lohnrigiditäten existieren. Ich zeige, dass Zentralbanken im Fall von Finanzmarktschocks einen großen Fokus auf die Stabilisierung von Lohninflation legen sollten. Dies erklärt sich über die geringere Sensitivität von Kapitalnachfrage auf Änderungen in Reallöhnen im Falle von Friktionen auf dem Bankenmarkt. Höhere Reallöhne führen zudem zu Inflation und einem niedrigeren Risikoaufschlag auf Firmenkredite. / This thesis consists of three essays that focus on the role of heterogeneity in both the type and the degree of financial frictions for the pass-through of financial shocks and of monetary policy.
In the first essay, "Firm Heterogeneity and the Capital Market", I investigate the importance of firms' financial constraints for the transmission of both equity shocks and monetary policy shocks. I am the first in the literature to obtain an instrument to equity financing shocks directly from firm-level data. I show in my study, that it is necessary to strictly distinguish between different forms of financial constraints if researchers want to investigate the role of firm heterogeneity on firm investment rates. In particular, financially constrained firms with high expected future profits increase their investment rate relatively more when capital market funding conditions are improved. In contrast, firm liquidity and high debt burden of firms explain the heterogeneity in firms' investment response to monetary policy. Therefore, policy makers have to consider both monetary policy conditions and access of firms to capital markets in order to relax the firms' financial constraints and to stimulate investment.
The second essay, "The Macroeconomic Effects of a European Deposit (Re-) Insurance Scheme", is joint work with Marius Clemens and Stefan Gebauer. We analyze the stabilization effects of a common European deposit re-insurance scheme. To this end we build a two-country regime-switching general equilibrium model. The findings suggest that a common European deposit insurance scheme reduces business cycle fluctuations in both countries and improve risk sharing within the union. Long term macroeconomic performance however can deteriorate when contributions to the deposit insurance are non-deductible and designed poorly.
In the third essay, "The Financial Accelerator, Wages and Optimal Monetary Policy", I investigate optimal monetary policy under the existence of both banking frictions and wage rigidities. In my macroeconomic model, I document that after the economy is hit by adverse financial shocks, monetary policy should stabilize wage inflation to improve welfare. This result can be explained as follows: The presence of financial frictions makes capital demand less elastic to changes in real wages. The wage-inflation stabilization regime that results in relatively higher real wages reduces the capital demand by less in comparison to the non-financial-friction economy. Higher real wages increase inflation and lowers the credit spread.
|
137 |
Invisible Deployment of Integration ProcessesBoehm, Matthias, Habich, Dirk, Lehner, Wolfgang, Wloka, Uwe 13 January 2023 (has links)
Due to the changing scope of data management towards the management of heterogeneous and distributed systems and applications, integration processes gain in importance. This is particularly true for those processes used as abstractions of workflow-based integration tasks; these are widely applied in practice. In such scenarios, a typical IT infrastructure comprises multiple integration systems with overlapping functionalities. The major problems in this area are high development effort, low portability and inefficiency. Therefore, in this paper, we introduce the vision of invisible deployment that addresses the virtualization of multiple, heterogeneous, physical integration systems into a single logical integration system. This vision comprises several challenging issues in the fields of deployment aspects as well as runtime aspects. Here, we describe those challenges, discuss possible solutions and present a detailed system architecture for that approach. As a result, the development effort can be reduced and the portability as well as the performance can be improved significantly.
|
138 |
Efficient parameterized algorithms on structured graphsNelles, Florian 27 July 2023 (has links)
In der klassischen Komplexitätstheorie werden worst-case Laufzeiten von Algorithmen typischerweise einzig abhängig von der Eingabegröße angegeben. In dem Kontext der parametrisierten Komplexitätstheorie versucht man die Analyse der Laufzeit dahingehend zu verfeinern, dass man zusätzlich zu der Eingabengröße noch einen Parameter berücksichtigt, welcher angibt, wie strukturiert die Eingabe bezüglich einer gewissen Eigenschaft ist. Ein parametrisierter Algorithmus nutzt dann diese beschriebene Struktur aus und erreicht so eine Laufzeit, welche schneller ist als die eines besten unparametrisierten Algorithmus, falls der Parameter klein ist.
Der erste Hauptteil dieser Arbeit führt die Forschung in diese Richtung weiter aus und untersucht den Einfluss von verschieden Parametern auf die Laufzeit von bekannten effizient lösbaren Problemen. Einige vorgestellte Algorithmen sind dabei adaptive Algorithmen, was bedeutet, dass die Laufzeit von diesen Algorithmen mit der Laufzeit des besten unparametrisierten Algorithm für den größtmöglichen Parameterwert übereinstimmt und damit theoretisch niemals schlechter als die besten unparametrisierten Algorithmen und übertreffen diese bereits für leicht nichttriviale Parameterwerte.
Motiviert durch den allgemeinen Erfolg und der Vielzahl solcher parametrisierten Algorithmen, welche eine vielzahl verschiedener Strukturen ausnutzen, untersuchen wir im zweiten Hauptteil dieser Arbeit, wie man solche unterschiedliche homogene Strukturen zu mehr heterogenen Strukturen vereinen kann. Ausgehend von algebraischen Ausdrücken, welche benutzt werden können, um von Parametern beschriebene Strukturen zu definieren, charakterisieren wir klar und robust heterogene Strukturen und zeigen exemplarisch, wie sich die Parameter tree-depth und modular-width heterogen verbinden lassen. Wir beschreiben dazu effiziente Algorithmen auf heterogenen Strukturen mit Laufzeiten, welche im Spezialfall mit den homogenen Algorithmen übereinstimmen. / In classical complexity theory, the worst-case running times of algorithms depend solely on the size of the input. In parameterized complexity the goal is to refine the analysis of the running time of an algorithm by additionally considering a parameter that measures some kind of structure in the input. A parameterized algorithm then utilizes the structure described by the parameter and achieves a running time that is faster than the best general (unparameterized) algorithm for instances of low parameter value.
In the first part of this thesis, we carry forward in this direction and investigate the influence of several parameters on the running times of well-known tractable problems.
Several presented algorithms are adaptive algorithms, meaning that they match the running time of a best unparameterized algorithm for worst-case parameter values. Thus, an adaptive parameterized algorithm is asymptotically never worse than the best unparameterized algorithm, while it outperforms the best general algorithm already for slightly non-trivial parameter values.
As illustrated in the first part of this thesis, for many problems there exist efficient parameterized algorithms regarding multiple parameters, each describing a different kind of structure.
In the second part of this thesis, we explore how to combine such homogeneous structures to more general and heterogeneous structures.
Using algebraic expressions, we define new combined graph classes
of heterogeneous structure in a clean and robust way, and we showcase this for the heterogeneous merge of the parameters tree-depth and modular-width, by presenting parameterized algorithms
on such heterogeneous graph classes and getting running times that match the homogeneous cases throughout.
|
139 |
Unilateral Environmental Policy and OffshoringBolz, Simon J., Naumann, Fabrice, Richter, Philipp M. 06 May 2024 (has links)
Expanding on a general equilibrium model of offshoring, we analyze the effects of a unilateral emissions tax increase on the environment, income, and inequality. Heterogeneous firms allocate labor across production tasks and emissions abatement, while only the most productive can benefit from lower labor and/or emissions costs abroad and offshore. We find a non-monotonic effect on global emissions, which decline if the initial difference in emissions taxes is small. For a sufficiently large difference, global emissions rise, implying emissions leakage of more than 100%. The underlying driver is a global technique effect: While the emissions intensity of incumbent non-offshoring firms declines, the cleanest firms start offshoring. Moreover, offshoring firms become dirtier, induced by a reduction in the foreign effective emissions tax in general equilibrium. Implementing a BCA prevents emissions leakage, reduces income inequality in the reforming country, but raises inequality across countries.
|
140 |
On the Role of Oxygen Vacancies in the Surface Chemistry of Ceria (CeO2)Werner, Kristin 16 September 2019 (has links)
Ceroxid (CeO2) wurde in den letzten Jahren als Katalysator für die Hydrierung von Alkinen zu Alkenen entdeckt und hat als solcher großes wissenschaftliches Interesse geweckt. Um weitere Einblicke in die Funktion von CeO2 in der Reaktion zu gewinnen, beschäftigt sich diese Arbeit mit der Adsorption von H2, CO2 und Propin, sowie mit der Interaktion von Hydroxylgruppen und Propin auf CeO2(111)-Oberflächen. Ein besonderer Fokus liegt dabei auf der Rolle von Sauerstoffleerstellen. / In recent years, ceria (CeO2) has attracted much scientific interest due to its activity as a catalyst in the selective hydrogenation of alkynes to alkenes. To gain further insights into the role of CeO2 in propyne hydrogenation, this thesis explores the fundamental processes of H2, CO2, and propyne adsorption, as well as the interaction of hydroxyls and propyne on well-defined CeO2(111) surfaces. A special emphasis thereby lies on the role of oxygen (O) vacancies in these processes.
|
Page generated in 0.0829 seconds