• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 49
  • 3
  • Tagged with
  • 103
  • 101
  • 53
  • 53
  • 52
  • 52
  • 52
  • 51
  • 49
  • 46
  • 42
  • 39
  • 39
  • 39
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Open-Access-Zeitschriften

Weishaupt, Karin 11 June 2009 (has links)
Bei aller Aufmerksamkeit, die das Thema Open Access seit einigen Jahren erfährt, ist die praktische Nutzung längst noch nicht so weit gediehen, wie es von den technischen Voraussetzungen her möglich wäre: Nur 0,8 % aller Zeitschriften in Deutschland oder 2 % der wissenschaftlichen sind frei zugänglich. Es mangelt an Akzeptanz seitens der Autor/inn/n. Auf der Basis einer Befragung von ca. 1000 Personen, die bereits mindestens einen Aufsatz in einer Open-Access-Zeitschrift veröffentlicht haben, werden Maßnahmen entwickelt, wie die Akzeptanz verbessert werden kann. Bei der Analyse der Antworten erweisen sich die Unterschiede für mögliche Fördermaßnahmen zwischen den einzelnen Fachdisziplinen als längst nicht so ausgeprägt, wie es aufgrund des unterschiedlichen Standes von Open Access in den verschiedenen Fächern zu erwarten wäre. Von elementarer Bedeutung ist vielmehr die Frage, welche Ziele der/die einzelne beim Open-Access-Publizieren verfolgt; daraus ergeben sich Ansatzpunkte für fördernde Maßnahmen. Die größte Barriere für die Durchsetzung des Open-Access-Publizierens stellt das etablierte System der Forschungsevaluation dar, das sich fachübergreifend im Begutachtungsverfahren und in den Naturwissenschaften und der Medizin im Impact Factor manifestiert. Hieraus entstehen Akzeptanzhindernisse, die sachlich nicht gerechtfertigt sind und kritisch hinterfragt werden müssen. Mittelfristig ist der Ersatz des Impact Factors durch Verfahren anzustreben, die modernen Publikationsformen besser gerecht werden. Ein internationaler Vergleich zeigt, dass die Schwellenländer nicht nur durch Open Access unterstützt werden, sondern ihrerseits bemerkenswerte Aktivitäten und Erfolge vorzuweisen haben, die weltweit Vorbildcharakter haben und Anregungen für Maßnahmen zur Akzeptanzsteigerung in Deutschland bieten können. Bezüglich Open Access ist daher anstelle der Förderung der Dritten Welt eher ein Eine-Welt-Denken angebracht, bei dem alle Beteiligten voneinander lernen können / Although open access has been discussed intensively for some years, it is far away from being practised to a degree that would meet the actual technical standard. Only 0.8 % of all journals produced in Germany or 2 % of all German scientific journals are in open access. The problem to be overcome is the lack of acceptance by authors. As result of a survey among about 1000 persons who have already published at least one article in an open access journal, measures are suggested how acceptance can be improved. Considering the varying status open access has reached, differences between possible measures in the discliplines prove to be less distinctive as expected. The core question rather is which are the aims of the authors publishing in open access journals. Knowing their aims, measures to enhance acceptance can be derived. The highest barriere for open access is the established system of evaluating scientific research. Accross all disciplines the most important practise is peer reviewing of articles, in sciences and medicine the impact factor is of special importance. This is why the acceptance of open access journals without impact factor is low even if these journals may be characterized by high quality. Therefore the system of evaluation should be reviewed critically, and the impact factor might be substituted by other methods that take into account the specific qualities of modern forms of publications. An international comparison shows that open access does not only support the developing countries in their academic development. Rather, these countries offer considerable activities and achievements that can serve as models for the rest of the world and provide incitations for the improvement of the situation in Germany. This taken as a fact, we should not speak of less developed countries that need support, but rather of one world in which all countries are partners who can learn from each other.
52

Die Didaktik des Fernunterrichts in Formalerschließung unter besonderer Berücksichtigung von Lernprogrammen

Pfleger, Claudia 17 December 2002 (has links)
Die didaktischen Voraussetzungen und die informationstechnischen Methoden, die im Formalerschließungsfernunterricht und bei der Erstellung entsprechender Lernprogramme Anwendung finden können, wurden zunächst theoretisch untersucht und dann praktische Empfehlungen für den Formalerschließungsfernunterricht gegeben. Bei der Gestaltung des Fernunterrichts sollten mehrere Lerntheorien herangezogen werden. An Lehrinhalten sind neben Katalogs- und Regelwerkskunde auch die Umsetzung der Formalerschließung in die elektronische Datenverarbeitung, die Formalerschließung aus der Sicht der Benutzer und die Organisation der Formalerschließung zu fordern. Kognitive, pragmatische und affektive Lernziele wurden formuliert. Für die kognitiven Lernziele wurde die Lernzieltaxonomie von Bloom an die weitergehenden Erfordernisse des Formalerschließungsunterrichts angepasst. Daneben wurden persönliche Kompetenzen angegeben. Der Unterricht muss auf die Bedürfnisse der Zielgruppe abgestimmt sein. Zu beachten sind Alter, Bildungsgrad, fachspezifische Vorbildung, Geschlecht und die verschiedenen Lernstile. Besonders Fernstudien bedürfen entsprechender Motivierung der Lernenden. Dafür wurde die ARCS-Motivationstheorie um den Punkt "Freiheit" erweitert. Die neun Instruktionsereignisse von Gagné wurden durch konstruktivistische Methoden zu elf didaktischen Anweisungen ergänzt und für den Formalerschließungsfernunterricht ausformuliert. Die Vermittlung der Regelwerke geschieht am besten durch tutorielle Lernprogramme mit Hilfe von Hypermedia. Bei der Entwicklung von Lernprogrammen wurden dieselben didaktischen Überlegungen wie bei der Unterrichtsplanung realisiert. Die technische Umsetzung sollte in einfacher Weise erfolgen, damit das Lernprogramm flexibel bleibt. Um die Möglichkeit der Umsetzung aufzuzeigen, wurden die ersten beiden Module eines Lernprogramms "Umsetzung der RAK-WB in ALEPH500" entwickelt. / The didactics of distance education in the area of descriptive cataloguing with special attention to computer aided instruction The didactic requirements and the methods of information technology that can be used in distance learning of descriptive cataloguing and in the preparation of appropriate computer aided instruction programs are first investigated theoretically and then practical recommendations are made. In the design of distance education several learning theories should be incorporated. The topics of instruction should include not only cataloguing and standards, but also the conversion of descriptive cataloguing to EDP formats, descriptive cataloguing from the perspective of the user and the organisation of descriptive cataloguing. Cognitive, pragmatic and affective learning objectives are set out. Bloom's taxonomy of learning objectives is adapted to meet the advanced needs of descriptive cataloguing. In addition, personal competences are reviewed. Instruction must correspond to the needs of the target group. Factors that must be taken into account are age, level of education, existing specialised knowledge, sex and different learning styles. The need to motivate learners is especially important in distance education. To this end ARCS-motivation theory is expanded to include the topic "freedom". Gagné's "Nine Events of Instruction" are expanded by methods of constructivism to encompass eleven didactic statements, which are formulated in terms of descriptive cataloguing. Standards can best be taught by means of computer aided tutorials using hypermedia. In the development of these tutorials the same didactic considerations are realised as in the planning of instruction. In order to assure the flexibility of tutorials, the technical design should be uncomplicated. The first two modules of a tutorial "Conversion of RAK-WB to ALEPH500" have been developed to demonstrate the feasibility and means of designing such a tutorial.
53

Volunteering in US public libraries

Hörning, Beate 13 September 2016 (has links)
Im Mittelpunkt der Arbeit steht das soziale Phänomen Volunteering in der sozialen Institution Public Library mit konkretem Bezug auf die Gegebenheiten in den USA. Die Behandlung des Themas erfolgt auf der Basis von Quellen sowie den Ergebnissen einer qualitativen Untersuchung. Zunächst werden die historischen Hintergründe von Volunteering und Philanthropie in den Vereinigten Staaten sowie die Entwicklungsgeschichte der US Public Libraries beschrieben und diskutiert. Zwischen beiden Phänomenen werden Zusammenhänge aufgezeigt. In diesem Kontext wird auch die Rolle Andrew Carnegies herausgearbeitet. Des Weiteren werden der gegenwärtige Stand der Freiwilligenforschung mit den Schwerpunkten Motivation und Volunteer-Management sowie das Wirken von Volunteers in US Public Libraries unter politischen, soziologischen und administrativen Gesichtspunkten erörtert. In Auswertung der qualitativen Untersuchung, die eine Kombination aus Feldforschung und problemzentrierten Interviews – durchgeführt in insgesamt 31 Public Libraries in elf US-Bundesstaaten – darstellt, werden eine Reihe von Erkenntnissen gewonnen, die unter anderem Rückschlüsse auf die Bibliotheksspezifik von Volunteering – insbesondere in Hinsicht auf die Motivation zur Freiwilligenarbeit sowie dem Volunteer-Management – ermöglichen. / This thesis describes the social phenomenon of volunteering in the public library as a social institution, focused on the situation in the United States of America. The paper is based on a literature review and on findings of a qualitative study. After discussing the history of volunteering, philanthropy, the American public library, and Andrew Carnegie’s role, there will be a review on research on volunteerism. Thereby, the focus is laid upon aspects of volunteer motivation as well as volunteer management in the US in general and particular in libraries. Furthermore, a compilation and interpretation of library volunteer coordinators’ materials, manuals, and reports will be presented. The results of the qualitative study which is based on a combination of field research and problem-centered interviews – held in 31 public libraries in eleven US states – will be discussed in detail. Among others, the results lead to the conclusion that – especially concerning several motivational and management aspects – public library volunteering is quite specific in comparison to volunteer work in other facilities and institutions.
54

Das maltesische Bibliothekswesen

Schürer, Yvonne 05 July 2013 (has links) (PDF)
Die vorliegende Arbeit beschreibt das Bibliothekswesen auf den Maltesischen Inseln. Einleitend werden Länderinformationen, Informationen zur maltesischen Sprache und zu Schul- und Berufsausbildung gegeben, gefolgt von einem Überblick über die maltesische Druckgeschichte, dem Buchmarkt und der Pflichtexemplarregelung auf den Inseln. Im Hauptteil wird auf Unterhaltsträger von maltesischen Bibliotheken eingegangen und alle bekannten Bibliothekstypen vorgestellt. Innerhalb der verschiedenen Bibliotheksgruppen wird mindestens eine Bibliothek anhand ihrer Funktion, Mitarbeiter, finanziellen Situation, vorhandenen Sammlungen, Erschließungsinstrumenten und Benutzungsmodalitäten detailliert dargestellt. Andere Bibliotheken des gleichen Bibliothekstyps werden genannt, Besonderheiten werden erörtert. Des Weiteren wird ein Überblick über die Möglichkeiten bibliothekarischer Ausbildung gegeben. Die beiden bibliothekarischen Berufsverbände MaLIA und MSLA werden kurz anhand ihrer Aufgaben und Tätigkeiten dargestellt. Ausführliche Informationen über die Literaturversorgung der Malteser durch Bibliotheken und die Struktur des Bibliothekswesens in Malta werden in der Zusammenfassung erörtert. Der Text wurde gelegentlich durch graphische Darstellungen ergänzt. Im Anhang der Arbeit befinden sich unter anderem Adressverzeichnisse der bekannten öffentlichen und wissenschaftlichen Bibliotheken sowie Karten im DIN A3 Format, auf welchen die Bibliotheken verzeichnet wurden. Die Diplomarbeit basiert auf Literaturstudium, Befragungen per E-Mail und Experteninterviews.
55

From Logic Programming to Human Reasoning:

Dietz Saldanha, Emmanuelle-Anna 22 August 2017 (has links) (PDF)
Results of psychological experiments have shown that humans make assumptions, which are not necessarily valid, that they are influenced by their background knowledge and that they reason non-monotonically. These observations show that classical logic does not seem to be adequate for modeling human reasoning. Instead of assuming that humans do not reason logically at all, we take the view that humans do not reason classical logically. Our goal is to model episodes of human reasoning and for this purpose we investigate the so-called Weak Completion Semantics. The Weak Completion Semantics is a Logic Programming approach and considers the least model of the weak completion of logic programs under the three-valued Łukasiewicz logic. As the Weak Completion Semantics is relatively new and has not yet been extensively investigated, we first motivate why this approach is interesting for modeling human reasoning. After that, we show the formal correspondence to the already established Stable Model Semantics and Well-founded Semantics. Next, we present an extension with an additional context operator, that allows us to express negation as failure. Finally, we propose a contextual abductive reasoning approach, in which the context of observations is relevant. Some properties do not hold anymore under this extension. Besides discussing the well-known psychological experiments Byrne’s suppression task and Wason’s selection task, we investigate an experiment in spatial reasoning, an experiment in syllogistic reasoning and an experiment that examines the belief-bias effect. We show that the results of these experiments can be adequately modeled under the Weak Completion Semantics. A result which stands out here, is the outcome of modeling the syllogistic reasoning experiment, as we have a higher prediction match with the participants’ answers than any of twelve current cognitive theories. We present an abstract evaluation system for conditionals and discuss well-known examples from the literature. We show that in this system, conditionals can be evaluated in various ways and we put up the hypothesis that humans use a particular evaluation strategy, namely that they prefer abduction to revision. We also discuss how relevance plays a role in the evaluation process of conditionals. For this purpose we propose a semantic definition of relevance and justify why this is preferable to a exclusively syntactic definition. Finally, we show that our system is more general than another system, which has recently been presented in the literature. Altogether, this thesis shows one possible path on bridging the gap between Cognitive Science and Computational Logic. We investigated findings from psychological experiments and modeled their results within one formal approach, the Weak Completion Semantics. Furthermore, we proposed a general evaluation system for conditionals, for which we suggest a specific evaluation strategy. Yet, the outcome cannot be seen as the ultimate solution but delivers a starting point for new open questions in both areas.
56

Approximate Distributed Set Reconciliation with Defined Accuracy

Kruber, Nico 24 April 2020 (has links)
Mit aktuell vorhandenen Mitteln ist es schwierig, objektiv approximative Algorithmen zum Mengenabgleich gegenüberzustellen und zu vergleichen. Jeder Algorithmus kann durch unterschiedliche Wahl seiner jeweiligen Parameter an ein gegebenes Szenario angepasst werden und so zum Beispiel Bandbreiten- oder CPU-optimiert werden. Änderungen an den Parametern gehen jedoch meistens auch mit Änderungen an der Genauigkeit bei der Erkennung von Differenzen in den teilnehmenden Mengen einher und behindern somit objektive Vergleiche, die auf derselben Genauigkeit basieren. In dieser Arbeit wird eine Methodik entwickelt, die einen fairen Vergleich von approximativen Algorithmen zum Mengenabgleich erlaubt. Dabei wird eine feste Zielgenauigkeit definiert und im Weiteren alle die Genauigkeit beeinflussenden Parameter entsprechend gesetzt. Diese Methode ist universell genug, um für eine breite Masse an Algorithmen eingesetzt zu werden. In der Arbeit wird sie auf zwei triviale hashbasierte Algorithmen, einem basierend auf Bloom Filtern und einem basierend auf Merkle Trees angewandt, um dies zu untermauern. Im Vergleich zu vorherigen Arbeiten zu Merkle Trees wird vorgeschlagen, die Größe der Hashsummen dynamisch im Baum zu wählen und so den Bandbreitenbedarf an die gewünschte Zielgenauigkeit anzupassen. Dabei entsteht eine neue Variante des Mengenabgleichs mit Merkle Trees, bei der sich erstmalig die Genauigkeit konfigurieren lässt. Eine umfassende Evaluation eines jeden der vier unter dem Genauigkeitsmodell angepassten Algorithmen bestätigt die Anwendbarkeit der entwickelten Methodik und nimmt eine Neubewertung dieser Algorithmen vor. Die vorliegenden Ergebnisse erlauben die Auswahl eines effizienten Algorithmus für unterschiedliche praktische Szenarien basierend auf einer gewünschten Zielgenauigkeit. Die präsentierte Methodik zur Bestimmung passender Parameter, um für unterschiedliche Algorithmen die gleiche Genauigkeit zu erreichen, kann auch auf weitere Algorithmen zum Mengenabgleich angewandt werden und erlaubt eine objektive, allgemeingültige Einordnung ihrer Leistung unter verschiedenen Metriken. Der in der Arbeit entstandene neue approximative Mengenabgleich mit Merkle Trees erweitert die Anwendbarkeit von Merkle Trees und wirft ein neues Licht auf dessen Effektivität. / The objective comparison of approximate versioned set reconciliation algorithms is challenging. Each algorithm's behaviour can be tuned for a given use case, e.g. low bandwidth or computational overhead, using different sets of parameters. Changes of these parameters, however, often also influence the algorithm's accuracy in recognising differences between participating sets and thus hinder objective comparisons based on the same level of accuracy. We develop a method to fairly compare approximate set reconciliation algorithms by enforcing a fixed accuracy and deriving accuracy-influencing parameters accordingly. We show this method's universal applicability by adopting two trivial hash-based algorithms as well as set reconciliation with Bloom filters and Merkle trees. Compared to previous research on Merkle trees, we propose to use dynamic hash sizes to align the transfer overhead with the desired accuracy and create a new Merkle tree reconciliation algorithm with an adjustable accuracy target. An extensive evaluation of each algorithm under this accuracy model verifies its feasibility and ranks these four algorithms. Our results allow to easily choose an efficient algorithm for practical set reconciliation tasks based on the required level of accuracy. Our way to find configuration parameters for different, yet equally accurate, algorithms can also be adopted to other set reconciliation algorithms and allows to rate their respective performance in an objective manner. The resultant new approximate Merkle tree reconciliation broadens the applicability of Merkle trees and sheds some new light on its effectiveness.
57

Hybrid Differential Software Testing

Noller, Yannic 16 October 2020 (has links)
Differentielles Testen ist ein wichtiger Bestandteil der Qualitätssicherung von Software, mit dem Ziel Testeingaben zu generieren, die Unterschiede im Verhalten der Software deutlich machen. Solche Unterschiede können zwischen zwei Ausführungspfaden (1) in unterschiedlichen Programmversionen, aber auch (2) im selben Programm auftreten. In dem ersten Fall werden unterschiedliche Programmversionen mit der gleichen Eingabe untersucht, während bei dem zweiten Fall das gleiche Programm mit unterschiedlichen Eingaben analysiert wird. Die Regressionsanalyse, die Side-Channel Analyse, das Maximieren der Ausführungskosten eines Programms und die Robustheitsanalyse von Neuralen Netzwerken sind typische Beispiele für differentielle Softwareanalysen. Eine besondere Herausforderung liegt in der effizienten Analyse von mehreren Programmpfaden (auch über mehrere Programmvarianten hinweg). Die existierenden Ansätze sind dabei meist nicht (spezifisch) dafür konstruiert, unterschiedliches Verhalten präzise hervorzurufen oder sind auf einen Teil des Suchraums limitiert. Diese Arbeit führt das Konzept des hybriden differentiellen Software Testens (HyDiff) ein: eine hybride Analysetechnik für die Generierung von Eingaben zur Erkennung von semantischen Unterschieden in Software. HyDiff besteht aus zwei parallel laufenden Komponenten: (1) einem such-basierten Ansatz, der effizient Eingaben generiert und (2) einer systematischen Analyse, die auch komplexes Programmverhalten erreichen kann. Die such-basierte Komponente verwendet Fuzzing geleitet durch differentielle Heuristiken. Die systematische Analyse basiert auf Dynamic Symbolic Execution, das konkrete Eingaben bei der Analyse integrieren kann. HyDiff wird anhand mehrerer Experimente evaluiert, die in spezifischen Anwendungen im Bereich des differentiellen Testens ausgeführt werden. Die Resultate zeigen eine effektive Generierung von Testeingaben durch HyDiff, wobei es sich signifikant besser als die einzelnen Komponenten verhält. / Differential software testing is important for software quality assurance as it aims to automatically generate test inputs that reveal behavioral differences in software. The concrete analysis procedure depends on the targeted result: differential testing can reveal divergences between two execution paths (1) of different program versions or (2) within the same program. The first analysis type would execute different program versions with the same input, while the second type would execute the same program with different inputs. Therefore, detecting regression bugs in software evolution, analyzing side-channels in programs, maximizing the execution cost of a program over multiple executions, and evaluating the robustness of neural networks are instances of differential software analysis with the goal to generate diverging executions of program paths. The key challenge of differential software testing is to simultaneously reason about multiple program paths, often across program variants, in an efficient way. Existing work in differential testing is often not (specifically) directed to reveal a different behavior or is limited to a subset of the search space. This PhD thesis proposes the concept of Hybrid Differential Software Testing (HyDiff) as a hybrid analysis technique to generate difference revealing inputs. HyDiff consists of two components that operate in a parallel setup: (1) a search-based technique that inexpensively generates inputs and (2) a systematic exploration technique to also exercise deeper program behaviors. HyDiff’s search-based component uses differential fuzzing directed by differential heuristics. HyDiff’s systematic exploration component is based on differential dynamic symbolic execution that allows to incorporate concrete inputs in its analysis. HyDiff is evaluated experimentally with applications specific for differential testing. The results show that HyDiff is effective in all considered categories and outperforms its components in isolation.
58

Deep Learning for Uncertainty Measurement

Kim, Alisa 12 February 2021 (has links)
Diese Arbeit konzentriert sich auf die Lösung des Problems der Unsicherheitsmessung und ihrer Auswirkungen auf Geschäftsentscheidungen, wobei zwei Ziele verfolgt werden: Erstens die Entwicklung und Validierung robuster Modelle zur Quantifizierung der Unsicherheit, wobei insbesondere sowohl die etablierten statistischen Modelle als auch neu entwickelte maschinelle Lernwerkzeuge zum Einsatz kommen. Das zweite Ziel dreht sich um die industrielle Anwendung der vorgeschlagenen Modelle. Die Anwendung auf reale Fälle bei der Messung der Volatilität oder bei einer riskanten Entscheidung ist mit einem direkten und erheblichen Gewinn oder Verlust verbunden. Diese These begann mit der Untersuchung der impliziten Volatilität (IV) als Proxy für die Wahrnehmung der Unsicherheit von Anlegern für eine neue Klasse von Vermögenswerten - Kryptowährungen. Das zweite Papier konzentriert sich auf Methoden zur Identifizierung risikofreudiger Händler und nutzt die DNN-Infrastruktur, um das Risikoverhalten von Marktakteuren, das auf Unsicherheit beruht und diese aufrechterhält, weiter zu untersuchen. Das dritte Papier befasste sich mit dem herausfordernden Bestreben der Betrugserkennung 3 und bot das Entscheidungshilfe-modell, das eine genauere und interpretierbarere Bewertung der zur Prüfung eingereichten Finanzberichte ermöglichte. Angesichts der Bedeutung der Risikobewertung und der Erwartungen der Agenten für die wirtschaftliche Entwicklung und des Aufbaus der bestehenden Arbeiten von Baker (2016) bot das vierte Papier eine neuartige DL-NLP-basierte Methode zur Quantifizierung der wirtschaftspolitischen Unsicherheit. Die neuen Deep-Learning-basierten Lösungen bieten eine überlegene Leistung gegenüber bestehenden Ansätzen zur Quantifizierung und Erklärung wirtschaftlicher Unsicherheiten und ermöglichen genauere Prognosen, verbesserte Planungskapazitäten und geringere Risiken. Die angebotenen Anwendungsfälle bilden eine Plattform für die weitere Forschung. / This thesis focuses on solving the problem of uncertainty measurement and its impact on business decisions while pursuing two goals: first, develop and validate accurate and robust models for uncertainty quantification, employing both the well established statistical models and newly developed machine learning tools, with particular focus on deep learning. The second goal revolves around the industrial application of proposed models, applying them to real-world cases when measuring volatility or making a risky decision entails a direct and substantial gain or loss. This thesis started with the exploration of implied volatility (IV) as a proxy for investors' perception of uncertainty for a new class of assets - crypto-currencies. The second paper focused on methods to identify risk-loving traders and employed the DNN infrastructure for it to investigate further the risk-taking behavior of market actors that both stems from and perpetuates uncertainty. The third paper addressed the challenging endeavor of fraud detection and offered the decision support model that allowed a more accurate and interpretable evaluation of financial reports submitted for audit. Following the importance of risk assessment and agents' expectations in economic development and building on the existing works of Baker (2016) and their economic policy uncertainty (EPU) index, it offered a novel DL-NLP-based method for the quantification of economic policy uncertainty. In summary, this thesis offers insights that are highly relevant to both researchers and practitioners. The new deep learning-based solutions exhibit superior performance to existing approaches to quantify and explain economic uncertainty, allowing for more accurate forecasting, enhanced planning capacities, and mitigated risks. The offered use-cases provide a road-map for further development of the DL tools in practice and constitute a platform for further research.
59

From Logic Programming to Human Reasoning:: How to be Artificially Human

Dietz Saldanha, Emmanuelle-Anna 26 June 2017 (has links)
Results of psychological experiments have shown that humans make assumptions, which are not necessarily valid, that they are influenced by their background knowledge and that they reason non-monotonically. These observations show that classical logic does not seem to be adequate for modeling human reasoning. Instead of assuming that humans do not reason logically at all, we take the view that humans do not reason classical logically. Our goal is to model episodes of human reasoning and for this purpose we investigate the so-called Weak Completion Semantics. The Weak Completion Semantics is a Logic Programming approach and considers the least model of the weak completion of logic programs under the three-valued Łukasiewicz logic. As the Weak Completion Semantics is relatively new and has not yet been extensively investigated, we first motivate why this approach is interesting for modeling human reasoning. After that, we show the formal correspondence to the already established Stable Model Semantics and Well-founded Semantics. Next, we present an extension with an additional context operator, that allows us to express negation as failure. Finally, we propose a contextual abductive reasoning approach, in which the context of observations is relevant. Some properties do not hold anymore under this extension. Besides discussing the well-known psychological experiments Byrne’s suppression task and Wason’s selection task, we investigate an experiment in spatial reasoning, an experiment in syllogistic reasoning and an experiment that examines the belief-bias effect. We show that the results of these experiments can be adequately modeled under the Weak Completion Semantics. A result which stands out here, is the outcome of modeling the syllogistic reasoning experiment, as we have a higher prediction match with the participants’ answers than any of twelve current cognitive theories. We present an abstract evaluation system for conditionals and discuss well-known examples from the literature. We show that in this system, conditionals can be evaluated in various ways and we put up the hypothesis that humans use a particular evaluation strategy, namely that they prefer abduction to revision. We also discuss how relevance plays a role in the evaluation process of conditionals. For this purpose we propose a semantic definition of relevance and justify why this is preferable to a exclusively syntactic definition. Finally, we show that our system is more general than another system, which has recently been presented in the literature. Altogether, this thesis shows one possible path on bridging the gap between Cognitive Science and Computational Logic. We investigated findings from psychological experiments and modeled their results within one formal approach, the Weak Completion Semantics. Furthermore, we proposed a general evaluation system for conditionals, for which we suggest a specific evaluation strategy. Yet, the outcome cannot be seen as the ultimate solution but delivers a starting point for new open questions in both areas.
60

Hybrid Hardware/Software Architectures for Network Packet Processing in Security Applications

Fießler, Andreas Christoph Kurt 14 June 2019 (has links)
Die Menge an in Computernetzwerken verarbeiteten Daten steigt stetig, was Netzwerkgeräte wie Switches, Bridges, Router und Firewalls vor Herausfordungen stellt. Die Performance der verbreiteten, CPU/softwarebasierten Ansätze für die Implementierung dieser Aufgaben ist durch den inhärenten Overhead in der sequentiellen Datenverarbeitung limitiert, weshalb solche Funktionalitäten vermehrt auf dedizierten Hardwarebausteinen realisiert werden. Diese bieten eine schnelle, parallele Verarbeitung mit niedriger Latenz, sind allerdings aufwendiger in der Entwicklung und weniger flexibel. Nicht jede Anwendung kann zudem für parallele Verarbeitung optimiert werden. Diese Arbeit befasst sich mit hybriden Ansätzen, um eine bessere Ausnutzung der jeweiligen Stärken von Soft- und Hardwaresystemen zu ermöglichen, mit Schwerpunkt auf der Paketklassifikation. Es wird eine Firewall realisiert, die sowohl Flexibilität und Analysetiefe einer Software-Firewall als auch Durchsatz und Latenz einer Hardware-Firewall erreicht. Der Ansatz wird auf einem Standard-Rechnersystem, welches für die Hardware-Klassifikation mit einem rekonfigurierbaren Logikbaustein (FPGA) ergänzt wird, evaluiert. Eine wesentliche Herausforderung einer hybriden Firewall ist die Identifikation von Abhängigkeiten im Regelsatz. Es werden Ansätze vorgestellt, welche den redundanten Klassifikationsaufwand auf ein Minimum reduzieren, wie etwa die Wiederverwendung von Teilergebnissen der hybriden Klassifikatoren oder eine exakte Abhängigkeitsanalyse mittels Header Space Analysis. Für weitere Problemstellungen im Bereich der hardwarebasierten Paketklassifikation, wie dynamisch konfigurierbare Filterungsschaltkreise und schnelle, sichere Hashfunktionen für Lookups, werden Machbarkeit und Optimierungen evaluiert. Der hybride Ansatz wird im Weiteren auf ein System mit einer SDN-Komponente statt einer FPGA-Erweiterung übertragen. Auch hiermit können signifikante Performancegewinne erreicht werden. / Network devices like switches, bridges, routers, and firewalls are subject to a continuous development to keep up with ever-rising requirements. As the overhead of software network processing already became the performance-limiting factor for a variety of applications, also former software functions are shifted towards dedicated network processing hardware. Although such application-specific circuits allow fast, parallel, and low latency processing, they require expensive and time-consuming development with minimal possibilities for adaptions. Security can also be a major concern, as these circuits are virtually a black box for the user. Moreover, the highly parallel processing capabilities of specialized hardware are not necessarily an advantage for all kinds of tasks in network processing, where sometimes a classical CPU is better suited. This work introduces and evaluates concepts for building hybrid hardware-software-systems that exploit the advantages of both hardware and software approaches in order to achieve performant, flexible, and versatile network processing and packet classification systems. The approaches are evaluated on standard software systems, extended by a programmable hardware circuit (FPGA) to provide full control and flexibility. One key achievement of this work is the identification and mitigation of challenges inherent when a hybrid combination of multiple packet classification circuits with different characteristics is used. We introduce approaches to reduce redundant classification effort to a minimum, like re-usage of intermediate classification results and determination of dependencies by header space analysis. In addition, for some further challenges in hardware based packet classification like filtering circuits with dynamic updates and fast hash functions for lookups, we describe feasibility and optimizations. At last, the hybrid approach is evaluated using a standard SDN switch instead of the FPGA accelerator to prove portability.

Page generated in 0.1196 seconds