• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 143
  • 50
  • Tagged with
  • 193
  • 193
  • 145
  • 111
  • 111
  • 82
  • 49
  • 49
  • 47
  • 26
  • 20
  • 19
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Die Konvergenz von Bioinformatik und Medizinischer Informatik / Konsequenzen für die Ausbildung von IT-Managern im Gesundheitswesen am Beispiel des Göttinger Curriculums für Medizinische Informatik / The Convergence of Bioinformatics and Medical Informatics / Consequences for IT manager in health care education exemplified by the curriculum for medical informatics at the University of Goettingen

Hamer, Berit 15 July 2009 (has links)
No description available.
152

Informatik für Alle - wie viel Programmierung braucht der Mensch? / Informatics for all - how much programming is necessary?

Strecker, Kerstin 30 October 2009 (has links)
No description available.
153

Languages, Tools and Patterns for the Specification of Distributed Real-Time Tests / Sprachen, Werkzeuge und Muster für die Spezifikation von verteilten Echtzeit-Tests

Neukirchen, Helmut Wolfram 25 August 2004 (has links)
No description available.
154

Improvement of the jpHMM approach to recombination detection in viral genomes and its application to HIV and HBV / Verbesserung des jpHMM-Ansatzes zur Rekombinationsvorhersage in viralen Genomen und dessen Anwendung auf HIV und HBV

Schultz, Anne-Kathrin 27 April 2011 (has links)
No description available.
155

Usage-based Testing of Event-driven Software / Benutzungsbasiertes Testen von eventgetriebener Software

Herbold, Steffen 27 June 2012 (has links)
No description available.
156

Leveraging Email based Social Networks to Prevent Spam: Framework, System Design and Evaluation / Leveraging Email based Social Networks to Prevent Spam: Framework, System Design and Evaluation

Hameed, Sufian 06 September 2012 (has links)
No description available.
157

Anonymity and Privacy in Wireless Mobile Ad Hoc Networks / Anonymität und Privatsphäre in drahtlosen mobilen ad hoc Netzwerken

Taheri, Somayeh 12 December 2011 (has links)
No description available.
158

Predictive Resource Management for Scientific Workflows

Witt, Carl Philipp 21 July 2020 (has links)
Um Erkenntnisse aus großen Mengen wissenschaftlicher Rohdaten zu gewinnen, sind komplexe Datenanalysen erforderlich. Scientific Workflows sind ein Ansatz zur Umsetzung solcher Datenanalysen. Um Skalierbarkeit zu erreichen, setzen die meisten Workflow-Management-Systeme auf bereits existierende Lösungen zur Verwaltung verteilter Ressourcen, etwa Batch-Scheduling-Systeme. Die Abschätzung der Ressourcen, die zur Ausführung einzelner Arbeitsschritte benötigt werden, wird dabei immer noch an die Nutzer:innen delegiert. Dies schränkt die Leistung und Benutzerfreundlichkeit von Workflow-Management-Systemen ein, da den Nutzer:innen oft die Zeit, das Fachwissen oder die Anreize fehlen, den Ressourcenverbrauch genau abzuschätzen. Diese Arbeit untersucht, wie die Ressourcennutzung während der Ausführung von Workflows automatisch erlernt werden kann. Im Gegensatz zu früheren Arbeiten werden Scheduling und Vorhersage von Ressourcenverbrauch in einem engeren Zusammenhang betrachtet. Dies bringt verschiedene Herausforderungen mit sich, wie die Quantifizierung der Auswirkungen von Vorhersagefehlern auf die Systemleistung. Die wichtigsten Beiträge dieser Arbeit sind: 1. Eine Literaturübersicht aktueller Ansätze zur Vorhersage von Spitzenspeicherverbrauch mittels maschinellen Lernens im Kontext von Batch-Scheduling-Systemen. 2. Ein Scheduling-Verfahren, das statistische Methoden verwendet, um vorherzusagen, welche Scheduling-Entscheidungen verbessert werden können. 3. Ein Ansatz zur Nutzung von zur Laufzeit gemessenem Spitzenspeicherverbrauch in Vorhersagemodellen, die die fortwährende Optimierung der Ressourcenallokation erlauben. Umfangreiche Simulationsexperimente geben Einblicke in Schlüsseleigenschaften von Scheduling-Heuristiken und Vorhersagemodellen. 4. Ein Vorhersagemodell, das die asymmetrischen Kosten überschätzten und unterschätzten Speicherverbrauchs berücksichtigt, sowie die Folgekosten von Vorhersagefehlern einbezieht. / Scientific experiments produce data at unprecedented volumes and resolutions. For the extraction of insights from large sets of raw data, complex analysis workflows are necessary. Scientific workflows enable such data analyses at scale. To achieve scalability, most workflow management systems are designed as an additional layer on top of distributed resource managers, such as batch schedulers or distributed data processing frameworks. However, like distributed resource managers, they do not automatically determine the amount of resources required for executing individual tasks in a workflow. The status quo is that workflow management systems delegate the challenge of estimating resource usage to the user. This limits the performance and ease-of-use of scientific workflow management systems, as users often lack the time, expertise, or incentives to estimate resource usage accurately. This thesis is an investigation of how to learn and predict resource usage during workflow execution. In contrast to prior work, an integrated perspective on prediction and scheduling is taken, which introduces various challenges, such as quantifying the effects of prediction errors on system performance. The main contributions are: 1. A survey of peak memory usage prediction in batch processing environments. It provides an overview of prior machine learning approaches, commonly used features, evaluation metrics, and data sets. 2. A static workflow scheduling method that uses statistical methods to predict which scheduling decisions can be improved. 3. A feedback-based approach to scheduling and predictive resource allocation, which is extensively evaluated using simulation. The results provide insights into the desirable characteristics of scheduling heuristics and prediction models. 4. A prediction model that reduces memory wastage. The design takes into account the asymmetric costs of overestimation and underestimation, as well as follow up costs of prediction errors.
159

Empirical and Analytical Perspectives on the Robustness of Blockchain-related Peer-to-Peer Networks

Henningsen, Sebastian 14 April 2022 (has links)
Die Erfindung von Bitcoin hat ein großes Interesse an dezentralen Systemen geweckt. Eine häufige Zuschreibung an dezentrale Systeme ist dabei, dass eine Dezentralisierung automatisch zu einer höheren Sicherheit und Widerstandsfähigkeit gegenüber Angriffen führt. Diese Dissertation widmet sich dieser Zuschreibung, indem untersucht wird, ob dezentralisierte Anwendungen tatsächlich so robust sind. Dafür werden exemplarisch drei Systeme untersucht, die häufig als Komponenten in komplexen Blockchain-Anwendungen benutzt werden: Ethereum als Infrastruktur, IPFS zur verteilten Datenspeicherung und schließlich "Stablecoins" als Tokens mit Wertstabilität. Die Sicherheit und Robustheit dieser einzelnen Komponenten bestimmt maßgeblich die Sicherheit des Gesamtsystems in dem sie verwendet werden; darüber hinaus erlaubt der Fokus auf Komponenten Schlussfolgerungen über individuelle Anwendungen hinaus. Für die entsprechende Analyse bedient sich diese Arbeit einer empirisch motivierten, meist Netzwerklayer-basierten Perspektive -- angereichert mit einer ökonomischen im Kontext von Wertstabilen Tokens. Dieses empirische Verständnis ermöglicht es Aussagen über die inhärenten Eigenschaften der studierten Systeme zu treffen. Ein zentrales Ergebnis dieser Arbeit ist die Entdeckung und Demonstration einer "Eclipse-Attack" auf das Ethereum Overlay. Mittels eines solchen Angriffs kann ein Angreifer die Verbreitung von Transaktionen und Blöcken behindern und Netzwerkteilnehmer aus dem Overlay ausschließen. Des weiteren wird das IPFS-Netzwerk umfassend analysiert und kartografiert mithilfe (1) systematischer Crawls der DHT sowie (2) des Mitschneidens von Anfragenachrichten für Daten. Erkenntlich wird hierbei, dass die hybride Overlay-Struktur von IPFS Segen und Fluch zugleich ist, da das Gesamtsystem zwar robust gegen Angriffe ist, gleichzeitig aber eine umfassende Überwachung der Netzwerkteilnehmer ermöglicht wird. Im Rahmen der wertstabilen Kryptowährungen wird ein Klassifikations-Framework vorgestellt und auf aktuelle Entwicklungen im Gebiet der "Stablecoins" angewandt. Mit diesem Framework wird somit (1) der aktuelle Zustand der Stablecoin-Landschaft sortiert und (2) ein Mittel zur Verfügung gestellt, um auch zukünftige Designs einzuordnen und zu verstehen. / The inception of Bitcoin has sparked a large interest in decentralized systems. In particular, popular narratives imply that decentralization automatically leads to a high security and resilience against attacks, even against powerful adversaries. In this thesis, we investigate whether these ascriptions are appropriate and if decentralized applications are as robust as they are made out to be. To this end, we exemplarily analyze three widely-used systems that function as building blocks for blockchain applications: Ethereum as basic infrastructure, IPFS for distributed storage and lastly "stablecoins" as tokens with a stable value. As reoccurring building blocks for decentralized applications these examples significantly determine the security and resilience of the overall application. Furthermore, focusing on these building blocks allows us to look past individual applications and focus on inherent systemic properties. The analysis is driven by a strong empirical, mostly network-layer based perspective; enriched with an economic point of view in the context of monetary stabilization. The resulting practical understanding allows us to delve into the systems' inherent properties. The fundamental results of this thesis include the demonstration of a network-layer Eclipse attack on the Ethereum overlay which can be leveraged to impede the delivery of transaction and blocks with dire consequences for applications built on top of Ethereum. Furthermore, we extensively map the IPFS network through (1) systematic crawling of its DHT, as well as (2) monitoring content requests. We show that while IPFS' hybrid overlay structure renders it quite robust against attacks, this virtue of the overlay is simultaneously a curse, as it allows for extensive monitoring of participating peers and the data they request. Lastly, we exchange the network-layer perspective for a mostly economic one in the context of monetary stabilization. We present a classification framework to (1) map out the stablecoin landscape and (2) provide means to pigeon-hole future system designs. With our work we not only scrutinize ascriptions attributed to decentral technologies; we also reached out to IPFS and Ethereum developers to discuss results and remedy potential attack vectors.
160

Fehler von Fingerabdruckerkennungssystemen im Kontext / Begreifbare Vermittlung der Fehler einer biometrischen Kontrolltechnologie

Knaut, Andrea 12 September 2017 (has links)
In dieser Arbeit werden zwei Fragen im Zusammenhang mit Fehlern von Fingerabdruckerkennungssystemen untersucht. Erstens: Welche strukturellen Merkmale und begrifflichen Implikationen hat der spezifische Fehlerdiskurs in diesem Teilgebiet der Biometrie? Zur Beantwortung dieser Frage werden im Rahmen einer diskursanalytischen Betrachtung der Fachtexte des Forschungsfeldes die gängigen Fehlertypologien der Biometrie untersucht. Die Arbeitshypothese der Analyse ist, dass der massenhafte Einsatz von Fingerabdruckerkennungssystemen im Alltag trotz aller ihrer Fehler diskursiv durchsetzungsfähig ist. Undzwar nicht unbedingt, weil die Fehler zu vernachlässigen sind, sondern weil die Angst vor „Identitätsbetrug“, die Idee einer Messbarkeit von Identität und die wirtschaftliche und politische Bedeutung von Sicherheitstechniken in einer für unsicher gehaltenen Welt große Wirkmächtigkeit haben. Es wird diskutiert, inwiefern die Auseinandersetzung mit System- und Überwindungsfehlern in der Informatik zu kurz greift. Daher wird ein erweitertes Fehlermodell vorgeschlagen, das an jüngere transdisziplinäre Fehlerforschung anknüpft und als kritisches Analyseinstrument für die Beurteilung der Wechselwirkung zwischen Informatik(-system) und Gesellschaft genutzt werden kann. Zweitens: Wie lassen sich die diskursanalytische Methode und ein experimentelles Hands-On-Lernen zu einem Lern- und Lehrkonzept verbinden, dass eine kritische Vermittlung der Probleme von Fingerabdruckerkennungssystemen ermöglicht? Ausgehend von schulischen Unterrichtskonzepten einer an der Lebenswelt orientierten Informatiklehre sowie der Idee des „be-greifbaren Lernens“ an konkreten Gegenständen wurde ein Lern- und Lehrkonzept für Universität und Schule entwickelt und in drei verschiedenen Institutionen ausprobiert. / In this paper two questions will be addressed relating to deficits in fingerprint recognition systems. Firstly, what structural features and conceptual implications does the analysis of errors have in the field of biometrics? To answer this question, the common error types in biometrics will be examined, as part of an analytical discourse taking into consideration technical texts from the research field. The working hypothesis of this analysis is that the structure of the discourse surrounding fingerprint recognition systems would present no barriers to their widespread implementation in everyday life despite all their faults – not because their shortcomings are negligible but due to the great potency of the fear of “identity fraud”, the notion that identity can be measured, and the economic and political importance of security technologies in a world deemed unsafe. It will be discussed how the examination of system errors and spoofing attacks in computer science falls short in addressing the whole picture of failing fingerprint recognition systems. Therefore an extended error model will be proposed, one which builds on recent transdisciplinary error research and which can be used as a critical tool for analysing and assessing the interaction between computer systems and society. Secondly, how could the analytical discourse method and experimental hands-on learning be combined into a teaching concept that would enable critical teaching of the problems of fingerprint recognition systems? Starting from the school-based teaching concepts of a theory of computer science based on real life and the idea of “hands-on learning” using concrete objects, a teaching concept for universities and schools has been developed and tested in three different institutions.

Page generated in 0.0391 seconds