• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 9
  • 3
  • Tagged with
  • 21
  • 17
  • 13
  • 10
  • 10
  • 10
  • 9
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Isogeniebasierte Post-Quanten-Kryptographie

Prochaska, Juliane 12 August 2019 (has links)
Die fortschreitende Entwicklung immer leistungsstärkerer Quantencomputer bedroht die Informationssicherheit kryptographischer Anwendungen, die auf dem Faktorisierungsproblem oder dem Problem des diskreten Logarithmus beruhen. Die US-amerikanische Standardisierungsbehörde NIST startete 2017 ein Projekt mit dem Ziel, Kryptographiestandards zu entwickeln, die gegen Angriffe von Quantenrechnern resistent sind. Einer der Kandidaten ist SIKE (Supersingular Isogeny Key Encapsulation), der einzige Vertreter isogeniebasierter Kryptographie im Standardisierungsverfahren. Diese Diplomarbeit enthält eine weitgehend in sich abgeschlossene Beschreibung der SIKE-Protokolle, Sicherheitsbetrachtungen sowie eine einfache Implementierung des Kryptosystems.:1. Einleitung 2. Grundlegende Definitionen 2.1. Elliptische Kurven 2.2. Punktaddition 2.3. Montgomery-Kurven 2.4. Isogenien 2.5. Der Diffie-Hellman-Schlüsselaustausch 2.6. Das Elgamal-Kryptosystem 3. Supersingular Isogeny Key Encapsulation 3.1. Supersingular Isogeny Diffie-Hellman Key Exchange 3.2. Erzeugung der Systemparameter 3.3. Erzeugung der Schlüsselpaare 3.4. Berechnung der gemeinsamen Kurve 3.5. Vom Schlüsselaustausch zum Kryptosystem 3.6. Schlüsseleinschluss (Key Encapsulation) 3.7. Implementierungen 4. Sicherheitsbetrachtungen 4.1. Ciphertext indistinguishability 4.2. Größe der Parameter 4.3. Weitere Aspekte 5. Zusammenfassung A. Implementierung
12

Chemnitzer Linux-Tage 2014

Courtenay, Mark, Kölbel, Cornelius, Lang, Jens, Luithardt, Wolfram, Zscheile, Falk, Kramer, Frederik, Schneider, Markus, Pfeifle, Kurt, Berger, Uwe, Wachtler, Axel, Findeisen, Ralf, Schöner, Axel, Lohr, Christina, Herms, Robert, Schütz, Georg, Luther, Tobias 23 April 2014 (has links) (PDF)
Der vorliegende Tagungsband beinhaltet 13 Beiträge von Referenten der Chemnitzer Linux-Tage 2014 sowie Zusammenfassungen von weiteren 78 Vorträgen und 14 Workshops. Die Beiträge umfassen das breite Spektrum der Veranstaltung, darunter Probleme von eingebetteten Systemen und vertrauliche Kommunikation.
13

Data Encryption Standard

Meissner, Robert 28 May 2002 (has links)
Die heutige Informationsgesellschaft hat die Formen des menschlichen Handelns in vielen Bereichen des taeglichen Lebens veraendert. Die Moeglichkeit, Informationen über das Internet auszutauschen, draengt konventionelle Kommunikationsformen immer mehr in den Hintergrund. Gerade in den Bereichen eBusiness und ePayment, welche aufgrund der zunehmenden Globalisierung unabdingbar sind, spielen dabei die Sicherheit und die Authentitaet der uebertragenen Daten eine wichtige Rolle. Meine Seminararbeit stellt den Data Encryption Standard (DES) in seiner Funktionsweise vor, diskutiert kritisch dessen Sicherheit und gibt einen Ausblick auf neue Verschluesselungstechnologien, welche im Begriff sind, den Data Encryption Standard und seine verschiedenen Versionen abzuloesen.
14

Das Faktorisieren großer Zahlen mittels des neuen CASTELL-FACT-ALGORITHMUS, 12. Teil - Fortsetzung

Castell-Castell, Nikolaus, Tietken, Tom 02 September 2020 (has links)
Fortsetzung, Ergänzung und Korrektur des 12. Teils
15

Moeglichkeiten, auch ohne RSA-Entschluesselungs-Algorithmus Primzahlen zu identifizieren und RSA-Verschluesselungen (mittels einer speziellen Liste) indirekt zu dechiffrieren

Castell-Castell, Nikolaus, Tietken, Tom 12 April 2021 (has links)
No description available.
16

Das Faktorisieren großer Zahlen mittels des neuen CASTELL-FACT-ALGORITHMUS, 12. Teil: Als Teilaspekt hier die Einführung des neuen TIETKEN-CASTELL-PRIM-ALGORITHMUS zur indirekten, eindeutigen und korrekten Identifizierung und Herstellung von Primzahlen (prime numbers) unbegrenzter Größe

Castell-Castell, Nikolaus, Tietken, Tom 12 August 2020 (has links)
Das Prague Research Institute ist im Besitz eines selbst entwickelten Algorithmus (dem sog. 'Castell-fact-Algorithmus'), der elegant und schnell unbegrenzt große Zahlen faktorisiert. Da die Fachwelt diesen Hinweis ignoriert oder sogar expressis verbis als 'nicht möglich' bestreitet, wird hier ein in Wochenfrist entwickelter kleiner Algorithmus als 'Teaser' nachgereicht (der sog. 'Tietken-Castell-Prim-Algorithmus'), der die einfache, effiziente und kreative Arbeitsweise des Prague Research Institutes demonstrieren soll. Kreativ ist dieser Tietken-Castell-Prim-Algorithmus, weil er nicht tatsächlich eigene Primzahlen selbst herstellt oder fremde Primzahlen als solche identifiziert (an diesem Projekt wird im Prague-Research-Institute noch gearbeitet), sondern durch ein einfaches indirektes Verfahren den gleichen Effekt erzielt: Mittels eines sich selbst aufbauenden, immer größer werdenden, Registers (dem sog. 'Tietken-Castell-Registers') können a) Primzahlen hergestellt und b) identifiziert werden und je nach bereits erzielter Größe des sich sukzessive aufbauenden Registers c) auch entsprechend große Zahlen, die aus Primzahlen entstanden sind, in diese Primzahlen zerlegt werden, indem diese Primzahl-Faktoren einfach nur aus dem Register ausgelesen werden.
17

Secure Computation Protocols for Privacy-Preserving Machine Learning

Schoppmann, Phillipp 08 October 2021 (has links)
Machine Learning (ML) profitiert erheblich von der Verfügbarkeit großer Mengen an Trainingsdaten, sowohl im Bezug auf die Anzahl an Datenpunkten, als auch auf die Anzahl an Features pro Datenpunkt. Es ist allerdings oft weder möglich, noch gewollt, mehr Daten unter zentraler Kontrolle zu aggregieren. Multi-Party-Computation (MPC)-Protokolle stellen eine Lösung dieses Dilemmas in Aussicht, indem sie es mehreren Parteien erlauben, ML-Modelle auf der Gesamtheit ihrer Daten zu trainieren, ohne die Eingabedaten preiszugeben. Generische MPC-Ansätze bringen allerdings erheblichen Mehraufwand in der Kommunikations- und Laufzeitkomplexität mit sich, wodurch sie sich nur beschränkt für den Einsatz in der Praxis eignen. Das Ziel dieser Arbeit ist es, Privatsphäreerhaltendes Machine Learning mittels MPC praxistauglich zu machen. Zuerst fokussieren wir uns auf zwei Anwendungen, lineare Regression und Klassifikation von Dokumenten. Hier zeigen wir, dass sich der Kommunikations- und Rechenaufwand erheblich reduzieren lässt, indem die aufwändigsten Teile der Berechnung durch Sub-Protokolle ersetzt werden, welche auf die Zusammensetzung der Parteien, die Verteilung der Daten, und die Zahlendarstellung zugeschnitten sind. Insbesondere das Ausnutzen dünnbesetzter Datenrepräsentationen kann die Effizienz der Protokolle deutlich verbessern. Diese Beobachtung verallgemeinern wir anschließend durch die Entwicklung einer Datenstruktur für solch dünnbesetzte Daten, sowie dazugehöriger Zugriffsprotokolle. Aufbauend auf dieser Datenstruktur implementieren wir verschiedene Operationen der Linearen Algebra, welche in einer Vielzahl von Anwendungen genutzt werden. Insgesamt zeigt die vorliegende Arbeit, dass MPC ein vielversprechendes Werkzeug auf dem Weg zu Privatsphäre-erhaltendem Machine Learning ist, und die von uns entwickelten Protokolle stellen einen wesentlichen Schritt in diese Richtung dar. / Machine learning (ML) greatly benefits from the availability of large amounts of training data, both in terms of the number of samples, and the number of features per sample. However, aggregating more data under centralized control is not always possible, nor desirable, due to security and privacy concerns, regulation, or competition. Secure multi-party computation (MPC) protocols promise a solution to this dilemma, allowing multiple parties to train ML models on their joint datasets while provably preserving the confidentiality of the inputs. However, generic approaches to MPC result in large computation and communication overheads, which limits the applicability in practice. The goal of this thesis is to make privacy-preserving machine learning with secure computation practical. First, we focus on two high-level applications, linear regression and document classification. We show that communication and computation overhead can be greatly reduced by identifying the costliest parts of the computation, and replacing them with sub-protocols that are tailored to the number and arrangement of parties, the data distribution, and the number representation used. One of our main findings is that exploiting sparsity in the data representation enables considerable efficiency improvements. We go on to generalize this observation, and implement a low-level data structure for sparse data, with corresponding secure access protocols. On top of this data structure, we develop several linear algebra algorithms that can be used in a wide range of applications. Finally, we turn to improving a cryptographic primitive named vector-OLE, for which we propose a novel protocol that helps speed up a wide range of secure computation tasks, within private machine learning and beyond. Overall, our work shows that MPC indeed offers a promising avenue towards practical privacy-preserving machine learning, and the protocols we developed constitute a substantial step in that direction.
18

Comparison of Different Secure Network Coding Paradigms Concerning Transmission Efficiency

Pfennig, Stefan, Franz, Elke 07 July 2014 (has links) (PDF)
Preventing the success of active attacks is of essential importance for network coding since even the infiltration of one single corrupted data packet can jam large parts of the network. The existing approaches for network coding schemes preventing such pollution attacks can be divided into two categories: utilize cryptographic approaches or utilize redundancy similar to error correction coding. Within this paper, we compared both paradigms concerning efficiency of data transmission under various circumstances. Particularly, we considered an attacker of a certain strength as well as the influence of the generation size. The results are helpful for selecting a suitable approach for network coding taking into account both security against pollution attacks and efficiency.
19

Data confidentiality and reputation schemes in distributed information systems

Fischmann, Matthias 11 September 2008 (has links)
Diese Arbeit betrachtet zwei anspruchsvolle Probleme aus dem Bereich Computer- und Kommunikationssicherheit und Vertrauen. Beim Datenbank-Serviceprovider-Problem moechte ein Anwender seine Datenbank an einen Datenbank-Serviceprovider (DSP) uebergeben, damit dieser sie betreiben und ihm zur Verfuegung stellen kann. Er vertraut diesem DSP, und damit auch vertraglichen Abmachungen, nur bedingt und muss die Vertraulichkeit seiner Daten durch technische Massnahmen sicherstellen. Das zweite Problem ist das Verbreiten verlaesslicher Reputationsinformation ueber eine (moeglicherweise sehr grosse) Anzahl von Netzwerk-Knoten in einer Peer-to-Peer-Umgebung (P2P). Beide Probleme straeuben sich hartnaeckig gegen einfache Loesungen. Im Gegensatz zu traditionellen Sicherheitsproblemen in der Informatik hat der Gegner in beiden ein hohes Mass an Kontrolle ueber die Situation. Der nicht ausreichend vertrauenswuerdige DSP muss in der Lage sein, die Daten seines Kunden zu verarbeiten, ohne etwas ueber sie zu lernen, was intuitiv wie ein Widerspruch erscheint. In P2P-Anwendungen ist es wuenschenswert, dass Knoten anonym beitreten und jederzeit wieder austreten koennen, aber diese Anonymitaet erleichtert es, falsche Reputationsinformation zu verbreiten. Ein Knoten, der erstmalig in ein P2P-Netzwerk eintritt, muss den behaupteten Beobachtungen anderer Knoten vertrauen. Die Resultate dieser Arbeit sind keine Idealloesungen, und dennoch aufschlussreich in mehrerlei Hinsicht: Es werden gelockerte, aber immer noch nuetzliche Sicherheitsbegriffe fuer das DSP-Problem vorgeschlagen; es werden theoretische Grenzen des DSP-Loesungsraums gezogen; und die Auswirkung feindseligen Verhaltens in P2P-Reputationssystemen wird durch heuristische Methoden reduziert. Ein Nebeneffekt unserer Arbeit ist ein speziell fuer Reputationssysteme in P2P-Netzwerken geeignetes Simulations-Tool, das zum Vergleich und zum Fine-Tuning bestehender und zukuenftiger Forschungsarbeiten genutzt werden kann. / In this thesis we discuss two demanding problems from the field of computer and communication security that involve trust. The first is known as the database service provider problem: A database owner wants a database service provider (DSP) to host her database. She only trusts this DSP to a limited extent, so she does not want to rely solely on contractual solutions. It is therefore necessary to enforce confidentiality of her data by technical means. The second problem concerns a (potentially very large) number of network nodes in a peer-to-peer (P2P) environment. Both problems are notoriously hard because, other than in traditional computer security problems, the adversary has a lot of control over the situation. The untrusted DSP needs to be able to process the data without learning anything about it, which seems to be a contradiction. In P2P applications it is desirable that nodes can join anonymously, but anonymity makes it easy to spread false reputation information. A node that enters a P2P application network for the first time needs to trust the claimed observations of other nodes, independent of the rate of malicious behaviour. Our findings are not perfect solutions, but nevertheless instructive in several ways: We propose relaxed, but still practically useful, notions of security for the DSP problem; we identify theoretical limitations of the DSP solution space; and we gradually reduce the impact of adversarial behaviour in P2P reputation systems using heuristic methods. As a side effect of our work, we present a special-purpose framework for simulation of P2P reputation systems that can be used to compare and fine-tune previous and upcoming work.
20

Comparison of Different Secure Network Coding Paradigms Concerning Transmission Efficiency

Pfennig, Stefan, Franz, Elke January 2013 (has links)
Preventing the success of active attacks is of essential importance for network coding since even the infiltration of one single corrupted data packet can jam large parts of the network. The existing approaches for network coding schemes preventing such pollution attacks can be divided into two categories: utilize cryptographic approaches or utilize redundancy similar to error correction coding. Within this paper, we compared both paradigms concerning efficiency of data transmission under various circumstances. Particularly, we considered an attacker of a certain strength as well as the influence of the generation size. The results are helpful for selecting a suitable approach for network coding taking into account both security against pollution attacks and efficiency.

Page generated in 0.0739 seconds