• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 280
  • 142
  • 56
  • 9
  • 4
  • 1
  • Tagged with
  • 489
  • 297
  • 197
  • 197
  • 197
  • 98
  • 95
  • 74
  • 55
  • 50
  • 45
  • 39
  • 39
  • 37
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Robust Optimization of Private Communication in Multi-Antenna Systems / Robuste Optimierung abhörsicherer Kommunikation in Mehrantennensystemen

Wolf, Anne 06 September 2016 (has links) (PDF)
The thesis focuses on the privacy of communication that can be ensured by means of the physical layer, i.e., by appropriately chosen coding and resource allocation schemes. The fundamentals of physical-layer security have been already formulated in the 1970s by Wyner (1975), Csiszár and Körner (1978). But only nowadays we have the technical progress such that these ideas can find their way in current and future communication systems, which has driven the growing interest in this area of research in the last years. We analyze two physical-layer approaches that can ensure the secret transmission of private information in wireless systems in presence of an eavesdropper. One is the direct transmission of the information to the intended receiver, where the transmitter has to simultaneously ensure the reliability and the secrecy of the information. The other is a two-phase approach, where two legitimated users first agree on a common and secret key, which they use afterwards to encrypt the information before it is transmitted. In this case, the secrecy and the reliability of the transmission are managed separately in the two phases. The secrecy of the transmitted messages mainly depends on reliable information or reasonable and justifiable assumptions about the channel to the potential eavesdropper. Perfect state information about the channel to a passive eavesdropper is not a rational assumption. Thus, we introduce a deterministic model for the uncertainty about this channel, which yields a set of possible eavesdropper channels. We consider the optimization of worst-case rates in systems with multi-antenna Gaussian channels for both approaches. We study which transmit strategy can yield a maximum rate if we assume that the eavesdropper can always observe the corresponding worst-case channel that reduces the achievable rate for the secret transmission to a minimum. For both approaches, we show that the resulting max-min problem over the matrices that describe the multi-antenna system can be reduced to an equivalent problem over the eigenvalues of these matrices. We characterize the optimal resource allocation under a sum power constraint over all antennas and derive waterfilling solutions for the corresponding worst-case channel to the eavesdropper for a constraint on the sum of all channel gains. We show that all rates converge to finite limits for high signal-to-noise ratios (SNR), if we do not restrict the number of antennas for the eavesdropper. These limits are characterized by the quotients of the eigenvalues resulting from the Gramian matrices of both channels. For the low-SNR regime, we observe a rate increase that depends only on the differences of these eigenvalues for the direct-transmission approach. For the key generation approach, there exists no dependence from the eavesdropper channel in this regime. The comparison of both approaches shows that the superiority of an approach over the other mainly depends on the SNR and the quality of the eavesdropper channel. The direct-transmission approach is advantageous for low SNR and comparably bad eavesdropper channels, whereas the key generation approach benefits more from high SNR and comparably good eavesdropper channels. All results are discussed in combination with numerous illustrations. / Der Fokus dieser Arbeit liegt auf der Abhörsicherheit der Datenübertragung, die auf der Übertragungsschicht, also durch geeignete Codierung und Ressourcenverteilung, erreicht werden kann. Die Grundlagen der Sicherheit auf der Übertragungsschicht wurden bereits in den 1970er Jahren von Wyner (1975), Csiszár und Körner (1978) formuliert. Jedoch ermöglicht erst der heutige technische Fortschritt, dass diese Ideen in zukünftigen Kommunikationssystemen Einzug finden können. Dies hat in den letzten Jahren zu einem gestiegenen Interesse an diesem Forschungsgebiet geführt. In der Arbeit werden zwei Ansätze zur abhörsicheren Datenübertragung in Funksystemen analysiert. Dies ist zum einen die direkte Übertragung der Information zum gewünschten Empfänger, wobei der Sender gleichzeitig die Zuverlässigkeit und die Abhörsicherheit der Übertragung sicherstellen muss. Zum anderen wird ein zweistufiger Ansatz betrachtet: Die beiden Kommunikationspartner handeln zunächst einen gemeinsamen sicheren Schlüssel aus, der anschließend zur Verschlüsselung der Datenübertragung verwendet wird. Bei diesem Ansatz werden die Abhörsicherheit und die Zuverlässigkeit der Information getrennt voneinander realisiert. Die Sicherheit der Nachrichten hängt maßgeblich davon ab, inwieweit zuverlässige Informationen oder verlässliche Annahmen über den Funkkanal zum Abhörer verfügbar sind. Die Annahme perfekter Kanalkenntnis ist für einen passiven Abhörer jedoch kaum zu rechtfertigen. Daher wird hier ein deterministisches Modell für die Unsicherheit über den Kanal zum Abhörer eingeführt, was zu einer Menge möglicher Abhörkanäle führt. Die Optimierung der sogenannten Worst-Case-Rate in einem Mehrantennensystem mit Gaußschem Rauschen wird für beide Ansätze betrachtet. Es wird analysiert, mit welcher Sendestrategie die maximale Rate erreicht werden kann, wenn gleichzeitig angenommen wird, dass der Abhörer den zugehörigen Worst-Case-Kanal besitzt, welcher die Rate der abhörsicheren Kommunikation jeweils auf ein Minimum reduziert. Für beide Ansätze wird gezeigt, dass aus dem resultierenden Max-Min-Problem über die Matrizen des Mehrantennensystems ein äquivalentes Problem über die Eigenwerte der Matrizen abgeleitet werden kann. Die optimale Ressourcenverteilung für eine Summenleistungsbeschränkung über alle Sendeantennen wird charakterisiert. Für den jeweiligen Worst-Case-Kanal zum Abhörer, dessen Kanalgewinne einer Summenbeschränkung unterliegen, werden Waterfilling-Lösungen hergeleitet. Es wird gezeigt, dass für hohen Signal-Rausch-Abstand (engl. signal-to-noise ratio, SNR) alle Raten gegen endliche Grenzwerte konvergieren, wenn die Antennenzahl des Abhörers nicht beschränkt ist. Die Grenzwerte werden durch die Quotienten der Eigenwerte der Gram-Matrizen beider Kanäle bestimmt. Für den Ratenanstieg der direkten Übertragung ist bei niedrigem SNR nur die Differenz dieser Eigenwerte maßgeblich, wohingegen für den Verschlüsselungsansatz in dem Fall keine Abhängigkeit vom Kanal des Abhörers besteht. Ein Vergleich zeigt, dass das aktuelle SNR und die Qualität des Abhörkanals den einen oder anderen Ansatz begünstigen. Die direkte Übertragung ist bei niedrigem SNR und verhältnismäßig schlechten Abhörkanälen überlegen, wohingegen der Verschlüsselungsansatz von hohem SNR und vergleichsweise guten Abhörkanälen profitiert. Die Ergebnisse der Arbeit werden umfassend diskutiert und illustriert.
322

Robust Optimization of Private Communication in Multi-Antenna Systems

Wolf, Anne 02 June 2015 (has links)
The thesis focuses on the privacy of communication that can be ensured by means of the physical layer, i.e., by appropriately chosen coding and resource allocation schemes. The fundamentals of physical-layer security have been already formulated in the 1970s by Wyner (1975), Csiszár and Körner (1978). But only nowadays we have the technical progress such that these ideas can find their way in current and future communication systems, which has driven the growing interest in this area of research in the last years. We analyze two physical-layer approaches that can ensure the secret transmission of private information in wireless systems in presence of an eavesdropper. One is the direct transmission of the information to the intended receiver, where the transmitter has to simultaneously ensure the reliability and the secrecy of the information. The other is a two-phase approach, where two legitimated users first agree on a common and secret key, which they use afterwards to encrypt the information before it is transmitted. In this case, the secrecy and the reliability of the transmission are managed separately in the two phases. The secrecy of the transmitted messages mainly depends on reliable information or reasonable and justifiable assumptions about the channel to the potential eavesdropper. Perfect state information about the channel to a passive eavesdropper is not a rational assumption. Thus, we introduce a deterministic model for the uncertainty about this channel, which yields a set of possible eavesdropper channels. We consider the optimization of worst-case rates in systems with multi-antenna Gaussian channels for both approaches. We study which transmit strategy can yield a maximum rate if we assume that the eavesdropper can always observe the corresponding worst-case channel that reduces the achievable rate for the secret transmission to a minimum. For both approaches, we show that the resulting max-min problem over the matrices that describe the multi-antenna system can be reduced to an equivalent problem over the eigenvalues of these matrices. We characterize the optimal resource allocation under a sum power constraint over all antennas and derive waterfilling solutions for the corresponding worst-case channel to the eavesdropper for a constraint on the sum of all channel gains. We show that all rates converge to finite limits for high signal-to-noise ratios (SNR), if we do not restrict the number of antennas for the eavesdropper. These limits are characterized by the quotients of the eigenvalues resulting from the Gramian matrices of both channels. For the low-SNR regime, we observe a rate increase that depends only on the differences of these eigenvalues for the direct-transmission approach. For the key generation approach, there exists no dependence from the eavesdropper channel in this regime. The comparison of both approaches shows that the superiority of an approach over the other mainly depends on the SNR and the quality of the eavesdropper channel. The direct-transmission approach is advantageous for low SNR and comparably bad eavesdropper channels, whereas the key generation approach benefits more from high SNR and comparably good eavesdropper channels. All results are discussed in combination with numerous illustrations. / Der Fokus dieser Arbeit liegt auf der Abhörsicherheit der Datenübertragung, die auf der Übertragungsschicht, also durch geeignete Codierung und Ressourcenverteilung, erreicht werden kann. Die Grundlagen der Sicherheit auf der Übertragungsschicht wurden bereits in den 1970er Jahren von Wyner (1975), Csiszár und Körner (1978) formuliert. Jedoch ermöglicht erst der heutige technische Fortschritt, dass diese Ideen in zukünftigen Kommunikationssystemen Einzug finden können. Dies hat in den letzten Jahren zu einem gestiegenen Interesse an diesem Forschungsgebiet geführt. In der Arbeit werden zwei Ansätze zur abhörsicheren Datenübertragung in Funksystemen analysiert. Dies ist zum einen die direkte Übertragung der Information zum gewünschten Empfänger, wobei der Sender gleichzeitig die Zuverlässigkeit und die Abhörsicherheit der Übertragung sicherstellen muss. Zum anderen wird ein zweistufiger Ansatz betrachtet: Die beiden Kommunikationspartner handeln zunächst einen gemeinsamen sicheren Schlüssel aus, der anschließend zur Verschlüsselung der Datenübertragung verwendet wird. Bei diesem Ansatz werden die Abhörsicherheit und die Zuverlässigkeit der Information getrennt voneinander realisiert. Die Sicherheit der Nachrichten hängt maßgeblich davon ab, inwieweit zuverlässige Informationen oder verlässliche Annahmen über den Funkkanal zum Abhörer verfügbar sind. Die Annahme perfekter Kanalkenntnis ist für einen passiven Abhörer jedoch kaum zu rechtfertigen. Daher wird hier ein deterministisches Modell für die Unsicherheit über den Kanal zum Abhörer eingeführt, was zu einer Menge möglicher Abhörkanäle führt. Die Optimierung der sogenannten Worst-Case-Rate in einem Mehrantennensystem mit Gaußschem Rauschen wird für beide Ansätze betrachtet. Es wird analysiert, mit welcher Sendestrategie die maximale Rate erreicht werden kann, wenn gleichzeitig angenommen wird, dass der Abhörer den zugehörigen Worst-Case-Kanal besitzt, welcher die Rate der abhörsicheren Kommunikation jeweils auf ein Minimum reduziert. Für beide Ansätze wird gezeigt, dass aus dem resultierenden Max-Min-Problem über die Matrizen des Mehrantennensystems ein äquivalentes Problem über die Eigenwerte der Matrizen abgeleitet werden kann. Die optimale Ressourcenverteilung für eine Summenleistungsbeschränkung über alle Sendeantennen wird charakterisiert. Für den jeweiligen Worst-Case-Kanal zum Abhörer, dessen Kanalgewinne einer Summenbeschränkung unterliegen, werden Waterfilling-Lösungen hergeleitet. Es wird gezeigt, dass für hohen Signal-Rausch-Abstand (engl. signal-to-noise ratio, SNR) alle Raten gegen endliche Grenzwerte konvergieren, wenn die Antennenzahl des Abhörers nicht beschränkt ist. Die Grenzwerte werden durch die Quotienten der Eigenwerte der Gram-Matrizen beider Kanäle bestimmt. Für den Ratenanstieg der direkten Übertragung ist bei niedrigem SNR nur die Differenz dieser Eigenwerte maßgeblich, wohingegen für den Verschlüsselungsansatz in dem Fall keine Abhängigkeit vom Kanal des Abhörers besteht. Ein Vergleich zeigt, dass das aktuelle SNR und die Qualität des Abhörkanals den einen oder anderen Ansatz begünstigen. Die direkte Übertragung ist bei niedrigem SNR und verhältnismäßig schlechten Abhörkanälen überlegen, wohingegen der Verschlüsselungsansatz von hohem SNR und vergleichsweise guten Abhörkanälen profitiert. Die Ergebnisse der Arbeit werden umfassend diskutiert und illustriert.
323

Workload Adaptive Cruise Control

Hajek, Wilfried 26 May 2016 (has links) (PDF)
This doctoral thesis focuses on the modification of ACC to include actual driver workload in the context of automatic headway change. ACC is a driver assistance system that automatically maintains a preliminary defined speed and permits a driver to perform manual headway changes. As drivers show worse (brake) reaction times under high workload situations, the system increases headway accordingly. Driver workload is estimated based on physiological data. Here, we investigate the possibilities of such a system, assuming that physiological sensors can be implemented in future vehicles. The thesis consists of three parts: In the first part, the theoretical background is described and a suitable theoretical model is developed; in the second part, experiments are described, and in the last part, results are discussed. Altogether four experiments support this thesis: 1. The first experiment investigates the foundational relationships between physiology, brake reaction time and workload level. The study employs a simulator setting and results show that physiological data, such as heart rate and skin conductance, permit the identification of different workload levels. These findings validate the results of other studies showing that workload leads to an increase in reaction time. These results could only be validated between the extremes “no-workload” and “high workload” situations. 2. The second experiment simulates an ideal workload-adaptive cruise control (WACC) system. In a simulator setting, system acceptance and awareness are studied, with a view toward future implementation in a real car. The results show better acceptance of WACC in comparison with ACC when subjects receive additional information about the new system. This is because subjects do not perceive changes in distance under high workload conditions. 3. The third experiment focuses on acceptance of the simulated system in on-road conditions. In this study, WACC is integrated in the car and is operated using a MATLAB model. The experiment shows that more subjects notice changes in distance in the on-road condition. In general WACC is preferred over ACC; it is especially these subjects who do not notice changes in distance, who value WACC more than ACC. With the aim of implementing an operational WACC that is capable of adjusting distance according to changes in physiological data, a workload algorithm is developed. 4. The fourth experiment validates the workload algorithm. Results of the algorithm are compared with recordings of the activated workload task and detection rate is calculated. The detection of workload periods was feasible in nearly every case and detection rate was favorable, especially if one considers lags due to design-related latency periods. The experiments presented here indicate that workload is detectable in physiological data and that it influences brake reaction time. Further, we provide evidence pointing to the technical possibility of implementing WACC as well as positive acceptance. The results have been published as an article and are part of this thesis. Also, some parts of the thesis are published as a book chapter (see footnotes). Another publication is in preparation, coauthored by diploma thesis students, who are supervised by the author (consult footnotes). This dissertation is composed, in part, of these publications. References to page numbers of the diploma theses are given to ensure correspondence. The author escorted the topic WACC from the beginning to the end. Sometimes students were involved and intensively supervised, from a thematic as well as a personnel guidance perspective. The author planned the whole project and executed studies and calculations. His psychology insights were not only limited to the discipline of psychology but were furthermore, with the help of students, interdisciplinarily expanded to the subject of informatics. Every study and every result which is presented within this work, was conducted or achieved by the author or (if students supported him) was discussed with the author in weekly discussions (and often several times a day). In these discussions the author provided new ideas and corrections if necessary. Apart from that, the author looked after the fulfillment of the central theme, implemented his psychological knowledge on a daily basis and provided his expertise to complement interdisciplinary point of views. He discussed the central theme as well as details with external partners like the MIT AgeLab as well as professors of the European Union from the adaption project (a project aimed at educating future researchers which includes involvement of highly important commercial and educational partners) and beyond. In this time he also visited conferences and accumulated knowledge which led to the successful achievements of the main objective and he was relevant in reaching the common goals of the adaption project. Furthermore he presented the results of the scientific work on a conference, workshops and in written publications. Within BMW Group Research and Technology, he identified important department- and project- partners and combined the knowledge to a result which benefits science and economy. / In dieser Dissertation wird eine Abwandlung des Active Cruise Control (ACC) untersucht, das zusätzlich die Belastung (Workload) des Fahrers als Parameter betrachtet, um den Abstand zum Vordermann automatisiert zu verändern. Bei diesem ACC handelt es sich um ein Fahrerassistenzsystem, das automatisiert die eingestellte Geschwindigkeit hält und eine manuelle (durch den Nutzer ausgelöste) Abstandsveränderung zum Vordermann ermöglicht. Da sich die Bremsreaktionszeit von Fahrern in hohen Belastungssituationen verschlechtert, soll das entwickelte Workload-adaptive Cruise Control (WACC) in Situationen hoher Belastung den Abstand zum Vordermann automatisiert erhöhen. Die Belastung des Fahrers soll durch physiologische Daten ermittelt werden. Die vorliegende Arbeit untersucht die Möglichkeit eines solchen Systems unter der Annahme, dass in Zukunft geeignete physiologische Sensoren ins Auto eingebaut werden können. Die Arbeit besteht aus drei Teilen: • Im ersten Teil wird der theoretische Hintergrund beschrieben und ein passendes theoretisches Modell entwickelt. • Im zweiten Teil werden die durchgeführten Experimente beschrieben. • Im dritten Teil werden die Ergebnisse diskutiert. Insgesamt wurden im Rahmen dieser Arbeit vier Experimente durchgeführt: Das erste Experiment beschäftigte sich mit den grundlegenden Zusammenhängen zwischen Physiologie, Bremsreaktionszeit und Belastungslevel. Wie die Ergebnisse der im Simulator durchgeführten Studie zeigen, können mit physiologischen Daten wie Herzrate, Herzratenvariabilität und Hautleitfähigkeit unterschiedliche Workloadlevel identifiziert werden. Darüber hinaus wurden die Ergebnisse anderer Studien bestätigt, die belegen, dass Workload die Bremsreaktionszeit erhöht, wobei dies nur im Kontrast zwischen den Extrembereichen „kein Workload“ und „hoher Workload“ nachweisbar ist. Das zweite Experiment diente der Simulierung eines perfekten WACC. Im Simulator wurden Akzeptanz und Systemwahrnehmung getestet, um vor der Implementierung in ein Realfahrzeug weitere Erkenntnisse zu gewinnen. Im Vergleich zum ACC wurde das WACC von den Probanden besser akzeptiert, nachdem sie zusätzliche Informationen zum neuen System erhalten hatten. Der wesentliche Grund dafür ist, dass die Probanden ohne Informationen die Abstandsveränderung bei hohem Workload nicht realisieren. Das dritte Experiment fokussierte auf die Akzeptanz des simulierten Systems unter Realbedingungen. Das WACC wurde in das Auto integriert und durch ein MATLAB Modell gesteuert. Als Ergebnis zeigte sich, dass unter Realbedingungen mehr Probanden die Abstandsveränderung realisieren als im Simulator. Generell wird das WACC präferiert – vor allem jene Probanden, die die Abstandsveränderung nicht realisieren, bewerten das WACC besser als das ACC. Mit den in diesem Teilexperiment erhobenen Daten wurde ein Algorithmus zur Workloaderkennung entwickelt. Auf dieser Basis konnte im letzten Experiment ein Realsystem implementiert werden, das aufgrund physiologischer Daten den Abstand verändert. Das vierte Experiment beschäftigte sich mit der Validierung des Algorithmus zur Workloaderkennung. Die Ergebnisse des Algorithmus wurden mit der aufgezeichneten Aktivierung des Workloadtasks verglichen und eine Detektionsrate ermittelt. Die Detektion der Workloadperioden gelingt in fast allen Fällen und die Detektionsrate ist vielversprechend, gerade wenn man Verzögerungen berücksichtigt, die wegen der Latenzzeit körperlicher Reaktionen nicht verbesserungsfähig sind. In den vorliegenden Experimenten konnte gezeigt werden, dass Workload über die Physiologie messbar ist und sich auf die Bremsreaktionszeit auswirkt. Darüber hinaus wurde gezeigt, dass ein WACC technisch machbar ist und die Ergebnisse lassen außerdem auf eine hohe Akzeptanz schließen. Die Forschungsergebnisse wurden in einem Artikel publiziert, der auch in dieser Dissertation zu finden ist. Teile der vorliegenden Arbeit wurden außerdem als Buchkapitel veröffentlicht (siehe Fußnoten), eine weitere Publikation mit den vom Autor umfassend betreuten Diplomanden ist in Ausarbeitung. Um die Nachvollziehbarkeit zu gewährleisten, wurde auf die Seitenzahlen der entsprechenden Diplomarbeiten verwiesen. Als Autor dieser Dissertation habe ich das Thema WACC von Anfang bis Ende selbst erarbeitet bzw. wurden Studenten eingesetzt und angeleitet, wo es sinnvoll erschien. Neben der fachlichen wie personellen Führung der Studenten umfassten meine Aufgaben die Planung des Gesamtprojekts, das Durchführen der Studien und die Berechnung von Kennzahlen – sowohl in meinem eigenen psychologischen Fachgebiet als auch interdisziplinär mit Hilfe von Experten aus der Informatik. Jedes Ergebnis, das in dieser Arbeit präsentiert wird, wurde entweder von mir selbst erzielt oder – sofern ich dabei von Studenten unterstützt wurde – mit mir in wöchentlichen (oft auch mehrmals täglich stattfindenden Meetings) besprochen. Wichtig war mir als Autor, einen durchgängigen Weg zur Entwicklung eines WACC zu wahren, mein psychologisches Fachwissen täglich anzuwenden und in interdisziplinären Aufgaben und Diskussionen meine Perspektive einzubringen. Besonders wichtig war dabei die Diskussion des Gesamtprojekts und der Details mit externen Partnern wie dem MIT AgeLab oder Professoren aus der Europäischen Union im Rahmen des Adaptation Projekts (ein von der EU gefördertes Projekt zur Ausbildung von Forschern, unter Einbindung wirtschaftlich und wissenschaftlich hochrangiger Partner). Durch die Präsentation der Ergebnisse auf Konferenzen, in Workshops und Publikationen konnte ich einen Beitrag dazu leisten, um die Adaptation-Ziele zu erreichen. Innerhalb der BMW Group Forschung und Technik habe ich darauf geachtet, relevante Schnittstellen- und Projektpartner zu identifizieren und das erlangte Wissen zu einem Ergebnis zu verbinden, das Wissenschaft und Wirtschaft gleichermaßen nützt.
324

Privacy trade-offs in web-based services

Boyens, Claus 13 January 2005 (has links)
Rapide Fortschritte in der Netzwerk- und Speichertechnologie haben dazu geführt, dass Informationen über viele verschiedene Quellen wie z.B. Personal Computer oder Datenbanken verstreut sind. Weil diese Informationen oft auch sehr heterogen sind, wurde gleichzeitig die Entwicklung effektiver Softwaretechniken zur Datensammlung und -integration vorangetrieben. Diese werden beispielsweise in Online-Katalogen von Bibliotheken oder in Internetsuchmaschinen eingesetzt und ermöglichen eine breitgefächerte Suche von Informationen unterschiedlichster Art und Herkunft. In sensiblen Anwendungsgebieten kann der Einsatz solcher Techniken aber zu einer Gefährdung der Privatsphäre der Datenhalter führen. Bei der Erforschung häufig auftretender Krankheiten beispielsweise sammeln und analysieren Wissenschaftler Patientendaten, um Muster mit hohem Erkrankungspotenzial zu erkennen. Dazu werden von den Forschern möglichst präzise und vollständige Daten benötigt. Der Patient hat dagegen großes Interesse am Schutz seiner persönlichen Daten. Dieser Interessenkonflikt zwischen Datenhaltern und Nutzern tritt auch in anderen Konstellationen wie beispielsweise in Internetdiensten auf, die die Eingabe von persönlichen Finanz- und Steuerdaten erfordern. Oft kann ein qualitativ höherwertiger Dienst angeboten werden, wenn persönliche Informationen preisgegeben werden. Über die hierzu notwendige Abwägung von Datenschutz und Dienstqualität sind sich nicht alle Datenhalter im Klaren und neigen zu Extremverhalten wie der Übermittlung aller persönlicher Daten oder gar keiner. Diese Dissertation erforscht den Grenzbereich zwischen den scheinbar konträren Interessen von Datenhaltern und Dienstnutzern. Dabei werden insbesondere die technischen Möglichkeiten zur Modellierung und Beschreibung dieses Bereiches betrachtet. Die erarbeiteten Techniken sollen den beteiligten Parteien ermöglichen, den bestehenden Konflikt unter Einbeziehung ihrer Präferenzen zur beiderseitigen Zufriedenheit zu lösen. Die Beiträge dieser Dissertation sind im Einzelnen: - Eine Klassifizierung von Dienstarchitekturen im Hinblick auf Datenschutzprobleme Verschiedene Dienstarchitekturen werden nach ihrer Datenschutzproblematik klassifiziert. Für jede Kategorie werden praktische Anwendungen erläutert. - Entwurf, Analyse und Implementierung einer verschlüsselungsbasierten Dienstarchitektur in einer nicht vertrauenswürdigen 2-Parteien-Umgebung Es werden Gründe für Vertrauen von Datenhaltern in Anbieter von netzbasierten Diensten dargestellt. Für Fälle, in denen dieses Vertrauen alleine nicht ausreicht, wird eine Datenschutz garantierende Dienstarchitektur abgeleitet, die auf einem modifizierten Verschlüsselungsalgorithmus basiert. Wichtige Datenbankoperationen und arithmetische Elemente werden auf die verschlüsselten Daten übertragen und in beispielhaften Diensten zum Einsatz gebracht. - Entwurf, Analyse und Implementierung einer aggregationsbasierten Dienstarchitektur in einer nicht vertrauenswürdigen 3-Parteien-Umgebung Am Beispiel eines den Datenschutz verletzenden Gesundheitsberichts wird gezeigt, wie Methoden des Operations Research dazu eingesetzt werden können, aus veröffentlichten Statistiken enge Intervalle für vertrauliche numerische Daten abzuleiten ("Intervallinferenz"). Zur Lösung des Interessenkonflikts zwischen Datenhaltern und Dienstnutzern wird die Verwendung eines sogenannten Datenschutzmediators vorgeschlagen. Dessen Kernkomponente ist die "Audit & Aggregate" Methodologie, die das Auftreten von Intervallinferenz aufdecken und verhindern kann. - Quantifizierung der Datenschutzabwägungen und Schlussfolgerungen für den elektronischen Handel Es werden verschiedene Ansätze zur Quantifizierung der Datenschutzabwägungen betrachtet und Schlussfolgerungen für den elektronischen Handel gezogen. Zusammengefasst versucht diese Arbeit, (a) die Wahrnehmung von Datenhaltern und Dienstnutzern für den bestehenden Interessenkonflikt zu erhöhen, (b) einen Rahmen zur Modellierung der Datenschutzabwägungen bereitzustellen und (c) Methoden zu entwickeln, die den Interessenkonflikt zur beiderseitigen Zufriedenheit beilegen können. / Recent developments in networking and storage technology have led to the dissemination of information over many different sources such as personal computers or corporate and public databases. As these information sources are often distributed and heterogeneous, effective tools for data collection and integration have been developed in parallel. These tools are employed e.g. in library search catalogues or in Internet search engines to facilitate information search over a wide range of different information sources. In more sensitive application areas however, the privacy of the data holders can be compromised. In medical disease research for example, scientists collect and analyze patient data for epidemiological characterizations and for the construction of predictive models. Whereas the medical researchers need patient data at the highest level of detail, patients are only willing to provide data when their privacy is guaranteed. This conflict of interest between the data holders and the users occurs in many different settings, for example in the use of web-based services that require confidential input data such as financial or tax data. The more accurate and rich the provided private information, the higher the quality of the provided service. Not all data holders are aware of this trade-off and for lack of knowledge tend to the extremes, i.e. provide no data or provide it all. This thesis explores the borderline between the competing interests of data holders and service users. In particular, we investigate the technical opportunities to model and describe this borderline. These techniques allow the two opposing parties to express their preferences and to settle the conflict with a solution that is satisfactory to both. The specific contributions of this thesis are the following: - Privacy classification of service architectures We present a privacy classification of different service architectures after the number of involved parties and the reactivity of the data provision. For each class, we provide examples of practical applications and explain their relevance by discussing preceding cases of real-world privacy violations. - Design, analysis and implementation of an encryption-based service architecture in an untrusted two-party environment We analyze the foundations of trust in web-based services and point out cases where trust in the service provider alone is not enough e.g. for legal requirements. For these cases, we derive a new privacy-preserving architecture that is based on an adapted homomorphic encryption algorithm. We map important database and arithmetic operations from plain data to encrypted data, and we present sample services that can be carried out within the framework. - Design, analysis and implementation of an aggregation-based service architecture in an untrusted three-party environment Using a privacy-compromising health report as a running example through the thesis, we show how mathematical programming can be used to derive tight intervals for confidential data fields from non-critical aggregated data. We propose a new class of privacy mediators that settle the conflict between data holders and service users. A core component is the "audit & aggregate" methodology that detects and limits this kind of disclosure called interval inference. - Quantification of the privacy trade-off and implications for electronic commerce and public policy We analyze several frameworks to quantify the trade-off between data holders and service users. We also discuss the implications of this trade-off for electronic commerce and public policy. To summarize, this thesis aims to (a) increase data holders'' and service users'' awareness of the privacy conflict, (b) to provide a framework to model the trade-off and (c) to develop methods that can settle the conflict to both parties'' satisfaction.
325

Secure name services for the internet of things

Fabian, Benjamin 30 September 2008 (has links)
Mit dem Begriff Internet der Dinge (IOT) wird eine im Entstehen begriffene globale, Internet-basierte Architektur von Informationsdiensten bezeichnet, die Informationen Ÿber mit RFID-Chips versehene GegenstŠnde bereitstellt. Das IOT soll den Informationsaustausch Ÿber GŸter in in globalen Logistiknetzen erleichtern, ihre Transparenz erhšhen und somit Effizienzsteigerungen erreichen. Namensdienste fŸr das IOT sind verteilte Systeme, die bei Eingabe eines Identifikators fŸr einen Gegenstand, z.B. eines Elektronischen Produktcodes (EPC), eine Liste von Internetadressen fŸr Dienste zurŸckgeben, die weitere Informationen Ÿber den Gegenstand anbieten. Die vorliegende Arbeit hat die Herausforderungen an die Informationssicherheit von IOT-Namensdiensten (IOTNS) zum Thema. Hierbei leisten wir die folgenden ForschungsbeitrŠge: Erstens werden die Anforderungen an einen IOTNS herausgearbeitet, wobei insbesondere mehrseitige Sicherheit und die Perspektive der IOTNS-Clients berŸcksichtigt werden, die in den Standards und der Forschungsliteratur zum IOT bisher vernachlŠssigt worden sind. Zweitens fŸhren wir eine Sicherheitsanalyse des einflu§reichen Standards Object Naming Service (ONS) durch. Drittens werden Verbesserungen des ONS diskutiert, die einen Teil der ONS-Sicherheitsprobleme beheben kšnnten, ohne den etablierten Standard vollstŠndig zu verŠndern. Hierbei werden insbesondere eine Architektur fŸr Multipolares ONS und ihr Prototyp vorgestellt, bei der die internationale AbhŠngigkeit von dem Land reduziert werden kann, das den ONS-Root kontrolliert. Viertens prŠsentieren wir eine neue IOTNS-Architektur und ihre Implementierung auf der Forschungsplattform PlanetLab, die auf verteilten Hashtabellen basiert und von der gezeigt wird, dass sie verbesserte Sicherheitseigenschaften gegenŸber ONS aufweist -- bei vergleichbarem oder sogar erhšhtem Grad an FunktionalitŠt, Skalierbarkeit und Systemleistung. / The term Internet of Things (IOT) describes an emerging global, Internet-based information service architecture for RFID-tagged items (Radio-Frequency Identification). In the vision of its proponents, this IOT will facilitate information exchange about goods in global supply chain networks, increase transparency, and enhance their efficiency. Name Services for the IOT are distributed systems that serve the following fundamental lookup function: Given an identifier for a real-world object, e.g., an Electronic Product Code (EPC), they return a list of Internet addresses of services, which offer additional information about this object. This thesis discusses the information security challenges involved in the design and use of an IOT Name Service (IOTNS). Our main contributions are the following: First, the requirements for an IOTNS are collected and discussed, including multilateral security and the client perspective, which have been neglected in IOT standards and research literature so far. Second, we conduct a detailed security analysis of the most influential standard Object Naming Service (ONS). This extends our previous article that initiated this new research line in the field of RFID and IOT security. Third, enhancements to ONS are discussed, which could mitigate some of the ONS security shortcomings in an evolutionary way without completely abandoning the established standard. In particular, we describe an architecture and prototype for Multipolar ONS, which reduces international dependency on a single country controlling the ONS Root. Fourth, we present a new IOTNS architecture based on Distributed Hash Tables (DHT) and its implementation on the research platform PlanetLab. This architecture is shown to offer enhanced overall security compared to ONS while delivering equivalent or even better functionality, scalability, and performance.
326

A new safeguard eliminates T cell receptor gene-modified auto-reactive T cells after adoptive therapy

Kieback, Elisa 23 October 2008 (has links)
Der adoptive Transfer von TZR-modifizierten T Zellen ist mit potentiellen Risiken verbunden. Autoimmunreaktionen können auftreten, wenn Tumor-assoziierte Antigene auf normalem Gewebe erkannt werden, Fehlpaarung der TZR-Ketten zur Bildung eines autoreaktiven Rezeptors führen oder ein sonst anerger auto-reaktiver endogener Rezeptor aktiviert wird. Auch besteht das Risiko der malignen Transformation der Zelle durch Insertionsmutagenese. Daher ist es notwendig, die transferierten T Zellen im Fall schwerer Nebenwirkungen eliminieren zu können. Derzeit verfügbare Sicherheitsmechanismen sind für die Therapie mit TZR-modifizierten T Zellen ungeeignet. In dieser Arbeit wurde ein neuer Sicherheitsansatz entwickelt, der auf einem TZR-intrinsischen Depletionsmechanismus beruht und TZR-veränderte T Zellen eliminieren kann. Durch Einfügen eines myc-tags in murine (OT-I, P14) und humane (gp100) TZRs konnten TZR-exprimierende T Zellen in vitro und in vivo mittels eines myc-spezifischen Antikörpers depletiert werden. Die T Zellen behielten vergleichbare Funktionalität hinsichtlich Antigenerkennung und Zytokinsekretion wie Zellen, die den Wild-Typ Rezeptor exprimierten. Die Depletion adoptiv transferierter T Zellen verhinderte lethalen Diabetes in einem Mausversuch. Im verwendeten Modell wurden Splenozyten, die einen myc-getagten OT-I TZR exprimierten, in RIP-mOVA Mäuse injiziert, welche in den Inselzellen des Pankreas das OT-I-spezifische Antigen Ovalbumin exprimieren. Zerstörung der Inselzellen durch die T-Zellen induzierte lethalen Diabetes in unbehandelten Mäusen. Tiere, denen ein myc-spezifischer Antikörper verabreicht wurde, zeigten keine Symptome. Dieser neuartige Sicherheitsmechanismus erlaubt es, adoptive T Zelltherapie abzubrechen, falls schwere Nebenwirkungen auftreten. Im Gegensatz zu früheren Strategien muss kein zusätzliches Sicherheitsgen eingebaut werden und die Sicherheit des Ansatzes wird durch Verlust oder Herunterregulierung des Transgens nicht beeinflusst. / Adoptive transfer of TCR gene-modified T lymphocytes into patients is associated with potential risk factors. First, auto-immunity may occur if a tumor-associated antigen is targeted on normal tissue, if TCR chain mispairing leads to the formation of an auto-reactive receptor or if an otherwise anergic endogenous receptor specific for an auto-antigen becomes activated. Second, retroviral integration could lead to malignant transformation of the T cell. Therefore, it is essential to have the possibility to deplete the transferred T cells in vivo in case of severe side effects. The available safety modalities comprise disadvantages rendering them less feasible for the application in therapy with TCR gene-modified T cells. In this study, a safeguard based on a TCR-intrinsic depletion mechanism has been developed that eliminates auto-reactive TCR-redirected T cells. By introducing a myc-tag into the murine (OT-I, P14) or human (gp100) TCRs it was possible to deplete TCR-expressing T cells in vitro and in vivo with a myc-specific antibody. The T cells maintained equal function compared to cells expressing the wild-type receptor as shown by antigen binding and cytokine secretion. Importantly, the in vivo depletion of adoptively transferred T cells prevented disease in an auto-immune mouse model. Here, splenocytes transduced with a myc-tagged OT-I TCR were injected into RIP-mOVA mice expressing the OT-I-specific antigen ovalbumin in the pancreatic beta-cells. Destruction of these cells by the adoptively transferred T cells led to severe diabetes in untreated mice. Animals receiving a myc-specific antibody after T cell transfer showed no increase in blood glucose levels. The developed safeguard allows termination of adoptive therapy in case of severe side-effects. The strategy is superior to previous ones as it relies on a TCR-intrinsic mechanism which does not require introduction of an additional gene and safety is not hampered by loss or low expression of the transgene.
327

Specification and verification of security policies for smart cards

Schwan, Matthias 23 May 2008 (has links)
Chipkarten sind ein fester Bestandteil unseres täglichen Lebens, das immer stärker von der Zuverlässigkeit derartiger Sicherheitssysteme abhängt, zum Beispiel Bezahlkarten, elektronische Gesundheitskarten oder Ausweisdokumente. Eine Sicherheitspolitik beschreibt die wichtigsten Sicherheitsziele und Sicherheitsfunktionen eines Systems und bildet die Grundlage für dessen zuverlässige Entwicklung. In der Arbeit konzentrieren wir uns auf multi-applikative Chipkartenbetriebssysteme und betrachten neue zusätzliche Sicherheitsziele, die dem Schutz der Kartenanwendungen dienen. Da die Qualität des Betriebssystems von der umgesetzten Sicherheitspolitik abhängt, ist deren Korrektheit von entscheidender Bedeutung. Mit einer Formalisierung können Zweideutigkeiten in der Interpretation ausgeschlossen und formale Beweistechniken angewendet werden. Bisherige formale Verifikationen von Sicherheitspolitiken beinhalten im allgemeinen den Nachweis von Safety-Eigenschaften. Wir verlangen zusätzlich die Betrachtung von Security-Eigenschaften, wobei aus heutiger Sicht beide Arten von Eigenschaften stets getrennt in unterschiedlichen Formalismen verifiziert werden. Die Arbeit stellt eine gemeinsame Spezifikations- und Verifikationsmethodik mit Hilfe von Observer-Modellen vor, die sowohl den Nachweis von Safety-Eigenschaften in einem TLA-Modell als auch den Nachweis von Security-Eigenschaften kryptografischer Protokolle in einem induktiven Modell erlaubt. Da wir alle Spezifikationen und Verifikationen im Werkzeug VSE-II durchführen, bietet das formale Modell der Sicherheitspolitik nicht nur einen abstrakten Blick auf das System, sondern dient gleichzeitig als abstrakte Systemspezifikation, die es in weiteren Entwicklungsschritten in VSE-II zu verfeinern gilt. Die vorgestellte Methodik der Integration beider Systemmodelle in VSE-II führt somit zu einer erhöhten und nachweisbaren Qualität von Sicherheitspolitiken und von Sicherheitssystemen. / Security systems that use smart cards are nowadays an important part of our daily life, which becomes increasingly dependent on the reliability of such systems, for example cash cards, electronic health cards or identification documents. Since a security policy states both the main security objectives and the security functions of a certain security system, it is the basis for the reliable system development. This work focuses on multi-applicative smart card operating systems and addresses new security objectives regarding the applications running on the card. As the quality of the operating system is determined by the underlying security policy, its correctness is of crucial importance. A formalization of it first provides an unambiguous interpretation and second allows for the analysis with mathematical precision. The formal verification of a security policy generally requires the verification of so-called safety properties; but in the proposed security policy we are additionally confronting security properties. At present, safety and security properties of formal system models are verified separately using different formalisms. In this work we first formalize a security policy in a TLA system specification to analyze safety properties and then separately verify security properties using an inductive model of cryptographic protocols. We provide a framework for combining both models with the help of an observer methodology. Since all specifications and proofs are performed with the tool VSE-II, the verified formal model of the security policy is not just an abstract view on the security system but becomes its high level specification, which shall be refined in further development steps also to be performed with the tool. Hence, the integration of the two approaches within the tool VSE-II leads to a new quality level of security policies and ultimately of the development of security systems.
328

Secure outspurcing of IT services in a non-trusted environment

Evdokimov, Sergei 10 October 2008 (has links)
In dieser Arbeit werden die Mšglichkeiten sicherer Ausgliederung von Datenbanken und inhaltsbasiertem Routing an einen nicht voll vertrauenswŸrdigen Dienstanbieter betrachtet. Wir untersuchen die Grenzen der Sicherheit, die in diesem Szenario erreicht werden kšnnen. Sicherheit wird dabei unter Zuhilfenahme aktueller komplexitŠtstheoretischer Arbeiten definiert. Dies ermšglicht die Verwendung formaler Methoden zur Untersuchung der Bedingungen, unter denen verschiedene Grade von Sicherheit mšglich sind. Die BeitrŠge dieser Dissertation sind im Einzelnen: - Wir untersuchen die Eignung sog. Privacy-Homomorphismen, welche die AusfŸhrung von Operationen auf verschlŸsselten Daten erlauben. Dies dient der Entwicklung von Protokollen zur sicheren Datenbankausgliederung. Weiter beschreiben wir ein allgemeines Framework fŸr sichere Datenbankausgliederung, das auf sog. Volltextsuch-VerschlŸsselungsverfahren basiert. Ferner stellen wir einen Beweis fŸr die Sicherheit und Korrektheit vor. - Wir beschreiben ein neues Volltextsuch-VerschlŸsselungsverfahren, das im Vergleich zu bekannten Arbeiten eine grš§ere Anzahl verschiedener Operationen fŸr das Datenbank-Outsourcing-Problem ermšglicht und signifikant niedrigere Fehlerraten hat. - Wir schlagen einen Ansatz vor, um im Kontext der sicheren Datenbank-Auslagerung Blanko-Zugriffe auf die verschlŸsselten Daten zu verwalten. Verglichen mit existierenden Techniken ist unser Ansatz anwendbar auf generellere Szenarien, ist einfacher und hat Šhnliche Effizienzeigenschaften. - Wir untersuchen die Mšglichkeit des sicheren inhaltsbasierten Routings, in dem wir ein formales Sicherheitsmodell konstruieren, existierende AnsŠtze in diesem Modell bewerten und eine formale Analyse der Mšglichkeit von Vertraulichkeit durchfŸhren. Unser Sicherheitsmodell deckt die UnzulŠnglichkeiten der bestehenden AnsŠtze auf. Schlie§lich beschreiben wir ein inhaltsbasiertes Routingverfahren, welches das Modell erfŸllt. / This thesis considers the possibilities of secure outsourcing of databases and of content-based routing operations to an untrusted service provider. We explore the limits of the security that is achievable in these scenarios. When discussing security, we refer to the state of the art definitions from cryptography and complexity theory. The key contributions of the thesis are the following: - We explore the applicability of cryptographic constructs that allow performing operations over encrypted data, also known as privacy homomorphisms, for creating protocols that could enable secure database outsourcing. We also describe a framework for secure database outsourcing that is based on searchable encryption schemes, and prove its correctness and security. - We describe a new searchable encryption scheme that exceeds existing analogues with regard to certain parameters: compared to the existing works, the proposed scheme allows for performing a larger number of operations over a securely outsourced database and has significantly lower chances of returning erroneous results of a search. - We propose an approach for managing discretionary access to securely outsourced and encrypted databases. Compared to existing techniques, our approach is applicable to more general scenarios, is simpler and has similar performance characteristics. - We examine possibilities of performing a secure content-based routing by building a formal security model that describes a secure content-based routing system, evaluate existing approaches against this model, and provide an analysis of the possibilities for achieving confidentiality when performing the routing. Compared to the existing works, which fail in providing complete confidentiality, our security model considers shortcomings of these solutions. We also describe a content-based routing system that satisfies this model and to the best of our knowledge is the first of its kind to provide a complete confidentiality.
329

Ein Beitrag zur ganzheitlichen Sicherheitsbetrachtung des Bahnsystems / Contribution to holistic safety analysis of the railway systems

Anders, Enrico 07 March 2009 (has links) (PDF)
Im Rahmen der Arbeit wird der Begriff Sicherheit aus verschiedenen Blickwinkeln beleuchtet, Randbedingungen aus Theorie und Praxis zielorientiert strukturiert und ein Vorschlag für eine Integration betrieblicher Aspekte in Sicherheitsanalysen dargelegt. Dazu werden zunächst die normativ verankerten Lebenszyklusphasen des Bahnsystems und die darin festgelegten Verantwortlichkeiten vorgestellt. Darauf aufbauend erfolgt die beispielhafte Beschreibung einer neuen Analysemethode in Verfügbarkeits-Sicherheits-Diagrammen für betriebliche Szenarien des Bahnsystems. Die Arbeit endet mit der Vorstellung des Modells zur ganzheitlichen Sicherheitsbetrachtung des Bahnsystems, welches die zuvor gewonnenen Erkenntnisse integriert und die Grundlage für das Zulassungsverfahren von Bahnanlagen mit betrieblichem Sicherheitsnachweis legt. / This thesis deals with the detailed analysis of the term safety from different points of view. The main target of the document is the integration of operational aspects within technical solutions for railway systems. Operational use-cases have been analyzed using the availability-safety-diagram. The document concludes with the introduction of a model for holistic safety-related consideration of railway systems.
330

Entwurfstechnische Grundlagen für ein Fahrerassistenzsystem zur Unterstützung des Fahrers bei der Wahl seiner Geschwindigkeit

Ebersbach, Dirk 20 December 2006 (has links) (PDF)
Durch die Entwicklung und Einführung moderner Fahrerassistenzsysteme soll der Komfort und die Sicherheit des Autofahrens erhöht werden. Das Fahrerassistenzsystem Speed Control verbindet die Ergebnisse der Forschungsarbeiten der letzten Jahre aus dem Bereich des Straßenentwurfs und der Fahrzeugtechnik. Dieses System warnt den Kraftfahrer vor sicherheitskritischen Stellen in der Linienführung von Außerortsstraßen. Es empfiehlt dem Fahrer eine sicher und komfortabel fahrbare Geschwindigkeit für den vorausliegenden Streckenabschnitt. Dafür wurden in Abhängigkeit des Fahrertyps Modelle zur Prognose und Beschreibung des Geschwindigkeits- und Beschleunigungsverhaltens entwickelt. Die Umgebungsbedingungen (Tag, nass) werden dabei mit beachtet. / By developing and implementing modern driver assistance systems the comfort and safety of driving shall be improved. The driver assistance system Speed Control combines the last year’s research work results in the fields of road design and automotive engineering. This system alerts the driver to safety critic spots in the alignment of roads. It recommends a safe and comfortable driving speed for the road segment ahead. Therefore driver type depending models to predict and describe the speed and acceleration behaviour were developed. Withal environmental conditions (day, wet) are regarded.

Page generated in 0.5851 seconds