11 |
Organizing Future: An Integrated Framework for the Emergence of Collective Self-transcending KnowledgeFeldhusen, Birgit 11 1900 (has links) (PDF)
Within dynamic 21st century knowledge economies, future-building knowledge, that bears capacities to transcend existing boundaries and create something new, is of particular importance. Within the first decade of the new century, new concepts such as "learning from the future" or "self-transcending knowledge" developed within knowledge management. So far, they lacked a theoretical grounding in relevant learning theory as well as a sound acknowledgement and consideration of such knowledge structures' emergence and social embeddedness. Thus, key principles and leverage factors for designing respective knowledge processes were difficult to derive.
This dissertation investigates theoretical ground that can provide a basis to explain the creation of future-building knowledge in collective structures. It is guided by the following research question: "How can the emergence of self-transcending knowledge in collective organizational settings be rooted in theories of knowledge, learning and cognition?"
Starting from the model of knowledge-based management, the model is expanded by exploring cognitive, creative and social systemic aspects of knowledge creation on a transdisciplinary basis. Research draws on constructivist learning theory, complexity-based approaches in knowledge management and organizational learning, recent accounts in cognitive science (enaction/embodiment) and a creative logic of emergence to derive an integrated model for collective self-transcending knowledge.
The model contributes to the integration of knowledge management, organizational learning and cognitive science, expanding knowledge-based management towards attention-based management. The model's three dimensions and three domains form an integrated theoretical basis to derive key principles and leverage factors for steering future-building knowledge processes. Simultaneously, they reveal leverage factors' limited - i.e. enabling, not determining - impact on processes of "organizing future".
(author's abstract)
|
12 |
Privacy trade-offs in web-based servicesBoyens, Claus 13 January 2005 (has links)
Rapide Fortschritte in der Netzwerk- und Speichertechnologie haben dazu geführt, dass Informationen über viele verschiedene Quellen wie z.B. Personal Computer oder Datenbanken verstreut sind. Weil diese Informationen oft auch sehr heterogen sind, wurde gleichzeitig die Entwicklung effektiver Softwaretechniken zur Datensammlung und -integration vorangetrieben. Diese werden beispielsweise in Online-Katalogen von Bibliotheken oder in Internetsuchmaschinen eingesetzt und ermöglichen eine breitgefächerte Suche von Informationen unterschiedlichster Art und Herkunft. In sensiblen Anwendungsgebieten kann der Einsatz solcher Techniken aber zu einer Gefährdung der Privatsphäre der Datenhalter führen. Bei der Erforschung häufig auftretender Krankheiten beispielsweise sammeln und analysieren Wissenschaftler Patientendaten, um Muster mit hohem Erkrankungspotenzial zu erkennen. Dazu werden von den Forschern möglichst präzise und vollständige Daten benötigt. Der Patient hat dagegen großes Interesse am Schutz seiner persönlichen Daten. Dieser Interessenkonflikt zwischen Datenhaltern und Nutzern tritt auch in anderen Konstellationen wie beispielsweise in Internetdiensten auf, die die Eingabe von persönlichen Finanz- und Steuerdaten erfordern. Oft kann ein qualitativ höherwertiger Dienst angeboten werden, wenn persönliche Informationen preisgegeben werden. Über die hierzu notwendige Abwägung von Datenschutz und Dienstqualität sind sich nicht alle Datenhalter im Klaren und neigen zu Extremverhalten wie der Übermittlung aller persönlicher Daten oder gar keiner. Diese Dissertation erforscht den Grenzbereich zwischen den scheinbar konträren Interessen von Datenhaltern und Dienstnutzern. Dabei werden insbesondere die technischen Möglichkeiten zur Modellierung und Beschreibung dieses Bereiches betrachtet. Die erarbeiteten Techniken sollen den beteiligten Parteien ermöglichen, den bestehenden Konflikt unter Einbeziehung ihrer Präferenzen zur beiderseitigen Zufriedenheit zu lösen. Die Beiträge dieser Dissertation sind im Einzelnen: - Eine Klassifizierung von Dienstarchitekturen im Hinblick auf Datenschutzprobleme Verschiedene Dienstarchitekturen werden nach ihrer Datenschutzproblematik klassifiziert. Für jede Kategorie werden praktische Anwendungen erläutert. - Entwurf, Analyse und Implementierung einer verschlüsselungsbasierten Dienstarchitektur in einer nicht vertrauenswürdigen 2-Parteien-Umgebung Es werden Gründe für Vertrauen von Datenhaltern in Anbieter von netzbasierten Diensten dargestellt. Für Fälle, in denen dieses Vertrauen alleine nicht ausreicht, wird eine Datenschutz garantierende Dienstarchitektur abgeleitet, die auf einem modifizierten Verschlüsselungsalgorithmus basiert. Wichtige Datenbankoperationen und arithmetische Elemente werden auf die verschlüsselten Daten übertragen und in beispielhaften Diensten zum Einsatz gebracht. - Entwurf, Analyse und Implementierung einer aggregationsbasierten Dienstarchitektur in einer nicht vertrauenswürdigen 3-Parteien-Umgebung Am Beispiel eines den Datenschutz verletzenden Gesundheitsberichts wird gezeigt, wie Methoden des Operations Research dazu eingesetzt werden können, aus veröffentlichten Statistiken enge Intervalle für vertrauliche numerische Daten abzuleiten ("Intervallinferenz"). Zur Lösung des Interessenkonflikts zwischen Datenhaltern und Dienstnutzern wird die Verwendung eines sogenannten Datenschutzmediators vorgeschlagen. Dessen Kernkomponente ist die "Audit & Aggregate" Methodologie, die das Auftreten von Intervallinferenz aufdecken und verhindern kann. - Quantifizierung der Datenschutzabwägungen und Schlussfolgerungen für den elektronischen Handel Es werden verschiedene Ansätze zur Quantifizierung der Datenschutzabwägungen betrachtet und Schlussfolgerungen für den elektronischen Handel gezogen. Zusammengefasst versucht diese Arbeit, (a) die Wahrnehmung von Datenhaltern und Dienstnutzern für den bestehenden Interessenkonflikt zu erhöhen, (b) einen Rahmen zur Modellierung der Datenschutzabwägungen bereitzustellen und (c) Methoden zu entwickeln, die den Interessenkonflikt zur beiderseitigen Zufriedenheit beilegen können. / Recent developments in networking and storage technology have led to the dissemination of information over many different sources such as personal computers or corporate and public databases. As these information sources are often distributed and heterogeneous, effective tools for data collection and integration have been developed in parallel. These tools are employed e.g. in library search catalogues or in Internet search engines to facilitate information search over a wide range of different information sources. In more sensitive application areas however, the privacy of the data holders can be compromised. In medical disease research for example, scientists collect and analyze patient data for epidemiological characterizations and for the construction of predictive models. Whereas the medical researchers need patient data at the highest level of detail, patients are only willing to provide data when their privacy is guaranteed. This conflict of interest between the data holders and the users occurs in many different settings, for example in the use of web-based services that require confidential input data such as financial or tax data. The more accurate and rich the provided private information, the higher the quality of the provided service. Not all data holders are aware of this trade-off and for lack of knowledge tend to the extremes, i.e. provide no data or provide it all. This thesis explores the borderline between the competing interests of data holders and service users. In particular, we investigate the technical opportunities to model and describe this borderline. These techniques allow the two opposing parties to express their preferences and to settle the conflict with a solution that is satisfactory to both. The specific contributions of this thesis are the following: - Privacy classification of service architectures We present a privacy classification of different service architectures after the number of involved parties and the reactivity of the data provision. For each class, we provide examples of practical applications and explain their relevance by discussing preceding cases of real-world privacy violations. - Design, analysis and implementation of an encryption-based service architecture in an untrusted two-party environment We analyze the foundations of trust in web-based services and point out cases where trust in the service provider alone is not enough e.g. for legal requirements. For these cases, we derive a new privacy-preserving architecture that is based on an adapted homomorphic encryption algorithm. We map important database and arithmetic operations from plain data to encrypted data, and we present sample services that can be carried out within the framework. - Design, analysis and implementation of an aggregation-based service architecture in an untrusted three-party environment Using a privacy-compromising health report as a running example through the thesis, we show how mathematical programming can be used to derive tight intervals for confidential data fields from non-critical aggregated data. We propose a new class of privacy mediators that settle the conflict between data holders and service users. A core component is the "audit & aggregate" methodology that detects and limits this kind of disclosure called interval inference. - Quantification of the privacy trade-off and implications for electronic commerce and public policy We analyze several frameworks to quantify the trade-off between data holders and service users. We also discuss the implications of this trade-off for electronic commerce and public policy. To summarize, this thesis aims to (a) increase data holders'' and service users'' awareness of the privacy conflict, (b) to provide a framework to model the trade-off and (c) to develop methods that can settle the conflict to both parties'' satisfaction.
|
13 |
Secure name services for the internet of thingsFabian, Benjamin 30 September 2008 (has links)
Mit dem Begriff Internet der Dinge (IOT) wird eine im Entstehen begriffene globale, Internet-basierte Architektur von Informationsdiensten bezeichnet, die Informationen Ÿber mit RFID-Chips versehene GegenstŠnde bereitstellt. Das IOT soll den Informationsaustausch Ÿber GŸter in in globalen Logistiknetzen erleichtern, ihre Transparenz erhšhen und somit Effizienzsteigerungen erreichen. Namensdienste fŸr das IOT sind verteilte Systeme, die bei Eingabe eines Identifikators fŸr einen Gegenstand, z.B. eines Elektronischen Produktcodes (EPC), eine Liste von Internetadressen fŸr Dienste zurŸckgeben, die weitere Informationen Ÿber den Gegenstand anbieten. Die vorliegende Arbeit hat die Herausforderungen an die Informationssicherheit von IOT-Namensdiensten (IOTNS) zum Thema. Hierbei leisten wir die folgenden ForschungsbeitrŠge: Erstens werden die Anforderungen an einen IOTNS herausgearbeitet, wobei insbesondere mehrseitige Sicherheit und die Perspektive der IOTNS-Clients berŸcksichtigt werden, die in den Standards und der Forschungsliteratur zum IOT bisher vernachlŠssigt worden sind. Zweitens fŸhren wir eine Sicherheitsanalyse des einflu§reichen Standards Object Naming Service (ONS) durch. Drittens werden Verbesserungen des ONS diskutiert, die einen Teil der ONS-Sicherheitsprobleme beheben kšnnten, ohne den etablierten Standard vollstŠndig zu verŠndern. Hierbei werden insbesondere eine Architektur fŸr Multipolares ONS und ihr Prototyp vorgestellt, bei der die internationale AbhŠngigkeit von dem Land reduziert werden kann, das den ONS-Root kontrolliert. Viertens prŠsentieren wir eine neue IOTNS-Architektur und ihre Implementierung auf der Forschungsplattform PlanetLab, die auf verteilten Hashtabellen basiert und von der gezeigt wird, dass sie verbesserte Sicherheitseigenschaften gegenŸber ONS aufweist -- bei vergleichbarem oder sogar erhšhtem Grad an FunktionalitŠt, Skalierbarkeit und Systemleistung. / The term Internet of Things (IOT) describes an emerging global, Internet-based information service architecture for RFID-tagged items (Radio-Frequency Identification). In the vision of its proponents, this IOT will facilitate information exchange about goods in global supply chain networks, increase transparency, and enhance their efficiency. Name Services for the IOT are distributed systems that serve the following fundamental lookup function: Given an identifier for a real-world object, e.g., an Electronic Product Code (EPC), they return a list of Internet addresses of services, which offer additional information about this object. This thesis discusses the information security challenges involved in the design and use of an IOT Name Service (IOTNS). Our main contributions are the following: First, the requirements for an IOTNS are collected and discussed, including multilateral security and the client perspective, which have been neglected in IOT standards and research literature so far. Second, we conduct a detailed security analysis of the most influential standard Object Naming Service (ONS). This extends our previous article that initiated this new research line in the field of RFID and IOT security. Third, enhancements to ONS are discussed, which could mitigate some of the ONS security shortcomings in an evolutionary way without completely abandoning the established standard. In particular, we describe an architecture and prototype for Multipolar ONS, which reduces international dependency on a single country controlling the ONS Root. Fourth, we present a new IOTNS architecture based on Distributed Hash Tables (DHT) and its implementation on the research platform PlanetLab. This architecture is shown to offer enhanced overall security compared to ONS while delivering equivalent or even better functionality, scalability, and performance.
|
14 |
Secure outspurcing of IT services in a non-trusted environmentEvdokimov, Sergei 10 October 2008 (has links)
In dieser Arbeit werden die Mšglichkeiten sicherer Ausgliederung von Datenbanken und inhaltsbasiertem Routing an einen nicht voll vertrauenswŸrdigen Dienstanbieter betrachtet. Wir untersuchen die Grenzen der Sicherheit, die in diesem Szenario erreicht werden kšnnen. Sicherheit wird dabei unter Zuhilfenahme aktueller komplexitŠtstheoretischer Arbeiten definiert. Dies ermšglicht die Verwendung formaler Methoden zur Untersuchung der Bedingungen, unter denen verschiedene Grade von Sicherheit mšglich sind. Die BeitrŠge dieser Dissertation sind im Einzelnen: - Wir untersuchen die Eignung sog. Privacy-Homomorphismen, welche die AusfŸhrung von Operationen auf verschlŸsselten Daten erlauben. Dies dient der Entwicklung von Protokollen zur sicheren Datenbankausgliederung. Weiter beschreiben wir ein allgemeines Framework fŸr sichere Datenbankausgliederung, das auf sog. Volltextsuch-VerschlŸsselungsverfahren basiert. Ferner stellen wir einen Beweis fŸr die Sicherheit und Korrektheit vor. - Wir beschreiben ein neues Volltextsuch-VerschlŸsselungsverfahren, das im Vergleich zu bekannten Arbeiten eine grš§ere Anzahl verschiedener Operationen fŸr das Datenbank-Outsourcing-Problem ermšglicht und signifikant niedrigere Fehlerraten hat. - Wir schlagen einen Ansatz vor, um im Kontext der sicheren Datenbank-Auslagerung Blanko-Zugriffe auf die verschlŸsselten Daten zu verwalten. Verglichen mit existierenden Techniken ist unser Ansatz anwendbar auf generellere Szenarien, ist einfacher und hat Šhnliche Effizienzeigenschaften. - Wir untersuchen die Mšglichkeit des sicheren inhaltsbasierten Routings, in dem wir ein formales Sicherheitsmodell konstruieren, existierende AnsŠtze in diesem Modell bewerten und eine formale Analyse der Mšglichkeit von Vertraulichkeit durchfŸhren. Unser Sicherheitsmodell deckt die UnzulŠnglichkeiten der bestehenden AnsŠtze auf. Schlie§lich beschreiben wir ein inhaltsbasiertes Routingverfahren, welches das Modell erfŸllt. / This thesis considers the possibilities of secure outsourcing of databases and of content-based routing operations to an untrusted service provider. We explore the limits of the security that is achievable in these scenarios. When discussing security, we refer to the state of the art definitions from cryptography and complexity theory. The key contributions of the thesis are the following: - We explore the applicability of cryptographic constructs that allow performing operations over encrypted data, also known as privacy homomorphisms, for creating protocols that could enable secure database outsourcing. We also describe a framework for secure database outsourcing that is based on searchable encryption schemes, and prove its correctness and security. - We describe a new searchable encryption scheme that exceeds existing analogues with regard to certain parameters: compared to the existing works, the proposed scheme allows for performing a larger number of operations over a securely outsourced database and has significantly lower chances of returning erroneous results of a search. - We propose an approach for managing discretionary access to securely outsourced and encrypted databases. Compared to existing techniques, our approach is applicable to more general scenarios, is simpler and has similar performance characteristics. - We examine possibilities of performing a secure content-based routing by building a formal security model that describes a secure content-based routing system, evaluate existing approaches against this model, and provide an analysis of the possibilities for achieving confidentiality when performing the routing. Compared to the existing works, which fail in providing complete confidentiality, our security model considers shortcomings of these solutions. We also describe a content-based routing system that satisfies this model and to the best of our knowledge is the first of its kind to provide a complete confidentiality.
|
15 |
Tracking domain knowledge based on segmented textual sourcesKalledat, Tobias 11 May 2009 (has links)
Die hier vorliegende Forschungsarbeit hat zum Ziel, Erkenntnisse über den Einfluss der Vorverarbeitung auf die Ergebnisse der Wissensgenerierung zu gewinnen und konkrete Handlungsempfehlungen für die geeignete Vorverarbeitung von Textkorpora in Text Data Mining (TDM) Vorhaben zu geben. Der Fokus liegt dabei auf der Extraktion und der Verfolgung von Konzepten innerhalb bestimmter Wissensdomänen mit Hilfe eines methodischen Ansatzes, der auf der waagerechten und senkrechten Segmentierung von Korpora basiert. Ergebnis sind zeitlich segmentierte Teilkorpora, welche die Persistenzeigenschaft der enthaltenen Terme widerspiegeln. Innerhalb jedes zeitlich segmentierten Teilkorpus können jeweils Cluster von Termen gebildet werden, wobei eines diejenigen Terme enthält, die bezogen auf das Gesamtkorpus nicht persistent sind und das andere Cluster diejenigen, die in allen zeitlichen Segmenten vorkommen. Auf Grundlage einfacher Häufigkeitsmaße kann gezeigt werden, dass allein die statistische Qualität eines einzelnen Korpus es erlaubt, die Vorverarbeitungsqualität zu messen. Vergleichskorpora sind nicht notwendig. Die Zeitreihen der Häufigkeitsmaße zeigen signifikante negative Korrelationen zwischen dem Cluster von Termen, die permanent auftreten, und demjenigen das die Terme enthält, die nicht persistent in allen zeitlichen Segmenten des Korpus vorkommen. Dies trifft ausschließlich auf das optimal vorverarbeitete Korpus zu und findet sich nicht in den anderen Test Sets, deren Vorverarbeitungsqualität gering war. Werden die häufigsten Terme unter Verwendung domänenspezifischer Taxonomien zu Konzepten gruppiert, zeigt sich eine signifikante negative Korrelation zwischen der Anzahl unterschiedlicher Terme pro Zeitsegment und den einer Taxonomie zugeordneten Termen. Dies trifft wiederum nur für das Korpus mit hoher Vorverarbeitungsqualität zu. Eine semantische Analyse auf einem mit Hilfe einer Schwellenwert basierenden TDM Methode aufbereiteten Datenbestand ergab signifikant unterschiedliche Resultate an generiertem Wissen, abhängig von der Qualität der Datenvorverarbeitung. Mit den in dieser Forschungsarbeit vorgestellten Methoden und Maßzahlen ist sowohl die Qualität der verwendeten Quellkorpora, als auch die Qualität der angewandten Taxonomien messbar. Basierend auf diesen Erkenntnissen werden Indikatoren für die Messung und Bewertung von Korpora und Taxonomien entwickelt sowie Empfehlungen für eine dem Ziel des nachfolgenden Analyseprozesses adäquate Vorverarbeitung gegeben. / The research work available here has the goal of analysing the influence of pre-processing on the results of the generation of knowledge and of giving concrete recommendations for action for suitable pre-processing of text corpora in TDM. The research introduced here focuses on the extraction and tracking of concepts within certain knowledge domains using an approach of horizontally (timeline) and vertically (persistence of terms) segmenting of corpora. The result is a set of segmented corpora according to the timeline. Within each timeline segment clusters of concepts can be built according to their persistence quality in relation to each single time-based corpus segment and to the whole corpus. Based on a simple frequency measure it can be shown that only the statistical quality of a single corpus allows measuring the pre-processing quality. It is not necessary to use comparison corpora. The time series of the frequency measure have significant negative correlations between the two clusters of concepts that occur permanently and others that vary within an optimal pre-processed corpus. This was found to be the opposite in every other test set that was pre-processed with lower quality. The most frequent terms were grouped into concepts by the use of domain-specific taxonomies. A significant negative correlation was found between the time series of different terms per yearly corpus segments and the terms assigned to taxonomy for corpora with high quality level of pre-processing. A semantic analysis based on a simple TDM method with significant frequency threshold measures resulted in significant different knowledge extracted from corpora with different qualities of pre-processing. With measures introduced in this research it is possible to measure the quality of applied taxonomy. Rules for the measuring of corpus as well as taxonomy quality were derived from these results and advice suggested for the appropriate level of pre-processing.
|
16 |
Potentielle Funktionen von Wissensmanagement in Öffentlichen BibliothekenBecker, Thomas 05 May 2015 (has links)
Nach der Herleitung und Skizzierung der ‚szenariobasierten Delphi-Studie’ als Untersuchungsmethode und Präsentation des Forschungsdesigns werden Konzepte von Wissensmanagement über einen Literatur-Review in den Kontext des aktuellen Forschungsstandes gestellt. Diese Bestandsaufnahme der Gegenwart ist in erster Linie abgeleitet aus Fachveröffentlichungen zum Wissensmanagement im Allgemeinen und denen der BID-Community im Besonderen. Welche Rolle spielt Wissensmanagement gegenwärtig in der bibliothekarischen Praxis Öffentlicher Bibliotheken der im Untersuchungsfokus stehenden Nationen? Was verbindet die Arbeit mit Wissensmanagement in den Öffentlichen Bibliotheken der beiden Nationen und (wo) sind Unterschiede zu finden? Diese Verifizierung des Status quo ist nur ein Teil der vorliegenden Arbeit, Schwerpunkt bildet der Blick in die kommende Zeit. Hat Wissensmanagement eine Zukunft in der Öffentlichen Bibliothek? Wenn ja, wie sieht diese aus und in welcher Intention wird Wissensmanagement eingesetzt? Stellt es mehr als nur ein Instrument der innerbetrieblichen Organisationsoptimierung dar? Wird Wissensmanagement im Sinne des Erwerbs von Demokratiekompetenz an den Endkunden quasi als Werkzeugkoffer weitergegeben? Hilft es den Öffentlichen Bibliotheken im Sinne einer systemischen kommunalen Legitimierung? Mit den Methoden Szenariotechnik und Delphi-Studie werden auf Basis der Aussagen ausgewählter Wissensexperten aus den Großstadtbibliotheken beider Länder Trendprojektionen erstellt, die ihrerseits in einem die Studie abschließenden konsensualen Szenario münden. Auf dem Weg dorthin werden im Laufe von iterativen Befragungen zudem für die Praxis adaptierbare Handlungsoptionen für die Öffentliche Bibliothek der Zukunft generiert und anhand ausgewählter Expertenaussagen im Sinne von Best-Practise-Beispielen und -Ideen in die Arbeit integriert. / Following the establishment and outline evaluation of the “scenario based Delphi-Study” as a medium of examination and presentation of research design, knowledge management concepts were put into context in alignment with the current research status by means of a literary review. This inventory of present conditions is primarily based on scientific publications on the subject of knowledge management in general and those of the LIS commu-nity in particular. What is the current role of knowledge management in the practical operation of public libraries in the two countries that provided the study focus? Which areas in the application of knowledge management in public libraries show similarities, and where can we identify specific differences? Whilst verification of the status quo is part of the study, the main focus is on looking into the future. Does knowledge management actually have a future within public libraries? If so, what does this future look like and what does it hold for the intended application of knowledge management? Will knowledge management become more than an instrument aimed at optimising organisational potential, and as a result develop into a quasi-education tool to be passed on directly to the end consumer? Will it serve to assist public libraries in achieving a sense of systemic, communal legitimacy? Through the application of the Scenario-technique and Delphi-study concept trend projections were established for both countries based on the statements by selected ‘knowledge experts’ of public libraries in both Germany and the UK, and subsequently fused into a conclusive consensual scenario. Along the way, practical and adaptable application options for the public library of the future were generated and integrated with a view to best practice examples and ideas from the selected expert testimonials.
|
17 |
Data confidentiality and reputation schemes in distributed information systemsFischmann, Matthias 11 September 2008 (has links)
Diese Arbeit betrachtet zwei anspruchsvolle Probleme aus dem Bereich Computer- und Kommunikationssicherheit und Vertrauen. Beim Datenbank-Serviceprovider-Problem moechte ein Anwender seine Datenbank an einen Datenbank-Serviceprovider (DSP) uebergeben, damit dieser sie betreiben und ihm zur Verfuegung stellen kann. Er vertraut diesem DSP, und damit auch vertraglichen Abmachungen, nur bedingt und muss die Vertraulichkeit seiner Daten durch technische Massnahmen sicherstellen. Das zweite Problem ist das Verbreiten verlaesslicher Reputationsinformation ueber eine (moeglicherweise sehr grosse) Anzahl von Netzwerk-Knoten in einer Peer-to-Peer-Umgebung (P2P). Beide Probleme straeuben sich hartnaeckig gegen einfache Loesungen. Im Gegensatz zu traditionellen Sicherheitsproblemen in der Informatik hat der Gegner in beiden ein hohes Mass an Kontrolle ueber die Situation. Der nicht ausreichend vertrauenswuerdige DSP muss in der Lage sein, die Daten seines Kunden zu verarbeiten, ohne etwas ueber sie zu lernen, was intuitiv wie ein Widerspruch erscheint. In P2P-Anwendungen ist es wuenschenswert, dass Knoten anonym beitreten und jederzeit wieder austreten koennen, aber diese Anonymitaet erleichtert es, falsche Reputationsinformation zu verbreiten. Ein Knoten, der erstmalig in ein P2P-Netzwerk eintritt, muss den behaupteten Beobachtungen anderer Knoten vertrauen. Die Resultate dieser Arbeit sind keine Idealloesungen, und dennoch aufschlussreich in mehrerlei Hinsicht: Es werden gelockerte, aber immer noch nuetzliche Sicherheitsbegriffe fuer das DSP-Problem vorgeschlagen; es werden theoretische Grenzen des DSP-Loesungsraums gezogen; und die Auswirkung feindseligen Verhaltens in P2P-Reputationssystemen wird durch heuristische Methoden reduziert. Ein Nebeneffekt unserer Arbeit ist ein speziell fuer Reputationssysteme in P2P-Netzwerken geeignetes Simulations-Tool, das zum Vergleich und zum Fine-Tuning bestehender und zukuenftiger Forschungsarbeiten genutzt werden kann. / In this thesis we discuss two demanding problems from the field of computer and communication security that involve trust. The first is known as the database service provider problem: A database owner wants a database service provider (DSP) to host her database. She only trusts this DSP to a limited extent, so she does not want to rely solely on contractual solutions. It is therefore necessary to enforce confidentiality of her data by technical means. The second problem concerns a (potentially very large) number of network nodes in a peer-to-peer (P2P) environment. Both problems are notoriously hard because, other than in traditional computer security problems, the adversary has a lot of control over the situation. The untrusted DSP needs to be able to process the data without learning anything about it, which seems to be a contradiction. In P2P applications it is desirable that nodes can join anonymously, but anonymity makes it easy to spread false reputation information. A node that enters a P2P application network for the first time needs to trust the claimed observations of other nodes, independent of the rate of malicious behaviour. Our findings are not perfect solutions, but nevertheless instructive in several ways: We propose relaxed, but still practically useful, notions of security for the DSP problem; we identify theoretical limitations of the DSP solution space; and we gradually reduce the impact of adversarial behaviour in P2P reputation systems using heuristic methods. As a side effect of our work, we present a special-purpose framework for simulation of P2P reputation systems that can be used to compare and fine-tune previous and upcoming work.
|
18 |
Netzbasierte DiensteTamm, Gerrit 27 May 2003 (has links)
Die vorliegende Dissertation präsentiert eine umfassende Analyse und Strukturierung des Marktes für netzbasierte Dienste. Basierend auf einer detaillierten Untersuchung des ASP-Angebotes und der ASP-Nachfrage in Europa werden geeignete Institutionen und Informationssubstitute für die Anpassung (Matching) des ASP-Angebotes und der ASP-Nachfrage identifiziert und getestet. Die Strukturierung der Angebotsseite umfasst neben der Bewertung der Marktlage die Entwicklung der ASP-Wertschöpfungskette, die Einordnung in die Systematik der digitalen Güter, die Beschreibung der ASP-Technologien und -Geschäftsmodelle und den Vergleich des ASP-Geschäftsmodells mit der klassischen Softwarenutzung und dem Konzept der virtuellen Organisationen. Die Ergebnisse der Untersuchungen zeigen vorhandene Defizite in der Informations- und Kommunikationspolitik der ASP-Angebotsseite auf. Für die Strukturierung der Nachfrageseite für netzbasierte Dienste werden die Theorien der Auslagerung (Outsourcing) von Informationstechnologien, die Methoden und Instrumente der Kosten- und Nutzenmessung und die Theorie der Transaktionsphasen der Auslagerung angewendet. Kern der wissenschaftlichen Untersuchung bildet die empirische Untersuchung des ASP-Nachfragemarktes in Deutschland und anderen europäischen Ländern. Die Erkenntnisse der Analyse des ASP-Angebotes und der ASP-Nachfrage werden gegenübergestellt und Methoden zur Abstimmung von ASP-Angebot und Nachfrage mit Hilfe der Transaktionskostentheorie und den Theorien der Informations- und Institutionenökonomie abgeleitet. Barrieren, Intransparenzen und Informationsasymmetrien werden auf beiden Seiten aufgezeigt und darauf aufbauend Informationssubstitute für netzbasierte Dienste identifiziert. Erfahrungs- und Vertrauenseigenschaften werden mit Hilfe von Informationssubstituten in einem Onlinebefragungsexperiment hinsichtlich der Wahrnehmung, Wirkung und möglicher Zahlungsbereitschaften überprüft. Aus den Ergebnissen des Onlinebefragungsexperimentes werden Anforderungen an die Informations- und Kommunikationspolitik und Strategien zur Reduzierung der Informationsasymmetrie für netzbasierte Dienste entwickelt. Das Ergebnis der Arbeit ist die Ableitung relevanter Kriterien für die Darstellung und Bewertung der Leistungsbündel netzbasierter Dienste und die Entwicklung von Strategien zur Reduzierung der Transaktionsunsicherheit durch die Identifizierung und Integration von Informationssubstituten für netzbasierte Dienste. / This dissertation presents a comprehensive analysis and conceptual framework of the web-based Application Service Provider (ASP) market. Based on a detailed analysis of ASP supply and demand in Europe, appropriate institutions and information substitutes for the matching process on the ASP market are identified and evaluated. The conceptual framework for the supply side is developed by evaluating the market situation, designing an ASP value chain, classifying digital goods, describing the ASP technologies and business models. These are then compared with the classic model of software utilization and the concept of virtual organizations. The results indicate present deficits in the supply-side information and communication policy. For ASP demand, theories of outsourcing of information technologies, methods and instruments of cost-and-utility-measuring and the theory of transaction phases of outsourcing are used. The basis for both supply-side and demand-side evaluations is an empirical analysis of the European ASP market. We compare the outcome of the supply and demand analyses and derive methods for their coordination by the transaction cost theory and the theories of information and institution economy. Barriers, lack of transparencies and information asymmetries are identified on both sides and thus, information substitutes for web-based services are developed. Information substitutes for experience and trust characteristics are evaluated with an online-questionnaire completed by key participants based on their perception, action and willingness to pay. From those results, we deduce strategies for reducing the information asymmetry. The result of the work is the deduction of relevant criteria for the presentation and evaluation for the supply of web-based services and the development of strategies for reducing the transaction uncertainty by identifying and integrating information substitutes.
|
19 |
The role of social network sites in creating information value and social capitalKoroleva, Ksenia 02 November 2012 (has links)
Wenn die Nutzer Erfahrungen mit Sozialen Netzwerken sammeln: i) tauschen sie Informationen mit einander aus; ii) verbinden sich mit einander und bilden Netzwerke; und iii) können auf soziales Kapital zugreifen, das durch die Pflege von diesen Kontakten entsteht. Die Struktur dieser Dissertation spiegelt diese drei Besonderheiten wider. In dem ersten Kapitel untersuchen wir den Einfluss von Informationseigenschaften – den Umfang, die Tiefe, den Kontext als auch dem Feedback – auf den Informationsnutzen. Im zweiten Kapitel untersuchen wir die Netzwerk-Gestaltungsstrategien und die Beziehung von den resultierenden Netzwerkeigenschaften – die Beziehungsstärke als auch Netzwerküberschneidung – mit dem Informationsnutzen. Im dritten Kapitel erforschen wir den Einfluß von den gewonnenen Informationen und der Struktur des Netzwerkes – auf das Soziale Kapital. Zusätzlich beziehen wir in jedes Kapitel die Erfahrung der Nutzer mit dem Medium ein. Aufgrund von fehlenden Forschungserkenntnissen, setzen wir Grounded Theory ein, um konzeptionelle Verhaltensmodelle zu entwickeln. Diese Modelle werden im Anschluß empirisch getestet. Obwohl die Forschung in dieser Dissertation meist verhaltenswissenschaftlich ist, kann man auch Ansätze aus der Design Science erkennen. Zum Beispiel, spezielle Facebook-Anwendungen sind implementiert um reale Nutzerdaten zeitnah zu sammeln. Diese Dissertation weisst drei Hauptergebnisse auf. Erstens, die Beziehungsstärke ist der wichtigster Faktor, der das Verhalten von den Nuztern bestimmt. Zweitens, obwohl die Nutzer die Informationen von Ihren engen Freunden bevorzugen, andere Netzwerkeigenschaften sollten in Betracht gezogen werden, denn zum Beispiel Netzwerküberschneidung einen negativen Einfluss auf Informationsnutzen hat. Drittens, Erfahrungsfaktoren beinflussen das Nutzerverhalten auf diesen Netzwerken. / As SNS users gain experience with using SNS they: i) exchange the information with each other; ii) connect with each other and form certain network structures as a result; iii) obtain the social capital benefits due to the maintenance of relationships with others. The dissertation structure clearly reflects these peculiarities of SNS. Thus, in the first part of the dissertation we explore the impact of information characteristics – depth, breadth, context, social information – on the value of information users derive from their networks. In the second part of the dissertation we explore how users construct their networks and how properties of network structure – tie strength and network overlap – relate to information value. In the third part, we explore the impact of network structure and shared information in the process of social capital formation. We additionally control for the user experience, as we believe that this factor might impact the perception of value. Due to the scarcity of research findings we use explorative methodologies, such as Grounded Theory to study these new phenomena and generate conceptual models. These models are then verified empirically. Although most of the research presented in this dissertation is behavioral, we can also recognize design science elements. For example, we design and implement Facebook applications that allow to collect user data in real time. The main results of the dissertation can be summarized around three major contributions. First and foremost, the underlying tie strength emerges as the most important factor that drivers user behavior on SNS. Second, although people prefer information from their stronger ties, researchers should differentiate between different forms of network structure in their impact on information value, as, for example, network overlap has a negative relationship with information value. Third, experience factors mediate many of the behaviors of users on SNS.
|
20 |
Essays in contract theory and industrial organizationAsseyer, Andreas 22 March 2016 (has links)
Diese Dissertation besteht aus drei unabhängigen Kapiteln in Vertragstheorie und Industrieökonomik. Die Kapitel 1 und 2 bearbeiten Fragestellungen der Vertragstheorie. In diesen Kapiteln studiere ich die Ausprägung der Informationsasymmetrien, die in vertraglichen Beziehungen entstehen, wenn die schlechter informierte Partei versucht ihren Informationsnachteil gegenüber dem Vertragspartner zu reduzieren. In Kapitel 1 analysiere ich die Möglichkeit, dass die schlechter informierte Vertragspartei eine dritte Partei – einen Berater oder Supervisor – konsultiert, der jedoch mit der besser informierten Partei kolludieren könnte. In Kapitel 2 analysiere ich den Fall, in dem die schlechter informierte Vertragspartei selbst Monitoring-Aktivitäten aufnehmen kann, um zusätzliche Information zu sammeln. In Kapitel 3 untersuche ich den Effekt von Informationsasymmetrien innerhalb von Unternehmen auf diskriminierende Preissetzungsstrategien in Zwischengutmärkten. Hierbei analysiere ich Preisdiskriminierung und die aus dieser resultierenden Wohlfahrtseffekte in einem Modell eines Zwischengutmarktes, auf dem ein monopolistischer Verkäufer ein Zwischengut an zwei Abnehmer verkauft, die aufgrund ihrer unterschiedlichen vertikalen Organisation unterschiedlich stark von Agenturkosten betroffen sind. / This dissertation consists of three independent chapters in the fields of contract theory and industrial organization. Chapters 1 and 2 are concerned with topics in contract theory. In these chapters, I study the form of information asymmetry that arises in contractual relationships where the less knowledgeable party can reduce its informational disadvantage vis-à-vis the contractual partner. In Chapter 1, I analyze the opportunity of the less knowledgeable party to consult a third party – an expert or supervisor – who can provide advice. In Chapter 2, the less knowledgeable party can itself engage in monitoring activities to gather additional information. In Chapter 3, I explore the effect of information asymmetry within firms on discriminatory pricing in intermediate good markets. In particular, I study price discrimination and the associated welfare effects in an intermediate good market where a monopolistic upstream firms sells an input to downstream firms that vary in their exposure to the problem of asymmetric information due to different degrees of vertical integration.
|
Page generated in 0.0188 seconds