• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 23
  • 3
  • Tagged with
  • 73
  • 71
  • 60
  • 60
  • 60
  • 59
  • 29
  • 17
  • 15
  • 12
  • 11
  • 11
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Mobile privacy and apps: investigating behavior and attitude / A cross-cultural study comparing US and German library and information science students

Havelka, Stefanie 31 August 2020 (has links)
Diese Dissertation untersucht das Nutzerverhalten und die Einstellungen von Smartphone- und App-BenutzerInnen und welche Rolle die Kultur in Bezug auf mobile Privatsphäre spielt. Die zentrale Forschungsfrage lautet: Gibt es Unterschiede im Verhalten und in der Einstellung von amerikanischen und deutschen Studenten der Bibliotheks- und Informationswissenschaften in Bezug auf die mobile Privatsphäre? Im Mittelpunkt dieser Dissertation steht die ethnographische Forschung in einem interkulturellen Umfeld. Das Forschungsdesign besteht aus halb-strukturierten Interviews, gekoppelt mit Experimenten und Beobachtungen der Teilnehmer über die Nutzung mobiler Technologien. Die Feldforschung 1 wurde (in persona) an zwei verschiedenen Orten durchgeführt: an der Humboldt-Universität zu Berlin, Deutschland, und an der Rutgers State University of New Jersey, USA. Die Feldforschung 2 wurde (digital) über eine Online-Videokonferenzplattform durchgeführt. Im Gegensatz dazu, was die Autorin dieser vorliegenden Studie prognostizierte, kommt es zu folgenden Ergebnissen in dieser Studie: Bei den Probanden können fast keine kulturellen Unterschiede im Verhalten und in der Einstellung zur mobilen Privatsphäre festgestellt werden. Stattdessen werden in Bezug auf die mobile Privatsphäre ähnliche Einstellungen unter den Studienteilnehmenden festgestellt. Zum einen die Selbstzufriedenheit, zum anderen das Gefühl der Hilfslosigkeit und schließlich Pragmatismus scheinen, deutsche und amerikanische Studierende gleichermaßen zu beeinflussen. Das Ergebnis wurde aber ursprünglich nicht so erwartet, da eigentlich zu Beginn der Studie davon ausgegangen wurde, dass der unterschiedliche Kenntnis- und Bewusstseinsstand zur mobilen Privatsphäre in beiden Kulturen zu unterschiedlichen Reaktionen führen würde. Dennoch bieten die Ergebnisse dieser Studie sicher nachfolgenden WissenschaftlerInnen interessante Impulse und eine gute Ausgangsbasis für weitere Studien. / This dissertation examines the role of culture, mobile privacy, apps, and user behavior and attitude. The core research question is: Are there differences in the mobile privacy behaviors and attitudes of American and German library and information science students? This dissertation uses ethnography as its research methodology since culture is at the heart of ethnography. Furthermore, ethnographers try to make sense of behavior, customs, and attitudes of the culture they observe and research. This ethnographer aims to portray a thick narrative and transforms participants' mobile privacy attitude and behavior into a rich account. The research design is comprised of semi-structured interviews, coupled with experiments and participant observations about mobile technology use. Fieldwork 1 was conducted in two different sites: Humboldt-Universität zu Berlin, Germany, and Rutgers, the State University of New Jersey, USA. Fieldwork 2 was conducted via an online video conferencing platform. Contrary to what this researcher predicted, the findings have revealed that there are nearly no cultural differences in mobile privacy behavior and attitude. Similar attitudes, such as mobile privacy complacency, mobile privacy learned-helplessness, and mobile privacy pragmatism, seem to impact German and American students equally. The findings provide support for further research recommendations, and in conclusion, this researcher highlights three contributions this study makes to the scholarly literature.
32

Das maltesische Bibliothekswesen

Schürer, Yvonne 05 July 2013 (has links) (PDF)
Die vorliegende Arbeit beschreibt das Bibliothekswesen auf den Maltesischen Inseln. Einleitend werden Länderinformationen, Informationen zur maltesischen Sprache und zu Schul- und Berufsausbildung gegeben, gefolgt von einem Überblick über die maltesische Druckgeschichte, dem Buchmarkt und der Pflichtexemplarregelung auf den Inseln. Im Hauptteil wird auf Unterhaltsträger von maltesischen Bibliotheken eingegangen und alle bekannten Bibliothekstypen vorgestellt. Innerhalb der verschiedenen Bibliotheksgruppen wird mindestens eine Bibliothek anhand ihrer Funktion, Mitarbeiter, finanziellen Situation, vorhandenen Sammlungen, Erschließungsinstrumenten und Benutzungsmodalitäten detailliert dargestellt. Andere Bibliotheken des gleichen Bibliothekstyps werden genannt, Besonderheiten werden erörtert. Des Weiteren wird ein Überblick über die Möglichkeiten bibliothekarischer Ausbildung gegeben. Die beiden bibliothekarischen Berufsverbände MaLIA und MSLA werden kurz anhand ihrer Aufgaben und Tätigkeiten dargestellt. Ausführliche Informationen über die Literaturversorgung der Malteser durch Bibliotheken und die Struktur des Bibliothekswesens in Malta werden in der Zusammenfassung erörtert. Der Text wurde gelegentlich durch graphische Darstellungen ergänzt. Im Anhang der Arbeit befinden sich unter anderem Adressverzeichnisse der bekannten öffentlichen und wissenschaftlichen Bibliotheken sowie Karten im DIN A3 Format, auf welchen die Bibliotheken verzeichnet wurden. Die Diplomarbeit basiert auf Literaturstudium, Befragungen per E-Mail und Experteninterviews.
33

From Logic Programming to Human Reasoning:

Dietz Saldanha, Emmanuelle-Anna 22 August 2017 (has links) (PDF)
Results of psychological experiments have shown that humans make assumptions, which are not necessarily valid, that they are influenced by their background knowledge and that they reason non-monotonically. These observations show that classical logic does not seem to be adequate for modeling human reasoning. Instead of assuming that humans do not reason logically at all, we take the view that humans do not reason classical logically. Our goal is to model episodes of human reasoning and for this purpose we investigate the so-called Weak Completion Semantics. The Weak Completion Semantics is a Logic Programming approach and considers the least model of the weak completion of logic programs under the three-valued Łukasiewicz logic. As the Weak Completion Semantics is relatively new and has not yet been extensively investigated, we first motivate why this approach is interesting for modeling human reasoning. After that, we show the formal correspondence to the already established Stable Model Semantics and Well-founded Semantics. Next, we present an extension with an additional context operator, that allows us to express negation as failure. Finally, we propose a contextual abductive reasoning approach, in which the context of observations is relevant. Some properties do not hold anymore under this extension. Besides discussing the well-known psychological experiments Byrne’s suppression task and Wason’s selection task, we investigate an experiment in spatial reasoning, an experiment in syllogistic reasoning and an experiment that examines the belief-bias effect. We show that the results of these experiments can be adequately modeled under the Weak Completion Semantics. A result which stands out here, is the outcome of modeling the syllogistic reasoning experiment, as we have a higher prediction match with the participants’ answers than any of twelve current cognitive theories. We present an abstract evaluation system for conditionals and discuss well-known examples from the literature. We show that in this system, conditionals can be evaluated in various ways and we put up the hypothesis that humans use a particular evaluation strategy, namely that they prefer abduction to revision. We also discuss how relevance plays a role in the evaluation process of conditionals. For this purpose we propose a semantic definition of relevance and justify why this is preferable to a exclusively syntactic definition. Finally, we show that our system is more general than another system, which has recently been presented in the literature. Altogether, this thesis shows one possible path on bridging the gap between Cognitive Science and Computational Logic. We investigated findings from psychological experiments and modeled their results within one formal approach, the Weak Completion Semantics. Furthermore, we proposed a general evaluation system for conditionals, for which we suggest a specific evaluation strategy. Yet, the outcome cannot be seen as the ultimate solution but delivers a starting point for new open questions in both areas.
34

From Logic Programming to Human Reasoning:: How to be Artificially Human

Dietz Saldanha, Emmanuelle-Anna 26 June 2017 (has links)
Results of psychological experiments have shown that humans make assumptions, which are not necessarily valid, that they are influenced by their background knowledge and that they reason non-monotonically. These observations show that classical logic does not seem to be adequate for modeling human reasoning. Instead of assuming that humans do not reason logically at all, we take the view that humans do not reason classical logically. Our goal is to model episodes of human reasoning and for this purpose we investigate the so-called Weak Completion Semantics. The Weak Completion Semantics is a Logic Programming approach and considers the least model of the weak completion of logic programs under the three-valued Łukasiewicz logic. As the Weak Completion Semantics is relatively new and has not yet been extensively investigated, we first motivate why this approach is interesting for modeling human reasoning. After that, we show the formal correspondence to the already established Stable Model Semantics and Well-founded Semantics. Next, we present an extension with an additional context operator, that allows us to express negation as failure. Finally, we propose a contextual abductive reasoning approach, in which the context of observations is relevant. Some properties do not hold anymore under this extension. Besides discussing the well-known psychological experiments Byrne’s suppression task and Wason’s selection task, we investigate an experiment in spatial reasoning, an experiment in syllogistic reasoning and an experiment that examines the belief-bias effect. We show that the results of these experiments can be adequately modeled under the Weak Completion Semantics. A result which stands out here, is the outcome of modeling the syllogistic reasoning experiment, as we have a higher prediction match with the participants’ answers than any of twelve current cognitive theories. We present an abstract evaluation system for conditionals and discuss well-known examples from the literature. We show that in this system, conditionals can be evaluated in various ways and we put up the hypothesis that humans use a particular evaluation strategy, namely that they prefer abduction to revision. We also discuss how relevance plays a role in the evaluation process of conditionals. For this purpose we propose a semantic definition of relevance and justify why this is preferable to a exclusively syntactic definition. Finally, we show that our system is more general than another system, which has recently been presented in the literature. Altogether, this thesis shows one possible path on bridging the gap between Cognitive Science and Computational Logic. We investigated findings from psychological experiments and modeled their results within one formal approach, the Weak Completion Semantics. Furthermore, we proposed a general evaluation system for conditionals, for which we suggest a specific evaluation strategy. Yet, the outcome cannot be seen as the ultimate solution but delivers a starting point for new open questions in both areas.
35

Das maltesische Bibliothekswesen

Schürer, Yvonne 05 July 2013 (has links)
Die vorliegende Arbeit beschreibt das Bibliothekswesen auf den Maltesischen Inseln. Einleitend werden Länderinformationen, Informationen zur maltesischen Sprache und zu Schul- und Berufsausbildung gegeben, gefolgt von einem Überblick über die maltesische Druckgeschichte, dem Buchmarkt und der Pflichtexemplarregelung auf den Inseln. Im Hauptteil wird auf Unterhaltsträger von maltesischen Bibliotheken eingegangen und alle bekannten Bibliothekstypen vorgestellt. Innerhalb der verschiedenen Bibliotheksgruppen wird mindestens eine Bibliothek anhand ihrer Funktion, Mitarbeiter, finanziellen Situation, vorhandenen Sammlungen, Erschließungsinstrumenten und Benutzungsmodalitäten detailliert dargestellt. Andere Bibliotheken des gleichen Bibliothekstyps werden genannt, Besonderheiten werden erörtert. Des Weiteren wird ein Überblick über die Möglichkeiten bibliothekarischer Ausbildung gegeben. Die beiden bibliothekarischen Berufsverbände MaLIA und MSLA werden kurz anhand ihrer Aufgaben und Tätigkeiten dargestellt. Ausführliche Informationen über die Literaturversorgung der Malteser durch Bibliotheken und die Struktur des Bibliothekswesens in Malta werden in der Zusammenfassung erörtert. Der Text wurde gelegentlich durch graphische Darstellungen ergänzt. Im Anhang der Arbeit befinden sich unter anderem Adressverzeichnisse der bekannten öffentlichen und wissenschaftlichen Bibliotheken sowie Karten im DIN A3 Format, auf welchen die Bibliotheken verzeichnet wurden. Die Diplomarbeit basiert auf Literaturstudium, Befragungen per E-Mail und Experteninterviews.:Abkürzungsverzeichnis 5 Darstellungsverzeichnis 6 1 Einleitung 7 2 Die Maltesischen Inseln 11 2.1 Landeskundliche Informationen 11 2.2 Sprache und Bildung 12 2.3 Buchwesen und Pflichtexemplarregelung 17 3 Bibliotheksvielfalt 24 3.1 Unterhaltsträger maltesischer Bibliotheken 24 3.2 National Library of Malta 27 3.3 Public Libraries 41 3.4 Bibliotheksarbeit für Kinder und Jugendliche 52 3.5 Academic Libraries 65 3.6 Special Libraries 76 4 Bibliothekarische Ausbildung 89 5 Bibliothekarische Berufsverbände 95 6 Zusammenfassung 101 Literatur- und Quellenverzeichnis 106 Anlagenverzeichnis Anlagen
36

Datenschutz und Technikgestaltung / Geschichte und Theorie des Datenschutzes aus informatischer Sicht und Folgerungen für die Technikgestaltung

Pohle, Jörg 03 May 2018 (has links)
Ziel der vorliegenden Arbeit ist es, die historische Konstruktion des Datenschutzproblems, des Datenschutzes als seiner (abstrakten) Lösung sowie die Architektur seiner rechtlichen Implementation aufzudecken und einer kritischen Revision aus informatischer Sicht zu unterziehen, um daraus Folgerungen für die Technikgestaltung zu ziehen. Die Arbeit legt offen, welches Verständnis vom Menschen und von der Gesellschaft, von Organisationen, von der Informationstechnik und von der Informationsverarbeitung, welche informatischen, informationswissenschaftlichen, soziologischen und rechtswissenschaftlichen Konzepte, Denkschulen und Theoriegebäude und welche wissenschaftlichen und vorwissenschaftlichen Annahmen und Prämissen der Analyse des Datenschutzproblems zugrunde liegen und wie sie darüber hinaus die spezifische Lösung des Datenschutzproblems – den Datenschutz – gespeist haben. Auf der Basis einer informatisch fundierten Kritik zieht die Arbeit den Schluss, dass der Datenschutz als Lösung des durch die Industrialisierung der gesellschaftlichen Informationsverarbeitung erzeugten Datenmachtproblems neu abgeleitet werden muss, und legt dafür ein dem Stand der wissenschaftlichen Debatte entsprechendes, abstraktes – und damit jeweils noch anwendungsbereichsspezifisch zu konkretisierendes – Datenschutz-Angreifermodell, ein analytisches Raster für eine darauf aufbauende Bedrohungsanalyse sowie einen prozeduralen Operationalisierungsansatz, der die Vorgehensweise und die jeweils zu analysierenden oder zu prüfenden inhaltlichen Fragen deutlich werden lässt, vor. Abschließend zieht die Arbeit Folgerungen für die Gestaltung datenschutzfreundlicher – und dabei nicht notwendig nur datenschutzrechtskonformer – informationstechnischer Systeme. / The aim of this thesis is to uncover the historical construction of the data protection problem, of data protection as its (abstract) solution, as well as the architecture of its legal implementation, in order to critically assess this construction and to draw conclusions for the design of ICT systems. The thesis reveals which concepts of humankind and society, organizations, information technology and information processing, which informatics, information science, sociological and jurisprudential concepts, schools of thought and theories, and which scientific and pre-scientific assumptions and premises underlie the analysis of the data protection problem, and how they have influenced the specific solution of this problem. Based on a critical assessment of this construction the thesis concludes that data protection must be re-derived as a solution for the information power problem, which is generated by the industrialization of social information processing, and presents an abstract, state-of-the-art data protection attacker model, an analytical framework for a data protection impact assessment as well as a procedural operationalization approach illustrating the sequence as well as the substantive issues to be examined and addressed in this process. The thesis then draws conclusions for the design of data protection friendly—and not necessarily just legally compliant—ICT systems.
37

Learning Group Composition and Re-composition in Large-scale Online Learning Contexts

Zheng, Zhilin 27 September 2017 (has links)
Die Erforschung der Zusammenstellung kleiner Lerngruppen beschäftigt sich mit dem Problem, eine passende Gruppenzusammensetzung in einer Population von Lernern zu finden, die jeder Gruppe optimalen Nutzen bringen könnte. In letzter Zeit sind viele Studien zu diesem Problem der Kleingruppenzusammenstellung durchgeführt worden. Allerdings waren diese Forschungen nur selten auf den Kontext großer Lerner-Populationen ausgerichtet. Angesichts des zunehmenden Aufkommens von MOOCs muss jedoch das Problem der Gruppenzusammenstellung entsprechend erweitert betrachtet werden, und zwar mit neuen Forschungen, die den Kontext derartig großer Lerner-Populationen berücksichtigen. Anders als in Klassenzimmer-Settings könnte die beobachtete hohe Abbruchquote in MOOCs in einer Unterbesetzung der Gruppengröße resultieren und könnte somit viele Lerner dazu bringen, neue Gruppen zu bilden. Zusätzlich zur Gruppenzusammenstellung muss daher die Gruppenneuzusammenstellung als neues Thema in aktuellen Kontexten großer Lerner-Populationen ebenfalls erforscht werden. Die Untersuchungen der vorliegenden Arbeit gliedern sich in zwei Teile. Der erste Teil beschäftigt sich mit Gruppenzusammenstellung. In diesem Teil stelle ich einen diskreten-PSO Algorithmus zur Zusammenstellung kleiner Lerngruppen vor und vergleiche bislang bestehende Gruppenzusammenstellungs-Algorithmen unter den Gesichtspunkten Zeitaufwand und Gruppierungsqualität. Um Gruppenzusammenstellung in MOOCs anzuwenden wurde ein Gruppenzusammenstellungsexperiment in einem MOOC durchgeführt. Die Hauptergebnisse deuten darauf hin, dass die Gruppenzusammenstellung die Abbruchsquote reduzieren kann, jedoch lediglich einen sehr schwachen Bezug zur Lernperformanz der Lerner aufweist. Der zweite Teil beschäftigt sich mit Gruppenneuzusammenstellung. Die vorliegende Arbeit stellt eine datengesteuerte Herangehensweise vor, die umfassenden Gebrauch von Gruppeninteraktionsdaten macht sowie Gruppendynamik mit einbezieht. Mittels einer in einem Simulationsexperiment durchgeführten Evaluation zeigen sich die Vorteile dieses Verfahrens: Der Lerngruppenzusammenhalt wird verbessert und die Abbruchsquote im Vergleich zu einer Zufallsverteilung reduziert. Darüberhinaus wurde hier ein Gruppen-Lern-Werkzeug entwickelt und für die Praxis vorbereitet, das die Anforderungen des geforderten Ansatzes der Gruppenneuzusammenstellung erfüllt. / Small learning group composition addresses the problem of seeking such matching among a population of students that it could bring each group optimal benefits. Recently, many studies have been conducted to address this small group composition problem. Nevertheless, the focus of such a body of research has rarely been cast to large-scale contexts. Due to the recent come of MOOCs, the topic of group composition needs to be accordingly extended with new investigations in such large learning contexts. Different from classroom settings, the reported high drop-out rate of MOOCs could result in group’s incompletion in size and thus might compel many students to compose new groups. Thus, in addition to group composition, group re-composition as a new topic needs to be studied in current large-scale learning contexts as well. In this thesis, the research is structured in two stages. The first stage is group composition. In this part, I proposed a discrete-PSO algorithm to compose small learning groups and compared the existing group composition algorithms from the perspectives of time cost and grouping quality. To implement group composition in MOOCs, a group composition experiment was conducted in a MOOC. The main results indicate that group composition can reduce drop-out rate, yet has a very weak association with students’ learning performance. The second stage is to cope with group re-composition. This thesis suggests a data-driven approach that makes full use of group interaction data and accounts for group dynamics. Through evaluation in a simulation experiment, it shows its advantages of bringing us more cohesive learning groups and reducing the drop-out rate compared to a random condition. Apart from these, a group learning tool that fulfills the goals of the proposed group re-composition approach has been developed and is made ready for practice.
38

Data curation for qualitative data reuse and big social research / Connecting communities of practice

Mannheimer, Sara 12 September 2022 (has links)
In den letzten Jahren haben Innovationen bei Datenquellen und Methoden für die sozialwissenschaftliche Forschung zugenommen. Diese Forschungsarbeit zielt darauf ab, die Auswirkungen dieser Innovationen auf drei Praxisgemeinschaften besser zu verstehen: qualitativ Forschende, Big Social Data Forschende und Datenkurator*innen. Folgenden Forschungsfragen werden behandelt. RQ1: Wie unterscheidet sich die Kuratierung von Big Social Data und qualitativen Daten? RQ2: Welche Auswirkungen haben diese Ähnlichkeiten und Unterschiede auf die Kuratierung von Big Social Data und qualitativen Daten und was können wir aus der Kombination dieser beiden Communities lernen? Ich beantwortete diese Fragen durch eine Literaturrecherche, in der ich Gemeinsamkeiten zwischen qualitativer Datennachnutzung und Big Social Data identifizierte. Dann führte ich semi-strukturierte Interviews mit den drei Praxisgemeinschaften durch. Die Analyse identifizierte sechs Schlüsselthemen für die qualitative Datennachnutzung und Big Social Data: Kontext, Datenqualität und Vertrauenswürdigkeit, Datenvergleichbarkeit, informierte Einwilligung, Datenschutz und Vertraulichkeit sowie geistiges Eigentum und Dateneigentum. Ich habe außerdem fünf weitere Themen identifiziert: Domänenunterschiede, Strategien für eine verantwortungsvolle Praxis, Fragen der Datenpflege, Menschen oder Inhalte als Untersuchungsobjekte sowie unterschiedliche Schwerpunkte und Ansätze. Die Verbindung dieser drei Praxisgemeinschaften kann ein breiteres Verständnis der Schlüsselfragen unterstützen und zu verantwortungsbewussteren Forschungspraktiken führen. Datenkurator*innen verfügen über die Fähigkeiten und Perspektiven, um zwischen den Praxisgemeinschaften zu übersetzen und eine verantwortungsvolle qualitative Nachnutzung von Daten und Big Social Data zu unterstützen. / Recent years have seen the rise of innovations in data sources and methods for social science research. This research aims to better understand the impact of these innovations on three communities of practice: qualitative researchers, big social researchers, and data curators. I address the following research questions. RQ1: How is big social data curation similar to and different from qualitative data curation? RQ1a: How are epistemological, ethical, and legal issues different or similar for qualitative data reuse and big social research? RQ1b: How can data curation practices support and resolve some of these epistemological and ethical issues? RQ2: What are the implications of these similarities and differences for big social data curation and qualitative data curation, and what can we learn from combining these two conversations? I answered these questions through a literature review, in which I identified issues in common between qualitative data reuse and big social research. Then I conducted semi-structured interviews with the three communities of practice. The research identified six key issues for qualitative data reuse and big social research: context, data quality and trustworthiness, data comparability, informed consent, privacy and confidentiality, and intellectual property and data ownership. I also identified five additional themes: domain differences, strategies for responsible practice, data curation issues, human subjects vs. content, and different focuses and approaches. Connecting these three communities of practice can support a broader understanding of the key issues and lead to more responsible research practices. Data curators have the skills and perspectives to translate between communities of practice and provide guidance for responsible qualitative data reuse and big social data.
39

Approximate Distributed Set Reconciliation with Defined Accuracy

Kruber, Nico 24 April 2020 (has links)
Mit aktuell vorhandenen Mitteln ist es schwierig, objektiv approximative Algorithmen zum Mengenabgleich gegenüberzustellen und zu vergleichen. Jeder Algorithmus kann durch unterschiedliche Wahl seiner jeweiligen Parameter an ein gegebenes Szenario angepasst werden und so zum Beispiel Bandbreiten- oder CPU-optimiert werden. Änderungen an den Parametern gehen jedoch meistens auch mit Änderungen an der Genauigkeit bei der Erkennung von Differenzen in den teilnehmenden Mengen einher und behindern somit objektive Vergleiche, die auf derselben Genauigkeit basieren. In dieser Arbeit wird eine Methodik entwickelt, die einen fairen Vergleich von approximativen Algorithmen zum Mengenabgleich erlaubt. Dabei wird eine feste Zielgenauigkeit definiert und im Weiteren alle die Genauigkeit beeinflussenden Parameter entsprechend gesetzt. Diese Methode ist universell genug, um für eine breite Masse an Algorithmen eingesetzt zu werden. In der Arbeit wird sie auf zwei triviale hashbasierte Algorithmen, einem basierend auf Bloom Filtern und einem basierend auf Merkle Trees angewandt, um dies zu untermauern. Im Vergleich zu vorherigen Arbeiten zu Merkle Trees wird vorgeschlagen, die Größe der Hashsummen dynamisch im Baum zu wählen und so den Bandbreitenbedarf an die gewünschte Zielgenauigkeit anzupassen. Dabei entsteht eine neue Variante des Mengenabgleichs mit Merkle Trees, bei der sich erstmalig die Genauigkeit konfigurieren lässt. Eine umfassende Evaluation eines jeden der vier unter dem Genauigkeitsmodell angepassten Algorithmen bestätigt die Anwendbarkeit der entwickelten Methodik und nimmt eine Neubewertung dieser Algorithmen vor. Die vorliegenden Ergebnisse erlauben die Auswahl eines effizienten Algorithmus für unterschiedliche praktische Szenarien basierend auf einer gewünschten Zielgenauigkeit. Die präsentierte Methodik zur Bestimmung passender Parameter, um für unterschiedliche Algorithmen die gleiche Genauigkeit zu erreichen, kann auch auf weitere Algorithmen zum Mengenabgleich angewandt werden und erlaubt eine objektive, allgemeingültige Einordnung ihrer Leistung unter verschiedenen Metriken. Der in der Arbeit entstandene neue approximative Mengenabgleich mit Merkle Trees erweitert die Anwendbarkeit von Merkle Trees und wirft ein neues Licht auf dessen Effektivität. / The objective comparison of approximate versioned set reconciliation algorithms is challenging. Each algorithm's behaviour can be tuned for a given use case, e.g. low bandwidth or computational overhead, using different sets of parameters. Changes of these parameters, however, often also influence the algorithm's accuracy in recognising differences between participating sets and thus hinder objective comparisons based on the same level of accuracy. We develop a method to fairly compare approximate set reconciliation algorithms by enforcing a fixed accuracy and deriving accuracy-influencing parameters accordingly. We show this method's universal applicability by adopting two trivial hash-based algorithms as well as set reconciliation with Bloom filters and Merkle trees. Compared to previous research on Merkle trees, we propose to use dynamic hash sizes to align the transfer overhead with the desired accuracy and create a new Merkle tree reconciliation algorithm with an adjustable accuracy target. An extensive evaluation of each algorithm under this accuracy model verifies its feasibility and ranks these four algorithms. Our results allow to easily choose an efficient algorithm for practical set reconciliation tasks based on the required level of accuracy. Our way to find configuration parameters for different, yet equally accurate, algorithms can also be adopted to other set reconciliation algorithms and allows to rate their respective performance in an objective manner. The resultant new approximate Merkle tree reconciliation broadens the applicability of Merkle trees and sheds some new light on its effectiveness.
40

Real-time 3D-based Virtual Eye Contact for Video Communication

Waizenegger, Wolfgang 09 August 2019 (has links)
Das Problem des fehlenden Augenkontaktes vermindert den Eindruck einer natürlichen Kommunikationssituation bei Videokonferenzen. Während eine Person auf den Bildschirm blickt, wird sie von Kameras aufgenommen, die sich normalerweise direkt daneben befinden. Mit dem Aufkommen von massiv paralleler Computer Hardware und ganz speziell den sehr leistungsstarken Spielegrafikkarten ist es möglich geworden, viele Eingabeansichten für eine Echtzeit 3D Rekonstruktion zu verarbeiten. Eine größere Anzahl von Eingabeansichten mildert Verdeckungsprobleme ab und führt zu vollständigeren 3D Daten. In dieser Arbeit werden neue Algorithmen vorgeschlagen, welche eine hochqualitative Echtzeit 3D Rekonstruktion, die kontinuierliche Anpassung der photometrischen Kameraparameter und die benutzerunabhängige Schätzung der Augenkontaktkameras ermöglichen. Die Echtzeit 3D Analyse besteht aus zwei komplementären Ansätzen. Einerseits gibt es einen Algorithmus, der auf der Verarbeitung geometrischer Formen basiert und auf der anderen Seite steht eine patchbasierte Technik, die 3D Hypothesen durch das Vergleichen von Bildtexturen evaluiert. Zur Vorbereitung für die Bildsynthese ist es notwendig, Texturen von verschiedenen Ansichten anzugleichen. Hierfür wird die Anwendung eines neuen Algorithmus zur kontinuierlichen photometrischen Justierung der Kameraparameter vorgeschlagen. Die photometrische Anpassung wird iterativ, im Wechsel mit einer 3D Registrierung der entsprechenden Ansichten, ausgeführt. So ist die Qualität der photometrischen Parameter direkt mit jener der Ergebnisse der 3D Analyse verbunden und vice versa. Eine weitere wichtige Voraussetzung für eine korrekte Synthese der Augenkontaktansicht ist die Schätzung einer passenden virtuellen Augenkontaktkamera. Hierfür wird die Augenkontaktkamera kontinuierlich an die Augenposition der Benutzer angeglichen. Auf diese Weise wird eine virtuelle Kommunikationsumgebung geschaffen, die eine natürlichere Kommunikation ermöglicht. / A major problem, that decreases the naturalness of conversations via video communication, is missing eye contact. While a person is looking on the display, she or he is recorded from cameras that are usually attached next to the display frame. With the advent of massively parallel computer hardware and in particular very powerful consumer graphics cards, it became possible to simultaneously process multiple input views for real-time 3D reconstruction. Here, a greater amount of input views mitigate occlusion problems and lead to a more complete set of 3D data that is available for view synthesis. In this thesis, novel algorithms are proposed that enable for high quality real-time 3D reconstruction, the on-line alignment of photometric camera parameters, and the automatic and user independent estimation of the eye contact cameras. The real-time 3D analysis consist of two complementary approaches. On the one hand, a shape based algorithm and on the other hand, a patch based technique that evaluates 3D hypotheses via comparison of image textures. Preparative to rendering, texture from multiple views needs to be aligned. For this purpose, a novel algorithm for photometric on-line adjustment of the camera parameters is proposed. The photometric adjustment is carried out iteratively in alternation with a 3D registration of the respective views. In this way, the quality of photometric parameters is directly linked to the 3D analysis results and vice versa. Based on the textured 3D data, the eye contact view is rendered. An important prerequisite for this task is the estimation of a suitable virtual eye contact camera. In this thesis, a novel approach is formulated that enables for an automatic adaptation to arbitrary new users. Therefor, the eye contact camera is dynamically adapted to the current eye positions of the users. In this way, a virtual communication environment is created that allows for a more natural conversation.

Page generated in 0.1303 seconds