• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 38
  • 4
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 97
  • 76
  • 54
  • 52
  • 52
  • 51
  • 27
  • 21
  • 18
  • 18
  • 14
  • 14
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Developing a content and knowledge-based journal recommender system comparing distinct subject domains

Wijewickrema, Manjula 04 July 2019 (has links)
Die Aufgabe, ein passendes Journal zu finden, ist auf Grund von verschiedenen Einschränkungen nicht von Hand zu erledigen. Um also diese Problematik zu behandeln, entwickelt die aktuelle Untersuchung ein Journal-Empfehlungssystem, das – in einer Komponente – die inhaltlichen Ähnlichkeiten zwischen einem Manuskript und den existierenden Zeitschriftenartikeln in einem Korpus vergleicht. Das stellt die inhaltsbasierte Empfehlungskomponente des Systems dar. Zusätzlich beinhaltet das System eine wissensbasierte Empfehlungskomponente, um die Anforderungen des Autors bezüglich der Veröffentlichung auf Basis von 15 Journal-Auswahlkriterien zu berücksichtigen. Das neue System gibt Empfehlungen aus den im Directory of Open Access Journals indizierten Journals für zwei verschiedene Themengebiete: Medizin und Sozialwissenschaften. Die Ergebnisse zeigen, dass die Autoren aus den Themengebieten Medizin und Sozialwissenschaften mit den Empfehlungen des Systems zu 66,2% bzw. 58,8% einverstanden waren. Darüber hinaus wurde 35,5% der Autoren aus dem Bereich Medizin und 40,4% der Autoren aus den Sozialwissenschaften ein oder mehrere Journal(s) vorgeschlagen, das bzw. die für die Publikation besser geeignet war(en) als das Journal, in dem sie den Artikel veröffentlich hatten. Die durchschnittliche Leistung des Systems zeigte eine Abnahme von 15% in Medizin bzw. 18% in Sozialwissenschaften verglichen mit den gleichen Empfehlungen bei einer optimalen Sortierung. Leistungsverluste von 22,4% im Fach Medizin und 28,4% in den Sozialwissenschaften ergaben sich, wenn die durchschnittliche Leistung mit einem System verglichen wurde, das geeignete Empfehlungen für die 10 besten Resultate in der optimalen Reihenfolge sortiert abruft. Die vom Hybrid-Modell Empfehlungen zeigen zwar eine etwas bessere Leistung als die inhaltsbasierte Komponente, die Verbesserung war aber nicht statistisch signifikant. / The task of finding appropriate journals cannot be accomplished manually due to a number of limitations of the approach. Therefore, to address this issue, the current research develops a journal recommender system with two components: the first component compares the content similarities between a manuscript and the existing journal articles in a corpus. This represents the content-based recommender component of the system. In addition, the system includes a knowledge-based recommender component to consider authors’ publication requirements based on 15 journal selection factors. The new system makes recommendations from the open access journals indexed in the directory of open access journals for two distinct subject domains, namely medicine and social sciences. The results indicated that the authors from medicine and social sciences agree with the recommender’s suggestions by 66.2% and 58.8% respectively. Moreover, 35.5% of medicine and 40.4% of social sciences authors were suggested more appropriate journal(s) than the journal they already published in. Average performance of the system demonstrated 15% and 18% performance loss in medicine and social sciences respectively against the same suggestions after arranging according to the most appropriate order. Numbers were reported as 22.4% and 28.4% of loss in medicine and social sciences respectively when the average performance was compared with a system that retrieves appropriate suggestions for all 10 topmost results according to the most appropriate order. Although the hybrid recommender demonstrated a slight advancement of performance than the content-based component, the improvement was not statistically significant.
42

Biophysiological Mental-State Monitoring during Human-Computer Interaction

Radüntz, Thea 09 September 2021 (has links)
Die langfristigen Folgen von psychischer Fehlbeanspruchung stellen ein beträchtliches Problem unserer modernen Gesellschaft dar. Zur Identifizierung derartiger Fehlbelastungen während der Mensch-Maschine-Interaktion (MMI) kann die objektive, kontinuierliche Messung der psychischen Beanspruchung einen wesentlichen Beitrag leisten. Neueste Entwicklungen in der Sensortechnologie und der algorithmischen Methodenentwicklung auf Basis von KI liefern die Grundlagen zu ihrer messtechnischen Bestimmung. Vorarbeiten zur Entwicklung einer Methode zur neuronalen Beanspruchungsdiagnostik sind bereits erfolgt (Radüntz, 2017). Eine praxisrelevante Nutzung dieser Ergebnisse ist erfolgsversprechend, wenn die Methode mit Wearables kombiniert werden kann. Gleichzeitig sind die Evaluation und bedingungsbezogene Reliabilitätsprüfung der entwickelten Methode zur neuronalen Beanspruchungsdiagnostik in realitätsnahen Umgebungen erforderlich. Im Rahmen von experimentellen Untersuchungen der Gebrauchstauglichkeit von kommerziellen EEG-Registrierungssystemen für den mobilen Feldeinsatz wird die darauf basierende Systemauswahl für die MMI-Praxis getroffen. Die Untersuchungen zur Validierung der kontinuierlichen Methode zur Beanspruchungsdetektion erfolgt am Beispiel des Fluglotsenarbeitsplatzes beim simulierten „Arrival Management“. / The long-term negative consequences of inappropriate mental workload on employee health constitute a serious problem for a digitalized society. Continuous, objective assessment of mental workload can provide an essential contribution to the identification of such improper load. Recent improvements in sensor technology and algorithmic methods for biosignal processing are the basis for the quantitative determination of mental workload. Neuronal workload measurement has the advantage that workload registration is located directly there where human information processing takes place, namely the brain. Preliminary studies for the development of a method for neuronal workload registration by use of the electroencephalogram (EEG) have already been carried out [Rad16, Rad17]. For the field use of these findings, the mental workload assess- ment on the basis of the EEG must be evaluated and its reliability examined with respect to several conditions in realistic environments. A further essential require-ment is that the method can be combined with the innovative technologies of gel free EEG registration and wireless signal transmission. Hence, the presented papers include two investigations. Main subject of the first investigation are experimental studies on the usability of commercially-oriented EEG systems for mobile field use and system selection for the future work. Main subject of the second investigation is the evaluation of the continuous method for neuronal mental workload registration in the field. Thereby, a challenging application was used, namely the arrival management of aircraft. The simulation of the air traffic control environment allows the realisation of realistic conditions with different levels of task load. Furthermore, the work is well contextualized in a domain which is very sensible to human-factors research.
43

Using machine learning to predict pathogenicity of genomic variants throughout the human genome

Rentzsch, Philipp 14 April 2023 (has links)
Geschätzt mehr als 6.000 Erkrankungen werden durch Veränderungen im Genom verursacht. Ursachen gibt es viele: Eine genomische Variante kann die Translation eines Proteins stoppen, die Genregulation stören oder das Spleißen der mRNA in eine andere Isoform begünstigen. All diese Prozesse müssen überprüft werden, um die zum beschriebenen Phänotyp passende Variante zu ermitteln. Eine Automatisierung dieses Prozesses sind Varianteneffektmodelle. Mittels maschinellem Lernen und Annotationen aus verschiedenen Quellen bewerten diese Modelle genomische Varianten hinsichtlich ihrer Pathogenität. Die Entwicklung eines Varianteneffektmodells erfordert eine Reihe von Schritten: Annotation der Trainingsdaten, Auswahl von Features, Training verschiedener Modelle und Selektion eines Modells. Hier präsentiere ich ein allgemeines Workflow dieses Prozesses. Dieses ermöglicht es den Prozess zu konfigurieren, Modellmerkmale zu bearbeiten, und verschiedene Annotationen zu testen. Der Workflow umfasst außerdem die Optimierung von Hyperparametern, Validierung und letztlich die Anwendung des Modells durch genomweites Berechnen von Varianten-Scores. Der Workflow wird in der Entwicklung von Combined Annotation Dependent Depletion (CADD), einem Varianteneffektmodell zur genomweiten Bewertung von SNVs und InDels, verwendet. Durch Etablierung des ersten Varianteneffektmodells für das humane Referenzgenome GRCh38 demonstriere ich die gewonnenen Möglichkeiten Annotationen aufzugreifen und neue Modelle zu trainieren. Außerdem zeige ich, wie Deep-Learning-Scores als Feature in einem CADD-Modell die Vorhersage von RNA-Spleißing verbessern. Außerdem werden Varianteneffektmodelle aufgrund eines neuen, auf Allelhäufigkeit basierten, Trainingsdatensatz entwickelt. Diese Ergebnisse zeigen, dass der entwickelte Workflow eine skalierbare und flexible Möglichkeit ist, um Varianteneffektmodelle zu entwickeln. Alle entstandenen Scores sind unter cadd.gs.washington.edu und cadd.bihealth.org frei verfügbar. / More than 6,000 diseases are estimated to be caused by genomic variants. This can happen in many possible ways: a variant may stop the translation of a protein, interfere with gene regulation, or alter splicing of the transcribed mRNA into an unwanted isoform. It is necessary to investigate all of these processes in order to evaluate which variant may be causal for the deleterious phenotype. A great help in this regard are variant effect scores. Implemented as machine learning classifiers, they integrate annotations from different resources to rank genomic variants in terms of pathogenicity. Developing a variant effect score requires multiple steps: annotation of the training data, feature selection, model training, benchmarking, and finally deployment for the model's application. Here, I present a generalized workflow of this process. It makes it simple to configure how information is converted into model features, enabling the rapid exploration of different annotations. The workflow further implements hyperparameter optimization, model validation and ultimately deployment of a selected model via genome-wide scoring of genomic variants. The workflow is applied to train Combined Annotation Dependent Depletion (CADD), a variant effect model that is scoring SNVs and InDels genome-wide. I show that the workflow can be quickly adapted to novel annotations by porting CADD to the genome reference GRCh38. Further, I demonstrate the integration of deep-neural network scores as features into a new CADD model, improving the annotation of RNA splicing events. Finally, I apply the workflow to train multiple variant effect models from training data that is based on variants selected by allele frequency. In conclusion, the developed workflow presents a flexible and scalable method to train variant effect scores. All software and developed scores are freely available from cadd.gs.washington.edu and cadd.bihealth.org.
44

A Naturalistic Inquiry into Student Conceptions of Computing Technology and their Role for Learning and Transfer

Rücker, Michael T. 10 March 2020 (has links)
Schüler/innen zu befähigen, die allgegenwärtige Rechentechnik in ihrem Umweld zu erkennen und zu bewerten ist ein international proklamiertes Ziel sekundärer Informatikbildung. Zu diesem Zweck müssen sie von ihrem schulischen Wissen auch tatsächlich im Alltag Gebrauch machen. Ausgehend von Theorien zu Lerntransfer und existierender Forschung zu Schülervorstellungen, untersucht diese Dissertation die Denk- und Lernprozesse von Schüler/innen über konkrete informatische Geräte. Die erste Studie untersucht, welche Arten von Technik Schüler/innen allgemein unterscheiden. Ich stelle eine Grounded Theory zu einer entsprechenden Taxonomie vor. Diese legt nahe, dass Rechentechnik keine vordergründige Kategorie für sie darstellt, was entsprechenden Transfer erschweren würde. Die zweite Studie untersucht, wie Schüler/innen Rechen- von Nicht-Rechentechnik unterscheiden. Ich stelle eine Grounded Theory entsprechender Denkprozesse vor. Diese zeigt, dass etliche Schüler/innen Rechentechnik unsachgemäß anhand inhärenter Fähigkeitsgrenzen unterscheiden, was ebenfalls Transfer behindern würde. Die dritte Studie untersucht daraufhin Lernprozesse im Kontext einer Intervention, die die oben genannten Punkte adressieren soll. Sie zeigt, dass einige Schüler/innen Probleme damit haben, Rechentechnik als gleichzeitig ökonomisch und leistungsfähig zu verstehen, was wiederum seine Verbreitung und Auswirkungen einschränkt. Die Analyse legt zudem erste Richtlinien für das Design entsprechender Interventionen nahe. Die Studien werden anschließend integriert diskutiert. Insbesondere stelle ich Lernziele und Aktivitäten vor, welche eine Teilantwort meiner ursprünglichen Leitfrage bilden: was müssen Schüler/innen lernen, um Rechentechnik im Alltag adäquat zu erkennen und zu bewerten? Ich diskutiere Implikationen für die Praxis sowie potentielle weiterführende Forschung, vor allem im Bezug zu einer Informatikbildung, die sich als Säule moderner Allgemeinbildung versteht. / Enabling students to recognize and evaluate the ubiquitous computing technologies in their lives is an internationally proclaimed goal of a secondary informatics education. To that end, they need to actually engage with their school-learned knowledge in the context of everyday situations. Based on theories of knowledge transfer and prior research on student conceptions, this thesis investigates students' related thinking and learning processes. The first study investigates what kinds of technology students generally distinguish. I propose a grounded theory for a related taxonomy. It suggests that computing technology is, in fact, not a very salient kind of technology for many, which poses a challenge for related transfer. The second study investigates how students even distinguish computing from non-computing technology. I propose a grounded theory of their related reasoning processes. It shows that students may inappropriately distinguish computing devices on the basis of inherent capability limitations, which would also be detrimental to transfer. The third study investigates students' learning processes in the context of an intervention designed to address these issues. It revealed that several students apparently had difficulty to conceive of computing technology as simultaneously economical and powerful, thus limiting its potential ubiquity and impact. The analysis also indicates some initial guidelines for the design of related interventions. The three studies are then integrated and discussed. In particular, I propose a set of learning objectives and activities as a partial answer to my original guiding question: what is it that students need to learn in order to adequately recognize and evaluate computing technologies in their lives? I discuss implications for practice and potential avenues for future research, especially with respect to a general informatics education that regards itself as part of a contemporary general education.
45

Transforming First Language Learning Platforms towards Adaptivity and Fairness / Models, Interventions and Architecture

Rzepka, Nathalie 10 October 2023 (has links)
In dieser Arbeit zeige ich in einem groß angelegten Experiment die Auswirkungen adaptiver Elemente in einer Online-Lernplattform. Ich werde darauf eingehen, dass die derzeitige Forschung zu Online-Lernplattformen für den L1-Erwerb hauptsächlich deskriptiv ist und dass nur wenige adaptive Lernumgebungen in der Praxis verbreitet sind. In dieser Dissertation werde ich ein Konzept entwickeln, wie adaptives Lernen in L1-Online-Lernplattformen integriert werden kann, und analysieren, ob dies zu verbesserten Lernerfahrungen führt. Dabei konzentriere ich mich auf die Effektivität und Fairness von Vorhersagen und Interventionen sowie auf die geeignete Softwarearchitektur für den Einsatz in der Praxis. Zunächst werden verschiedene Vorhersagemodelle entwickelt, die besonders in Blended-Learning-Szenarien nützlich sind. Anschließend entwickle ich ein Architekturkonzept (adaptive learning as a service), um bestehende Lernplattformen mithilfe von Microservices in adaptive Lernplattformen umzuwandeln. Darauf aufbauend wird ein groß angelegtes online-kontrolliertes Experiment mit mehr als 11.000 Nutzer*innen und mehr als 950.000 eingereichten Rechtschreibaufgaben durchgeführt. In einer abschließenden Studie werden die Vorhersagemodelle auf ihren algorithmischen Bias hin untersucht. Außerdem teste ich verschiedene Techniken zur Verringerung von Bias. Diese Arbeit bietet eine ganzheitliche Sicht auf das adaptive Lernen beim Online-L1-Lernen. Durch die Untersuchung mehrerer Schlüsselaspekte (Vorhersagemodelle, Interventionen, Architektur und Fairness) ermöglicht die Arbeit Schlussfolgerungen sowohl für die Forschung als auch für die Praxis. / In this work I show in a large scale experiment the effect of adding adaptive elements to an online learning platform. I will discuss that the current research on online learning platforms in L1 acquisition is mainly descriptive and that only few adaptive learning environments are prevalent in practice. In this dissertation, I will develop a concept on how to integrate adaptive L1 online learning and analyse if it leads to improved learning experiences. I focus on the effectiveness and fairness of predictions and interventions as well as on the suitable software architecture for use in practice. First, I develop different prediction models, which are particularly useful in blended classroom scenarios. Subsequently, I develop an architectural concept (adaptive learning as a service) to transform existing learning platforms into adaptive learning platforms using microservices. Based on this, a large-scale online-controlled experiment with more than 11,000 users and more than 950,000 submitted spelling tasks is carried out. In the final study, the prediction models are examined for their algorithmic bias, by comparing different machine learning models, varying metrics of fairness, and multiple demographic categories. Furthermore, I test various bias mitigation techniques. The success of bias mitigation approaches depends on the demographic group and metric. However, in-process methods have proven to be particularly successful. This work provides a holistic view of adaptive learning in online L1 learning. By examining several key aspects (predictive models, interventions, architecture, and fairness), the work allows conclusions to be drawn for both research and practice.
46

Estruturação e desenvolvimento de uma joint venture em busca de maior competitividade : o caso de uma empresa gaúcha do setor metal-mecânico

Bernardi, Flávia Camargo 31 March 2011 (has links)
As alianças estratégicas são uma das alternativas de estratégias de cooperação estabelecidas entre duas ou mais empresas com objetivos comuns, visando o estabelecimento de uma vantagem competitiva, sendo que a joint venture, dentre as possibilidades, é a mais frequente. Neste sentido, a presente pesquisa buscou analisar a estruturação, o desenvolvimento e a evolução da joint venture JOST Brasil Sistemas Automotivos Ltda., empresa localizada em Caxias do Sul (RS), resultado da parceria entre a empresa brasileira Randon S.A. e a empresa alemã JOST-Werke. Como metodologia de pesquisa, foi utilizada a pesquisa qualitativa, com caráter exploratório, a partir do desenvolvimento de um estudo de caso, aliado à análise documental e à aplicação de entrevistas individuais em profundidade, com uma abordagem semi-estruturada, considerando-se, como sustentação teórica, a literatura relacionada à estratégia, alianças estratégicas, joint ventures e a Teoria VBR (Visão Baseada em Recursos). A pesquisa permitiu identificar os motivos dos parceiros de negócio para a implementação da joint venture relacionando-os com a Teoria da Visão Baseada em Recursos, as principais etapas de implementação, os fatores críticos de sucesso, os mecanismos de governança adotados, bem como a evolução da JOST Brasil, resultando em considerações teóricas e empíricas que servem como suporte para a compreensão do processo de estruturação, desenvolvimento e evolução de joint ventures. Entre os principais resultados encontram-se a existência de objetivos comuns entre os sócios, a complementariedade de recursos e o desenvolvimento de vantagens competitivas. / Submitted by Marcelo Teixeira (mvteixeira@ucs.br) on 2014-06-04T16:30:22Z No. of bitstreams: 1 Dissertacao Flavia Camargo Bernardi.pdf: 2219580 bytes, checksum: 6ea54708289e82abc8dad56b2661df4a (MD5) / Made available in DSpace on 2014-06-04T16:30:22Z (GMT). No. of bitstreams: 1 Dissertacao Flavia Camargo Bernardi.pdf: 2219580 bytes, checksum: 6ea54708289e82abc8dad56b2661df4a (MD5) / Strategic alliances are one of the choices for strategies of cooperation established between two or more companies with common goals in order to gain a competitive strategy. Joint ventures, among such possibilities, are the most frequent ones. In this sense, this research has sought to examine the structure, development and evolution of the joint venture JOST Brasil Sistemas Automotivos Ltda., a company based in Caxias do Sul (RS), and the result of a partnership between the Brazilian company Randon S.A. and the German company JOST-Werke. As research methodology, the qualitative research with exploratory nature has been used from the development of a case study, combined with documentary analysis and in-depth individual interviews using a semi-structured approach. As theoretical support, literature related to strategy, strategic alliances, joint ventures and RBV (Resource-Based View Theory) has been likewise used. The research made it possible to identify the reasons why business partners have decided to set up a joint venture, relating them to the Resource-Based View Theory, main implementation phases, critical success factors, adopted mechanisms of governance, as well as the evolution of JOST Brasil, resulting in theoretical and empirical considerations that serve as support to understand the structuring process, development and evolution of joint ventures. Among the main results are the partners` common goals, complementary resources and development of competitive edges.
47

Estruturação e desenvolvimento de uma joint venture em busca de maior competitividade : o caso de uma empresa gaúcha do setor metal-mecânico

Bernardi, Flávia Camargo 31 March 2011 (has links)
As alianças estratégicas são uma das alternativas de estratégias de cooperação estabelecidas entre duas ou mais empresas com objetivos comuns, visando o estabelecimento de uma vantagem competitiva, sendo que a joint venture, dentre as possibilidades, é a mais frequente. Neste sentido, a presente pesquisa buscou analisar a estruturação, o desenvolvimento e a evolução da joint venture JOST Brasil Sistemas Automotivos Ltda., empresa localizada em Caxias do Sul (RS), resultado da parceria entre a empresa brasileira Randon S.A. e a empresa alemã JOST-Werke. Como metodologia de pesquisa, foi utilizada a pesquisa qualitativa, com caráter exploratório, a partir do desenvolvimento de um estudo de caso, aliado à análise documental e à aplicação de entrevistas individuais em profundidade, com uma abordagem semi-estruturada, considerando-se, como sustentação teórica, a literatura relacionada à estratégia, alianças estratégicas, joint ventures e a Teoria VBR (Visão Baseada em Recursos). A pesquisa permitiu identificar os motivos dos parceiros de negócio para a implementação da joint venture relacionando-os com a Teoria da Visão Baseada em Recursos, as principais etapas de implementação, os fatores críticos de sucesso, os mecanismos de governança adotados, bem como a evolução da JOST Brasil, resultando em considerações teóricas e empíricas que servem como suporte para a compreensão do processo de estruturação, desenvolvimento e evolução de joint ventures. Entre os principais resultados encontram-se a existência de objetivos comuns entre os sócios, a complementariedade de recursos e o desenvolvimento de vantagens competitivas. / Strategic alliances are one of the choices for strategies of cooperation established between two or more companies with common goals in order to gain a competitive strategy. Joint ventures, among such possibilities, are the most frequent ones. In this sense, this research has sought to examine the structure, development and evolution of the joint venture JOST Brasil Sistemas Automotivos Ltda., a company based in Caxias do Sul (RS), and the result of a partnership between the Brazilian company Randon S.A. and the German company JOST-Werke. As research methodology, the qualitative research with exploratory nature has been used from the development of a case study, combined with documentary analysis and in-depth individual interviews using a semi-structured approach. As theoretical support, literature related to strategy, strategic alliances, joint ventures and RBV (Resource-Based View Theory) has been likewise used. The research made it possible to identify the reasons why business partners have decided to set up a joint venture, relating them to the Resource-Based View Theory, main implementation phases, critical success factors, adopted mechanisms of governance, as well as the evolution of JOST Brasil, resulting in theoretical and empirical considerations that serve as support to understand the structuring process, development and evolution of joint ventures. Among the main results are the partners` common goals, complementary resources and development of competitive edges.
48

Fertigung von Elektromotoren und Schaltgeräten in Radeberg: 1948 SAG Sachsenwerk Radeberg bis 1959 VEB RAFENA-Werke Radeberg

Schönfuß, Klaus 26 July 2022 (has links)
Diese Arbeit beschreibt die Herstellung und die Produktionsbedingungen für die Komplett-Fertigung von Elektro-Motoren (überwiegend Drehstrommotoren) verschiedener Bauarten und Leistungsstufen (< 10 kW) von 1949 (Sachsenwerk Radeberg) bis zur Einstellung der Motorenfertigung 1959 (VEB RAFENA-Werke Radeberg). Parallel mit der Motorenfertigung wurden im Sachsenwerk die dafür benötigten Schalt- und Steuereinrichtungen hergestellt. Die 5-teilige Arbeit untergliedert sich als Beschreibung des Geschäftsfeldes Elektromotoren 1948 - 1959 mit dem zugehörigen Einführungstext in: 1. Fertigung von Elektromotoren und Schaltgeräten in Radeberg 2. Prinzipielle Fertigungs-Abschnitte der Motoren-Fertigung und Flächennutzung 3. Gerätegruppen der in Radeberg produzierten Drehstrom-Motoren 4. Umfang der Elektromotorenproduktion 5. Arbeitszeit-Aufwände, Löhne und Preise
49

Datenschutz und Technikgestaltung

Pohle, Jörg 03 May 2018 (has links)
Ziel der vorliegenden Arbeit ist es, die historische Konstruktion des Datenschutzproblems, des Datenschutzes als seiner (abstrakten) Lösung sowie die Architektur seiner rechtlichen Implementation aufzudecken und einer kritischen Revision aus informatischer Sicht zu unterziehen, um daraus Folgerungen für die Technikgestaltung zu ziehen. Die Arbeit legt offen, welches Verständnis vom Menschen und von der Gesellschaft, von Organisationen, von der Informationstechnik und von der Informationsverarbeitung, welche informatischen, informationswissenschaftlichen, soziologischen und rechtswissenschaftlichen Konzepte, Denkschulen und Theoriegebäude und welche wissenschaftlichen und vorwissenschaftlichen Annahmen und Prämissen der Analyse des Datenschutzproblems zugrunde liegen und wie sie darüber hinaus die spezifische Lösung des Datenschutzproblems – den Datenschutz – gespeist haben. Auf der Basis einer informatisch fundierten Kritik zieht die Arbeit den Schluss, dass der Datenschutz als Lösung des durch die Industrialisierung der gesellschaftlichen Informationsverarbeitung erzeugten Datenmachtproblems neu abgeleitet werden muss, und legt dafür ein dem Stand der wissenschaftlichen Debatte entsprechendes, abstraktes – und damit jeweils noch anwendungsbereichsspezifisch zu konkretisierendes – Datenschutz-Angreifermodell, ein analytisches Raster für eine darauf aufbauende Bedrohungsanalyse sowie einen prozeduralen Operationalisierungsansatz, der die Vorgehensweise und die jeweils zu analysierenden oder zu prüfenden inhaltlichen Fragen deutlich werden lässt, vor. Abschließend zieht die Arbeit Folgerungen für die Gestaltung datenschutzfreundlicher – und dabei nicht notwendig nur datenschutzrechtskonformer – informationstechnischer Systeme. / The aim of this thesis is to uncover the historical construction of the data protection problem, of data protection as its (abstract) solution, as well as the architecture of its legal implementation, in order to critically assess this construction and to draw conclusions for the design of ICT systems. The thesis reveals which concepts of humankind and society, organizations, information technology and information processing, which informatics, information science, sociological and jurisprudential concepts, schools of thought and theories, and which scientific and pre-scientific assumptions and premises underlie the analysis of the data protection problem, and how they have influenced the specific solution of this problem. Based on a critical assessment of this construction the thesis concludes that data protection must be re-derived as a solution for the information power problem, which is generated by the industrialization of social information processing, and presents an abstract, state-of-the-art data protection attacker model, an analytical framework for a data protection impact assessment as well as a procedural operationalization approach illustrating the sequence as well as the substantive issues to be examined and addressed in this process. The thesis then draws conclusions for the design of data protection friendly—and not necessarily just legally compliant—ICT systems.
50

Learning Group Composition and Re-composition in Large-scale Online Learning Contexts

Zheng, Zhilin 27 September 2017 (has links)
Die Erforschung der Zusammenstellung kleiner Lerngruppen beschäftigt sich mit dem Problem, eine passende Gruppenzusammensetzung in einer Population von Lernern zu finden, die jeder Gruppe optimalen Nutzen bringen könnte. In letzter Zeit sind viele Studien zu diesem Problem der Kleingruppenzusammenstellung durchgeführt worden. Allerdings waren diese Forschungen nur selten auf den Kontext großer Lerner-Populationen ausgerichtet. Angesichts des zunehmenden Aufkommens von MOOCs muss jedoch das Problem der Gruppenzusammenstellung entsprechend erweitert betrachtet werden, und zwar mit neuen Forschungen, die den Kontext derartig großer Lerner-Populationen berücksichtigen. Anders als in Klassenzimmer-Settings könnte die beobachtete hohe Abbruchquote in MOOCs in einer Unterbesetzung der Gruppengröße resultieren und könnte somit viele Lerner dazu bringen, neue Gruppen zu bilden. Zusätzlich zur Gruppenzusammenstellung muss daher die Gruppenneuzusammenstellung als neues Thema in aktuellen Kontexten großer Lerner-Populationen ebenfalls erforscht werden. Die Untersuchungen der vorliegenden Arbeit gliedern sich in zwei Teile. Der erste Teil beschäftigt sich mit Gruppenzusammenstellung. In diesem Teil stelle ich einen diskreten-PSO Algorithmus zur Zusammenstellung kleiner Lerngruppen vor und vergleiche bislang bestehende Gruppenzusammenstellungs-Algorithmen unter den Gesichtspunkten Zeitaufwand und Gruppierungsqualität. Um Gruppenzusammenstellung in MOOCs anzuwenden wurde ein Gruppenzusammenstellungsexperiment in einem MOOC durchgeführt. Die Hauptergebnisse deuten darauf hin, dass die Gruppenzusammenstellung die Abbruchsquote reduzieren kann, jedoch lediglich einen sehr schwachen Bezug zur Lernperformanz der Lerner aufweist. Der zweite Teil beschäftigt sich mit Gruppenneuzusammenstellung. Die vorliegende Arbeit stellt eine datengesteuerte Herangehensweise vor, die umfassenden Gebrauch von Gruppeninteraktionsdaten macht sowie Gruppendynamik mit einbezieht. Mittels einer in einem Simulationsexperiment durchgeführten Evaluation zeigen sich die Vorteile dieses Verfahrens: Der Lerngruppenzusammenhalt wird verbessert und die Abbruchsquote im Vergleich zu einer Zufallsverteilung reduziert. Darüberhinaus wurde hier ein Gruppen-Lern-Werkzeug entwickelt und für die Praxis vorbereitet, das die Anforderungen des geforderten Ansatzes der Gruppenneuzusammenstellung erfüllt. / Small learning group composition addresses the problem of seeking such matching among a population of students that it could bring each group optimal benefits. Recently, many studies have been conducted to address this small group composition problem. Nevertheless, the focus of such a body of research has rarely been cast to large-scale contexts. Due to the recent come of MOOCs, the topic of group composition needs to be accordingly extended with new investigations in such large learning contexts. Different from classroom settings, the reported high drop-out rate of MOOCs could result in group’s incompletion in size and thus might compel many students to compose new groups. Thus, in addition to group composition, group re-composition as a new topic needs to be studied in current large-scale learning contexts as well. In this thesis, the research is structured in two stages. The first stage is group composition. In this part, I proposed a discrete-PSO algorithm to compose small learning groups and compared the existing group composition algorithms from the perspectives of time cost and grouping quality. To implement group composition in MOOCs, a group composition experiment was conducted in a MOOC. The main results indicate that group composition can reduce drop-out rate, yet has a very weak association with students’ learning performance. The second stage is to cope with group re-composition. This thesis suggests a data-driven approach that makes full use of group interaction data and accounts for group dynamics. Through evaluation in a simulation experiment, it shows its advantages of bringing us more cohesive learning groups and reducing the drop-out rate compared to a random condition. Apart from these, a group learning tool that fulfills the goals of the proposed group re-composition approach has been developed and is made ready for practice.

Page generated in 0.5306 seconds