Spelling suggestions: "subject:"allgemeines werke"" "subject:"allgemeines kerke""
11 |
Determination and Improvement of Spatial Resolution obtained by Optical Remote Sensing SystemsMeißner, Henry 29 March 2021 (has links)
Das Bereitstellen von Parametern bezüglich Auflösungsvermögen und effektiver Auflösung ist ein gut erforschtes Wissenschaftsfeld, dennoch sind noch einige offen Fragen zu klären, wenn eine standardisierte Erhebung angestrebt wird. Zu diesem Zweck ist im Rahmen der vorliegenden Arbeit ein Framework definiert und mathematisch und methodologisch beschrieben worden unter Einbeziehung aller untergeordneten Prozesse. Weiterhin liefert sie einen detaillierten Überblick zu den verwendeten Methoden und Strukturen, um räumliche Auflösung zu messen. Das zuvor definierte Framework wird darüber hinaus genutzt, um alle zugehörigen Probleme bezüglich eines genormten Prozesses zu identifizieren und zu lösen. Der so definierte Prozess ist außerdem Teil der bevorstehenden, neuen Norm: DIN 18740-8.
Im Hinblick auf die Norm sind alle Messeinflüsse an den möglichen Stellen quantifiziert worden und an Stellen, wo dies nicht möglich ist, wurden Vorkehrungen definiert, die diese Einflüsse mindern. Darüber hinaus wurde ein zugehöriges Softwaretool entwickelt, das ebenfalls die neue Norm unterstützt.
Als weiterer Schwerpunkt dieser Arbeit wurde ein Verfahren zur Verbesserung der räumlichen Auflösung entwickelt und bewertet. Das zugehörige Softwaretool kombiniert dabei verschiedene Super-Resolution-Ansätze unter Einbeziehung zusätzlicher Kenntnis über die Bildqualität.
Der neuartige Super-Resolution-Ansatz verbessert die räumliche Auflösung von Luftbildern und True-Ortho-Mosaiken indem er ein Set von niedrig aufgelösten Rohbildern, deren optimierter, äußerer und innerer Orientierung und die abgeleitete 3D-Oberfläche als Eingangsdaten akzeptiert. Anschließend werden ein oder mehrere hochaufgelöste Bilder als hybride Kombination von klassischen Super-Resolution-Methoden und De-Mosaikierung berechnet, unter Berücksichtigung der photogrammetrischen Projektionen auf die 3D-Oberfläche. Dabei werden Limitierungen der Bildkoregistrierung mit üblich verwendeten Optical-Flow-Ansätzen überwunden. / Although acquisition of resolving power and effective spatial resolution is a well-studied field of research, there are still several scientific questions to be answered when it comes to a standardized determination. Therefore, this thesis provides a description of a framework for the imaging process of remote sensing sensors mathematically and methodologically including imaging components and subsequent processes. Furthermore, a detailed review for different structures and methods to measure spatial resolution is included. Aforementioned framework then is utilized to identify related issues to a standardized process obtaining spatial resolution parameters as an image quality criterion to support an upcoming standard DIN 18740-8.
With respect to define the norm-procedure every measurement influence is quantified where possible and in other cases arrangements are specified to diminish their influence. Moreover, the development of an associated software measurement tool has been accomplished as part of this thesis, which also supports the norm for aerial image quality, spatial resolution in particular.
As part of a further objective of this thesis, a super-resolution approach to improve spatial resolution of aerial images has been developed and evaluated. The related software tool is able to combine different super-resolution techniques and includes known image quality parameter in subsequent calculations.
The novel super-resolution approach improves spatial resolution of aerial imagery and true ortho-mosaics by taking a set of multiple low-resolved raw images (color filter array), their optimized exterior and interior orientation parameters and the derived 3D-surface as input. Then, one or more super-resolved images are calculated as a hybrid of classic super-resolution method and demosaicing while considering photogrammetric back-projections onto the 3D-surface. Thereby, limitations of image co-registration with commonly used optical flow approaches can be neglected.
|
12 |
Designing a Multimedia Intervention for Illiterate and Semi-Illiterate Pregnant Women in Developing Countries: A Case of UgandaKatusiime, Jane 19 September 2022 (has links)
Die hohe Müttersterblichkeit in Entwicklungsländern ist zum Teil auf indirekte Faktoren wie Analphabetismus und eingeschränkten Zugang zu Gesundheitsinformationen für Mütter zurückzuführen. Während gebildete Frauen auf Gesundheitsinformationen über Online-Plattformen und mHealth-Apps zugreifen können, müssen Analphabetinnen diese in Gesundheitseinrichtungen abrufen, was aufgrund der Transportkosten oft nicht möglich ist.
Mobilfunktechnologie hat in der Gesundheitsversorgung Chancen für ressourcenarme Gemeinschaften eröffnet, die sonst nicht von den digitalen Technologien profitiert hätten. Obwohl Mobilfunktechnologie in der Müttergesundheit eingesetzt wird, können die meisten Maßnahmen nicht von Analphabeten genutzt werden, verwenden Sicherheitsmodelle die nicht auf den Kontext von Entwicklungsländern zugeschnitten sind, und wurden nicht auf ihre Auswirkungen auf die Müttergesundheit hin evaluiert.
In dieser Arbeit wurden zwei (Web und Mobile) Apps entwickelt, die die Übermittlung von multimedialen Nachrichten zur Müttergesundheit, Terminerinnerungen und Anrufe/Chats erleichtern. Um die Anforderungen der Nutzer zu erfassen, wurde eine Feldstudie mit halbstrukturierten Interviews und Fokusgruppendiskussionen mit schwangeren Analphabetinnen, Gesundheitsexperten und Entwicklern durchgeführt. Es folgte die Entwicklung eines Sicherheitsmodells (T2RoL) zur Sicherung der Gesundheitsinformationen in den Apps, die dann nach einem nutzerzentrierten Designansatz entwickelt wurden.
Eine zweite Feldstudie in Form von halbstrukturierten Interviews und Umfragen wurde durchgeführt, um die mobile App in einer randomisierten kontrollierten Studie mit 80 schwangeren Analphabetinnen über 9 Monate zu evaluieren. Die Auswertung zeigte, dass die App akzeptiert wurde sowie einfach zu erlernen und zu benutzen war. Das Wissen über Müttergesundheit in der Interventionsgruppe verbesserte sich, was sich positiv auf gesundheitsbezogene Entscheidungen und Gesundheitsmaßnahmen auswirkte. / Maternal mortality is high in developing countries partly due to indirect factors such as illiteracy and limited access to maternal health information. While literate women can access health information from online platforms, and mHealth apps, illiterate women must get it from health facilities which is often not possible due to lack of transport fees.
Mobile technology has opened opportunities in maternal health care for low resource communities that would otherwise not have benefited from digital technologies. Although used in maternal health, most interventions are not usable by the illiterate, use security models that are not tailored to the developing countries’ context, and have not been evaluated to assess their impact on maternal health care.
In this thesis, two (web and mobile) apps that facilitate delivery of multimedia-based maternal health messages, appointment reminders, and calls/ chats were developed. To gather user requirements, a field study in form of semi-structured interviews and focus group discussions was conducted with illiterate pregnant women, health practitioners and developers. Development of a security model (T2RoL) to secure the health information in the apps followed. The apps were then developed following a user-centered design approach.
A second field study in form of semi-structured interviews and surveys was conducted to evaluate the mobile app through a randomized controlled trial with 80 illiterate pregnant women that were followed for 9 months. Overall, results show that the app was acceptable, easy to learn and use. There was improved maternal health knowledge among the intervention group which positively influenced health related decision making and health practices.
|
13 |
Multi-View Motion Capture based on Model AdaptationFechteler, Philipp 28 November 2019 (has links)
Fotorealistische Modellierung von Menschen ist in der Computer Grafik von besonderer Bedeutung, da diese allgegenwärtig in Film- und Computerspiel-Produktionen benötigt wird. Heutige Modellierungs-Software vereinfacht das Generieren realistischer Modelle. Hingegen ist das Erstellen realitätsgetreuer Abbilder real existierender Personen nach wie vor eine anspruchsvolle Aufgabe. Die vorliegende Arbeit adressiert die automatische Modellierung von realen Menschen und die Verfolgung ihrer Bewegung. Ein Skinning-basierter Ansatz wurde gewählt, um effizientes Generieren von Animationen zu ermöglichen. Für gesteigerte Realitätstreue wurde eine artefaktfreie Skinning-Funktion um den Einfluss mehrerer kinematischer Gelenke erweitert. Dies ermöglicht eine große Vielfalt an real wirkenden komplexen Bewegungen. Zum Erstellen eines Personen-spezifischen Modells wird hier ein automatischer, datenbasierter Ansatz vorgeschlagen. Als Eingabedaten werden registrierte, geschlossene Beispiel-Meshes verschiedener Posen genutzt. Um bestmöglich die Trainingsdaten zu approximieren, werden in einer Schleife alle Komponenten des Modells optimiert: Vertices, Gelenke und Skinning-Gewichte. Zwecks Tracking von Sequenzen verrauschter und nur teilweise erfasster 3D Rekonstruktionen wird ein markerfreier modelladaptiver Ansatz vorgestellt. Durch die nicht-parametrische Formulierung werden die Gelenke des generischen initialien Tracking-Modells uneingeschränkt optimiert, als auch die Oberfläche frei deformiert und somit individuelle Eigenheiten des Subjekts extrahiert. Integriertes a priori Wissen über die menschliche Gestalt, extrahiert aus Trainingsdaten, gewährleistet realistische Modellanpassungen. Das resultierende Modell mit Animationsparametern ist darauf optimiert, bestmöglich die Eingabe-Sequenz wiederzugeben. Zusammengefasst ermöglichen die vorgestellten Ansätze realitätsgetreues und automatisches Modellieren von Menschen und damit akkurates Tracking aus 3D Daten. / Photorealistic modeling of humans in computer graphics is of special interest because it is required for modern movie- and computer game productions. Modeling realistic human models is relatively simple with current modeling software, but modeling an existing real person in detail is still a very cumbersome task. This dissertation focuses on realistic and automatic modeling as well as tracking human body motion. A skinning based approach is chosen to support efficient realistic animation. For increased realism, an artifact-free skinning function is enhanced to support blending the influence of multiple kinematic joints. As a result, natural appearance is supported for a wide range of complex motions. To setup a subject-specific model, an automatic and data-driven optimization framework is introduced. Registered, watertight example meshes of different poses are used as input. Using an efficient loop, all components of the animatable model are optimized to closely resemble the training data: vertices, kinematic joints and skinning weights. For the purpose of tracking sequences of noisy, partial 3D observations, a markerless motion capture method with simultaneous detailed model adaptation is proposed. The non-parametric formulation supports free-form deformation of the model’s shape as well as unconstrained adaptation of the kinematic joints, thereby allowing to extract individual peculiarities of the captured subject. Integrated a-prior knowledge on human shape and pose, extracted from training data, ensures that the adapted models maintain a natural and realistic appearance. The result is an animatable model adapted to the captured subject as well as a sequence of animation parameters, faithfully resembling the input data. Altogether, the presented approaches provide realistic and automatic modeling of human characters accurately resembling sequences of 3D input data.
|
14 |
System-Specialized and Hybrid Approaches to Network Packet ClassificationHager, Sven 31 August 2020 (has links)
Paketklassifikation ist eine Kernfunktionalität vieler Netzwerksysteme, wie zum Beispiel Firewalls und SDN-Switches.
Für viele dieser Systeme ist Durchsatz von höchster Bedeutung.
Weitere wichtige Eigenschaften sind dynamische Aktualisierbarkeit und hohe Regelsatz-Ausdrucksfähigkeit.
Die Kombination dieser Eigenschaften macht Paketklassifikation zu einem schwierigen Problem.
Diese Arbeit befasst sich mit dem Design von Klassifikationssystemen und -algorithmen, welche mindestens zwei dieser Eigenschaften vereinen.
Es werden hybride Systeme sowie Systemspezialisierung verwendet, um effiziente Ansätze zum Paketklassifikationsproblem in drei Bereichen zu erarbeiten: Klassifikationsalgorithmen, Regelsatztransformation und hardwarebasierte Architekturen.
Die Beiträge im Bereich der Klassifikationsalgorithmen sind Jit Vector Search (JVS) und das SFL-System.
JVS verbessert existierende Techniken durch spezialisierte Suchdatenstrukturen und durch Nutzung von SIMD-Fähigkeiten der CPU, was in fast optimaler Klassifikationsperformanz bei kaum erhöhten Vorberechnungszeiten resultiert.
Das hybride SFL-System hingegen kombiniert einen Klassifikationsalgorithmus mit einem Änderungspuffer, um sowohl hohe Klassifikations- als auch Aktualisierungsperformanz zu ermöglichen.
Bezüglich Regelsatztransformationen wird die RuleBender-Technik vorgestellt, welche Suchbäume in Regelsätze für Firewalls mit Sprungsemantik kodiert.
Somit kann der Durchsatz dieser Systeme unter Beibehaltung komplexer Regelsatzsemantik um eine Größenordnung gesteigert werden.
Schließlich wird der MPFC-Ansatz vorgestellt, welcher einen Regelsatz in einen auf einem FPGA implementierbaren Matching-Schaltkreis übersetzt.
Die generierten Schaltkreise sind hochoptimiert und kleiner als generische Matching-Schaltkreise.
Um dynamische Regelsatzänderungen zu ermöglichen, wird der hybride Consul-Ansatz konzipiert, welcher MPFC-Matcher mit generischen Matching-Schaltkreisen kombiniert. / Packet classification is a core functionality of a wide variety of network systems, such as firewalls and SDN switches.
For many of these systems, throughput is of paramount importance.
Further important system traits are dynamic updateability and high expressiveness in terms of rule set semantics.
The combination of several of these properties turns packet classification into a hard problem.
This work focuses on the design of classification systems and algorithms that combine at least two of the abovementioned characteristics.
To this end, the concepts of hybrid systems and system specialization are employed to obtain efficient approaches to the packet classification problem in three domains: classification algorithms, rule set transformation, and hardware-centric architectures.
The contributions in the domain of classification algorithms are Jit Vector Search (JVS) and the SFL system.
JVS improves upon existing techniques through specialized search data structures and by exploiting SIMD capabilities of the underlying CPU, which results in near-optimal classification performance at only slightly increased preprocessing times.
In contrast, the SFL system is a hybrid approach that combines a classification algorithm with an update buffer to allow for high classification as well as update performance.
With respect to rule set transformation, the RuleBender technique is proposed, which encodes search tree structures into rule sets of firewalls with jump semantics.
That way, the throughput of these systems can be improved by an order of magnitude, while maintaining complex matching semantics.
Finally, the MPFC approach is proposed, which translates a given rule set into a matching circuit that can be implemented on an FPGA.
The generated circuits are highly optimized and significantly smaller than those of generic matchers.
To allow for dynamic rule set updates, the hybrid Consul approach is devised, which combines MPFC circuits with a generic matcher.
|
15 |
Developing a content and knowledge-based journal recommender system comparing distinct subject domainsWijewickrema, Manjula 04 July 2019 (has links)
Die Aufgabe, ein passendes Journal zu finden, ist auf Grund von verschiedenen Einschränkungen nicht von Hand zu erledigen. Um also diese Problematik zu behandeln, entwickelt die aktuelle Untersuchung ein Journal-Empfehlungssystem, das – in einer Komponente – die inhaltlichen Ähnlichkeiten zwischen einem Manuskript und den existierenden Zeitschriftenartikeln in einem Korpus vergleicht. Das stellt die inhaltsbasierte Empfehlungskomponente des Systems dar. Zusätzlich beinhaltet das System eine wissensbasierte Empfehlungskomponente, um die Anforderungen des Autors bezüglich der Veröffentlichung auf Basis von 15 Journal-Auswahlkriterien zu berücksichtigen. Das neue System gibt Empfehlungen aus den im Directory of Open Access Journals indizierten Journals für zwei verschiedene Themengebiete: Medizin und Sozialwissenschaften. Die Ergebnisse zeigen, dass die Autoren aus den Themengebieten Medizin und Sozialwissenschaften mit den Empfehlungen des Systems zu 66,2% bzw. 58,8% einverstanden waren. Darüber hinaus wurde 35,5% der Autoren aus dem Bereich Medizin und 40,4% der Autoren aus den Sozialwissenschaften ein oder mehrere Journal(s) vorgeschlagen, das bzw. die für die Publikation besser geeignet war(en) als das Journal, in dem sie den Artikel veröffentlich hatten. Die durchschnittliche Leistung des Systems zeigte eine Abnahme von 15% in Medizin bzw. 18% in Sozialwissenschaften verglichen mit den gleichen Empfehlungen bei einer optimalen Sortierung. Leistungsverluste von 22,4% im Fach Medizin und 28,4% in den Sozialwissenschaften ergaben sich, wenn die durchschnittliche Leistung mit einem System verglichen wurde, das geeignete Empfehlungen für die 10 besten Resultate in der optimalen Reihenfolge sortiert abruft. Die vom Hybrid-Modell Empfehlungen zeigen zwar eine etwas bessere Leistung als die inhaltsbasierte Komponente, die Verbesserung war aber nicht statistisch signifikant. / The task of finding appropriate journals cannot be accomplished manually due to a number of limitations of the approach. Therefore, to address this issue, the current research develops a journal recommender system with two components: the first component compares the content similarities between a manuscript and the existing journal articles in a corpus. This represents the content-based recommender component of the system. In addition, the system includes a knowledge-based recommender component to consider authors’ publication requirements based on 15 journal selection factors. The new system makes recommendations from the open access journals indexed in the directory of open access journals for two distinct subject domains, namely medicine and social sciences. The results indicated that the authors from medicine and social sciences agree with the recommender’s suggestions by 66.2% and 58.8% respectively. Moreover, 35.5% of medicine and 40.4% of social sciences authors were suggested more appropriate journal(s) than the journal they already published in. Average performance of the system demonstrated 15% and 18% performance loss in medicine and social sciences respectively against the same suggestions after arranging according to the most appropriate order. Numbers were reported as 22.4% and 28.4% of loss in medicine and social sciences respectively when the average performance was compared with a system that retrieves appropriate suggestions for all 10 topmost results according to the most appropriate order. Although the hybrid recommender demonstrated a slight advancement of performance than the content-based component, the improvement was not statistically significant.
|
16 |
Biophysiological Mental-State Monitoring during Human-Computer InteractionRadüntz, Thea 09 September 2021 (has links)
Die langfristigen Folgen von psychischer Fehlbeanspruchung stellen ein beträchtliches Problem unserer modernen Gesellschaft dar. Zur Identifizierung derartiger Fehlbelastungen während der Mensch-Maschine-Interaktion (MMI) kann die objektive, kontinuierliche Messung der psychischen Beanspruchung einen wesentlichen Beitrag leisten. Neueste Entwicklungen in der Sensortechnologie und der algorithmischen Methodenentwicklung auf Basis von KI liefern die Grundlagen zu ihrer messtechnischen Bestimmung.
Vorarbeiten zur Entwicklung einer Methode zur neuronalen Beanspruchungsdiagnostik sind bereits erfolgt (Radüntz, 2017). Eine praxisrelevante Nutzung dieser Ergebnisse ist erfolgsversprechend, wenn die Methode mit Wearables kombiniert werden kann. Gleichzeitig sind die Evaluation und bedingungsbezogene Reliabilitätsprüfung der entwickelten Methode zur neuronalen Beanspruchungsdiagnostik in realitätsnahen Umgebungen erforderlich.
Im Rahmen von experimentellen Untersuchungen der Gebrauchstauglichkeit von kommerziellen EEG-Registrierungssystemen für den mobilen Feldeinsatz wird die darauf basierende Systemauswahl für die MMI-Praxis getroffen. Die Untersuchungen zur Validierung der kontinuierlichen Methode zur Beanspruchungsdetektion erfolgt am Beispiel des Fluglotsenarbeitsplatzes beim simulierten „Arrival Management“. / The long-term negative consequences of inappropriate mental workload on employee health constitute a serious problem for a digitalized society. Continuous, objective assessment of mental workload can provide an essential contribution to
the identification of such improper load. Recent improvements in sensor technology and algorithmic methods for biosignal processing are the basis for the quantitative determination of mental workload.
Neuronal workload measurement has the advantage that workload registration is located directly there where human information processing takes place, namely the brain. Preliminary studies for the development of a method for neuronal workload registration by use of the electroencephalogram (EEG) have already been carried out [Rad16, Rad17]. For the field use of these findings, the mental workload assess-
ment on the basis of the EEG must be evaluated and its reliability examined with respect to several conditions in realistic environments. A further essential require-ment is that the method can be combined with the innovative technologies of gel
free EEG registration and wireless signal transmission.
Hence, the presented papers include two investigations. Main subject of the first investigation are experimental studies on the usability of commercially-oriented EEG
systems for mobile field use and system selection for the future work. Main subject of the second investigation is the evaluation of the continuous method for neuronal
mental workload registration in the field. Thereby, a challenging application was used, namely the arrival management of aircraft. The simulation of the air traffic control environment allows the realisation of realistic conditions with different levels
of task load. Furthermore, the work is well contextualized in a domain which is very sensible to human-factors research.
|
17 |
Using machine learning to predict pathogenicity of genomic variants throughout the human genomeRentzsch, Philipp 14 April 2023 (has links)
Geschätzt mehr als 6.000 Erkrankungen werden durch Veränderungen im Genom verursacht. Ursachen gibt es viele: Eine genomische Variante kann die Translation eines Proteins stoppen, die Genregulation stören oder das Spleißen der mRNA in eine andere Isoform begünstigen. All diese Prozesse müssen überprüft werden, um die zum beschriebenen Phänotyp passende Variante zu ermitteln. Eine Automatisierung dieses Prozesses sind Varianteneffektmodelle. Mittels maschinellem Lernen und Annotationen aus verschiedenen Quellen bewerten diese Modelle genomische Varianten hinsichtlich ihrer Pathogenität.
Die Entwicklung eines Varianteneffektmodells erfordert eine Reihe von Schritten: Annotation der Trainingsdaten, Auswahl von Features, Training verschiedener Modelle und Selektion eines Modells. Hier präsentiere ich ein allgemeines Workflow dieses Prozesses. Dieses ermöglicht es den Prozess zu konfigurieren, Modellmerkmale zu bearbeiten, und verschiedene Annotationen zu testen. Der Workflow umfasst außerdem die Optimierung von Hyperparametern, Validierung und letztlich die Anwendung des Modells durch genomweites Berechnen von Varianten-Scores.
Der Workflow wird in der Entwicklung von Combined Annotation Dependent Depletion (CADD), einem Varianteneffektmodell zur genomweiten Bewertung von SNVs und InDels, verwendet. Durch Etablierung des ersten Varianteneffektmodells für das humane Referenzgenome GRCh38 demonstriere ich die gewonnenen Möglichkeiten Annotationen aufzugreifen und neue Modelle zu trainieren. Außerdem zeige ich, wie Deep-Learning-Scores als Feature in einem CADD-Modell die Vorhersage von RNA-Spleißing verbessern. Außerdem werden Varianteneffektmodelle aufgrund eines neuen, auf Allelhäufigkeit basierten, Trainingsdatensatz entwickelt.
Diese Ergebnisse zeigen, dass der entwickelte Workflow eine skalierbare und flexible Möglichkeit ist, um Varianteneffektmodelle zu entwickeln. Alle entstandenen Scores sind unter cadd.gs.washington.edu und cadd.bihealth.org frei verfügbar. / More than 6,000 diseases are estimated to be caused by genomic variants. This can happen in many possible ways: a variant may stop the translation of a protein, interfere with gene regulation, or alter splicing of the transcribed mRNA into an unwanted isoform. It is necessary to investigate all of these processes in order to evaluate which variant may be causal for the deleterious phenotype. A great help in this regard are variant effect scores. Implemented as machine learning classifiers, they integrate annotations from different resources to rank genomic variants in terms of pathogenicity.
Developing a variant effect score requires multiple steps: annotation of the training data, feature selection, model training, benchmarking, and finally deployment for the model's application. Here, I present a generalized workflow of this process. It makes it simple to configure how information is converted into model features, enabling the rapid exploration of different annotations. The workflow further implements hyperparameter optimization, model validation and ultimately deployment of a selected model via genome-wide scoring of genomic variants.
The workflow is applied to train Combined Annotation Dependent Depletion (CADD), a variant effect model that is scoring SNVs and InDels genome-wide. I show that the workflow can be quickly adapted to novel annotations by porting CADD to the genome reference GRCh38. Further, I demonstrate the integration of deep-neural network scores as features into a new CADD model, improving the annotation of RNA splicing events. Finally, I apply the workflow to train multiple variant effect models from training data that is based on variants selected by allele frequency.
In conclusion, the developed workflow presents a flexible and scalable method to train variant effect scores. All software and developed scores are freely available from cadd.gs.washington.edu and cadd.bihealth.org.
|
18 |
A Naturalistic Inquiry into Student Conceptions of Computing Technology and their Role for Learning and TransferRücker, Michael T. 10 March 2020 (has links)
Schüler/innen zu befähigen, die allgegenwärtige Rechentechnik in ihrem Umweld zu erkennen und zu bewerten ist ein international proklamiertes Ziel sekundärer Informatikbildung. Zu diesem Zweck müssen sie von ihrem schulischen Wissen auch tatsächlich im Alltag Gebrauch machen. Ausgehend von Theorien zu Lerntransfer und existierender Forschung zu Schülervorstellungen, untersucht diese Dissertation die Denk- und Lernprozesse von Schüler/innen über konkrete informatische Geräte.
Die erste Studie untersucht, welche Arten von Technik Schüler/innen allgemein unterscheiden. Ich stelle eine Grounded Theory zu einer entsprechenden Taxonomie vor. Diese legt nahe, dass Rechentechnik keine vordergründige Kategorie für sie darstellt, was entsprechenden Transfer erschweren würde. Die zweite Studie untersucht, wie Schüler/innen Rechen- von Nicht-Rechentechnik unterscheiden. Ich stelle eine Grounded Theory entsprechender Denkprozesse vor. Diese zeigt, dass etliche Schüler/innen Rechentechnik unsachgemäß anhand inhärenter Fähigkeitsgrenzen unterscheiden, was ebenfalls Transfer behindern würde. Die dritte Studie untersucht daraufhin Lernprozesse im Kontext einer Intervention, die die oben genannten Punkte adressieren soll. Sie zeigt, dass einige Schüler/innen Probleme damit haben, Rechentechnik als gleichzeitig ökonomisch und leistungsfähig zu verstehen, was wiederum seine Verbreitung und Auswirkungen einschränkt. Die Analyse legt zudem erste Richtlinien für das Design entsprechender Interventionen nahe.
Die Studien werden anschließend integriert diskutiert. Insbesondere stelle ich Lernziele und Aktivitäten vor, welche eine Teilantwort meiner ursprünglichen Leitfrage bilden: was müssen Schüler/innen lernen, um Rechentechnik im Alltag adäquat zu erkennen und zu bewerten? Ich diskutiere Implikationen für die Praxis sowie potentielle weiterführende Forschung, vor allem im Bezug zu einer Informatikbildung, die sich als Säule moderner Allgemeinbildung versteht. / Enabling students to recognize and evaluate the ubiquitous computing technologies in their lives is an internationally proclaimed goal of a secondary informatics education. To that end, they need to actually engage with their school-learned knowledge in the context of everyday situations. Based on theories of knowledge transfer and prior research on student conceptions, this thesis investigates students' related thinking and learning processes.
The first study investigates what kinds of technology students generally distinguish. I propose a grounded theory for a related taxonomy. It suggests that computing technology is, in fact, not a very salient kind of technology for many, which poses a challenge for related transfer. The second study investigates how students even distinguish computing from non-computing technology. I propose a grounded theory of their related reasoning processes. It shows that students may inappropriately distinguish computing devices on the basis of inherent capability limitations, which would also be detrimental to transfer. The third study investigates students' learning processes in the context of an intervention designed to address these issues. It revealed that several students apparently had difficulty to conceive of computing technology as simultaneously economical and powerful, thus limiting its potential ubiquity and impact. The analysis also indicates some initial guidelines for the design of related interventions.
The three studies are then integrated and discussed. In particular, I propose a set of learning objectives and activities as a partial answer to my original guiding question: what is it that students need to learn in order to adequately recognize and evaluate computing technologies in their lives? I discuss implications for practice and potential avenues for future research, especially with respect to a general informatics education that regards itself as part of a contemporary general education.
|
19 |
Transforming First Language Learning Platforms towards Adaptivity and Fairness / Models, Interventions and ArchitectureRzepka, Nathalie 10 October 2023 (has links)
In dieser Arbeit zeige ich in einem groß angelegten Experiment die Auswirkungen adaptiver Elemente in einer Online-Lernplattform. Ich werde darauf eingehen, dass die derzeitige Forschung zu Online-Lernplattformen für den L1-Erwerb hauptsächlich deskriptiv ist und dass nur wenige adaptive Lernumgebungen in der Praxis verbreitet sind. In dieser Dissertation werde ich ein Konzept entwickeln, wie adaptives Lernen in L1-Online-Lernplattformen integriert werden kann, und analysieren, ob dies zu verbesserten Lernerfahrungen führt. Dabei konzentriere ich mich auf die Effektivität und Fairness von Vorhersagen und Interventionen sowie auf die geeignete Softwarearchitektur für den Einsatz in der Praxis. Zunächst werden verschiedene Vorhersagemodelle entwickelt, die besonders in Blended-Learning-Szenarien nützlich sind. Anschließend entwickle ich ein Architekturkonzept (adaptive learning as a service), um bestehende Lernplattformen mithilfe von Microservices in adaptive Lernplattformen umzuwandeln. Darauf aufbauend wird ein groß angelegtes online-kontrolliertes Experiment mit mehr als 11.000 Nutzer*innen und mehr als 950.000 eingereichten Rechtschreibaufgaben durchgeführt. In einer abschließenden Studie werden die Vorhersagemodelle auf ihren algorithmischen Bias hin untersucht. Außerdem teste ich verschiedene Techniken zur Verringerung von Bias. Diese Arbeit bietet eine ganzheitliche Sicht auf das adaptive Lernen beim Online-L1-Lernen. Durch die Untersuchung mehrerer Schlüsselaspekte (Vorhersagemodelle, Interventionen, Architektur und Fairness) ermöglicht die Arbeit Schlussfolgerungen sowohl für die Forschung als auch für die Praxis. / In this work I show in a large scale experiment the effect of adding adaptive elements to an online learning platform. I will discuss that the current research on online learning platforms in L1 acquisition is mainly descriptive and that only few adaptive learning environments are prevalent in practice. In this dissertation, I will develop a concept on how to integrate adaptive L1 online learning and analyse if it leads to improved learning experiences. I focus on the effectiveness and fairness of predictions and interventions as well as on the suitable software architecture for use in practice. First, I develop different prediction models, which are particularly useful in blended classroom scenarios. Subsequently, I develop an architectural concept (adaptive learning as a service) to transform existing learning platforms into adaptive learning platforms using microservices. Based on this, a large-scale online-controlled experiment with more than 11,000 users and more than 950,000 submitted spelling tasks is carried out. In the final study, the prediction models are examined for their algorithmic bias, by comparing different machine learning models, varying metrics of fairness, and multiple demographic categories. Furthermore, I test various bias mitigation techniques. The success of bias mitigation approaches depends on the demographic group and metric. However, in-process methods have proven to be particularly successful. This work provides a holistic view of adaptive learning in online L1 learning. By examining several key aspects (predictive models, interventions, architecture, and fairness), the work allows conclusions to be drawn for both research and practice.
|
20 |
Datenschutz und TechnikgestaltungPohle, Jörg 03 May 2018 (has links)
Ziel der vorliegenden Arbeit ist es, die historische Konstruktion des Datenschutzproblems, des Datenschutzes als seiner (abstrakten) Lösung sowie die Architektur seiner rechtlichen Implementation aufzudecken und einer kritischen Revision aus informatischer Sicht zu unterziehen, um daraus Folgerungen für die Technikgestaltung zu ziehen. Die Arbeit legt offen, welches Verständnis vom Menschen und von der Gesellschaft, von Organisationen, von der Informationstechnik und von der Informationsverarbeitung, welche informatischen, informationswissenschaftlichen, soziologischen und rechtswissenschaftlichen Konzepte, Denkschulen und Theoriegebäude und welche wissenschaftlichen und vorwissenschaftlichen Annahmen und Prämissen der Analyse des Datenschutzproblems zugrunde liegen und wie sie darüber hinaus die spezifische Lösung des Datenschutzproblems – den Datenschutz – gespeist haben. Auf der Basis einer informatisch fundierten Kritik zieht die Arbeit den Schluss, dass der Datenschutz als Lösung des durch die Industrialisierung der gesellschaftlichen Informationsverarbeitung erzeugten Datenmachtproblems neu abgeleitet werden muss, und legt dafür ein dem Stand der wissenschaftlichen Debatte entsprechendes, abstraktes – und damit jeweils noch anwendungsbereichsspezifisch zu konkretisierendes – Datenschutz-Angreifermodell, ein analytisches Raster für eine darauf aufbauende Bedrohungsanalyse sowie einen prozeduralen Operationalisierungsansatz, der die Vorgehensweise und die jeweils zu analysierenden oder zu prüfenden inhaltlichen Fragen deutlich werden lässt, vor. Abschließend zieht die Arbeit Folgerungen für die Gestaltung datenschutzfreundlicher – und dabei nicht notwendig nur datenschutzrechtskonformer – informationstechnischer Systeme. / The aim of this thesis is to uncover the historical construction of the data protection problem, of data protection as its (abstract) solution, as well as the architecture of its legal implementation, in order to critically assess this construction and to draw conclusions for the design of ICT systems. The thesis reveals which concepts of humankind and society, organizations, information technology and information processing, which informatics, information science, sociological and jurisprudential concepts, schools of thought and theories, and which scientific and pre-scientific assumptions and premises underlie the analysis of the data protection problem, and how they have influenced the specific solution of this problem. Based on a critical assessment of this construction the thesis concludes that data protection must be re-derived as a solution for the information power problem, which is generated by the industrialization of social information processing, and presents an abstract, state-of-the-art data protection attacker model, an analytical framework for a data protection impact assessment as well as a procedural operationalization approach illustrating the sequence as well as the substantive issues to be examined and addressed in this process. The thesis then draws conclusions for the design of data protection friendly—and not necessarily just legally compliant—ICT systems.
|
Page generated in 0.1218 seconds