• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 142
  • 51
  • Tagged with
  • 193
  • 193
  • 145
  • 110
  • 110
  • 82
  • 49
  • 49
  • 47
  • 26
  • 20
  • 19
  • 18
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Anonymization Techniques for Privacy-preserving Process Mining

Fahrenkrog-Petersen, Stephan A. 30 August 2023 (has links)
Process Mining ermöglicht die Analyse von Event Logs. Jede Aktivität ist durch ein Event in einem Trace recorded, welcher jeweils einer Prozessinstanz entspricht. Traces können sensible Daten, z.B. über Patienten enthalten. Diese Dissertation adressiert Datenschutzrisiken für Trace Daten und Process Mining. Durch eine empirische Studie zum Re-Identifikations Risiko in öffentlichen Event Logs wird die hohe Gefahr aufgezeigt, aber auch weitere Risiken sind von Bedeutung. Anonymisierung ist entscheidend um Risiken zu adressieren, aber schwierig weil gleichzeitig die Verhaltensaspekte des Event Logs erhalten werden sollen. Dies führt zu einem Privacy-Utility-Trade-Off. Dieser wird durch neue Algorithmen wie SaCoFa und SaPa angegangen, die Differential Privacy garantieren und gleichzeitig Utility erhalten. PRIPEL ergänzt die anonymiserten Control-flows um Kontextinformationen und ermöglich so die Veröffentlichung von vollständigen, geschützten Logs. Mit PRETSA wird eine Algorithmenfamilie vorgestellt, die k-anonymity garantiert. Dafür werden privacy-verletztende Traces miteinander vereint, mit dem Ziel ein möglichst syntaktisch ähnliches Log zu erzeugen. Durch Experimente kann eine bessere Utility-Erhaltung gegenüber existierenden Lösungen aufgezeigt werden. / Process mining analyzes business processes using event logs. Each activity execution is recorded as an event in a trace, representing a process instance's behavior. Traces often hold sensitive info like patient data. This thesis addresses privacy concerns arising from trace data and process mining. A re-identification risk study on public event logs reveals high risk, but other threats exist. Anonymization is vital to address these issues, yet challenging due to preserving behavioral aspects for analysis, leading to a privacy-utility trade-off. New algorithms, SaCoFa and SaPa, are introduced for trace anonymization using noise for differential privacy while maintaining utility. PRIPEL supplements anonymized control flows with trace contextual info for complete protected logs. For k-anonymity, the PRETSA algorithm family merges privacy-violating traces based on a prefix representation of the event log, maintaining syntactic similarity. Empirical evaluations demonstrate utility improvements over existing techniques.
112

Fine-Grained Parameterized Algorithms on Width Parameters and Beyond

Hegerfeld, Falko 25 October 2023 (has links)
Die Kernaufgabe der parameterisierten Komplexität ist zu verstehen, wie Eingabestruktur die Problemkomplexität beeinflusst. Wir untersuchen diese Fragestellung aus einer granularen Perspektive und betrachten Problem-Parameter-Kombinationen mit einfach exponentieller Laufzeit, d.h., Laufzeit a^k n^c, wobei n die Eingabegröße ist, k der Parameterwert, und a und c zwei positive Konstanten sind. Unser Ziel ist es, die optimale Laufzeitbasis a für eine gegebene Kombination zu bestimmen. Für viele Zusammenhangsprobleme, wie Connected Vertex Cover oder Connected Dominating Set, ist die optimale Basis bezüglich dem Parameter Baumweite bekannt. Die Baumweite gehört zu der Klasse der Weiteparameter, welche auf natürliche Weise zu Algorithmen mit dem Prinzip der dynamischen Programmierung führen. Im ersten Teil dieser Dissertation untersuchen wir, wie sich die optimale Laufzeitbasis für diverse Zusammenhangsprobleme verändert, wenn wir zu ausdrucksstärkeren Weiteparametern wechseln. Wir entwerfen neue parameterisierte Algorithmen und (bedingte) untere Schranken, um diese optimalen Basen zu bestimmen. Insbesondere zeigen wir für die Parametersequenz Baumweite, modulare Baumweite, und Cliquenweite, dass die optimale Basis von Connected Vertex Cover bei 3 startet, sich erst auf 5 erhöht und dann auf 6, wobei hingegen die optimale Basis von Connected Dominating Set bei 4 startet, erst bei 4 bleibt und sich dann auf 5 erhöht. Im zweiten Teil gehen wir über Weiteparameter hinaus und analysieren restriktivere Arten von Parametern. Für die Baumtiefe entwerfen wir platzsparende Verzweigungsalgorithmen. Die Beweistechniken für untere Schranken bezüglich Weiteparametern übertragen sich nicht zu den restriktiveren Parametern, weshalb nur wenige optimale Laufzeitbasen bekannt sind. Um dies zu beheben untersuchen wir Knotenlöschungsprobleme. Insbesondere zeigen wir, dass die optimale Basis von Odd Cycle Transversal parameterisiert mit einem Modulator zu Baumweite 2 den Wert 3 hat. / The question at the heart of parameterized complexity is how input structure governs the complexity of a problem. We investigate this question from a fine-grained perspective and study problem-parameter-combinations with single-exponential running time, i.e., time a^k n^c, where n is the input size, k the parameter value, and a and c are positive constants. Our goal is to determine the optimal base a for a given combination. For many connectivity problems such as Connected Vertex Cover or Connecting Dominating Set, the optimal base is known relative to treewidth. Treewidth belongs to the class of width parameters, which naturally admit dynamic programming algorithms. In the first part of this thesis, we study how the optimal base changes for these connectivity problems when going to more expressive width parameters. We provide new parameterized dynamic programming algorithms and (conditional) lower bounds to determine the optimal base, in particular, we obtain for the parameter sequence treewidth, modular-treewidth, clique-width that the optimal base for Connected Vertex Cover starts at 3, increases to 5, and then to 6, whereas the optimal base for Connected Dominating Set starts at 4, stays at 4, and then increases to 5. In the second part, we go beyond width parameters and study more restrictive parameterizations like depth parameters and modulators. For treedepth, we design space-efficient branching algorithms. The lower bound techniques for width parameterizations do not carry over to these more restrictive parameterizations and as a result, only a few optimal bases are known. To remedy this, we study standard vertex-deletion problems. In particular, we show that the optimal base of Odd Cycle Transversal parameterized by a modulator to treewidth 2 is 3. Additionally, we show that similar lower bounds can be obtained in the realm of dense graphs by considering modulators consisting of so-called twinclasses.
113

Text Mining for Pathway Curation

Weber-Genzel, Leon 17 November 2023 (has links)
Biolog:innen untersuchen häufig Pathways, Netzwerke von Interaktionen zwischen Proteinen und Genen mit einer spezifischen Funktion. Neue Erkenntnisse über Pathways werden in der Regel zunächst in Publikationen veröffentlicht und dann in strukturierter Form in Lehrbüchern, Datenbanken oder mathematischen Modellen weitergegeben. Deren Kuratierung kann jedoch aufgrund der hohen Anzahl von Publikationen sehr aufwendig sein. In dieser Arbeit untersuchen wir wie Text Mining Methoden die Kuratierung unterstützen können. Wir stellen PEDL vor, ein Machine-Learning-Modell zur Extraktion von Protein-Protein-Assoziationen (PPAs) aus biomedizinischen Texten. PEDL verwendet Distant Supervision und vortrainierte Sprachmodelle, um eine höhere Genauigkeit als vergleichbare Methoden zu erreichen. Eine Evaluation durch Expert:innen bestätigt die Nützlichkeit von PEDLs für Pathway-Kurator:innen. Außerdem stellen wir PEDL+ vor, ein Kommandozeilen-Tool, mit dem auch Nicht-Expert:innen PPAs effizient extrahieren können. Drei Kurator:innen bewerten 55,6 % bis 79,6 % der von PEDL+ gefundenen PPAs als nützlich für ihre Arbeit. Die große Anzahl von PPAs, die durch Text Mining identifiziert werden, kann für Forscher:innen überwältigend sein. Um hier Abhilfe zu schaffen, stellen wir PathComplete vor, ein Modell, das nützliche Erweiterungen eines Pathways vorschlägt. Es ist die erste Pathway-Extension-Methode, die auf überwachtem maschinellen Lernen basiert. Unsere Experimente zeigen, dass PathComplete wesentlich genauer ist als existierende Methoden. Schließlich schlagen wir eine Methode vor, um Pathways mit komplexen Ereignisstrukturen zu erweitern. Hier übertrifft unsere neue Methode zur konditionalen Graphenmodifikation die derzeit beste Methode um 13-24% Genauigkeit in drei Benchmarks. Insgesamt zeigen unsere Ergebnisse, dass Deep Learning basierte Informationsextraktion eine vielversprechende Grundlage für die Unterstützung von Pathway-Kurator:innen ist. / Biological knowledge often involves understanding the interactions between molecules, such as proteins and genes, that form functional networks called pathways. New knowledge about pathways is typically communicated through publications and later condensed into structured formats such as textbooks, pathway databases or mathematical models. However, curating updated pathway models can be labour-intensive due to the growing volume of publications. This thesis investigates text mining methods to support pathway curation. We present PEDL (Protein-Protein-Association Extraction with Deep Language Models), a machine learning model designed to extract protein-protein associations (PPAs) from biomedical text. PEDL uses distant supervision and pre-trained language models to achieve higher accuracy than the state of the art. An expert evaluation confirms its usefulness for pathway curators. We also present PEDL+, a command-line tool that allows non-expert users to efficiently extract PPAs. When applied to pathway curation tasks, 55.6% to 79.6% of PEDL+ extractions were found useful by curators. The large number of PPAs identified by text mining can be overwhelming for researchers. To help, we present PathComplete, a model that suggests potential extensions to a pathway. It is the first method based on supervised machine learning for this task, using transfer learning from pathway databases. Our evaluations show that PathComplete significantly outperforms existing methods. Finally, we generalise pathway extension from PPAs to more realistic complex events. Here, our novel method for conditional graph modification outperforms the current best by 13-24% accuracy on three benchmarks. We also present a new dataset for event-based pathway extension. Overall, our results show that deep learning-based information extraction is a promising basis for supporting pathway curators.
114

Explanation of the Model Checker Verification Results

Kaleeswaran, Arut Prakash 20 December 2023 (has links)
Immer wenn neue Anforderungen an ein System gestellt werden, müssen die Korrektheit und Konsistenz der Systemspezifikation überprüft werden, was in der Praxis in der Regel manuell erfolgt. Eine mögliche Option, um die Nachteile dieser manuellen Analyse zu überwinden, ist das sogenannte Contract-Based Design. Dieser Entwurfsansatz kann den Verifikationsprozess zur Überprüfung, ob die Anforderungen auf oberster Ebene konsistent verfeinert wurden, automatisieren. Die Verifikation kann somit iterativ durchgeführt werden, um die Korrektheit und Konsistenz des Systems angesichts jeglicher Änderung der Spezifikationen sicherzustellen. Allerdings ist es aufgrund der mangelnden Benutzerfreundlichkeit und der Schwierigkeiten bei der Interpretation von Verifizierungsergebnissen immer noch eine Herausforderung, formale Ansätze in der Industrie einzusetzen. Stellt beispielsweise der Model Checker bei der Verifikation eine Inkonsistenz fest, generiert er ein Gegenbeispiel (Counterexample) und weist gleichzeitig darauf hin, dass die gegebenen Eingabespezifikationen inkonsistent sind. Hier besteht die gewaltige Herausforderung darin, das generierte Gegenbeispiel zu verstehen, das oft sehr lang, kryptisch und komplex ist. Darüber hinaus liegt es in der Verantwortung der Ingenieurin bzw. des Ingenieurs, die inkonsistente Spezifikation in einer potenziell großen Menge von Spezifikationen zu identifizieren. Diese Arbeit schlägt einen Ansatz zur Erklärung von Gegenbeispielen (Counterexample Explanation Approach) vor, der die Verwendung von formalen Methoden vereinfacht und fördert, indem benutzerfreundliche Erklärungen der Verifikationsergebnisse der Ingenieurin bzw. dem Ingenieur präsentiert werden. Der Ansatz zur Erklärung von Gegenbeispielen wird mittels zweier Methoden evaluiert: (1) Evaluation anhand verschiedener Anwendungsbeispiele und (2) eine Benutzerstudie in Form eines One-Group Pretest-Posttest Experiments. / Whenever new requirements are introduced for a system, the correctness and consistency of the system specification must be verified, which is often done manually in industrial settings. One viable option to traverse disadvantages of this manual analysis is to employ the contract-based design, which can automate the verification process to determine whether the refinements of top-level requirements are consistent. Thus, verification can be performed iteratively to ensure the system’s correctness and consistency in the face of any change in specifications. Having said that, it is still challenging to deploy formal approaches in industries due to their lack of usability and their difficulties in interpreting verification results. For instance, if the model checker identifies inconsistency during the verification, it generates a counterexample while also indicating that the given input specifications are inconsistent. Here, the formidable challenge is to comprehend the generated counterexample, which is often lengthy, cryptic, and complex. Furthermore, it is the engineer’s responsibility to identify the inconsistent specification among a potentially huge set of specifications. This PhD thesis proposes a counterexample explanation approach for formal methods that simplifies and encourages their use by presenting user-friendly explanations of the verification results. The proposed counterexample explanation approach identifies and explains relevant information from the verification result in what seems like a natural language statement. The counterexample explanation approach extracts relevant information by identifying inconsistent specifications from among the set of specifications, as well as erroneous states and variables from the counterexample. The counterexample explanation approach is evaluated using two methods: (1) evaluation with different application examples, and (2) a user-study known as one-group pretest and posttest experiment.
115

Smooth Central and Non-Central Camera Models in Object Space

Rueß, Dominik 24 January 2024 (has links)
In den letzten Jahren sind immer mehr erschwingliche Kamera-Sensoren mit einer zunehmenden Vielfalt optischer Abbildungsfunktionen verfügbar geworden. Low-Cost-Optiken können aufgrund höherer Toleranzen und unterschiedlicher optischer Materialien von der gewünschten Lochkamera Metrik abweichen. Weitwinkel- und Fischaugenobjektive, verzerrende katadioptrische Objektive (spiegelnd und refraktiv) und andere ungewöhnliche Objektive weichen von der Annahme des Modells einer Lochkamera mit einer Brennweite ab. Actionkameras können die gesamte Umgebung mit zwei Objektiven abbilden, diese entsprechen meist nicht mehr dem Lochkameramodell. Kameras werden auch für Messaufgaben hinter zusätzlichen optischen Elementen eingesetzt. Die vorliegende Arbeit erweitert die ersten Erkenntnisse im Bereich der differenzierbaren (glatten) Kameramodelle ohne Einschränkungen. Viele existierende Modelle sind auf bestimmte Objektivtypen spezialisiert. In dieser Arbeit werden mehrere solcher allgemeinen Modelle eingeführt, ohne dass eine global feste Brennweite und spezielle Anforderungen an die Symmetrie der Abbildung erforderlich sind. Eine Einführung alternativer Fehlermetriken im Objektraum bringt auch enorme Rechenvorteile, da eine Abbildungsrichtung analytisch berechnet und viele der Berechnungsergebnisse konstant gehalten werden können. Zur Initialisierung solcher Modelle wird in dieser Arbeit eine generische lineare Kamera vorgestellt. Das wesentliche Merkmal dabei ist eine künstliche Transformation in höhere Dimensionen, welche mit linearen Verfahren weiterverwendet werden. Sie modellieren bereits nichtlineare Verzerrungen und Asymmetrien. Eine Multikamera-Kalibrierungssoftware wird ebenfalls beschrieben und implementiert. Das Ergebnis der Arbeit ist ein theoretischer Rahmen für glatte Kameramodelle im Objektraum selbst – anstelle der Abbildung in den Bildraum – mit mehreren konkreten Modellvorschlägen, Implementierungen und dem angepassten und erweiterten Kalibrierungsprozess. / In recent years, more and more affordable camera sensors with an increasing variety of optical imaging features have become available. Low-cost optics may deviate from the desired pinhole metric due to higher tolerances and different optical materials. Wide-angle and fisheye lenses, distorting catadioptric lenses (specular and refractive) and other unusual lenses deviate from the single focal pinhole camera model assumption, which is sometimes intentional. Action cameras can map the entire environment using two lenses, these usually no longer correspond to the pinhole camera model. Cameras are also used for measuring tasks behind additional optical elements – with unforeseeable deviations in the line of sight. The present work expands the first findings in the field of differentiable (smooth) camera models without constraints. Many existing models specialise in certain types of lenses. In this work, several such general models are introduced without requiring fixed global focal length and symmetry requirements. An introduction of alternative error metrics in the object space also gives enormous computational advantages, since one imaging direction can be calculated analytically and many of the calculation results can be kept constant. For the generation of meaningful starting values of such models, this work introduces a generic linear camera. The essential feature of is an artificial transformation into higher dimensions. These transformed coordinates can then continue to be used with linear methods. They already model non-linear distortions and asymmetries. A multi-camera calibration software that efficiently implements these models is also described and implemented. The result of the work is a theoretical framework for smooth camera models in the object space itself - instead of the established mapping into the image space - with several concrete model proposals, implementations and the adapted and extended calibration process.
116

Personalizing Online Courses / From generated Course Material to the Impact of Item Sequencing Strategies

Rüdian, Sylvio 26 July 2024 (has links)
Personalisierung ist ein aktuelles Thema im Bereich der Online-Lehre. Lernende sind divers, sie haben unterschiedliche Vorkenntnisse, adressieren verschiedene Lernziele und variieren in ihren (Lern-)Präferenzen. Aufgrund dieser Diversität besteht die Notwendigkeit, Onlinekurse an die Bedürfnisse der Lernenden anzupassen. Dabei wird das Ziel verfolgt, Lernende so zu motivieren, dass sie ein bestmögliches Lernergebnis erzielen können. Im Rahmen der Dissertation wurde die Domäne des Sprachenlernens gewählt, auf welche Methoden zur Personalisierung angewandt wurden. Eine initiale Analyse kommerzieller Sprachlern-Apps hat gezeigt, dass Personalisierung bislang nur rudimentär als Sequenzierungsstrategie umgesetzt wurde. Dabei beschränkt sich die Anwendung hauptsächlich auf das Lernen mit Karteikarten. Die Dissertation beschäftigt sich mit der übergeordneten Forschungsfrage wie Personalisierung in automatisch generierten Online-Sprachlernkursen angewandt und mit fundamentalen und experimentellen Sequenzierungsstrategien kombiniert werden kann. Hierzu setzt die vorliegende Arbeit eine modifizierte Version der "Meshing-Hypothese" exemplarisch als Sequenzierungsstrategie um. Die Idee dieser Strategie besteht darin, dass Lernende besser lernen, wenn die Lehrmethoden mit den Präferenzen der Lernenden übereinstimmen. Diese Strategie wird in der Forschung seit Jahrzehnten kontrovers diskutiert. In mehreren Schritten wurden verschiedene Perspektiven zur Anwendung der Personalisierung mit dieser Strategie untersucht. Zunächst wurde ein Instrument zur Erfassung von Präferenzen entwickelt. Die exemplarische Auswahl beschränkt sich auf jene Präferenzen, welche durch konkrete Lehrmethoden abgebildet werden können. Anschließend wurde ein Experiment durchgeführt, um Leistungsunterschiede zwischen Lernenden mit unterschiedlichen Präferenzen zu ermitteln. Dazu wurden Lehrmethoden in einen konkreten Sprachlernkurs mit einer vordefinierten Lernprogression imitiert. Im nächsten Schritt wurde die technische Basis für adaptive Kurse vorbereitet. Zu diesem Zweck wurde die Lernplattform Moodle funktional so angepasst, dass sie für Experimente zur Personalisierung von Onlinekursen genutzt werden kann. Danach wurde die inhaltliche Basis vorbereitet, welche die Generierung von Sprachlerneinheiten unter Verwendung modernster generativer Modelle ermöglicht. Die dabei entstehenden interaktiven Lernmaterialien wurden um Imitationen zu einer Auswahl von Lehrmethoden ergänzt. Das so generierte Lernmaterial musste anschließend in eine optimale Reihenfolge gebracht werden. Ein neuer Ansatz zur Kombination verschiedener Sequenzierungsstrategien wird unter der Verwendung generativer neuronaler Netze eingeführt. Darauffolgend wird ein Konzept vorgestellt, das es ermöglicht, Sequenzierungsstrategien zu verstärken, wenn sie einen positiven Effekt auf das Lernergebnis haben oder sie zu vergessen, wenn der Effekt zu gering ist oder nicht existiert. Das Konzept wurde zunächst simuliert. Anschließend wurden die generierten Lernmaterialien, die technische Basis, die Sequenzierungsstrategien und die Präferenzen der Lernenden in einem finalen Experiment kombiniert, um die modifizierte Meshing-Hypothese als Fallbeispiel umzusetzen. Hierzu wurde das vorweg simulierte Konzept des Verstärkens oder Vergessens von Sequenzierungsstrategien in einem realen Online-Sprachlernkurs praktisch angewandt. Die im Rahmen der Dissertation durchgeführten Experimente erlauben Schlussfolgerungen für die Generierung und Personalisierung von Sprachlernkursen. Darüber hinaus geben mehrere Machbarkeitsstudien (Proof-of-Concepts) Einblicke in die praktische Anwendbarkeit der Ansätze. / Recently, personalization has become a topic of some interest in the field of education. Learners possess different levels of prior knowledge, along with various learning goals and preferences. This diversity underscores the necessity of adapting online courses to suit learners’ needs, with the ultimate goal of engaging learners for optimal learning outcomes. As a representative domain, the field of language learning was chosen, to which personalization has been applied. An initial analysis of commercial language learning apps revealed the scarce realization of personalization, mainly limited to flashcard learning as an item sequencing strategy. Subsequently, the dissertation focused on the overall research question: How can personalization in auto-generated online language learning courses be utilized and combined with fundamental and experimental item sequencing strategies? Therefore, the dissertation employed a modified version of the “Meshing Hypothesis” as an example, proposing that students learn more effectively when instructional teaching methods align with their preference levels. Its original strategy has been controversially discussed in research for decades. The research unfolded in several stages to utilize personalization, commencing with the development of an instrument to collect preferences linked to instructional teaching methods. An experiment was conducted to discern performance differences among learners with varying preference levels. This involved imitating scenarios for some instructional teaching methods within an online language learning course that follows a fixed learning progression. The subsequent phase concentrated on preparing the technical groundwork for personalized courses. To this end, the Moodle learning platform was functionally adapted to facilitate experiments in personalizing online courses. Simultaneously, a contextual foundation was established, enabling the generation of template-based language learning units through cutting-edge generative models. Applied imitations of a selection of instructional methods enhanced the resulting interactive learning materials. In order to optimize the arrangement of the generated learning materials, a novel approach was introduced, combining multiple item sequencing strategies using generative neural networks. A conceptual framework was introduced, allowing for the amplification of sequencing strategies that positively impact learning outcomes or their removal if the effect is negligible. First, the concept was simulated. Then, the technical foundation, generated learning materials, item sequencing strategies, and learner preferences were combined in a final experiment to employ the modified Meshing Hypothesis and to utilize the idea of “unlearning” item sequencing strategies in a real online language learning course. The experiments conducted in this dissertation allow conclusions for generating and personalizing online language learning courses. Furthermore, several proof-of-concepts provide insights into the applicability of the approaches to be drawn for practice.
117

Unterrichten und Arbeiten mit digitalen Medien – ein Design-Based Research Ansatz zur Gestaltung einer wirksamen Lehrkräftefortbildung

Ghomi, Mina 25 July 2024 (has links)
Alle Lehrkräfte benötigen für ihre Profession spezifische digitale Kompetenzen, um das Potenzial digitaler Medien zum Lehren und Lernen nutzen zu können und um Schüler:innen zu befähigen, kompetent mit digitalen Medien umzugehen. Es fehlt an wirksamen Fortbildungsangeboten. Diese Dissertation möchte einen Beitrag dazu leisten und geht zwei Forschungsfragen nach: 1) Wie sollte eine fächerübergreifende Fortbildung für Lehrkräfte weiterführender Schulen inhaltlich, methodisch-didaktisch und organisatorisch gestaltet sein, um die professionsspezifische digitale Kompetenz der Teilnehmenden für sie zufriedenstellend zu fördern? 2) Welche Wirkung hat die konzipierte Fortbildung auf die selbsteingeschätzte digitale Kompetenz und das berichtete berufliche Handeln mit digitalen Medien? Die theoretische Grundlage für die Konzeption der Fortbildungsreihe bilden der Europäische DigCompEdu-Rahmen und der aktuelle Forschungsstand zu wirksamen Lehrkräftefortbildungen. Als forschungsmethodische Grundlage wurde der iterative Design-Based Research Ansatz gewählt. Das zu Beginn theoriegeleitet entwickelte Fortbildungskonzept wurde mit Hilfe qualitativer und quantitativer Methoden in drei Zyklen mit insgesamt 13 Fortbildungsgruppen und 247 Teilnehmenden weiterentwickelt und evaluiert. Aus der Studie resultierte ein für die Mehrheit zufriedenstellendes und evidenzbasiertes Konzept einer vierteiligen Fortbildungsreihe mit umfassenden Materialien, welches die selbsteingeschätzte digitale Kompetenz signifikant verbessert und das berichtete berufliche Handeln mit digitalen Medien nachweislich verändert. Ferner konnten die aus der Literatur identifizierten Merkmale zur inhaltlichen, methodisch-didaktischen und organisatorischen Gestaltung wirksamer Lehrkräftefortbildungen für diesen Kontext bestätigt, konkretisiert und ergänzt werden, woraus Gestaltungsempfehlungen für zukünftige Lehrkräftefortbildungen zur Förderung der professionspezifischen digitalen Kompetenz abgeleitet werden konnten. / To harness the potential of digital technologies for teaching and learning in schools, and to enable students to use digital technologies competently, teachers need specific digital competencies for their profession. This thesis aims to address the lack in effective Continuous Professional Development (CPD) courses in digital competences by answering the following research questions: 1) How should an interdisciplinary in-service training course for secondary school teachers be designed in terms of content, methodological-didactic and organisational aspects in order to satisfactorily promote the profession-specific digital competence of the participants? 2) What is the impact of the designed CPD course on the self-assessed digital competence of the participants and in their reported professional use of digital technologies? The European Framework DigCompEdu and the state-of-the-art research on effective CPD for teachers form the theoretical basis for the design of the CPD course. The iterative Design-Based Research approach was chosen as the research methodology. The initial theory-based CPD design was continuously re-designed and evaluated in three cycles with a total of 13 groups and 247 participants using qualitative and quantitative methods. The study provided an evidence-based concept for a four-part CPD course that is acceptable to the majority of respondents and that significantly improves the self-assessed digital competence. Furthermore, the design principles identified in the literature for effective CPD in terms of content, methodology, didactics and organisation could be confirmed, specified and extended for the context of the interdisciplinary promotion of DigCompEdu competences of teachers at secondary schools. Finally, recommendations are derived for the design of future CPD courses to promote the digital competences of the profession.
118

Peer-to-Peer algorithms in wireless ad-hoc networks for Disaster Management

Geibig, Joanna 06 May 2016 (has links)
In dieser Arbeit werden P2P-Algorithmen in ressourcen-limitierten und irregulären Wireless-ad-hoc-Netzwerken (WAHN) betrachtet, die effizient, skalierbar und fehlertolerant in Situationen arbeiten sollen, in denen eine räumlich benachbarte Gruppe von Netzwerkknoten simultan ausfällt. Es wird ein fehlertolerantes Replikationsschema zur datenzentrischen Speicherung betrachtet, und eine selbstorganisierende, skalierbare Berechnung von Datenaggregaten zur Lösung des Konsensproblems. Existierende P2P-Algorithmen die Skalierbarkeit, Fehlertoleranz und Selbstorganisation in drahtgebundenen Netzen betrachten sind für die Klasse des WAHNs nicht geeignet weil sie Engpässe in WAHNs verursachen können und in Katastrophenmanagement-szenarien die Zuverlässigkeit der Daten nicht sicherstellen können. Die Verwendung von Informationen der geographischen Position von Knoten ist ein möglicher Weg, um die Effizienz und Skalierbarkeit von P2P-Anwendungen in drahtlosen Netzwerken zu verbessern. In dieser Arbeit wird ein neuer Ansatz vorgestellt, wie auf effiziente Weise 1) Gebiet des Netzwerks, das die geographische Ausbreitung seiner Knoten umfasst, und 2) Gruppenzugehörigkeit, wobei jeder Knoten zu genau einer Gruppe innerhalb eines einstellbaren Gebietes gehört, erzeugt werden kann. Dadurch können: existierenden, skalierbare P2P Datenspeicheralgorithmen für WAHNs genutzt werden, effiziente, fehlertolerante Replikation erstellt werden, die Effizienz von geographischen Routing und der Suche nach Replikaten verbessert werden sowie, Anwendungen auf einen bestimmten geographischen Bereich innerhalb des WAHN beschränkt werden (z.B. im Aggregationsprotokoll). Die entwickelten Protokolle sind tolerant gegenüber Nachrichtenverlust und verwenden ausschließlich lokale Broadcast-Nachrichten. Das Protokoll wurde mit Simulationen untersucht, die auf realistischen Netzwerktopologien mit Anteilen an sehr spärlichen und sehr dichten Knotenansammlungen basieren. / This dissertation addresses the challenge of reaching efficiency, scalability and fault-tolerance by P2P algorithms for resource-limited and irregular wireless ad-hoc networks (WAHNs) in disaster management (DM) scenarios where a spatially correlated group of nodes may crash simultaneously. In particular, we consider a fault-tolerant replication scheme for data-centric storage and a self-organized, scalable calculation of localized data aggregates for solving the consensus problem. Existing Peer-to-Peer algorithms that address issues of scalability, fault tolerance and self-organization in wired networks are inadequate for the addressed systems, they may cause bottlenecks in WAHNs and use replication that abstracts from geographical location of replicas and cannot therefore supply data survivability in DM scenarios in WAHNs. Incorporating information on geographical location of nodes is a recognized way to increase the efficiency and scalability of P2P applications in wireless networks. This dissertation proposes to efficiently construct new position information in a location-aware WAHN, where each node knows its own location and location of its direct neighbors. The new information are: network area, which expresses the geographical area covered by the network, and group membership, where each node belongs to exactly one group that is placed over the area of a maximum defined size. Together, they enable the use of the existing, scalable P2P data store in WAHNs (Geographical Hash Table), allow design of efficient fault-tolerant replication for the assumed fault model, increase efficiency of geographic routing and replica search, and allow to limit the geographical extent of activity of any distributed application, as we show using an example of data aggregation protocol. Proposed protocols tolerate message loss and use local broadcast only. They are evaluated by simulation over irregular topologies following the node placement of the existing, large WAHNs.
119

Extremal hypergraph theory and algorithmic regularity lemma for sparse graphs

Hàn, Hiêp 18 October 2011 (has links)
Einst als Hilfssatz für Szemerédis Theorem entwickelt, hat sich das Regularitätslemma in den vergangenen drei Jahrzehnten als eines der wichtigsten Werkzeuge der Graphentheorie etabliert. Im Wesentlichen hat das Lemma zum Inhalt, dass dichte Graphen durch eine konstante Anzahl quasizufälliger, bipartiter Graphen approximiert werden können, wodurch zwischen deterministischen und zufälligen Graphen eine Brücke geschlagen wird. Da letztere viel einfacher zu handhaben sind, stellt diese Verbindung oftmals eine wertvolle Zusatzinformation dar. Vom Regularitätslemma ausgehend gliedert sich die vorliegende Arbeit in zwei Teile. Mit Fragestellungen der Extremalen Hypergraphentheorie beschäftigt sich der erste Teil der Arbeit. Es wird zunächst eine Version des Regularitätslemmas Hypergraphen angewandt, um asymptotisch scharfe Schranken für das Auftreten von Hamiltonkreisen in uniformen Hypergraphen mit hohem Minimalgrad herzuleiten. Nachgewiesen werden des Weiteren asymptotisch scharfe Schranken für die Existenz von perfekten und nahezu perfekten Matchings in uniformen Hypergraphen mit hohem Minimalgrad. Im zweiten Teil der Arbeit wird ein neuer, Szemerédis ursprüngliches Konzept generalisierender Regularitätsbegriff eingeführt. Diesbezüglich wird ein Algorithmus vorgestellt, welcher zu einem gegebenen Graphen ohne zu dichte induzierte Subgraphen eine reguläre Partition in polynomieller Zeit berechnet. Als eine Anwendung dieses Resultats wird gezeigt, dass das Problem MAX-CUT für die oben genannte Graphenklasse in polynomieller Zeit bis auf einen multiplikativen Faktor von (1+o(1)) approximierbar ist. Der Untersuchung von Chung, Graham und Wilson zu quasizufälligen Graphen folgend wird ferner der sich aus dem neuen Regularitätskonzept ergebende Begriff der Quasizufälligkeit studiert und in Hinsicht darauf eine Charakterisierung mittels Eigenwertseparation der normalisierten Laplaceschen Matrix angegeben. / Once invented as an auxiliary lemma for Szemerédi''s Theorem the regularity lemma has become one of the most powerful tools in graph theory in the last three decades which has been widely applied in several fields of mathematics and theoretical computer science. Roughly speaking the lemma asserts that dense graphs can be approximated by a constant number of bipartite quasi-random graphs, thus, it narrows the gap between deterministic and random graphs. Since the latter are much easier to handle this information is often very useful. With the regularity lemma as the starting point two roads diverge in this thesis aiming at applications of the concept of regularity on the one hand and clarification of several aspects of this concept on the other. In the first part we deal with questions from extremal hypergraph theory and foremost we will use a generalised version of Szemerédi''s regularity lemma for uniform hypergraphs to prove asymptotically sharp bounds on the minimum degree which ensure the existence of Hamilton cycles in uniform hypergraphs. Moreover, we derive (asymptotically sharp) bounds on minimum degrees of uniform hypergraphs which guarantee the appearance of perfect and nearly perfect matchings. In the second part a novel notion of regularity will be introduced which generalises Szemerédi''s original concept. Concerning this new concept we provide a polynomial time algorithm which computes a regular partition for given graphs without too dense induced subgraphs. As an application we show that for the above mentioned class of graphs the problem MAX-CUT can be approximated within a multiplicative factor of (1+o(1)) in polynomial time. Furthermore, pursuing the line of research of Chung, Graham and Wilson on quasi-random graphs we study the notion of quasi-randomness resulting from the new notion of regularity and concerning this we provide a characterisation in terms of eigenvalue separation of the normalised Laplacian matrix.
120

Adaptive investment strategies for different scenarios

Barrientos, Jesús Emeterio Navarro 20 September 2010 (has links)
Die folgende Arbeit befasst sich mit den Untersuchungen von Problemen der Optimierung von Ressourcen in Umgebungen mit unvorhersehbarem Verhalten, wo: (i) nicht alle Informationen verfügbar sind, und (ii) die Umgebung unbekannte zeitliche Veränderungen aufweist. Diese Dissertation ist folgendermaßen gegliedert: Teil I stellt das Investitionsmodell vor. Es wird sowohl eine analytische als auch eine numerische Analyse der Dynamik dieses Modells für feste Investitionsstrategien in verschiedenen zufälligen Umgebungen vorgestellt. In diesem Investitionsmodell hängt die Dynamik des Budgets des Agenten x(t) von der Zufälligkeit der exogenen Rendite r(t) ab, wofür verschiedene Annahmen diskutiert wurden. Die Heavy-tailed Verteilung des Budgets wurde numerisch untersucht und mit theoretischen Vorhersagen verglichen. In Teil II wurde ein Investitionsszenario mit stilisierten exogenen Renditen untersucht, das durch eine periodische Funktion mit verschiedenen Arten und Stärken von Rauschen charakterisiert ist. In diesem Szenario wurden unterschiedliche Strategien, Agenten-Verhalten und Agenten Fähigkeiten zur Vorhersage der zukünftigen r(t) untersucht. Hier wurden Null-intelligenz-Agenten, die über technischen Analysen verfügen, mit Agenten, die über genetischen Algorithmen verfügen, verglichen. Umfangreiche Ergebnisse von Computersimulationen wurden präsentiert, in denen nachgewiesen wurde, dass für exogene Renditen mit Periodizität: (i) das wagemutige das vorsichtige Verhalten überbietet, und (ii) die genetischen Algorithmen in der Lage sind, die optimalen Investitionsstrategien zu finden und deshalb die anderen Strategien überbieten. Obwohl der Schwerpunkt dieser Dissertation im Zusammenhang mit dem Gebiet der Informatik präsentiert wurde, können die hier vorgestellten Ergebnisse auch in Szenarien angewendet werden, in denen der Agent anderere Arten von Ressourcen steuern muss, wie z.B. Energie, Zeitverbrauch, erwartete Lebensdauer, etc. / The main goal of this PhD thesis is to investigate some of the problems related to optimization of resources in environments with unpredictable behavior where: (i) not all information is available and (ii) the environment presents unknown temporal changes. The investigations in this PhD thesis are divided in two parts: Part I presents the investment model and some analytical as well as numerical analysis of the dynamics of this model for fixed investment strategies in different random environments. In this investment model, the dynamics of the investor''s budget x(t) depend on the stochasticity of the exogenous return on investment r(t) for which different model assumptions are discussed. The fat-tail distribution of the budget is investigated numerically and compared with theoretical predictions. Part II investigates an investment scenario with stylized exogenous returns characterized by a periodic function with different types and levels of noise. In this scenario, different strategies, agent''s behaviors and agent''s capacities to predict the future r(t) are investigated. Here, ''zero-intelligent'' agents using technical analysis (such as moving least squares) are compared with agents using genetic algorithms to predict r(t). Results are presented for extensive computer simulations, which shows that for exogenous returns with periodicity: (i) the daring behavior outperforms the cautious behavior and (ii) the genetic algorithm is able to find the optimal investment strategy by itself, thus outperforming the other strategies considered. Finally, the investment model is extended to include the formation of common investment projects between agents. Although the main focus of this PhD thesis is more related to the area of computer science, the results presented here can be also applied to scenarios where the agent has to control other kinds of resources, such as energy, time consumption, expected life time, etc.

Page generated in 0.0695 seconds