• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 48
  • 3
  • Tagged with
  • 102
  • 100
  • 53
  • 53
  • 52
  • 52
  • 52
  • 51
  • 49
  • 46
  • 42
  • 39
  • 39
  • 39
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Preprocessing to Deal with Hard Problems

Hols, Eva-Maria Christiana 22 May 2020 (has links)
In der klassischen Komplexitätstheorie unterscheiden wir zwischen der Klasse P von in Polynomialzeit lösbaren Problemen, und der Klasse NP-schwer von Problemen bei denen die allgemeine Annahme ist, dass diese nicht in Polynomialzeit lösbar sind. Allerdings sind viele Probleme, die wir lösen möchten, NP-schwer. Gleichzeitig besteht eine große Diskrepanz zwischen den empirisch beobachteten und den festgestellten worst-case Laufzeiten. Es ist bekannt, dass Vorverarbeitung oder Datenreduktion auf realen Instanzen zu Laufzeitverbesserungen führt. Hier stoßen wir an die Grenze der klassischen Komplexitätstheorie. Der Fokus dieser Arbeit liegt auf Vorverarbeitungsalgorithmen für NP-schwere Probleme. Unser Ziel ist es, bestimmte Instanzen eines NP-schweren Problems vorverarbeiten zu können, indem wir die Struktur betrachten. Genauer gesagt, für eine gegebene Instanz und einen zusätzlichen Parameter l, möchten wir in Polynomialzeit eine äquivalente Instanz berechnen, deren Größe und Parameterwert nur durch eine Funktion im Parameterwert l beschränkt ist. In der parametrisierten Komplexitätstheorie heißen diese Algorithmen Kernelisierung. Wir werden drei NP-schwere Graphenprobleme betrachten, nämlich Vertex Cover, Edge Dominating Set und Subset Feedback Vertex Set. Für Vertex Cover werden wir bekannte Ergebnisse für Kernelisierungen vereinheitlichen, wenn der Parameter die Größe einer Entfernungsmenge zu einer gegebenen Graphklasse ist. Anschließend untersuchen wir die Kernelisierbarkeit von Edge Dominating Set. Es stellt sich heraus, dass die Kernelisierbarkeit deutlich komplexer ist. Dennoch klassifizieren wir die Existenz einer polynomiellen Kernelisierung, wenn jeder Graph in der Graphklasse eine disjunkte Vereinigung von konstant großen Komponenten ist. Schließlich betrachten wir das Subset Feedback Vertex Set Problem und zeigen, dass es eine randomisierte polynomielle Kernelisierung hat, wenn der Parameter die Lösungsgröße ist. / In classical complexity theory, we distinguish between the class P, of polynomial-time solvable problems, and the class NP-hard, of problems where the widely-held belief is that we cannot solve these problems in polynomial time. Unfortunately, many of the problems we want to solve are NP-hard. At the same time, there is a large discrepancy between the empirically observed running times and the established worst-case bounds. Using preprocessing or data reductions on real-world instances is known to lead to huge improvements in the running time. Here we come to the limits of classical complexity theory. In this thesis, we focus on preprocessing algorithms for NP-hard problems. Our goal is to find ways to preprocess certain instances of an NP-hard problem by considering the structure of the input instance. More precisely, given an instance and an additional parameter l, we want to compute in polynomial time an equivalent instance whose size and parameter value is bounded by a function in the parameter l only. In the field of parameterized complexity, these algorithms are called kernelizations. We will consider three NP-hard graph problems, namely Vertex Cover, Edge Dominating Set, and Subset Feedback Vertex Set. For Vertex Cover, we will unify known results for kernelizations when parameterized by the size of a deletion set to a specified graph class. Afterwards, we study the existence of polynomial kernelizations for Edge Dominating Set when parameterized by the size of a deletion set to a graph class. We point out that the existence of polynomial kernelizations is much more complicated than for Vertex Cover. Nevertheless, we fully classify the existence of polynomial kernelizations when every graph in the graph class is a disjoint union of constant size components. Finally, we consider graph cut problems, especially the Subset Feedback Vertex Set problem. We show that this problem has a randomized polynomial kernelization when the parameter is the solution size.
22

Distance-based methods for the analysis of Next-Generation sequencing data

Otto, Raik 14 September 2021 (has links)
Die Analyse von NGS Daten ist ein zentraler Aspekt der modernen genomischen Forschung. Bei der Extraktion von Daten aus den beiden am häufigsten verwendeten Quellorganismen bestehen jedoch vielfältige Problemstellungen. Im ersten Kapitel wird ein neuartiger Ansatz vorgestellt welcher einen Abstand zwischen Krebszellinienkulturen auf Grundlage ihrer kleinen genomischen Varianten bestimmt um die Kulturen zu identifizieren. Eine Voll-Exom sequenzierte Kultur wird durch paarweise Vergleiche zu Referenzdatensätzen identifiziert so ein gemessener Abstand geringer ist als dies bei nicht verwandten Kulturen zu erwarten wäre. Die Wirksamkeit der Methode wurde verifiziert, jedoch verbleiben Einschränkung da nur das Sequenzierformat des Voll-Exoms unterstützt wird. Daher wird im zweiten Kapitel eine publizierte Modifikation des Ansatzes vorgestellt welcher die Unterstützung der weitläufig genutzten Bulk RNA sowie der Panel-Sequenzierung ermöglicht. Die Ausweitung der Technologiebasis führt jedoch zu einer Verstärkung von Störeffekten welche zu Verletzungen der mathematischen Konditionen einer Abstandsmetrik führen. Daher werden die entstandenen Verletzungen durch statistische Verfahren zuerst quantifiziert und danach durch dynamische Schwellwertanpassungen erfolgreich kompensiert. Das dritte Kapitel stellt eine neuartige Daten-Aufwertungsmethode (Data-Augmentation) vor welche das Trainieren von maschinellen Lernmodellen in Abwesenheit von neoplastischen Trainingsdaten ermöglicht. Ein abstraktes Abstandsmaß wird zwischen neoplastischen Entitäten sowie Entitäten gesundem Ursprungs mittels einer transkriptomischen Dekonvolution hergestellt. Die Ausgabe der Dekonvolution erlaubt dann das effektive Vorhersagen von klinischen Eigenschaften von seltenen jedoch biologisch vielfältigen Krebsarten wobei die prädiktive Kraft des Verfahrens der des etablierten Goldstandard ebenbürtig ist. / The analysis of NGS data is a central aspect of modern Molecular Genetics and Oncology. The first scientific contribution is the development of a method which identifies Whole-exome-sequenced CCL via the quantification of a distance between their sets of small genomic variants. A distinguishing aspect of the method is that it was designed for the computer-based identification of NGS-sequenced CCL. An identification of an unknown CCL occurs when its abstract distance to a known CCL is smaller than is expected due to chance. The method performed favorably during benchmarks but only supported the Whole-exome-sequencing technology. The second contribution therefore extended the identification method by additionally supporting the Bulk mRNA-sequencing technology and Panel-sequencing format. However, the technological extension incurred predictive biases which detrimentally affected the quantification of abstract distances. Hence, statistical methods were introduced to quantify and compensate for confounding factors. The method revealed a heterogeneity-robust benchmark performance at the trade-off of a slightly reduced sensitivity compared to the Whole-exome-sequencing method. The third contribution is a method which trains Machine-Learning models for rare and diverse cancer types. Machine-Learning models are subsequently trained on these distances to predict clinically relevant characteristics. The performance of such-trained models was comparable to that of models trained on both the substituted neoplastic data and the gold-standard biomarker Ki-67. No proliferation rate-indicative features were utilized to predict clinical characteristics which is why the method can complement the proliferation rate-oriented pathological assessment of biopsies. The thesis revealed that the quantification of an abstract distance can address sources of erroneous NGS data analysis.
23

Probabilistic Graphical Models: an Application in Synchronization and Localization

Goodarzi, Meysam 16 June 2023 (has links)
Die Lokalisierung von mobilen Nutzern (MU) in sehr dichten Netzen erfordert häufig die Synchronisierung der Access Points (APs) untereinander. Erstens konzentriert sich diese Arbeit auf die Lösung des Problems der Zeitsynchronisation in 5G-Netzwerken, indem ein hybrider Bayesischer Ansatz für die Schätzung des Taktversatzes und des Versatzes verwendet wird. Wir untersuchen und demonstrieren den beträchtlichen Nutzen der Belief Propagation (BP), die auf factor graphs läuft, um eine präzise netzwerkweite Synchronisation zu erreichen. Darüber hinaus nutzen wir die Vorteile der Bayesischen Rekursiven Filterung (BRF), um den Zeitstempel-Fehler bei der paarweisen Synchronisierung zu verringern. Schließlich zeigen wir die Vorzüge der hybriden Synchronisation auf, indem wir ein großes Netzwerk in gemeinsame und lokale Synchronisationsdomänen unterteilen und so den am besten geeigneten Synchronisationsalgorithmus (BP- oder BRF-basiert) auf jede Domäne anwenden können. Zweitens schlagen wir einen Deep Neural Network (DNN)-gestützten Particle Filter-basierten (DePF)-Ansatz vor, um das gemeinsame MU-Sync&loc-Problem zu lösen. Insbesondere setzt DePF einen asymmetrischen Zeitstempel-Austauschmechanismus zwischen den MUs und den APs ein, der Informationen über den Taktversatz, die Zeitverschiebung der MUs, und die AP-MU Abstand liefert. Zur Schätzung des Ankunftswinkels des empfangenen Synchronisierungspakets nutzt DePF den multiple signal classification Algorithmus, der durch die Channel Impulse Response (CIR) der Synchronisierungspakete gespeist wird. Die CIR wird auch genutzt, um den Verbindungszustand zu bestimmen, d. h. Line-of-Sight (LoS) oder Non-LoS (NLoS). Schließlich nutzt DePF particle Gaussian mixtures, die eine hybride partikelbasierte und parametrische BRF-Fusion der vorgenannten Informationen ermöglichen und die Position und die Taktparameter der MUs gemeinsam schätzen. / Mobile User (MU) localization in ultra dense networks often requires, on one hand, the Access Points (APs) to be synchronized among each other, and, on the other hand, the MU-AP synchronization. In this work, we firstly address the former, which eventually provides a basis for the latter, i.e., for the joint MU synchronization and localization (sync&loc). In particular, firstly, this work focuses on tackling the time synchronization problem in 5G networks by adopting a hybrid Bayesian approach for clock offset and skew estimation. Specifically, we investigate and demonstrate the substantial benefit of Belief Propagation (BP) running on Factor Graphs (FGs) in achieving precise network-wide synchronization. Moreover, we take advantage of Bayesian Recursive Filtering (BRF) to mitigate the time-stamping error in pairwise synchronization. Finally, we reveal the merit of hybrid synchronization by dividing a large-scale network into common and local synchronization domains, thereby being able to apply the most suitable synchronization algorithm (BP- or BRF-based) on each domain. Secondly, we propose a Deep Neural Network (DNN)-assisted Particle Filter-based (DePF) approach to address the MU joint sync&loc problem. In particular, DePF deploys an asymmetric time-stamp exchange mechanism between the MUs and the APs, which provides information about the MUs' clock offset, skew, and AP-MU distance. In addition, to estimate the Angle of Arrival (AoA) of the received synchronization packet, DePF draws on the Multiple Signal Classification (MUSIC) algorithm that is fed by the Channel Impulse Response (CIR) experienced by the sync packets. The CIR is also leveraged on to determine the link condition, i.e. Line-of-Sight (LoS) or Non-LoS (NLoS). Finally DePF capitalizes on particle Gaussian mixtures which allow for a hybrid particle-based and parametric BRF fusion of the aforementioned pieces of information and jointly estimate the position and clock parameters of the MUs.
24

Determination and Improvement of Spatial Resolution obtained by Optical Remote Sensing Systems

Meißner, Henry 29 March 2021 (has links)
Das Bereitstellen von Parametern bezüglich Auflösungsvermögen und effektiver Auflösung ist ein gut erforschtes Wissenschaftsfeld, dennoch sind noch einige offen Fragen zu klären, wenn eine standardisierte Erhebung angestrebt wird. Zu diesem Zweck ist im Rahmen der vorliegenden Arbeit ein Framework definiert und mathematisch und methodologisch beschrieben worden unter Einbeziehung aller untergeordneten Prozesse. Weiterhin liefert sie einen detaillierten Überblick zu den verwendeten Methoden und Strukturen, um räumliche Auflösung zu messen. Das zuvor definierte Framework wird darüber hinaus genutzt, um alle zugehörigen Probleme bezüglich eines genormten Prozesses zu identifizieren und zu lösen. Der so definierte Prozess ist außerdem Teil der bevorstehenden, neuen Norm: DIN 18740-8. Im Hinblick auf die Norm sind alle Messeinflüsse an den möglichen Stellen quantifiziert worden und an Stellen, wo dies nicht möglich ist, wurden Vorkehrungen definiert, die diese Einflüsse mindern. Darüber hinaus wurde ein zugehöriges Softwaretool entwickelt, das ebenfalls die neue Norm unterstützt. Als weiterer Schwerpunkt dieser Arbeit wurde ein Verfahren zur Verbesserung der räumlichen Auflösung entwickelt und bewertet. Das zugehörige Softwaretool kombiniert dabei verschiedene Super-Resolution-Ansätze unter Einbeziehung zusätzlicher Kenntnis über die Bildqualität. Der neuartige Super-Resolution-Ansatz verbessert die räumliche Auflösung von Luftbildern und True-Ortho-Mosaiken indem er ein Set von niedrig aufgelösten Rohbildern, deren optimierter, äußerer und innerer Orientierung und die abgeleitete 3D-Oberfläche als Eingangsdaten akzeptiert. Anschließend werden ein oder mehrere hochaufgelöste Bilder als hybride Kombination von klassischen Super-Resolution-Methoden und De-Mosaikierung berechnet, unter Berücksichtigung der photogrammetrischen Projektionen auf die 3D-Oberfläche. Dabei werden Limitierungen der Bildkoregistrierung mit üblich verwendeten Optical-Flow-Ansätzen überwunden. / Although acquisition of resolving power and effective spatial resolution is a well-studied field of research, there are still several scientific questions to be answered when it comes to a standardized determination. Therefore, this thesis provides a description of a framework for the imaging process of remote sensing sensors mathematically and methodologically including imaging components and subsequent processes. Furthermore, a detailed review for different structures and methods to measure spatial resolution is included. Aforementioned framework then is utilized to identify related issues to a standardized process obtaining spatial resolution parameters as an image quality criterion to support an upcoming standard DIN 18740-8. With respect to define the norm-procedure every measurement influence is quantified where possible and in other cases arrangements are specified to diminish their influence. Moreover, the development of an associated software measurement tool has been accomplished as part of this thesis, which also supports the norm for aerial image quality, spatial resolution in particular. As part of a further objective of this thesis, a super-resolution approach to improve spatial resolution of aerial images has been developed and evaluated. The related software tool is able to combine different super-resolution techniques and includes known image quality parameter in subsequent calculations. The novel super-resolution approach improves spatial resolution of aerial imagery and true ortho-mosaics by taking a set of multiple low-resolved raw images (color filter array), their optimized exterior and interior orientation parameters and the derived 3D-surface as input. Then, one or more super-resolved images are calculated as a hybrid of classic super-resolution method and demosaicing while considering photogrammetric back-projections onto the 3D-surface. Thereby, limitations of image co-registration with commonly used optical flow approaches can be neglected.
25

Designing a Multimedia Intervention for Illiterate and Semi-Illiterate Pregnant Women in Developing Countries: A Case of Uganda

Katusiime, Jane 19 September 2022 (has links)
Die hohe Müttersterblichkeit in Entwicklungsländern ist zum Teil auf indirekte Faktoren wie Analphabetismus und eingeschränkten Zugang zu Gesundheitsinformationen für Mütter zurückzuführen. Während gebildete Frauen auf Gesundheitsinformationen über Online-Plattformen und mHealth-Apps zugreifen können, müssen Analphabetinnen diese in Gesundheitseinrichtungen abrufen, was aufgrund der Transportkosten oft nicht möglich ist. Mobilfunktechnologie hat in der Gesundheitsversorgung Chancen für ressourcenarme Gemeinschaften eröffnet, die sonst nicht von den digitalen Technologien profitiert hätten. Obwohl Mobilfunktechnologie in der Müttergesundheit eingesetzt wird, können die meisten Maßnahmen nicht von Analphabeten genutzt werden, verwenden Sicherheitsmodelle die nicht auf den Kontext von Entwicklungsländern zugeschnitten sind, und wurden nicht auf ihre Auswirkungen auf die Müttergesundheit hin evaluiert. In dieser Arbeit wurden zwei (Web und Mobile) Apps entwickelt, die die Übermittlung von multimedialen Nachrichten zur Müttergesundheit, Terminerinnerungen und Anrufe/Chats erleichtern. Um die Anforderungen der Nutzer zu erfassen, wurde eine Feldstudie mit halbstrukturierten Interviews und Fokusgruppendiskussionen mit schwangeren Analphabetinnen, Gesundheitsexperten und Entwicklern durchgeführt. Es folgte die Entwicklung eines Sicherheitsmodells (T2RoL) zur Sicherung der Gesundheitsinformationen in den Apps, die dann nach einem nutzerzentrierten Designansatz entwickelt wurden. Eine zweite Feldstudie in Form von halbstrukturierten Interviews und Umfragen wurde durchgeführt, um die mobile App in einer randomisierten kontrollierten Studie mit 80 schwangeren Analphabetinnen über 9 Monate zu evaluieren. Die Auswertung zeigte, dass die App akzeptiert wurde sowie einfach zu erlernen und zu benutzen war. Das Wissen über Müttergesundheit in der Interventionsgruppe verbesserte sich, was sich positiv auf gesundheitsbezogene Entscheidungen und Gesundheitsmaßnahmen auswirkte. / Maternal mortality is high in developing countries partly due to indirect factors such as illiteracy and limited access to maternal health information. While literate women can access health information from online platforms, and mHealth apps, illiterate women must get it from health facilities which is often not possible due to lack of transport fees. Mobile technology has opened opportunities in maternal health care for low resource communities that would otherwise not have benefited from digital technologies. Although used in maternal health, most interventions are not usable by the illiterate, use security models that are not tailored to the developing countries’ context, and have not been evaluated to assess their impact on maternal health care. In this thesis, two (web and mobile) apps that facilitate delivery of multimedia-based maternal health messages, appointment reminders, and calls/ chats were developed. To gather user requirements, a field study in form of semi-structured interviews and focus group discussions was conducted with illiterate pregnant women, health practitioners and developers. Development of a security model (T2RoL) to secure the health information in the apps followed. The apps were then developed following a user-centered design approach. A second field study in form of semi-structured interviews and surveys was conducted to evaluate the mobile app through a randomized controlled trial with 80 illiterate pregnant women that were followed for 9 months. Overall, results show that the app was acceptable, easy to learn and use. There was improved maternal health knowledge among the intervention group which positively influenced health related decision making and health practices.
26

Multi-View Motion Capture based on Model Adaptation

Fechteler, Philipp 28 November 2019 (has links)
Fotorealistische Modellierung von Menschen ist in der Computer Grafik von besonderer Bedeutung, da diese allgegenwärtig in Film- und Computerspiel-Produktionen benötigt wird. Heutige Modellierungs-Software vereinfacht das Generieren realistischer Modelle. Hingegen ist das Erstellen realitätsgetreuer Abbilder real existierender Personen nach wie vor eine anspruchsvolle Aufgabe. Die vorliegende Arbeit adressiert die automatische Modellierung von realen Menschen und die Verfolgung ihrer Bewegung. Ein Skinning-basierter Ansatz wurde gewählt, um effizientes Generieren von Animationen zu ermöglichen. Für gesteigerte Realitätstreue wurde eine artefaktfreie Skinning-Funktion um den Einfluss mehrerer kinematischer Gelenke erweitert. Dies ermöglicht eine große Vielfalt an real wirkenden komplexen Bewegungen. Zum Erstellen eines Personen-spezifischen Modells wird hier ein automatischer, datenbasierter Ansatz vorgeschlagen. Als Eingabedaten werden registrierte, geschlossene Beispiel-Meshes verschiedener Posen genutzt. Um bestmöglich die Trainingsdaten zu approximieren, werden in einer Schleife alle Komponenten des Modells optimiert: Vertices, Gelenke und Skinning-Gewichte. Zwecks Tracking von Sequenzen verrauschter und nur teilweise erfasster 3D Rekonstruktionen wird ein markerfreier modelladaptiver Ansatz vorgestellt. Durch die nicht-parametrische Formulierung werden die Gelenke des generischen initialien Tracking-Modells uneingeschränkt optimiert, als auch die Oberfläche frei deformiert und somit individuelle Eigenheiten des Subjekts extrahiert. Integriertes a priori Wissen über die menschliche Gestalt, extrahiert aus Trainingsdaten, gewährleistet realistische Modellanpassungen. Das resultierende Modell mit Animationsparametern ist darauf optimiert, bestmöglich die Eingabe-Sequenz wiederzugeben. Zusammengefasst ermöglichen die vorgestellten Ansätze realitätsgetreues und automatisches Modellieren von Menschen und damit akkurates Tracking aus 3D Daten. / Photorealistic modeling of humans in computer graphics is of special interest because it is required for modern movie- and computer game productions. Modeling realistic human models is relatively simple with current modeling software, but modeling an existing real person in detail is still a very cumbersome task. This dissertation focuses on realistic and automatic modeling as well as tracking human body motion. A skinning based approach is chosen to support efficient realistic animation. For increased realism, an artifact-free skinning function is enhanced to support blending the influence of multiple kinematic joints. As a result, natural appearance is supported for a wide range of complex motions. To setup a subject-specific model, an automatic and data-driven optimization framework is introduced. Registered, watertight example meshes of different poses are used as input. Using an efficient loop, all components of the animatable model are optimized to closely resemble the training data: vertices, kinematic joints and skinning weights. For the purpose of tracking sequences of noisy, partial 3D observations, a markerless motion capture method with simultaneous detailed model adaptation is proposed. The non-parametric formulation supports free-form deformation of the model’s shape as well as unconstrained adaptation of the kinematic joints, thereby allowing to extract individual peculiarities of the captured subject. Integrated a-prior knowledge on human shape and pose, extracted from training data, ensures that the adapted models maintain a natural and realistic appearance. The result is an animatable model adapted to the captured subject as well as a sequence of animation parameters, faithfully resembling the input data. Altogether, the presented approaches provide realistic and automatic modeling of human characters accurately resembling sequences of 3D input data.
27

System-Specialized and Hybrid Approaches to Network Packet Classification

Hager, Sven 31 August 2020 (has links)
Paketklassifikation ist eine Kernfunktionalität vieler Netzwerksysteme, wie zum Beispiel Firewalls und SDN-Switches. Für viele dieser Systeme ist Durchsatz von höchster Bedeutung. Weitere wichtige Eigenschaften sind dynamische Aktualisierbarkeit und hohe Regelsatz-Ausdrucksfähigkeit. Die Kombination dieser Eigenschaften macht Paketklassifikation zu einem schwierigen Problem. Diese Arbeit befasst sich mit dem Design von Klassifikationssystemen und -algorithmen, welche mindestens zwei dieser Eigenschaften vereinen. Es werden hybride Systeme sowie Systemspezialisierung verwendet, um effiziente Ansätze zum Paketklassifikationsproblem in drei Bereichen zu erarbeiten: Klassifikationsalgorithmen, Regelsatztransformation und hardwarebasierte Architekturen. Die Beiträge im Bereich der Klassifikationsalgorithmen sind Jit Vector Search (JVS) und das SFL-System. JVS verbessert existierende Techniken durch spezialisierte Suchdatenstrukturen und durch Nutzung von SIMD-Fähigkeiten der CPU, was in fast optimaler Klassifikationsperformanz bei kaum erhöhten Vorberechnungszeiten resultiert. Das hybride SFL-System hingegen kombiniert einen Klassifikationsalgorithmus mit einem Änderungspuffer, um sowohl hohe Klassifikations- als auch Aktualisierungsperformanz zu ermöglichen. Bezüglich Regelsatztransformationen wird die RuleBender-Technik vorgestellt, welche Suchbäume in Regelsätze für Firewalls mit Sprungsemantik kodiert. Somit kann der Durchsatz dieser Systeme unter Beibehaltung komplexer Regelsatzsemantik um eine Größenordnung gesteigert werden. Schließlich wird der MPFC-Ansatz vorgestellt, welcher einen Regelsatz in einen auf einem FPGA implementierbaren Matching-Schaltkreis übersetzt. Die generierten Schaltkreise sind hochoptimiert und kleiner als generische Matching-Schaltkreise. Um dynamische Regelsatzänderungen zu ermöglichen, wird der hybride Consul-Ansatz konzipiert, welcher MPFC-Matcher mit generischen Matching-Schaltkreisen kombiniert. / Packet classification is a core functionality of a wide variety of network systems, such as firewalls and SDN switches. For many of these systems, throughput is of paramount importance. Further important system traits are dynamic updateability and high expressiveness in terms of rule set semantics. The combination of several of these properties turns packet classification into a hard problem. This work focuses on the design of classification systems and algorithms that combine at least two of the abovementioned characteristics. To this end, the concepts of hybrid systems and system specialization are employed to obtain efficient approaches to the packet classification problem in three domains: classification algorithms, rule set transformation, and hardware-centric architectures. The contributions in the domain of classification algorithms are Jit Vector Search (JVS) and the SFL system. JVS improves upon existing techniques through specialized search data structures and by exploiting SIMD capabilities of the underlying CPU, which results in near-optimal classification performance at only slightly increased preprocessing times. In contrast, the SFL system is a hybrid approach that combines a classification algorithm with an update buffer to allow for high classification as well as update performance. With respect to rule set transformation, the RuleBender technique is proposed, which encodes search tree structures into rule sets of firewalls with jump semantics. That way, the throughput of these systems can be improved by an order of magnitude, while maintaining complex matching semantics. Finally, the MPFC approach is proposed, which translates a given rule set into a matching circuit that can be implemented on an FPGA. The generated circuits are highly optimized and significantly smaller than those of generic matchers. To allow for dynamic rule set updates, the hybrid Consul approach is devised, which combines MPFC circuits with a generic matcher.
28

Developing a content and knowledge-based journal recommender system comparing distinct subject domains

Wijewickrema, Manjula 04 July 2019 (has links)
Die Aufgabe, ein passendes Journal zu finden, ist auf Grund von verschiedenen Einschränkungen nicht von Hand zu erledigen. Um also diese Problematik zu behandeln, entwickelt die aktuelle Untersuchung ein Journal-Empfehlungssystem, das – in einer Komponente – die inhaltlichen Ähnlichkeiten zwischen einem Manuskript und den existierenden Zeitschriftenartikeln in einem Korpus vergleicht. Das stellt die inhaltsbasierte Empfehlungskomponente des Systems dar. Zusätzlich beinhaltet das System eine wissensbasierte Empfehlungskomponente, um die Anforderungen des Autors bezüglich der Veröffentlichung auf Basis von 15 Journal-Auswahlkriterien zu berücksichtigen. Das neue System gibt Empfehlungen aus den im Directory of Open Access Journals indizierten Journals für zwei verschiedene Themengebiete: Medizin und Sozialwissenschaften. Die Ergebnisse zeigen, dass die Autoren aus den Themengebieten Medizin und Sozialwissenschaften mit den Empfehlungen des Systems zu 66,2% bzw. 58,8% einverstanden waren. Darüber hinaus wurde 35,5% der Autoren aus dem Bereich Medizin und 40,4% der Autoren aus den Sozialwissenschaften ein oder mehrere Journal(s) vorgeschlagen, das bzw. die für die Publikation besser geeignet war(en) als das Journal, in dem sie den Artikel veröffentlich hatten. Die durchschnittliche Leistung des Systems zeigte eine Abnahme von 15% in Medizin bzw. 18% in Sozialwissenschaften verglichen mit den gleichen Empfehlungen bei einer optimalen Sortierung. Leistungsverluste von 22,4% im Fach Medizin und 28,4% in den Sozialwissenschaften ergaben sich, wenn die durchschnittliche Leistung mit einem System verglichen wurde, das geeignete Empfehlungen für die 10 besten Resultate in der optimalen Reihenfolge sortiert abruft. Die vom Hybrid-Modell Empfehlungen zeigen zwar eine etwas bessere Leistung als die inhaltsbasierte Komponente, die Verbesserung war aber nicht statistisch signifikant. / The task of finding appropriate journals cannot be accomplished manually due to a number of limitations of the approach. Therefore, to address this issue, the current research develops a journal recommender system with two components: the first component compares the content similarities between a manuscript and the existing journal articles in a corpus. This represents the content-based recommender component of the system. In addition, the system includes a knowledge-based recommender component to consider authors’ publication requirements based on 15 journal selection factors. The new system makes recommendations from the open access journals indexed in the directory of open access journals for two distinct subject domains, namely medicine and social sciences. The results indicated that the authors from medicine and social sciences agree with the recommender’s suggestions by 66.2% and 58.8% respectively. Moreover, 35.5% of medicine and 40.4% of social sciences authors were suggested more appropriate journal(s) than the journal they already published in. Average performance of the system demonstrated 15% and 18% performance loss in medicine and social sciences respectively against the same suggestions after arranging according to the most appropriate order. Numbers were reported as 22.4% and 28.4% of loss in medicine and social sciences respectively when the average performance was compared with a system that retrieves appropriate suggestions for all 10 topmost results according to the most appropriate order. Although the hybrid recommender demonstrated a slight advancement of performance than the content-based component, the improvement was not statistically significant.
29

Biophysiological Mental-State Monitoring during Human-Computer Interaction

Radüntz, Thea 09 September 2021 (has links)
Die langfristigen Folgen von psychischer Fehlbeanspruchung stellen ein beträchtliches Problem unserer modernen Gesellschaft dar. Zur Identifizierung derartiger Fehlbelastungen während der Mensch-Maschine-Interaktion (MMI) kann die objektive, kontinuierliche Messung der psychischen Beanspruchung einen wesentlichen Beitrag leisten. Neueste Entwicklungen in der Sensortechnologie und der algorithmischen Methodenentwicklung auf Basis von KI liefern die Grundlagen zu ihrer messtechnischen Bestimmung. Vorarbeiten zur Entwicklung einer Methode zur neuronalen Beanspruchungsdiagnostik sind bereits erfolgt (Radüntz, 2017). Eine praxisrelevante Nutzung dieser Ergebnisse ist erfolgsversprechend, wenn die Methode mit Wearables kombiniert werden kann. Gleichzeitig sind die Evaluation und bedingungsbezogene Reliabilitätsprüfung der entwickelten Methode zur neuronalen Beanspruchungsdiagnostik in realitätsnahen Umgebungen erforderlich. Im Rahmen von experimentellen Untersuchungen der Gebrauchstauglichkeit von kommerziellen EEG-Registrierungssystemen für den mobilen Feldeinsatz wird die darauf basierende Systemauswahl für die MMI-Praxis getroffen. Die Untersuchungen zur Validierung der kontinuierlichen Methode zur Beanspruchungsdetektion erfolgt am Beispiel des Fluglotsenarbeitsplatzes beim simulierten „Arrival Management“. / The long-term negative consequences of inappropriate mental workload on employee health constitute a serious problem for a digitalized society. Continuous, objective assessment of mental workload can provide an essential contribution to the identification of such improper load. Recent improvements in sensor technology and algorithmic methods for biosignal processing are the basis for the quantitative determination of mental workload. Neuronal workload measurement has the advantage that workload registration is located directly there where human information processing takes place, namely the brain. Preliminary studies for the development of a method for neuronal workload registration by use of the electroencephalogram (EEG) have already been carried out [Rad16, Rad17]. For the field use of these findings, the mental workload assess- ment on the basis of the EEG must be evaluated and its reliability examined with respect to several conditions in realistic environments. A further essential require-ment is that the method can be combined with the innovative technologies of gel free EEG registration and wireless signal transmission. Hence, the presented papers include two investigations. Main subject of the first investigation are experimental studies on the usability of commercially-oriented EEG systems for mobile field use and system selection for the future work. Main subject of the second investigation is the evaluation of the continuous method for neuronal mental workload registration in the field. Thereby, a challenging application was used, namely the arrival management of aircraft. The simulation of the air traffic control environment allows the realisation of realistic conditions with different levels of task load. Furthermore, the work is well contextualized in a domain which is very sensible to human-factors research.
30

Using machine learning to predict pathogenicity of genomic variants throughout the human genome

Rentzsch, Philipp 14 April 2023 (has links)
Geschätzt mehr als 6.000 Erkrankungen werden durch Veränderungen im Genom verursacht. Ursachen gibt es viele: Eine genomische Variante kann die Translation eines Proteins stoppen, die Genregulation stören oder das Spleißen der mRNA in eine andere Isoform begünstigen. All diese Prozesse müssen überprüft werden, um die zum beschriebenen Phänotyp passende Variante zu ermitteln. Eine Automatisierung dieses Prozesses sind Varianteneffektmodelle. Mittels maschinellem Lernen und Annotationen aus verschiedenen Quellen bewerten diese Modelle genomische Varianten hinsichtlich ihrer Pathogenität. Die Entwicklung eines Varianteneffektmodells erfordert eine Reihe von Schritten: Annotation der Trainingsdaten, Auswahl von Features, Training verschiedener Modelle und Selektion eines Modells. Hier präsentiere ich ein allgemeines Workflow dieses Prozesses. Dieses ermöglicht es den Prozess zu konfigurieren, Modellmerkmale zu bearbeiten, und verschiedene Annotationen zu testen. Der Workflow umfasst außerdem die Optimierung von Hyperparametern, Validierung und letztlich die Anwendung des Modells durch genomweites Berechnen von Varianten-Scores. Der Workflow wird in der Entwicklung von Combined Annotation Dependent Depletion (CADD), einem Varianteneffektmodell zur genomweiten Bewertung von SNVs und InDels, verwendet. Durch Etablierung des ersten Varianteneffektmodells für das humane Referenzgenome GRCh38 demonstriere ich die gewonnenen Möglichkeiten Annotationen aufzugreifen und neue Modelle zu trainieren. Außerdem zeige ich, wie Deep-Learning-Scores als Feature in einem CADD-Modell die Vorhersage von RNA-Spleißing verbessern. Außerdem werden Varianteneffektmodelle aufgrund eines neuen, auf Allelhäufigkeit basierten, Trainingsdatensatz entwickelt. Diese Ergebnisse zeigen, dass der entwickelte Workflow eine skalierbare und flexible Möglichkeit ist, um Varianteneffektmodelle zu entwickeln. Alle entstandenen Scores sind unter cadd.gs.washington.edu und cadd.bihealth.org frei verfügbar. / More than 6,000 diseases are estimated to be caused by genomic variants. This can happen in many possible ways: a variant may stop the translation of a protein, interfere with gene regulation, or alter splicing of the transcribed mRNA into an unwanted isoform. It is necessary to investigate all of these processes in order to evaluate which variant may be causal for the deleterious phenotype. A great help in this regard are variant effect scores. Implemented as machine learning classifiers, they integrate annotations from different resources to rank genomic variants in terms of pathogenicity. Developing a variant effect score requires multiple steps: annotation of the training data, feature selection, model training, benchmarking, and finally deployment for the model's application. Here, I present a generalized workflow of this process. It makes it simple to configure how information is converted into model features, enabling the rapid exploration of different annotations. The workflow further implements hyperparameter optimization, model validation and ultimately deployment of a selected model via genome-wide scoring of genomic variants. The workflow is applied to train Combined Annotation Dependent Depletion (CADD), a variant effect model that is scoring SNVs and InDels genome-wide. I show that the workflow can be quickly adapted to novel annotations by porting CADD to the genome reference GRCh38. Further, I demonstrate the integration of deep-neural network scores as features into a new CADD model, improving the annotation of RNA splicing events. Finally, I apply the workflow to train multiple variant effect models from training data that is based on variants selected by allele frequency. In conclusion, the developed workflow presents a flexible and scalable method to train variant effect scores. All software and developed scores are freely available from cadd.gs.washington.edu and cadd.bihealth.org.

Page generated in 0.3481 seconds