• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • Tagged with
  • 8
  • 8
  • 8
  • 6
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Segmentation and Tracking of Cells and Nuclei Using Deep Learning

Hirsch, Peter Johannes 27 September 2023 (has links)
Die Analyse von großen Datensätzen von Mikroskopiebilddaten, insbesondere Segmentierung und Tracking, ist ein sehr wichtiger Aspekt vieler biologischer Studien. Für die leistungsfähige und verlässliche Nutzung ist der derzeitige Stand der Wissenschaft dennoch noch nicht ausreichend. Die vorhandenen Methoden sind oft schwer zu benutzen für ungeübte Nutzer, die Leistung auf anderen Datensätzen ist häufig verbesserungswürdig und sehr große Mengen an Trainingsdaten werden benötigt. Ich ging dieses Problem aus verschiedenen Richtungen an: (i) Ich präsentiere klare Richtlinien wie Artefakte beim Arbeiten mit sehr großen Bilddaten verhindert werden können. (ii) Ich präsentiere eine Erweiterung für eine Reihe von grundlegenden Methoden zur Instanzsegmentierung von Zellkernen. Durch Verwendung einer unterstützenden Hilfsaufgabe ermöglicht die Erweiterung auf einfache und unkomplizierte Art und Weise Leistung auf dem aktuellen Stand der Wissenschaft. Dabei zeige ich zudem, dass schwache Label ausreichend sind, um eine effiziente Objekterkennung auf 3d Zellkerndaten zu ermöglichen. (iii) Ich stelle eine neue Methode zur Instanzsegmentierung vor, die auf eine große Auswahl von Objekten anwendbar ist, von einfachen Formen bis hin zu Überlagerungen und komplexen Baumstrukturen, die das gesamte Bild umfassen. (iv) Auf den vorherigen Arbeiten aufbauend präsentiere ich eine neue Trackingmethode, die auch mit sehr großen Bilddaten zurecht kommt, aber nur schwache und dünnbesetzte Labels benötigt und trotzdem besser als die bisherigen besten Methoden funktioniert. Die Anpassungsfähigkeit an neue Datensätze wird durch eine automatisierte Parametersuche gewährleistet. (v) Für Nutzer, die das Tracking von Objekten in ihrer Arbeit verwenden möchten, präsentiere ich zusätzlich einen detaillierten Leitfaden, der es ihnen ermöglicht fundierte Entscheidungen zu treffen, welche Methode am besten zu ihrem Projekt passt. / Image analysis of large datasets of microscopy data, in particular segmentation and tracking, is an important aspect of many biological studies. Yet, the current state of research is still not adequate enough for copious and reliable everyday use. Existing methods are often hard to use, perform subpar on new datasets and require vast amounts of training data. I approached this problem from multiple angles: (i) I present clear guidelines on how to operate artifact-free on huge images. (ii) I present an extension for existing methods for instance segmentation of nuclei. By using an auxiliary task, it enables state-of-the-art performance in a simple and straightforward way. In the process I show that weak labels are sufficient for efficient object detection for 3d nuclei data. (iii) I present an innovative method for instance segmentation that performs extremely well on a wide range of objects, from simple shapes to complex image-spanning tree structures and objects with overlaps. (iv) Building upon the above, I present a novel tracking method that operates on huge images but only requires weak and sparse labels. Yet, it outperforms previous state-of-the-art methods. An automated weight search method enables adaptability to new datasets. (v) For practitioners seeking to employ cell tracking, I provide a comprehensive guideline on how to make an informed decision about what methods to use for their project.
2

Distance-based methods for the analysis of Next-Generation sequencing data

Otto, Raik 14 September 2021 (has links)
Die Analyse von NGS Daten ist ein zentraler Aspekt der modernen genomischen Forschung. Bei der Extraktion von Daten aus den beiden am häufigsten verwendeten Quellorganismen bestehen jedoch vielfältige Problemstellungen. Im ersten Kapitel wird ein neuartiger Ansatz vorgestellt welcher einen Abstand zwischen Krebszellinienkulturen auf Grundlage ihrer kleinen genomischen Varianten bestimmt um die Kulturen zu identifizieren. Eine Voll-Exom sequenzierte Kultur wird durch paarweise Vergleiche zu Referenzdatensätzen identifiziert so ein gemessener Abstand geringer ist als dies bei nicht verwandten Kulturen zu erwarten wäre. Die Wirksamkeit der Methode wurde verifiziert, jedoch verbleiben Einschränkung da nur das Sequenzierformat des Voll-Exoms unterstützt wird. Daher wird im zweiten Kapitel eine publizierte Modifikation des Ansatzes vorgestellt welcher die Unterstützung der weitläufig genutzten Bulk RNA sowie der Panel-Sequenzierung ermöglicht. Die Ausweitung der Technologiebasis führt jedoch zu einer Verstärkung von Störeffekten welche zu Verletzungen der mathematischen Konditionen einer Abstandsmetrik führen. Daher werden die entstandenen Verletzungen durch statistische Verfahren zuerst quantifiziert und danach durch dynamische Schwellwertanpassungen erfolgreich kompensiert. Das dritte Kapitel stellt eine neuartige Daten-Aufwertungsmethode (Data-Augmentation) vor welche das Trainieren von maschinellen Lernmodellen in Abwesenheit von neoplastischen Trainingsdaten ermöglicht. Ein abstraktes Abstandsmaß wird zwischen neoplastischen Entitäten sowie Entitäten gesundem Ursprungs mittels einer transkriptomischen Dekonvolution hergestellt. Die Ausgabe der Dekonvolution erlaubt dann das effektive Vorhersagen von klinischen Eigenschaften von seltenen jedoch biologisch vielfältigen Krebsarten wobei die prädiktive Kraft des Verfahrens der des etablierten Goldstandard ebenbürtig ist. / The analysis of NGS data is a central aspect of modern Molecular Genetics and Oncology. The first scientific contribution is the development of a method which identifies Whole-exome-sequenced CCL via the quantification of a distance between their sets of small genomic variants. A distinguishing aspect of the method is that it was designed for the computer-based identification of NGS-sequenced CCL. An identification of an unknown CCL occurs when its abstract distance to a known CCL is smaller than is expected due to chance. The method performed favorably during benchmarks but only supported the Whole-exome-sequencing technology. The second contribution therefore extended the identification method by additionally supporting the Bulk mRNA-sequencing technology and Panel-sequencing format. However, the technological extension incurred predictive biases which detrimentally affected the quantification of abstract distances. Hence, statistical methods were introduced to quantify and compensate for confounding factors. The method revealed a heterogeneity-robust benchmark performance at the trade-off of a slightly reduced sensitivity compared to the Whole-exome-sequencing method. The third contribution is a method which trains Machine-Learning models for rare and diverse cancer types. Machine-Learning models are subsequently trained on these distances to predict clinically relevant characteristics. The performance of such-trained models was comparable to that of models trained on both the substituted neoplastic data and the gold-standard biomarker Ki-67. No proliferation rate-indicative features were utilized to predict clinical characteristics which is why the method can complement the proliferation rate-oriented pathological assessment of biopsies. The thesis revealed that the quantification of an abstract distance can address sources of erroneous NGS data analysis.
3

Development, Implementation and Validation of Thermal Magnetic Resonance Technology: A New Instrument to Define the Role of Temperature in Biological Systems and Disease

Han, Haopeng 26 January 2022 (has links)
Die thermische Magnetresonanz (ThermalMR) integriert Radiofrequenz (RF)-induzierte Erwärmung, in vivo Temperaturkartierung mittels MR-Thermometrie, anatomische und funktionelle MR-Bildgebung (MRT) und die Option für die x-Kern-MRT in einem einzigen, vielseitig einsetzbaren RF-Applikator. Der Aufbau erlaubt eine gezielte und überwachte Temperaturmodulation und kann somit als Basis für Studien dienen, welche die Klärung grundlegender Fragen bezüglich der molekularen, biochemischen, sowie physiologischen und therapeutischen Auswirkungen der Temperatur in Organismen ermöglichen. In dieser Arbeit wurde ein kostengünstiges, automatisiertes Open-Source-3D-Mehrzweck-Messsystem mit Submillimeter-Genauigkeit implementiert und validiert, um technische Entwicklungen in der thermischen MR wie Antennendesign, Signalgeneratoren, und simulationsbasierte Methoden zu prüfen. Um den Anforderungen eines modernen ThermalMR-Systems gerecht zu werden, wird ein neuer auf einem Phasenregelkreis basierender RF-Signalgenerator für Hyperthermie entwickelt und über dessen Entwurf, Implementierung, Validierung und Anwendung berichtet. Der Signalgenerator ist in der Lage, 32 unabhängige RF-Signale mit präziser Einstellung der Parameter dieser Signale zu erzeugen. Das in dieser Arbeit entwickelte Mehrkanal-RF-Überwachungsmodul ermöglicht das Detektieren von Abweichungen bezogen auf die gewählten Einstellungen und ermöglicht eine Korrektur der RF-Signale in einem Regelkreis. Darüber hinaus ermöglicht das Überwachungsmodul das Erkennen von Bewegungen und ermöglicht zusätzliche Sicherheit in einem realen Behandlungssetup. In dieser Arbeit wurden Forschung und Entwicklung in Informatik, Physik und Biowissenschaften synergetisch miteinander verbunden. Die in dieser Arbeit entwickelte Infrastruktur bildet eine technologische Basis für zukünftige ThermalMR-Anwendungen. / Thermal magnetic resonance (ThermalMR) integrates radio frequency (RF)-induced heating, in vivo temperature mapping using MR thermometry, anatomic and functional MR imaging (MRI), and the option for x-nuclei MRI in a single, multi-purpose RF applicator. This permits supervised targeted temperature modulation, thus enables pioneering studies to clarify fundamental questions pertaining to the molecular, biochemical, broader physiological and therapeutic effects of temperature in organisms. In this work, a cost-effective, automated open source 3D multipurpose measurement system with submillimeter fidelity was implemented and validated to facilitate technical developments in ThermalMR such as RF antenna design and algorithm verification. The design, implementation, validation, and application of the first phase-locked loop based RF signal generator in hyperthermia that is capable of generating 32 channels of independent RF signals with fine-tuning resolutions of the signals’ parameters meet the demanding requirements of a state-of-the-art RF heating system. The multi-channel RF supervision module developed in this work outperforms state-of-the-art counterparts. The detection of head motion in a hyperthermia setting was demonstrated for the first time with the RF supervision module. This work synergistically connects research and development in computer science, physics, and life science. The infrastructure developed in this work forms a technological basis for future ThermalMR applications.
4

Designing a Multimedia Intervention for Illiterate and Semi-Illiterate Pregnant Women in Developing Countries: A Case of Uganda

Katusiime, Jane 19 September 2022 (has links)
Die hohe Müttersterblichkeit in Entwicklungsländern ist zum Teil auf indirekte Faktoren wie Analphabetismus und eingeschränkten Zugang zu Gesundheitsinformationen für Mütter zurückzuführen. Während gebildete Frauen auf Gesundheitsinformationen über Online-Plattformen und mHealth-Apps zugreifen können, müssen Analphabetinnen diese in Gesundheitseinrichtungen abrufen, was aufgrund der Transportkosten oft nicht möglich ist. Mobilfunktechnologie hat in der Gesundheitsversorgung Chancen für ressourcenarme Gemeinschaften eröffnet, die sonst nicht von den digitalen Technologien profitiert hätten. Obwohl Mobilfunktechnologie in der Müttergesundheit eingesetzt wird, können die meisten Maßnahmen nicht von Analphabeten genutzt werden, verwenden Sicherheitsmodelle die nicht auf den Kontext von Entwicklungsländern zugeschnitten sind, und wurden nicht auf ihre Auswirkungen auf die Müttergesundheit hin evaluiert. In dieser Arbeit wurden zwei (Web und Mobile) Apps entwickelt, die die Übermittlung von multimedialen Nachrichten zur Müttergesundheit, Terminerinnerungen und Anrufe/Chats erleichtern. Um die Anforderungen der Nutzer zu erfassen, wurde eine Feldstudie mit halbstrukturierten Interviews und Fokusgruppendiskussionen mit schwangeren Analphabetinnen, Gesundheitsexperten und Entwicklern durchgeführt. Es folgte die Entwicklung eines Sicherheitsmodells (T2RoL) zur Sicherung der Gesundheitsinformationen in den Apps, die dann nach einem nutzerzentrierten Designansatz entwickelt wurden. Eine zweite Feldstudie in Form von halbstrukturierten Interviews und Umfragen wurde durchgeführt, um die mobile App in einer randomisierten kontrollierten Studie mit 80 schwangeren Analphabetinnen über 9 Monate zu evaluieren. Die Auswertung zeigte, dass die App akzeptiert wurde sowie einfach zu erlernen und zu benutzen war. Das Wissen über Müttergesundheit in der Interventionsgruppe verbesserte sich, was sich positiv auf gesundheitsbezogene Entscheidungen und Gesundheitsmaßnahmen auswirkte. / Maternal mortality is high in developing countries partly due to indirect factors such as illiteracy and limited access to maternal health information. While literate women can access health information from online platforms, and mHealth apps, illiterate women must get it from health facilities which is often not possible due to lack of transport fees. Mobile technology has opened opportunities in maternal health care for low resource communities that would otherwise not have benefited from digital technologies. Although used in maternal health, most interventions are not usable by the illiterate, use security models that are not tailored to the developing countries’ context, and have not been evaluated to assess their impact on maternal health care. In this thesis, two (web and mobile) apps that facilitate delivery of multimedia-based maternal health messages, appointment reminders, and calls/ chats were developed. To gather user requirements, a field study in form of semi-structured interviews and focus group discussions was conducted with illiterate pregnant women, health practitioners and developers. Development of a security model (T2RoL) to secure the health information in the apps followed. The apps were then developed following a user-centered design approach. A second field study in form of semi-structured interviews and surveys was conducted to evaluate the mobile app through a randomized controlled trial with 80 illiterate pregnant women that were followed for 9 months. Overall, results show that the app was acceptable, easy to learn and use. There was improved maternal health knowledge among the intervention group which positively influenced health related decision making and health practices.
5

Using machine learning to predict pathogenicity of genomic variants throughout the human genome

Rentzsch, Philipp 14 April 2023 (has links)
Geschätzt mehr als 6.000 Erkrankungen werden durch Veränderungen im Genom verursacht. Ursachen gibt es viele: Eine genomische Variante kann die Translation eines Proteins stoppen, die Genregulation stören oder das Spleißen der mRNA in eine andere Isoform begünstigen. All diese Prozesse müssen überprüft werden, um die zum beschriebenen Phänotyp passende Variante zu ermitteln. Eine Automatisierung dieses Prozesses sind Varianteneffektmodelle. Mittels maschinellem Lernen und Annotationen aus verschiedenen Quellen bewerten diese Modelle genomische Varianten hinsichtlich ihrer Pathogenität. Die Entwicklung eines Varianteneffektmodells erfordert eine Reihe von Schritten: Annotation der Trainingsdaten, Auswahl von Features, Training verschiedener Modelle und Selektion eines Modells. Hier präsentiere ich ein allgemeines Workflow dieses Prozesses. Dieses ermöglicht es den Prozess zu konfigurieren, Modellmerkmale zu bearbeiten, und verschiedene Annotationen zu testen. Der Workflow umfasst außerdem die Optimierung von Hyperparametern, Validierung und letztlich die Anwendung des Modells durch genomweites Berechnen von Varianten-Scores. Der Workflow wird in der Entwicklung von Combined Annotation Dependent Depletion (CADD), einem Varianteneffektmodell zur genomweiten Bewertung von SNVs und InDels, verwendet. Durch Etablierung des ersten Varianteneffektmodells für das humane Referenzgenome GRCh38 demonstriere ich die gewonnenen Möglichkeiten Annotationen aufzugreifen und neue Modelle zu trainieren. Außerdem zeige ich, wie Deep-Learning-Scores als Feature in einem CADD-Modell die Vorhersage von RNA-Spleißing verbessern. Außerdem werden Varianteneffektmodelle aufgrund eines neuen, auf Allelhäufigkeit basierten, Trainingsdatensatz entwickelt. Diese Ergebnisse zeigen, dass der entwickelte Workflow eine skalierbare und flexible Möglichkeit ist, um Varianteneffektmodelle zu entwickeln. Alle entstandenen Scores sind unter cadd.gs.washington.edu und cadd.bihealth.org frei verfügbar. / More than 6,000 diseases are estimated to be caused by genomic variants. This can happen in many possible ways: a variant may stop the translation of a protein, interfere with gene regulation, or alter splicing of the transcribed mRNA into an unwanted isoform. It is necessary to investigate all of these processes in order to evaluate which variant may be causal for the deleterious phenotype. A great help in this regard are variant effect scores. Implemented as machine learning classifiers, they integrate annotations from different resources to rank genomic variants in terms of pathogenicity. Developing a variant effect score requires multiple steps: annotation of the training data, feature selection, model training, benchmarking, and finally deployment for the model's application. Here, I present a generalized workflow of this process. It makes it simple to configure how information is converted into model features, enabling the rapid exploration of different annotations. The workflow further implements hyperparameter optimization, model validation and ultimately deployment of a selected model via genome-wide scoring of genomic variants. The workflow is applied to train Combined Annotation Dependent Depletion (CADD), a variant effect model that is scoring SNVs and InDels genome-wide. I show that the workflow can be quickly adapted to novel annotations by porting CADD to the genome reference GRCh38. Further, I demonstrate the integration of deep-neural network scores as features into a new CADD model, improving the annotation of RNA splicing events. Finally, I apply the workflow to train multiple variant effect models from training data that is based on variants selected by allele frequency. In conclusion, the developed workflow presents a flexible and scalable method to train variant effect scores. All software and developed scores are freely available from cadd.gs.washington.edu and cadd.bihealth.org.
6

Konzept einer an semantischen Kriterien orientierten Kommunikation für medizinische Informationssysteme

Nguyen-Dobinsky, Trong-Nghia 03 April 1998 (has links)
Einleitung In einem größeren Universitätsklinikum wie in der Charité sind EDV-gestützte Verfahren in verschiedenen Einrichtungen und für verschiedene Aufgaben im Einsatz: Verwaltung, Krankenversorgung, Forschung und Lehre. Diese Subsysteme sind in der Regel nicht in der Lage, Daten untereinander so auszutauschen, daß die in den Daten enthaltene Semantik nicht verlorengeht. Die Ursache liegt im wesentlichen in der Komplexität und in der Unschärfe der medizinischen Informationen. Medizinische Standards (HL7, DICOM, SNOMED, ICD, ICPM, ...) lassen sich für den Austausch von Daten verwenden, die gut formalisierbar und mit einer klaren Bedeutung behaftet sind. Nicht formalisierbare Daten, die z. B. in einem Befund oft vorkommen, lassen sich nicht ohne weiteres mit diesen Standards darstellen. Ziel Entwicklung eines Konzeptes für den Austausch medizinischer Daten, das die o. g. Probleme vermeidet. Material und Methoden Die Analyse der vorhandenen Subsysteme, Standards und Konzepte zeigt, daß das Konzept einerseits eine sehr einfache Syntax und eine simple Struktur aufweisen muß. Andererseits muß die medizinische Semantik voll erhalten bleiben. Als Vorbild kann die relationale Datenbank dienen, die mit einem Datentyp (Relation bzw. Tabelle) und einem einzigen Operator (SELECT) auf diesen Datentyp auskommt. Ergebnisse Das Konzept ist objektorientiert. Es enthält nur einen Datentyp. Das ist das AMICI-Objekt (AMICI: Architecture for Medical Information Exchange and Communication Interface). Über dieses AMICI-Objekt wird der gesamte Datenaustausch vorgenommen. Kann das Empfängersystem ein Objekt nicht oder nicht korrekt interpretieren, so wird die Interpretation vom Sendesystem übernommen. Ein Subsystem wird im Netzwerk über einen medizinischen Kontext angeschlossen, der das Interessengebiet und die Fähigkeit des Subsystems beschreibt. Das Subsystem kann an Hand der im Netz bekannten medizinischen Kontexte feststellen, welche weiteren Subsysteme für den eigenen Zweck interessant sein könnten. Alle AMICI-Objekte erhalten eine weltweit eindeutige Identifikation, so daß die Daten aus verschiedenen Institutionen, auch international, miteinander gemischt werden können. Diskussion Das Konzept kann als Basis für weitere Dienstleitungen in einem Klinikum bzw. einem Krankenhaus dienen. Namentlich zu nennen sind telemedizinische Anwendungen, bei denen nicht nur die Kommunikation zwischen Ärzten, sondern auch zwischen Patienten und Arzt möglich ist. Weiterhin betrifft dies den Einsatz von Software-Agenten, die sich um den Informationsbedarf eines Arztes individuell kümmern. / Introduction Large hospitals like the University hospital Charité use in different units different information systems for recording patient and medical data. There are also different tasks: administration, healthcare, research and education. These medical information systems are often called subsystems. They are usually not able to exchange data without lost of semantic. The complexity and the variability of medical terminology cause this problem. Existing medical standards (e. g. HL7, DICOM, SNOMED, ICD, ICPM, ...) are helpful for well formalised terms. Non-formalised terms that are often used in diagnostic reports can not be represented by existing standards. Aims Development of a concept for medical information exchange which fulfills the requirements mentioned above. Material and Methods The system analysis that is performed based on existing subsystems, medical standards and concepts provides two essential requirements. On the one hand the syntax of such standard must be extremely simple. On the other hand the standard must be able to transfer extremely complex semantics. As an example relational databases (RDB) provide a good idea of such simple syntax and complex semantics. RDB's include only one data type. It is called relation or table. To manipulate tables one needs only one operation. That is the SELECT command in SQL. Result The concept is object oriented. It includes only one object called AMICI-object like RDB's (AMICI: Architecture for Medical Information Exchange and Communication Interface). Data exchange is completely performed by these AMICI-objects. If the receiving subsystem is not able to interpret and represent an object, the sending subsystem will take over this task. Within a network a subsystem uses a special AMICI-object called medical context to describe its features and its area of interest. A subsystem can inquire medical contexts to explore installed and running subsystems in the network. An international unique identifier identifies every AMICI object so that you can mix objects provided by different international institutions, e. g. to use them in multi-center-studies. Discussion This concept can also be used as a basic service for higher level applications in a hospital. Two of them are telemedicine and software agents. Telemedicine is not only a tool for physicians. It should be also a tool for communication and interaction between patient and physician. Physicians can use personal software agents for information acquisition, which meets exactly his specific requirements.
7

Ein Repräsentationsformat zur standardisierten Beschreibung und wissensbasierten Modellierung genomischer Expressionsdaten

Schober, Daniel 08 June 2006 (has links)
Die Auswertung von Microarray-Daten beginnt oft mit information retrieval-Ansätzen, welche die Datenmassen auf eine im Hinblick auf eine bestimmte Fragestellung besonders interessante und überschaubare Menge von Genen bzw. probe set IDs reduzieren sollen. Vorraussetzung für eine effiziente Suche im Datenbestand ist jedoch eine Semantisierung bzw. Formalisierung der verwendeten Datenformate. Hier wird eine Ontologie als standardisiertes und semantisch definiertes Repräsentationskonstrukt vorgestellt, welches die Formalisierung von Fachwissen in einem interaktiven Wissensmodell erlaubt, das umfassend abgefragt, konsistent interpretiert und gegebenenfalls automatisiert weiterverarbeitet werden kann. Anhand einer molekularbiologischen Ontologie aus 1200 hierarchisch strukturierten Begriffen und am Beispiel des Toll-Like Receptor-Signalwegs wird aufgezeigt, wie ein solch ein objektorientiertes Beschreibungsvokabular zur Annotierung von Genen auf Affymetrix-Microarrays genutzt werden kann. Die Annotationsbegriffe werden über ontologische Konzepte, deren Eigenschaften und deren semantische Verbindungen (relationale Slots) im Wissensbank-Editor Protégé-2000 modelliert. Annotation bedeutet hier ein Gen formal in einen definierten funktionalen Kontext einzubetten. In der Anwendung der Wissensbank entspricht eine Annotation einem "drag and drop" von Genen in ontologische, die Funktion dieser Gene beschreibende, Konzepte. Die weitergehende kontextuale Annotation erfolgt über eine Vernetzung der Gene zu anderen Konzepten oder Genen. Das so erstellte vernetzte Wissensmodell (die knowledgebase) ermöglicht ein inhaltsbasiertes, assoziatives und kontextgeleitetes "Wissens-Browsing". Ontologisch annotierte Gendaten erlauben auch die Anwendung automatischer datengetriebener Visualisierungsstrategien, wie am Beispiel semantischer Netze gezeigt wird. Eine ontologische Anfrageschnittstelle erlaubt auch semantisch komplexe Anfragen an den Datenbestand bei erhöhter Trefferquote und Präzision. / Functional gene annotations provide important search targets and cluster criteria. We introduce an annotation system that exploits the possibilities of modern knowledge management tools, i.e. ontological querying, inference, networking of annotations and automatic datadriven visualization of the annotated model. The Gandr (gene annotation data representation) knowledgebase is an ontological framework for laboratory-specific gene annotation and knowledgemanagement. Gandr uses Protégé-2000 for editing, querying and visualizing microarray data and annotations. Genes can be annotated with provided, newly created or imported ontological concepts. Annotated genes can inherit assigned concept properties and can be related to each other. The resulting knowledgebase can be visualized as interactive semantic network of nodes and edges representing genes with annotations and their functional relationships. This allows for immediate and associative gene context exploration. Ontological query techniques allow for powerful data access. Annotating genes with formal conceptual descriptions can be performed using ‘drag and drop’ of one or more gene instances onto an annotating concept. Compared with unstructured annotation systems, the annotation process itself becomes faster and leads to annotation schemes of better quality owing to enforcement of constraints provided by the ontology. GandrKB enables lab-bench scientists to query for implicit domain knowledge, inferred from the ontological domain model. Full access to data semantics through queries for properties and relationships ensures a more complete and adequate reply of the system.
8

Zirkus Empathico 2.0, A serious game to foster emotional and collaborative skills in children with Autism Spectrum Disorder (ASD)

Hassan, Ahmed 15 January 2024 (has links)
Autismus-Spektrum-Störung (ASD) ist eine neurologische Entwicklungsstörung, die durch eine Reihe von Entwicklungsstörungen gekennzeichnet ist, die zu einem Mangel an sozialen, kommunikativen und kooperativen Fähigkeiten führen. Sozio-kommunikative Beeinträchtigungen können durch von Verhaltenstherapeuten konzipierte und durchgeführte Trainingsprogramme für soziale Kompetenzen verbessert werden. Computergestützte Therapien zur Lösung sozio-kommunikativer Schwierigkeiten bei Kindern, Jugendlichen und Erwachsenen mit ASD haben ermutigende Ergebnisse gezeigt. Das Serious-Game-Format ist eine Form der Intervention. Seriöse Spiele sind pädagogisch wertvoll, aber oft attraktiver als offensichtliche pädagogische Hilfsmittel. Zirkus Empathico 2.0 ist ein Serious Game für mehrere Spieler mit verschiedenen Levels und Bühnen in einer Zirkusumgebung. Die Auswertung erfolgte über einen Zeitraum von acht Wochen. Sechzig Kinder mit ASD im Alter von fünf bis elf Jahren wurden vor und nach der Behandlung untersucht. Zu den primären Ergebnissen gehörten die Empathiebewertung durch die Eltern und objektiv gemessene Fähigkeiten zur Emotionserkennung. Die Bewertung der Effektivität und Verwendbarkeit des Spiels für das Training sozialer Kompetenzen zeigte, dass es eine plausible Lernumgebung schuf, indem es das Bewusstsein der Studienteilnehmer für Fähigkeiten und neurotypisches Verhalten steigerte und ihre vorhergesagte Angst in zukünftigen sozialen Situationen verringerte. Nach der Behandlung wurden signifikante Behandlungseffekte festgestellt. Sowohl bei Kurz- als auch bei Langzeitbeurteilungen. Zirkus Empathico 2.0 ist erfolgreich bei der langfristigen Verbesserung der sozio-emotionalen Fähigkeiten in realen Situationen. Zukünftige Forschung sollte sich auf die spezifischen Prozesse konzentrieren, die den Übertragungs- und Aufrechterhaltungsvorteilen von Empathie und Emotionserkennung zugrunde liegen. / Autism spectrum disorder (ASD) is a neurodevelopmental disorder characterized by a spectrum of developmental abnormalities that result in a lack of social, communicative, and collaborative abilities. Socio-communicative impairments can be improved through behavioral therapist-designed and delivered social-skills training programs. Computer-based therapies to resolve socio-communicative difficulties in children, adolescents, and adults with ASD have demonstrated encouraging outcomes. The serious game format is one type of intervention. Serious games are educational but often appeal more than overt pedagogical tools. Zirkus Empathico 2.0 is a multi-player serious game set with various levels and stages in a circus environment. It was evaluated over eight weeks. Sixty children with ASD aged five to eleven years were evaluated before treatment and post-treatment. Primary outcomes included empathy rating by parents and objectively measured emotion recognition abilities. Secondary outcomes were assessed as emotional awareness, emotion management, well-being, and personal therapy goals. The assessment of the game's effectiveness and usability for social-skills training indicated that it established a plausible learning environment by boosting trial participants' awareness of abilities and neurotypical behavior and decreasing their predicted fear in future social situations. Following treatment, significant treatment effects were detected. In both short- and long-term assessments, moderate impacts were observed on emotional awareness, emotion management, and autistic social symptomatology. Parents reported that therapy goals were met, and that treatment was transferred well. Zirkus Empathico 2.0 is successful at improving long-term socio-emotional abilities in real-world situations. Future research should focus on the specific processes behind empathy and emotion recognition's transmission and maintenance benefits.

Page generated in 0.0274 seconds