• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 67
  • 14
  • Tagged with
  • 167
  • 167
  • 154
  • 83
  • 81
  • 81
  • 77
  • 70
  • 67
  • 28
  • 26
  • 24
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Reliable General Purpose Sentiment Analysis of the Public Twitter Stream

Haldenwang, Nils 27 September 2017 (has links)
General purpose Twitter sentiment analysis is a novel field that is closely related to traditional Twitter sentiment analysis but slightly differs in some key aspects. The main difference lies in the fact that the novel approach considers the unfiltered public Twitter stream while most of the previous approaches often applied various filtering steps which are not feasible for many applications. Another goal is to yield more reliable results by only classifying a tweet as positive or negative if it distinctly consists of the respective sentiment and mark the remaining messages as uncertain. Traditional approaches are often not that strict. Within the course of this thesis it could be verified that the novel approach differs significantly from the traditional approach. Moreover, the experimental results indicated that the archetypical approaches could be transferred to the new domain but the related domain data is consistently sub par when compared to high quality in-domain data. Finally, the viability of the best classification algorithm could be qualitatively verified in a real-world setting that was also developed within the course of this thesis.
142

Time-Dependent Data: Classification and Visualization

Tanisaro, Pattreeya 14 November 2019 (has links)
The analysis of the immensity of data in space and time is a challenging task. For this thesis, the time-dependent data has been explored in various directions. The studies focused on data visualization, feature extraction, and data classification. The data that has been used in the studies comes from various well-recognized archives and has been the basis of numerous researches. The data characteristics ranged from the univariate time series to multivariate time series, from hand gestures to unconstrained views of general human movements. The experiments covered more than one hundred datasets. In addition, we also discussed the applications of visual analytics to video data. Two approaches were proposed to create a feature vector for time-dependent data classification. One is designed especially for a bio-inspired model for human motion recognition and the other is a subspace-based approach for arbitrary data characteristics. The extracted feature vectors of the proposed approaches can be easily visualized in two-dimensional space. For the classification, we experimented with various known models and offered a simple model using data in subspaces for light-weight computation. Furthermore, this method allows a data analyst to inspect feature vectors and detect an anomaly from a large collection of data simultaneously. Various classification techniques were compared and the findings were summarized. Hence, the studies can assist a researcher in picking an appropriate technique when setting up a corresponding model for a given characteristic of temporal data, and offer a new perspective for analyzing the time series data. This thesis is comprised of two parts. The first part gives an overview of time-dependent data and of this thesis with its focus on classification; the second part covers the collection of seven publications.
143

Automatisierte Analyse von Wirkungsbeziehungen zur situativen Entscheidungsunterstützung - Konzeption, prototypische Implementierung und Evaluation eines wissensbasierten Systems

Benjamins, Axel 06 June 2018 (has links)
Die vorliegende Arbeit beschreibt ein wissensbasiertes Decision Support System (DSS) zur Analyse von Wirkungsbeziehungen in einem betriebswirtschaftlichen Umfeld, um die Ursachen von beobachteten Wirkungen zu verstehen und dadurch eine Unterstützung in Entscheidungssituationen zu ermöglichen. Die Umweltbedingungen einer Entscheidungssituation werden während der Analyse berücksichtigt, sodass die Unterstützung auf die jeweilige Situation angepasst ist. Den Kern des Konzeptes stellen eine Wissensbasis sowie eine Ablaufsteuerung zur situativen Auswertung der Wissensbasis dar. Die Wissensbasis speichert Wirkungsbeziehungen zwischen Elementen in Form eines semantischen Netzes. Ein Element besitzt zudem Metainformationen über interne und externe, beliebig strukturierte Daten zur situativen Validierung der Wirkungsbeziehungen. Ebenfalls können Zeitverzögerungen bei Wirkungsbeziehungen berücksichtigt werden. Die Ablaufsteuerung verarbeitet das gespeicherte Wissen aus der Wissensbasis zur situativen Entscheidungsunterstützung in drei aufeinander aufbauenden Phasen. Die Initialisierungsphase dient der Eingabe einer Entscheidungssituation ins System sowie dem Matching der Entscheidungssituation mit Elementen der Wissensbasis. Die Explorationsphase durchsucht die Wissensbasis anhand der Wirkungsbeziehungen nach potenziell relevanten Elementen für die Entscheidungssituation und validiert diese mit statistischen Methoden, indem die Daten der potenziell relevanten Elemente anhand der Metainformationen abgerufen und mit geeigneten Methoden ausgewertet werden. Die Evaluationsphase ermöglicht es dem Anwender, die Ergebnisse zu überprüfen und optional die Wissensbasis anzupassen. Zur Evaluation des Konzeptes erfolgt eine prototypische Implementierung sowie deren empirische Evaluation mit einem Laborexperiment. Auf Basis des Aufgabe-Technologie-Fit-Modells wird eine bessere Eignung des Prototyps im Vergleich zu einer am Markt etablierten DSS-Software ohne automatisierte Analysen von Wirkungsbeziehungen nachgewiesen.
144

Künstliche Intelligenz und Kommunikation in Koordinierungsproblemen

Hoidn, Florian 09 June 2021 (has links)
Kommunikation entsteht, ohne dass hierfür notwendigerweise semantische oder syntaktische Regeln definiert werden müssen: Irgendwann haben unsere Vorfahren erlernt, miteinander zu kommunizieren, ohne dass ihnen jemand erklärte, wie das geht. In dieser Arbeit wird der philosophischen Frage nachgegangen, wie das möglich ist. Es soll geklärt werden, welche Bedingungen im Abstrakten dafür hinreichend sind, dass Wesen miteinander zu kommunizieren erlernen, und zwar insbesondere, ohne dass man ihnen hierfür eine konkrete Sprache vorgibt. Die Arbeit baut auf neuen Modellen und Erkenntnissen aus der Signalspieltheorie auf. Diese belegen, dass selbst einfache verstärkungsbasierte Lernverfahren in bestimmten Koordinierungsproblemen selbständig erlernen können, Information miteinander auszutauschen. Diese Erkenntnisse werden in dieser Arbeit mit Techniken aus dem maschinellen Lernen, insbesondere aus dem Bereich des deep reinforcement learning, kombiniert. Hiermit soll demonstriert werden, dass rudimentär intelligente Akteure selbstständig in relativ komplexen Sprachen miteinander kommunizieren können, wenn dies einer effizienteren Lösung nicht-trivialer Koordinierungsprobleme dient. Anders als in vergleichbaren Ansätzen, werden die lernfähigen Algorithmen, die in dieser Arbeit zum Einsatz kommen, weder dazu trainiert, real existierende Sprachen zu benutzen, noch werden sie dazu programmiert, künstliche Protokollsprachen zu verwenden. Vielmehr wird ihnen lediglich eine Menge von Signalen vorgegeben. Sowohl die syntaktischen Regeln, wie diese Signale aneinandergereiht werden dürfen, als auch die Semantik der Signale entstehen von alleine. / Communication emerges without the need for explicit definitions of semantic or syntactic rules: At some point, our ancestors learned to communicate with one another without anyone explaining to them how to do that. In this work, I'll try to answer the philosophical question of how that is possible. The goal is to find abstract conditions that are sufficient for the emergence of communication between creatures that do not have any predefined language available to them. This work builds on recent models and insights from the theory of signaling games. There, it is shown that simple reinforcement learning agents are able to learn to exchange meaningful information in suitable coordination problems autonomously. These insights will be combined with more powerful deep reinforcement learning techniques. Thus, it shall be demonstrated that moderately intelligent agents can learn to communicate in relatively complex languages, if this is useful to them in sufficiently non-trivial coordination problems. In contrast to existing work on communication based on artificial intelligence, the learning algorithms that will be applied here, will neither be trained to communicate in an existing natural language, nor will they be hard coded to use a predefined protocol. Instead, they will construct their messages freely from arbitrary sets of signals. The syntactic rules according to which these elementary signals can be chained together, as well as their semantics, will emerge autonomously.
145

Deep learning identifies Acute Promyelocytic Leukemia in bone marrow smears

Eckardt, Jan‑Niklas, Schmittmann, Tim, Riechert, Sebastian, Kramer, Michael, Shekh Sulaiman, Anas, Sockel, Katja, Kroschinsky, Frank, Schetelig, Johannes, Wagenführ, Lisa, Schuler, Ulrich, Platzbecker, Uwe, Thiede, Christian, Stölzel, Friedrich, Röllig, Christoph, Bornhäuser, Martin, Wendt, Karsten, Middeke, Jan Moritz 20 March 2024 (has links)
Background: Acute promyelocytic leukemia (APL) is considered a hematologic emergency due to high risk of bleeding and fatal hemorrhages being a major cause of death. Despite lower death rates reported from clinical trials, patient registry data suggest an early death rate of 20%, especially for elderly and frail patients. Therefore, reliable diagnosis is required as treatment with differentiation-inducing agents leads to cure in the majority of patients. However, diagnosis commonly relies on cytomorphology and genetic confirmation of the pathognomonic t(15;17). Yet, the latter is more time consuming and in some regions unavailable. - Methods: In recent years, deep learning (DL) has been evaluated for medical image recognition showing outstanding capabilities in analyzing large amounts of image data and provides reliable classification results. We developed a multi-stage DL platform that automatically reads images of bone marrow smears, accurately segments cells, and subsequently predicts APL using image data only. We retrospectively identified 51 APL patients from previous multicenter trials and compared them to 1048 non-APL acute myeloid leukemia (AML) patients and 236 healthy bone marrow donor samples, respectively. - Results: Our DL platform segments bone marrow cells with a mean average precision and a mean average recall of both 0.97. Further, it achieves high accuracy in detecting APL by distinguishing between APL and non-APL AML as well as APL and healthy donors with an area under the receiver operating characteristic of 0.8575 and 0.9585, respectively, using visual image data only. - Conclusions: Our study underlines not only the feasibility of DL to detect distinct morphologies that accompany a cytogenetic aberration like t(15;17) in APL, but also shows the capability of DL to abstract information from a small medical data set, i. e. 51 APL patients, and infer correct predictions. This demonstrates the suitability of DL to assist in the diagnosis of rare cancer entities. As our DL platform predicts APL from bone marrow smear images alone, this may be used to diagnose APL in regions were molecular or cytogenetic subtyping is not routinely available and raise attention to suspected cases of APL for expert evaluation.
146

Künstliche Intelligenz: Strategie für den Freistaat Sachsen

06 December 2023 (has links)
Künstliche Intelligenz – kaum ein Schlagwort prägt derzeit die Faszination für die digitale Zukunft ebenso wie die Diskussion, wie uns KI helfen kann, unsere Zukunft gut und nachhaltig zu gestalten. KI hat nicht nur als Schlagwort Einzug in unsere gesellschaftlichen Debatten gehalten. Vielmehr kommen wir im täglichen Leben immer mehr mit KI-Anwendungen in Kontakt, bewusst oder unbewusst. Was hat das für Folgen für jede einzelne bzw. jeden einzelnen von uns? Wie wirkt sich der (vermeintliche) Siegeszug von Algorithmen und den darauf aufbauenden Anwendungen und Produkten auf unser Leben aus? Ist KI etwas, was einfach »geschieht«, ohne dass wir es aufhalten können? Oder können wir diese neue Technologie verstehen und gestalten? Redaktionsschluss: 01.09.2021
147

Hyperspectral drill-core scanning in geometallurgy

Tusa, Laura 01 June 2023 (has links)
Driven by the need to use mineral resources more sustainably, and the increasing complexity of ore deposits still available for commercial exploitation, the acquisition of quantitative data on mineralogy and microfabric has become an important need in the execution of exploration and geometallurgical test programmes. Hyperspectral drill-core scanning has the potential to be an excellent tool for providing such data in a fast, non- destructive and reproducible manner. However, there is a distinct lack of integrated methodologies to make use of these data through-out the exploration and mining chain. This thesis presents a first framework for the use of hyperspectral drill-core scanning as a pillar in exploration and geometallurgical programmes. This is achieved through the development of methods for (1) the automated mapping of alteration minerals and assemblages, (2) the extraction of quantitative mineralogical data with high resolution over the drill-cores, (3) the evaluation of the suitability of hyperspectral sensors for the pre-concentration of ores and (4) the use of hyperspectral drill- core imaging as a basis for geometallurgical domain definition and the population of these domains with mineralogical and microfabric information.:Introduction Materials and methods Assessment of alteration mineralogy and vein types using hyperspectral data Hyperspectral imaging for quasi-quantitative mineralogical studies Hyperspectral sensors for ore beneficiation 3D integration of hyperspectral data for deposit modelling Concluding remarks References
148

Transdisziplinäre Betrachtung I: Wie beeinflussen mentale Modelle des Menschen die Entwicklung und Nutzung technischer Systeme?

Bocklisch, Franziska 07 September 2023 (has links)
Die menschzentrierte Industrie der Zukunft wird durch die Zusammenführung transdisziplinärer Sicht- und Arbeitsweisen verschiedener Fachdisziplinen entstehen. Die Veröffentlichungsreihe 'Transdisziplinäre Betrachtungen' fasst wesentliche Themen im Spannungsfeld 'Mensch, Künstliche Intelligenz und Technik' in übersichtlicher Posterform zusammen. Die Betrachtungen dienen der einführenden Darstellung einer ganzheitlich-systemischen Betrachtungsweise des Bereichs „Mensch und Produktion“. 'Transdisziplinäre Betrachtungen I' widmet sich der Frage, wie mentale Modelle des Menschen den Technikentwicklungs- und Techniknutzungsprozess beeinflussen. Hierzu werden die zwei grundlegenden Rollen des Menschen im Zusammenhang mit der Technik dargestellt. Relevante psychologische Prozesse, u.a. kognitive Prozesse der menschlichen Informationsverarbeitung, werden benannt. Es wird anschaulich dargestellt und beschrieben, wie mentale Modelle des Menschen mit technischen Modellen und Systemen in Zusammenhang stehen (sollten).
149

Transdisziplinäre Betrachtung II: Wie beeinflussen mentale Modelle des Menschen die technische Modellbildung und Technikentwicklung?

Bocklisch, Franziska 07 September 2023 (has links)
Die menschzentrierte Industrie der Zukunft wird durch die Zusammenführung transdisziplinärer Sicht- und Arbeitsweisen verschiedener Fachdisziplinen entstehen. Die Veröffentlichungsreihe 'Transdisziplinäre Betrachtungen' fasst wesentliche Themen im Spannungsfeld 'Mensch, Künstliche Intelligenz und Technik' in übersichtlicher Posterform zusammen. Die Betrachtungen dienen der einführenden Darstellung einer ganzheitlich-systemischen Betrachtungsweise des Bereichs „Mensch und Produktion“. 'Transdisziplinäre Betrachtungen II' widmet sich der Frage, wie mentale Modelle des Menschen den Technikentwicklungsprozess und die technische Modellbildung beeinflussen. Grundlegende kognitive Prozesse der menschlichen Informationsverarbeitung werden hierfür weiter spezifiziert. Es wird dargestellt, wie höhere kognitive Verarbeitungsprozesse zur Bildung mentaler Modelle, die die Grundlage der technischen Modellbildung und des Technikentwicklungsprozesses sind, beitragen. Der technische Designprozess wird in Grundzügen dargestellt, ebenso hierfür wesentliche Methoden und Vorgehensweisen. Die technische Realisierung ist das Endergebnis, das die Interaktion mit dem Nutzenden ermöglicht. Die Bildung transdisziplinärer mentaler Modelle auf Seiten der Technikentwickler erlaubt es, den nutzerzentrierten Designprozess adäquater und frühzeitiger in den Technikentwicklungsprozess zu integrieren.
150

Explainable deep learning classifiers for disease detection based on structural brain MRI data

Eitel, Fabian 14 November 2022 (has links)
In dieser Doktorarbeit wird die Frage untersucht, wie erfolgreich deep learning bei der Diagnostik von neurodegenerativen Erkrankungen unterstützen kann. In 5 experimentellen Studien wird die Anwendung von Convolutional Neural Networks (CNNs) auf Daten der Magnetresonanztomographie (MRT) untersucht. Ein Schwerpunkt wird dabei auf die Erklärbarkeit der eigentlich intransparenten Modelle gelegt. Mit Hilfe von Methoden der erklärbaren künstlichen Intelligenz (KI) werden Heatmaps erstellt, die die Relevanz einzelner Bildbereiche für das Modell darstellen. Die 5 Studien dieser Dissertation zeigen das Potenzial von CNNs zur Krankheitserkennung auf neurologischen MRT, insbesondere bei der Kombination mit Methoden der erklärbaren KI. Mehrere Herausforderungen wurden in den Studien aufgezeigt und Lösungsansätze in den Experimenten evaluiert. Über alle Studien hinweg haben CNNs gute Klassifikationsgenauigkeiten erzielt und konnten durch den Vergleich von Heatmaps zur klinischen Literatur validiert werden. Weiterhin wurde eine neue CNN Architektur entwickelt, spezialisiert auf die räumlichen Eigenschaften von Gehirn MRT Bildern. / Deep learning and especially convolutional neural networks (CNNs) have a high potential of being implemented into clinical decision support software for tasks such as diagnosis and prediction of disease courses. This thesis has studied the application of CNNs on structural MRI data for diagnosing neurological diseases. Specifically, multiple sclerosis and Alzheimer’s disease were used as classification targets due to their high prevalence, data availability and apparent biomarkers in structural MRI data. The classification task is challenging since pathology can be highly individual and difficult for human experts to detect and due to small sample sizes, which are caused by the high acquisition cost and sensitivity of medical imaging data. A roadblock in adopting CNNs to clinical practice is their lack of interpretability. Therefore, after optimizing the machine learning models for predictive performance (e.g. balanced accuracy), we have employed explainability methods to study the reliability and validity of the trained models. The deep learning models achieved good predictive performance of over 87% balanced accuracy on all tasks and the explainability heatmaps showed coherence with known clinical biomarkers for both disorders. Explainability methods were compared quantitatively using brain atlases and shortcomings regarding their robustness were revealed. Further investigations showed clear benefits of transfer-learning and image registration on the model performance. Lastly, a new CNN layer type was introduced, which incorporates a prior on the spatial homogeneity of neuro-MRI data. CNNs excel when used on natural images which possess spatial heterogeneity, and even though MRI data and natural images share computational similarities, the composition and orientation of neuro-MRI is very distinct. The introduced patch-individual filter (PIF) layer breaks the assumption of spatial invariance of CNNs and reduces convergence time on different data sets without reducing predictive performance. The presented work highlights many challenges that CNNs for disease diagnosis face on MRI data and defines as well as tests strategies to overcome those.

Page generated in 0.0737 seconds