• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 122
  • 94
  • 28
  • Tagged with
  • 244
  • 217
  • 170
  • 118
  • 117
  • 115
  • 115
  • 81
  • 71
  • 32
  • 27
  • 27
  • 27
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Lokalisierung und Kartenbau mit mobilen Robotern

Lingemann, Kai 08 April 2014 (has links)
Die dreidimensionale Kartierung der Umgebung spielt speziell in der Robotik eine große Rolle und ist Grundlage für nahezu alle Aufgaben, die eine nicht rein reaktive Interaktion mit dieser Umgebung darstellen. Die vorliegende Arbeit beschreibt den Weg zu solchen Karten. Angefangen bei der reinen (2D-)Lokalisierung eines mobilen Roboters, als erster, fundamentaler Schritt in Richtung autonomer Exploration und Kartierung, beschreibt der Text die Registrierung von Scans zur automatischen, effizienten Generierung von 3D-Karten und gleichzeitiger Lokalisierung in sechs Freiheitsgraden (SLAM-Problem). Es folgen Lösungsstrategien für den Umgang mit akkumulierten Fehlern gerade bei großen explorierten Gebieten: Eine GraphSLAM-Variante liefert global konsistente Karten, optional unterstützt durch eine echtzeitfähige Heuristik zur online-Schleifenoptimierung. Den Abschluss bildet ein alternativer Lokalisierungsansatz zur 3D-Kartierung mittels kooperativ agierenden Robotern.
12

Functional and Structural Characterization of the Myocardium / Funktionelle und Strukturelle Charakterisierung des Myokardiums

Lohr, David January 2021 (has links) (PDF)
Clinical practice in CMR with respect to cardiovascular disease is currently focused on tissue characterization, and cardiac function, in particular. In recent years MRI based diffusion tensor imaging (DTI) has been shown to enable the assessment of microstructure based on the analysis of Brownian motion of water molecules in anisotropic tissue, such as the myocardium. With respect to both functional and structural imaging, 7T MRI may increase SNR, providing access to information beyond the reach of clinically applied field strengths. To date, cardiac 7T MRI is still a research modality that is only starting to develop towards clinical application. In this thesis we primarily aimed to advance methods of ultrahigh field CMR using the latest 7T technology and its application towards the functional and structural characterization of the myocardium. Regarding the assessment of myocardial microstructure at 7T, feasibility of ex vivo DTI of large animal hearts was demonstrated. In such hearts a custom sequence implemented for in vivo DTI was evaluated and fixation induced alterations of derived diffusion metrics and tissue properties were assessed. Results enable comparison of prior and future ex vivo DTI studies and provide information on measurement parameters at 7T. Translating developed methodology to preclinical studies of mouse hearts, ex vivo DTI provided highly sensitive surrogates for microstructural remodeling in response to subendocardial damage. In such cases echocardiography measurements revealed mild diastolic dysfunction and impaired longitudinal deformation, linking disease induced structural and functional alterations. Complementary DTI and echocardiography data also improved our understanding of structure-function interactions in cases of loss of contractile myofiber tracts, replacement fibrosis, and LV systolic failure. Regarding the functional characterization of the myocardium at 7T, sequence protocols were expanded towards a dedicated 7T routine protocol, encompassing accurate cardiac planning and the assessment of cardiac function via cine imaging in humans. This assessment requires segmentation of myocardial contours. For that, artificial intelligence (AI) was developed and trained, enabling rapid automatic generation of cardiac segmentation in clinical data. Using transfer learning, AI models were adapted to cine data acquired using the latest generation 7T system. Methodology for AI based segmentation was translated to cardiac pathology, where automatic segmentation of scar tissue, edema and healthy myocardium was achieved. Developed radiofrequency hardware facilitates translational studies at 7T, providing controlled conditions for future method development towards cardiac 7T MRI in humans. In this thesis the latest 7T technology, cardiac DTI, and AI were used to advance methods of ultrahigh field CMR. In the long run, obtained results contribute to diagnostic methods that may facilitate early detection and risk stratification in cardiovascular disease. / Bei kardiovaskulären Erkrankungen konzentriert sich die kardiale MRT aktuell auf die Gewebecharakterisierung und insbesondere die Herzfunktion. In den letzten Jahren hat sich gezeigt, dass MRT-basierte Diffusions-Tensor-Bildgebung (DTI) die Beurteilung der Mikrostruktur anhand der Analyse der Brownschen Bewegung von Wassermolekülen in anisotropem Gewebe, wie dem Myokardium, ermöglicht. In Bezug auf sowohl die funktionelle als auch die strukturelle Bildgebung kann 7T MRT SNR verbessern und Information messbar machen, die außerhalb der Reichweite von klinisch angewendeten Feldstärken liegt. Heute ist kardiale 7T MRT noch eine Forschungsmodalität, die sich Richtung klinischer Anwendung entwickelt. Hauptziel dieser Dissertation war die Weiterentwicklung von Methoden der kardialen Ultrahochfeld-Bildgebung mittels der neuesten 7T-Technologie und dessen Anwendung für die funktionelle und strukturelle Charakterisierung des Myokardiums. Für die Mikrostrukturcharakterisierung des Myokardiums bei 7T wurde die Durchführbarkeit von ex vivo DTI Messungen von Großtierherzen demonstriert. In solchen Herzen wurde eine Sequenz evaluiert, die für in vivo DTI etabliert wurde. Zudem wurden fixationsbedinge Veränderungen von Diffusionsparametern und Gewebeeigenschaften ermittelt. Die Ergebnisse erlauben den Vergleich von bestehenden und zukünftigen ex vivo Studien und geben Informationen zu Messparametern bei 7T. Der Transfer von etablierten Methoden zu präklinischen Studien in Mäuseherzen demonstrierte, dass ex vivo DTI sensitive Marker für Mikrostruktur-Remodeling nach Subendokard-Schäden liefern kann. In solchen Fällen zeigte Echokardiographie eine leichte diastolische Dysfunktion und eingeschränkte Longitudinalverformung. Komplementäre DTI und Echokardiographie-Daten erweiterten zudem unser Verständnis von Struktur-Funktions-Interaktionen in Fällen von Verlust von kontraktilen Faserbündeln, Fibrose und linksventrikulärem, systolischem Versagen. Für die funktionelle Charakterisierung des Myokardiums bei 7T wurde ein dediziertes 7T-Humanprotokoll erarbeitet, welches akkurate Schichtplanung und die Bestimmung der Herzfunktion mittels Cine-Bildgebung umfasst. Die Herzfunktionsbestimmung erfordert die Segmentierung des Myokards. Hierfür wurde künstliche Intelligenz (KI) entwickelt, die eine schnelle, automatische Herzsegmentierung in klinischen Daten ermöglicht. Mittels Lerntransfer wurden KI-Modelle für Bilder angepasst, die mit der neuesten 7T-Technologie aufgenommen wurden. Methoden für die KI-basierte Segmentierung wurden zudem für die Bestimmung und Segmentierung von Narbengewebe, Ödemen und gesundem Myokard erweitert. Entwickelte Radiofrequenz-Komponenten ermöglichen translationale 7T-Studien, welche kontrollierte Bedingungen für die Methodenentwicklung von kardialen 7T-Anwendungen für den Humanbereich liefern. In dieser Arbeit werden die neueste 7T-Technologie, DTI am Herzen und AI genutzt, um Methoden der kardialen Ultrahochfeld-Bildgebung weiterzuentwickeln. Langfristig erweitern die erzielten Ergebnisse diagnostische Methoden, die Früherkennung und Risikoabschätzung in kardiovaskulären Erkrankungen ermöglichen können.
13

Artificial Intelligence for Human Decision-Makers: Systematization, Perception, and Adoption of Intelligent Decision Support Systems in Industry 4.0 / Künstliche Intelligenz für menschliche Entscheidungsträger: Systematisierung, Wahrnehmung und Akzeptanz von intelligenten Entscheidungsunterstützungssystemen im Kontext der Industrie 4.0

Wanner, Jonas Paul January 2022 (has links) (PDF)
Innovative possibilities for data collection, networking, and evaluation are unleashing previously untapped potential for industrial production. However, harnessing this potential also requires a change in the way we work. In addition to expanded automation, human-machine cooperation is becoming more important: The machine achieves a reduction in complexity for humans through artificial intelligence. In fractions of a second large amounts of data of high decision quality are analyzed and suggestions are offered. The human being, for this part, usually makes the ultimate decision. He validates the machine’s suggestions and, if necessary, (physically) executes them. Both entities are highly dependent on each other to accomplish the task in the best possible way. Therefore, it seems particularly important to understand to what extent such cooperation can be effective. Current developments in the field of artificial intelligence show that research in this area is particularly focused on neural network approaches. These are considered to be highly powerful but have the disadvantage of lacking transparency. Their inherent computational processes and the respective result reasoning remain opaque to humans. Some researchers assume that human users might therefore reject the system’s suggestions. The research domain of explainable artificial intelligence (XAI) addresses this problem and tries to develop methods to realize systems that are highly efficient and explainable. This work is intended to provide further insights relevant to the defined goal of XAI. For this purpose, artifacts are developed that represent research achievements regarding the systematization, perception, and adoption of artificially intelligent decision support systems from a user perspective. The focus is on socio-technical insights with the aim to better understand which factors are important for effective human-machine cooperation. The elaborations predominantly represent extended grounded research. Thus, the artifacts imply an extension of knowledge in order to develop and/ or test effective XAI methods and techniques based on this knowledge. Industry 4.0, with a focus on maintenance, is used as the context for this development. / Durch innovative Möglichkeiten der Datenerhebung, Vernetzung und Auswertung werden Potenziale für die Produktion freigesetzt, die bisher ungenutzt sind. Dies bedingt jedoch eine Veränderung der Arbeitsweise. Neben einer erweiterten Automatisierung wird die Mensch-Maschinen-Kooperation wichtiger: Die Maschine erreicht durch Künstliche Intelligenz eine Komplexitätsreduktion für den Menschen. In Sekundenbruchteilen werden Vorschläge aus großen Datenmengen von hoher Entscheidungsqualität geboten, während der Mensch i.d.R. die Entscheidung trifft und diese ggf. (physisch) ausführt. Beide Instanzen sind stark voneinander abhängig, um eine bestmögliche Aufgabenbewältigung zu erreichen. Es scheint daher insbesondere wichtig zu verstehen, inwiefern eine solche Kooperation effektiv werden kann. Aktuelle Entwicklungen auf dem Gebiet der Künstlichen Intelligenz zeigen, dass die Forschung hierzu insbesondere auf Ansätze Neuronaler Netze fokussiert ist. Diese gelten als hoch leistungsfähig, haben aber den Nachteil einer fehlenden Nachvollziehbarkeit. Ihre inhärenten Berechnungsvorgänge und die jeweilige Ergebnisfindung bleiben für den Menschen undurchsichtig. Einige Forscher gehen davon aus, dass menschliche Nutzer daher die Systemvorschläge ablehnen könnten. Die Forschungsdomäne erklärbare Künstlichen Intelligenz (XAI) nimmt sich der Problemstellung an und versucht Methoden zu entwickeln, um Systeme zu realisieren die hoch-leistungsfähig und erklärbar sind. Diese Arbeit soll weitere Erkenntnisse für das definierte Ziel der XAI liefern. Dafür werden Artefakte entwickelt, welche Forschungsleistungen hinsichtlich der Systematisierung, Wahrnehmung und Adoption künstlich intelligenter Entscheidungsunterstützungssysteme aus Anwendersicht darstellen. Der Fokus liegt auf sozio-technischen Erkenntnissen. Es soll besser verstanden werden, welche Faktoren für eine effektive Mensch-Maschinen-Kooperation wichtig sind. Die Erarbeitungen repräsentieren überwiegend erweiterte Grundlagenforschung. Damit implizieren die Artefakte eine Erweiterung des Wissens, um darauf aufbauend effektive XAI-Methoden und -Techniken zu entwickeln und/ oder zu erproben. Als Kontext der eigenen Erarbeitung wird die Industrie 4.0 mit Schwerpunkt Instandhaltung genutzt.
14

Improving Super-Resolution Microscopy Data Reconstruction and Evaluation by Developing Advanced Processing Algorithms and Artifcial Neuronal Networks / Verbesserung von Datenrekonstruktion und -auswertung in der Super-Resolution Mikroskopie durch die Entwicklung von fortgeschrittenen Verarbeitungsalgorithmen und künstlichen neuronalen Netzen

Reinhard, Sebastian January 2023 (has links) (PDF)
The fusion of methods from several disciplines is a crucial component of scientific development. Artificial Neural Networks, based on the principle of biological neuronal networks, demonstrate how nature provides the best templates for technological advancement. These innovations can then be employed to solve the remaining mysteries of biology, including, in particular, processes that take place on microscopic scales and can only be studied with sophisticated techniques. For instance, direct Stochastic Optical Reconstruction Microscopy combines tools from chemistry, physics, and computer science to visualize biological processes at the molecular level. One of the key components is the computer-aided reconstruction of super-resolved images. Improving the corresponding algorithms increases the quality of the generated data, providing further insights into our biology. It is important, however, to ensure that the heavily processed images are still a reflection of reality and do not originate in random artefacts. Expansion microscopy is expanding the sample by embedding it in a swellable hydrogel. The method can be combined with other super-resolution techniques to gain additional resolution. We tested this approach on microtubules, a well-known filamentous reference structure, to evaluate the performance of different protocols and labelling techniques. We developed LineProfiler an objective tool for data collection. Instead of collecting perpendicular profiles in small areas, the software gathers line profiles from filamentous structures of the entire image. This improves data quantity, quality and prevents a biased choice of the evaluated regions. On the basis of the collected data, we deployed theoretical models of the expected intensity distribution across the filaments. This led to the conclusion that post-expansion labelling significantly reduces the labelling error and thus, improves the data quality. The software was further used to determine the expansion factor and arrangement of synaptonemal complex data. Automated Simple Elastix uses state-of-the-art image alignment to compare pre- and post-expansion images. It corrects linear distortions occurring under isotropic expansion, calculates a structural expansion factor and highlights structural mismatches in a distortion map. We used the software to evaluate expanded fungi and NK cells. We found that the expansion factor differs for the two structures and is lower than the overall expansion of the hydrogel. Assessing the fluorescence lifetime of emitters used for direct Stochastic Optical Reconstruction Microscopy can reveal additional information about the molecular environment or distinguish dyes emitting with a similar wavelength. The corresponding measurements require a confocal scanning of the sample in combination with the fluorescent switching of the underlying emitters. This leads to non-linear, interrupted Point Spread Functions. The software ReCSAI targets this problem by combining the classical algorithm of compressed sensing with modern methods of artificial intelligence. We evaluated several different approaches to combine these components and found, that unrolling compressed sensing into the network architecture yields the best performance in terms of reconstruction speed and accuracy. In addition to a deep insight into the functioning and learning of artificial intelligence in combination with classical algorithms, we were able to reconstruct the described non-linearities with significantly improved resolution, in comparison to other state-of-the-art architectures. / Für die Weiterentwicklung der Wissenschaft wird es immer wichtiger, Methoden aus verschiedenen Gebieten zu kombinieren. Die künstliche Intelligenz beruht beispielsweise auf dem Prinzip biologischer neuronaler Netze. Hier wird die Natur als Vorlage für unsere technische Entwicklung genutzt. Diese Innovationen können dazu eingesetzt werden, die verbliebenen Rätsel der Biologie zu lösen. Dazu gehören insbesondere Prozesse, die sich auf mikroskopischer Ebene abspielen und nur mit hochentwickelten Techniken untersucht werden können. Die direkte Stochastisch Optische Rekonstruktionsmikroskopie kombiniert Methoden der Chemie, Physik und Informatik, um biologische Prozesse auf molekularer Ebene sichtbar zu machen. Eine der Schlüsselkomponenten ist die computergestützte Rekonstruktion von hochaufgelösten Bildern. Die Verbesserung der zugrunde liegenden Algorithmen erhöht die Qualität der erzeugten Daten und ermöglicht weitere Einblicke in unsere Biologie. Es muss jedoch sichergestellt werden, dass die künstlich erstellten Bilder immer noch ein Abbild der Realität sind und nicht auf zufälligen Artefakten beruhen. Expansionsmikroskopie vergrößert die Probe durch Einbettung in ein Hydrogel. Die Methode kann mit anderen hochauflösenden Techniken kombiniert werden, um die Auflösung noch weiter zu verbessern. Dieser Ansatz wurde an Mikrotubuli, einer bekannten flamentösen Referenzstruktur, verwendet, um verschiedene Protokolle und Markierungstechniken zu testen. Mit LineProfiler wurde ein objektives Werkzeug zur Datenerfassung entwickelt. Anstatt Linienprofle in kleinen Bereichen zu erfassen, wertet die Software das gesamte Bild aus. Dies verbessert die Datenmenge und Datenqualität und verhindert eine voreingenommene Auswahl der ausgewerteten Regionen. Auf Grundlage der gesammelten Daten wurden theoretische Modelle für die erwartete Intensitätsverteilung über die Filamente erstellt. Daraus konnte geschlossen werden, dass die Markierung nach der Expansion den Markierungsfehler erheblich reduziert und somit die Qualität der Daten verbessert. Die Software wurde außerdem zur Bestimmung des Expansionsfaktors und der Anordnung der Daten des synaptonemalen Komplexes verwendet. Automated Simple Elastix verwendet modernste Bildregistrierung, um Bilder vor und nach der Expansion zu vergleichen. Lineare Verzerrungen, die bei isotroper Expansion auftreten, werden korrigiert. Der strukturelle Expansionsfaktor wird berechnet und strukturelle Unstimmigkeiten werden in einer Verzerrungskarte hervorgehoben. Die Software wurde zur Bewertung expandierter Pilze und NK-Zellen eingesetzt. Dabei wurde festgestellt, dass der Expansionsfaktor für die beiden Strukturen unterschiedlich ist und unter der Gesamtexpansion des Hydrogels liegt. Die Auswertung der Fluoreszenzlebensdauer von Emittern, die für die direkte Stochastische Optische Rekonstruktionsmikroskopie eingesetzt werden, kann zusätzliche Informationen über die molekulare Umgebung liefern oder Farbstoffe unterscheiden, die VI eine ähnliche Lichtwellenlänge emittieren. Die entsprechenden Messungen erfordern eine konfokale Abtastung der Probe in Kombination mit dem fluoreszenten Schalten der zugrunde liegenden Emitter. Dies führt zu nichtlinearen, unterbrochenen Punktspreizfunktionen. Die Software ReCSAI löst dieses Problem, indem sie den klassischen Algorithmus des Compressed Sensing mit modernen Methoden der künstlichen Intelligenz kombiniert. Es wurden verschiedene Ansätze zur Kombination der Komponenten ausgewertet und festgestellt, dass die Integration von Compressed Sensing in die Netzwerkarchitektur die beste Performance in Bezug auf Rekonstruktionsgeschwindigkeit und -genauigkeit bringt. Neben einem tiefen Einblick in die Funktionsweise und das Lernen von künstlicher Intelligenz in Kombination mit klassischen Algorithmen konnten die beschriebenen Nichtlinearitäten mit einer deutlich verbesserten Auflösung im Vergleich zu anderen modernen Architekturen rekonstruiert werden.
15

Realisierung eines Smart Mirror Demonstrators für ein KI- zentriertes Living Lab

Holfeld, Jonas Michael 03 February 2023 (has links)
Demonstratoren sind äußerst hilfreiche Werkzeuge, welche der Veranschaulichung neuer Technologien dienen. Besonders im Kontext von Living Labs, in denen es um Bildung, Forschung, gemeinsame Entwicklung und Experimente geht, können sie von großer Bedeutung sein. Sie unterliegen in ihrer Umsetzung besonderen Anforderungen, die sich stark von denen an Produkte für den Markt unterscheiden. Diese Arbeit stellt das Konzept und die Umsetzung eines Smart Mirror Demonstrators vor, der für das Living Lab des KI-Kompetenzzentrums ScaDS.AI in Leipzig entwickelt wurde. Der Demonstrator veranschaulicht einen Anwendungsfall von Objekt- und Ähnlichkeitserkennung, die auf künstlichen neuronalen Netzen basieren. Er besteht aus einem Smart Mirror, der Kleidungsstücke erkennen und visuell ähnliche Kleidungsstücke vorschlagen kann. Ein Nutzer kann mit dem Demonstrator ein Foto von sich aufnehmen, auf dem die erkannten Kleidungsstücke mit sogenannten Bounding Boxes markiert werden. Anschließend werden visuell ähnliche Kleidungsstücke aus einer Datenbank herausgefiltert und angezeigt. In der Arbeit geht es zum einen um die verwendeten Technologien, als auch um die Architektur des Demonstrators selbst. Die Softwarearchitektur des Demonstrators orientiert sich an dem Aufbau von Webanwendungen und besteht aus einem Backend und einem Frontend. Das Backend wurde als REST-API umgesetzt, die in Python unter Verwendung des Frameworks Flask geschrieben wurde. Das Frontend besteht aus einer Single Page Application, umgesetzt mit dem Javascript Framework Vue. Beide Anwendungen wurden mit Hilfe der Software Docker in Containern umgesetzt, um die Laufzeitumgebung zu virtualisieren und die Ausführung auf verschiedenen Rechnern zu erleichtern. Der Technologie-Stack bestehend aus Flask, Vue und Docker und die Umsetzung unter Beachtung der REST Prinzipien sind positiv zu bewerten und wurden im ScaDS.AI in Anlehnung an den be- schriebenen Demonstrator zum Standard für die Entwicklung weiterer Demonstratoren.:1. Einleitung 1.1. Projektrahmen 1.2. Hintergrund und Idee 1.3. Aufbau der Arbeit 2. Anforderungen 2.1. Funktionale Anforderungen 2.1.1. Objekterkennung 2.1.2. Kleidungsvorschläge 2.1.3. Visualisierung und Benutzung 2.1.4. Hardware 2.2. Projektrahmen und nicht-funktionale Anforderungen 2.2.1. Das ScaDS.AI und Living Lab in Leipzig 2.2.2. Demonstratoren 2.3. Zusammenfassung 3. Technische Grundlagen 3.1. Objekterkennung 3.1.1. Convolutional Neural Networks 3.1.2. Single Shot Multibox Detector 3.2. Architektur und Technologie-Stack 3.2.1. REST Paradigma 3.2.2. Python Webframework Flask 3.2.3. Single Page Applications mit Vue 3.2.4. Virtualisierung mit Docker 3.3. Zusammenfassung 4. Implementierung 4.1. Architekturentwurf 4.2. Backend Programmierung 4.2.1. Umsetzung als Flask App 4.2.2. Detection 4.2.3. Matching 4.2.4. Umsetzung der REST API 4.3. Frontend Programmierung 4.3.1. Darstellungsschicht 4.3.2. Serviceschicht 4.3.3. Speicherschicht 4.3.4. Datenfluss 4.3.5. Online-Version 4.4. Containerisierung 4.5. Hardware 4.5.1. Samsung Flip 4.5.2. Kamera 4.5.3. Rechner 4.6. Zusammenfassung 5. Projektauswertung 5.1. Erfüllung der Anforderungen 5.2. Schwierigkeiten 5.3. Zusammenfassung 6. Ausblick 7. Literaturverzeichnis 8. Abbildungsverzeichnis 9. Quelltextverzeichnis 10. Anhang
16

Gewährleistung der Bildkonsistenz in der Portaitfotografie: eine technologische Lösung für effiziente und vergleichbare Aufnahmen

Palme, Willy, Breithecker, Janine, Rieckmann, Olaf, Stolpmann, Alexander 14 February 2024 (has links)
Dieses Paper präsentiert das Forschungsprojekt „Intelligent Camera Unit“ (ICU) der Technischen Hochschule Wildau in Kooperation mit der Beiersdorf AG zur Verbesserung von Portraitaufnahmen in Probandenstudien für Kosmetikprodukte. Das Hauptziel des Projekt besteht darin, Ausrichtungsfehler zu minimieren und die Vergleichbarkeit von Vorher-Nachher-Bildern zu erhöhen. Dies wird durch die Verwendung eines kollaborativen Roboters und KI-gestützter Bildanalyse erreicht, um präzise Ausrichtung und Gesichtspositionen der Probanden zu gewährleisten. Das entwickelte System ermöglicht effiziente und reproduzierbare Aufnahmen aus verschiedenen Winkeln und Entfernungen und bietet eine benutzerfreundliche, web-basierte Bedienoberfläche.
17

Künstliche Intelligenz zur vollständig automatisierten FRS-Auswertung: Bewertung der Auswertequalität verschiedener kommerzieller Anbieter im Vergleich zu einem menschlichen Goldstandard / Artificial intelligence for fully automated cephalometric analysis: evaluation of the quality of different commercial providers compared to a humans’ gold standard

Widmaier [geb. Wirth], Lisa Marie January 2024 (has links) (PDF)
Ziel der vorliegenden Studie war es, verschiedene kommerzielle Anbieter für KI-gestützte FRS-Analysen hinsichtlich ihrer Genauigkeit mit einem menschlichen Goldstandard zu vergleichen. Auf 50 FRS wurden durch zwölf erfahrene Untersucher 15 Landmarken identifiziert, auf deren Basis neun relevante Parameter vermessen wurden. Der Medianwert dieser zwölf Auswertungen wurde für jeden Parameter auf jedem FRS als Goldstandard definiert und als Referenz für die Vergleiche mit vier verschiedenen kommerziellen KI-Anbietern (DentaliQ.ortho, WebCeph, AudaxCeph, CephX) festgelegt. Die statistische Auswertung erfolgte mittels ANOVA mit Messwiederholung, paarweiser Vergleiche mittels Post-hoc-Test und Bland-Altman-Plots. DentaliQ.ortho zeigte für alle neun untersuchten Parameter keinen statistisch signifikanten Unterschied zum menschlichen Goldstandard und es konnte insgesamt von einer hohen Genauigkeit der Auswertungen ausgegangen werden. Auch für WebCeph war kein statistisch signifikanter Unterschied zum menschlichen Goldstandard zu verzeichnen. Allerdings war die Präzision im Vergleich zu den anderen Anbietern für alle Parameter am geringsten und der proportionale Fehler bei nahezu allen Parametern am höchsten. AudaxCeph wies für sieben Parameter statistisch signifikante Unterschiede zum menschlichen Goldstandard auf. Für CephX wurden für fünf Parameter statistisch signifikante Unterschiede zum menschlichen Goldstandard ermittelt. Insbesondere für die dentale Analyse war für alle untersuchten kommerziellen KI-Anbieter eine vergleichsweise niedrigere Genauigkeit zu verzeichnen. Die Ergebnisse zeigen, dass noch deutliche Qualitätsunterschiede zwischen den kommerziellen KI-Anbietern für die vollständig automatisierte FRS-Analyse bestehen. Vor dem Hintergrund der Zeitersparnis und Qualitätssicherung sind KI zwar vielversprechend, sollten aber zum aktuellen Zeitpunkt nur unter Aufsicht durch menschliche Experten zum Einsatz kommen. / The aim of this study was to compare various commercial providers for AI-assisted cephalometric analysis with regard to their accuracy to a humans’ gold standard. Twelve experienced investigators identified 15 landmarks on 50 cephalometric X-rays and on this basis nine relevant parameters were measured. The median value of these twelve evaluations was defined as the gold standard for each parameter on each cephalometric X-ray and used as a reference for the comparisons with four different commercial AI providers (DentaliQ.ortho, WebCeph, AudaxCeph, CephX). Statistical analysis was performed using ANOVA with repeated measures, pairwise comparisons using post-hoc test and Bland-Altman plots. DentaliQ.ortho showed no statistically significant difference to the humans’ gold standard for all nine parameters examined and the overall accuracy of the evaluations could be described as high. There was also no statistically significant difference between WebCeph and the humans’ gold standard. However, compared to the other providers, the precision was the lowest for all parameters and the proportional error was the highest for almost all parameters. AudaxCeph showed statistically significant differences to the humans’ gold standard for seven parameters. For CephX, statistically significant differences to the humans’ gold standard were determined for five parameters. For the dental analysis in particular, a comparatively lower accuracy was recorded for all commercial AI providers examined. The results show that there are significant differences in quality between commercial AI providers for fully automated cephalometric analysis. Although AI is promising in terms of saving time and assuring quality, it should currently only be used under the supervision of human experts.
18

Proceedings of the International Workshop on Reactive Concepts in Knowledge Representation 2014

Ellmauthaler, Stefan, Pührer, Jörg 30 October 2014 (has links) (PDF)
These are the proceedings of the International Workshop on Reactive Concepts in Knowledge Representation (ReactKnow 2014), which took place on August 19th, 2014 in Prague, co-located with the 21st European Conference on Artificial Intelligence (ECAI 2014).
19

Proceedings of the International Workshop on Reactive Concepts in Knowledge Representation 2014

Ellmauthaler, Stefan, Pührer, Jörg 30 October 2014 (has links)
These are the proceedings of the International Workshop on Reactive Concepts in Knowledge Representation (ReactKnow 2014), which took place on August 19th, 2014 in Prague, co-located with the 21st European Conference on Artificial Intelligence (ECAI 2014).
20

Prospect Theory Multi-Agent Based Simulations for Non-Rational Route Choice Decision Making Modelling / Prospect Theorie basierte Multi-Agenten Simulationen für nicht-rationalle Route Entscheidung Modellierung

Kuhn Andriotti, Gustavo January 2009 (has links) (PDF)
Simulations (MASim) and non-rational behaviour. This non-rational behaviour is here based on the Prospect Theory [KT79] (PT), which is compared to the rational behaviour in the Expected Utility Theory [vNM07] (EUT). This model was used to design a modified Q-Learning [Wat89, WD92] algorithm. The PT based Q-Learning was then integrated into a proposed agent architecture. Because much attention is given to a limited interpretation of Simon's definition of bounded-rationality, this interpretation is broadened here. Both theories, rationality and the non-rationality, are compared and the discordance in their results discussed. The main contribution of this work is to show that an alternative is available to the EUT that is more suitable for human decision-makers modelling. The evidences show that rationality is not appropriated for modelling persons. Therefore, instead of fine-tuning the existent model the use of another one is proposed and evaluated. To tackle this, the route choice problem was adopted to perform the experiments. To evaluate the proposed model three traffic scenarios are simulated and their results analysed.

Page generated in 0.0635 seconds