• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 88
  • 73
  • 14
  • Tagged with
  • 175
  • 175
  • 158
  • 86
  • 84
  • 84
  • 77
  • 72
  • 69
  • 29
  • 26
  • 24
  • 24
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

(Intelligentes) Text Mining in der Marktforschung

Stützer, Cathleen M., Wachenfeld-Schell, Alexandra, Oglesby, Stefan 24 November 2021 (has links)
Die Extraktion von Informationen aus Texten – insbesondere aus unstrukturierten Textdaten wie Foren, Bewertungsportalen bzw. aus offenen Angaben – stellen heute eine besondere Herausforderung für Marktforscher und Marktforscherinnen dar. Hierzu wird zum einen neues methodisches Know-how gebraucht, um mit den komplexen Datenbeständen sowohl bei der Erhebung wie auch bei der Bewertung dieser umzugehen. Zum anderen müssen im Kontext der digitalen Beforschung von neuen Customer Insights sowohl technische als auch organisationale Infrastrukturen geschaffen werden, um u. a. Geschäftsmodelle in Abläufen und Arbeitsprozessen von Unternehmen, Institutionen und Organisationen etablieren zu können. Die Beiträge des Bandes besprechen nicht nur vielfältigste Methoden und Verfahren zur automatischen Textextraktion, sondern zeigen hierbei sowohl die Relevanz als auch die Herausforderungen für die Online-Marktforschung auf, die mit dem Einsatz solch innovativer Ansätze und Verfahren verbunden sind.:C. M. Stützer, A. Wachenfeld-Schell & S. Oglesby: Digitale Transformation der Marktforschung A. Lang & M. Egger, Insius UG: Wie Marktforscher durch kooperatives Natural Language Processing bei der qualitativen Inhaltsanalyse profitieren können M. Heurich & S. Štajner, Symanto Research: Durch Technologie zu mehr Empathie in der Kundenansprache – Wie Text Analytics helfen kann, die Stimme des digitalen Verbrauchers zu verstehen G. Heisenberg, TH Köln & T. Hees, Questback GmbH: Text Mining-Verfahren zur Analyse offener Antworten in Online-Befragungen im Bereich der Markt- und Medienforschung T. Reuter, Cogia Intelligence GmbH: Automatische semantische Analysen für die Online-Marktforschung P. de Buren, Caplena GmbH: Offenen Nennungen gekonnt analysieren
122

Ein Framework zur Analyse komplexer Produktportfolios mittels Machine Learning

Mehlstäubl, Jan 08 December 2023 (has links)
Die Nachfrage der Kunden nach individualisierten Produkten, die Globalisierung, neue Konsummuster sowie kürzere Produktlebenszyklen führen dazu, dass Unternehmen immer mehr Varianten anbieten. Aufgrund der Arbeitsteilung und der unterschiedlichen Perspektiven können einzelne Entwickler die Komplexität des Produktportfolios nicht durchdringen. Dennoch sind die heutigen Verfahren im Produktportfolio- und Variantenmanagement geprägt durch manuelle und erfahrungsbasierte Aktivitäten. Eine systematische Analyse und Optimierung des Produktportfolios sind damit nicht möglich. Unternehmen benötigen stattdessen intelligente Lösungen, welche das gespeicherte Wissen in Daten nutzen und einsetzen, um Entscheidungen über Innovation, Differenzierung und Elimination von Produktvarianten zu unterstützen. Zielstellung dieses Forschungsvorhabens ist die Entwicklung eines Frameworks zur Analyse komplexer Produktportfolios mittels Machine Learning. Machine Learning ermöglicht es, Wissen aus Daten unterschiedlicher Lebenszyklusphasen einer Produktvariante automatisiert zu generieren und zur Unterstützung des Produktportfolio- und Variantenmanagements einzusetzen. Für die Unterstützung der Entscheidungen über Produktvarianten ist Wissen über deren Abhängigkeiten und Beziehungen sowie die Eigenschaften der einzelnen Elemente erforderlich. Dadurch soll ein Beitrag zur besseren Handhabung komplexer Produktportfolios geleistet werden. Das Framework zur Analyse komplexer Produktportfolios mittels Machine Learning besteht aus drei Bausteinen, die das zentrale Ergebnis dieser Arbeit darstellen. Zuerst wird in Baustein 1 auf die Wissensbedarfe bei der Analyse und Anpassung komplexer Produktportfolios eingegangen. Anschließend werden in Baustein 2 die Daten, welche für Entscheidungen und somit für die Wissensgenerierung im Produktportfolio- und Variantenmanagement erforderlich sind, beschrieben und charakterisiert. Abschließend findet in Baustein 3 die Datenvorbereitung und die Implementierung der Machine Learning Verfahren statt. Es wird auf unterschiedliche Verfahren eingegangen und eine Unterstützung bei der Auswahl und Evaluation der Algorithmen sowie die Möglichkeiten zum Einsatz des generierten Wissens für die Analyse komplexer Produktportfolios aufgezeigt. Das Framework wird in einer Fallstudie bei einem Industriepartner aus der Nutzfahrzeugbranche mit einem besonders komplexen Produktportfolio angewendet. Dabei werden die drei Anwendungsfälle Prognose von „marktspezifischen und technischen Eigenschaften der Produktvarianten“, Ermittlung von „Ähnlichkeiten von Produktvarianten“ und Identifikation von „Korrelationen zwischen Merkmalsausprägungen“ mit realen Daten des Industriepartners umgesetzt. Das Framework sowie die in der Fallstudie beim Industriepartner erzielten Ergebnisse werden anschließend Experten im Produktportfolio- und Variantenmanagement vorgestellt. Diese bewerten die Ergebnisse hinsichtlich der funktionalen Eigenschaften sowie dem Mehrwert aus Sicht der Forschung und industriellen Praxis anhand zuvor definierter Kriterien.:1 Einführung 1.1 Motivation 1.2 Komplexe Produktportfolios: Eine Industrieperspektive 1.3 Zielsetzung und Forschungsfragen 1.4 Aufbau der Arbeit 2 Grundlagen zur Analyse von Produktportfolios mittels Machine Learning 2.1 Komplexe Produktportfolios 2.1.1 Terminologie komplexer Produktportfolios 2.1.2 Strukturierung komplexer Produktportfolios 2.1.3 Analyse und Anpassung komplexer Produktportfolios 2.1.4 Zusammenfassung: Komplexe Produktportfolios 2.2 Machine Learning 2.2.1 Machine Learning als Teil der künstlichen Intelligenz 2.2.2 Terminologie Machine Learning 2.2.3 Wissensgenerierung mit Machine Learning 2.2.4 Datenanalyseprozess 2.2.5 Machine Learning Verfahren und Algorithmen 2.2.6 Zusammenfassung: Machine Learning 3 Ansätze zur Analyse von Produktportfolios mittels Machine Learning 3.1 Kriterien zur Bewertung bestehender Ansätze 3.2 Bestehende Ansätze aus der Literatur 3.2.1 Einsatz überwachter Lernverfahren 3.2.2 Einsatz unüberwachter Lernverfahren 3.2.3 Einsatz kombinierter Lernverfahren 3.3 Resultierender Forschungsbedarf 4 Forschungsvorgehen 4.1 Design Research Methodology (DRM) 4.2 Vorgehen und Methodeneinsatz 4.3 Kriterien für die Entwicklung des Frameworks 4.4 Schlussfolgerungen zum Forschungsvorgehen 5 Framework zur Analyse komplexer Produktportfolios 5.1 Übersicht über das Framework 5.2 Baustein 1: Wissensbedarfe zur Analyse komplexer Produktportfolios 5.2.1 Informationssuche 5.2.2 Formulierung von Alternativen 5.2.3 Prognose 5.2.4 Kriterien zur Auswahl der Wissensbedarfe 5.3 Baustein 2: Datenbasierte Beschreibung komplexer Produktportfolios 5.3.1 Produktdatenmodell 5.3.2 Vertriebsdaten 5.3.3 Nutzungsdaten 5.4 Baustein 3: Systematische Generierung und Einsatz von Wissen 5.4.1 Baustein 3.0: Vorbereitung von Produktportfoliodaten 5.4.2 Baustein 3.1: Regressionsanalyse 5.4.3 Baustein 3.2: Klassifikationsanalyse 5.4.4 Baustein 3.3: Clusteranalyse 5.4.5 Baustein 3.4: Assoziationsanalyse 5.5 Anwendung des Frameworks 5.6 Schlussfolgerung zum Framework 6 Validierung des Frameworks 6.1 Konzept der Validierung 6.2 Baustein 1: Wissensbedarfe zur Analyse komplexer Produktportfolios 6.3 Baustein 2: Datenbasierte Beschreibung komplexer Produktportfolios 6.4 Baustein 3: Systematische Generierung und Einsatz von Wissen 6.4.1 Marktspezifische und technische Produkteigenschaften 6.4.2 Ähnlichkeiten von Produktvarianten 6.4.3 Korrelationen zwischen Merkmalsausprägungen 6.5 Erfolgsvalidierung mit einer Expertenbefragung 6.6 Schlussfolgerung zur Validierung 7 Diskussion 7.1 Nutzen und Einschränkungen 7.2 Ergebnisbeitrag für die Forschung 7.3 Ergebnisbeitrag für die Industrie 8 Zusammenfassung und Ausblick 8.1 Zusammenfassung 8.2 Ausblick 9 Literaturverzeichnis 10 Abbildungsverzeichnis 11 Tabellenverzeichnis Anhang A-1
123

AGENT–BASED KEYNESIAN MACROECONOMICS - An Evolutionary Model Embedded in an Agent–Based Computer Simulation / AGENTEN-BASIERTE KEYNESIANISCHE MAKROÖKONOMIK - Ein Evolutorisches Modell Eingebettet in eine Agenten-Basierte Computersimualtion

Oeffner, Marc January 2008 (has links) (PDF)
Subject of the present study is the agent-based computer simulation of Agent Island. Agent Island is a macroeconomic model, which belongs to the field of monetary theory. Agent-based modeling is an innovative tool that made much progress in other scientific fields like medicine or logistics. In economics this tool is quite new, and in monetary theory to this date virtual no agent-based simulation model has been developed. It is therefore the topic of this study to close this gap to some extend. Hence, the model integrates in a straightforward way next to the common private sectors (i.e. households, consumer goods firms and capital goods firms) and as an innovation a banking system, a central bank and a monetary circuit. Thereby, the central bank controls the business cycle via an interest rate policy; the according mechanism builds on the seminal idea of Knut Wicksell (natural rate of interest vs. money rate of interest). In addition, the model contains also many Keynesian features and a flow-of-funds accounting system in the tradition of Wolfgang Stützel. Importantly, one objective of the study is the validation of Agent Island, which means that the individual agents (i.e. their rules, variables and parameters) are adjusted in such a way that on the aggregate level certain phenomena emerge. The crucial aspect of the modeling and the validation is therefore the relation between the micro and macro level: Every phenomenon on the aggregate level (e.g. some stylized facts of the business cycle, the monetary transmission mechanism, the Phillips curve relationship, the Keynesian paradox of thrift or the course of the business cycle) emerges out of individual actions and interactions of the many thousand agents on Agent Island. In contrast to models comprising a representative agent, we do not apply a modeling on the aggregate level; and in contrast to orthodox GE models, true interaction between heterogeneous agents takes place (e.g. by face-to-face-trading). / Gegenstand der vorliegenden makroökonomischen Untersuchung ist Agent Island. Agent Island ist eine agentenbasierte Computersimulation, welche im Gebiet der Geldtheorie anzusiedeln ist. Agentenbasierte Computersimulationen sind innovative Werkzeuge, die bereits in vielen anderen Forschungsfeldern, wie der Medizinforschung oder der Erforschung komplexer Logistiksysteme, Verwendung finden. Im Fach Volkswirtschaftslehre ist der Einsatz dieser Technik allerdings noch recht neu, und im Gebiet der monetären Makroökonomik ist bis heute praktisch noch kein agentenbasiertes Simulationsmodell entwickelt worden. Diese Lücke soll durch die vorliegende Arbeit zumindest ein Stück weit geschlossen werden. Angestrebt wird deshalb die Ausarbeitung eines validierten Simulationsmodells für geldpolitische Anwendungen. Zu diesem Zweck wird als Innovation in einem agentenbasierten Makro-Modell – neben den Sektoren der privaten Haushalte, der Konsum- und Kapitalgüterunternehmen – ein Bankensystem, die Notenbank und ein Geldkreislauf (auf einfache Weise) integriert. Die Notenbank kontrolliert dabei die Konjunktur durch Zinspolitik; der entsprechende Transmissionsmechanismus knüpft an die Arbeiten Knut Wicksells im Bereich der Geldtheorie an. Darüber hinaus beinhaltet das Modell viele Keynesianische Elemente sowie eine Geldvermögensrechnung in der Tradition von Wolfgang Stützel. Im Rahmen der Validierung spielt insbesondere der Zusammenhang zwischen Mikro- und Makroebene eine besondere Rolle, wobei wir einen Bottom-Up-Ansatz wählen. Die Idee der Validierung, wie wir sie anwenden, besteht demnach darin, die individuellen Regeln der Agenten so einzustellen, dass auf der aggregierten Ebene Ergebnisse entstehen, die für ein monetäres Makro-Modell sinnvoll erscheinen. Im Ergebnis des validierten Modells sind alle Phänomene auf der aggregierten Ebene (z. B. einige stilisierte Fakten, die Wirkung des Transmissionsmechanismus, der Phillips-Kurven-Zusammenhang, das Spar-Paradoxon oder der Konjunkturverlauf von Agent Island) alleine durch die Handlungen und Interaktionen der vielen tausend Agenten auf der Mikroebene erzeugt. Es erfolgt – im Gegensatz zu Modellen mit einem repräsentativen Agenten – keine Modellierung auf der aggregierten Ebene. Im Rahmen der Mikrostruktur von Agent Island gilt es, die drei vorkommenden Typen von Agenten, d.h. die private Haushalte, Unternehmen sowie die Notenbank, mit einem geeigneten Regelwerk auszustatten. Dementsprechend ist die Arbeit so aufgebaut, dass im ersten Kapitel der methodischen Rahmen für die Entwicklung des Modells (d.h. der Regeln) sowie für die Validierung des Modells (d.h. die Einstellung der Regeln) dargestellt wird. Außerdem erfolgt eine Ausarbeitung der Vorteile des agentenbasierten Ansatzes gegenüber den Allgemeinen Gleichgewichts-Modellen. Im darauffolgenden zweiten Kapitel erfolgt die Darstellung des Modells, welche die Beschreibung aller Regeln und Variablen umfasst. Da es bis heute keine vergleichbare Arbeit auf dem Gebiet der Geldtheorie gibt, musste sich das Modell von Agent Island an verwandte, bereits existierende agentenbasierte Modelle orientieren, sowie in vielen Bereichen an nicht-agentenbasierten Ansätze. Im zweiten Kapitel erfolgt ebenfalls die Verknüpfung des Modells mit der relevanten Literatur. Es liegt in der Natur der Sache, dass die Darstellung von Agent Island zunächst auf der Mikroebene erfolgt. Somit befasst sich der größte Teil von Kapitel 2 mit der Ausarbeitung der Regeln auf der Mikroebene. Erst am Ende des Kapitels wechselt die Darstellung auf die Makroebene – und legt hierbei auch die Grundlagen für den späteren Validierungsprozess. Dort werden makroökonomische Zusammenhänge erläutert, die für Agent Island relevant sein sollten und die im darauffolgenden dritten Kapitel dann auch untersucht bzw. angewandt werden. In Kapitel 3 erfolgt die Validierung des Modells. Hier erfolgen Sensitivitäts-Analysen, Kalibrierungen sowie weitere (z.T. statistische) Untersuchungen des Modells bzw. der Modellergebnisse. Ziel ist es dabei, sinnvolle Ergebnisse auf der Makroebene für verschiedene Zeitreihen zu generieren. Am Ende von Kapitel 3 liegt ein vernünftig validiertes Modell vor. Dies könnte beispielsweise als Ausgangsbasis für die Fortentwicklung eines weiter verfeinerten Modells dienen.
124

Improving Behavior Trees that Use Reinforcement Learning with Control Barrier Functions : Modular, Learned, and Converging Control through Constraining a Learning Agent to Uphold Previously Achieved Sub Goals / Förbättra beteendeträd som använder förstärkningsinlärning med kontrollbarriärfunktioner : modulär, inlärd och konvergerande kontroll genom att tvinga en lärande agent att upprätthålla tidigare uppnådda delmål

Wagner, Jannik January 2023 (has links)
This thesis investigates combining learning action nodes in behavior trees with control barrier functions based on the extended active constraint conditions of the nodes and whether the approach improves the performance, in terms of training time and policy quality, compared to a purely learning-based approach. Behavior trees combine several behaviors, called action nodes, into one behavior by switching between them based on the current state. Those behaviors can be hand-coded or learned in so-called learning action nodes. In these nodes, the behavior is a reinforcement learning agent. Behavior trees can be constructed in a process called backward chaining. In order to ensure the success of a backward-chained behavior tree, each action node must uphold previously achieved subgoals. So-called extended active constraint conditions formalize this notion as conditions that must stay true for the action node to continue execution. In order to incentivize upholding extended active constraint conditions in learning action nodes, a negative reward can be given to the agent upon violating extended active constraint conditions. However, this approach does not guarantee not violating the extended active constraint conditions since it is purely learning-based. Control barrier functions can be used to restrict the actions available to an agent so that it stays within a safe subset of the state space. By defining the safe subset of the state space as the set in which the extended active constraint conditions are satisfied, control barrier functions can be employed to, ideally, guarantee that the extended active constraint conditions will not be violated. The results show that significantly less training is needed to get comparable, or slightly better, results, when compared to not using control barrier functions. Furthermore, extended active constraint conditions are considerably less frequently violated and the overall performance is slightly improved. / Denna avhandling undersöker kombinationen av inlärningsregulatornoder i beteendeträd med styrbarriärfunktioner baserade på utökade aktiva begränsningsvillkor för noderna, samt om detta tillvägagångssätt förbättrar prestandan avseende tränings- och policynkvalitet, jämfört med ett rent inlärningsbaserat tillvägagångssätt. Beteendeträd kombinerar flera regulatorer, kallade regulatornoder, till en enda regulator genom att växla mellan dem baserat på det aktuella tillståndet. Dessa regulatorer kan vara handkodade eller inlärda i så kallade inlärningsnoder. I dessa noder är regulatorn en förstärkningsinlärningsagent. Beteendeträd kan konstrueras genom en process som kallas bakåtkoppling. För att säkerställa framgången för ett bakåtkopplat beteendeträd måste varje regulatornod upprätthålla tidigare uppnådda delmål. Utökade aktiva begränsningsvillkor formaliserar denna uppfattning som villkor som inte får överträdas för att regulatornoden ska fortsätta exekvera. För att uppmuntra till att upprätthålla utökade aktiva begränsningsvillkor i inlärningsnoder kan en negativ belöning ges till agenten vid överträdelse av utökade aktiva begränsningsvillkor. Denna metod garanterar dock inte att utökade aktiva begränsningsvillkor inte kommer att överträdas, eftersom den är helt inlärningsbaserad. Kontrollbarriärfunktioner kan användas för att begränsa de åtgärder som är tillgängliga för en agent så att den förblir inom en säker delmängd av tillståndsrymden. Genom att definiera den säkra delmängden av tillståndsrymden som den uppsättning där de utökade aktiva begränsningsvillkoren uppfylls kan kontrollbarriärfunktioner användas för att, i bästa fall, garantera att de utökade aktiva begränsningsvillkoren inte kommer att överträdas. Resultaten visar att det krävs betydligt mindre träning för att få jämförbara, eller något bättre, resultat jämfört med att inte använda kontrollbarriärfunktioner. Dessutom överträds utökade aktiva begränsningsvillkor betydligt mer sällan och den övergripande prestandan är något förbättrad. I would like to thank Katrina Liang and Petter Ögren for translating the to Swedish. / Diese Arbeit untersucht die Kombination von Lernaktionsknoten in Verhaltensbäumen mit Kontrollbarrierefunktionen, die auf den erweiterten aktiven Einschränkungsbedingungen und Vorbedingungen der Knoten basieren, und ob dieser Ansatz die Leistung hinsichtlich Trainingszeit und Qualität der erlernten Strategie im Vergleich zu einem rein lernbasierten Ansatz verbessert. Verhaltensbäume kombinieren mehrere Regler, die als Aktionsknoten bezeichnet werden, zu einem zusammengesetzten Regler, indem sie abhängig vom aktuellem Zustand zwischen ihnen wechseln. Diese Regler können entweder manuell programmiert oder in sogenannten lernenden Aktionsknoten erlernt werden. In diesen Knoten ist der Regler ein Reinforcement Learning Agent. Verhaltensbäume können in einem Prozess namens Rückwärtsverkettung erstellt werden. Um den Erfolg eines rückwärtsverketteten Verhaltensbaums sicherzustellen, muss jeder Aktionsknoten zuvor erreichte Teilerfolge aufrechterhalten. Sogenannte erweiterte aktive Einschränkungsbedingungen formalisieren diesen Gedanken als Bedingungen, die nicht verletzt werden dürfen, damit der Aktionsknoten die Ausführung fortsetzen kann. Um einen Anreiz für die Aufrechterhaltung erweiterter aktiver Einschränkungsbedingungen in Lernaktionsknoten zu schaffen, kann dem Agenten bei Verstoß gegen erweiterte aktive Einschränkungsbedingungen eine negative Belohnung gewährt werden. Diese Herangehensweise garantiert jedoch nicht die Einhaltung der erweiterten aktiven Einschränkungsbedingungen, da sie rein lernbasiert ist. Kontrollbarrierefunktionen können verwendet werden, um die verfügbaren Aktionen eines Agenten zu beschränken, damit dieser in einer sicheren Teilmenge des Zustandsraums bleibt. Indem die sichere Teilmenge des Zustandsraums als die Menge definiert wird, in der die erweiterten aktiven Einschränkungsbedingungen erfüllt sind, können Kontrollbarrierefunktionen idealerweise verwendet werden, um sicherzustellen, dass die erweiterten aktiven Einschränkungsbedingungen nicht verletzt werden. Die Ergebnisse zeigen, dass im Vergleich zur Nichtverwendung von Kontrollbarrierefunktionen deutlich weniger Training erforderlich ist, um vergleichbare oder etwas bessere Ergebnisse zu erzielen. Darüber hinaus werden erweiterte aktive Einschränkungsbedingungen deutlich seltener verletzt und die Gesamtleistung wird leicht verbessert.
125

Advancing Plasmon Resonance Engineering via Combinatorics and Artificial Intelligence

Schletz, Daniel 22 April 2024 (has links)
Während die Menschheit bereits seit Jahrtausenden von der Brillanz von Gold und Silber im ausgedehnten Zustand fasziniert ist, bestechen ihre nanoskaligen Gegenstücke mit ihren wundervollen Farben und ihrer breiten Farbpalette. Motiviert durch diese Farben versuchten Wissenschaftler das zugrundeliegende Phänomen dieser Farben, die lokalisierte Oberflächenplasmonenresonanz, zu verstehen, was den Grundstein der Forschung im Bereich Plasmonik legte. Für die Anwendung muss diese lokalisierte Oberflächenplasmonenresonanz umfassend durch Änderung von Material, Größe, Form, Anordnung und Umgebung der Nanopartikel angepasst werden. Es scheint unausweichlich, dass dieser komplexe Parameterraum nur durch die Anwendung von künstlicher Intelligenz verstanden werden kann und die Eigenschaften von solchen komplexen Strukturen — in isolierten oder gekoppelten Strukturen — angepasst werden können. Diese Dissertation untersucht die Anpassung der Plasmonenresonanz in isolierten und gekoppelten Nanostrukturen durch Kombination von Kolloidsynthese, Anordnung und künstlicher Intelligenz. Der erste Teil behandelt die Synthese von Goldnanopartikeln mit Unterstützung des maschinellen Lernens. Durch die Nutzung von baumbasierten Lernalgorithmen wird die Wichtigkeit von bestimmten Syntheseparametern und dessen Auswirkungen auf die finalen Eigenschaften der synthetisierten Nanopartikel beleuchtet. Dabei wird gezeigt, dass der Algorithmus die zugrundeliegenden Chemiekonzepte der Synthese lernen kann, ohne sie explizit zu lehren, sondern ausschließlich durch das Lernen der Synthese- und Charakterisierungsdaten. Der zweite Teil fokussiert sich auf die Anordnung und die optische Charakterisierung von heterogenen Ketten aus Gold- und Silbernanopartikeln. Dabei wird gezeigt, dass nahezu jede Konfiguration bis zu einer Länge von 17 auf einem Quadratzentimeter durch Beschränkungsanordnung angeordnet werden können. Dies löst die synthetische Herausforderung des exponentiell wachsenden Parameterraums, der durch die Einführung eines zweiten Bausteins in der Kette eröffnet wurde. Allerdings ist die Charakterisierung zeitaufwändig und daher für die enorme Menge an Konfigurationen nicht realisierbar. Infolgedessen können elektrodynamische Simulationen hier helfen und diese Lücke schließen. Leider sind diese Simulationen durch ihre Berechnungskomplexität beschränkt, was jedoch durch den Einsatz von rekurrenten neuronalen Netzen im letzten Teil der Dissertation abgemildert wird. Letztlich zeigt diese Dissertation wie innovative Zugänge zu diesen Herausforderungen die Synthese, Charakterisierung und Verständnis von plasmonischen Nanostrukturen ermöglichen und wie die Plasmonenresonanz in Bezug zu ihren Anwendungen angepasst werden kann. / While the brilliance of gold and silver has fascinated humankind for millennia in their bulk state, their nanoscale counterparts captivate with their beautiful colors and broad color range. Motivated by these colors, researchers pursued to understand the underlying phenomenon of these colors, the localized surface plasmon resonance, which sparked the research in the field of plasmonics. In order to be useful, this localized surface plasmon resonance needs to be extensively engineered by variation of material, size, shape, arrangement, and surrounding of the nanoparticles. To explore this complex parameter space, the use of the emerging technology of artificial intelligence seems inevitable to understand and engineer the properties of such complex structures — either in isolated or coupled structures. This thesis investigates the plasmon resonance engineering in isolated and coupled nanostructures by combining colloidal synthesis, assembly, and artificial intelligence. The first part covers the machine learning assisted synthesis of gold nanoparticles, which aims to use tree-based learning algorithms to elucidate the importance of certain synthesis parameters and how they affect the final characteristics of the synthesized nanoparticles. It is shown that the algorithm can learn the underlying concepts of the chemistry of the synthesis without explicitly teaching the algorithm, but purely learning from data that was gathered during synthesis and characterization. The second part focuses on the assembly and optical characterization of heterogeneous chains composed of gold and silver nanospheres. Applying confinement assembly, virtually any configuration up to a length of 17 can be assembled on a square centimeter, which solves the synthetic challenge that is imposed by the exponentially growing configuration space due to the introduction of a second building block in the chain. However, characterization is time-consuming and therefore not feasible for vast amounts of configurations, thus only a tiny subsample is selected for electromagnetic characterization. Consequently, electrodynamicsimulations aid this task and try to fill the gap. Unfortunately, these simulations are limited by computational complexity; however, the use of recurrent neural networks enables to mitigate this problem, as shown in the final part of this thesis. In the end, this thesis showcases how innovative approaches to these challenges can enable the synthesis, characterization, and understanding of plasmonic nanostructures and how they can be used to engineer the plasmonic resonance in accordance with their desired applications.
126

Automatic Segmentation of the Olfactory Bulb

Desser, Dmitriy 20 February 2024 (has links)
Der Bulbus olfactorius (OB) spielt eine wichtige Rolle in der Wahrnehmung von Gerüchen. Das OB-Volumen korreliert mit der Riechfunktion und ist daher ein Biomarker für mehrere neurodegenerative Erkrankungen sowie für Riechstörungen. In mehreren Studien wurde gezeigt, dass eine Abnahme des OB-Volumens mit einer Abnahme der Geruchsempfindlichkeit einhergeht und umgekehrt. Dies bedeutet, dass die Messung des OB-Volumens für verschiedene Diagnose- und Forschungszwecke von großem Interesse ist. Bisher wurden diese Messungen manuell durchgeführt, was mit einem Zeitaufwand von 15-20 Minuten pro Probanden eine sehr langwierige Methode ist, die außerdem zu erheblichen Messungenauigkeiten führt. Dies erschwert die Verarbeitung großer Datensätze sowie den Vergleich verschiedener Studien. Um dieses Problem zu lösen, haben wir einen vollautomatisierten, auf Deep-Learning basierten Algorithmus zur Segmentierung des OB sowie zur Messung dessen Volumens entwickelt und ein einsatzbereites Tool zur Anwendung veröffentlicht. Des Weiteren wurde eine Studie an Patienten mit Mild Cognitive Impairment (MCI) durchgeführt, um den Effekt von Riechtraining auf funktionale und morphologische Veränderungen des OB und des Hippocampus zu untersuchen. Methoden: Wir haben unseren Algorithmus auf vier Datensätzen trainiert und getestet, die jeweils aus T1-gewichteten MRT-Aufnahmen des gesamten Gehirns sowie hochaufgelösten T2-gewichteten Aufnahmen der vorderen Schädelbasis und den entsprechenden klinischen Informationen über das Riechvermögen der Probanden bestehen. Ein Datensatz enthielt Patienten mit gesicherter Anosmie oder Hyposmie (N = 79). Die anderen drei Datensätze enthielten gesunde Probanden (N = 91). Um die Grundwahrheit für die OB-Segmentierung und die Volumenmessung zu erhalten, wurden die Datensätze von zwei erfahrenen wissenschaftlichen Mitarbeitern unabhängig voneinander nach einem einheitlichen Protokoll manuell segmentiert. Verglichen mit dem gesamten Gehirn nimmt der OB ein sehr kleines Volumen ein. Jedes Bild hat daher viel mehr Voxel, die dem Hintergrund angehören als solche, die zum OB gehören. Somit sind die Daten sehr unausgewogen, was eine Herausforderung für die automatische Lokalisierung des OB darstellt. Um dieses Problem zu lösen, haben wir zunächst die manuellen Segmentierungen mit dem Template des Montreal Neurological Institute (MNI) registriert und den Massenschwerpunkt (Center of Gravity, COG) ermittelt. Im Preprocessing übertragen wir die COG-Koordinaten aus dem MNI-Raum in den individuellen Raum der jeweiligen MR-Aufnahme und konstruieren eine Bounding Box um den OB. Anschließend selektieren wir den in der Bounding Box enthaltenen Bildanteil, in welchem dann der OB durch das 3D-U-Net-Modell segmentiert wird. Bei dem Modell handelt es sich um ein neuronales Netz, welches für die 3D-Bildsegmentierung entwickelt wurde und sich im Bereich der medizinischen Bildverarbeitung bewährt hat. Der Algorithmus gibt anschließend die binären Segmentierungsmasken und eine Datei mit den Volumina für den linken und rechten OB heraus. Im Rahmen der Studie an MCI-Patienten wurden 37 Patienten randomisiert in Verum- und Placebo-Gruppe eingeteilt. Das Riechtraining wurde zweimal täglich über einen Zeitraum von vier Monaten durchgeführt. Olfaktorische und kognitive Testungen sowie MRT-Bildgebung wurden zu Anfang und Ende der viermonatigen Studie durchgeführt. Ergebnisse : Zum Trainieren des neuronalen Netzes haben wir den Datensatz in einen Trainings- (60%; N = 191), einen Validierungs- (20%; N = 64) und einen Testdatensatz (20%; N = 64) aufgeteilt. Auf zuvor ungesehenen Daten (d. h. auf dem Testdatensatz) wurde ein mittlerer Dice-Koeffizient (DC) von 0,77 ± 0,05 erreicht, was dem zwischen den beiden manuellen Segmentierungen ermittelten DC von 0,79 ± 0,08 für dieselbe Kohorte sehr nahe kommt. Darüber hinaus wurden die von unserem Algorithmus erzeugten Segmentierungen von einem unabhängigen verblindeten Bewerter manuell auf einer standardisierten Skala evaluiert und erreichten eine vergleichbare Punktzahl von 5,95 ± 0,87 im Vergleich zu einer Bewertungszahl von 6,23 ± 0,87 für die erste und 5,92 ± 0,81 für die zweite Segmentierung. Diese Evaluierungsergebnisse zeigen, dass unser Algorithmus mit drei bis vier Minuten pro Probanden eine schnelle und zuverlässige automatische Segmentierung des OB ermöglicht, die der Genauigkeit der derzeitigen Goldstandard-Methode entspricht. In der Studie mit MCI-Patienten wurde nach Durchführung des viermonatigen Riechtrainings eine Zunahme der Riechfähigkeit sowie der kortikalen Schichtdicke des Hippocampus beidseits beobachtet. Sowohl in der Verum-Gruppe als auch in der Placebo-Gruppe konnte keine signifikante Zunahme des OB-Volumens festgestellt werden. Diskussion: Der von uns vorgeschlagene Algorithmus kann sowohl bei gesunden Probanden als auch bei Patienten mit diagnostizierten Riechstörungen eingesetzt werden und ist daher von hoher klinischer Relevanz. Er ermöglicht die schnelle Verarbeitung großer Datensätze und die Durchführung vergleichender Studien zur Entwicklung des OB-Volumens im Laufe der Zeit, da er zuverlässigere Ergebnisse liefert als die manuellen Annotationsmethoden. In der Studie an MCI-Patienten war das Riechtraining mit einer Zunahme der kortikalen Schichtdicke des Hippocampus assoziiert, nicht jedoch mit einer Zunahme des OB- oder Hippocampus-Volumens. Ein Grund hierfür könnte die Tendenz des OB-Volumens sein, in MCI-Patienten abzunehmen. Somit könnte das stabile OB-Volumen nach Riechtraining bereits als positiver Effekt gewertet werden. Andererseits könnte das unveränderte OB-Volumen auch auf die methodisch bedingten manuellen Messfehler zurückgeführt werden. Um das Problem der ungenauen manuellen Messungen zu lösen, haben wir ein auf Python basierendes, sofort einsetzbares Tool entwickelt, das Segmentierungsmasken sowie Messungen des linken und rechten OB-Volumens liefert. Es kann sowohl über eine Befehlszeilenschnittstelle als auch über eine grafische Benutzeroberfläche verwendet werden. Für die Segmentierung des OB werden T1-gewichtete MRT-Aufnahmen des gesamten Gehirns sowie hochaufgelöste T2-gewichtete Aufnahmen der vorderen Schädelbasis verwendet.
127

Key Concepts, Potentials and Obstacles for the Implementation of Large Language Models in Product Development

Kretzschmar, Maximilian, Dammann, Maximilian Peter, Schwoch, Sebastian, Berger, Elias, Saske, Bernhard, Paetzold-Byhain, Kristin 09 October 2024 (has links)
In the realm of Artificial Intelligence, Large Language Models (LLMs) have recently emerged as a new technology, rapidly gaining prominence across various domains due to their impressive capabilities. This paper investigates key concepts, potentials and obstacles associated with integrating LLMs into the product development process. The initial focus lies on clarifying the underlying mechanisms and capabilities of LLMs to provide a clear and practical understanding. Building upon this foundation, the exploration shifts to the potential applications of LLMs in product development. An assessment matrix evaluates the capabilities of LLMs with regards to engineering challenges, highlighting how these models could potentially improve key aspects of the development process. Additionally, the obstacles associated with implementation in a product development context are addressed.
128

Venturing Into Uncharted Territory – Exploring the Psychological Implications of AI-Driven Automation for Employees

Sureth, Antonia Marie 15 May 2024 (has links)
Künstliche Intelligenz (KI) wird immer leistungsfähiger und KI-basierte Systeme werden zunehmend zur Automatisierung einer steigenden Anzahl von Arbeitstätigkeiten eingesetzt. Kurz- bis mittelfristig führt dies zu Veränderungen von Jobs. Langfristig könnte dies zu strukturellen Arbeitsmarktveränderungen führen, die gesellschaftliche Anpassungen einschließlich der Transformation des bestehenden Wohlfahrtssystems erfordern würden. Beides birgt Potenzial für tiefgreifende psychologische Implikationen für Beschäftigte. Psychologische Forschung, die sich mit den Auswirkungen KI-bedingter Automation befasst, ist jedoch rar. Ziel der Dissertation war es daher, zu einer psychologischen Perspektive auf das Thema beizutragen und die psychologischen Implikationen KI-bedingter Automation für Beschäftigte zu untersuchen. Die Dissertation umfasst drei Projekte. Der Fokus in Projekt 1 und 2 lag auf den kurz- bis mittelfristigen Auswirkungen KI-bedingter Automation. In Projekt 1 wurden fünf Interviewstudien mit Expert*innen und Beschäftigten aus dem Gesundheits- und Finanzdienstleistungssektor (N=91) durchgeführt, um Anwendungsfelder von KI-bedingter Automation, damit verbundene Chancen und Risiken sowie Auswirkungen auf die Tätigkeiten sowie das Erleben und Verhalten von Beschäftigten zu untersuchen. In Projekt 2 wurde ein Fragebogen entwickelt, um die Relevanz ausgewählter psychologischer Konstrukte im Kontext KI-bedingte Automation zu untersuchen. Die Fragebogenentwicklung war in drei Phasen unterteilt und beinhaltete zwei Vorstudien (N=1293). Der Fokus von Projekt 3 lag auf den langfristigen Auswirkungen KI-bedingter Automation und untersuchte das bedingungslose Grundeinkommen (BGE), eine mögliche und grundlegende Veränderung in der Organisation unseres Wohlfahrtssystems. Auf Basis einer repräsentativen Stichprobe der deutschen Erwerbsbevölkerung (N=1986) wurden sozio-demografische und psychologische Prädiktoren für die Akzeptanz eines BGE untersucht. / The capabilities of artificial intelligence (AI) are expanding rapidly, and AI-based systems are increasingly used to automate a growing number of job tasks. In the short- to medium-term, jobs are changing as a result. In the long term, this development may also lead to structural changes in the labor market, requiring societal adaptation including the transformation of the existing welfare system. Both carry great potential for far-reaching psychological implications for employees. However, psychological research dedicated to the impact of AI-driven automation is scarce. Therefore, the aim of this dissertation was to contribute to a psychological perspective on the topic and investigate the psychological implications of AI-driven automation for employees. The dissertation comprises three projects. Projects 1 and 2 focused on the short- to medium-term impact of AI-driven automation, exploring how jobs are changing and the related psychological implications for employees. In Project 1, five interview studies with experts and employees from the healthcare and financial services sectors (N=91) were conducted to explore application fields of AI-driven automation, associated opportunities and threats, its impact on employees’ job tasks, and employees’ experience and behavior in response to these changes. In Project 2, a questionnaire was developed to investigate the relevance of selected psychological concepts in the context of AI-driven automation. The questionnaire development was divided into three phases and included two preliminary studies (N=1,293). Project 3 focused on the long-term impact of AI-driven automation, investigating a universal basic income (UBI), one possible and fundamental shift in the organization of our welfare system. Using a representative sample of the German working population (N=1,986), socio-demographic and psychological predictors of UBI acceptance were investigated.
129

KI-Einsatz und Anwaltsrecht - Harmonie oder Dissonanz?

Mähler, Melina Felicitas 12 July 2024 (has links)
Das Thema Künstliche Intelligenz ist allgegenwärtig und macht auch vor dem juristischen Bereich keinen Halt. Die Dissertation mit dem Titel „KI-basierter Softwareeinsatz und Anwaltsrecht – Harmonie oder Dissonanz?“ untersucht die Auswirkungen des KI-Einsatzes auf das Berufsbild des Rechtsanwaltes und auf seine anwaltlichen Pflichten. Zunächst gibt die Arbeit einen Überblick über das anwaltliche Berufsrecht sowie über Legal Tech. Als Grundlage und Ausgangspunkt werden die verschiedenen Erscheinungsformen von KI vorgestellt und anschließend die Funktionsweise eines KI-Systems im Detail herausgearbeitet. Darüber hinaus zeigt die Dissertation auch die Risiken des KI-Einsatzes und etwaige Regulierungsvorschläge auf. Des Weiteren skizziert die Arbeit beispielhaft den Einsatz von KI in der juristischen Praxis in Deutschland und im Ausland. Im Hinblick auf den theoretischen Softwareeinsatz auf dem deutschen Rechtsmarkt werden technische Möglichkeiten und Grenzen erörtert. Schwerpunkt der Dissertation ist sodann die kritische Prüfung der Vereinbarkeit des KI-Einsatzes mit verschiedenen anwaltsrechtlichen Normen und Grundsätzen. Von besonderer Relevanz sind in diesem Zusammenhang mögliche Konflikte mit der Unabhängigkeit des Organs der Rechtspflege i.S.d. § 1 BRAO, der gewissenhaften Berufsausübung gemäß § 43 BRAO beziehungsweise dem Gebot des sichersten Weges, den anwaltlichen Grundpflichten i.S.d. § 43a BRAO und der Freiberuflichkeit gemäß § 2 BRAO. Die Arbeit kommt zu dem Ergebnis, dass der zukünftige KI-Einsatz – eine zukünftige rechen- und speicherleistungsstarke Technik vorausgesetzt – im Einklang mit dem Anwaltsrecht steht. Schließlich sollte die KI nicht als Bedrohung, sondern als Chance betrachtet werden, wobei Mensch und Maschine ihre Fähigkeiten symbiotisch optimal zum Einsatz bringen – zur Stärkung und Neuausrichtung der Anwaltschaft zum Nutzen des Mandanten und der Rechtsordnung als Grundpfeiler unserer Demokratie. / The topic of artificial intelligence is omnipresent and does not stop at the legal market either. The dissertation entitled “AI-based software use and legal professional law – harmony or dissonance?” examines the impact of the use of AI on the legal profession and on professional rules and regulations applicable to lawyers. First, the paper provides an overview of the legal professional code and legal technology. The various forms of AI and their functionalities are set out as a starting point. In addition, the dissertation sets forth the risks of using AI and at the same time considers regulatory options such as the AI Act. Furthermore, the paper outlines examples of the use of AI in legal practice in Germany and abroad. With regard to the theoretical use of the software in the German legal market, technical possibilities and limitations are discussed. The focus of the dissertation is then to critically examine the compatibility of the use of AI with various legal norms and principles. Of particular relevance in this context are possible conflicts with the independence of the judicial body (“Unabhängiges Organ der Rechtspflege”) within the meaning of Section 1 BRAO, the conscientious practice of the profession (“Gewissenhafte Berufsausübung”) in accordance with Section 43 BRAO or the principle of the safest path (“Gebot des sichersten Weges”), the basic legal duties (“Grundpflichten”) within the meaning of Section 43a BRAO and the principle of a liberal profession (“Freiberuflichkeit”) pursuant to Section 2 BRAO. The paper concludes that the future use of AI – assuming a future technology with high computing and storage performance – is in line with legal professional law. As a result, AI should be seen as an opportunity rather than a threat, with humans and machines each using their skills in the best possible way and in a symbiotic manner. This will strengthen and realign the legal profession for the benefit the legal system as a cornerstone of our democracy.
130

Identifikation sensibler anatomischer Strukturen in der roboterassistierten Kolorektalchirurgie mittels maschineller Lernverfahren

Rinner, Franziska Maria 05 February 2025 (has links)
Das Kolorektale Karzinom zählt zu den häufigsten malignen Erkrankungen und ist verbunden mit einer hohen Letalität. Die Therapie des KRK beinhaltet häufig chirurgische Herangehensweisen, welche sich in den letzten Jahren zunehmend in Richtung minimalinvasiver und roboterassistierter Verfahren entwickeln. Die operative Versorgung bringt, auch aufgrund der engen anatomischen Lagebeziehungen, ein Verletzungsrisiko für verschiedene anatomische Strukturen mit sich. Hierzu zählen neben seltenen Organverletzungen auch Schädigungen der Nerven, welche in die Lebensqualität oft stark beeinträchtigenden urogenitalen Dysfunktionen resultieren können. Daraus können Komplikationen folgen, deren Vermeidung stets angestrebt wird. Maschinelle Lernverfahren erleben in den letzten Jahren eine zunehmende Popularität und werden auf eine wachsende Vielzahl von Arbeitsbereichen mit Erfolg angewendet. Darunter findet sich auch die Medizin. Da die mangelhafte Erkennung von abdominellen Strukturen einen relevanten Risikofaktor verschiedener Operationen darstellt, der einen großen Einfluss auf die Prognose und Lebensqualität der Patient*innen hat, bietet sich hier großes Potential. An dieser Stelle soll durch eine KI-basierte Assistenz eine Lücke geschlossen werden, deren Relevanz bisher noch nicht ausreichend untersucht wurde. Auch wenn sich bereits zeigte, dass maschinelle Lernverfahren das Potential haben, optisch differenzierbare Strukturen im chirurgischen Kontext zu erkennen, bleibt die klinische Bedeutung dessen bislang unklar. In dieser Arbeit wird untersucht, inwiefern die Erkennung anatomischer Strukturen durch Bilderkennungsalgorithmen auf intraoperativem Bildmaterial möglich ist. Dies ist eine notwendige Grundlage für die Entwicklung weiterführender Technologien für die Erleichterung von operativen Eingriffen, die Vermeidung von Komplikationen oder die Erkennung morphologisch sichtbarer Pathologien. Hierbei soll sich künftig nicht nur auf die Anwendung in roboterassistierten Rektum- bzw. Sigmaresektionen beschränkt werden, sondern eine Anwendung für alle minimalinvasiven OPs ermöglicht werden. Damit können Kosten und Dauer von Eingriffen ebenso sinken wie die kognitiven Anforderungen an die Operateur*innen und eine Verbesserung der postoperativen Ergebnisse und Lebensqualität für die Patient*innen erreicht werden. Es wurden 43 zwischen Februar 2019 und März 2021 an der Klinik für Viszeral-, Thorax- und Gefäßchirurgie des Universitätsklinikums Carl Gustav Carus in Dresden durchgeführte roboterassistierte Sigma- bzw. Rektumresektionen und -exstirpationen einbezogen. Diese wurden hinsichtlich der Sichtbarkeit 6 verschiedener anatomischer Strukturen untersucht. Für die Kategorien Leber, Magen, Milz, Nerven, Pankreas und Ureter wurden jeweils zwischen 1023 und 1754 Einzelbilder aus 18 bis 23 OPs verwendet. Damit wurden sowohl anatomische Strukturen geringerer als auch höchster Komplexität betrachtet. Auf den Schritt der temporalen Annotation folgte nach der Einzelbildextraktion die semantische Segmentierung eines jeden Bildes. Dabei wurden alle Bereiche, in denen die jeweilige Struktur zu sehen ist, in ihren exakten Grenzen markiert. Diese segmentierten Bilder stellten die Grundlage für den anschließenden deep learning Prozess mittels eines CNNs dar. Das Resultat dessen war für jede Struktur ein Bilderkennungsalgorithmus, der sie automatisiert erkennen und semantische Segmentierungen anfertigen kann. Die Evaluation der Erkennungsleistung erfolgte mittels Intersection over Union, F1- Score, Precision Score, Recall Score, Specificity und Accuracy. Des Weiteren wurde die Performance des Algorithmus am Beispiel von 35 Bildern, von denen 16 das Pankreas zeigten, hinsichtlich der IoU für dieses Segment mit derjenigen von 28 Proband*innen verschiedener Wissens- und Ausbildungsstände verglichen. Dabei wurde das Konzept der Bounding box–Annotation verwendet. Die Ergebnisse der erarbeiteten Bilderkennungsalgorithmen bewegten sich für die 6 untersuchten Strukturen bei einer durchschnittlichen IoU, welche den Grad an Überlappung zweier Segmente beschreibt, zwischen 0,744 ± 0,275 und 0,255 ± 0,147. In der klinischen Evaluation wurden durch den auf das Pankreas trainierten Algorithmus Ergebnisse erzielt, die sich im Vergleich mit den 28 Proband*innen mit 0,31 an zweiter Stelle hinter einer Person von höchster Expertise eingliederten. Die von den Teilnehmenden erzielte durchschnittliche IoU betrug 0,100 ± 0,097. Die in dieser Arbeit erreichten Ergebnisse stellen einen guten Ausgangspunkt für die Weiterentwicklung KI-basierter Assistenzfunktionalitäten für den chirurgischen Alltag dar. Trotz einiger Limitationen hinsichtlich der Generalisierbarkeit einer eher kleinen und monozentrischen Untersuchung und Verbesserungspotential bezüglich der Generierung der Segmentierungen konnte ein hochwertiger Datensatz erarbeitet und publiziert werden. Insgesamt betrachtet lässt sich aus den Ergebnissen der darauf basierenden Bilderkennungsalgorithmen schließen, dass Methoden künstlicher Intelligenz bereits jetzt das Potential haben, viele Organe sehr gut und zuverlässig zu erkennen und abzugrenzen. Dadurch besitzen sie das Potential einer relevanten Unterstützung im chirurgischen Alltag. Bis zum Erreichen des Ziels einer klinischen Anwendung sind jedoch noch einige Schritte zu gehen, insbesondere die Übertragung des Erreichten auf Bewegtbildmaterial steht hierbei im Vordergrund. Zudem zeigte sich, dass die etablierten Metriken nicht ideal geeignet sind, um die klinische Relevanz der Prädiktionen abzubilden. Damit ist es notwendig, weiterhin über geeignete Metriken für die praktische Anwendung zu diskutieren und an der Entwicklung neuer Maßzahlen zu arbeiten. Allerdings kann bereits jetzt eine wertvolle Hilfestellung, besonders für Personen ohne langjährige chirurgische Erfahrung, geleistet werden. Dies stellt eine hervorragende Grundlage für die Weiterentwicklung der Algorithmen und deren Implementierung als Grundlage weiterführender Technologien im Bereich der intraoperativen Assistenzsysteme dar. / Colorectal cancer (CRC) is one of the most common malignancies and is associated with a high mortality rate. The treatment of CRC often involves surgical approaches, which in recent years have increasingly evolved towards minimally invasive and robotic-assisted procedures. Surgical treatment entails a risk of injury to various anatomical structures, in part due to the narrow surgical field and close anatomical positioning. In addition to rare organ injuries these include the more common nerve lesions which often result in urogenital dysfunction affecting patients' quality of life tremendously. Consequently, complications can occur and the aim is always to avoid them. In recent years, machine learning techniques have become increasingly popular and are being successfully applied in a growing variety of fields. One such area is medical applications. Since the inadequate detection of anatomical structures represents a relevant risk factor in various surgical procedures with a high impact on patient prognosis and quality of life, there is great potential here. At this point, AI-based assistance aims to fill a gap whose practical relevance has not yet been sufficiently investigated. Although machine learning has already been shown to identify optically differentiable structures in a surgical context, its clinical significance remains unclear to date. This work examines the possibility of using image recognition algorithms to identify anatomical structures on intraoperative image material. This research is fundamental to the development of future technologies that facilitate surgical interventions, reduce the likelihood of complications or identify morphologically visible organ pathologies. This technique is intended to be used in the widespread field of minimally invasive surgery, rather than being limited to robot-assisted rectal and sigmoid resections. This could result in a decrease in the expenses and duration of surgery, as well as a reduction in the cognitive demands on the surgeons. Additionally, it could lead to improvements in post-operative outcomes and quality of life for patients. Between February 2019 and March 2021, 43 robot-assisted rectal and sigmoid resections and extirpations performed at the Clinic for Visceral, Thoracic and Vascular Surgery of the University Hospital Carl Gustav Carus in Dresden were included in this work. The surgery recordings were examined with regard to the visibility of 6 different anatomical structures. For the categories liver, stomach, spleen, nerves, pancreas and ureter, between 1023 and 1754 individual frames from 18 to 23 surgeries were used in each case. Thus, both anatomical structures of lower as well as highest complexity were considered. After performing temporal annotation and extracting single frames, each frame underwent semantic segmentation. In this step, all areas displaying the respective structure were marked with their exact boundaries. The resulting segmented images provided as input to the subsequent deep learning process using a CNN. As a result, we have obtained an image recognition algorithm for each structure considered capable of automatic detection and semantic segmentation. The recognition performance was evaluated using metrics including Intersection over Union, F1- Score, Precision Score, Recall Score, Specificity and Accuracy. Additionally, the algorithm's performance was compared with the organ recognition skills of 28 individuals with varying levels of medical knowledge and training. A clinical evaluation was performed using the example of the pancreas, which had to be highlighted by bounding boxes. For this purpose, a sample of 35 images, 16 of which included the pancreas, was used to examine the IoU for this segment. The developed image recognition algorithms produced results regarding the average IoU, which describes the degree of overlap between two segments, ranging from 0.744 ± 0.275 to 0.255 ± 0.147 for the 6 anatomical structures investigated. During the clinical validation, the algorithm's results for the generation of bounding boxes for the segment pancreas achieved the second-highest score, at an IoU of 0.31. This ranking placed it second among the 28 individuals, surpassed only by a single person with the highest level of expertise. The average IoU obtained by the participants was 0.100 ± 0.097. The results of this work provide a good starting point for the development of further AI-based assistance functionalities for everyday surgical practice. Despite some limitations regarding the generalisability of a rather small and monocentric study and potential for improvement in the generation of the segmentations, a high quality dataset has been compiled and published. Overall, the resulting image recognition algorithms' outcomes indicate that AI techniques already have the potential to detect and differentiate a lot of organs very well and dependably. As a consequence, they have the capacity to offer significant assistance to the surgical routine. Before moving to clinical application, several additional steps need to be taken, with particular emphasis on the crucial process of transferring what has been achieved to moving image material. Furthermore, it has become evident that the established metrics are not entirely capable of representing the clinical value of the predictions. Thus, it is necessary to have further discussions regarding appropriate metrics for practical implementation and to focus on the development of new measures. However, even now they can provide a precious assistance, particularly for individuals without extensive surgical training. This signifies an excellent foundation for advancing the algorithms and implementing them as the basis for future technologies in the field of intra-operative assistance systems.

Page generated in 0.0971 seconds