1 |
Wissen gewinnen und gewinnen durch WissenFent, Thomas January 2000 (has links) (PDF)
Gemäß Alfred Korzybski (1921) unterscheidet sich der Mensch von Pflanzen und Tieren unter anderem durch seine Eigenschaft als "Zeit-Binder". Diese befähigt ihn, Erfahrung durch die Zeit zu transportieren. Menschen können Wissen aus der Vergangenheit ansammeln und das, was sie wissen, der Zukunft mitteilen. In der vorliegenden Arbeit werden die Möglichkeiten und Grenzen untersucht, diese Fähigkeit durch Algorithmen zu beschreiben, und in künstlichen lernenden Systemen zu implementieren. Zur Illustration wird abschließend aufgezeigt, wie ein künstlicher Agent und seine Umgebung beschaffen sein können, um ihm das Erlernen einer erfolgreichen Strategie in einem einfachen Nimm-Spiel zu ermöglichen. (Autorenreferat) / Series: Working Papers SFB "Adaptive Information Systems and Modelling in Economics and Management Science"
|
2 |
Konzeption und Evaluation eines hybriden, skalierbaren Werkzeugs zur mechatronischen Systemdiagnose am Beispiel eines Diagnosesystems für freie Kfz-Werkstätten / Conception and evaluation of a hybrid, scalable tool for mechatronical system diagnosis on the example of a diagnostic system for independent car repair shopsDang, Nghia Duc January 2012 (has links) (PDF)
Die Entwicklung eines wissensbasierten Systems, speziell eines Diagnosesystems, ist eine Teildisziplin der künstlichen Intelligenz und angewandten Informatik. Im Laufe der Forschung auf diesem Gebiet wurden verschiedene Lösungsansätze mit unterschiedlichem Erfolg bei der Anwendung in der Kraftfahrzeugdiagnose entwickelt. Diagnosesysteme in Vertragswerkstätten, das heißt in Fahrzeughersteller gebundenen Werkstätten, wenden hauptsächlich die fallbasierte Diagnostik an. Zum einen hält sich hier die Fahrzeugvielfalt in Grenzen und zum anderen besteht eine Meldepflicht bei neuen, nicht im System vorhandenen Fällen. Die freien Werkstätten verfügen nicht über eine solche Datenbank. Somit ist der fallbasierte Ansatz schwer umsetzbar. In freien Werkstätten - Fahrzeughersteller unabhängigen Werkstätten - basiert die Fehlersuche hauptsächlich auf Fehlerbäumen. Wegen der wachsenden Fahrzeugkomplexität, welche wesentlich durch die stark zunehmende Anzahl der durch mechatronische Systeme realisierten Funktionen bedingt ist, und der steigenden Typenvielfalt ist die geführte Fehlersuche in freien Werkstätten nicht immer zielführend. Um die Unterstützung des Personals von freien Werkstätten bei der zukünftigen Fehlersuche zu gewährleisten, werden neue Generationen von herstellerunabhängigen Diagnosetools benötigt, die die Probleme der Variantenvielfalt und Komplexität lösen. In der vorliegenden Arbeit wird ein Lösungsansatz vorgestellt, der einen qualitativen, modellbasierten Diagnoseansatz mit einem auf heuristischem Diagnosewissen basierenden Ansatz vereint. Neben der Grundlage zur Wissenserhebung werden in dieser Arbeit die theoretische Grundlage zur Beherrschung der Variantenvielfalt sowie die Tests für die erstellten Diagnosemodelle behandelt. Die Diagnose ist symptombasiert und die Inferenzmechanismen zur Verarbeitung des Diagnosewissens sind eine Kombination aus Propagierung der abweichenden physikalischen Größen im Modell und der Auswertung des heuristischen Wissens. Des Weiteren werden in dieser Arbeit verschiedene Aspekte der Realisierung der entwickelten theoretischen Grundlagen dargestellt, zum Beispiel: Systemarchitektur, Wissenserhebungsprozess, Ablauf des Diagnosevorgangs in den Werkstätten. Die Evaluierung der entwickelten Lösung bei der Wissenserhebung in Form von Modellerstellungen und Modellierungsworkshops sowie Feldtests dient nicht nur zur Bestätigung des entwickelten Ansatzes, sondern auch zur Ideenfindung für die Integration der entwickelten Tools in die existierende IT-Infrastruktur. / The development of a knowledge-based system - in particular a diagnostic system - is a branch of artificial intelligence and applied computer science. Throughout the research in this field, various approaches have been developed with varying degrees of success in the application in automotive diagnostics. Diagnostic systems in authorized garages i.e. in garages bound to vehicle manufacturers mainly apply case-based diagnosis. In those cases first the variance of vehicles is limited and second there is a reporting obligation of new, yet not existing cases within the system. The independent repair shops do not have such a database. Thus, the case-based approach is difficult to implement. In independent garages - car manufacturer independent garages - the troubleshooting is mainly based on fault trees. Because of the growing complexity of vehicles, which is mainly due to the rapidly increasing number of functions realized by mechatronic systems and the increasing variety of vehicle types, guided troubleshooting for independent garages is not always productive. To ensure the support of the staff of independent garages in the future troubleshooting, new generations of multivendor diagnostic tools are needed to solve the problems of the variety and complexity. In the present paper an approach is presented which combines a qualitative, model-based diagnostic approach to a heuristic diagnostic knowledge-based approach. In addition to the basis for knowledge collection in this study the theoretical basis for the control of the variety and the tests for the generated diagnosis models are discussed. The diagnosis is symptom-based and the inference mechanisms for processing of diagnostic knowledge are a combination of propagation of the different physical parameters in the model and the evaluation of heuristic knowledge. Furthermore, various aspects of the implementation of the developed theoretical basis are presented in this thesis, for example: system architecture, knowledge collection process, the course of action of the diagnostic process in the workshops. The evaluation of the developed solution for the collection of knowledge in the form of preparation of models and modeling workshops, as well as field tests not only serves to validate the developed approach, but also to find ideas for the integration of the developed tools into the existing IT infrastructure.
|
3 |
Ethische Aspekte des Einsatzes künstlicher Intelligenz in BibliothekenLengers, Sarah 23 March 2022 (has links)
Das Ziel der vorliegenden Arbeit ist es zu beantworten, welche ethischen Fragestellungen sich beim Einsatz von künstlicher Intelligenz (KI), besonders beim Einsatz von Robotern, in Bibliotheken ergeben und wie diesen begegnet werden kann. Es werden die Problematik der Autonomie und der Diskriminierung durch KI-Systeme sowie die Effekte des Anthropomorphismus und die Mensch-Roboter-Beziehung behandelt. Außerdem widmet sich die Arbeit den Aspekten Datenschutz/Privatsphäre, körperliches Wohlbefinden und Haftung,
sowie den Gefahren durch Manipulation und der Bewahrung von Nutzerrechten. Die Ansätze der Maschinen-, Technik-, digitalen und Roboterethik leisten teilweise Hilfestellung dabei, einen Umgang mit diesen Problematiken zu finden oder relevante Fragen aufzuwerfen. Zu den Auswirkungen eines KI- und Robotereinsatzes auf die Bibliotheksmitarbeitenden gehören Veränderungen im Tätigkeitsfeld, die Notwendigkeit der Erwerbung und Förderung digitaler Kompetenzen und die Aufgabe, die Gesellschaft bei dem technologischen Wandel zu
unterstützen. Zentral ist die Entwicklung eines Bewusstseins für ethische Problematiken beim Einsatz von KI in den Bibliotheken. In bestehenden ethischen Grundsatzpapieren wird KI bisher nicht explizit berücksichtigt. Eine Ergänzung dieser Papiere mit für den Umgang mit KI relevanten Punkten im Hinblick auf einen verstärkten Einzug von Robotern und anderen KI-Systemen in Bibliotheken ist empfehlenswert.:Abkürzungsverzeichnis
Abbildungsverzeichnis
1. Einleitung
2. Begriffsklärungen
2.1 Künstliche Intelligenz
2.2 Robotik
3. Einsatz von KI in Bibliotheken
3.1 Überblick
3.1.1 Expertensysteme
3.1.2 Natural Language Processing
3.1.3 Maschinelles Lernen
3.1.4 Optical Character Recognition
3.1.5 Zusammenfassung
3.2 Roboter
4. KI, Robotik und Ethik
4.1 Maschinen-, Technik- und Digitale Ethik
4.1.1 Maschinenethik
4.1.2 Technikethik
4.1.3 Digitale Ethik
4.1.4 Weitere ethische Prinzipien
4.2 Roboterethik
5. Ethische Fragestellungen beim Einsatz von Robotern in Bibliotheken
5.1 Welche ethischen Fragen wirft der Einsatz von Robotern in Bibliotheken auf?
5.1.1 Moral
5.1.2 Einfluss auf soziale Beziehungen und soziale Normen
5.1.3 Sicherheit
5.1.4 Potential als Mittel zum Missbrauch
5.2 Welche Auswirkungen hat der Einsatz von KI und Robotik in Bibliotheken auf die
Mitarbeitenden?
6. Berücksichtigung von KI in bibliothekarischen Grundwerten
Fazit
Literatur
|
4 |
Kombinierte Optimierung für diskontinuierliche Produktion mit nicht definierten QualitätskriteriumSchulz, Thomas, Nekrasov, Ivan 27 January 2022 (has links)
Diese Arbeit beschäftigt sich mit einem realen Fall der Chargenproduktion aus der pharmazeutischen
Industrie. Das in der Untersuchung betrachtete Problem liegt im Bereich der Optimierung der Chargenqualität
und der Minimierung des Ausschusses unter der Gegebenheit, dass die entsprechenden
Qualitätsparameter im Unternehmenssteuerungssystem nicht gemessen werden. Die in dieser Arbeit
vorgeschlagene Technik führt ein virtuelles Qualitätskriterium ein, das für jede der Chargen angewendet
wird, basierend auf dem beschränkten Wissen der Anwender, welche Charge als optimale Charge
(auch Golden Batch bezeichnet) betrachtet werden kann und somit als Referenz für die aktuell in Produktion
befindliche Charge verwendet werden kann. Zu diesem Zweck verwenden wir das klassische
integrale Leistungskriterium, das in der Theorie der optimalen Steuerung dynamischer Systeme weit
verbreitet ist, um zu messen, wie weit der aktuelle Zustand des Systems vom 'optimalen' Punkt entfernt
ist. Mit Hilfe der beschriebenen Technologie, die aus der genannten Nachbardisziplin stammt,
waren wir in der Lage, die Qualität jeder Charge als ein kontinuierliches Messverhältnis zu quantifizieren,
was uns erlaubte, mehrere effiziente kontinuierliche Analysetechniken für diesen anfänglichen
Chargenproduktionsfall zu verwenden.
|
5 |
Der Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken: Untersuchung von Veranstaltungsangeboten für StudierendeBöhme, Lisa 05 October 2023 (has links)
In dieser Arbeit wird betrachtet, wie deutsche Hochschulbibliotheken mit den neuen
künstlichen Intelligenzen umgehen können. Hauptbestandteil ist die Betrachtung von
Veranstaltungen über künstliche Intelligenz für Studierende. Künstliche Intelligenz gibt es bereits seit den 1950ern und es gibt viele Definitionen. Künstliche Intelligenz allgemein beschäftigt sich mit Methoden, wie Computer Aufgaben erfüllen können, die bei Menschen Intelligenz benötigen. Die Geschichte von KI wird betrachtet, ebenso aktuelle Entwicklungen, wie neue KI-Tools. Das bekannteste Beispiel ist ChatGPT. Weitere Tools werden erläutert, wie Elicit oder Perplexity.Ai. Es wird untersucht, wie Hochschulbibliotheken bereits mit KI umgehen, was ihre Möglichkeiten sind, aber auch, wo die Probleme bei künstlichen Intelligenzen und bei dem Umgang mit diesen liegen. In diesem Zusammenhang wird auch über Weiterbildungsmöglichkeiten für die Bibliotheksmitarbeitenden gesprochen. Es wurden Kriterienkataloge für Veranstaltungen erstellt, einmal für Schulungen und einmal für Coffee Lectures. Es wird eine Schulung der Universitätsbibliothek Leipzig und eine Coffee Lecture von der Thüringer Universitäts- und Landesbibliothek Jena untersucht. Die daraus gewonnenen Erkenntnisse werden verwendet, um Handlungsempfehlungen für den Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken für darauf Bezug
nehmende Veranstaltungen für Studierende zu geben. Das Ergebnis lautet wie folgt.
Künstliche Intelligenz birgt zwar Risiken, die Tools zu verbieten ist allerdings nicht sinnvoll, da es kaum möglich ist, die Verwendung dieser zu festzustellen. Es ist sinnvoller, über KI aufzuklären. Hochschulbibliotheken sind dafür geeignet, da sie bereits Erfahrung in der Informationskompetenzvermittlung haben, auch im digitalen Bereich. Die Hochschulbibliotheken sollten prüfen, ob eine Integration von KI-bezogenen Veranstaltungen in ihrem Angebot möglich ist. Außerdem muss das geeignetste Format für eine mögliche Veranstaltung ermittelt werden.:1. Einleitung
2. Künstliche Intelligenz
2.1 Grundlegendes über künstliche Intelligenz
2.2 Aktuelle Entwicklungen und Angebote der künstlichen Intelligenz
2.2.1 Allgemeines zur Entwicklung
2.2.2 Chatbots
2.2.3 KI-Recherchetools
2.2.4 Problematiken von künstlicher Intelligenz
3. Deutsche Hochschulbibliotheken und künstliche Intelligenz
3.1 Chancen im Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken
3.2 Problematiken im Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken
3.3 Weiterbildungsmöglichkeiten für Bibliothekarinnen und Bibliothekare zum Thema künstliche Intelligenz
4. Untersuchung von Veranstaltungskonzepten von deutsche Hochschulbibliotheken zu künstlicher Intelligenz für Studierende
4.1 Veranstaltungen
4.2 Kriterien für Veranstaltungen
4.2.1 Kriterien für Schulungen
4.2.2 Kriterien für Coffee Lectures
4.3 Untersuchungen der Veranstaltungen
4.3.1 Untersuchung der Schulung der Universitätsbibliothek Leipzig
4.3.2 Untersuchung der Coffee Lectures der ThULB
4.4 Handlungsempfehlungen für deutsche Hochschulbibliotheken zu dem Umgang mit künstlicher Intelligenz
5. Zusammenfassung
|
6 |
Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems / Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten EntscheidungsunterstützungssystemenHerm, Lukas-Valentin January 2023 (has links) (PDF)
Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance.
Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques.
For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario.
From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. / Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen.
Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt.
Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält.
Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei:
Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht.
Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern.
|
7 |
Künstliche Intelligenz in der Architektur: Chancen und Herausforderungen : mit Texten und Bildern unter Verwendung von ChatGPT - Open AI, Midjourney u.v.m.Stahr, Alexander, Sander, Luisa 05 September 2024 (has links)
No description available.
|
8 |
KI als Künstler?: eine Untersuchung von Erzeugnissen bildgenerierender Künstlicher Intelligenz im deutschen UrheberrechtKarsupke, Emilia 23 August 2024 (has links)
Der Einsatz Künstlicher Intelligenz (KI) zur Bildgenerierung eröffnet einerseits der Kreativität neue
Möglichkeiten, wirft aber andererseits urheberrechtliche Fragen auf.
In dieser Arbeit werden KI-generierte Bilder sowie der ihnen zugrundeliegende Trainingsprozess von
Machine Learning-Modellen unter Berücksichtigung urheberrechtlicher Aspekte untersucht. Im
Ergebnis zeigt sich, dass Bearbeitungen und Vervielfältigungen geschützter Werke im Rahmen des
Text- und Data-Minings erlaubt sind, sofern dies ausschließlich Trainingszwecken dient. Die
Erkenntnisse wurden mittels Literaturrecherche theoretisch erarbeitet und, basierend auf einer
überarbeiteten Version Dr. Lisa Kädes Flussdiagramms, in einem Prototyp einer Webanwendung
praktisch umgesetzt. Dieser soll einen potenziellen Urheber KI-generierter Bilder ermitteln und
Nutzer so bei der Klärung urheberrechtlicher Fragen unterstützen. Die Gestaltung und Funktionalität
des Prototyps wurden in einem User-Test beurteilt, dessen Ergebnisse u.a. Hinweise zur
Verbesserung der Benutzerfreundlichkeit lieferten.
Die Ausführungen münden in der Erkenntnis, dass die meisten KI-generierten Bilder den Status eines
urheberrechtlich geschützten Werkes nicht erreichen und daher gemeinfrei bleiben. Dies entspricht
auch der konservativen Auffassung westlicher Rechtsvertreter.
Abschließend wird eine Anpassung der rechtlichen Rahmenbedingungen empfohlen, um Urheber
und Unternehmen zu schützen und Unsicherheiten im Umgang mit KI-Technologie zu klären. Dies
könnte den Weg für eine verantwortungsvolle Nutzung KI-generierter Bilder ebnen und so
gleichzeitig Innovationen fördern und Rechte schützen.:I Abbildungsverzeichnis 6
II Tabellenverzeichnis 7
III Abkürzungsverzeichnis 8
1 Einleitung 9
2 Grundlagen Künstliche Intelligenz 10
2.1 Definitionsversuch 10
2.2 Historische Entwicklung 11
2.3 Arten 11
2.4 Einsatzbereiche 12
2.5 Elemente der KI 14
3 Bildgenerierung mit KI 21
3.1 Definition Bild 21
3.2 Bedeutung KI-generierter Bilder 21
3.3 Optische Eigenschaften KI-generierter Bilder 22
3.4 Bildgenerierung 23
3.5 Technischer Hintergrund 25
4 Urheberrechtliche Betrachtung KI-gestützter Bildgenerierung 33
4.1 Bedeutung Urheberrecht 33
4.2 Überblick Urheberrecht 34
4.3 Urheberrechtliche Untersuchung Einlese- und Trainingsvorgang de lege lata 38
4.4 Urheberrechtliche Untersuchung KI-Erzeugnisse 45
5 Flussdiagramm nach Käde 61
5.1 Vorüberlegung 61
5.2 Analyse Flussdiagramm nach Käde 61
5.3 Kritische Auseinandersetzung 67
6 Entwicklung Prototyp einer Webanwendung 69
6.1 Webanwendung zur Urheberermittlung KI-generierter Bilder 69
6.2 Umsetzung als Prototyp 78
6.3 User-Test 92
7 Ausblick AI-Act 96
8 Fazit 97
Literaturverzeichnis 99
Anhang 103
Eigenständigkeitserklärung 114
|
9 |
Lokalisierung und Kartenbau mit mobilen RoboternLingemann, Kai 08 April 2014 (has links)
Die dreidimensionale Kartierung der Umgebung spielt speziell in der Robotik eine große Rolle und ist Grundlage für nahezu alle Aufgaben, die eine nicht rein reaktive Interaktion mit dieser Umgebung darstellen. Die vorliegende Arbeit beschreibt den Weg zu solchen Karten. Angefangen bei der reinen (2D-)Lokalisierung eines mobilen Roboters, als erster, fundamentaler Schritt in Richtung autonomer Exploration und Kartierung, beschreibt der Text die Registrierung von Scans zur automatischen, effizienten Generierung von 3D-Karten und gleichzeitiger Lokalisierung in sechs Freiheitsgraden (SLAM-Problem). Es folgen Lösungsstrategien für den Umgang mit akkumulierten Fehlern gerade bei großen explorierten Gebieten: Eine GraphSLAM-Variante liefert global konsistente Karten, optional unterstützt durch eine echtzeitfähige Heuristik zur online-Schleifenoptimierung. Den Abschluss bildet ein alternativer Lokalisierungsansatz zur 3D-Kartierung mittels kooperativ agierenden Robotern.
|
10 |
Functional and Structural Characterization of the Myocardium / Funktionelle und Strukturelle Charakterisierung des MyokardiumsLohr, David January 2021 (has links) (PDF)
Clinical practice in CMR with respect to cardiovascular disease is currently focused on tissue characterization, and cardiac function, in particular. In recent years MRI based diffusion tensor imaging (DTI) has been shown to enable the assessment of microstructure based on the analysis of Brownian motion of water molecules in anisotropic tissue, such as the myocardium. With respect to both functional and structural imaging, 7T MRI may increase SNR, providing access to information beyond the reach of clinically applied field strengths. To date, cardiac 7T MRI is still a research modality that is only starting to develop towards clinical application.
In this thesis we primarily aimed to advance methods of ultrahigh field CMR using the latest 7T technology and its application towards the functional and structural characterization of the myocardium.
Regarding the assessment of myocardial microstructure at 7T, feasibility of ex vivo DTI of large animal hearts was demonstrated. In such hearts a custom sequence implemented for in vivo DTI was evaluated and fixation induced alterations of derived diffusion metrics and tissue properties were assessed. Results enable comparison of prior and future ex vivo DTI studies and provide information on measurement parameters at 7T.
Translating developed methodology to preclinical studies of mouse hearts, ex vivo DTI provided highly sensitive surrogates for microstructural remodeling in response to subendocardial damage. In such cases echocardiography measurements revealed mild diastolic dysfunction and impaired longitudinal deformation, linking disease induced structural and functional alterations. Complementary DTI and echocardiography data also improved our understanding of structure-function interactions in cases of loss of contractile myofiber tracts, replacement fibrosis, and LV systolic failure.
Regarding the functional characterization of the myocardium at 7T, sequence protocols were expanded towards a dedicated 7T routine protocol, encompassing accurate cardiac planning and the assessment of cardiac function via cine imaging in humans.
This assessment requires segmentation of myocardial contours. For that, artificial intelligence (AI) was developed and trained, enabling rapid automatic generation of cardiac segmentation in clinical data. Using transfer learning, AI models were adapted to cine data acquired using the latest generation 7T system. Methodology for AI based segmentation was translated to cardiac pathology, where automatic segmentation of scar tissue, edema and healthy myocardium was achieved.
Developed radiofrequency hardware facilitates translational studies at 7T, providing controlled conditions for future method development towards cardiac 7T MRI in humans.
In this thesis the latest 7T technology, cardiac DTI, and AI were used to advance methods of ultrahigh field CMR. In the long run, obtained results contribute to diagnostic methods that may facilitate early detection and risk stratification in cardiovascular disease. / Bei kardiovaskulären Erkrankungen konzentriert sich die kardiale MRT aktuell auf die Gewebecharakterisierung und insbesondere die Herzfunktion. In den letzten Jahren hat sich gezeigt, dass MRT-basierte Diffusions-Tensor-Bildgebung (DTI) die Beurteilung der Mikrostruktur anhand der Analyse der Brownschen Bewegung von Wassermolekülen in anisotropem Gewebe, wie dem Myokardium, ermöglicht. In Bezug auf sowohl die funktionelle als auch die strukturelle Bildgebung kann 7T MRT SNR verbessern und Information messbar machen, die außerhalb der Reichweite von klinisch angewendeten Feldstärken liegt. Heute ist kardiale 7T MRT noch eine Forschungsmodalität, die sich Richtung klinischer Anwendung entwickelt.
Hauptziel dieser Dissertation war die Weiterentwicklung von Methoden der kardialen Ultrahochfeld-Bildgebung mittels der neuesten 7T-Technologie und dessen Anwendung für die funktionelle und strukturelle Charakterisierung des Myokardiums.
Für die Mikrostrukturcharakterisierung des Myokardiums bei 7T wurde die Durchführbarkeit von ex vivo DTI Messungen von Großtierherzen demonstriert. In solchen Herzen wurde eine Sequenz evaluiert, die für in vivo DTI etabliert wurde. Zudem wurden fixationsbedinge Veränderungen von Diffusionsparametern und Gewebeeigenschaften ermittelt. Die Ergebnisse erlauben den Vergleich von bestehenden und zukünftigen ex vivo Studien und geben Informationen zu Messparametern bei 7T.
Der Transfer von etablierten Methoden zu präklinischen Studien in Mäuseherzen demonstrierte, dass ex vivo DTI sensitive Marker für Mikrostruktur-Remodeling nach Subendokard-Schäden liefern kann. In solchen Fällen zeigte Echokardiographie eine leichte diastolische Dysfunktion und eingeschränkte Longitudinalverformung. Komplementäre DTI und Echokardiographie-Daten erweiterten zudem unser Verständnis von Struktur-Funktions-Interaktionen in Fällen von Verlust von kontraktilen Faserbündeln, Fibrose und linksventrikulärem, systolischem Versagen.
Für die funktionelle Charakterisierung des Myokardiums bei 7T wurde ein dediziertes 7T-Humanprotokoll erarbeitet, welches akkurate Schichtplanung und die Bestimmung der Herzfunktion mittels Cine-Bildgebung umfasst.
Die Herzfunktionsbestimmung erfordert die Segmentierung des Myokards. Hierfür wurde künstliche Intelligenz (KI) entwickelt, die eine schnelle, automatische Herzsegmentierung in klinischen Daten ermöglicht. Mittels Lerntransfer wurden KI-Modelle für Bilder angepasst, die mit der neuesten 7T-Technologie aufgenommen wurden. Methoden für die KI-basierte Segmentierung wurden zudem für die Bestimmung und Segmentierung von Narbengewebe, Ödemen und gesundem Myokard erweitert.
Entwickelte Radiofrequenz-Komponenten ermöglichen translationale 7T-Studien, welche kontrollierte Bedingungen für die Methodenentwicklung von kardialen 7T-Anwendungen für den Humanbereich liefern.
In dieser Arbeit werden die neueste 7T-Technologie, DTI am Herzen und AI genutzt, um Methoden der kardialen Ultrahochfeld-Bildgebung weiterzuentwickeln. Langfristig erweitern die erzielten Ergebnisse diagnostische Methoden, die Früherkennung und Risikoabschätzung in kardiovaskulären Erkrankungen ermöglichen können.
|
Page generated in 0.0951 seconds