• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 119
  • 90
  • 28
  • Tagged with
  • 237
  • 212
  • 163
  • 114
  • 113
  • 111
  • 111
  • 81
  • 66
  • 32
  • 27
  • 27
  • 26
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Wissen gewinnen und gewinnen durch Wissen

Fent, Thomas January 2000 (has links) (PDF)
Gemäß Alfred Korzybski (1921) unterscheidet sich der Mensch von Pflanzen und Tieren unter anderem durch seine Eigenschaft als "Zeit-Binder". Diese befähigt ihn, Erfahrung durch die Zeit zu transportieren. Menschen können Wissen aus der Vergangenheit ansammeln und das, was sie wissen, der Zukunft mitteilen. In der vorliegenden Arbeit werden die Möglichkeiten und Grenzen untersucht, diese Fähigkeit durch Algorithmen zu beschreiben, und in künstlichen lernenden Systemen zu implementieren. Zur Illustration wird abschließend aufgezeigt, wie ein künstlicher Agent und seine Umgebung beschaffen sein können, um ihm das Erlernen einer erfolgreichen Strategie in einem einfachen Nimm-Spiel zu ermöglichen. (Autorenreferat) / Series: Working Papers SFB "Adaptive Information Systems and Modelling in Economics and Management Science"
2

Einsatz des ITW Würzburg unter besonderer Beachtung der Beatmung / Use of the mobile intensiv care unit Wurzburg with particular attention to artificial ventilation

Schulz, Martin January 2007 (has links) (PDF)
Es wurden die Einsätze des ITW Würzburg des Jahres 2005 anhand der vorhandenen Intensivtransportprotokolle ausgewertet. Ziel der Arbeit war eine quantitative und qualitative Bestandsaufnahme des Interhospitalverkehrs unter besonderer Beachtung des Beatmungsmanagements. Insgesamt wurden 249 reine ITW-Einsätze im Jahr 2005 gefahren, von denen 243 durch ein vorhandenes Intensivtransportprotokoll dokumentiert waren. Die Dokumentation des Intensivtransportprotokolls war recht different. Zum einen hing die Qualität der Dokumentation vom transportbegleiteten Arzt ab und zum anderen wiesen einzelne Bereiche des Protokolls eine schlechtere Dokumentation auf als andere. Insgesamt waren Scores oder Angaben, die verschlüsselt einzutragen waren durchweg schlechter dokumentiert. Außerdem wurden viele Angaben im Übernahmestatus nicht dokumentiert, da diese oft schon im Verlaufsprotokoll protokolliert waren, was allerdings die digitale Erfassung erschwerte. Aufgrund dieser Beobachtungen entstand der Eindruck, dass hier ein Bedarf zur Vereinfachung des Protokolls besteht. Die Einsatzfrequenz war mit 0,68 Einsätzen pro Tag relativ gering, was mit dem großen Einsatzbereich und der geringen Einwohner-, und Krankenhausdichte zusammenhängt. Der ITW Würzburg wurde vorwiegend während der regulären Vorbehaltszeiten genutzt. Nur ein geringer Anteil (<10%) der Einsätze fanden außerhalb dieser Zeiten statt. Die Gesamteinsatzdauer im Median betrug 3 Std. 30 Min. pro ITW-Einsatz. Der längste Einsatzabschnitt war dabei die Nachbereitungszeit mit 1 Std. 15 Min. im Median. Sie beinhaltete sowohl die Wiederherstellung der Einsatzbereitschaft des Fahrzeugs, sowie die Rückfahrt zum Standort und Pausen. Der kürzeste Einsatzabschnitt war die Behandlungszeit vor Ort mit 30 Minuten im Median. Dabei fiel auf, dass zentripetale Transporte signifikant längere Behandlungszeiten vor Ort erforderten als zentrifugale Transporte. Nur 67,5% der Einsätze erreichten den Patienten innerhalb einer Stunde. Um eine Eintreffzeit von einer Stunde zu realisieren, wären mindestens zwei weitere ITW-Standorte in Schweinfurt und Aschaffenburg nötig. Dies erscheint aber vor dem Hintergrund der Auslastung des ITW Würzburgs, der geringen Zahl an Sofort-transporten und der Kosten nicht adäquat. Drei Viertel aller Transporte waren Ferntransporte, mit einer durchschnittlichen Entfernung der Zielklinik von 72 Km. Hier erscheint der Standort Würzburg hinsichtlich der guten Verkehrsanbindung als zentraler Standort des ITWs sinnvoll. Zentripetale und zentrifugale Transporte waren annähernd gleich vertreten. Das Patientenkollektiv des ITW Würzburg entsprach dem auf Intensivstationen. Knapp dreiviertel der Patienten war über 50 Jahre alt. Insgesamt überwog der Anteil der männlichen Patienten. Am häufigsten wurden Patienten mit intrakraniellen Blutungen, zerebralen Ischämien und Schädelhirntraumen transportiert. Dieser Gruppe folgten Patienten mit akutem Koronarsyndrom und Patienten mit Sepsis. Über die Hälfte, der mit dem ITW Würzburg transportierten Patienten, waren beatmungspflichtig. Dabei fiel auf, dass unabhängig von der Transportart, die Zahl der BIPAP beatmeten Patienten zunahm. Am stärksten war dieser Anstieg bei den zentrifugalen Transporten. Der PEEP wurde bei zentripetalen Transporten signifikant öfters erhöht als bei zentrifugalen oder zentri-zentralen Transporten, was wie schon die Behandlungszeit vor Ort, auf eine intensivere Therapie schließen lässt. Die Strukturqualität des ITW Würzburgs in Form von Ausstattung und Personal wird den geforderten Standards gerecht. Gerade vor dem Hintergrund des Patientenkollektivs kommt der Ausstattung des ITWs und der Qualifikation des Personals eine entscheidende Bedeutung zu. Bestehende Standards dürfen im Hinblick auf eine adäquate Versorgung der Patienten nicht unterschritten werden. Verbesserungsbedarf besteht lediglich hinsichtlich der Prozessqualität. Dies gilt insbesondere für die Dokumentation, die entsprechenden Dokumentationswerkzeuge und die Auslastung des ITW Würzburgs. Hinsichtlich der Dokumentation ist eine möglichst zeitnahe elektronische Doku-mentation wünschenswert mit Ausbau der im Rahmen dieser Arbeit erstellten Datenbank. Was die Auslastung des ITW betrifft, so ist sicherlich noch Potential vorhanden, das es auszuschöpfen gilt. Hier ist eine bessere Informationspolitik über die Vorteile und Einsatzmöglichkeiten des ITWs von Nöten. Das Beatmungsmanagement zeigte eine Intensivierung der Beatmung vor allem bei zentripetalen Transporten, was die Bedeutung des ITWs als Teil der Intensiv-medizinischen Versorgung unterstreicht. / The employments of the ITW Wurzburg of the yearly 2005 were evaluated on the basis existing intensive transportation minutes. A goal of the work was a quantitative and qualitative stocktaking of interhospital traffic special considering the artificially respirating management. Altogether 249 pure ITW employments were driven in the year 2005, from which 243 had documented by existing intensive transportation minutes. The documentation of intensive transportation minutes was quite different. The documentation depended on the transport-accompanied physician. Altogether were Scores or data, which were to be registered coded throughout more badly documented. In addition many data in the assumption status were not documented, since these were logged often already in process minutes, which made however the digital collection more difficult. Due to these observations the impression developed that a need exists here for the simplification of minutes. The employment frequency was relatively small with 0,68 employments per day, which is connected with the large area of application and the small inhabitants -, and hospital density. The ITW Wurzburg was predominantly used during the regular reservation times. Only a small portion (<10%)the employments took place outside of these times. The total length of application in the median amounted to 3 h 30 min. per ITW employment. The longest employment section was thereby the reinforcement time with 1 h 15 min. in the median. It contained both the re-establishment of the readiness of application of the vehicle, as well as the return trip for the location and tracing. The shortest employment section was the treatment time locally with 30 minutes in the median. It was noticeable that centripetal transportation required significantly longer treatment times than centrifugal transportation. Only 67.5% of the transports reached the patients within one hour. In order to realize a time up to one hour to reach the patients, at least two further ITW locations would be necessary in Schweinfurt and Aschaffenburg. This appears however considering the extent of utilization of the ITW Würzburg, the small number of immediately transportation and the costs, not adequately. Three quarters of all transportation were long-distance haulage, with an average distance of the goal hospital of 72 km. Centripetal and centrifugal transportation were approximately equally represented. The patient collective of the ITW Würzburg corresponded on intensive care units. Three-quater of the patients were older than 50 years. Altogether the portion of the male patients outweighed. Most frequently patients with intracranial bleedings, cerebral ischemia and head injuries were transported. This group patients with acute coronary syndrome and patients with Sepsis followed. Over half of the patients, transportet with the ITW Wurzburg, required artificial ventilation. It was noticeable that independently of the mode of transportation, the number of the BIPAP respirated patients increased. This rise was strongest in the case of the centrifugal transportation. The PEEP in the case of centripetal transportation was significantly more often increased as in the case of centrifugal or central-central transportation, which suggests like already the treatment time, a more intensive therapy. The structure quality of the ITW Wurzburg considering equipment and staff fullfill the demanded standards. Especially considering the patient collective, equipment and qualification of the staff have a crucial meaning. Existing standards may not be fallen below regarding an adequate supply of the patients. Improvement need exists only regarding the process quality. This applies in particular to the documentation, the appropriate documentation tools and the extent of utilization of the ITW Wurzburg. Regarding the documentation a time near electronic documentation is desirably with development in the framework this work provided Data base. Concerning the extent of utilization of the ITW, there is surely still potential. Here is a better information policy over the advantages and application of the ITWs usefull. The artificially respirating management showed an intensification of the artificial respiration particularly in the case of centripetal transportation, which underlines the meaning of the ITWs as part of the intensive-medical supply.
3

Einfluss einer arteriovenösen extrakorporalen Lungenassistenz auf den Gasaustausch im Großtier-ARDS-Modell / Influence of arteriovenous extracorporal lung-assist on hemodynamics and gas-exchange in a porcine model of severe ARDS

Kuestermann, Julian January 2010 (has links) (PDF)
Hintergrund: Wir untersuchten den Einfluß einer arteriovenösen extrakorporalen Lungenassistenz auf den Gasstausch und die Hämodynamik im Lavage-induzierten Tiermodell des akuten Lungenversagens(ARDS). Methodik: Hierzu wurden 15 gesunde Pietrain-Schweine narkotisiert und mittels Lavage der Lunge ein schweres ARDS induziert. Im Anschluß erfolgte bei 14 Tieren die Randomisierung in 2 Gruppen: eine Gruppe wurde mit druckkontrollierter Beatmung und steigenden positiv-endexspiratorischen Drücken (PEEP)behandelt, die zweite Gruppe erhielt zudem eine arteriovenöse Lungenassistenz. Ein Tier wurde lediglich mit der Ausgangsbeatmung therapiert. Ergebnisse: Mit steigendem PEEP kam es in beiden Gruppen zur Abnahme des mittleren arteriellen Druckes (MAP) sowie des Herzzeitvolumens (HZV). av-ECLA hatte keinen signifikanten Einfluss auf den MAP. Der pulmonale Rechts-Links-Shunt nahm jedoch in dieser Gruppe signifikant zu. Waehrend die Kohlendioxidelimination mittels av-ECLA hocheffektiv war, war der Beitrag zur Gesamtoxygenierung gering. Zusammenfassung: Nur die Kombination aus lungen-protektiver Beatmung und av-ECLA führte zu Normokapnie in diesem ARDS-Modell. Es wurde keine signifikante Blutdruckänderung durch av-ECLA hervorgerufen. / Background: We investigated the combined effects of lung protective ventilation and extracorporal lung assist (av-ECLA) on hemodynamics and pulmonary gas exchange in a lavage-induced porcine model of severe ARDS. Methods: Saline lung lavage was performed in 15 healthy pigs until the arterial oxygen partial pressure decreased to < 60 mmHg. Apart from one sham-operated animal, the animals were randomized after a stabilisation period of 60 minutes into two groups: 7 animals received lung protective ventilation with increasing positive end-exspiratory pressure (PEEP) every 15 minutes, 7 animals were additionally treated with av-ECLA. Results: With rising PEEP levels the mean arterial blood pressure (MAP) and the cardiac output (CO) decreased significantly in both groups. No significant decrease of MAP was observed by using the av-ECLA but pulmonary shunt fraction increased significantly. Normocapnia was only achievable with av-ECLA. Carbondioxid- elimination was highly-effective with av-ECLA, the contribution to oxygenation was antagonized by the increase in pulmonary shunt fraction. Conclusion: In this porcine model of severe ARDS, only the combination of av-ECLA and lung protective ventilation results in normokapnia. No significant decrease of MAP was observed by using av-ECLA.
4

Konzeption und Evaluation eines hybriden, skalierbaren Werkzeugs zur mechatronischen Systemdiagnose am Beispiel eines Diagnosesystems für freie Kfz-Werkstätten / Conception and evaluation of a hybrid, scalable tool for mechatronical system diagnosis on the example of a diagnostic system for independent car repair shops

Dang, Nghia Duc January 2012 (has links) (PDF)
Die Entwicklung eines wissensbasierten Systems, speziell eines Diagnosesystems, ist eine Teildisziplin der künstlichen Intelligenz und angewandten Informatik. Im Laufe der Forschung auf diesem Gebiet wurden verschiedene Lösungsansätze mit unterschiedlichem Erfolg bei der Anwendung in der Kraftfahrzeugdiagnose entwickelt. Diagnosesysteme in Vertragswerkstätten, das heißt in Fahrzeughersteller gebundenen Werkstätten, wenden hauptsächlich die fallbasierte Diagnostik an. Zum einen hält sich hier die Fahrzeugvielfalt in Grenzen und zum anderen besteht eine Meldepflicht bei neuen, nicht im System vorhandenen Fällen. Die freien Werkstätten verfügen nicht über eine solche Datenbank. Somit ist der fallbasierte Ansatz schwer umsetzbar. In freien Werkstätten - Fahrzeughersteller unabhängigen Werkstätten - basiert die Fehlersuche hauptsächlich auf Fehlerbäumen. Wegen der wachsenden Fahrzeugkomplexität, welche wesentlich durch die stark zunehmende Anzahl der durch mechatronische Systeme realisierten Funktionen bedingt ist, und der steigenden Typenvielfalt ist die geführte Fehlersuche in freien Werkstätten nicht immer zielführend. Um die Unterstützung des Personals von freien Werkstätten bei der zukünftigen Fehlersuche zu gewährleisten, werden neue Generationen von herstellerunabhängigen Diagnosetools benötigt, die die Probleme der Variantenvielfalt und Komplexität lösen. In der vorliegenden Arbeit wird ein Lösungsansatz vorgestellt, der einen qualitativen, modellbasierten Diagnoseansatz mit einem auf heuristischem Diagnosewissen basierenden Ansatz vereint. Neben der Grundlage zur Wissenserhebung werden in dieser Arbeit die theoretische Grundlage zur Beherrschung der Variantenvielfalt sowie die Tests für die erstellten Diagnosemodelle behandelt. Die Diagnose ist symptombasiert und die Inferenzmechanismen zur Verarbeitung des Diagnosewissens sind eine Kombination aus Propagierung der abweichenden physikalischen Größen im Modell und der Auswertung des heuristischen Wissens. Des Weiteren werden in dieser Arbeit verschiedene Aspekte der Realisierung der entwickelten theoretischen Grundlagen dargestellt, zum Beispiel: Systemarchitektur, Wissenserhebungsprozess, Ablauf des Diagnosevorgangs in den Werkstätten. Die Evaluierung der entwickelten Lösung bei der Wissenserhebung in Form von Modellerstellungen und Modellierungsworkshops sowie Feldtests dient nicht nur zur Bestätigung des entwickelten Ansatzes, sondern auch zur Ideenfindung für die Integration der entwickelten Tools in die existierende IT-Infrastruktur. / The development of a knowledge-based system - in particular a diagnostic system - is a branch of artificial intelligence and applied computer science. Throughout the research in this field, various approaches have been developed with varying degrees of success in the application in automotive diagnostics. Diagnostic systems in authorized garages i.e. in garages bound to vehicle manufacturers mainly apply case-based diagnosis. In those cases first the variance of vehicles is limited and second there is a reporting obligation of new, yet not existing cases within the system. The independent repair shops do not have such a database. Thus, the case-based approach is difficult to implement. In independent garages - car manufacturer independent garages - the troubleshooting is mainly based on fault trees. Because of the growing complexity of vehicles, which is mainly due to the rapidly increasing number of functions realized by mechatronic systems and the increasing variety of vehicle types, guided troubleshooting for independent garages is not always productive. To ensure the support of the staff of independent garages in the future troubleshooting, new generations of multivendor diagnostic tools are needed to solve the problems of the variety and complexity. In the present paper an approach is presented which combines a qualitative, model-based diagnostic approach to a heuristic diagnostic knowledge-based approach. In addition to the basis for knowledge collection in this study the theoretical basis for the control of the variety and the tests for the generated diagnosis models are discussed. The diagnosis is symptom-based and the inference mechanisms for processing of diagnostic knowledge are a combination of propagation of the different physical parameters in the model and the evaluation of heuristic knowledge. Furthermore, various aspects of the implementation of the developed theoretical basis are presented in this thesis, for example: system architecture, knowledge collection process, the course of action of the diagnostic process in the workshops. The evaluation of the developed solution for the collection of knowledge in the form of preparation of models and modeling workshops, as well as field tests not only serves to validate the developed approach, but also to find ideas for the integration of the developed tools into the existing IT infrastructure.
5

Ethische Aspekte des Einsatzes künstlicher Intelligenz in Bibliotheken

Lengers, Sarah 23 March 2022 (has links)
Das Ziel der vorliegenden Arbeit ist es zu beantworten, welche ethischen Fragestellungen sich beim Einsatz von künstlicher Intelligenz (KI), besonders beim Einsatz von Robotern, in Bibliotheken ergeben und wie diesen begegnet werden kann. Es werden die Problematik der Autonomie und der Diskriminierung durch KI-Systeme sowie die Effekte des Anthropomorphismus und die Mensch-Roboter-Beziehung behandelt. Außerdem widmet sich die Arbeit den Aspekten Datenschutz/Privatsphäre, körperliches Wohlbefinden und Haftung, sowie den Gefahren durch Manipulation und der Bewahrung von Nutzerrechten. Die Ansätze der Maschinen-, Technik-, digitalen und Roboterethik leisten teilweise Hilfestellung dabei, einen Umgang mit diesen Problematiken zu finden oder relevante Fragen aufzuwerfen. Zu den Auswirkungen eines KI- und Robotereinsatzes auf die Bibliotheksmitarbeitenden gehören Veränderungen im Tätigkeitsfeld, die Notwendigkeit der Erwerbung und Förderung digitaler Kompetenzen und die Aufgabe, die Gesellschaft bei dem technologischen Wandel zu unterstützen. Zentral ist die Entwicklung eines Bewusstseins für ethische Problematiken beim Einsatz von KI in den Bibliotheken. In bestehenden ethischen Grundsatzpapieren wird KI bisher nicht explizit berücksichtigt. Eine Ergänzung dieser Papiere mit für den Umgang mit KI relevanten Punkten im Hinblick auf einen verstärkten Einzug von Robotern und anderen KI-Systemen in Bibliotheken ist empfehlenswert.:Abkürzungsverzeichnis Abbildungsverzeichnis 1. Einleitung 2. Begriffsklärungen 2.1 Künstliche Intelligenz 2.2 Robotik 3. Einsatz von KI in Bibliotheken 3.1 Überblick 3.1.1 Expertensysteme 3.1.2 Natural Language Processing 3.1.3 Maschinelles Lernen 3.1.4 Optical Character Recognition 3.1.5 Zusammenfassung 3.2 Roboter 4. KI, Robotik und Ethik 4.1 Maschinen-, Technik- und Digitale Ethik 4.1.1 Maschinenethik 4.1.2 Technikethik 4.1.3 Digitale Ethik 4.1.4 Weitere ethische Prinzipien 4.2 Roboterethik 5. Ethische Fragestellungen beim Einsatz von Robotern in Bibliotheken 5.1 Welche ethischen Fragen wirft der Einsatz von Robotern in Bibliotheken auf? 5.1.1 Moral 5.1.2 Einfluss auf soziale Beziehungen und soziale Normen 5.1.3 Sicherheit 5.1.4 Potential als Mittel zum Missbrauch 5.2 Welche Auswirkungen hat der Einsatz von KI und Robotik in Bibliotheken auf die Mitarbeitenden? 6. Berücksichtigung von KI in bibliothekarischen Grundwerten Fazit Literatur
6

Kombinierte Optimierung für diskontinuierliche Produktion mit nicht definierten Qualitätskriterium

Schulz, Thomas, Nekrasov, Ivan 27 January 2022 (has links)
Diese Arbeit beschäftigt sich mit einem realen Fall der Chargenproduktion aus der pharmazeutischen Industrie. Das in der Untersuchung betrachtete Problem liegt im Bereich der Optimierung der Chargenqualität und der Minimierung des Ausschusses unter der Gegebenheit, dass die entsprechenden Qualitätsparameter im Unternehmenssteuerungssystem nicht gemessen werden. Die in dieser Arbeit vorgeschlagene Technik führt ein virtuelles Qualitätskriterium ein, das für jede der Chargen angewendet wird, basierend auf dem beschränkten Wissen der Anwender, welche Charge als optimale Charge (auch Golden Batch bezeichnet) betrachtet werden kann und somit als Referenz für die aktuell in Produktion befindliche Charge verwendet werden kann. Zu diesem Zweck verwenden wir das klassische integrale Leistungskriterium, das in der Theorie der optimalen Steuerung dynamischer Systeme weit verbreitet ist, um zu messen, wie weit der aktuelle Zustand des Systems vom 'optimalen' Punkt entfernt ist. Mit Hilfe der beschriebenen Technologie, die aus der genannten Nachbardisziplin stammt, waren wir in der Lage, die Qualität jeder Charge als ein kontinuierliches Messverhältnis zu quantifizieren, was uns erlaubte, mehrere effiziente kontinuierliche Analysetechniken für diesen anfänglichen Chargenproduktionsfall zu verwenden.
7

Der Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken: Untersuchung von Veranstaltungsangeboten für Studierende

Böhme, Lisa 05 October 2023 (has links)
In dieser Arbeit wird betrachtet, wie deutsche Hochschulbibliotheken mit den neuen künstlichen Intelligenzen umgehen können. Hauptbestandteil ist die Betrachtung von Veranstaltungen über künstliche Intelligenz für Studierende. Künstliche Intelligenz gibt es bereits seit den 1950ern und es gibt viele Definitionen. Künstliche Intelligenz allgemein beschäftigt sich mit Methoden, wie Computer Aufgaben erfüllen können, die bei Menschen Intelligenz benötigen. Die Geschichte von KI wird betrachtet, ebenso aktuelle Entwicklungen, wie neue KI-Tools. Das bekannteste Beispiel ist ChatGPT. Weitere Tools werden erläutert, wie Elicit oder Perplexity.Ai. Es wird untersucht, wie Hochschulbibliotheken bereits mit KI umgehen, was ihre Möglichkeiten sind, aber auch, wo die Probleme bei künstlichen Intelligenzen und bei dem Umgang mit diesen liegen. In diesem Zusammenhang wird auch über Weiterbildungsmöglichkeiten für die Bibliotheksmitarbeitenden gesprochen. Es wurden Kriterienkataloge für Veranstaltungen erstellt, einmal für Schulungen und einmal für Coffee Lectures. Es wird eine Schulung der Universitätsbibliothek Leipzig und eine Coffee Lecture von der Thüringer Universitäts- und Landesbibliothek Jena untersucht. Die daraus gewonnenen Erkenntnisse werden verwendet, um Handlungsempfehlungen für den Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken für darauf Bezug nehmende Veranstaltungen für Studierende zu geben. Das Ergebnis lautet wie folgt. Künstliche Intelligenz birgt zwar Risiken, die Tools zu verbieten ist allerdings nicht sinnvoll, da es kaum möglich ist, die Verwendung dieser zu festzustellen. Es ist sinnvoller, über KI aufzuklären. Hochschulbibliotheken sind dafür geeignet, da sie bereits Erfahrung in der Informationskompetenzvermittlung haben, auch im digitalen Bereich. Die Hochschulbibliotheken sollten prüfen, ob eine Integration von KI-bezogenen Veranstaltungen in ihrem Angebot möglich ist. Außerdem muss das geeignetste Format für eine mögliche Veranstaltung ermittelt werden.:1. Einleitung 2. Künstliche Intelligenz 2.1 Grundlegendes über künstliche Intelligenz 2.2 Aktuelle Entwicklungen und Angebote der künstlichen Intelligenz 2.2.1 Allgemeines zur Entwicklung 2.2.2 Chatbots 2.2.3 KI-Recherchetools 2.2.4 Problematiken von künstlicher Intelligenz 3. Deutsche Hochschulbibliotheken und künstliche Intelligenz 3.1 Chancen im Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken 3.2 Problematiken im Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken 3.3 Weiterbildungsmöglichkeiten für Bibliothekarinnen und Bibliothekare zum Thema künstliche Intelligenz 4. Untersuchung von Veranstaltungskonzepten von deutsche Hochschulbibliotheken zu künstlicher Intelligenz für Studierende 4.1 Veranstaltungen 4.2 Kriterien für Veranstaltungen 4.2.1 Kriterien für Schulungen 4.2.2 Kriterien für Coffee Lectures 4.3 Untersuchungen der Veranstaltungen 4.3.1 Untersuchung der Schulung der Universitätsbibliothek Leipzig 4.3.2 Untersuchung der Coffee Lectures der ThULB 4.4 Handlungsempfehlungen für deutsche Hochschulbibliotheken zu dem Umgang mit künstlicher Intelligenz 5. Zusammenfassung
8

Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems / Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten Entscheidungsunterstützungssystemen

Herm, Lukas-Valentin January 2023 (has links) (PDF)
Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance. Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques. For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario. From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. / Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen. Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt. Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält. Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei: Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht. Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern.
9

Lokalisierung und Kartenbau mit mobilen Robotern

Lingemann, Kai 08 April 2014 (has links)
Die dreidimensionale Kartierung der Umgebung spielt speziell in der Robotik eine große Rolle und ist Grundlage für nahezu alle Aufgaben, die eine nicht rein reaktive Interaktion mit dieser Umgebung darstellen. Die vorliegende Arbeit beschreibt den Weg zu solchen Karten. Angefangen bei der reinen (2D-)Lokalisierung eines mobilen Roboters, als erster, fundamentaler Schritt in Richtung autonomer Exploration und Kartierung, beschreibt der Text die Registrierung von Scans zur automatischen, effizienten Generierung von 3D-Karten und gleichzeitiger Lokalisierung in sechs Freiheitsgraden (SLAM-Problem). Es folgen Lösungsstrategien für den Umgang mit akkumulierten Fehlern gerade bei großen explorierten Gebieten: Eine GraphSLAM-Variante liefert global konsistente Karten, optional unterstützt durch eine echtzeitfähige Heuristik zur online-Schleifenoptimierung. Den Abschluss bildet ein alternativer Lokalisierungsansatz zur 3D-Kartierung mittels kooperativ agierenden Robotern.
10

Functional and Structural Characterization of the Myocardium / Funktionelle und Strukturelle Charakterisierung des Myokardiums

Lohr, David January 2021 (has links) (PDF)
Clinical practice in CMR with respect to cardiovascular disease is currently focused on tissue characterization, and cardiac function, in particular. In recent years MRI based diffusion tensor imaging (DTI) has been shown to enable the assessment of microstructure based on the analysis of Brownian motion of water molecules in anisotropic tissue, such as the myocardium. With respect to both functional and structural imaging, 7T MRI may increase SNR, providing access to information beyond the reach of clinically applied field strengths. To date, cardiac 7T MRI is still a research modality that is only starting to develop towards clinical application. In this thesis we primarily aimed to advance methods of ultrahigh field CMR using the latest 7T technology and its application towards the functional and structural characterization of the myocardium. Regarding the assessment of myocardial microstructure at 7T, feasibility of ex vivo DTI of large animal hearts was demonstrated. In such hearts a custom sequence implemented for in vivo DTI was evaluated and fixation induced alterations of derived diffusion metrics and tissue properties were assessed. Results enable comparison of prior and future ex vivo DTI studies and provide information on measurement parameters at 7T. Translating developed methodology to preclinical studies of mouse hearts, ex vivo DTI provided highly sensitive surrogates for microstructural remodeling in response to subendocardial damage. In such cases echocardiography measurements revealed mild diastolic dysfunction and impaired longitudinal deformation, linking disease induced structural and functional alterations. Complementary DTI and echocardiography data also improved our understanding of structure-function interactions in cases of loss of contractile myofiber tracts, replacement fibrosis, and LV systolic failure. Regarding the functional characterization of the myocardium at 7T, sequence protocols were expanded towards a dedicated 7T routine protocol, encompassing accurate cardiac planning and the assessment of cardiac function via cine imaging in humans. This assessment requires segmentation of myocardial contours. For that, artificial intelligence (AI) was developed and trained, enabling rapid automatic generation of cardiac segmentation in clinical data. Using transfer learning, AI models were adapted to cine data acquired using the latest generation 7T system. Methodology for AI based segmentation was translated to cardiac pathology, where automatic segmentation of scar tissue, edema and healthy myocardium was achieved. Developed radiofrequency hardware facilitates translational studies at 7T, providing controlled conditions for future method development towards cardiac 7T MRI in humans. In this thesis the latest 7T technology, cardiac DTI, and AI were used to advance methods of ultrahigh field CMR. In the long run, obtained results contribute to diagnostic methods that may facilitate early detection and risk stratification in cardiovascular disease. / Bei kardiovaskulären Erkrankungen konzentriert sich die kardiale MRT aktuell auf die Gewebecharakterisierung und insbesondere die Herzfunktion. In den letzten Jahren hat sich gezeigt, dass MRT-basierte Diffusions-Tensor-Bildgebung (DTI) die Beurteilung der Mikrostruktur anhand der Analyse der Brownschen Bewegung von Wassermolekülen in anisotropem Gewebe, wie dem Myokardium, ermöglicht. In Bezug auf sowohl die funktionelle als auch die strukturelle Bildgebung kann 7T MRT SNR verbessern und Information messbar machen, die außerhalb der Reichweite von klinisch angewendeten Feldstärken liegt. Heute ist kardiale 7T MRT noch eine Forschungsmodalität, die sich Richtung klinischer Anwendung entwickelt. Hauptziel dieser Dissertation war die Weiterentwicklung von Methoden der kardialen Ultrahochfeld-Bildgebung mittels der neuesten 7T-Technologie und dessen Anwendung für die funktionelle und strukturelle Charakterisierung des Myokardiums. Für die Mikrostrukturcharakterisierung des Myokardiums bei 7T wurde die Durchführbarkeit von ex vivo DTI Messungen von Großtierherzen demonstriert. In solchen Herzen wurde eine Sequenz evaluiert, die für in vivo DTI etabliert wurde. Zudem wurden fixationsbedinge Veränderungen von Diffusionsparametern und Gewebeeigenschaften ermittelt. Die Ergebnisse erlauben den Vergleich von bestehenden und zukünftigen ex vivo Studien und geben Informationen zu Messparametern bei 7T. Der Transfer von etablierten Methoden zu präklinischen Studien in Mäuseherzen demonstrierte, dass ex vivo DTI sensitive Marker für Mikrostruktur-Remodeling nach Subendokard-Schäden liefern kann. In solchen Fällen zeigte Echokardiographie eine leichte diastolische Dysfunktion und eingeschränkte Longitudinalverformung. Komplementäre DTI und Echokardiographie-Daten erweiterten zudem unser Verständnis von Struktur-Funktions-Interaktionen in Fällen von Verlust von kontraktilen Faserbündeln, Fibrose und linksventrikulärem, systolischem Versagen. Für die funktionelle Charakterisierung des Myokardiums bei 7T wurde ein dediziertes 7T-Humanprotokoll erarbeitet, welches akkurate Schichtplanung und die Bestimmung der Herzfunktion mittels Cine-Bildgebung umfasst. Die Herzfunktionsbestimmung erfordert die Segmentierung des Myokards. Hierfür wurde künstliche Intelligenz (KI) entwickelt, die eine schnelle, automatische Herzsegmentierung in klinischen Daten ermöglicht. Mittels Lerntransfer wurden KI-Modelle für Bilder angepasst, die mit der neuesten 7T-Technologie aufgenommen wurden. Methoden für die KI-basierte Segmentierung wurden zudem für die Bestimmung und Segmentierung von Narbengewebe, Ödemen und gesundem Myokard erweitert. Entwickelte Radiofrequenz-Komponenten ermöglichen translationale 7T-Studien, welche kontrollierte Bedingungen für die Methodenentwicklung von kardialen 7T-Anwendungen für den Humanbereich liefern. In dieser Arbeit werden die neueste 7T-Technologie, DTI am Herzen und AI genutzt, um Methoden der kardialen Ultrahochfeld-Bildgebung weiterzuentwickeln. Langfristig erweitern die erzielten Ergebnisse diagnostische Methoden, die Früherkennung und Risikoabschätzung in kardiovaskulären Erkrankungen ermöglichen können.

Page generated in 0.0662 seconds