• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 153
  • 138
  • 22
  • 8
  • Tagged with
  • 319
  • 204
  • 167
  • 107
  • 100
  • 97
  • 97
  • 78
  • 75
  • 70
  • 51
  • 51
  • 49
  • 35
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Neurowissenschaftliche Deutungen von Intelligenz in den Medien und ihre Folgen für Lernmotivation, Emotion und Verhalten

Tiling, Johannes von January 2009 (has links)
Zugl.: Kassel, Univ., Diss., 2008.
32

Prospect theory multi-agent based simulations for non-rational route choice decision making modelling

Kuhn Andriotti, Gustavo. Unknown Date (has links) (PDF)
Univ., Diss., 2009--Würzburg.
33

Geschlechterunterschiede in der Intelligenz : eine empirische Untersuchung im Rahmen der HAWIK-IV Normierung /

Federli, Daniela. January 2005 (has links) (PDF)
Zweite Studienarbeit Hochschule für Angewandte Psychologie Zürich, 2005.
34

Emotionale Kompetenz und Erziehungsverhalten im Spiegel der Mutter-Kind-Interaktion /

Wittmann, Martina. January 2008 (has links)
Zugl.: München, Universiẗat, Diss., 2007.
35

Ethische Aspekte des Einsatzes künstlicher Intelligenz in Bibliotheken

Lengers, Sarah 23 March 2022 (has links)
Das Ziel der vorliegenden Arbeit ist es zu beantworten, welche ethischen Fragestellungen sich beim Einsatz von künstlicher Intelligenz (KI), besonders beim Einsatz von Robotern, in Bibliotheken ergeben und wie diesen begegnet werden kann. Es werden die Problematik der Autonomie und der Diskriminierung durch KI-Systeme sowie die Effekte des Anthropomorphismus und die Mensch-Roboter-Beziehung behandelt. Außerdem widmet sich die Arbeit den Aspekten Datenschutz/Privatsphäre, körperliches Wohlbefinden und Haftung, sowie den Gefahren durch Manipulation und der Bewahrung von Nutzerrechten. Die Ansätze der Maschinen-, Technik-, digitalen und Roboterethik leisten teilweise Hilfestellung dabei, einen Umgang mit diesen Problematiken zu finden oder relevante Fragen aufzuwerfen. Zu den Auswirkungen eines KI- und Robotereinsatzes auf die Bibliotheksmitarbeitenden gehören Veränderungen im Tätigkeitsfeld, die Notwendigkeit der Erwerbung und Förderung digitaler Kompetenzen und die Aufgabe, die Gesellschaft bei dem technologischen Wandel zu unterstützen. Zentral ist die Entwicklung eines Bewusstseins für ethische Problematiken beim Einsatz von KI in den Bibliotheken. In bestehenden ethischen Grundsatzpapieren wird KI bisher nicht explizit berücksichtigt. Eine Ergänzung dieser Papiere mit für den Umgang mit KI relevanten Punkten im Hinblick auf einen verstärkten Einzug von Robotern und anderen KI-Systemen in Bibliotheken ist empfehlenswert.:Abkürzungsverzeichnis Abbildungsverzeichnis 1. Einleitung 2. Begriffsklärungen 2.1 Künstliche Intelligenz 2.2 Robotik 3. Einsatz von KI in Bibliotheken 3.1 Überblick 3.1.1 Expertensysteme 3.1.2 Natural Language Processing 3.1.3 Maschinelles Lernen 3.1.4 Optical Character Recognition 3.1.5 Zusammenfassung 3.2 Roboter 4. KI, Robotik und Ethik 4.1 Maschinen-, Technik- und Digitale Ethik 4.1.1 Maschinenethik 4.1.2 Technikethik 4.1.3 Digitale Ethik 4.1.4 Weitere ethische Prinzipien 4.2 Roboterethik 5. Ethische Fragestellungen beim Einsatz von Robotern in Bibliotheken 5.1 Welche ethischen Fragen wirft der Einsatz von Robotern in Bibliotheken auf? 5.1.1 Moral 5.1.2 Einfluss auf soziale Beziehungen und soziale Normen 5.1.3 Sicherheit 5.1.4 Potential als Mittel zum Missbrauch 5.2 Welche Auswirkungen hat der Einsatz von KI und Robotik in Bibliotheken auf die Mitarbeitenden? 6. Berücksichtigung von KI in bibliothekarischen Grundwerten Fazit Literatur
36

Kombinierte Optimierung für diskontinuierliche Produktion mit nicht definierten Qualitätskriterium

Schulz, Thomas, Nekrasov, Ivan 27 January 2022 (has links)
Diese Arbeit beschäftigt sich mit einem realen Fall der Chargenproduktion aus der pharmazeutischen Industrie. Das in der Untersuchung betrachtete Problem liegt im Bereich der Optimierung der Chargenqualität und der Minimierung des Ausschusses unter der Gegebenheit, dass die entsprechenden Qualitätsparameter im Unternehmenssteuerungssystem nicht gemessen werden. Die in dieser Arbeit vorgeschlagene Technik führt ein virtuelles Qualitätskriterium ein, das für jede der Chargen angewendet wird, basierend auf dem beschränkten Wissen der Anwender, welche Charge als optimale Charge (auch Golden Batch bezeichnet) betrachtet werden kann und somit als Referenz für die aktuell in Produktion befindliche Charge verwendet werden kann. Zu diesem Zweck verwenden wir das klassische integrale Leistungskriterium, das in der Theorie der optimalen Steuerung dynamischer Systeme weit verbreitet ist, um zu messen, wie weit der aktuelle Zustand des Systems vom 'optimalen' Punkt entfernt ist. Mit Hilfe der beschriebenen Technologie, die aus der genannten Nachbardisziplin stammt, waren wir in der Lage, die Qualität jeder Charge als ein kontinuierliches Messverhältnis zu quantifizieren, was uns erlaubte, mehrere effiziente kontinuierliche Analysetechniken für diesen anfänglichen Chargenproduktionsfall zu verwenden.
37

Der Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken: Untersuchung von Veranstaltungsangeboten für Studierende

Böhme, Lisa 05 October 2023 (has links)
In dieser Arbeit wird betrachtet, wie deutsche Hochschulbibliotheken mit den neuen künstlichen Intelligenzen umgehen können. Hauptbestandteil ist die Betrachtung von Veranstaltungen über künstliche Intelligenz für Studierende. Künstliche Intelligenz gibt es bereits seit den 1950ern und es gibt viele Definitionen. Künstliche Intelligenz allgemein beschäftigt sich mit Methoden, wie Computer Aufgaben erfüllen können, die bei Menschen Intelligenz benötigen. Die Geschichte von KI wird betrachtet, ebenso aktuelle Entwicklungen, wie neue KI-Tools. Das bekannteste Beispiel ist ChatGPT. Weitere Tools werden erläutert, wie Elicit oder Perplexity.Ai. Es wird untersucht, wie Hochschulbibliotheken bereits mit KI umgehen, was ihre Möglichkeiten sind, aber auch, wo die Probleme bei künstlichen Intelligenzen und bei dem Umgang mit diesen liegen. In diesem Zusammenhang wird auch über Weiterbildungsmöglichkeiten für die Bibliotheksmitarbeitenden gesprochen. Es wurden Kriterienkataloge für Veranstaltungen erstellt, einmal für Schulungen und einmal für Coffee Lectures. Es wird eine Schulung der Universitätsbibliothek Leipzig und eine Coffee Lecture von der Thüringer Universitäts- und Landesbibliothek Jena untersucht. Die daraus gewonnenen Erkenntnisse werden verwendet, um Handlungsempfehlungen für den Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken für darauf Bezug nehmende Veranstaltungen für Studierende zu geben. Das Ergebnis lautet wie folgt. Künstliche Intelligenz birgt zwar Risiken, die Tools zu verbieten ist allerdings nicht sinnvoll, da es kaum möglich ist, die Verwendung dieser zu festzustellen. Es ist sinnvoller, über KI aufzuklären. Hochschulbibliotheken sind dafür geeignet, da sie bereits Erfahrung in der Informationskompetenzvermittlung haben, auch im digitalen Bereich. Die Hochschulbibliotheken sollten prüfen, ob eine Integration von KI-bezogenen Veranstaltungen in ihrem Angebot möglich ist. Außerdem muss das geeignetste Format für eine mögliche Veranstaltung ermittelt werden.:1. Einleitung 2. Künstliche Intelligenz 2.1 Grundlegendes über künstliche Intelligenz 2.2 Aktuelle Entwicklungen und Angebote der künstlichen Intelligenz 2.2.1 Allgemeines zur Entwicklung 2.2.2 Chatbots 2.2.3 KI-Recherchetools 2.2.4 Problematiken von künstlicher Intelligenz 3. Deutsche Hochschulbibliotheken und künstliche Intelligenz 3.1 Chancen im Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken 3.2 Problematiken im Umgang mit künstlicher Intelligenz an deutschen Hochschulbibliotheken 3.3 Weiterbildungsmöglichkeiten für Bibliothekarinnen und Bibliothekare zum Thema künstliche Intelligenz 4. Untersuchung von Veranstaltungskonzepten von deutsche Hochschulbibliotheken zu künstlicher Intelligenz für Studierende 4.1 Veranstaltungen 4.2 Kriterien für Veranstaltungen 4.2.1 Kriterien für Schulungen 4.2.2 Kriterien für Coffee Lectures 4.3 Untersuchungen der Veranstaltungen 4.3.1 Untersuchung der Schulung der Universitätsbibliothek Leipzig 4.3.2 Untersuchung der Coffee Lectures der ThULB 4.4 Handlungsempfehlungen für deutsche Hochschulbibliotheken zu dem Umgang mit künstlicher Intelligenz 5. Zusammenfassung
38

Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems / Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten Entscheidungsunterstützungssystemen

Herm, Lukas-Valentin January 2023 (has links) (PDF)
Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance. Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques. For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario. From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. / Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen. Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt. Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält. Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei: Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht. Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern.
39

Literatur und Persönlichkeitsentwicklung eine empirische Untersuchung zur Erfassung des Zusammenhangs zwischen literarischem Lesen und emotionaler Intelligenz

Tsiknaki, Eirini January 2005 (has links)
Zugl.: München, Univ., Diss., 2005
40

Homo artificialis eine Androiden & Cyborg Analyse mit dem Fokus auf Star Trek

Recht, Marcus January 2002 (has links)
Zugl.: Frankfurt (Main), Univ., Magisterarbeit, 2002

Page generated in 0.0748 seconds