• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 31
  • 7
  • 3
  • 2
  • 1
  • Tagged with
  • 89
  • 53
  • 50
  • 28
  • 27
  • 27
  • 21
  • 18
  • 14
  • 13
  • 11
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Numbers, winds and stars: representing the ancient geographical language in the digital environment

Palladino, Chiara January 2016 (has links)
No description available.
62

Konsistenzerhaltende Techniken für generierbare Wissensbasen zum Entwurf eingebetteter Systeme

Sporer, Mathias 16 July 2007 (has links)
Der Entwurfsprozess informationsverarbeitender Systeme ist gekennzeichnet durch die Beschreibung von speichernden, verarbeitenden und übertragenden Komponenten auf unterschiedlichen Abstraktionsstufen. Sowohl für spezifische Anwendungsdomänen als auch für die jeweiligen Abstraktionsstufen wurden in der Vergangenheit Werkzeuge entwickelt, die den Systemdesigner von der Phase der Anforderungsspezifikation bis hin zu Implementierung und funktionaler Erprobung begleiten. Beim Entwurf komplexer Systeme im allgemeinen und eingebetteter Systeme im besonderen stellt sich zusätzlich das Problem der Wiederverwendung von Komponenten aus früheren Entwürfen, der Transformation des Entwurfswissens über die Grenzen der Abstraktionsstufen hinweg sowie die Integration einer variablen Anzahl domänenspezifischer Werkzeuge in den Entwurfsprozess. Voraussetzung eines korrekten Designs ist dabei die anwendungsinvariante Integritätserhaltung aller beteiligten Entwurfsdaten unabhängig von ihrer Repräsentation. Nach der Diskussion des Integritätsbegriffs für konventionelle Informationssysteme und den nötigen Erweiterungen für eingebettete Systeme werden Verfahren zur Modellierung des Entwurfsprozesses vorgestellt, mit deren Hilfe eine der spezifischen Entwicklungsaufgabe optimal entsprechende Wissensbasis generiert und fortwährend neuen Anforderungen von Fremdwerkzeugen und Entwurfsverfahren angepasst werden kann. Sie erfordert vom Anwender keine Detailkenntnisse des zugrunde liegenden Datenmodells. Die Generierbarkeit der Wissensbasis und ihrer Werkzeuge beruht auf einem Metamodell, das sich auf eine erweiterbare Objektalgebra zur Struktur- und Verhaltensbeschreibung informationsverarbeitender Systeme stützt und in domänenspezifische Zielsysteme transformierbar ist. / The design process of data processing systems is characterized by the description of storing, processing and transmitting components on different levels of abstraction. In the past tools have been developed for specific application domains as well as for the respective abstraction levels. They support the system designer from the stage of the requirements specification down to implementation and functional test. During the sketch of complex systems in general and embedded systems in particular, problems occur in the following areas: reusing the components from former drafts; transforming the design knowledge across the boundaries of abstraction levels; integrating a variable number of domain specific tools in the design process. The precondition for a correct design is the integrity preservation of all involved draft data no matter which sources such as databases, XML files or conventional HOST file systems provide them. After discussing the integrity term regarding conventional information systems and the extensions necessary for embedded systems, approaches for modelling the design process are presented. They help to generate a knowledge base which is optimally adjusted to a particular design task and can be continuously adapted to new requests coming from external tools and design processes. The user does not need detailed knowledge about the knowledge base's underlying data model. The capability of generating the knowledge base and its tools is based on a meta model. First, this model is based on an extensible object algebra applied when describing the structure and behaviour of data processing systems and second, the model is transformable into domain specific target systems.
63

Automatic conversion of PDF-based, layout-oriented typesetting data to DAISY: potentials and limitations

Nikolaus, Ulrich, Dobroschke, Julia January 2009 (has links)
Only two percent of new books released in Germany are professionally edited for visually impaired people. However, more and more print publications are made available to the public in digital formats through online content delivery platforms like “libreka!”. The automatic conversion of such contents into DAISY would considerably increase the number of publications available in accessible formats. Still, most data available on “libreka!” is published as non-tagged PDF. In this paper, we examine the potential for automatic conversion of “libreka!”-based content into DAISY, while also analyzing the potentials and limitations of current conversion tools.
64

Towards Collaborative Session-based Semantic Search

Straub, Sebastian 11 October 2017 (has links)
In recent years, the most popular web search engines have excelled in their ability to answer short queries that require clear, localized and personalized answers. When it comes to complex exploratory search tasks however, the main challenge for the searcher remains the same as back in the 1990s: Trying to formulate a single query that contains all the right keywords to produce at least some relevant results. In this work we want to investigate new ways to facilitate exploratory search by making use of context information from the user's entire search process. Therefore we present the concept of session-based semantic search, with an optional extension to collaborative search scenarios. To improve the relevance of search results we expand queries with terms from the user's recent query history in the same search context (session-based search). We introduce a novel method for query classification based on statistical topic models which allows us to track the most important topics in a search session so that we can suggest relevant documents that could not be found through keyword matching. To demonstrate the potential of these concepts, we have built the prototype of a session-based semantic search engine which we release as free and open source software. In a qualitative user study that we have conducted, this prototype has shown promising results and was well-received by the participants.:1. Introduction 2. Related Work 2.1. Topic Models 2.1.1. Common Traits 2.1.2. Topic Modeling Techniques 2.1.3. Topic Labeling 2.1.4. Topic Graph Visualization 2.2. Session-based Search 2.3. Query Classification 2.4. Collaborative Search 2.4.1. Aspects of Collaborative Search Systems 2.4.2. Collaborative Information Retrieval Systems 3. Core Concepts 3.1. Session-based Search 3.1.1. Session Data 3.1.2. Query Aggregation 3.2. Topic Centroid 3.2.1. Topic Identification 3.2.2. Topic Shift 3.2.3. Relevance Feedback 3.2.4. Topic Graph Visualization 3.3. Search Strategy 3.3.1. Prerequisites 3.3.2. Search Algorithms 3.3.3. Query Pipeline 3.4. Collaborative Search 3.4.1. Shared Topic Centroid 3.4.2. Group Management 3.4.3. Collaboration 3.5. Discussion 4. Prototype 4.1. Document Collection 4.1.1. Selection Criteria 4.1.2. Data Preparation 4.1.3. Search Index 4.2. Search Engine 4.2.1. Search Algorithms 4.2.2. Query Pipeline 4.2.3. Session Persistence 4.3. User Interface 4.4. Performance Review 4.5. Discussion 5. User Study 5.1. Methods 5.1.1. Procedure 5.1.2. Implementation 5.1.3. Tasks 5.1.4. Questionnaires 5.2. Results 5.2.1. Participants 5.2.2. Task Review 5.2.3. Literature Research Results 5.3. Discussion 6. Conclusion Bibliography Weblinks A. Appendix A.1. Prototype: Source Code A.2. Survey A.2.1. Tasks A.2.2. Document Filter for Google Scholar A.2.3. Questionnaires A.2.4. Participant’s Answers A.2.5. Participant’s Search Results / Die führenden Web-Suchmaschinen haben sich in den letzten Jahren gegenseitig darin übertroffen, möglichst leicht verständliche, lokalisierte und personalisierte Antworten auf kurze Suchanfragen anzubieten. Bei komplexen explorativen Rechercheaufgaben hingegen ist die größte Herausforderung für den Nutzer immer noch die gleiche wie in den 1990er Jahren: Eine einzige Suchanfrage so zu formulieren, dass alle notwendigen Schlüsselwörter enthalten sind, um zumindest ein paar relevante Ergebnisse zu erhalten. In der vorliegenden Arbeit sollen neue Methoden entwickelt werden, um die explorative Suche zu erleichtern, indem Kontextinformationen aus dem gesamten Suchprozess des Nutzers einbezogen werden. Daher stellen wir das Konzept der sitzungsbasierten semantischen Suche vor, mit einer optionalen Erweiterung auf kollaborative Suchszenarien. Um die Relevanz von Suchergebnissen zu steigern, werden Suchanfragen mit Begriffen aus den letzten Anfragen des Nutzers angereichert, die im selben Suchkontext gestellt wurden (sitzungsbasierte Suche). Außerdem wird ein neuartiger Ansatz zur Klassifizierung von Suchanfragen eingeführt, der auf statistischen Themenmodellen basiert und es uns ermöglicht, die wichtigsten Themen in einer Suchsitzung zu erkennen, um damit weitere relevante Dokumente vorzuschlagen, die nicht durch Keyword-Matching gefunden werden konnten. Um das Potential dieser Konzepte zu demonstrieren, wurde im Rahmen dieser Arbeit der Prototyp einer sitzungsbasierten semantischen Suchmaschine entwickelt, den wir als freie Software veröffentlichen. In einer qualitativen Nutzerstudie hat dieser Prototyp vielversprechende Ergebnisse hervorgebracht und wurde von den Teilnehmern positiv aufgenommen.:1. Introduction 2. Related Work 2.1. Topic Models 2.1.1. Common Traits 2.1.2. Topic Modeling Techniques 2.1.3. Topic Labeling 2.1.4. Topic Graph Visualization 2.2. Session-based Search 2.3. Query Classification 2.4. Collaborative Search 2.4.1. Aspects of Collaborative Search Systems 2.4.2. Collaborative Information Retrieval Systems 3. Core Concepts 3.1. Session-based Search 3.1.1. Session Data 3.1.2. Query Aggregation 3.2. Topic Centroid 3.2.1. Topic Identification 3.2.2. Topic Shift 3.2.3. Relevance Feedback 3.2.4. Topic Graph Visualization 3.3. Search Strategy 3.3.1. Prerequisites 3.3.2. Search Algorithms 3.3.3. Query Pipeline 3.4. Collaborative Search 3.4.1. Shared Topic Centroid 3.4.2. Group Management 3.4.3. Collaboration 3.5. Discussion 4. Prototype 4.1. Document Collection 4.1.1. Selection Criteria 4.1.2. Data Preparation 4.1.3. Search Index 4.2. Search Engine 4.2.1. Search Algorithms 4.2.2. Query Pipeline 4.2.3. Session Persistence 4.3. User Interface 4.4. Performance Review 4.5. Discussion 5. User Study 5.1. Methods 5.1.1. Procedure 5.1.2. Implementation 5.1.3. Tasks 5.1.4. Questionnaires 5.2. Results 5.2.1. Participants 5.2.2. Task Review 5.2.3. Literature Research Results 5.3. Discussion 6. Conclusion Bibliography Weblinks A. Appendix A.1. Prototype: Source Code A.2. Survey A.2.1. Tasks A.2.2. Document Filter for Google Scholar A.2.3. Questionnaires A.2.4. Participant’s Answers A.2.5. Participant’s Search Results
65

Generierung von natürlichsprachlichen Texten aus semantischen Strukturen im Prozeß der maschinellen Übersetzung - Allgemeine Strukturen und Abbildungen

Rosenpflanzer, Lutz, Karl, Hans-Ulrich 14 December 2012 (has links)
0 VORWORT Bei der maschinellen Übersetzung natürlicher Sprache dominieren mehrere Probleme. Man hat es immer mit sehr großen Datenmengen zu tun. Auch wenn man nur einen kleinen Text übersetzen will, ist diese Aufgabe in umfänglichen Kontext eingebettet, d.h. alles Wissen über Quell- und Zielsprache muß - in möglichst formalisierter Form - zur Verfügung stehen. Handelt es sich um gesprochenes Wort treten Spracherkennungs- und Sprachausgabeaufgaben sowie harte Echtzeitforderungen hinzu. Die Komplexität des Problems ist - auch unter Benutzung moderner Softwareentwicklungskonzepte - für jeden, der eine Implementation versucht, eine nicht zu unterschätzende Herausforderung. Ansätze, die die Arbeitsprinzipien und Methoden der Informatik konsequent nutzen, stellen ihre Ergebnisse meist nur prototyisch für einen sehr kleinen Teil der Sprache -etwa eine Phrase, einen Satz bzw. mehrere Beispielsätze- heraus und folgern mehr oder weniger induktiv, daß die entwickelte Lösung auch auf die ganze Sprache erfolgreich angewendet werden kann, wenn man nur genügend „Lemminge“ hat, die nach allen Seiten ausschwärmend, die „noch notwendigen Routinearbeiten“ schnell und bienenfleißig ausführen könnten.:0 Vorwort S. 2 1 Allgemeiner Ablauf der Generierung S. 3 1.1 AUFGABE DER GENERIERUNG S. 3 1.2 EINORDNUNG DER GENERIERUNG IN DIE MASCHINELLE ÜBERSETZUNG S.4 1.3 REALISIERUNG S. 4 1.4 MORPHOLOGISCHE GENERIERUNG S.6 2 Strukturen und Abbildungen S. 8 2.1 UNIVERSELLE STRUKTUR: DEFINITION VON GRAPHEN S.8 2.2 FORMALISIERUNG SPEZIELLER SEMANTISCHER STRUKTUREN ALS GRAPHEN S.9 2.3 ABBILDUNG VON STRUKTUREN S.11 2.3.1 Strukturtyperhaltende Funktionen S. 12 2.3.2 Strukturtypverändernde Funktionen S. 19 2.3.3 Komplexe Funktionen S. 20 2.3.4 Abbildung eines gesamten Generierungsprozesses S. 21 4 Beispiel: Generierung von Texten aus prädikatenlogischen Ausdrücken (inkrementeller Algorithmus) S. 23 4.1 ABLAUF S.23 4.2 BEISPIELE VON REGELSTRUKTUREN S.27 5 Zusammenfassung S. 28 6 Quellenverzeichnis S. 30
66

Der Einfluss stilistischer Merkmale einer Entwurfsvisualisierung auf die semantischen Produkteigenschaften

Mühlbauer, Frank 03 January 2020 (has links)
Aufgrund der Komplexität und den hohen Anforderungen an technische Produkte im professionellen Nutzungskontext entstehen deren Entwürfe nicht losgelöst von parallel laufenden Entwicklungsprozessen, sondern in der Regel eng verzahnt im interdisziplinären Umfeld mit fachübergreifenden Entwicklerteams. Für die erfolgreiche Zusammenarbeit ist es essenziell, zielgerichtet Arbeitsunterlagen beispielsweise für Entscheidungsprozesse zu erzeugen. Für Visualisierungen aus Designprozessen, zur Repräsentation des Entwurfsgegenstandes bedeutet das, dass ihre Eigenschaften dem angestrebten Zweck entsprechend abgestimmt sein sollten. Im Entwurfsprozess werden neben den quantitativen auch die qualitativen Produktanforderungen berücksichtigt, die sich u. a. in der Produktgestaltung widerspiegeln sollen (Heufler, 2012). Die resultierende Formgebung kommuniziert neben funktionalen auch maßgeblich die semantischen Produkteigenschaften. Die Erzeugung von Entwurfsvisualisierungen folgt in der Regel keinem einheitlichen Vorgehen, sondern erfolgt sehr individuell auf der Grundlage von Erfahrungen und dem bevorzugten Werkzeug-Einsatz des Entwerfenden. Die Wahl des Werkzeugs ist demzufolge häufig nicht auf die Funktion oder den angestrebten Zweck der Visualisierung abgestimmt (Goos & Zang, 2009). Dabei sind die Visualisierungen für Kommunikations- und Entscheidungsprozesse mit anderen Fachdisziplinen essenziell und dementsprechend müssen die zu beurteilenden Aspekte präzise dargestellt sein (Chen, You, & Lee, 2003). Zweckgerecht und angemessen können Designvisualisierungen beispielsweise inspirierend oder motivierend wirken und den Austausch anregen. Unangemessen und falsch eingesetzt sind sie irreführend und vermitteln ein unklares Bild vom Entwurfsstand, was zu Zielkonflikten in der Bewertung von Produktkonzepten zwischen Entwerfenden und Entscheidern führen kann. Demzufolge ist ein wesentliches Ziel der Arbeit zu untersuchen, inwieweit die Art der Visualisierung, grafische Merkmale und Merkmalsausprägungen einen Einfluss auf die Beurteilung des Entwurfsgegenstands haben. [... aus der Einleitung]
67

Empirische Untersuchung zur semantischen Wirkung grafischer Visualisierungsmerkmale: Betrachtungsgegenstand sind Entwurfsdarstellungen im Designprozess

Mühlbauer, Frank 07 February 2022 (has links)
Designschaffende nutzen im Rahmen des Designprozesses vielfältige Werkzeuge, um Entwurfsstände zu erarbeiten und visuelle Darstellungen für die Vermittlung wichtiger Gestaltungsziele zu erzeugen. In der Designpraxis ist zu beobachten, dass die zur Verfügung stehenden Ressourcen und die Werkzeugwahl nicht auf den vorgesehenen Zweck abgestimmt werden. Daraus resultieren erhebliche Probleme in der Kommunikation mit anderen Beteiligten des Entwicklungsprozesses, da die gestalterischen Entwicklungsziele durch ungeeignete Visualisierungen fehlinterpretiert werden. Gleichzeitig ist der sichere Umgang mit Visualisierungswerkzeugen für die Erzeugung präziser, zweckorientierter Arbeitsunterlagen für Entscheidungsprozesse elementar. Dies setzt jedoch umfassende Kenntnisse zur Funktion und spezifischen Wirkung der Visualisierungsmerkmale voraus. Insbesondere für Entwurfsvisualisierungen, die zur Beurteilung des angestrebten Produktcharakters in der Konzeptphase verwendet werden, ergibt sich vor dem Hintergrund der teils ungezielten Werkzeugverwendung weiterer Forschungsbedarf, um eine Wissenslücke zur semantischen Wirkung grafischer Visualisierungsmerkmale zu schließen. In der vorliegenden Arbeit wird daher die Wirkung grafischer Visualisierungsmerkmale auf die Wahrnehmung semantischer Entwurfseigenschaften untersucht, die bisher nicht im Fokus der wissenschaftlichen Auseinandersetzung stehen.:Vorwort 2 1 Einführung und Ziele der Arbeit 7 1.1 Wissenschaftliche Problemlage 7 1.2 Zentrale Fragen und Ziele der Arbeit 9 1.3 Aufbau der Arbeit und methodisches Vorgehen 10 2 Theoretische Grundlagen und aktueller Forschungsstand 11 2.1 Industriedesign im professionellen Anwendungskontext 11 2.2 Entwicklungsprozesse technischer Produkte 13 2.2.1 Prozessmodelle des Industriedesigns 13 2.2.2 Industriedesign als Bestandteil des Produktentwicklungsprozesses 19 2.2.3 Designentscheidungen in der frühen Phase des Produktentwicklungsprozesses 22 2.3 Designvisualisierungen als Entwurfsdarstellungen im Designprozess 25 2.3.1 Einordnung und zentrale Begriffe 25 2.3.2 Entwurfswerkzeuge und deren Verwendung im Designprozess 26 2.3.3 Zentrale Funktionen von Designvisualisierungen 34 2.3.4 Werkzeugeigenschaften von Designvisualisierungen 41 2.3.5 Merkmale von Designvisualisierungen 44 2.4 Die semantische Wirkung des Produktdesigns 52 2.4.1 Einordnung und zentrale Begriffe 52 2.4.2 Semiotische Theorieansätze im Produktdesign 53 2.4.3 Der Produktcharakter im Designprozess 57 2.5 Identifizierter Forschungsbedarf 61 3 Methoden und Vorgehen zur empirischen Datenerhebung 64 3.1 Forschungsfrage und methodisches Vorgehen 64 3.2 Grafische Merkmale von Entwurfsvisualisierungen 66 3.2.1 Aufbau und Visualisierungsmerkmale einer Konzeptdarstellung 66 3.2.2 Ausprägungen grafischer Visualisierungsmerkmale im Designprozess 76 3.2.3 Schlussfolgerungen zu den grafischen Visualisierungsmerkmalen 80 3.3 Stimulusmaterial für die Datenerhebung 85 3.3.1 Entwurf syntaktischer Probekörpervarianten 85 3.3.2 Zusammenstellung der unabhängigen Variablen 88 3.3.3 Synthese zum Testbild 91 3.4 Operationalisierung der semantischen Wirkung 94 3.4.1 Einordnung und zentrale Begriffe zum Semantischen Differenzial 94 3.4.2 Ermittlung der spezifischen Adjektivpaare 94 4 Hauptstudie zur empirischen Datenerhebung 97 4.1 Entwicklung der Forschungshypothesen 97 4.2 Aufbau und Durchführung der Hauptstudie 101 4.3 Erhobene Stichprobe 102 4.4 Statistische Auswertung 103 4.4.1 Auswertungsverfahren und zentrale Begriffe 103 4.4.2 Aufbereitung der quantitativen Daten 104 4.4.3 Verwendete statistische Testverfahren 105 4.5 Statistische Ergebnisse 107 4.5.1 Statistische Voraussetzungen und deskriptive Datenanalyse 107 4.5.2 Explorative Faktorenanalyse 109 4.5.3 Statistische Ergebnisse der mehrfaktoriellen Varianzanalyse 111 5 Interpretation und Diskussion der Ergebnisse 122 5.1 Interpretation der Studienergebnisse 122 5.1.1 Ergebnisinterpretation der syntaktischen Merkmalsausprägungen 122 5.1.2 Ergebnisinterpretation der Flächendarstellungen 125 5.1.3 Ergebnisinterpretation der Liniendarstellungen 128 5.2 Diskussion der Studienergebnisse 132 5.3 Diskussion der wissenschaftlichen Methoden 135 6 Zusammenfassung 138 7 Fazit und Ausblick 142 8 Verzeichnisse 145 Literaturverzeichnis 145 Abbildungsverzeichnis 153 Tabellenverzeichnis 156 Abkürzungsverzeichnis 157 Anhang 158
68

Zooming in on speech production: Cumulative semantic interference and the processing of compounds

Döring, Anna-Lisa 25 April 2023 (has links)
Diese Dissertation untersucht einige ungeklärten Aspekte der Sprachproduktion. Das erste Ziel war es zu klären, wie Komposita (z.B. Goldfisch) auf der lexikalisch-syntaktischen Ebene unseres Sprachproduktionssystems repräsentiert sind. Gibt es dort einen einzelnen lexikalischen Eintrag für das gesamte Kompositum (GOLDFISCH) oder mehrere Einträge für jedes seiner Konstituenten (GOLD und FISCH), welche beim Sprechen zusammengesetzt werden? Zur Beantwortung dieser Frage wurde die sogenannte kumulative semantische Interferenz (KSI) verwendet. Dieser semantische Kontexteffekt beschreibt die Beobachtung, dass die Benennlatenzen von Sprechern systematisch länger werden, wenn diese eine Reihe von semantisch verwandten Bildern benennen. Obwohl KSI bereits viel als Instrument in der Sprachproduktionsforschung genutzt wird, sind einige Fragen rund um den Effekt selbst noch offen. Das zweite Ziel dieser Dissertation war es daher einige dieser Fragen mit Hilfe von behavioralen und elektrophysiologischen Maßen zu beantworten, um so unser Verständnis von KSI zu erweitern. Die Ergebnisse deuten darauf hin, dass KSI ihren Ursprung auf der konzeptuellen Ebene des Sprachproduktionssystems hat und dass sie nicht von der morphologischen Komplexität der verwendeten Begriffe moduliert wird, aber davon, wie häufig diese benannt werden. Diese Erkenntnisse ermöglichen es in der Zukunft zielgenauere Vorhersagen zu machen, wenn KSI als Forschungsinstrument verwendet wird. Die Ergebnisse zeigen zudem, dass die Konstituenten von Komposita während deren Produktion aktiviert werden. Dies belegt, dass Komposita in einer komplexen Struktur repräsentiert sind, die aus einem Eintrag für das ganze Kompositum und zusätzlichen Einträgen für die Konstituenten besteht. Somit zeigen diese Ergebnisse, dass die Morphologie bereits die Repräsentationen auf der lexikalisch-syntaktischen Ebene beeinflusst und erweitern somit unser Wissen über den Aufbau unseres Sprachproduktionssystems. / This dissertation addresses unresolved issues concerning speech production processes and the cognitive architecture of our speech production system. The first aim was to answer the question how compounds (e.g., goldfish) are represented on the lexical-syntactic level of our speech production system. Is there a single entry for the whole compound (GOLDFISH) or multiple ones for each of its constituents (GOLD and FISH), which are assembled for each use? To investigate this question, we used the cumulative semantic interference (CSI) effect. This semantic context effect describes the observation that speakers’ naming latencies systematically increase when naming a sequence of semantically related pictures. Although CSI has been extensively used as a tool in language production research, several aspects of it are not fully understood. Thus, the second aim of this dissertation was to close some of these knowledge gaps and gain a more comprehensive understanding of CSI. In three studies, we first investigated the CSI effect, before using it as a tool to study the lexical representation of compounds. Behavioural and electrophysiological data from the first two studies point to a purely conceptual origin of CSI. Furthermore, they revealed that CSI is not influenced by the items’ morphological complexity but affected by item repetition. These findings advance our understanding of CSI and thus allow us to make more informed predictions when using CSI as a research tool. The last study showed that the compounds’ constituents are activated during compound production, which provides evidence for a complex lexical-syntactic representation of compounds, consisting of one entry for the holistic compound and additional entries for each of its constituents. This dissertation thus reveals that the morphological complexity of compounds affects the lexical-syntactic level during speech production and thus advances our understanding of the architecture of our speech production system.
69

Towards Efficient Novel Materials Discovery / Acceleration of High-throughput Calculations and Semantic Management of Big Data using Ontologies

Lenz-Himmer, Maja-Olivia 27 April 2022 (has links)
Die Entdeckung von neuen Materialien mit speziellen funktionalen Eigenschaften ist eins der wichtigsten Ziele in den Materialwissenschaften. Das Screening des strukturellen und chemischen Phasenraums nach potentiellen neuen Materialkandidaten wird häufig durch den Einsatz von Hochdurchsatzmethoden erleichtert. Schnelle und genaue Berechnungen sind eins der Hauptwerkzeuge solcher Screenings, deren erster Schritt oft Geometrierelaxationen sind. In Teil I dieser Arbeit wird eine neue Methode der eingeschränkten Geometrierelaxation vorgestellt, welche die perfekte Symmetrie des Kristalls erhält, Resourcen spart sowie Relaxationen von metastabilen Phasen und Systemen mit lokalen Symmetrien und Verzerrungen erlaubt. Neben der Verbesserung solcher Berechnungen um den Materialraum schneller zu durchleuchten ist auch eine bessere Nutzung vorhandener Daten ein wichtiger Pfeiler zur Beschleunigung der Entdeckung neuer Materialien. Obwohl schon viele verschiedene Datenbanken für computerbasierte Materialdaten existieren ist die Nutzbarkeit abhängig von der Darstellung dieser Daten. Hier untersuchen wir inwiefern semantische Technologien und Graphdarstellungen die Annotation von Daten verbessern können. Verschiedene Ontologien und Wissensgraphen werden entwickelt anhand derer die semantische Darstellung von Kristallstrukturen, Materialeigenschaften sowie experimentellen Ergebenissen im Gebiet der heterogenen Katalyse ermöglicht werden. Wir diskutieren, wie der Ansatz Ontologien und Wissensgraphen zu separieren, zusammenbricht wenn neues Wissen mit künstlicher Intelligenz involviert ist. Eine Zwischenebene wird als Lösung vorgeschlagen. Die Ontologien bilden das Hintergrundwissen, welches als Grundlage von zukünftigen autonomen Agenten verwendet werden kann. Zusammenfassend ist es noch ein langer Weg bis Materialdaten für Maschinen verständlich gemacht werden können, so das der direkte Nutzen semantischer Technologien nach aktuellem Stand in den Materialwissenschaften sehr limitiert ist. / The discovery of novel materials with specific functional properties is one of the highest goals in materials science. Screening the structural and chemical space for potential new material candidates is often facilitated by high-throughput methods. Fast and still precise computations are a main tool for such screenings and often start with a geometry relaxation to find the nearest low-energy configuration relative to the input structure. In part I of this work, a new constrained geometry relaxation is presented which maintains the perfect symmetry of a crystal, saves time and resources as well as enables relaxations of meta-stable phases and systems with local symmetries or distortions. Apart from improving such computations for a quicker screening of the materials space, better usage of existing data is another pillar that can accelerate novel materials discovery. While many different databases exists that make computational results accessible, their usability depends largely on how the data is presented. We here investigate how semantic technologies and graph representations can improve data annotation. A number of different ontologies and knowledge graphs are developed enabling the semantic representation of crystal structures, materials properties as well experimental results in the field of heterogeneous catalysis. We discuss the breakdown of the knowledge-graph approach when knowledge is created using artificial intelligence and propose an intermediate information layer. The underlying ontologies can provide background knowledge for possible autonomous intelligent agents in the future. We conclude that making materials science data understandable to machines is still a long way to go and the usefulness of semantic technologies in the domain of materials science is at the moment very limited.
70

Poesiemaschinen - Maschinenpoesie

Link, David 20 January 2005 (has links)
Die vorliegende Dissertation analysiert Textgeneratoren aus der Frühzeit der Computergeschichte, seit den 1970er Jahren, ausgehend von ihrem Quelltext. Variablenskripte, Joseph Weizenbaums "Eliza", Kenneth Colbys "Parry", frühe Adventurespiele und Terry Winograds "SHRDLU" werden auf die ihnen zugrundelegienden metaphorischen und algorithmischen Strukturen untersucht. Alle diese Programme lassen sich auf den Glauben der formallogischen Tradition zurückführen, Sprache und das in ihr repräsentierte Wissen von Welt stellten vollständig explizierbare und sogar formalisierbare Sachverhalte dar, wie er in Ludwig Wittgensteins "Tractatus" kulminiert. Technisch werden hier optionale Elemente in Baumstrukturen angeordnet und erzeugen scheinbar unerschöpfliche Varianz. Dem wird eine zweite Traditionslinie gegenübergestellt, die statt an Optionen an Operationen arbeitet und mit dem Dadaisten Tristan Tzara, der Wiederentdeckung des russischen Mathematikers Andrei Markov durch Claude Shannon und den Cutup-Experimenten von William S. Burroughs verbunden ist. Als deren Weiterführung beschreibt die Arbeit das im Rahmen dieser Promotion entwickelte Computerprogramm "Poetry Machine", einen auf semantischen Netzwerken basierenden, interaktiven Textgenerator, der sich selbständig mit Informationen aus dem Internet versorgt. Im Anhang findet sich die Übersetzung des grundlegenden Textes "Ein Beispiel statistischer Forschung am Text ''Eugen Onegin'' zur Verbindung von Proben in Ketten" von A. Markov ins Deutsche. / The present dissertation analyses text generators from the early times of computer history, since the 1970ies, starting from their source code. Variable scripts, Joseph Weizenbaum''s "Eliza", Kenneth Colby''s "Parry", early adventure games and Terry Winograd''s "SHRDLU" are investigated regarding their metaphorical and arithmetical structure. These programs can be traced back to the belief of the formal-logic tradition that language and the knowledge about the world represented by it can be fully explained and even be formalised, like it culminates in Ludwig Wittgenstein''s "Tractatus". Technically, optional elements are arranged in tree-like structures and generate seemingly endless variance. A second line of tradition is opposed to this, that works on operations rather than on options. It is linked to the dadaist Tristan Tzara, the re-discovery of the Russian mathematician Andrei Markov by Claude Shannon and the cutup-experiments of William S. Burroughs. As a continuation, the computer program "Poetry Machine" is described in detail, which was developed within the framework of the present dissertation. This interactive text generator is based on semantic networks and acquires its information autonomously from the internet. The translation of the fundamental text "An Example of Statistical Investigation of the Text ''Eugene Onegin'' Concerning the Connection of Samples in Chains" by A. Markov into German is given in the appendix.

Page generated in 0.0544 seconds