• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 66
  • 36
  • 5
  • 3
  • Tagged with
  • 108
  • 75
  • 71
  • 48
  • 48
  • 48
  • 20
  • 14
  • 14
  • 12
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Brain-electric correlates of visual word recognition under natural reading conditions

Niefind, Florian 06 May 2016 (has links)
Diese vorliegende Dissertation nutzt Koregistrierung von EEG und Eye-Tracking um neuronale Korrelate der Wortverarbeitung beim natürlichen Lesen zu untersuchen. EKP-Forschung hat unser Verständnis der Wortverarbeitung stark geprägt. Jedoch wird Lesen in EKP-Experimenten üblicherweise im unnatürlichen RSVP Paradigma untersucht. Der Blickbewegungsforschung verdanken wir viele Erkenntnisse über die Koordination von Sprachverarbeitung und Blickbewegungsplanung, allerdings nur auf der Verhaltensebene. Drei Leseexperimente in dieser Arbeit untersuchten a) foveale und parafoveale Wortverarbeitung, b) Wortschwierigkeit in Form von Wortfrequenzeffekten und c) den Einfluss von Blickbewegungen. Ein viertes Experiment untersuchte die Generalisierbarkeit parafovealer Vorverarbeitungs-Effekte (Preview-Effekte), indem diese mit chinesischen Sätzen repliziert wurden. Die Ergebnisse zeigten einen reliablen Effekt parafovealer Vorverarbeitung auf neuronale Korrelate der fovealen Worterkennung in Form eines frühen Effekts auf der N1 Komponente. Interaktionen zwischen dem Preview-Effekt und Wortfrequenz zeigten Wechselwirkungen der Verarbeitung aufeinanderfolgender Worte im fovealen und parafovealen Blickfeld. Preview-Effekte waren schwächer nach Worten mit niedriger Frequenz, was zeigt, wie komplexe foveale Wortverarbeitung Resourcen für parafoveale Information bindet. Andererseits beeinflusste parafoveale Verarbeitung auch die foveale Verarbeitung: Erstens durch den oben beschriebenen Preview-Effekt, zweitens durch eine Verlangsamung der Wortverarbeitungsrate nach schweren Vorschaubedingungen. Außerdem zeigten sich foveale Wortfrequenzeffekte früher nach valider parafovealer Wortvorschau. Der Preview-Effekt war stärker, wenn Blickbewegungen ausgeführt werden mussten. Der Grund hierfür sind verdeckte Aufmerksamkeitsverschiebungen vor einer Sakkade. (EKP-)Forschung zur visuellen Wortverarbeitung sollte zukünftig Blickbewegungen und parafoveale Vorverarbeitung berücksichtigen. / The current dissertation uses co-registration of EEG with eye tracking to study the brain-electric correlates of word processing under natural reading circumstances. ERP research has advanced our understanding of the neuronal mechanisms of word processing greatly but traditionally used the RSVP paradigm that is not ecologically valid. Eye tracking research has greatly advanced our understanding of the coordination of linguistic processing with eye movement execution but provides only indirect insight into the actual brain processes during reading. Three reading experiments were conducted to study a) foveal and parafoveal processing, b) word processing in the form of frequency effects, and c) the impact of eye movement planning and execution on a neuronal as well as behavioral level. A fourth experiment tested the generalizability of the preview effects by replicating preview effects in Chinese sentence reading. Results show a robust effect of parafoveal preview on brain-electric correlates of foveal word recognition in the form of an early effect on the N1 component. The preview effect interacted with word frequency in different ways, revealing interactions between the processing of subsequent words in parafoveal and foveal vision. Preview effects were smaller after low frequency words, showing that parafoveal processing is reduced if foveal processing is complex. Also, parafoveal processing also affected foveal processing: Firstly, by providing preview benefit as described above and secondly, by slowing processing rates after a difficult preview (delayed POF effects). Lastly, foveal word frequency effects were found earlier if valid parafoveal preview had been provided. Preview effects were much stronger if eye movements had to be executed, which is most likely due to pre-saccadic attention shifts. Results show the shortcomings of traditional ERP studies and suggest that research on visual word recognition needs to consider eye movements and parafoveal processing.
32

The limits of parallel processing

Göthe, Katrin January 2009 (has links)
Trying to do two things at once decreases performance of one or both tasks in many cases compared to the situation when one performs each task by itself. The present thesis deals with the question why and in which cases these dual-task costs emerge and moreover, whether there are cases in which people are able to process two cognitive tasks at the same time without costs. In four experiments the influence of stimulus-response (S-R) compatibility, S-R modality pairings, interindividual differences, and practice on parallel processing ability of two tasks are examined. Results show that parallel processing is possible. Nevertheless, dual-task costs emerge when: the personal processing strategy is serial, the two tasks have not been practiced together, S-R compatibility of both tasks is low (e.g. when a left target has to be responded with a right key press and in the other task an auditorily presented “A” has to be responded by saying “B”), and modality pairings of both tasks are Non Standard (i.e., visual-spatial stimuli are responded vocally whereas auditory-verbal stimuli are responded manually). Results are explained with respect to executive-based (S-R compatibility) and content-based crosstalk (S-R modality pairings) between tasks. Finally, an alternative information processing account with respect to the central stage of response selection (i.e., the translation of the stimulus to the response) is presented. / Versucht man zwei Aufgaben zur gleichen Zeit zu erledigen, so verschlechtert sich die Leistung einer oder beider Aufgabe(n) im Vergleich zur Situation, in der man beide Aufgaben einzeln erledigt. Die vorliegende Dissertation beschäftigt sich mit der Frage, warum und unter welchen Umständen diese Doppelaufgabenkosten entstehen. Darüber hinaus geht sie der Frage nach, ob es Aufgabenkombinationen gibt, für die parallele Verarbeitung ohne Kosten gezeigt werden kann. In vier Experimenten wurde der Einfluss von Stimulus-Reaktion (S-R) Kompatibilität, S-R Modalitätspaarungen, interindividueller Unterschiede und Training auf das Parallelverarbeitungspotential zweier Aufgaben untersucht. Die Ergebnisse zeigen, dass parallele Verarbeitung generell möglich ist. Dennoch entstehen Doppelaufgabenkosten, wenn die persönliche Verarbeitungsstrategie seriell ist, die beiden Aufgaben nicht genügend zusammen trainiert wurden, die S-R Kompatibilität beider Aufgaben gering ist (z.B. wenn ein linker Zielreiz mit einem Druck auf die rechten Taste beantwortet und in der anderen Aufgabe ein auditiv präsentiertes „A“ mit der Aussprache eines „Bs“ beantwortet werden muss) und die Modalitätspaarungen beider Aufgaben Nicht-Standard sind (d.h. visuell-räumliche Stimuli mit vokalen und auditiv-verbale Stimuli mit manuellen Reaktionen beantwortet werden müssen). Die gewonnenen Ergebnisse werden durch „Crosstalk“ der exekutiven Signale (S-R Kompatibilität) und durch inhaltsbasierten „Crosstalk“ (S-R Modalitätspaarungen) erklärt. Weiterhin wird ein alternatives Modell der Informationsverarbeitung mit Hinblick auf die zentrale Phase der Antwortauswahl (d.h. die Phase in der die Stimulusinformation in eine Antwort übersetzt wird) vorgestellt.
33

Eye movements in reading strategies : how reading strategies modulate effects of distributed processing and oculomotor control

Wotschack, Christiane January 2009 (has links)
Throughout its empirical research history eye movement research has always been aware of the differences in reading behavior induced by individual differences and task demands. This work introduces a novel comprehensive concept of reading strategy, comprising individual differences in reading style and reading skill as well as reader goals. In a series of sentence reading experiments recording eye movements, the influence of reading strategies on reader- and word-level effects assuming distributed processing has been investigated. Results provide evidence for strategic, top-down influences on eye movement control that extend our understanding of eye guidance in reading. / Seit Beginn der Blickbewegungsforschung beim Lesen ist man sich über Unterschiede im Blickverhalten bewusst, die im Zusammenhang mit individuellen Unterschieden oder Aufgabenanforderungen stehen. Unter dem Begriff ‚Lesestrategie’ wurden diese Unterschiede hauptsächlich für diagnostische Zwecke verwendet. Diese Studie verwendet eine neue, umfassende Definition von Lesestrategie und berücksichtigt sowohl individuelle Unterschiede in Lesestil und Lesevermögen als auch Ziel und Intention des Lesers. In einer Reihe von Satzleseexperimenten, bei denen die Blickbewegungen aufgezeichnet wurden, wurde der Einfluss von Lesestrategien auf Effekte der Leser-und Wortebene untersucht, wobei eine verteilte Verarbeitung beim Lesen angenommen wird. Die Ergebnisse liefern Evidenzen für strategische, top-down Einflüsse auf die Blickbewegungen und leisten einen wichtigen Beitrag für das bessere Verständnis der Blickbewegungskontrolle beim Lesen.
34

Proof theory and algorithms for answer set programming

Gebser, Martin January 2011 (has links)
Answer Set Programming (ASP) is an emerging paradigm for declarative programming, in which a computational problem is specified by a logic program such that particular models, called answer sets, match solutions. ASP faces a growing range of applications, demanding for high-performance tools able to solve complex problems. ASP integrates ideas from a variety of neighboring fields. In particular, automated techniques to search for answer sets are inspired by Boolean Satisfiability (SAT) solving approaches. While the latter have firm proof-theoretic foundations, ASP lacks formal frameworks for characterizing and comparing solving methods. Furthermore, sophisticated search patterns of modern SAT solvers, successfully applied in areas like, e.g., model checking and verification, are not yet established in ASP solving. We address these deficiencies by, for one, providing proof-theoretic frameworks that allow for characterizing, comparing, and analyzing approaches to answer set computation. For another, we devise modern ASP solving algorithms that integrate and extend state-of-the-art techniques for Boolean constraint solving. We thus contribute to the understanding of existing ASP solving approaches and their interconnections as well as to their enhancement by incorporating sophisticated search patterns. The central idea of our approach is to identify atomic as well as composite constituents of a propositional logic program with Boolean variables. This enables us to describe fundamental inference steps, and to selectively combine them in proof-theoretic characterizations of various ASP solving methods. In particular, we show that different concepts of case analyses applied by existing ASP solvers implicate mutual exponential separations regarding their best-case complexities. We also develop a generic proof-theoretic framework amenable to language extensions, and we point out that exponential separations can likewise be obtained due to case analyses on them. We further exploit fundamental inference steps to derive Boolean constraints characterizing answer sets. They enable the conception of ASP solving algorithms including search patterns of modern SAT solvers, while also allowing for direct technology transfers between the areas of ASP and SAT solving. Beyond the search for one answer set of a logic program, we address the enumeration of answer sets and their projections to a subvocabulary, respectively. The algorithms we develop enable repetition-free enumeration in polynomial space without being intrusive, i.e., they do not necessitate any modifications of computations before an answer set is found. Our approach to ASP solving is implemented in clasp, a state-of-the-art Boolean constraint solver that has successfully participated in recent solver competitions. Although we do here not address the implementation techniques of clasp or all of its features, we present the principles of its success in the context of ASP solving. / Antwortmengenprogrammierung (engl. Answer Set Programming; ASP) ist ein Paradigma zum deklarativen Problemlösen, wobei Problemstellungen durch logische Programme beschrieben werden, sodass bestimmte Modelle, Antwortmengen genannt, zu Lösungen korrespondieren. Die zunehmenden praktischen Anwendungen von ASP verlangen nach performanten Werkzeugen zum Lösen komplexer Problemstellungen. ASP integriert diverse Konzepte aus verwandten Bereichen. Insbesondere sind automatisierte Techniken für die Suche nach Antwortmengen durch Verfahren zum Lösen des aussagenlogischen Erfüllbarkeitsproblems (engl. Boolean Satisfiability; SAT) inspiriert. Letztere beruhen auf soliden beweistheoretischen Grundlagen, wohingegen es für ASP kaum formale Systeme gibt, um Lösungsmethoden einheitlich zu beschreiben und miteinander zu vergleichen. Weiterhin basiert der Erfolg moderner Verfahren zum Lösen von SAT entscheidend auf fortgeschrittenen Suchtechniken, die in gängigen Methoden zur Antwortmengenberechnung nicht etabliert sind. Diese Arbeit entwickelt beweistheoretische Grundlagen und fortgeschrittene Suchtechniken im Kontext der Antwortmengenberechnung. Unsere formalen Beweissysteme ermöglichen die Charakterisierung, den Vergleich und die Analyse vorhandener Lösungsmethoden für ASP. Außerdem entwerfen wir moderne Verfahren zum Lösen von ASP, die fortgeschrittene Suchtechniken aus dem SAT-Bereich integrieren und erweitern. Damit trägt diese Arbeit sowohl zum tieferen Verständnis von Lösungsmethoden für ASP und ihrer Beziehungen untereinander als auch zu ihrer Verbesserung durch die Erschließung fortgeschrittener Suchtechniken bei. Die zentrale Idee unseres Ansatzes besteht darin, Atome und komposite Konstrukte innerhalb von logischen Programmen gleichermaßen mit aussagenlogischen Variablen zu assoziieren. Dies ermöglicht die Isolierung fundamentaler Inferenzschritte, die wir in formalen Charakterisierungen von Lösungsmethoden für ASP selektiv miteinander kombinieren können. Darauf aufbauend zeigen wir, dass unterschiedliche Einschränkungen von Fallunterscheidungen zwangsläufig zu exponentiellen Effizienzunterschieden zwischen den charakterisierten Methoden führen. Wir generalisieren unseren beweistheoretischen Ansatz auf logische Programme mit erweiterten Sprachkonstrukten und weisen analytisch nach, dass das Treffen bzw. Unterlassen von Fallunterscheidungen auf solchen Konstrukten ebenfalls exponentielle Effizienzunterschiede bedingen kann. Die zuvor beschriebenen fundamentalen Inferenzschritte nutzen wir zur Extraktion inhärenter Bedingungen, denen Antwortmengen genügen müssen. Damit schaffen wir eine Grundlage für den Entwurf moderner Lösungsmethoden für ASP, die fortgeschrittene, ursprünglich für SAT konzipierte, Suchtechniken mit einschließen und darüber hinaus einen transparenten Technologietransfer zwischen Verfahren zum Lösen von ASP und SAT erlauben. Neben der Suche nach einer Antwortmenge behandeln wir ihre Aufzählung, sowohl für gesamte Antwortmengen als auch für Projektionen auf ein Subvokabular. Hierfür entwickeln wir neuartige Methoden, die wiederholungsfreies Aufzählen in polynomiellem Platz ermöglichen, ohne die Suche zu beeinflussen und ggf. zu behindern, bevor Antwortmengen berechnet wurden.
35

Tupel von TVL als Datenstruktur für Boolesche Funktionen

Kempe, Galina 17 December 2009 (has links) (PDF)
In der vorliegenden Arbeit wird eine Datenstruktur zur Darstellung einer Booleschen Funktion "TVL-Tupel" präsentiert, die im Ergebnis einer Kombination der bekannten Datenstrukturen Entscheidungsgraph und Ternärvektorliste entsteht. Zuerst wird untersucht, wie lokale Phasenlisten sich als Elemente des Tupels eignen. Weiterhin wird die neue Dekompositionsart ("Tupel-Dekomposition") einer Boolesche Funktion in drei bzw. vier Teilfunktionen vorgestellt. Die Besonderheit der Teilfunktionen der Dekomposition besteht in ihrer Orthogonalität zueinander. Der Vorteil der Dekomposition von Funktionen mit einer hohen Anzahl von Konjunktionen besteht im geringeren Speicherplatzbedarf. Des weiteren wurden Algorithmen für Realisierung der Operationen entwickelt, die für eine Handhabung der zerlegten Funktionen erforderlich sind. Der detaillierte Vergleich der Berechnungszeiten für die Operationen erbringt den Nachweis, dass eine Verringerung des Zeitbedarfs als Folge der Zerlegung zu erwarten ist. Weiterhin bietet die Dekomposition einen Ansatz für den Entwurf von Algorithmen, die eine parallele Bearbeitung auf der Grundlage verteilter Rechentechnik zulassen. Die Erkenntnisse der Untersuchungen der Tupel-Dekomposition einschließlich der Verwendung der verteilen Verarbeitung können beispielsweise für die Suche der Variablenmengen der OR-Bi-Decomposition verwendet werden.
36

Safe Template Processing of XML Documents

Hartmann, Falk 20 September 2011 (has links) (PDF)
Templates sind eine etablierte Technik zur Zusammenführung verschiedener Datenquellen, welche zum Zwecke der Separation of Concerns getrennt gehalten werden sollen. Bei der Benutzung bestehender Ansätze tritt das Problem auf, dass zur Zeit der Erstellung eines Templates keine Aussagen über die Ergebnisse der Ausprägung des Templates gemacht werden können. Die Arbeit konzipiert einen alternativen Template-Ansatz und setzt diesen für XML-basierte Zielsprachen um. Die dadurch ermöglichte sichere templategestützte Verarbeitung von XML-Dokumenten zeichnet sich durch dadurch aus, das bereits zur Erstellungszeit eines Templates Aussagen über das Ergebnis der Template-Ausprägung getroffen werden können. Darüber hinaus adressiert der neue Ansatz weitere Fehlerquellen, welche typischerweise bei der Ausprägung von Templates auftreten.
37

On-Board Memory Extension on Reconfigurable Integrated Circuits using External DDR3 Memory

Lodaya, Bhaveen 08 February 2018 (has links) (PDF)
User-programmable, integrated circuits (ICs) e.g. Field Programmable Gate Arrays (FPGAs) are increasingly popular for embedded, high-performance data exploitation. They combine the parallelization capability and processing power of application specific integrated circuits (ASICs) with the exibility, scalability and adaptability of software-based processing solutions. FPGAs provide powerful processing resources due to an optimal adaptation to the target application and a well-balanced ratio of performance, efficiency and parallelization. One drawback of FPGA-based data exploitation is the limited memory capacity of reconfigurable integrated circuits. Large-scale Digital Signal Processor (DSP) FPGAs provide approximately 4MB on-board random access memory (RAM) which is not sufficient to buffer the broadband sensor and result data. Hence, additional external memory is connected to the FPGA to increase on-board storage capacities. External memory devices like double data rate three synchronous dynamic random access memories (DDR3-SDRAM) provide very fast and wide bandwidth interfaces that represent a bottleneck when used in highly parallelized processing architectures. Independent processing modules are demanding concurrent read and write access. Within the master thesis, a concept for the integration of an external DDR3- SDRAM into an FPGA-based parallelized processing architecture is developed and implemented. The solution realizes time division multiple access (TDMA) to the external memory and virtual, low-latency memory extension to the on-board buffer capabilities. The integration of the external RAM does not change the way how on-board buffers are used (control, data-fow).
38

New determinants of olfactory habituation

Sinding, Charlotte, Valadier, François, Al-Hassani, Viviana, Feron, Gilles, Tromelin, Anne, Kontaris, Ioannis, Hummel, Thomas 27 July 2017 (has links) (PDF)
Habituation is a filter that optimizes the processing of information by our brain in all sensory modalities. It results in an unconscious reduced responsiveness to continuous or repetitive stimulation. In olfaction, the main question is whether habituation works the same way for any odorant or whether we habituate differently to each odorant? In particular, whether chemical, physical or perceptual cues can limit or increase habituation. To test this, the odour intensity of 32 odorants differing in physicochemical characteristics was rated by 58 participants continuously during 120s. Each odorant was delivered at a constant concentration. Results showed odorants differed significantly in habituation, highlighting the multifactoriality of habituation. Additionally habituation was predicted from 15 physico-chemical and perceptual characteristics of the odorants. The analysis highlighted the importance of trigeminality which is highly correlated to intensity and pleasantness. The vapour pressure, the molecular weight, the Odor Activity Value (OAV) and the number of double bonds mostly contributed to the modulation of habituation. Moreover, length of the carbon chain, number of conformers and hydrophobicity contributed to a lesser extent to the modulation of habituation. These results highlight new principles involved in the fundamental process of habituation, notably trigeminality and the physicochemical characteristics associated.
39

Safe Template Processing of XML Documents

Hartmann, Falk 01 July 2011 (has links)
Templates sind eine etablierte Technik zur Zusammenführung verschiedener Datenquellen, welche zum Zwecke der Separation of Concerns getrennt gehalten werden sollen. Bei der Benutzung bestehender Ansätze tritt das Problem auf, dass zur Zeit der Erstellung eines Templates keine Aussagen über die Ergebnisse der Ausprägung des Templates gemacht werden können. Die Arbeit konzipiert einen alternativen Template-Ansatz und setzt diesen für XML-basierte Zielsprachen um. Die dadurch ermöglichte sichere templategestützte Verarbeitung von XML-Dokumenten zeichnet sich durch dadurch aus, das bereits zur Erstellungszeit eines Templates Aussagen über das Ergebnis der Template-Ausprägung getroffen werden können. Darüber hinaus adressiert der neue Ansatz weitere Fehlerquellen, welche typischerweise bei der Ausprägung von Templates auftreten.
40

CROSS-DB: a feature-extended multidimensional data model for statistical and scientific databases

Lehner, Wolfgang, Ruf, Thomas, Teschke, Michael 13 September 2022 (has links)
Statistical and scientific computing applications exhibit characteristics that are fundamentally different from classical database system application domains. The CROSS-DB data model presented in this paper is optimized for use in such applications by providing advanced data modelling methods and application-oriented query facilities, thus providing a framework for optimized data management procedures. CROSS-DB (which stands for Classification-oriented, Redundancy-based Optimization of Statistical and Scientific DataBases) is based on a multidimensional data view. The model differs from other approaches by o~ering two complementary rnechanisrnsfor structuring qualifying information, classification and feature description. Using these mechanisms results in a normalized, low-dimensional database schema which ensures both, modelling uniqueness and understandability while providing enhanced modelling flexibility.

Page generated in 0.1047 seconds