• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 129
  • 38
  • 33
  • 16
  • 13
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 349
  • 349
  • 227
  • 96
  • 79
  • 65
  • 61
  • 61
  • 54
  • 52
  • 49
  • 38
  • 37
  • 36
  • 35
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Analysis And Classification Of Spelling Paradigm Eeg Data And An Attempt For Optimization Of Channels Used

Yildirim, Asil 01 December 2010 (has links) (PDF)
Brain Computer Interfaces (BCIs) are systems developed in order to control devices by using only brain signals. In BCI systems, different mental activities to be performed by the users are associated with different actions on the device to be controlled. Spelling Paradigm is a BCI application which aims to construct the words by finding letters using P300 signals recorded via channel electrodes attached to the diverse points of the scalp. Reducing the letter detection error rates and increasing the speed of letter detection are crucial for Spelling Paradigm. By this way, disabled people can express their needs more easily using this application. In this thesis, two different methods, Support Vector Machine (SVM) and AdaBoost, are used for classification in the analysis. Classification and Regression Trees is used as the weak classifier of the AdaBoost. Time-frequency domain characteristics of P300 evoked potentials are analyzed in addition to time domain characteristics. Wigner-Ville Distribution is used for transforming time domain signals into time-frequency domain. It is observed that classification results are better in time domain. Furthermore, optimum subset of channels that models P300 signals with minimum error rate is searched. A method that uses both SVM and AdaBoost is proposed to select channels. 12 channels are selected in time domain with this method. Also, effect of dimension reduction is analyzed using Principal Component Analysis (PCA) and AdaBoost methods.
252

Towards interoperable and knowledge-based electronic health records using archetype methodology /

Chen, Rong, January 2009 (has links)
Diss. (sammanfattning) Linköping : Linköpings universitet, 2009. / Härtill 5 uppsatser.
253

Konzepte der Anwendungsentwicklung für und mit Multi-Touch

Freitag, Georg 16 March 2015 (has links) (PDF)
Mit dem Aufkommen natürlicher Benutzerschnittstellen zum Erreichen einer möglichst intuitiven Interaktion mit Computern wird auch über die Bedeutung der Gestaltungsaspekte LOOK und FEEL der darzustellenden Benutzeroberflächen neu verhandelt. Dies bedeutet für den Entwurf und die Entwicklung neuer Anwendungen, die bisherigen Vorgehensmodelle, Werkzeuge und Interaktionen zu überdenken und hinsichtlich der neuen Herausforderungen zu überprüfen. Als Leitmotiv der vorliegenden Arbeit dient der Ansatz: Ähnliches wird durch Ähnliches entwickelt, der sich am Beispielfall der Multi-Touch-Technologie konkret mit dem Forschungsraum der natürlichen Benutzerschnittstellen auseinandersetzt. Anhand der drei aufeinander aufbauenden Aspekte Modell, Werkzeug und Interaktion wird die besondere Stellung des FEELs betont und diskutiert. Die Arbeit konzentriert sich dabei besonders auf die Phase des Prototypings, in der neue Ideen entworfen und später (weiter-) entwickelt werden. Die Arbeit nähert sich dabei dem Thema schrittweise an, vom Abstrakten hin zum Konkreten. Hierzu wird zunächst ein neu entwickeltes Vorgehensmodell vorgestellt, um auf die Besonderheiten des FEELs im Entwicklungsprozess natürlicher Benutzerschnittstellen eingehen zu können. Das Modell verbindet Ansätze agiler und klassischer Modelle, wobei die Iteration und die Entwicklung von Prototypen eine besondere Stellung einnehmen. Ausgehend vom neu vorgestellten Modell werden zwei Einsatzbereiche abgeleitet, die entsprechend des Leitmotivs der Arbeit mit zu konzipierenden Multi-Touch-Werkzeugen besetzt werden. Dabei wird besonderer Wert darauf gelegt, den Entwickler in die Rolle des Nutzers zu versetzen, indem die beiden Aktivitäten Umsetzung und Evaluation am selben Gerät stattfinden und fließend ineinander übergehen. Während das für den Entwurf erstellte Konzept TIQUID die Nachbildung von Verhalten und Abhängigkeiten mittels gestengesteuerter Animation ermöglicht, stellt das Konzept LIQUID dem Entwickler eine visuelle Programmiersprache zur Umsetzung des FEELs zur Verfügung. Die Bewertungen der beiden Werkzeuge erfolgte durch drei unabhängige Anwendungstests, welche die Einordnung im Entwicklungsprozess, den Vergleich mit alternativen Werkzeugen sowie die bevorzugte Interaktionsart untersuchten. Die Resultate der Evaluationen zeigen, dass die vorab gesteckten Zielstellungen einer einfachen Verwendung, der schnellen und umgehenden Darstellung des FEELs sowie die gute Bedienbarkeit mittels der Multi-Touch-Eingabe erfüllt und übertroffen werden konnten. Den Abschluss der Arbeit bildet die konkrete Auseinandersetzung mit der Multi-Touch-Interaktion, die für Entwickler und Nutzer die Schnittstelle zum FEEL der Anwendung ist. Die bisher auf die mittels Berührung beschränkte Interaktion mit dem Multi-Touch-Gerät wird im letzten Abschnitt der Arbeit mit Hilfe eines neuartigen Ansatzes um einen räumlichen Aspekt erweitert. Aus dieser Position heraus ergeben sich weitere Sichtweisen, die einen neuen Aspekt zum Verständnis von nutzerorientierten Aktivitäten beitragen. Diese, anhand einer technischen Umsetzung erprobte Vision neuer Interaktionskonzepte dient als Ansporn und Ausgangspunkt zur zukünftigen Erweiterung des zuvor entwickelten Vorgehensmodells und der konzipierten Werkzeuge. Der mit dieser Arbeit erreichte Stand bietet einen gesicherten Ausgangspunkt für die weitere Untersuchung des Fachgebietes natürlicher Benutzerschnittstellen. Neben zahlreichen Ansätzen, die zur vertiefenden Erforschung motivieren, bietet die Arbeit mit den sehr konkreten Umsetzungen TIQUID und LIQUID sowie der Erweiterung des Interaktionsraumes Schnittstellen an, um die erzielten Forschungsergebnisse in die Praxis zu übertragen. Eine fortführende Untersuchung des Forschungsraumes mit Hilfe alternativer Ansätze ist dabei ebenso denkbar wie der Einsatz einer zu Multi-Touch alternativen Eingabetechnologie.
254

Virtualaus objekto valdymo sistemos smegenų kompiuterio sąsajos tyrimas / Virtual object management system of the brain computer interface research

Šidlauskas, Kęstutis 26 August 2013 (has links)
Šiame darbe nagrinėjama smegenų – kompiuterio sąsajos (BCI) sistema. Taip pat dirbtinių neuroninių tinklų ir atsitiktinių miškų klasifikavimo algoritmų panaudojimas smegenų – kompiuterio sąsajos sistemose. Realizuotas smegenų – kompiuterio sąsajos prototipas. Šis prototipas leidžia valdyti kompiuterio pelę, naudojant elektroencefalogramos arba elektromiogramos skaitytuvą. Atliktas kompiuterio pelės valdymo, naudojant smegenų – kompiuterio sistemą, tyrimas, vykdant praktines užduotis. Rezultatai palyginti su įprastu būdu valdoma kompiuterio pele. Tyrime naudotas OCZ NIA elektroencefalogramos ir elektromiogramos signalų skaitytuvas. Palyginta kuris iš naudotų klasifikavimo algoritmų pasiekia didžiausią tikslumą. Padarytos išvados apie smegenų – kompiuterio sąsajos sistemos prototipo privalumus ir trūkumus. / This work analyzes the brain – computer interface (BCI) system. Also artificial neural networks and random forest classification algorithms are used in brain – computer interface systems. A prototype of the brain – computer interface was developed. The prototype lets you control your mouse using electromyogram or electroencephalogram reader. In this work, the practical tasks carried out mouse control study using a brain – computer interface. The results were compared with the normal – controlled computer mouse. The study used OCZ NIA electroencephalogram and electromyogram signal reader. Compared which of the used algorithms achieves the highest accuracy. The conclusions were drawn about the BCI prototype.
255

Visualization of microprocessor execution in computer architecture courses: a case study at Kabul University

Hedayati, Mohammad Hadi January 2010 (has links)
<p>Computer architecture and assembly language programming microprocessor execution are basic courses taught in every computer science department. Generally, however, students have&nbsp / difficulties in mastering many of the concepts in the courses, particularly students whose first language is not English. In addition to their difficulties in understanding the purpose of given&nbsp / instructions, students struggle to mentally visualize the data movement, control and processing operations. To address this problem, this research proposed a graphical visualization approach&nbsp / and investigated the visual illustrations of such concepts and instruction execution by implementing a graphical visualization simulator as a teaching aid. The graphical simulator developed during the course of this research was applied in a computer architecture course at Kabul University, Afghanistan. Results obtained from student evaluation of the simulator show significant&nbsp / levels of success using the visual simulation teaching aid. The results showed that improved learning was achieved, suggesting that this approach could be useful in other computer science departments in Afghanistan, and elsewhere where similar challenges are experienced.</p>
256

Softwareframework zur universellen Methodenentwicklung für ein fMRT- BCI: Adaptive Paradigmen und Echtzeitdatenanalyse

Hellrung, Lydia 04 May 2015 (has links) (PDF)
Die funktionelle Magnetresonanztomographie (fMRT) ist ein nicht-invasives Bildgebungsverfahren, mit dem Veränderungen der neuronalen Aktivität im Gehirn mit hoher räumlicher Auflösung erfasst werden können. Mit der fMRT-Bildgebung bei neurowissenschaftlichen Experimenten wurden in den letzten beiden Jahrzehnten bedeutende Erkenntnisse für die Hirnforschung und Medizin gewonnen. Mit Hilfe dieser Methode werden neuronale Aktivitätsunterschiede bei der Durchführung einer bestimmten Aufgabe, z. B. dem Betrachten von Bildern mit emotionalen Inhalten, erfasst und die Daten unabhängig von der Messung zu einem späteren Zeitpunkt statistisch ausgewertet. Mit Hilfe des technischen Fortschritts im letzten Jahrzehnt ist es darüber hinaus möglich geworden, fMRT-Daten direkt zur Aufnahmezeit zu verarbeiten und auszuwerten. Dies wird als Echtzeit-fMRT bezeichnet, wenn die Datenverarbeitung schneller erfolgt als die Aufnahme eines Hirnvolumens (aktuell ca. zwei Sekunden). Die Ergebnisse der Echtzeitdatenverarbeitung können dann wiederum als Steuerbefehle für verschiedene Anwendungen verwendet werden. Daher wird dies auch als Hirn-Computer-Schnittstelle (Brain Computer Interface, BCI) mittels fMRT bezeichnet. Die Echtzeitverarbeitung von fMRT-Daten ermöglicht mehrere neue Anwendungen. Dazu gehören unter anderem die Qualitätskontrolle zur Laufzeit von fMRT-Experimenten, die schnelle funktionelle Lokalisierung von Hirnarealen entweder für neurowissenschaftliche Experimente oder intraoperativ, die Kontrolle des Experimentes mittels des Probandenverhaltens und insbesondere die Möglichkeit, sogenannte fMRT-Neurofeedbackexperimente durchzuführen. Bei diesen Experimenten lernen Probanden, die Aktivität von definierten Hirnarealen willentlich zu beeinflussen. Das Ziel dabei ist, Veränderungen in ihrem Verhalten zu generieren. Die Umsetzung eines BCIs mittels Echtzeit-fMRT ist eine interdisziplinäre Aufgabenstellung von MR-Physik, Informatik und Neurowissenschaften um das Verständnis des menschlichen Gehirns zu verbessern und neue Therapieansätze zu gestalten. Für diese hard- und softwaretechnisch anspruchsvolle Aufgabe gibt es einen enormen Bedarf an neuen Algorithmen zur Datenverarbeitung und Ansätzen zur verbesserten Datenakquise. In diesem Zusammenhang präsentiert die vorliegende Arbeit ein neues Softwareframework, das einerseits eine integrierte Gesamtlösung für die Echtzeit-fMRT darstellt und in seinen Teilmodulen eine abstrakte Basis für eine universelle Methodenentwicklung anbietet. Diese Arbeit beschreibt die grundlegenden abstrakten Konzepte und die Implementierung in ein neues Softwarepaket namens ’Brain Analysis in Real-Time’ (BART). Der Fokus der Arbeit liegt auf zwei Kernmodulen, die für universelle Gestaltung von sogenannten adaptiven Paradigmen und die Einbindung von Echtzeit-fMRT-Datenverarbeitungsalgorithmen konzipiert sind. Bei adaptiven Paradigmen werden zur Laufzeit eines Experiments physiologische Parameter (z. B. Herzrate) oder Verhaltensdaten (z. B. Augenbewegungen) simultan zu den fMRT-Daten erfasst und analysiert, um die Stimulation eines Probanden entsprechend zu adaptieren. Damit kann die Zuverlässigkeit der Daten, die zur Auswertung zur Verfügung stehen, optimiert werden. Die vorliegende Arbeit präsentiert das dazu notwendige abstrakte Grundkonzept des neuen Softwareframeworks und die ersten konkreten Implementierungen für die Datenverarbeitung und adaptive Paradigmen. Das Framework kann zukünftig mit neuen methodischen Ideen erweitert werden. Dazu gehören die Einbindung neuer Datenverarbeitungsalgorithmen, wie z. B. Konnektivitätsanalysen und die Adaption von Paradigmen durch weitere physiologische Parameter. Dabei ist insbesondere die Kombination mit EEG-Signalen von großem Interesse. Außerdem bietet das System eine universelle Grundlage für die zukünftige Arbeit an Neurofeedbackexperimenten. Das in dieser Arbeit entwickelte Framework bietet im Vergleich zu bisher vorgestellten Lösungsansätzen ein Ein-Computer-Setup mit einem erweiterbaren Methodenspektrum. Damit wird die Komplexität des notwendigen technischen Setups reduziert und ist nicht auf einzelne Anwendungsfälle beschränkt. Es können flexibel neue Datenverarbeitungsalgorithmen für ein fMRT-BCI eingebunden und vielgestaltige Anwendungsfälle von adaptiven Paradigmen konzipiert werden. Eine Abstraktion der Stimulation und die Kombination mit der Echtzeitauswertung ist bisher einzigartig für neurowissenschaftliche Experimente. Zusätzlich zu den theoretischen und technischen Erläuterungen werden im empirischen Teil der vorliegenden Arbeit neurowissenschaftliche Experimente, die mit dem Softwarepaket BART durchgeführt wurden, vorgestellt und deren Ergebnisse erläutert. Dabei wird die Zuverlässigkeit und Funktionsweise der Implementierung in allen Teilschritten der Datenerfassung und -verarbeitung validiert. Die Ergebnisse verifizieren die Implementierung einer parallelisierten fMRT-Analyse.Weiterhin wird eine erste konkrete Umsetzung für ein adaptives Paradigma vorgestellt, bei dem zur Laufzeit die Blickrichtung der Probanden berücksichtigt wird. Die Ergebnisse zeigen die signifikanten Verbesserungen der Reliabilität der fMRT-Ergebnisse aufgrund der optimierten Datenqualität durch die Adaption des Paradigmas. Zusammengefasst umfasst die vorliegende Arbeit eine interdisziplinäre Aufgabe, die sich aus der Verarbeitung von MR-Daten in Echtzeit, einem neuen abstraktes Softwarekonzept für Entwicklung neuer methodischer Ansätze und der Durchführung von neurowissenschaftlichen Experimenten zusammensetzt.
257

Near-infrared Spectroscopy as an Access Channel: Prefrontal Cortex Inhibition During an Auditory Go-no-go Task

Ko, Linda 24 February 2009 (has links)
The purpose of this thesis was to explore the potential of near-infrared spectroscopy (NIRS) as an access channel by establishing reliable signal detection to verify the existence of signal differences associated with changes in activity. This thesis focused on using NIRS to measure brain activity from the prefrontal cortex during an auditory Go-No-Go task. A singular spectrum analysis change-point detection algorithm was applied to identify transition points where the NIRS signal properties varied from previous data points in the signal, indicating a change in brain activity. With this algorithm, latency values for change-points detected ranged from 6.44 s to 9.34 s. The averaged positive predictive values over all runs were modest (from 49.41% to 67.73%), with the corresponding negative predictive values being generally higher (48.66% to 78.80%). However, positive and negative predictive values up to 97.22% and 95.14%, respectively, were achieved for individual runs. No hemispheric differences were found.
258

Near-infrared Spectroscopy as an Access Channel: Prefrontal Cortex Inhibition During an Auditory Go-no-go Task

Ko, Linda 24 February 2009 (has links)
The purpose of this thesis was to explore the potential of near-infrared spectroscopy (NIRS) as an access channel by establishing reliable signal detection to verify the existence of signal differences associated with changes in activity. This thesis focused on using NIRS to measure brain activity from the prefrontal cortex during an auditory Go-No-Go task. A singular spectrum analysis change-point detection algorithm was applied to identify transition points where the NIRS signal properties varied from previous data points in the signal, indicating a change in brain activity. With this algorithm, latency values for change-points detected ranged from 6.44 s to 9.34 s. The averaged positive predictive values over all runs were modest (from 49.41% to 67.73%), with the corresponding negative predictive values being generally higher (48.66% to 78.80%). However, positive and negative predictive values up to 97.22% and 95.14%, respectively, were achieved for individual runs. No hemispheric differences were found.
259

Virtual patients for education, assessment and research : a web-based approach /

Zary, Nabil, January 2007 (has links)
Diss. (sammanfattning) Stockholm : Karolinska institutet, 2007. / Härtill 4 uppsatser.
260

Associations between working techniques, physical loads and psychosocial loads during VDU-work /

Lindegård Andersson, Agneta. January 1900 (has links) (PDF)
Lic. (sammanfattning) Göteborg : Univ., 2004. / Härtill 2 uppsatser.

Page generated in 0.0674 seconds