• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 25
  • 12
  • 7
  • 6
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 166
  • 166
  • 166
  • 56
  • 47
  • 47
  • 37
  • 32
  • 29
  • 25
  • 25
  • 23
  • 23
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Understanding & Improving Mental-Imagery Based Brain-Computer Interface (Mi-Bci) User-Training : towards A New Generation Of Reliable, Efficient & Accessible Brain- Computer Interfaces / Comprendre & Améliorer l’Entraînement des Utilisateurs d’Interfaces Cerveau-Ordinateur basées sur l’Imagerie Mentale : vers une Nouvelle Gérération d’Interfaces Cerveau-Ordinateur Fiables, Efficientes et Accessibles

Jeunet, Camille 02 December 2016 (has links)
Les Interfaces Cerveau-Ordinateur basées sur l’Imagerie Mentale (IM-ICO) permettent auxutilisateurs d’interagir uniquement via leur activité cérébrale, grâce à la réalisation de tâchesd’imagerie mentale. Cette thèse se veut contribuer à l’amélioration des IM-ICO dans le but deles rendre plus utilisables. Les IM-ICO sont extrêmement prometteuses dans de nombreuxdomaines allant de la rééducation post-AVC aux jeux-vidéo. Malheureusement, leurdéveloppement est freiné par le fait que 15 à 30% des utilisateurs seraient incapables de lescontrôler. Nombre de travaux se sont focalisés sur l’amélioration des algorithmes de traitementdu signal. Par contre, l’impact de l’entraînement des utilisateurs sur leur performance estsouvent négligé. Contrôler une IM-ICO nécessite l’acquisition de compétences et donc unentraînement approprié. Or, malgré le fait qu’il ait été suggéré que les protocolesd’entraînement actuels sont théoriquement inappropriés, peu d’efforts sont mis en oeuvre pourles améliorer. Notre principal objectif est de comprendre et améliorer l’apprentissage des IMICO.Ainsi, nous cherchons d’abord à acquérir une meilleure compréhension des processussous-tendant cet apprentissage avant de proposer une amélioration des protocolesd’entraînement afin qu’ils prennent en compte les facteurs cognitifs et psychologiquespertinents et qu’ils respectent les principes issus de l’ingénierie pédagogique. Nous avonsainsi défini 3 axes de recherche visant à investiguer l’impact (1) de facteurs cognitifs, (2) de lapersonnalité et (3) du feedback sur la performance. Pour chacun de ces axes, nous décrivonsd’abord les études nous ayant permis de déterminer les facteurs impactant la performance ;nous présentons ensuite le design et la validation de nouvelles approches d’entraînementavant de proposer des perspectives de travaux futurs. Enfin, nous proposons une solution quipermettrait d’étudier l’apprentissage de manière mutli-factorielle et dynamique : un systèmetutoriel intelligent. / Mental-imagery based brain-computer interfaces (MI-BCIs) enable users to interact with theirenvironment using their brain-activity alone, by performing mental-imagery tasks. This thesisaims to contribute to the improvement of MI-BCIs in order to render them more usable. MIBCIsare bringing innovative prospects in many fields, ranging from stroke rehabilitation tovideo games. Unfortunately, most of the promising MI-BCI based applications are not yetavailable on the public market since an estimated 15 to 30% of users seem unable to controlthem. A lot of research has focused on the improvement of signal processing algorithms.However, the potential role of user training in MI-BCI performance seems to be mostlyneglected. Controlling an MI-BCI requires the acquisition of specific skills, and thus anappropriate training procedure. Yet, although current training protocols have been shown tobe theoretically inappropriate, very little research is done towards their improvement. Our mainobject is to understand and improve MI-BCI user-training. Thus, first we aim to acquire a betterunderstanding of the processes underlying MI-BCI user-training. Next, based on thisunderstanding, we aim at improving MI-BCI user-training so that it takes into account therelevant psychological and cognitive factors and complies with the principles of instructionaldesign. Therefore, we defined 3 research axes which consisted in investigating the impact of(1) cognitive factors, (2) personality and (3) feedback on MI-BCI performance. For each axis,we first describe the studies that enabled us to determine which factors impact MI-BCIperformance; second, we describe the design and validation of new training approaches; thethird part is dedicated to future work. Finally, we propose a solution that could enable theinvestigation of MI-BCI user-training using a multifactorial and dynamic approach: an IntelligentTutoring System.
152

Expectation-Maximization (EM) Algorithm Based Kalman Smoother For ERD/ERS Brain-Computer Interface (BCI)

Khan, Md. Emtiyaz 06 1900 (has links) (PDF)
No description available.
153

Ovládání invalidního vozíku pomocí klasifikace EEG signálu / Wheelchair control using EEG signal classification

Malý, Lukáš January 2015 (has links)
Tato diplomová práce představuje koncept elektrického invalidního vozíku ovládaného lidskou myslí. Tento koncept je určen pro osoby, které elektrický invalidní vozík nemohou ovládat klasickými způsoby, jakým je například joystick. V práci jsou popsány čtyři hlavní komponenty konceptu: elektroencefalograf, brain-computer interface (rozhraní mozek-počítač), systém sdílené kontroly a samotný elektrický invalidní vozík. V textu je představena použitá metodologie a výsledky provedených experimentů. V závěru jsou nastíněna doporučení pro budoucí vývoj.
154

Redefining and Adapting Feedback for Mental-Imagery based Brain-Computer Interface User Training to the Learners’ Traits and States / Redéfinition et adaptation du feedback donné à l’utilisateur lors de l’entraînement à l’utilisation des interfaces cerveau-ordinateur en fonction du profil de l’apprenant

Pillette, Léa 16 December 2019 (has links)
Les interfaces cerveau-ordinateur basées sur l’imagerie mentale (MI-BCIs) offrent de nouvelles possibilités d’interaction avec les technologies numériques, telles que les neuroprothèses ou les jeux vidéo, uniquement en effectuant des tâches d’imagerie mentale, telles qu’imaginer d’un objet en rotation. La reconnaissance de la commande envoyée au système par l’utilisateur repose sur l’analyse de l’activité cérébrale de ce dernier. Les utilisateurs doivent apprendre à produire des patterns d’activité cérébrale reconnaissables par le système afin de contrôler les MI-BCIs. Cependant, les protocoles de formation actuels ne permettent pas à 10 à 30 % des personnes d’acquérir les compétences nécessaires pour utiliser les MI-BCIs. Ce manque de fiabilité des BCIs limite le développement de la technologie en dehors des laboratoires de recherche. Cette thèse a pour objectif d’examiner comment le feedback fourni tout au longde la formation peut être amélioré et adapté aux traits et aux états des utilisateurs. Dans un premier temps, nous examinons le rôle qui est actuellement donné au feedback dans les applications et les protocoles d’entraînement à l’utilisation des MI-BCIs. Nous analysons également les théories et les contributions expérimentales discutant de son rôle et de son utilité dans le processus d’apprentissage de contrôle de correlats neurophysiologiques. Ensuite, nous fournissons une analyse de l’utilité de différents feedback pour l’entraînement à l’utilisation des MI-BCIs. Nous nous concentrons sur trois caractéristiques principales du feedback, i.e., son contenu, sa modalité de présentation et enfin sa dimension temporelle. Pour chacune de ces caractéristiques, nous avons examiné la littérature afin d’évaluer quels types de feedback ont été testés et quel impact ils semblent avoir sur l’entraînement. Nous avons également analysé quels traits ou états des apprenants influaient sur les résultats de cet entraînement. En nous basant sur ces analyses de la littérature, nous avons émis l’hypothèse que différentes caractéristiques du feedback pourraient être exploitées afin d’améliorer l’entraînement en fonction des traits ou états des apprenants. Nous rapportons les résultats de nos contributions expérimentales pour chacune des caractéristiques du feedback. Enfin, nous présentons différentes recommandations et défis concernant chaque caractéristique du feedback. Des solutions potentielles sont proposées pour à l’avenir surmonter ces défis et répondre à ces recommandations. / Mental-Imagery based Brain-Computer Interfaces (MI-BCIs) present new opportunities to interact with digital technologies, such as neuroprostheses or videogames, only by performing mental imagery tasks, such as imagining an object rotating. The recognition of the command for the system is based on the analysis of the brain activity of the user. The users must learn to produce brain activity patterns that are recognizable by the system in order to control BCIs. However, current training protocols do not enable 10 to 30% of persons to acquire the skills required to use BCIs. The lack of robustness of BCIs limit the development of the technology outside of research laboratories. This thesis aims at investigating how the feedback provided throughout the training can be improved and adapted to the traits and states of the users. First, we investigate the role that feedback is currently given in MI-BCI applications and training protocols. We also analyse the theories and experimental contributions discussing its role and usefulness. Then, we review the different feedback that have been used to train MI-BCI users. We focus on three main characteristics of feedback, i.e., its content, its modality of presentation and finally its timing. For each of these characteristics, we reviewed the literature to assess which types of feedback have been tested and what is their impact on the training. We also analysed which traits or states of the learners were shown to influence BCI training outcome. Based on these reviews of the literature, we hypothesised that different characteristics of feedback could be leveraged to improve the training of the learners depending on either traits or states. We reported the results of our experimental contributions for each of the characteristics of feedback. Finally, we presented different recommendations and challenges regarding each characteristic of feedback. Potential solutions were proposed to meet these recommendations in the future.
155

Softwareframework zur universellen Methodenentwicklung für ein fMRT- BCI: Adaptive Paradigmen und Echtzeitdatenanalyse: Softwareframework zur universellen Methodenentwicklung für ein fMRT- BCI: Adaptive Paradigmen und Echtzeitdatenanalyse

Hellrung, Lydia 28 January 2015 (has links)
Die funktionelle Magnetresonanztomographie (fMRT) ist ein nicht-invasives Bildgebungsverfahren, mit dem Veränderungen der neuronalen Aktivität im Gehirn mit hoher räumlicher Auflösung erfasst werden können. Mit der fMRT-Bildgebung bei neurowissenschaftlichen Experimenten wurden in den letzten beiden Jahrzehnten bedeutende Erkenntnisse für die Hirnforschung und Medizin gewonnen. Mit Hilfe dieser Methode werden neuronale Aktivitätsunterschiede bei der Durchführung einer bestimmten Aufgabe, z. B. dem Betrachten von Bildern mit emotionalen Inhalten, erfasst und die Daten unabhängig von der Messung zu einem späteren Zeitpunkt statistisch ausgewertet. Mit Hilfe des technischen Fortschritts im letzten Jahrzehnt ist es darüber hinaus möglich geworden, fMRT-Daten direkt zur Aufnahmezeit zu verarbeiten und auszuwerten. Dies wird als Echtzeit-fMRT bezeichnet, wenn die Datenverarbeitung schneller erfolgt als die Aufnahme eines Hirnvolumens (aktuell ca. zwei Sekunden). Die Ergebnisse der Echtzeitdatenverarbeitung können dann wiederum als Steuerbefehle für verschiedene Anwendungen verwendet werden. Daher wird dies auch als Hirn-Computer-Schnittstelle (Brain Computer Interface, BCI) mittels fMRT bezeichnet. Die Echtzeitverarbeitung von fMRT-Daten ermöglicht mehrere neue Anwendungen. Dazu gehören unter anderem die Qualitätskontrolle zur Laufzeit von fMRT-Experimenten, die schnelle funktionelle Lokalisierung von Hirnarealen entweder für neurowissenschaftliche Experimente oder intraoperativ, die Kontrolle des Experimentes mittels des Probandenverhaltens und insbesondere die Möglichkeit, sogenannte fMRT-Neurofeedbackexperimente durchzuführen. Bei diesen Experimenten lernen Probanden, die Aktivität von definierten Hirnarealen willentlich zu beeinflussen. Das Ziel dabei ist, Veränderungen in ihrem Verhalten zu generieren. Die Umsetzung eines BCIs mittels Echtzeit-fMRT ist eine interdisziplinäre Aufgabenstellung von MR-Physik, Informatik und Neurowissenschaften um das Verständnis des menschlichen Gehirns zu verbessern und neue Therapieansätze zu gestalten. Für diese hard- und softwaretechnisch anspruchsvolle Aufgabe gibt es einen enormen Bedarf an neuen Algorithmen zur Datenverarbeitung und Ansätzen zur verbesserten Datenakquise. In diesem Zusammenhang präsentiert die vorliegende Arbeit ein neues Softwareframework, das einerseits eine integrierte Gesamtlösung für die Echtzeit-fMRT darstellt und in seinen Teilmodulen eine abstrakte Basis für eine universelle Methodenentwicklung anbietet. Diese Arbeit beschreibt die grundlegenden abstrakten Konzepte und die Implementierung in ein neues Softwarepaket namens ’Brain Analysis in Real-Time’ (BART). Der Fokus der Arbeit liegt auf zwei Kernmodulen, die für universelle Gestaltung von sogenannten adaptiven Paradigmen und die Einbindung von Echtzeit-fMRT-Datenverarbeitungsalgorithmen konzipiert sind. Bei adaptiven Paradigmen werden zur Laufzeit eines Experiments physiologische Parameter (z. B. Herzrate) oder Verhaltensdaten (z. B. Augenbewegungen) simultan zu den fMRT-Daten erfasst und analysiert, um die Stimulation eines Probanden entsprechend zu adaptieren. Damit kann die Zuverlässigkeit der Daten, die zur Auswertung zur Verfügung stehen, optimiert werden. Die vorliegende Arbeit präsentiert das dazu notwendige abstrakte Grundkonzept des neuen Softwareframeworks und die ersten konkreten Implementierungen für die Datenverarbeitung und adaptive Paradigmen. Das Framework kann zukünftig mit neuen methodischen Ideen erweitert werden. Dazu gehören die Einbindung neuer Datenverarbeitungsalgorithmen, wie z. B. Konnektivitätsanalysen und die Adaption von Paradigmen durch weitere physiologische Parameter. Dabei ist insbesondere die Kombination mit EEG-Signalen von großem Interesse. Außerdem bietet das System eine universelle Grundlage für die zukünftige Arbeit an Neurofeedbackexperimenten. Das in dieser Arbeit entwickelte Framework bietet im Vergleich zu bisher vorgestellten Lösungsansätzen ein Ein-Computer-Setup mit einem erweiterbaren Methodenspektrum. Damit wird die Komplexität des notwendigen technischen Setups reduziert und ist nicht auf einzelne Anwendungsfälle beschränkt. Es können flexibel neue Datenverarbeitungsalgorithmen für ein fMRT-BCI eingebunden und vielgestaltige Anwendungsfälle von adaptiven Paradigmen konzipiert werden. Eine Abstraktion der Stimulation und die Kombination mit der Echtzeitauswertung ist bisher einzigartig für neurowissenschaftliche Experimente. Zusätzlich zu den theoretischen und technischen Erläuterungen werden im empirischen Teil der vorliegenden Arbeit neurowissenschaftliche Experimente, die mit dem Softwarepaket BART durchgeführt wurden, vorgestellt und deren Ergebnisse erläutert. Dabei wird die Zuverlässigkeit und Funktionsweise der Implementierung in allen Teilschritten der Datenerfassung und -verarbeitung validiert. Die Ergebnisse verifizieren die Implementierung einer parallelisierten fMRT-Analyse.Weiterhin wird eine erste konkrete Umsetzung für ein adaptives Paradigma vorgestellt, bei dem zur Laufzeit die Blickrichtung der Probanden berücksichtigt wird. Die Ergebnisse zeigen die signifikanten Verbesserungen der Reliabilität der fMRT-Ergebnisse aufgrund der optimierten Datenqualität durch die Adaption des Paradigmas. Zusammengefasst umfasst die vorliegende Arbeit eine interdisziplinäre Aufgabe, die sich aus der Verarbeitung von MR-Daten in Echtzeit, einem neuen abstraktes Softwarekonzept für Entwicklung neuer methodischer Ansätze und der Durchführung von neurowissenschaftlichen Experimenten zusammensetzt.
156

Reality-based brain-computer interaction

Sjölie, Daniel January 2011 (has links)
Recent developments within human-computer interaction (HCI) and cognitive neuroscience have come together to motivate and enable a framework for HCI with a solid basis in brain function and human reality. Human cognition is increasingly considered to be critically related to the development of human capabilities in the everyday environment (reality). At the same time, increasingly powerful computers continuously make the development of complex applications with realistic interaction easier. Advances in cognitive neuroscience and brain-computer interfaces (BCIs) make it possible to use an understanding of how the brain works in realistic environments to interpret brain measurements and adapt interaction in computer-generated virtual environments (VEs). Adaptive and realistic computer applications have great potential for training, rehabilitation and diagnosis. Realistic interaction environments are important to facilitate transfer to everyday reality and to gain ecological validity. The ability to adapt the interaction is very valuable as any training or learning must be done at the right level in order to optimize the development of skills. The use of brain measurements as input to computer applications makes it possible to get direct information about how the brain reacts to aspects of a VE. This provides a basis for the development of realistic and adaptive computer applications that target cognitive skills and abilities. Theories of cognition and brain function provide a basis for how such cognitive skills develop, through internalization of interaction with the current environment. By considering how internalization leads to the neural implementation and continuous adaptation of mental simulations in the brain it is possible to relate designed phenomena in a VE to brain measurements. The work presented in this thesis contributes to a foundation for the development of reality-based brain-computer interaction (RBBCI) applications by combining VR with emerging BCI methods based on an understanding of the human brain in human reality. RBBCI applications can be designed and developed to interact directly with the brain by interpreting brain measurements as responses to deliberate manipulations of a computer-generated reality. As the application adapts to these responses an interaction loop is created that excludes the conscious user. The computer interacts with the brain, through (the virtual) reality. / Den senaste tidens utveckling inom människa-dator-interaktion (MDI) och kognitiv neurovetenskap har samverkat till att motivera och möjliggöra ett ramverk för MDI med en stabil grund i hjärnfunktion och människors verklighet. Mänsklig kognition anses till allt högre grad vara kritisk beroende av hur människors förmågor utvecklas i den vardagliga miljön (verkligheten). Samtidigt har ständigt kraftfullare datorer gjort det allt lättare att utveckla komplexa applikationer med realistisk interaktion. Framsteg inom kognitiv neurovetenskap och hjärna-dator-gränssnitt (brain-computer interface, BCI) gör det möjligt att dra nytta av en förståelse av hur hjärnan fungerar i realistiska miljöer för att tolka hjärnmätningar och anpassa interaktion i datorgenererade virtuella miljöer (virtual environment, VE). Adaptiva och realistiska datorapplikationer har stor potential för träning, rehabilitering och diagnostik. Realistiska interaktionsmiljöer är viktiga för att underlätta överföring (transfer) till vardagen och för att nå ekologisk validitet. Möjligheten att anpassa interaktion är mycket värdefull eftersom träning och lärande måste ske på rätt nivå för att optimera effekten. Genom att använda sig av hjärnmätningar som indata till datorprogram blir det möjligt att få direkt information om hur hjärnan reagerar på olika aspekter av en VE. Detta ger en grund för utveckling av realistiska och adaptiva datorprogram som riktar in sig på kognitiva färdigheter och förmågor. Teorier om kognition och hjärnan ger en bas för att förstå hur sådana kognitiva färdigheter utvecklas genom att interaktion med omgivningen internaliseras. Genom att ta hänsyn till hur internalisering leder till ständig utveckling av mentala simuleringar i hjärnan är det möjligt att relatera designade fenomen i en VE till hjärnmätningar. Det arbete som presenteras i denna avhandling lägger en grund för utveckling av verklighets-baserad hjärna-dator-interaktions (reality-based brain-computer interaction, RBBCI) applikationer genom att kombinera VR med nya BCI metoder, baserat på en förståelse av den mänskliga hjärnan i människans verklighet. RBBCI-program kan designas och utvecklas för att interagera direkt med hjärnan genom att tolka hjärnmätningar som respons på avsiktliga manipulationer av den datorgenererade verkligheten. När programmet anpassar sig till denna respons uppstår en interaktionsloop som exkluderar den medvetna användaren. Datorn interagerar med hjärnan, genom (den virtuella) verkligheten.
157

Creation of a vocal emotional profile (VEP) and measurement tools

Aghajani, Mahsa 10 1900 (has links)
La parole est le moyen de communication dominant chez les humains. Les signaux vocaux véhiculent à la fois des informations et des émotions du locuteur. La combinaison de ces informations aide le récepteur à mieux comprendre ce que veut dire le locuteur et diminue la probabilité de malentendus. Les robots et les ordinateurs peuvent également bénéficier de ce mode de communication. La capacité de reconnaître les émotions dans la voix des locuteurs aide les ordinateurs à mieux répondre aux besoins humains. Cette amélioration de la communication entre les humains et les ordinateurs conduit à une satisfaction accrue des utilisateurs. Dans cette étude, nous avons proposé plusieurs approches pour détecter les émotions de la parole ou de la voix par ordinateur. Nous avons étudié comment différentes techniques et classificateurs d'apprentissage automatique et d'apprentissage profond permettent de détecter les émotions de la parole. Les classificateurs sont entraînés avec des ensembles de données d'émotions audio couramment utilisés et bien connus, ainsi qu'un ensemble de données personnalisé. Cet ensemble de données personnalisé a été enregistré à partir de personnes non-acteurs et non-experts tout en essayant de déclencher des émotions associées. La raison de considérer cet ensemble de données important est de rendre le modèle compétent pour reconnaître les émotions chez les personnes qui ne sont pas aussi parfaites que les acteurs pour refléter leurs émotions dans leur voix. Les résultats de plusieurs classificateurs d'apprentissage automatique et d'apprentissage profond tout en reconnaissant sept émotions de colère, de bonheur, de tristesse, de neutralité, de surprise, de peur et de dégoût sont rapportés et analysés. Les modèles ont été évalués avec et sans prise en compte de l'ensemble de données personnalisé pour montrer l'effet de l'utilisation d'un ensemble de données imparfait. Dans cette étude, tirer parti des techniques d'apprentissage en profondeur et des méthodes d'apprentissage en ensemble a dépassé les autres techniques. Nos meilleurs classificateurs pourraient obtenir des précisions de 90,41 % et 91,96 %, tout en étant entraînés par des réseaux de neurones récurrents et des classificateurs d'ensemble à vote majoritaire, respectivement. / Speech is the dominant way of communication among humans. Voice signals carry both information and emotion of the speaker. The combination of this information helps the receiver to get a better understanding of what the speaker means and decreases the probability of misunderstandings. Robots and computers can also benefit from this way of communication. The capability of recognizing emotions in speakers voice, helps the computers to serve the human need better. This improvement in communication between humans and computers leads to increased user satisfaction. In this study we have proposed several approaches to detect the emotions from speech or voice computationally. We have investigated how different machine learning and deep learning techniques and classifiers perform in detecting the emotions from speech. The classifiers are trained with some commonly used and well-known audio emotion datasets together with a custom dataset. This custom dataset was recorded from non-actor and non-expert people while trying to trigger related emotions in them. The reason for considering this important dataset is to make the model proficient in recognizing emotions in people who are not as perfect as actors in reflecting their emotions in their voices. The results from several machine learning and deep learning classifiers while recognizing seven emotions of anger, happiness, sadness, neutrality, surprise, fear and disgust are reported and analyzed. Models were evaluated with and without considering the custom data set to show the effect of employing an imperfect dataset. In this study, leveraging deep learning techniques and ensemble learning methods has surpassed the other techniques. Our best classifiers could obtain accuracies of 90.41% and 91.96%, while being trained by recurrent neural networks and majority voting ensemble classifiers, respectively.
158

Frontal Alpha Asymmetry Interaction with an Experimental Story EEG Brain-Computer Interface

Claudia M Krogmeier (6632114) 03 November 2022 (has links)
<p> Although interest in brain-computer interfaces (BCIs) from researchers and consumers continues to increase, many BCIs lack the complexity and imaginative properties thought to guide users towards successful brain activity modulation. In this research, an experimental story brain-computer interface (ES-BCI) was developed, with which users could interact using cognitive strategies; specifically, thinking about the story and engaging with the main character of the story through their thought processes. In this system, the user’s frontal alpha asymmetry (FAA) measured with electroencephalography (EEG) was linearly mapped to the color saturation of the main character in the story. Therefore, the color saturation of the main character increased as FAA recorded from the participant’s brain activity increased above the FAA threshold required to receive visual feedback. A user-friendly experimental design was implemented using a comfortable EEG device and short neurofeedback (NF) training protocol. Eight distinct story scenes, each with a View and Engage NF component were created, and are referred to as blocks. In this system, seven out of 19 participants successfully increased FAA during the course of the study, for a total of ten successful blocks out of 152. Results concerning left (Lact) and right (Ract) prefrontal cortical activity contributions to FAA in both successful and unsuccessful blocks were examined to understand FAA measurements in greater detail. Additionally, electrodermal activity data (EDA) and self-reported questionnaire data were investigated to understand the user experience with this ES-BCI. Results suggest the potential of ES-BCI environments for engaging users and allowing for FAA modulation. New research directions for artistic BCIs investigating affect are discussed. </p>
159

BRAIN-COMPUTER INTERFACE FOR SUPERVISORY CONTROLS OF UNMANNED AERIAL VEHICLES

Abdelrahman Osama Gad (17965229) 15 February 2024 (has links)
<p dir="ltr">This research explored a solution to a high accident rate in remotely operating Unmanned Aerial Vehicles (UAVs) in a complex environment; it presented a new Brain-Computer Interface (BCI) enabled supervisory control system to fuse human and machine intelligence seamlessly. This study was highly motivated by the critical need to enhance the safety and reliability of UAV operations, where accidents often stemmed from human errors during manual controls. Existing BCIs confronted the challenge of trading off a fully remote control by humans and an automated control by computers. This study met such a challenge with the proposed supervisory control system to optimize human-machine collaboration, prioritizing safety, adaptability, and precision in operation.</p><p dir="ltr">The research work included designing, training, and testing BCI and the BCI-enabled control system. It was customized to control a UAV where the user’s motion intents and cognitive states were monitored to implement hybrid human and machine controls. The DJI Tello drone was used as an intelligent machine to illustrate the application of the proposed control system and evaluate its effectiveness through two case studies. The first case study was designed to train a subject and assess the confidence level for BCI in capturing and classifying the subject’s motion intents. The second case study illustrated the application of BCI in controlling the drone to fulfill its missions.</p><p dir="ltr">The proposed supervisory control system was at the forefront of cognitive state monitoring to leverage the power of an ML model. This model was innovative compared to conventional methods in that it could capture complicated patterns within raw EEG data and make decisions to adopt an ensemble learning strategy with the XGBoost. One of the key innovations was capturing the user’s intents and interpreting these into control commands using the EmotivBCI app. Despite the headset's predefined set of detectable features, the system could train the user’s mind to generate control commands for all six degrees of freedom of adapting to the quadcopter by creatively combining and extending mental commands, particularly in the context of the Yaw rotation. This strategic manipulation of commands showcased the system's flexibility in accommodating the intricate control requirements of an automated machine.</p><p dir="ltr">Another innovation of the proposed system was its real-time adaptability. The supervisory control system continuously monitors the user's cognitive state, allowing instantaneous adjustments in response to changing conditions. This innovation ensured that the control system was responsive to the user’s intent and adept at prioritizing safety through the arbitrating mechanism when necessary.</p>
160

Single Cell Analysis of Hippocampal Neural Ensembles during Theta-Triggered Eyeblink Classical Conditioning in the Rabbit

Darling, Ryan Daniel 03 November 2008 (has links)
No description available.

Page generated in 0.0589 seconds