Spelling suggestions: "subject:"audio cues"" "subject:"audio pues""
1 |
Exploration of Sound Design and Sound Representation Techniques for Improving Inclusiveness, Player Performance, and Player Experience in Video Games / Utforskning av ljuddesign och ljudrepresentationstekniker for att forbattra inkludering, spelarprestanda och spelarupplevelse i videospelEsdor, Benjamin January 2023 (has links)
This study aimed to explore sound design and sound representation techniques to strengthen the inclusion of players with sensory disabilities alongside non-disabled players. Additionally, it aimed to identify characteristics in inclusiveness components for video games. Tap Tone is a 3D action-adventure prototype with iteratively improved inclusiveness components based on research and requirements analyses. Twenty-five participants were recruited for user tests and divided into four groups: 1) non-disabled, 2) vision impaired, 3) deaf and hard of hearing, and 4) blindfolded players. Data were collected with a questionnaire and saved in-game data. The data was analyzed using statistical methods, including ANOVA and a t-test. Results indicate that the experience for deaf and hard of hearing is significantly different from the groups vision impaired and non-disabled. The results indicate similarities in experience for non-disabled and vision impaired players. Moreover, the player performance indicates similarities between the groups non-disabled, vision impaired and deaf and hard of hearing. Finally, the study identified and discussed key characteristics of the inclusiveness components. / Denna studie syftade till att utforska ljuddesign och ljudrepresentationstekniker för att stärka inkluderingen av spelare med sensoriska funktionshinder tillsammans med icke-handikappade spelare. Dessutom syftade det till att identifiera egenskaper i inkluderande komponenter för videospel. Tap Tone är en prototyp av ett 3D-action-äventyrsspel med stegvist förbättrande inkluderingskomponenter baserade på forskning och kravanalyser. Tjugofem deltagare rekryterades för användartester och delades in i fyra grupper: 1) ickehandikappade, 2) synskadade, 3) döva och hörselskadade och 4) spelare med ögonbindel. Data samlades in med ett frågeformulär och data sparad genom spelet. Datan var analyserad med hjälp av statistiska metoder, inklusive ANOVA och ett t-test. Resultaten tyder på att upplevelsen för döva och hörselskadade skiljer sig signifikant från grupperna med synskada och icke-handikappade. Resultaten indikerar likheter i erfarenhet för icke-handikappade och synskadade spelare. Dessutom indikerar spelarens prestation likheter mellan grupperna icke-handikappade, synskadade och döva och hörselskadade. Slutligen identifierade och diskuterade studien nyckelegenskaper hos de inkluderande komponenterna.
|
2 |
Détection multimodale du stress pour la conception de logiciels de remédiation / Multimodal stress detection for remediation software designSoury, Mariette 28 October 2014 (has links)
Ces travaux de thèse portent sur la reconnaissance automatique du stress chez des humains en interaction dans des situations anxiogènes: prise de parole en public, entretiens et jeux sérieux à partir d'indices audio et visuels.Afin de concevoir des modèles de reconnaissance automatique du stress, nous utilisons : des indices audio calculés à partir de la voix des sujets, capturée par un micro cravate; et des indices visuels calculés soit à partir de l'expression faciale des sujets capturés par une webcam, soit à partir de la posture des sujets capturée par une Kinect. Une partie des travaux portent sur la fusion des informations apportées par les différentes modalités.L'expression et la gestion du stress sont influencées à la fois par des différences interpersonnelles (traits de personnalité, expériences passées, milieu culturel) et contextuelles (type de stresseur, enjeux de la situation). Nous évaluons le stress sur différents publics à travers des corpus de données collectés pendant la thèse: un public sociophobe en situation anxiogène, face à une machine et face à des humains; un public non pathologique en simulation d'entretien d'embauche; et un public non pathologique en interaction face à un ordinateur ou face au robot humanoïde Nao. Les comparaisons inter- individus, et inter-corpus révèlent la diversité de l'expression du stress.Une application de ces travaux pourrait être la conception d'outils thérapeutiques pour la maitrise du stress, notamment à destination des populations phobiques.Mots clé : stress, phobie sociale, détection multimodale du stress , indices audio du stress, indices faciaux du stress, indices posturaux du stress, fusion multimodale / This thesis focuses on the automatic recognition of human stress during stress-inducing interactions (public speaking, job interview and serious games), using audio and visual cues.In order to build automatic stress recognition models, we used audio cues computed from subjects' voice captured via a lapel microphone, and visual cues computed either form subjects' facial expressions captured via a webcam, or subjects' posture captured via a Kinect. Part of this work is dedicated to the study of information fusion form those various modalities.Stress expression and coping are influenced both by interpersonal differences (personality traits, past experiences, cultural background) and contextual differences (type of stressor, situation's stakes). We evaluated stress in various populations in data corpora collected during this thesis: social phobics in anxiety-inducing situations in interaction with a machine and with humans; apathologic subjects in a mock job interview; and apathologic subjects interaction with a computer and with the humanoid robot Nao. Inter-individual and inter-corpora comparisons highlight the variability of stress expression.A possible application of this work could be the elaboration of therapeutic software to learn stress coping strategies, particularly for social phobics.Key words: stress, social phobia, multimodal stress detection, stress audio cues, stress facial cues, stress postural cues, multimodal fusion
|
Page generated in 0.0275 seconds