• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 194
  • 39
  • 28
  • 14
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 302
  • 139
  • 46
  • 33
  • 29
  • 26
  • 23
  • 22
  • 21
  • 21
  • 21
  • 18
  • 18
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Décoder les émotions à travers la musique et la voix

Paquette, Sébastien 12 1900 (has links)
L’objectif de cette thèse est de comparer les mécanismes fondamentaux liés à la perception émotionnelle vocale et musicale. Cet objectif est sustenté par de nombreux rapports et théories appuyant l'idée de substrats neuronaux communs pour le traitement des émotions vocales et musicales. Il est proposé que la musique, afin de nous faire percevoir des émotions, recrute/recycle les circuits émotionnels qui ont évolué principalement pour le traitement des vocalisations biologiquement importantes (p.ex. cris pleurs). Bien que certaines études ont relevé de grandes similarités entre ces deux timbres (voix, musique) du point de vue cérébral (traitement émotionnel) et acoustique (expressions émotionnelles), certaines différences acoustiques et neuronales spécifique à chaque timbre ont également été observées. Il est possible que les différences rapportées ne soient pas spécifiques au timbre, mais observées en raison de facteurs spécifiques aux stimuli utilisés tels que leur complexité et leur longueur. Ici, il est proposé de contourner les problèmes de comparabilité de stimulus, par l’utilisation des expressions émotionnelles les plus simples dans les deux domaines. Pour atteindre l’objectif global de la thèse, les travaux ont été réalisés en deux temps. Premièrement, une batterie de stimuli émotionnels musicaux comparables aux stimuli vocaux déjà disponibles (Voix Affectives Montréalaises) a été développée. Des stimuli (Éclats Émotionnels Musicaux) exprimant 4 émotions (joie, peur, tristesse, neutralité) performés au violon et à la clarinette ont été enregistrés et validés. Ces Éclats Émotionnels Musicaux ont obtenu un haut taux de reconnaissance (M=80.4%) et reçu des jugements d’arousal (éveil/stimulation) et de valence correspondant à l’émotion qu’il représentait. Nous avons donc pu, dans un deuxième temps, utiliser ces stimuli nouvellement validés et les Voix Affectives Montréalaises pour réaliser deux études de comparaison expérimentales. D’abord, nous avons effectué à l’aide de l’imagerie par résonnance magnétique fonctionnelle une comparaison des circuits neuronaux utilisés pour le traitement de ces deux types d’expressions émotionnelles. Indépendamment de leur nature vocale ou musicale, une activité cérébrale spécifique à l'émotion a été observée dans le cortex auditif (centrée sur le gyrus temporal supérieur) et dans les régions limbiques (gyrus parahippocampique/amygdale), alors qu'aucune activité spécifique aux stimuli vocaux ou musicaux n'a été observée. Par la suite, nous avons comparé la perception des émotions vocales et musicales sous simulation d’implant cochléaire. Cette simulation affectant grandement la perception des indices acoustiques liés aux hauteurs tonales (important pour la discrimination émotionnelle), nous a permis de déterminer quels indices acoustiques secondaires à ceux-ci sont importants pour la perception émotionnelle chez les utilisateurs d’implant cochléaire. L’examen des caractéristiques acoustiques et des jugements émotionnels a permis de déterminer que certaines caractéristiques timbrales (clarté, énergie et rugosité) communes à la voix et la musique sont utilisées pour réaliser des jugements émotionnels sous simulations d’implant cochléaire, dans les deux domaines. L’attention que nous avons portée au choix des stimuli nous a permis de mettre de l’avant les grandes similarités (acoustique, neuronales) impliquées dans la perception des émotions vocales et musicales. Cette convergence d’évidence donne un appui important à l’hypothèse de circuits neuronaux fondamentaux commun pour le traitement des émotions vocales et musicales. / The aim of this thesis is to compare the fundamental mechanisms related to vocal and musical emotion perception. This objective is supported by many reports and theories bringing forward the idea of common neural substrates for the treatment of vocal and musical emotions. It is proposed that music, in order to make us perceive emotions, recruits/recycles the emotional circuits that evolved mainly for the treatment of biologically important vocalisations (e.g. cries, screams). Although some studies have found great similarities between these two timbres (voice, music) from the cerebral (emotional treatment) and acoustic (emotional expressions) point of view, some acoustic and neural differences specific to each timbre have also been reported. It is possible that the differences described are not specific to the timbre but are observed due to factors specific to the stimuli used such as their complexity and length. Here, it is proposed to circumvent the problems of stimulus comparability by using the simplest emotional expressions in both domains. To achieve the overall objective of the thesis, the work was carried out in two stages. First, a battery of musical emotional stimuli comparable to the vocal stimuli already available (Montreal Affective Voices) was developed. Stimuli (Musical Emotional Bursts) expressing 4 emotions (happiness, fear, sadness, neutrality) performed on the violin and clarinet were recorded and validated. These Musical Emotional Bursts obtained a high recognition rate (M = 80.4%) and received arousal and valence judgments corresponding to the emotion they represented. Secondly, we were able to use these newly validated stimuli and the Montreal Affective Voices to perform two experimental comparison studies. First, functional magnetic resonance imaging was used to compare the neural circuits used to process these two types of emotional expressions. Independently of their vocal or musical nature, emotion-specific activity was observed in the auditory cortex (centered on the superior temporal gyrus) and in the limbic regions (amygdala/parahippocampal gyrus), whereas no activity specific to vocal or musical stimuli was observed. Subsequently, we compared the perception of vocal and musical emotions under cochlear implant simulation. This simulation greatly affects the perception of acoustic indices related to pitch (important for emotional discrimination), allowing us to determine which acoustic indices secondary to these are important for emotional perception in cochlear implant users. Examination of acoustic characteristics and emotional judgments determined that certain timbral characteristics (brightness, energy, and roughness) common to voice and music are used to make emotional judgments in both domains, under cochlear implant simulations. The specific attention to our stimuli selection has allowed us to put forward the similarities (acoustic, neuronal) involved in the perception of vocal and musical emotions. This convergence of evidence provides important support to the hypothesis of a fundamental common neural circuit for the processing of vocal and musical emotions.
272

Le principe "un homme, une voix" dans les sociétés coopératives / The principle "a man, a voice" in cooperative societies

Schmitt, Cédric 06 February 2015 (has links)
« De plus en plus les sociétés coopératives deviennent de plus en plus des sociétés et de moins en moins des coopératives » : Jacques Mestre, Marie-Eve Pancrazi, Isabelle Arnaud-Grossi, Laure Merland et Nancy Tagliarino-Vignal, Droit commercial / Droit interne et aspect de droit international, 29ème édition, n°650, éditeur L.G.D.J.. Construite pendant des siècles en opposition aux modes traditionnels entrepreneuriat, la société coopérative suit en effet depuis quelques années le chemin inverse et glisse progressivement vers les sociétés que l’on peut qualifier de « classiques » ; sociétésanonymes, sociétés par actions simplifiées ou bien encore sociétés à responsabilité limitée notamment. Néanmoins s’agissant du principe « un homme, une voix », qui veut que chaque associé dispose d’une seule et unique voix et cela quel que soit son apport, composant si ce n’est essentiel en tout cas totalement indispensable de l’originalité des sociétés coopératives celui-ci reste omniprésent. Aussi bien dans la loi du 10 septembre 1947 formant le statut général de la coopération que dans les plus importants types de sociétés coopératives, sociétés coopératives agricoles, banques coopératives, sociétés coopératives de commerçants détaillants entre autres le principe « un homme, une voix » reste la règle sur laquelle s’appuie la répartition des voix dans les sociétés coopératives et ce même si celui-ci n’est plus toutseul… / « More and more cooperative societies become more and more societies and less and less cooperatives » : Jacques Mestre, Marie-Eve Pancrazi, Isabelle Arnaud-Grossi, Laure Merland et Nancy Tagliarino-Vignal, Droit commercial / Droit interne et aspect de droit international, 29th edition, n° 650, L.G.D.J. editor. Built during centuries in opposition to the traditional modes of entrepreneurship, the cooperative society indeed follows since a few years the inverse way and slides gradually towards the societies which we can qualify as « classics » ; sociétés anonymes, sociétés par actions simplifiées either still sociétés à responsabilité limitée in particular. Nevertheless as regards the principle « a man, a voice », which wants that every partner has only one voice and it whatever is his contribution, component if it is not essential in any case totally essential of the originality of cooperative societies this one remains omnipresent. However in the law of September 10th, 1947 forming the general status of the cooperation in the most important structure of cooperative societies, sociétés coopératives agricoles, banques coopératives, sociétés coopératives de commerçants détaillants among others things the principle « a man, a voice » stays the rule on which leans the distribution of the voices in cooperative societieseven if this one is not alone any more …
273

Interdependence between Tones, Segments, and Phonation types in Shanghai Chinese : acoustics, articulation, perception, and evolution / Interdépendance entre tons, segments et types de phonation en shanghaïen : acoustique, articulation, perception et évolution

Gao, Jiayin 21 May 2015 (has links)
Cette étude porte sur les corrélats phonétiques des registres tonals yin vs. yang du shanghaïen parlé dans la région urbaine de Shanghai. Nos investigations acoustique, articulatoire et perceptive ont montré qu’en dehors du F0, des indices multi-dimensionnels comme le voisement (voisé pour yang et non-voisé pour yin), le pattern de durée (ratio C/V bas pour yang et élevé pour yin), et le type de phonation (soufflé pour yang et modal pour yin) participent tous à la définition du registre tonal. Parmi tous ces indices, nous tâchons de distinguer les traits redondants liés aux effets coarticulatoires de ceux qui sont des survivants de changements diachroniques. En particulier, la voix soufflée qui accompagne les tons yang est un trait anciennement distinctif et aujourd’hui redondant, issu d’une évolution tonale qui est la transphonologization de distinction de voisement vers la distinction de registre tonal, ou « bipartition tonale ». Nous proposons que la perte d’un trait redondant issu d’un changement diachronique peut être très lente si ce trait ne contrarie pas les effets coarticulatoires et/ou si le trait a une fonction perceptive.En nous basant sur les données synchroniques des locuteurs de deux générations (20-30 ans vs. 60-80 ans), nous constatons une tendance vers la disparition de cette phonation soufflée. Nous constatons également une évolution plus avancée chez les femmes que les hommes de leur âge. Dans notre étude, nous essayons d’expliquer ce changement tant par des causes internes que par des causes externes. / This study bears on the phonetic correlates of the yin vs. yang tone registers of Shanghai Chinese as spoken in Shanghai urban area. Our acoustic, articulatory, and perceptual investigations showed that beside F0, multidimensional cues, such as voicing (voiced for yang vs. voiceless for yin), duration pattern (low C/V ratio for yang vs. high C/V ratio for yin), and phonation type (breathy for yang vs. modal for yin) enter in the specification of tone register. Among all these cues, we attempt to distinguish the redundant features related to coarticulatory effects from those that are remnants of diachronic changes. In particular, the breathy voice accompanying yang tones, which was a distinctive feature in a previous state of the language and has now become a redundant feature, arose from a tonal evolution, namely the transphonologization of a voicing contrast into a tone register contrast, that is, the “tone split.” We propose that the loss of a redundant arisen from a diachronic change may be very slow if that feature does not oppose to coarticulatory effects and/or if that feature has a perceptual function.Based on the synchronic data from the speakers of two generations (20-30 years vs. 60-80 years), we find a trend toward the loss of this breathy phonation. We also find that this evolution is more advanced in women than men of the same age. In our study, we try to explain this change by internal factors as well as by external factors.
274

Communication affective médiée via une interface tactile / Affective Mediated Communication via a Tactile Interface

Tsalamlal, Mohamed Yacine 27 June 2016 (has links)
La communication affective est au cœur de nos interactions interpersonnelles. Nous communiquons les émotions à travers de multiples canaux non verbaux. Plusieurs travaux de recherche sur l’interaction homme-machine ont exploité ces modalités de communication afin de concevoir des systèmes permettant de reconnaître et d’afficher automatiquement des signaux affectifs. Le toucher est la modalité la moins explorée dans ce domaine de recherche. L’aspect intrusif des interfaces haptiques actuelles est l’un des principaux obstacles à leur utilisation dans la communication affective médiée. En effet, l’utilisateur est physiquement connecté à des systèmes mécaniques pour recevoir la stimulation. Cette configuration altère la transparence de l’interaction médiée et empêche la perception de certaines dimensions affectives comme la valence. L’objectif de cette thèse est de proposer et d’étudier une technique de stimulation tactile sans contact avec des systèmes mécaniques pour médier des signaux d’affects. Sur la base de l’état de l’art des interfaces haptiques, nous avons proposé une stratégie de stimulation tactile basée sur l’utilisation d’un jet d’air mobile. Cette technique permet de fournir une stimulation tactile non-intrusive sur des zones différentes du corps. De plus, ce dispositif tactile permettrait une stimulation efficace de certains mécanorécepteurs qui jouent un rôle important dans les perceptions d’affects positifs. Nous avons conduit une étude expérimentale pour comprendre les relations entre les caractéristiques physiques de la stimulation tactile par jet d’air et la perception affective des utilisateurs. Les résultats mettent en évidence les effets principaux de l'intensité et de la vitesse du mouvement du jet d’air sur l’évaluation subjective mesurée dans l’espace affectif (à savoir, la valence, l'arousal et de la dominance).La communication des émotions est clairement multimodale. Nous utilisons le toucher conjointement avec d’autres modalités afin de communiquer les différents messages affectifs. C’est dans ce sens que nous avons conduit deux études expérimentales pour examiner la combinaison de la stimulation tactile par jet d’air avec les expressions faciales et vocales pour la perception de la valence. Ces expérimentations ont été conduites dans un cadre théorique et expérimental appelé théorie de l’intégration de l’information. Ce cadre permet de modéliser l’intégration de l’information issue de plusieurs sources en employant une algèbre cognitive. Les résultats de nos travaux suggèrent que la stimulation tactile par jet d’air peut être utilisée pour transmettre des signaux affectifs dans le cadre des interactions homme-machine. Les modèles perceptifs d’intégration bimodales peuvent être exploités pour construire des modèles computationnels permettant d’afficher des affects en combinant la stimulation tactile aux expressions faciales ou à la voix. / Affective communication plays a major role in our interpersonal interactions. We communicate emotions through multiple non-verbal channels. Researches on human-computer interaction have exploited these communication channels in order to design systems that automatically recognize and display emotional signals. Touch has receivers less interest then other non-verbal modalities in this area of research. The intrusive aspect of current haptic interfaces is one of the main obstacles to their use in mediated emotional communication. In fact, the user is must physically connected to mechanical systems to receive the stimulation. This configuration affects the transparency of the mediated interaction and limits the perception of certain emotional dimensions as the Valence. The objective of this thesis is to propose and study a technique for tactile stimulation. This technique does not require contact with mechanical systems to transmit affective signals. On the basis of the state of the art of haptic interfaces, we proposed a strategy of tactile stimulation based on the use of a mobile air jet. This technique provides a non-intrusive tactile stimulation on different areas of the body. In addition, this tactile device would allow effective stimulation of some mechanoreceptors that play an important role in perceptions of positive affect. We conducted an experimental study to understand the relationships between the physical characteristics of tactile stimulation by air jet and the emotional perception of the users. The results highlight the main effects of the intensity and the velocity of movement of the air stream on the subjective evaluation measured in space affective (namely, Valence, Arousal and Dominance).The communication of emotions is clearly multi-modal. We use touch jointly with other modalities to communicate different emotional messages. We conducted two experimental studies to examine the combination of air jet tactile stimulation with facial and vocal expressions for perception of the valence. These experiments were conducted in a theoretical and experimental framework called integration of information theory. This framework allows modelling the integration of information from multiple sources using a cognitive algebra. Our work suggests that tactile stimulation by air jet can be used to transmit emotional signals in the context of the human-machine interactions. Perceptual bimodal integration models can be exploited to build computational models to display affects by combining tactile stimulation to facial expressions or the voice.
275

Utilisation des signaux du cerveau (EEG) et vocaux pour la détection et le monitoring des facultés d'une personne

Ben Messaoud, Aymen January 2020 (has links) (PDF)
No description available.
276

Processus de création et problématiques dans la composition d’un opéra contemporain : El Príncipe Tulicio, opéra de chambre avec dispositif électronique

Vasquez-Castaneda, Harold 08 1900 (has links)
No description available.
277

L’aparté du spectateur : le pouvoir « immertiel » du monologue intérieur

Hamel, Marie-Ève 07 1900 (has links)
Ce mémoire étudie l’influence du monologue intérieur sur l’immersion d’un spectateur lorsqu’il audiovisionne une œuvre filmique narrative. Plus particulièrement, il s’intéresse à décrire les différents mécanismes perceptifs impliqués lors du traitement de l’information sensorielle et de quelles façons ces derniers influencent la production et la perception d’un discours intérieur chez le spectateur. S’inscrivant dans une perspective cognitiviste fonctionnaliste, ce mémoire explore différentes hypothèses et concepts rattachés aux processus attentionnels, mémoriels et langagiers chez l’être humain, eux-mêmes fortement impliqués lors du décodage d’une œuvre fictive et narrative. La recherche proposée permet de revisiter la théorie générale du PECMA flow développée par Torben Grodal (1997), qui conçoit l’expérience cinématographique en tant que flux de traitement sensoriel. L’approche transhistorique et intersectorielle préconisée dans le cadre de ce mémoire permet d’aborder certaines conceptions matérialistes liées aux fonctionnements physiologique et neurologique du cerveau humain, en les combinant à différentes théories issues des sciences humaines et des sciences sociales rattachées au soi dialogique, au soi narratif, de même qu’aux processus de traitement ascendant et descendant. Enfin, l’analyse d’un extrait tiré de The Tree of Life (2011), du réalisateur Terrence Malick, démontre comment l’expérience d’audiovisionnement d’un film peut concourir à mettre en place un recul nécessaire avec le récit, qui s’avère primordial dans l’actualisation et la perception d’un monologue intérieur « immertiel » chez le sujet. À l’aide des notions développées au cours des différents chapitres et s’appuyant sur le modèle du PECMA flow, le mémoire illustre comment une œuvre filmique peut concourir à faire émerger, en parallèle de l’audiovisionnement, une conversation intérieure toute particulière dans l’esprit du spectateur, qui participe directement à son immersivité filmique. Une attention particulière sera accordée à l’usage de la voix-over au cinéma, afin de démontrer comment son traitement dans l’œuvre à l’étude en fait un élément du langage cinématographique qui favorise l’élaboration d’un trialogue entre le sujet pensant confronté à son propre monologue intérieur et sa position de spectateur récepteur du ou des discours transmis par le film. / This master’s thesis studies the influence of the inner monologue on the immersion of a spectator when he/she audioviews a narrative film work. More specifically, it is interested in describing the different perceptual mechanisms involved in the processing of sensory information and the ways in which these influence the production and perception of an inner speech in the viewer. From a functionalist cognitive perspective, this dissertation explores different hypotheses and concepts related to attentional, memory and language processes in humans, which are themselves strongly involved in the decoding of a fictional and narrative work. The proposed research allows us to revisit the general theory of PECMA flow developed by Torben Grodal (1997), which conceives the cinematic experience as a sensory processing flow. The transhistorical and intersectorial approach adopted in this dissertation allows us to address certain materialist conceptions related to the physiological and neurological functioning of the human brain, by combining them with different theories from the humanities and social sciences related to the dialogical self, the narrative self, as well as bottom-up and top-down processing. Finally, the analysis of an excerpt from The Tree of Life (2011), by director Terrence Malick, demonstrates how the experience of audio-viewing a film can contribute to the establishment of a necessary distance from the narrative, which proves to be essential in the actualization and perception of an “immertial” inner monologue in the subject. Using the notions developed in the different chapters and based on the PECMA flow model, the master’s thesis illustrates how a filmic work can contribute to the emergence, in parallel to the audiovisioning, of a very particular inner conversation in the spectator's mind, which directly participates in his filmic immersiveness. A particular attention will be paid to the use of the voice-over in cinema, to demonstrate how its treatment in the work under study makes it an element of the cinematographic language that favors the elaboration of a trialogue between the thinking subject confronted with its own inner monologue and its position of receiver of the discourse(s) transmitted by the film.
278

L’effet de la familiarité sur l’identification des locuteurs : pour un perfectionnement de la parade vocale

Plante-Hébert, Julien 08 1900 (has links)
La présente étude porte sur les effets de la familiarité dans l’identification d’individus en situation de parade vocale. La parade vocale est une technique inspirée d’une procédure paralégale d’identification visuelle d’individus. Elle consiste en la présentation de plusieurs voix avec des aspects acoustiques similaires définis selon des critères reconnus dans la littérature. L’objectif principal de la présente étude était de déterminer si la familiarité d’une voix dans une parade vocale peut donner un haut taux d’identification correcte (> 99 %) de locuteurs. Cette étude est la première à quantifier le critère de familiarité entre l’identificateur et une personne associée à « une voix-cible » selon quatre paramètres liés aux contacts (communications) entre les individus, soit la récence du contact (à quand remonte la dernière rencontre avec l’individu), la durée et la fréquence moyenne du contact et la période pendant laquelle avaient lieu les contacts. Trois différentes parades vocales ont été élaborées, chacune contenant 10 voix d’hommes incluant une voix-cible pouvant être très familière; ce degré de familiarité a été établi selon un questionnaire. Les participants (identificateurs, n = 44) ont été sélectionnés selon leur niveau de familiarité avec la voix-cible. Toutes les voix étaient celles de locuteurs natifs du franco-québécois et toutes avaient des fréquences fondamentales moyennes similaires à la voix-cible (à un semi-ton près). Aussi, chaque parade vocale contenait des énoncés variant en longueur selon un nombre donné de syllabes (1, 4, 10, 18 syll.). Les résultats démontrent qu’en contrôlant le degré de familiarité et avec un énoncé de 4 syllabes ou plus, on obtient un taux d’identification avec une probabilité exacte d’erreur de p < 1 x 10-12. Ces taux d’identification dépassent ceux obtenus actuellement avec des systèmes automatisés. / The present study deals with the effects of familiarity on speaker identification in the context of voice line-ups. The voice line-up is a paralegal technique, inspired by a visual identification procedure. The voice line-up consists in presenting a number of voices sharing similar acoustic parameters as specified in established procedures. The main objective was to determine if the familiarity of a voice could lead to a high rate of correct identification (> 99 %). Our study is the first to quantify the familiarity criterion linking an identifier and a « target voice ». The quantification was based on four parameters bearing on the degree of contact between individuals: recency, frenquency, duration, and the period during which the contact occurred. Three different voice line-ups were elaborated, each containing 10 voices, including one target voice which was well known by the identifier according to a questionnaire that served to quantify familiarity. Participants (identifiers, n = 44) were selected on the basis of their familiarity with the target voice. The speakers used in the voice line-ups were native speakers of Quebec French and all presented voices had similar fundamental frequencies (to within one semitone). In each line-up we used utterances of 4 different lengths (1, 4, 10, and 18 syll.). The results show that by controlling the familiarity criterion, a correct identification rate of a 100 % is obtained with an exact error probability of p < 1 x 10-12.These rates are superior to current automatic systems of voice identification.
279

El aporte del rehablado off-line a la transcripción asistida de corpus orales

Rufino Morales, Marimar 04 1900 (has links)
Cette recherche aborde un des grands défis liés à l'étude empirique des phénomènes linguistiques : l'optimisation des ressources matérielles et humaines pour la transcription. Pour ce faire, elle met en relief l’intérêt de la redite off-line, une méthode de transcription vocale à l’aide d’un logiciel de reconnaissance automatique de la parole inspirée du sous-titrage vocal pour les émissions de télé. La tâche de transcrire la parole spontanée est ardue et complexe; on doit rendre compte de tous les constituants de la communication : linguistiques, extralinguistiques et paralinguistiques, et ce, en dépit des difficultés que posent la parole spontanée, les autocorrections, les hésitations, les répétitions, les variations, les phénomènes de contact. Afin d’évaluer le travail nécessaire pour générer un produit de qualité ont été transcrites par redite une sélection d’interviews du Corpus oral de la langue espagnole à Montréal (COLEM), qui reflète toutes les variétés d'espagnol parlées à Montréal (donc en contact avec le français et l'anglais). La qualité des transcriptions a été évaluée en fonction de leur exactitude, étant donné que plus elles sont exactes, moins le temps de correction est long. Afin d'obtenir des pourcentages d’exactitude plus fidèles à la réalité –même s’ils sont inférieurs à ceux d'autres recherches– ont été pris en compte non seulement les mots incorrectement ajoutés, supprimés ou substitués, mais aussi liées aux signes de ponctuation, aux étiquettes descriptives et aux marques typographiques propres aux conventions de transcription du COLEM. Le temps nécessaire à la production et à la correction des transcriptions a aussi été considéré. Les résultats obtenus ont été comparés à des transcriptions manuelles (dactylographiées) et à des transcriptions automatiques. La saisie manuelle offre la flexibilité nécessaire pour obtenir le niveau d’exactitude requis pour la transcription, mais ce n'est ni la méthode la plus rapide ni la plus rigoureuse. Quant aux transcriptions automatiques, aucune ne remplit de façon satisfaisante les conditions requises pour gagner du temps ou réduire les efforts de révision. On a aussi remarqué que les performances de la reconnaissance automatique de la parole fluctuaient au gré des locuteurs et locutrices et des caractéristiques des enregistrements, causant des écarts considérables dans le temps de correction des transcriptions. Ce sont les transcriptions redites, effectuées en temps réel, qui donnent les résultats les plus stables; et celles qui ont été effectuées avec un logiciel installé sur l'ordinateur sont supérieures aux autres. Puisqu’elle permet de minimiser la variabilité des signaux acoustiques, de fournir les indicateurs pour la représentation de la construction dialogique et de favoriser la reconnaissance automatique du vocabulaire issu de la variation de l'espagnol ainsi que d'autres langues, la méthode de redite ne demande en moyenne que 9,2 minutes par minute d'enregistrement du COLEM, incluant la redite en temps réel et deux révisions effectuées par deux personnes différentes à partir de l’audio. En complément, les erreurs qui peuvent se manifester dans les transcriptions obtenues à l’aide de la technologie intelligente ont été catégorisées, selon qu’il s’agisse de non-respect de l'orthographe ou de la protection des données, d’imprécisions dans la segmentation des unités linguistiques, dans la représentation écrite des mécanismes d'interruption de la séquence de parole, dans la construction dialogique ou dans le lexique. / This research addresses one of the major challenges associated with the empirical study of linguistic phenomena: the optimization of material and human transcription resources. To do so, it highlights the value of off-line respeaking, a method of voice-assisted transcription using automatic speech recognition (ASR) software modelled after voice subtitling for television broadcasts. The task of transcribing spontaneous speech is an arduous and complex one; we must account for all the components of communication: linguistic, extralinguistic and paralinguistic, notwithstanding the difficulties posed by spontaneous speech, self-corrections, hesitations, repetitions, variations and contact phenomena. To evaluate the work required to generate a quality product, a selection of interviews from the Spoken Corpus of the Spanish Language in Montreal (COLEM), which reflects all the varieties of Spanish spoken in Montreal (i.e., in contact with French and English), were transcribed through respeaking. The quality of the transcriptions was evaluated for accuracy, since the more accurate they were, the less time was needed for correction. To obtain accuracy percentages that are closer to reality –albeit lower than those obtained in other research– we considered not only words incorrectly added, deleted, or substituted, but also issues related to punctuation marks, descriptive labels, and typographical markers specific to COLEM transcription conventions. We also considered the time required to produce and correct the transcriptions. The results obtained were compared with manual (typed) and automatic transcriptions. Manual input offers the flexibility needed to achieve the level of accuracy required for transcription, but it is neither the fastest nor the most rigorous method. As for automatic transcriptions, none fully meets the conditions required to save time or reduce editing effort. It has also been noted that the performance of automatic speech recognition fluctuates according to the speakers and the characteristics of the recordings, causing considerable variations in the time needed to correct transcriptions. The most stable results were obtained with respoken transcriptions made in real time, and those made with software installed on the computer were better than others. Since it minimizes the variability of acoustic signals, provides indicators for the representation of dialogical construction, and promotes automatic recognition of vocabulary derived from variations in Spanish as well as other languages, respeaking requires an average of only 9.2 minutes for each minute of COLEM recording, including real-time respeaking and two revisions made from the audio by two different individuals. In addition, the ASR errors have been categorized, depending on whether they concern misspelling or non-compliance with data protection, inaccuracies in the segmentation of linguistic units, in the written representation of speech interruption mechanisms, in dialogical construction or in the lexicon. / Esta investigación se centra en uno de los grandes retos que acompañan al estudio empírico de los fenómenos lingüísticos: la optimización de recursos materiales y humanos para transcribir. Para ello, propone el rehablado off-line, un método de transcripción vocal asistido por una herramienta de reconocimiento automático del habla (RAH) inspirado del subtitulado vocal para programas audiovisuales. La transcripción del habla espontánea es un trabajo intenso y difícil, que requiere plasmar todos los niveles de la comunicación lingüística, extralingüística y paralingüística, con sus dificultades exacerbadas por los retos propios del habla espontánea, como la autocorrección, la vacilación, la repetición, la variación o los fenómenos de contacto. Para medir el esfuerzo que conlleva lograr un producto de calidad, primero se rehablaron una serie de grabaciones del Corpus oral de la lengua española en Montreal (COLEM), que refleja todas las variedades del español en contacto con el francés y el inglés. La calidad de las transcripciones se midió en relación con la exactitud: a mayor exactitud, menor tiempo necesario para la corrección. Se contabilizaron las palabras eliminadas, insertadas y sustituidas incorrectamente; pero también computaron los signos de puntuación, las etiquetas descriptivas y demás marcas tipográficas de las convenciones de transcripción del COLEM; los resultados serían inferiores a los de otros trabajos, pero también más realistas. Asimismo, se consideró el tiempo necesario para producir y corregir las transcripciones. Los resultados se compararon con transcripciones mecanografiadas (manuales) y automáticas. La mecanografía brinda flexibilidad para producir el nivel de detalle de transcripción requerido, pero no es el método más rápido, ni el más exacto. Ninguna de las transcripciones automáticas reúne las condiciones satisfactorias para ganar tiempo ni disminuir esfuerzo. Además, el rendimiento de la tecnología de RAH es muy diferente para determinados hablantes y grabaciones, haciendo fluctuar excesivamente el tiempo de corrección entre una entrevista y otra. Todas las transcripciones rehabladas se hacen en tiempo real y brindan resultados más estables. Las realizadas con un programa instalado en la computadora, que puede editarse, son superiores a las demás. Gracias a las acciones para minimizar la variación en las señales acústicas, suministrar claves de representación de la mecánica conversacional y complementar el reconocimiento automático del léxico en cualquier variedad del español, y en otras lenguas, las transcripciones de las entrevistas del COLEM se rehablaron y se revisaron dos veces con el audio por dos personas en un promedio de 9,2 minutos por minuto de grabación. Adicionalmente, se han categorizado los errores que pueden aparecer en las transcripciones realizadas con la tecnología de RAH según sean infracciones a la ortografía o a la protección de datos, errores de segmentación de las unidades del habla, de representación gráfica de los recursos de interrupción de la cadena hablada, del andamiaje conversacional o de cualquier elemento léxico.
280

"Douze bêtes aux chemises de l'homme" de Tania Langlais : une poétique du dévoilement

Monette-Larocque, Lysandre 02 October 2024 (has links)
L’interrogation concernant le lien entre l’art et la réalité ne date pas d’hier; de Platon à aujourd’hui, les écrivains remettent bien souvent dans l’arène de leurs œuvres cette préoccupation : l’art parvient-il à « dévoiler » le réel, ou n’ajoute-t-il qu’un « voile » supplémentaire à une réalité déjà complexe ? Cette problématique se retrouve au cœur du premier recueil de Tania Langlais, Douze bêtes aux chemises de l’homme, paru en 2000. La dynamique amoureuse entre un homme et une femme, sur fond de corrida, illustrée par des tissus de toutes sortes masquant la véritable nature de chacun, devient prétexte et code pour traiter de ce sujet plus vaste qui est celui de la capacité de l’art de dévoiler la réalité. Le recueil se présente ainsi comme une « poétique du dévoilement » puisqu’à travers la quête de transparence entreprise par les amants, c’est la voie pour y parvenir qui est, surtout, explorée de diverses façons. L’analyse prend racine dans les réflexions actuelles sur le sujet lyrique et l’énonciation (Rabaté, Maulpoix, Watteyne) tout en profitant de l’apport de la théorie des genres. Ultimement, ces codes et réflexions mis en place contribuent à proposer une réflexion plus large sur les liens qui unissent la vie et la littérature.

Page generated in 0.0308 seconds