• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 9
  • 1
  • Tagged with
  • 44
  • 44
  • 21
  • 13
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Le rôle de la vision dans la perception et la production de la parole : étude des voyelles orales du français québécois produites et perçues par des adultes voyants et aveugles

Dupont, Sophie January 2006 (has links) (PDF)
La vue des articulateurs que sont notamment la mâchoire et les lèvres, sans indice acoustique, permet de reconnaître bon nombre de phonèmes et dénote l'importance de la vision dans la perception de la parole. Plusieurs travaux ont par ailleurs mis en exergue le lien étroit unissant perception et production de la parole. La cécité constitue un paradigme de recherche privilégié pour étudier le rôle de la vision dans ces mécanismes de la parole. Nous avons donc choisi d'étudier la perception auditive et les caractéristiques acoustiques des productions des 11 voyelles orales du français québécois [i y u e ø o ε œ ɔ a α] en position tenue isolée de 6 adultes présentant une cécité totale et congénitale et de 6 adultes non-voyants. Une étude exploratoire du mouvement anticipatoire de constriction des lèvres lors de la production de séquences [iCny] a également été menée auprès de 2 sujets par groupe. Nos objectifs ont consisté à décrire acoustiquement la perception des traits d'aperture, de lieu d'articulation et d'arrondissement des voyelles par les participants, à présenter l'organisation articulatori-acoustique et acoustico-auditive des voyelles qu'ils ont produites et à détailler le décours temporel de leur coarticulation labiale anticipante. Notre méthodologie a impliqué des tests d'identification et de discrimination de voyelles synthétisées, des enregistrements acoustiques de productions de voyelles en position tenue isolée dans 2 conditions (en présence de bruit blanc de façon à réduire la rétroaction auditive, et en condition normale, sans bruit perturbateur) et des enregistrements audio-visuels de données géométriques des lèvres. Nous n'avons pas pu observer de différences majeures entre les deux groupes de sujets. Par contre, des tendances ont pu être observées lors de la description de leur perception; pour certains contrastes d'aperture, les sujets aveugles ont présenté des frontières catégorielles de moindre valeur, des pentes Probit généralement inférieures et des pics de discrimination supérieurs. Beaucoup de variabilité inter-individuelle a été observée dans les productions des sujets, mais peu de différences inter-groupes ont été observées. De façon générale, l'AVS des sujets aveugles était inférieur à celui des voyants et ce, dans les deux conditions de bruit. Les données géométriques des lèvres des deux groupes de sujets concordent bien avec les principes établis du Modèle d'expansion du mouvement relatif à la planification motrice de la constriction labiale; les sujets aveugles présentent cependant des pentes légèrement plus faibles que celles des sujets voyants. Des recherches doivent être poursuivies auprès des populations enfant et adulte, voyante et aveugle, afin de mettre en lumière de façon plus précise le rôle de la vision dans les mécanismes de production et de perception de la parole. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Vision, Cécité, Perception de la parole, Production de la parole, Acoustique, Articulatoire, Voyelles, Coarticulation.
12

Effets accoustiques et articulatoires de perturbations labiales sur la parole des enfants et des adultes

Aubin, Jérôme January 2006 (has links) (PDF)
Cette étude porte sur les compensations articulatoires occasionnées par une perturbation artificielle de la parole. Un tube inséré entre les lèvres de quatre locuteurs enfants et quatre adultes a servi de perturbation labiale lors de la production des voyelles [i], [y] et [u] du français québécois. Des données acoustiques et articulatoires (imagerie par ultrasonographie) ont été récoltées lors de la production de ces voyelles dans trois conditions: normale préperturbation, perturbée, et normale postperturbation. L'efficacité des compensations articulatoires effectuées a été évaluée sur la base de critères perceptifs. Les stratégies de compensation les plus efficaces ont été comparées à celles issues de simulations sur le modèle articulatoire VLAM à l'aide d'une nouvelle méthode d'analyse des tracés linguaux. Les résultats indiquent que les enfants ont été aussi compétents que les adultes puisque tous les sujets ont été capables de produire des voyelles en condition perturbée de qualité égale ou supérieure à celles en condition préperturbation pour au moins une des trois perturbations. Cependant, aucun locuteur n'a été capable de faire de compensation totale pour toutes les perturbations, indiquant que l'articulation compensatoire semble être de nature sélective, gouvernée par des contraintes articulatoires propres à chaque locuteur. Également, une compensation efficace des paramètres acoustiques F1, F2 et F3 ne semble pas être nécessaire pour effectuer une bonne compensation sur le plan perceptif. Les observations entre les données perceptives et les données acoustiques de production suggèrent que la fréquence fondamentale joue un rôle dans la qualité des voyelles. Le paramètre acoustique F1 est celui décrivant le mieux la cible perceptive pour [u], tandis que la valeur de F2 semble faire partie des critères déterminant la qualité optimale pour les voyelles [i] et [y]. L'articulation compensatoire paraît être un phénomène se développant en synchronie avec les productions langagières de l'enfant. L'étude de ce phénomène vient préciser d'avantage l'objectif du locuteur dans le processus de production de la parole. En regard aux donnés de production de la présente étude, la tâche du locuteur semble être à la fois de nature articulatoire et acoustique, tout en étant guidée prioritairement par des critères acoustico-perceptifs. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Parole, Perturbation, Articulation, Ultrasons, Enfants.
13

La poursuite auditive du mouvement acoustique vers l'acquisition des catégories phonétiques

Gauthier, Bruno January 2009 (has links) (PDF)
Cette thèse explore le développement de la parole chez l'enfant durant la première année de vie. Elle vise précisément à caractériser le mécanisme à la base de l'acquisition des catégories phonétiques. Les nombreuses recherches dans le domaine offrent un portrait compréhensible de la trajectoire développementale de la perception de la parole. Les mécanismes de ce développement demeurent toutefois mal compris, particulièrement en ce qui a trait aux stratégies de l'enfant pour faire face au problème de la variabilité. En s'inspirant des théories de l'invariance chez l'adulte et sur la base de données empiriques chez l'enfant, cette thèse présente trois études visant à soutenir l'hypothèse selon laquelle la poursuite auditive du mouvement acoustique sous-tend l'acquisition des catégories phonétiques. Tout d'abord, deux études de modélisation simulent l'acquisition d'un type particulier de catégories phonétiques, les tons lexicaux, par le biais de réseaux neuronaux artificiels de type non supervisé. Ces simulations évaluent l'impact de diverses sources de variabilité et l'efficacité du mouvement acoustique sur la catégorisation des tons en chinois mandarin. Les résultats montrent que malgré un degré modéré de variabilité, les patrons de fréquence fondamentale présentent des régularités permettant de distinguer les quatre tons mandarins, sans information préalable quant au nombre de catégories à découvrir. Ceci suggère que le signal acoustique continu peut suffire à l'acquisition des tons lexicaux, sans besoin de faire appel à un ensemble de propriétés phonétiques abstraites. En présence de multiples sources de variabilité cependant, l'information spectrale du signal de surface n'entretient qu'une faible relation avec les sons de la parole recherchés. À l'opposé, l'information dynamique (les profils de vélocité de la fréquence fondamentale) permet d'atteindre un niveau de performance comparable à celui de l'adulte pour l'identification des tons. De plus, les quatre profils de vélocité découverts par le réseau neuronal correspondent aux quatre tons mandarins et permettent de caractériser les gestes invariants impliqués dans la production tonale. Afin de vérifier si l'enfant peut faire usage de cette stratégie dynamique pour normaliser le signal de la parole, une étude comportementale examine ensuite la capacité d'enfants préverbaux à percevoir des variations acoustiques reflétant une contrainte articulatoire. Une procédure de regard préférentiel est utilisée afin de vérifier si des enfants de 4 et 8 mois peuvent distinguer entre eux des patrons d'intonation possibles et impossibles sur le plan articulatoire et produits par un locuteur inconnu. Les résultats montrent que les enfants des deux groupes d'âge écoutent plus longuement les stimuli possibles, indiquant qu'ils peuvent détecter des variations subtiles de vélocité de la fréquence fondamentale et préfèrent les variations qui respectent la contrainte articulatoire. Ces résultats suggèrent qu'en bas âge déjà, les enfants peuvent calculer la première dérivée d'informations spectrales continues et réduire la variabilité interlocuteur à partir de la dynamique du signal acoustique. Le modèle proposé par les études de simulations permet d'établir l'efficacité de l'information dynamique dans le développement phonétique. L'étude comportementale permet pour sa part de vérifier la sensibilité à cette information chez l'enfant en bas âge. Ces résultats suggèrent que l'invariance se situe à la fois au niveau acoustique/auditif, moteur et développemental, et que la poursuite auditive du mouvement acoustique reflétant les gestes articulatoires représente une stratégie efficace pour l'acquisition des catégories phonétiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Catégories phonétiques, Apprentissage distributionnel, Perception de la parole, Production de la parole, Acquisition du langage, Réseaux neuronaux artificiels non-supervisé.
14

Etude des traitements phonologique et visuo-attentionnel chez des collégiens normo-lecteurs et dyslexiques

Hamon, Bérengère Beaumont, Catherine January 2007 (has links) (PDF)
Mémoire : Orthophonie : Tours : 2007. / Titre provenant de l'écran titre. Bibliogr.
15

Neural mechanisms of phonological processing / Mécanismes neuraux du traitement phonologique

Sun, Yue 10 December 2015 (has links)
Afin de comprendre la parole, les auditeurs ont besoin de transformer les signaux sensoriels en sens abstraits. Dans cette thèse, nous nous sommes concentrés sur les processus perceptifs liés au système des sons du langage - le traitement phonologique, et examiné les mécanismes neurobiologiques sous-jacents.Dans la première partie de la thèse, nous avons examiné l'organisation temporelle du traitement phonologique dans le cerveau humain. En utilisant des enregistrements électroencéphalographiques (EEG), nous avons étudié le décours temporel pour le traitement perceptif de règles phonologiques spécifiques à la langue maternelle des auditeurs. Les résultats montre que les connaissances des auditeurs sur les règles phonologiques complexes de leur langue maternelle sont mise en oeuvre à un stade précoce de la perception de son de la parole.Dans la deuxième partie de cette thèse, nous avons étudié l'organisation spatiale du traitement phonologique dans le cortex humain. Nous avons effectué deux études pour étudier le rôle de l'interaction sensorimotrice dans le décodage phonologique à la fois pendant la perception de la parole et la lecture. Les résultats de la première étude démontrent que le système moteur est impliqué dans la catégorisation perceptive des sons de la parole non-natifs, tantdis que ceux de la deuxième étude montrent que la réparation perceptive des séquences de lettres illégale dans la langue maternelle des auditeurs est dépendante de la disponibilité du système moteur chez les participants.L'ensemble de cette thèse fournit de nouvelles perspectives sur les aspects temporels et spatiaux de mécanismes neuronaux qui sous-tendent le traitement phonologique. / In order to understand spoken language, listeners need to transform sensory signals into abstract meanings. In this thesis, we focused on perceptual processes that deal with the sound system of spoken language – phonological processing, and examined its neurobiological underpinnings. In the first part of the thesis, we investigated the temporal organization of phonological processing in the human brain. Using electroencephalographic (EEG) recordings, we studied the time course for perceptual processing of language-specific phonological rules. Findings of this study demonstrate that listeners’ knowledge of complex phonological rules of their native language is assessed at an early stage of speech sound perception. In the second part of the thesis, we investigated the spatial organization of phonological processing in the human cortex. In particular, we conducted two studies to investigate the role of sensorimotor interaction in phonological decoding during both speech perception and reading. Results from the first study showed that the motor system is involved in the perceptual categorization of non-native speech sounds, while those from the second study demonstrated that perceptual repair of phonotactically illegal letter sequences in reader’s native language is dependent to the availability of the their motor system. Together, findings from this thesis provide new insights into temporal and spatial aspects of neural mechanisms that underlie phonological processing.
16

Modélisation bayésienne du développement conjoint de la perception, l'action et la phonologie / Bayesian modeling of the joint development of perception, action and phonology

Barnaud, Marie-Lou 19 January 2018 (has links)
A travers les tâches de perception et de production, les humains peuvent manipuler non seulement des mots et des phrases mais également des unités de plus bas niveau tels des syllabes et des phonèmes. Les études en phonétique sont principalement focalisées sur ces seconds types d'unitées. Un des objectif majeur dans ce domaine et de comprendre comment les humains acquiert et manipulent ces unités.Dans cette thèse, nous nous intéressons à cette question à travers l'utilisation de la modélisation computationnelle en réalisant des simulation informatiques à l'aide d'un modèle bayésien de la communication nommé COSMO (“Communicating Objects using Sensory-Motor Operations”). Nos études s'étendres à trois aspects.Dans une première partie, nous étudions les représentations cognitives des unités phonétiques. Il est maintenant bien établie que les unités sont caractérisées par des représentations auditives et motrices. En examinant leur rôle respectifs durant le développement, nous établissons leur complémentarité à travers ce que nous nommons la propriété <<bande étroite/bande large>>.Dans une seconde partie, nous nous intéressons à la variabilité des unités phonétiques, notamment à travers l'étude de la corrélation des idiosyncrasies en perception et en production. En comparant plusieurs conditions de développement, nous établissons qu'elles s'acquiert à travers un processus de reproduction des catégories plutôt qu'à une répétition des sons.Dans une troisième partie, nous analysons la nature des catégories phonétiques. En phonétique, il y a un débat autour du statut des syllabes vs. des phonèmes dans la communication de la parole. Dans nos simulations, nous examinons leurs acquisitions respectives à travers un apprentissage non supervisée et montrons les particularités nécessaires à la communication. / Through perception and production tasks, humans are able to manipulate not only high-level units like words or sentences but also low-level units like syllables and phonemes. Studies in phonetics mainly focus on the second type of units. One of the main goal in this field is to understand how humans acquire and manipulate these units and how they are stored in the brain. In this PhD thesis, we address this set of issues by using computer modeling, performing computer simulations with a Bayesian model of communication, named COSMO (“Communicating Objects using Sensory-Motor Operations”). Our studies extend in three ways.In a first part, we investigate the cognitive content of phonetic units. It is well established that phonetic units are characterized by both auditory and motor representations. It also seems that these representations are both used during speech processing. We question the functional role of a double representation of phonetic units in the human brain, specifically in a perception task. By examining their respective development, we show that these two representations have a complementary role during perception: the auditory representation is tuned to recognize nominal stimuli whereas the motor representation has generalization properties and can deal with stimuli typical of adverse conditions. We call this the “auditory-narrow/motor-wide” property.In a second part, we investigate the variability of phonetic units. Despite the universality of phonetic units, their characterization varies from one person to another, both in their articulatory/motor and acoustic content. This is called idiosyncrasies. In our study, we aim at understanding how they appear during speech development. We specifically compare two learning algorithms, both based on an imitation process. The first version consists in sound imitation while the second version exploits phoneme imitation. We show that idiosyncrasies appear only in the course of a phoneme imitation process. We conclude that motor learning seems rather driven by a linguistic/communication goal than motivated by the reproduction of the stimulus acoustic properties.In a third part, we investigate the nature of phonetic units. In phonetics, there is a debate about the specific status of the syllable vs phoneme in speech communication. In adult studies, a consensus is now found: both units would be stored in the brain. But, in infant studies, syllabic units seem to be primary. In our simulation study, we investigate the acquisition of both units and try to understand how our model could “discover” phonemes starting from purely syllabic representations. We show that contrary to syllables and vowels, consonants are poorly characterized in the auditory representation, because the categories overlap. This is due to the influence of one phoneme on its neighbors, the well-known “coarticulation”. However, we also show that the representation of consonants in the motor space is much more efficient, with a very low level of overlap between categories. This is in line with classical theories about motor/articulatory invariance for plosives. In consequence, phonemes, i.e. vowels and consonants, seem well displayed and likely to clearly emerge in a sensory-motor developmental approach such as ours.Through these three axes, we implemented different versions of our model. Based on data from the literature, we specifically cared about the cognitive viability of its variables and distributions and of its learning phases. In this work, modeling computation has been used in two kinds of studies: comparative and explanatory studies. In the first ones, we compared results of two models differing by one aspect and we selected the one in accordance with experimental results. In the second ones, we interpreted a phenomenon observed in literature with our model. In both cases, our simulations aim at better understanding data from the literature and provide new predictions for future studies.
17

Interactions audiovisuelles pour l'analyse de scènes auditives / Audiovisual interactions for auditory scene analysis

Devergie, Aymeric 10 December 2010 (has links)
Percevoir la parole dans le bruit représente une opération complexe pour notre système perceptif. Pour parvenir à analyser cette scène auditive, nous mettons en place des mécanismes de ségrégation auditive. Nous pouvons également lire sur les lèvres pour améliorer notre compréhension de la parole. L'hypothèse initiale, présentée dans ce travail de thèse, est que ce bénéfice visuel pourrait en partie reposer sur des interactions entre l'information visuelle et les mécanismes de ségrégation auditive. Les travaux réalisés montrent que lorsque la cohérence audiovisuelle est importante, les mécanismes de ségrégation précoce peuvent être renforcés. Les mécanismes de ségrégation tardives, quant à eux, ont été démontré comme mettant en jeu des processus attentionnels. Ces processus attentionnels pourraient donc être renforcés par la présentation d'un indice visuel lié perceptivement. Il apparaît que ce liage entre un flux de voyelles et un indice visuel élémentaire est possible mais cependant moins fort que lorsque l'indice visuel possède un contenu phonétique. En conclusion, les résultats présentés dans ce travail suggèrent que les mécanismes de ségrégation auditive puissent être influencés par un indice visuel pour peu que la cohérence audiovisuelle soit importante comme dans le cas de la parole. / Perceive speech in noise is a complex operation for our perceptual system. To achieve this auditory scene analysis, we involve mechanisms of auditory streaming. We can also read lips to improve our understanding of speech. The intial hypothesis, presented in this thesis, is that visual benefit could be partly based on interactions between the visual input and the auditory streaming mechanisms. Studies conduced here shows that when the audiovisual coherence is strong, primary streaming mechanisms can be strengthened. Late segregation mechanisms, meanwhile, have been shown as involving attentional processes. These attentional processes could therefore be strengthened by the presentation of a visual cue linked perceptually to auditory signal. It appears that binding between a stream of vowels and a elementary visual cue can occur but is less strong than when the visual cue contained phonetic information. In conclusion, the results presented in this work suggest that the mechanisms of auditory streaming can be influenced by a visual cue as long as the audiovisual coherence is important as in the case of speech.
18

La perception du français oral par des apprenants suédois

Stridfeldt, Monika January 2005 (has links)
Swedish learners of French often experience large difficulties in understanding spoken French. Words that the learners know very well when written or when pronounced separately are often hard to recognize in the speech flow. The aim of this study is to examine Swedish learners’ perception of French speech in order to identify the problems. The thesis consists of two parts. The first part provides an introduction to the perception of a second language. It also describes the phonological structures of Swedish and French and gives an overview of studies of the perception of spoken French. The second part of the thesis contains a presentation and an analysis of four perception experiments conducted with Swedish learners of French. The results show that the learners often confuse phonological contrasts that do not exist in Swedish. It is furthermore found that the phonological processes of schwa deletion, liaison, enchaînement and voicing assimilation contribute to the perception problems. However, although liaison may complicate word recognition the results indicate that the so-called potential liaison does so to an even greater extent. In a listening test using nonsense words, the learners seem actually to expect liaison when perceiving a word that can be linked to a following nonsense word. In fact, sequences like un navas and un avas are both perceived as un avas. Paradoxically, liaison thus seems to be most problematic when it does not occur. As to schwa deletion, the results show that word recognition is delayed when the schwa in the first syllable is deleted, as in la s’maine. In addition, the learners make a large number of errors due to schwa deletion. This phonological process sometimes completely prevents word recognition, especially when combined with a voicing assimilation. Schwa deletion thus seems to strongly complicate Swedish learners’ word recognition in spoken French.
19

Deixis prosodique multisensorielle : production et perception audiovisuelle de la focalisation contrastive en français

Dohen, Marion 18 November 2005 (has links) (PDF)
Le travail présenté dans ce mémoire est sous-tendu par trois observations majeures. D'abord, de nombreux travaux ont mis en évidence que la parole n'était pas uniquement de nature auditive mais aussi visuelle. D'autre part, la prosodie, domaine de l'intonation, du rythme et du phrasé joue un rôle crucial en parole. Enfin, la deixis ou monstration est un phénomène au coeur de la communication parlée et de son acquisition par les jeunes enfants. Or celle-ci peut, entre autre, s'exprimer uniquement avec la parole : il est possible de « montrer de la voix » par la focalisation prosodique par exemple. Ces observations et constatations permettent d'émettre l'hypothèse que la focalisation contrastive prosodique se manifesterait non seulement par la modalité auditive ,comme il a déjà été largement exploré, mais aussi par la modalité visuelle. C'est la piste que les travaux de ce mémoire visent à explorer pour le cas particulier du français. Plusieurs analyses en production de la parole ont ainsi permis, grâce aux enregistrements de six locuteurs avec deux systèmes de mesure différents et complémentaires, de mettre en évidence les stratégies de signalisation visuelle de la focalisation. Il semble que les locuteurs produisent des indices articulatoires visibles selon deux stratégies principales : la stratégie de signalisation absolue et la stratégie de signalisation différentielle. Les analyses ont également permis de montrer que d'autres gestes faciaux non articulatoires (mouvements des sourcils et de la tête) pourraient être liés à la production de la focalisation mais de façon très variable non seulement d'un locuteur à l'autre mais aussi pour un même locuteur. Par ailleurs, des analyses parallèles en perception, ont permis de montrer que les indices visuels mis en évidence en production, étaient effectivement utilisés en perception et qu'ils permettent d'extraire l'information de focalisation quand la modalité auditive est indisponible ou dégradée. Il a été mis en évidence que les indices visuels identifiés en production correspondent au moins en partie à ceux utilisés en perception audiovisuelle. Ces travaux montrent ainsi que la focalisation contrastive en français est « visible » et est « vue ». Ces résultats permettent d'esquisser un modèle cognitif de la production et de la perception audiovisuelles de la focalisation contrastive en français.
20

Etude expérimentale de la perception du trait de voisement des occlusives du français

Serniclaes, Willy January 1986 (has links)
Doctorat en sciences psychologiques / info:eu-repo/semantics/nonPublished

Page generated in 0.0967 seconds