Spelling suggestions: "subject:"voie"" "subject:"void""
171 |
Etude de la sensibilité auditive du nouveau-né grand prématuré aux stimulations sonores issues de son environnement / Evaluation of the auditory sensitivity of very preterm infants to their acoustic environmentKuhn, Pierre 28 June 2012 (has links)
L’environnement (E) du grand prématuré (GP) diffère de l’E. utérin et contribue aux séquelles neurosensorielles qui le menace. Les stimuli auditifs y sont prédominants et atypiques. Peu de choses sont connues sur la sensibilité auditive du GP à ces stimuli. Elle est évaluée ici par l’analyse de sa réactivité physiologique, comportementale, et cérébrale (NIRS) aux variations de cet E. Une étude observationnelle montre que i) le GP réagit à des stimuli auditifs dès un seuil de 5-10 dBA de ratio signal-bruit ambiant ; ii) certaines stimulations altèrent son bien-être (désaturations, rupture du sommeil) ; iii) ses réponses autonomiques sont les plus sensibles. Sa réactivité varie selon la source sonore, suggérant une discrimination du caractère vocal ou non des stimuli. Une étude expérimentale évalue d’autres aspects de ses performances auditives (impact de la fréquence sonore, de la valence émotionnelle des voix) et leur maturation de 30-32 à 34-36 sem. d’âge post-menstruel. Son champ de perception fréquentiel de sons purs s’élargit des moyennes (500-2500 Hz) aux basses et hautes fréquences (100 et 4500 Hz). Après 34 sem., il discrimine la voix maternelle de celle d’une autre mère et d’une autre femme (émotionnellement neutre). Cette réactivité préférentielle se traduit par un « réflexe cardiaque d’orientation » et témoigne qu’un GP soustrait précocement à la voix de sa mère développe des capacités perceptives similaires à celles du fœtus exposé en continue à la prosodie de la voix maternelle. Ces résultats ouvrent un champ de recherche complémentaire sur les conséquences à long terme de son expérience auditive précoce (attachement, développement du langage et des émotions). / The environment (E) of very preterm infant (VPI) greatly differs from the uterine E and contributes to his risk of altered neurodevelopment. Although auditory stimuli are prominent and atypical in the NICU, little is known about the auditory sensitivity of VPI to his acoustic E. It is evaluated through their physiological, behavioral, and brain (NIRS) responsiveness to auditory environmental changes. An observational study shows that i) VPIs respond to “naturalistic” auditory stimuli from a minimum signal-to-noise ratio threshold of 5-10 dBA, ii) some stimuli can affect their well-being (desaturation, sleep disruption), iii) their autonomic reactivity is the most sensitive. Their reactivity varies depending on the sound sources, suggesting an ability to discriminate vocal from non vocal sounds. An experimental approach assess other aspects of their auditory performance (impact of sound frequency, emotional valence of voices) and their maturation from 30-32 to 34-36 wks post-menstrual age. Their perceptual field of sound frequencies expands for pure tones from the middle frequencies (500-2500 Hz) to low and high frequencies (100 and 4500 Hz). After 34 wks, VPIs discriminate their mother's voice from that of another mother and of another woman (emotionally neutral). This preferential reactivity relies on a "cardiac orienting reflex" suggesting that VPI not exposed for weeks to their mother’s voice in utero, can develop perceptual abilities similar to those of the fetuses continuously exposed to the prosody of their mother’s voice. They open ways for further research on the long-term consequences of early auditory experience (attachment, language and emotions development).
|
172 |
La traduction vers l'arabe des textes relatifs aux droits humains : perspectives historiques du 19ème siècle à nos jours / The translation into Arabic of texts dealing with human rights : historical perspectives from the 19th century until todayChraïbi, Sylvie 27 September 2013 (has links)
Partant du constat de l‟extrême profusion de textes juridiques et journalistiques relatifs aux droits humains traduits en arabe, nous avons voulu retracer l‟histoire de la traduction de ce genre de textes et mettre en lumière les moments forts de son évolution, aux niveaux terminologique, phraséologique et idéologique. Cette recherche nous a fait remonter jusqu'aux productions d'intellectuels arabes modernistes du XIXème siècle. Nous avons rappelé dans le chapitre 1 les contextes à la fois historiques et discursifs qui ont vu ou fait naître le concept de droits de l'homme puis avons présenté une description détaillée des traductions de 3 textes de référence : les traductions de la Charte constitutionnelle française de 1814 par Rifâ„a Râfi„ al-Tahtâwî (1801-1873), de la Déclaration des droits de l’homme et du citoyen de 1789 (DDHC) par Farah Antûn (1874-1922) et de la Déclaration Universelle des Droits de l’Homme (DUDH) de 1948 par les services de traduction de l‟Onu. Dans le chapitre 2, nous avons cherché à montrer que les textes traduits laissaient toujours transparaître des contradictions ou une certaine concurrence entre, d‟une part, les motivations idéologiques qui président à la rédaction des textes sources et, d‟autre part, les motivations intellectuelles de leurs traducteurs. Toujours dans cette perspective, nous avons étudié, au chapitre 3, trois traductions de textes relatifs au domaine mais de genres différents: un discours politique («A new beginning», Barack Obama), un article spécialisé (Human Rights Watch) et un extrait de rapport (Amnesty International). Nous avons mis en avant la complexité du statut des traducteurs de textes relatifs aux droits humains qui doivent, d‟une part, avoir des connaissances à la fois linguistiques, terminologiques et notionnelles, et, d‟autre part, adopter des stratégies traductives (choix lexicaux et phraséologiques) qui respectent la visée du texte source (politique, militante, informative…). / Assessing the extreme profusion of legal and journalistic texts dealing with human rights in Arabic, the aim of this thesis is to retrace the history of those texts‟ translation and to highlight on the most important phasis of its evolution, at terminological, phraseological and ideological levels. This research has made us go back to nineteenth century Arab modernist intellectuals‟ productions. We recalled in Chapter 1 to the both historical and discursive contexts in which the concept of human rights was born. Then, we have presented a detailed description of the translations of three representative texts: the translations of the 1814 French Constitutional Charter by Rifâ„a Râfi „ al-Tahtâwî (1801-1873), of the 1789 Declaration of the Rights of Human being and the Citizen (DDHC) by Farah Antûn (1874-1922) and of the 1948 Universal Declaration of Human Rights (UDHR) by the United Nations translation services. Chapter 2 demonstrates that the translated texts always denote elements of contradiction or at least some contention between, on the one hand, the ideological motives at the heart of the drafting of the original texts and, on the other hand, the intellectual purposes of the translators. And in such context, Chapter 3 sticks to this point focusing this time on three translations of texts related to the same field but belonging to different genres: a political speech ("A new beginning", Barack Obama), a feature article (Human Rights Watch) and an extract from a survey(Amnesty International). We have highlighted the very complexity inherent to the status of translators of texts dealing with human rights. They, on the one hand, have to be conversant with linguistics, terminological and notional knowledge and, on the other hand, have to keep to traductive strategies (lexical and phraseological choices) in order not to misrepresent the designs of the source text (political, activist, informative ...).
|
173 |
Chanter avec les mains : interfaces chironomiques pour les instruments de musique numériques / Singing with hands : chironomic interfaces for digital musical instrumentsPerrotin, Olivier 23 September 2015 (has links)
Le travail de cette thèse porte sur l'étude du contrôle en temps réel de synthèse de voix chantée par une tablette graphique dans le cadre de l'instrument de musique numérique Cantor Digitalis.La pertinence de l'utilisation d'une telle interface pour le contrôle de l'intonation vocale a été traitée en premier lieu, démontrant que la tablette permet un contrôle de la hauteur mélodique plus précis que la voix réelle en situation expérimentale.Pour étendre la justesse du jeu à toutes situations, une méthode de correction dynamique de l'intonation a été développée, permettant de jouer en dessous du seuil de perception de justesse et préservant en même temps l'expressivité du musicien. Des évaluations objective et perceptive ont permis de valider l'efficacité de cette méthode.L'utilisation de nouvelles interfaces pour la musique pose la question des modalités impliquées dans le jeu de l'instrument. Une troisième étude révèle une prépondérance de la perception visuelle sur la perception auditive pour le contrôle de l'intonation, due à l'introduction d'indices visuels sur la surface de la tablette. Néanmoins, celle-ci est compensée par l'important pouvoir expressif de l'interface.En effet, la maîtrise de l'écriture ou du dessin dès l'enfance permet l'acquisition rapide d'un contrôle expert de l'instrument. Pour formaliser ce contrôle, nous proposons une suite de gestes adaptés à différents effets musicaux rencontrés dans la musique vocale. Enfin, une pratique intensive de l'instrument est réalisée au sein de l'ensemble Chorus Digitalis à des fins de test et de diffusion. Un travail de recherche artistique est conduit tant dans la mise en scène que dans le choix du répertoire musical à associer à l'instrument. De plus, un retour visuel dédié au public a été développé, afin d'aider à la compréhension du maniement de l'instrument. / This thesis deals with the real-time control of singing voice synthesis by a graphic tablet, based on the digital musical instrument Cantor Digitalis.The relevance of the graphic tablet for the intonation control is first considered, showing that the tablet provides a more precise pitch control than real voice in experimental conditions.To extend the accuracy of control to any situation, a dynamic pitch warping method for intonation correction is developed. It enables to play under the pitch perception limens preserving at the same time the musician's expressivity. Objective and perceptive evaluations validate the method efficiency.The use of new interfaces for musical expression raises the question of the modalities implied in the playing of the instrument. A third study reveals a preponderance of the visual modality over the auditive perception for the intonation control, due to the introduction of visual clues on the tablet surface. Nevertheless, this is compensated by the expressivity allowed by the interface.The writing or drawing ability acquired since early childhood enables a quick acquisition of an expert control of the instrument. An ensemble of gestures dedicated to the control of different vocal effects is suggested.Finally, an intensive practice of the instrument is made through the Chorus Digitalis ensemble, to test and promote our work. An artistic research has been conducted for the choice of the Cantor Digitalis' musical repertoire. Moreover, a visual feedback dedicated to the audience has been developed, extending the perception of the players' pitch and articulation.
|
174 |
Troubles du langage verbal et non-verbal dans la maladie d'Alzheimer : Effets d'ateliers en voix chantée. / Verbal and non-verbal language disorders in Alzheimer's disease : some impacts of singing voice workshopsCaussade, Diane 14 December 2017 (has links)
Malgré le caractère multimodal du langage, peu de recherches se sont intéressées aux troubles langagiers verbaux et non-verbaux des personnes atteintes de la maladie d’Alzheimer, et encore moins à la prise en charge via la voix chantée de ces troubles. Pourtant, la remédiation de ces troubles langagiers permettrait de ralentir la progression symptomatique des troubles langagiers. Etant donné l’allongement de l’espérance de vie, la prévalence exponentielle des troubles neurocognitifs dès 65 ans – dont la cause la plus fréquente est la maladie d’Alzheimer pour laquelle il n’existe pas à l’heure actuelle de traitement curatif –, l’identification des facteurs pouvant ralentir la progression des symptômes est de première importance. Au vu de ces éléments, cette recherche s’est intéressée aux troubles de la communication verbale et non-verbale dans la maladie d’Alzheimer, ainsi qu’à l’impact de la voix chantée sur ces troubles. Pour ce faire, un protocole original a été mis en place consistant en une tâche de répétition en voix parlée ou voix chantée, avec ou sans gestes manuels communicatifs présentés. Ce protocole a permis d’évaluer les capacités de communication multimodale de personnes atteintes de la maladie d’Alzheimer et de personnes au vieillissement dit ‘normal’. A T0, de nombreux troubles du langage verbal et non-verbal ont été observés. Dès le stade léger de la maladie, les participants du groupe Patient ont produit des erreurs linguistiques et des pause(s) et/ou allongement(s) vocalique(s) de types différents des participants du groupe Contrôle. La capacité de répétition des gestes manuels des participants du groupe Patient semble également impactée, tout comme la qualité de reproduction des gestes iconiques. Dès le stade modéré de la maladie, les participants du groupe Patient ont produit davantage d’erreurs linguistiques (sur des types différents d’unités lexicales), ainsi que plus de gestes co-verbaux spontanés que les participants du groupe Contrôle. Au stade sévère de la maladie, les participants du groupe Patient ont répété moins d’énoncés et produit plus de pause(s) et/ou allongement(s) vocalique(s) que ceux du groupe Contrôle. Un impact de la voix chantée n’a été observé qu’au niveau du taux de répétition d’énoncés, moins élevé en voix chantée qu’en voix parlée pour tous les participants, ce qui pourrait être dû à un effet de double tâche. Les résultats comparatifs des capacités langagières verbales et non-verbales montrent un impact positif des ateliers en voix chantée sur la production d’erreurs linguistiques et de la répétition des gestes manuels des participants du groupe Patient. Nos résultats ont été discutés au vu de la littérature afin de distinguer les troubles langagiers verbaux et non-verbaux liés au vieillissement dit ‘normal’ et ceux symptomatiques de la maladie d’Alzheimer, d’apporter des éléments aux débats sur les diverses origines possibles du langage dans sa multimodalité, ainsi que de proposer des pistes de recherches de l’impact de la voix chantée sur les troubles langagiers des personnes atteintes de la maladie d’Alzheimer. / Despite the multimodal character of language, few researches studied the verbal and non-verbal communication abilities of people with Alzheimer’s disease, and even less of remediation via singing voice of those disorders. However their remediation could help to slowing down the symptomatic progression of language disorders. Given life expectancy, the exponential prevalence of neurocognitive disorders from 65 years old – of which most frequent cause is Alzheimer’s disease for which no curative treatment exists at this time –, the identification of factors slowing the symptoms progression is of the utmost importance. In view of those elements, this research focuses on the impact of singing on verbal and non-verbal communication disorders in Alzheimer’s disease. To do so, an original protocol has been set up consisting in a repetition task in singing or in speech, with or without the presentation of communicative manual gestures. This protocol helped evaluating multimodal communication abilities of people with Alzheimer’s disease and with ‘normal’ ageing. At the pre-tests, many verbal and non-verbal language disorders have been found. From the mild stage of the disease, the participants of the Patient group have produced more linguistic errors (of different types) and pauses and/or vocalic lengthenings than Control group participants. The manual gestures repetition ability of the participants of the Patient group also seems impacted, as the quality of iconic gestures production. From the moderate stage of the disease, the participants of the Patient group have produced more linguistic errors and on different types of linguistic unities, as well as more spontaneous co-verbal gestures than Control group participants. From the severe stage of the disease, the participants of the Patient group have repeated less utterances and produced more pauses and/or vocalic lengthenings than Control group participants. An impact of singing voice has only been noted on the utterances’ repetition rate, less high in singing and speech for all participants, which could be cause by a double task effect. The comparative results of verbal and non-verbal linguistic abilities have showed a positive impact of workshops in singing on the production of linguistic errors and the communicative gestures repetition of the participants of the Patient group. Our results have been discussed in the light of literature in order to distinguish verbal and non-verbal language disorders linked to ‘normal’ ageing and those symptomatic of Alzheimer’s disease. These findings enable us to make progress and to bring contribution in the current debate on the diverse possible origins of language in its multimodality, as well as suggest a line of research of the impact of singing voice on language disorders of people with Alzheimer’s disease.
|
175 |
L’improvisation vocale en musicothérapie auprès d’enfants présentant des troubles psychotiques : une voie vers l’harmonisation de l’originaire / Vocal improvisation in music therapy with children presenting psychotic disorders : a way towards the harmonization of the primary psychic processusLiegl, Darwin 28 January 2009 (has links)
L’auteur centre sa recherche sur la médiation sonore avec des enfants présentant des troubles psychotiques dans le cadre d’une pratique clinique groupale.La production de musique improvisée et l’improvisation vocale sont utilisées en tant que voies d’accès à l’originaire et à l’inconscient afin de favoriser la symbolisation.Complétée par une recherche théorique et des observations cliniques concernant l’émission de la voix archaïque chez nouveaux-nés et bébés, cette élaboration prend appui sur l’analyse du transfert-contre-transfert, la chaîne associative et les référentiels psychanalytiques. L’ensemble des analyses et observations montre que chez l’enfant présentant des troubles psychotiques, la pratique de la médiation sonore en groupe utilisant la technique de l’improvisation vocale, permet la mobilisation et l’harmonisation de séquences traumatiques originaires conduisant à une modification de la relation d’objet et inaugurant une dynamique évolutive accrue. / The author centers his research on sound mediation with children presenting psychotic disorders within the framework of clinical group practice.
The production of improvised music and vocal improvisation are used as gateways to the primary psychic processus and to the unconscious to facilitate symbolization.
Completed by theoretical research and clinical observations concerning the emission of the archaic voice to new-borns and babies, this elaboration is supported by the analysis of the transference-counter-transference, the as-sociative channel and psychoanalytical system of reference.
All the analyses and the obser-vations show that with children presenting psychotic disorders, the practice of group sound mediation using the technique of vocal improvisation, allows the mobilization and the harmo-nization of primary psychic processus traumatic sequences leading to a modification of the relation to object and initiating greater evolutionary dynamics.
|
176 |
Stratégies directes et indirectes d'usage de la langue : l'exemple d'élèves d'école élémentaire en filière franco-allemande / Direct et indirect language usage strategies at a primary school with a german-french profileFournier, Léonie 13 February 2015 (has links)
Nous définissons les stratégies d'usage de la langue de la façon suivante : il s’agit de stratégies langagières que les élèves appliquent en résolvant des exercices en langue cible (par exemple de DEL 2). Afin d’analyser ces stratégies langagières, nous menons une étude qualitative auprès de 14 écoliers suivant un cursus franco-allemand à Baden-Baden. Nous demandons aux élèves de résoudre des exercices de français tirés des Évaluations nationales des acquis des élèves. Nous appliquons la méthode de la pensée à voix haute. Les élèves choisissent s'ils verbalisent leurs pensées en langue allemande ou française. L'objectif principal de notre étude est d'analyser et d'éliciter les stratégies d'usage de la langue.Environ 1000 stratégies ont été observées et codées avec le logiciel MAXQDA. Les stratégies cognitives sont les stratégies qui ont été appliquées le plus souvent par les élèves testés - en tout presque 350 fois. La langue de base choisie par les élèves pour les protocoles à voix haute était le français et pas l'allemand. / This thesis reports on an empirical study of 3rd and 4th grade students in a German-French bilingual school. The study consisted of research subjects solving exercises by using the thinkaloud method, after which film and transcription analysis allowed for a detailed examination of the strategies used during the exercises. Such strategies have been termed "language usagestrategies" and have been distinguished from learning and communication strategies. This distinction is important because when students use their L2 in this context, their goal is not to learn the language or to communicate, rather, it is to solve the exercise. The students used and combined many cognitive, compensatory, metacognitive, social and affective strategies during the Think aloud Protocols. Also the individual interviews revealed that the students manifested a large number of language usage strategies, suggesting that they are conscious of strategy usage when using their L2.
|
177 |
Analyse acoustique de la voix émotionnelle de locuteurs lors d’une interaction humain-robot / Acoustic analysis of speakers emotional voices during a human-robot interactionTahon, Marie 15 November 2012 (has links)
Mes travaux de thèse s'intéressent à la voix émotionnelle dans un contexte d'interaction humain-robot. Dans une interaction réaliste, nous définissons au moins quatre grands types de variabilités : l'environnement (salle, microphone); le locuteur, ses caractéristiques physiques (genre, âge, type de voix) et sa personnalité; ses états émotionnels; et enfin le type d'interaction (jeu, situation d'urgence ou de vie quotidienne). A partir de signaux audio collectés dans différentes conditions, nous avons cherché, grâce à des descripteurs acoustiques, à imbriquer la caractérisation d'un locuteur et de son état émotionnel en prenant en compte ces variabilités.Déterminer quels descripteurs sont essentiels et quels sont ceux à éviter est un défi complexe puisqu'il nécessite de travailler sur un grand nombre de variabilités et donc d'avoir à sa disposition des corpus riches et variés. Les principaux résultats portent à la fois sur la collecte et l'annotation de corpus émotionnels réalistes avec des locuteurs variés (enfants, adultes, personnes âgées), dans plusieurs environnements, et sur la robustesse de descripteurs acoustiques suivant ces quatre variabilités. Deux résultats intéressants découlent de cette analyse acoustique: la caractérisation sonore d'un corpus et l'établissement d'une liste "noire" de descripteurs très variables. Les émotions ne sont qu'une partie des indices paralinguistiques supportés par le signal audio, la personnalité et le stress dans la voix ont également été étudiés. Nous avons également mis en oeuvre un module de reconnaissance automatique des émotions et de caractérisation du locuteur qui a été testé au cours d'interactions humain-robot réalistes. Une réflexion éthique a été menée sur ces travaux. / This thesis deals with emotional voices during a human-robot interaction. In a natural interaction, we define at least, four kinds of variabilities: environment (room, microphone); speaker, its physic characteristics (gender, age, voice type) and personality; emotional states; and finally the kind of interaction (game scenario, emergency, everyday life). From audio signals collected in different conditions, we tried to find out, with acoustic features, to overlap speaker and his emotional state characterisation taking into account these variabilities.To find which features are essential and which are to avoid is hard challenge because it needs to work with a high number of variabilities and then to have riche and diverse data to our disposal. The main results are about the collection and the annotation of natural emotional corpora that have been recorded with different kinds of speakers (children, adults, elderly people) in various environments, and about how reliable are acoustic features across the four variabilities. This analysis led to two interesting aspects: the audio characterisation of a corpus and the drawing of a black list of features which vary a lot. Emotions are ust a part of paralinguistic features that are supported by the audio channel, other paralinguistic features have been studied such as personality and stress in the voice. We have also built automatic emotion recognition and speaker characterisation module that we have tested during realistic interactions. An ethic discussion have been driven on our work.
|
178 |
Optimisation du procédé de création de voix en synthèse par sélection / Optimised voice creation for unit-selection synthesisCadic, Didier 10 June 2011 (has links)
Cette thèse s'inscrit dans le cadre de la synthèse de parole à partir du texte. Elle traite plus précisément du procédé de création de voix en synthèse par sélection d'unités. L'état de l'art repose pour cela sur l'enregistrement d'un locuteur pendant une à deux semaines, suivant un script de lecture de plusieurs dizaines de milliers de mots. Les 5 à 10 heures de parole collectées sont généralement révisées par des opérateurs humains, pour en vérifier la segmentation phonétique et ainsi améliorer la qualité finale de la voix de synthèse.La lourdeur générale de ce procédé freine considérablement la diversification des voix de synthèse ; aussi en proposons-nous ici une rationalisation. Nous introduisons une nouvelle unité, appelée "sandwich vocalique", pour l'optimisation de la couverture des scripts de lecture. Sur le plan phonétique, cette unité offre une meilleure prise en compte des limites segmentales de la synthèse par sélection que les unités traditionnelles (diphones, triphones, syllabes, mots, etc.). Sur le plan linguistique, un nouvel enrichissement contextuel nous permet de mieux focaliser la couverture, sans négliger les aspects prosodiques. Nous proposons des moyens d'accroître le contrôle sur les phrases du script lecture, tant dans leur longueur que dans leur pertinence phonétique et prosodique, afin de mieux anticiper le contenu du corpus de parole final et de rendre automatisable la tâche de segmentation. Nous introduisons également une alternative à la stratégie classique de condensation de corpus en mettant au point un algorithme semi-automatique de création de phrases, grâce auquel nous accroissons de 30 à 40% la densité linguistique du script de lecture.Ces nouveaux outils nous permettent d'établir un procédé très efficace de création de voix de synthèse, procédé que nous validons à travers la création et l'évaluation subjective de nombreuses voix. Des scores perceptifs comparables à l'approche traditionnelle sont ainsi atteints dès 40 minutes de parole (une demi-journée d'enregistrement) et sans post-traitement manuel. Enfin, nous mettons à profit ce résultat pour enrichir nos voix de synthèse de diverses composantes expressives, multi-expressives et paralinguistiques. / This work falls within the scope of text-to-speech (TTS) technology. More precisely, focus is on the voice creation process for unit-selection synthesis. In a standard approach, a textual script of several thousands of words is read by a speaker in order to generate approximately 5 to 10 hours of useable speech. The recording time is spread out over one or two weeks and is followed by the considerable task of manually revising the phonetic segmentation for all of the speech.Such a costly and time-consuming process presents a major obstacle to diversifying synthesized voices. In order to increase efficiency in this process, we introduce a new unit, called a "vocalic sandwich", to optimize coverage of the recording texts. Phonetically, this unit better addresses the segmental limitations of unit-selection TTS than state-of-the-art units (diphones, triphones, syllables, words...). Linguistically, a new set of contextual symbols focuses the coverage, allowing for more control and consideration of prosody. Practically, in order to automate the segmentation process, better anticipation of the phonetic and prosodic content desired in the final database is required. This is achieved here by increasing the readability and consistency of each sentence included in the script. As a side, these properties also help to facilitate the reading stage. Furthermore, as an alternative to the classic corpus condensation, a semi-automatic sentence building algorithm is developed in this work wherein sentences are built rather than selected from a reference corpus. Ultimately, the sentence building provides access to much denser scripts, specifically allowing for increases in density of between 30 and 40%.In incorporating these new approaches and tools, the voice creation process is made very efficient, as is validated in this work through the preparation and evaluation of numerous synthesized voices. Perceptive scores that are comparable to the traditional process are achieved with 40 minutes of speech (half-day recording) and without any manual post-processing. Finally, we take advantage of these results in order to enhance our synthesized voices with various expressive, multi-expressive and paralinguistic features.
|
179 |
Le marqueur –sja en russe contemporain : approche énonciative / The marker –sja in contemporary Russian : an enunciative approachSaudreau, Sébastien 05 December 2014 (has links)
Cette thèse a pour objectif de proposer une approche renouvelée des verbes russes en –sja (Vsja), improprement qualifiés de « réfléchis ». Les approches existantes peinent à rendre compte des valeurs multiples et contradictoires que peuvent assumer ces verbes et notamment de celles ne pouvant en aucun cas relever de la réfléxivité stricto sensu.Le modèle proposé s’inscrit dans la théorie des opérations énonciatives (TOE) et unifie toutes les valeurs de Vsja. Tout d’abord, la comparaison de –sja, sebjá et de la particule atone sebe a permis de mieux dessiner les spécificités de Vsja. Puis l’analyse des faits diachroniques a permis de rappeler le lien ancien qui, en slave, unit –sja à la valeur de la voix moyenne. Cependant, –sja, en synchronie, ne peut être considéré comme un opérateur de voix notamment parce que certains emplois de Vsja (kusat’sja, par exemple) n’entraînent aucun changement de voix ou de diathèse. Dans notre modèle, –sja est la trace d’une opération énonciative visant à centraliser une relation – et une seule – entre Vsja et un autre actant de l’énoncé, qui n’est pas forcément le sujet grammatical, mais sans exclure obligatoirement la relation au second actant dans le cas des phrases biactancielles. Celle-ci est seulement périphérisée et, selon le sémantisme de Vsja et des actants en présence, peut/doit être maintenue ou exclue. Et si cette centralisation, qui intervient juste après l’opération d’instanciation, engendre, sur le plan sémantique, des effets de sens de type voix moyenne, ce modèle permet surtout d’envisager Vsja en dehors du système des voix verbales, tout comme il permet de résoudre l’ensemble des contradictions apparentes entre les différentes valeurs de Vsja. / The aim of this study is to propose a new approach to –sja verbs in Russian, improperly described as “reflexive”. The existing models fail to account for all the various and sometimes contradictory values assumed by –sja verbs, in particular for those Vsja which cannot be considered as having a “reflexive” meaning.The proposed model lies within the framework of the Théorie des opérations énonciatives (TOE) and unifies all the values of –sja verbs. The comparison between –sja, sebjá and the atonic particle sebe helped to understand the specificity of –sja. Then a short analysis of diachronical facts enabled us to stress the historical link in Slavic between –sja and the middle voice. Nevertheless, the marker cannot be considered synchronically as a “voice operator” notably because certain Vsja (e. g. kusat’sja) do not present a voice or diathesis shift. In our model, –sja is the sign of an enunciative operation whose aim is to centralize the relation between Vsja and one actant only, that is not necessarily the grammatical subject, and resulting in the other relation being simply peripheralized. Such an approach allows to solve all the apparent contradictions within the so-called Russian “reflexive” verbs and allows also to envisage Vsja outside the system of the verbal voices.
|
180 |
User controlled trust and security level of Web real-time communications / Niveau de confiance et de sécurité des communications Web temps-réel contrôlé par l'utilisateurCorre, Kevin 31 May 2018 (has links)
Dans cette thèse, je propose trois contributions principales : dans notre première contribution, nous étudions l'architecture d'identité WebRTC et plus particulièrement son intégration aux algorithmes de délégation d'authentification existants. Cette intégration n'a pas encore été étudiée jusqu'à présent. Dans cette perspective, nous implémentons les composants de l'architecture d'identité WebRTC ce qui nous permet de montrer que cette architecture n'est pas particulièrement adaptée à une intégration aux protocoles de délégation d'authentification existants tels qu'OpenID Connect. Pour répondre à RQ1, nous montrons ensuite comment la position centrale des fournisseurs d'identité dans l'écosystème du Web est renforcée par leur intégration à l'établissement de session WebRTC, posant ainsi un risque supplémentaire contre la discrétion des utilisateurs. Dans l'écosystème Web, la norme est l'architecture des services en silo dont les utilisateurs sont captifs. C'est en particulier le cas des systèmes de délégation d'authentification, pour lesquels la plupart du temps, il n'est pas possible de choisir son fournisseur d'identité. Afin de répondre à RQ3, nous réalisons une étude afin de déterminer pour quelles raisons les utilisateurs ne peuvent pas choisir leur fournisseur d'identité sur Web. Notre étude montre que bien que ce choix soit possible en théorie, l'absence d'implémentation de certains standards par les sites webs et les fournisseurs d'identité empêche ce choix en pratique. Dans notre seconde contribution, nous cherchons à donner plus de contrôle à l'utilisateur. Pour ce faire et en réponse à RQ2, nous proposons une extension de la spécification WebRTC afin de permettre la négociation des paramètres d'identité. Un prototype d'implémentation est proposé afin de valider notre proposition. Cette implémentation révèle certaines limites dues à l'API d'identité WebRTC empêchant notamment d'obtenir un retour sur le niveau d'authentification de l'autre utilisateur ainsi que l'impossibilité de changer de fournisseur d'identité en cours de session. Nous proposons ensuite une API Web permettant aux utilisateurs de choisir leur fournisseur d'identité lors d'une authentification sur un site tiers via une interface de sélection d'identité contrôlée par le navigateur. Répondant à RQ3, notre API repose sur une réutilisation de l'architecture d'identité WebRTC dans un scénario client-serveur. Nous présentons une implémentation de notre solution, basée sur une extension du navigateur Firefox, afin d'en démontrer l'utilisabilité. Nos résultats montrent qu'à long terme, l'adoption de cette API pourrait réduire la charge d'implémentation pour les développeurs de sites Web et permettre aux utilisateurs de préserver leur discrétion en choisissant des fournisseurs d'identité de confiance. / In this thesis, we propose three main contributions : In our first contribution we study the WebRTC identity architecture and more particularly its integration with existing authentication delegation protocols. This integration has not been studied yet. To fill this gap, we implement components of the WebRTC identity architecture and comment on the issues encountered in the process. In order to answer RQ1, we then study this specification from a privacy perspective an identify new privacy considerations related to the central position of identity provider. In the Web, the norm is the silo architecture of which users are captive. This is even more true of authentication delegation systems where most of the time it is not possible to freely choose an identity provider. In order to answer RQ3, we conduct a survey on the top 500 websites according to Alexa.com to identify the reasons why can't users choose their identity provider. Our results show that while the choice of an identity provider is possible in theory, the lack of implementation of existing standards by websites and identity providers prevent users to make this choice. In our second contribution, we aim at giving more control to users. To this end and in order to answer RQ2, we extend the WebRTC specification to allow identity parameters negotiation. We present a prototype implementation of our proposition to validate it. It reveals some limits due to the WebRTC API, in particular preventing to get feedback on the other peer's authentication strength. We then propose a web API allowing users to choose their identity provider in order to authenticate on a third-party website, answering RQ2. Our API reuse components of the WebRTC identity architecture in a client-server authentication scenario. Again, we validate our proposition by presenting a prototype implementation of our API based on a Firefox extension. Finally, in our third contribution, we look back on RQ1 and propose a trust and security model of a WebRTC session. Our proposed model integrates in a single metric the security parameters used in the session establishment, the encryption parameters for the media streams, and trust in actors of the communication setup as defined by the user. Our model objective is to help non-expert users to better understand the security of their WebRTC session. To validate our approach, we conduct a preliminary study on the comprehension of our model by non-expert users. This study is based on a web survey offering users to interact with a dynamic implementation of our model.
|
Page generated in 0.0347 seconds