• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 503
  • 273
  • 54
  • 51
  • 41
  • 29
  • 24
  • 12
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • Tagged with
  • 1313
  • 516
  • 295
  • 149
  • 122
  • 102
  • 90
  • 87
  • 83
  • 80
  • 79
  • 75
  • 67
  • 65
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Social Perception of the Human Voice: Perceiver Attunement to the Vocal Specification of Speaker Physical Characteristics.

Miles, Brad Hamish January 2012 (has links)
The human voice is a common and important part of the social environment. In addition to being the primary carrier of language, there is growing evidence that the sound of a person’s voice contains a great deal of socially relevant information. Drawing on a functional approach to perception, the current research investigated the attunement of social perceivers to the vocal specification of speaker physical properties. An initial study developed a set of vocal samples for use in subsequent perceptual studies, and conducted exploratory analyses investigating relationships between speaker vocal and physical characteristics. Significant differences in the acoustic properties of male and female voices were identified, but the relationships between acoustic properties and speaker age, body size, and body configuration were less robust. Study 2 investigated the ability of listeners to accurately perceive the physical characteristics of speakers from vocal information. Perceivers made assessments of speaker physical characteristics that were highly consensual and that accurately reflected speaker sex, age, and body size. Studies 3 and 4 investigated perceiver judgments of vocal attractiveness. In Study 3, both male and female perceivers rated the voices of male speakers with lower indices of body asymmetry (a marker of genotypic and phenotypic condition) as more attractive. However, for female perceivers it was shown that this relationship is influenced by changes in fertility levels associated with the menstrual cycle. At times of high fertility female perceivers displayed a stronger attraction to the voices of male speakers with low asymmetry than they did at times of low fertility. This finding was interpreted as a functional shift increasing attraction to males possessing phenotypic markers of high fitness when the likelihood of conception is highest. Study 4 considered the effects of menstrual cycle variation on the voices of female speakers. Both male and female perceivers rated female voices recorded during a phase of high fertility to be more attractive than the same voices recorded during a phase of low fertility. This finding extends previous research demonstrating cyclic shifts in visual and olfactory attractiveness to the auditory domain, and is discussed in terms of the vocal specificity of female fertility status. Study 5 extended the previous studies by considering how vocal cues specifying the sex and age of a social target interact with visual cues to influence social perception. Relative to concordant voice and face information, discordant information was found to facilitate social memory. This finding is discussed with regards to the integration of multiple sources of information in social perception. The results of all studies are discussed in terms of the adaptive significance of perceivers accurately detecting the physical characteristics of others that are specified vocally.
492

Aspects of the Korean traditional vocal genre,kagok: female kagok and the call for a new integrative kagok notation

Lee, In-suk January 2007 (has links)
Kagok is a genre of highly refined, traditional, Korean, vocal music, which is now endangered and marginalized in contemporary Korean culture. Female kagok signers (kisaeng) have also been ignored in Korean music society. The aim of this study is to preserve and revitalize kagok, in order to conserve its true nature in a contemporary context, and for the future. This thesis is twofold. The first part shows how the aesthetics of the Chosŏn dynasty are fundamental to kagok's history, and female kagok singers' education. Furthermore, existing kagok scores, written in traditional chŏngganbo notation or in Western staff notation, are examined in this part, and they reveal the need for the creation of a new kagok notation. The second part of the thesis concerns the creation and testing of the New Integrative Kagok Notation (NIKN), which combines the essentials of chŏngganbo and Western staff notation, and provides a more effective vehicle for the transmission, transcription and recording of this art form, particularly for inexperienced, contemporary students.
493

Santa Claus: : an opera in one act

Brown, Jason Edward January 2001 (has links)
The musical structure of Santa Claus is similar to Alban Berg's statements about his opera Wozzeck, that the audience does not need to be aware of the underlying processes that are in motion.Seen from the highest level of stratification, Santa Claus the opera is essentially a single sonata-allegro movement. The first scene is the exposition, scenes two through four are the development, and the fifth scene the recapitulation. Also at this level can be seen the overall arch shape of the formal structure. This arch reflects not only the melodic material, but tempo, texture, and structural design.At the next level of stratification each of the five scenes is a movement of a fivemovement sonata form. The first scene is a sonata-allegro form. The second scene is a scherzo and trio with a repetition of the scherzo during the interlude. The third scene is a fantasy and canon; the fourth scene is an Adagio in ABA form. And lastly the fifth scene, again not strictly a sonata movement, contains an aria and a march and trio.The third layer of stratification is the continuous development and variation of four melodic/harmonic units. The development of these units forms the structural base of the entire opera at both the local level and the global level, and it is through this process that the both global and local structures can be identified. / School of Music
494

A survey of the choral music of Halsey Stevens

Vanderkoy, Paul Arthur January 1981 (has links)
Although Halsey Stevens is a distinguished American composer whose works are widely accepted, and although he has forty-one published works for various choral combinations to his credit, of which four are conceived for combined choral and instrumental forces, there is at present no survey of this choral literature in existence. Since this music receives wide acceptance, the author has felt the need to provide a survey in the hope that the discussions and descriptions will enable choral conductors to discover a source of beautiful music, and to choose works pertinent to their own needs from this body of literature.Chapter I consists of a review of literature pertinent to Stevens and his style.Chapter II is an overview of analysis, including a discussion of analysis in relation to choral music.Chapter III presents a summary of stylistic characteristics as found in Stevens’ choral music. A discussion of the author’s conclusions ends the chapter.The survey is presented in chapters IV and V. Chapter IV deals with the short works. Those which are longer in duration, principally comprising combinations of choral and orchestral forces, constitute chapter V. Campion Suite, for a cappella choir, has been included with this section of longer works, since it is the author’s opinion that it is best performed as an entity.A brief data summary precedes discussion of each work. This summary includes publication information, date of composition, place of composition, any dedicatory information, voicings and instrumentations, sources of text, vocal ranges, and timings. The discussion of the work following the summary is intended to provide a succinct description, sufficient to enable a prospective director to decide whether the work is suitable to his performance needs. Musical examples are included to illustrate various aspects of Stevens’ style as well as to show unusual and interesting features of his music.Appendix I contains the musical examples referred to in the survey, while appendix II lists the published choral music in chronological order.
495

The impact of vocal expressions on the understanding of affective states in others

Jürgens, Rebecca 24 November 2014 (has links)
Ein wichtiger Aspekt des täglichen sozialen Lebens ist das Erkennen von emotionalen Zuständen in unserem Gegenüber. Unsere Emotionen und Intentionen teilen wir nicht nur durch sprachliche Äußerungen mit, sondern auch über die Mimik, Körpersprache und den Tonfall in der Stimme. Diese nichtverbalen, emotionalen Ausdrücke sind Bestandteile einer Emotion, zu denen darüber hinaus das subjektive Empfinden, die Handlungsbereitschaft und die damit zusammenhängenden physiologischen Reaktionen gehören. Obwohl die emotionale Kommunikation schon seit Jahrzehnten im Fokus der Wissenschaft liegt, ist noch unklar, welche Bestandteile einer Emotion genau kommuniziert und wie diese Informationen verarbeitet werden. Zudem spielen emotionale Ausdrücke eine wichtige Rolle in sozialen Interaktionen und werden häufig bewusst verwendet, um sozial-angepasstes Verhalten zu zeigen. Damit ist ihre Reliabilität, die tatsächliche Gefühlswelt des Gegenübers wiederzugeben, fraglich. Das Erkennen von Emotionsausdrücken, die auf empfunden Emotionen basieren ist jedoch von enormer Wichtigkeit für die nachfolgenden Handlungen. Deswegen sollte die Fähigkeit, empfundene von gespielten Emotionen unterscheiden zu können, essentiell sein. Da vokale Ausdrücke durch Einflüsse des autonomen Nervensystems auf den Vokaltrakt gebildet werden, sind diese als besonders vielversprechend anzusehen, um zugrundeliegende emotionale Zustände aufzudecken. Die Erkennung von Emotionen im Gegenüber ist nicht unveränderlich, sondern hängt unter anderem auch von der Beziehung zwischen dem Sprecher und dem Zuhörer ab. So konnte in einer früheren Studie gezeigt werden, dass bei Personen, die derselben Gruppe angehören, Emotionen besser erkannt werden konnten. Dieser Effekt lässt sich einerseits mit einer Aufmerksamkeitsverschiebung hin zu Personen mit erhöhter sozialer Relevanz deuten. Andererseits gibt es Erklärungsansätze, die auf eine erhöhte Bereitschaft für empathische Reaktionen hinweisen. Erfolgreiches Verstehen von Emotionen wird in der Forschungsliteratur eng mit dem Spiegeln oder dem Simulieren der wahrgenommen Emotion verknüpft. Die affektiven Neurowissenschaften zeigten bisher ein gemeinsames neuronales Netzwerk, welches aktiv ist, wenn Personen eine Emotion bei anderen wahrnehmen oder selber empfinden. Die neurale Aktivität in diesem Netzwerk wird zudem von der sozialen Relevanz der Person beeinflusst, welche die Emotion zeigt. Welches Ausmaß das Wiederspiegeln einer Emotion auf der Verhaltensebene hat um eine Emotion zu erkennen ist hingegen noch ungeklärt. Auch die Frage nach dem Einfluss des Sprechers auf die empathische Reaktion ist noch nicht abschließend geklärt. In dieser Arbeit untersuchte ich vokale Emotionsausdrücke und versuchte zunächst das Verhältnis zwischen gespielten und spontanen Ausdrücken zu verstehen. Anschließend konzentrierte ich mich auf die Frage, welche Bedeutung das Teilen einer Emotion und die Relevanz des Sprechers auf die Emotionserkennung haben. Im ersten Teil dieser Arbeit verglich ich die Wahrnehmung von spontanen und gespielten vokalen Ausdrücken in einer interkulturellen Studie. Im Gegensatz zu spontanen Ausdrücken wurde angenommen, dass gespielte Ausdrücke vermehrt auf sozialen Codes basieren und daher von Hörern anderer Kulturen als der Herkunftskultur weniger akkurat erkannt werden. Alternativ könnte die Emotionserkennung beider Bedingungen universell sein. Dieser interkulturelle Vergleich wurde anhand von 80 spontanen Emotionsausdrücken durchgeführt, die von Menschen aufgenommen wurden, welche sich in emotionalen Situationen befanden. Die gespielten Stimuli bestanden aus den nachgespielten Szenen, die von professionellen Schauspielern eingesprochen worden. Kurze Sequenzen dieser Ausdrücke wurden Versuchspersonen in Deutschland, Rumänien und Indonesien vorgespielt. Die Versuchspersonen erhielten die Aufgabe anzugeben, welche Emotion dargestellt wurde und ob der Ausdruck gespielt oder echt war. Im Ganzen konnten die Versuchspersonen nur unzureichend angeben, inwieweit ein Ausdruck gespielt war. Deutsche Hörer waren in beiden Aufgaben besser als die Hörer der anderen Kulturen. Dieser Vorteil war unabhängig von der Authentizität des Stimulus. Die Emotionserkennung zeigte ein vergleichbares Muster in allen Kulturen, was für eine universelle Grundlage der Emotionserkennung spricht. Die Erkennungsraten im Allgemeinen waren schwach ausgeprägt und ob ein Ausdruck gespielt oder echt war, beeinflusste lediglich die Erkennung von den Emotionen Ärger und Trauer. Ärger wurde besser erkannt wenn er gespielt war und Trauer wenn sie echt war. Der zweite Teil meiner Arbeit beschäftigte sich mit der Ursache für die oben erwähnten Unterschiede in der Emotionserkennung und untersuchte, welchen Einfluss Schauspieltraining auf die Glaubwürdigkeit der Emotionsdarstellung hat. Zu diesem Zweck erweiterte ich den Stimulus-Korpus um Emotionsausdrücke, die von schauspiel-unerfahrenen Sprechern eingesprochen wurden. Zusätzlich zu der Bewertungsstudie führte ich eine akustische Analyse der Sprachaufnahmen durch. Es wurde vorhergesagt, dass professionelle Schauspieler besser geeignet seien als schauspiel-unerfahrene Sprecher, um glaubwürdig Emotionsausdrücke zu generieren. Diese Vorhersage konnte jedoch nicht bestätigt werden. Die Ausdrücke der professionellen Schauspieler wurden im Gegenteil sogar häufiger als gespielt wahrgenommen als die der unerfahrenen Sprecher. Für die professionellen Sprecher konnte ich das Muster in der Emotionserkennung, welches sich in der interkulturellen Studie zeigte, replizieren. Die Ausdrücke der unerfahrenen Sprecher hingegen wichen nur in den geringeren Erkennungsraten für Trauer von den spontanen Ausdrücken ab. Der Haupteffekt der akustischen Analyse bestand in einer lebhafteren Sprachmelodie der gespielten Ausdrücke. Im dritten Teil der Arbeit untersuchte ich den Prozess der Emotionserkennung. Zu diesem Zweck manipulierte ich in einem Experiment die biographische Ähnlichkeit zwischen fiktiven Sprechern und dem Hörer. Auf Grund der höheren Relevanz eines ähnlichen Sprechers, sollten emotionale Ausdrücke in der ähnlichen Bedingung besser erkannt werden als in der unähnlichen. Um den Einfluss des gemeinsamen Erlebens einer Emotion auf die Emotionserkennung festzustellen, zeichnete ich außerdem die Hautleitfähigkeit und die Pupillenveränderung auf, welches beides Marker für Reaktionen des autonomen Nervensystems sind. Währenddessen wurden den Versuchspersonen ärgerliche, freudige und neutrale vokale Ausdrücke präsentiert, welche sie zu bewerten hatten. Ähnlichkeit hatte weder einen Einfluss auf die Emotionserkennung noch auf die peripher-physiologischen Messungen. Die Versuchspersonen zeigten keine Reaktionen der Hautleitfähigkeit auf vokale Ausdrücke. Die Pupille hingegen reagierte emotionsabhängig. Diese Befunde deuten darauf hin, dass die affektive Verarbeitung nicht das gesamte autonome Nervensystem miteinschließt, zumindest nicht, wenn lediglich die Stimme verarbeitet wird. Das Teilen einer Emotion scheint demnach kein notweniger Bestandteil des Verstehens oder der Erkennung zu sein. Die Ähnlichkeit zwischen Sprecher und Hörer könnte die Emotionsverarbeitung in einer lebensnahen Umgebung beeinflussen, in der eine persönliche Verbindung zwischen beiden Interaktionspartnern möglich ist, nicht hingegen in einer mehrheitlich artifiziellen Manipulation. Empathische Reaktionen brauchen um wirksam zu werden einen ganzheitlicheren Ansatz. Meine Arbeit konzentrierte sich auf das Verständnis von emotionaler Kommunikation in Bezug auf vokale Emotionsausdrücke und konnte zeigen, dass das bewusste Hören einzelner, kontextfreier Emotionsausdrücke nicht ausreichend ist um auf tatsächliche emotionale Zustände rückschließen zu können. Dies wird durch die fehlende Differenzierung von gespielten und spontanen Emotionsausdrücken deutlich. Darüber hinaus konnte ich aufzeigen, dass vokale Emotionsausdrücke im Hörer keine starken Reaktionen des autonomen Nervensystems auslösen. Die Kommunikation mittels vokaler emotionaler Ausdrücke scheint daher vermehrt auf kognitiven als auf affektiven Prozessen zu basieren.
496

Simone Verovio, 16th century composer and engraver : Diletto spirituale.

Kimmel, Lessy. January 1973 (has links)
No description available.
497

Vocal Frequency Estimation and Voicing State Prediction with Surface EMG Pattern Recognition

De Armas, Winston 11 July 2013 (has links)
Most electrolarynges do not allow hands-free use or pitch modulation. This study presents the potential of pattern recognition to support electrolarynx use by predicting fundamental frequency (F0) and voicing state (VS) from neck surface EMG and respiratory trace. Respiratory trace and neck surface EMG were collected from 10 normal, adult males (18-60 years old) during different vocal tasks. Time-domain features were extracted from both signals, and a Support Vector Machine (SVM) classifier was employed to model F0 and VS. An average mean-squared-error (MSE) of 8.21 ± 3.5 semitones2 was achieved for the estimation of vocal frequency. An average classification accuracy of 78.05 ± 6.3 % was achieved for the prediction of voicing state from EMG and 65.24 ± 7.8 % from respiratory trace. Our results show that pattern classification of neck-muscle EMG and respiratory trace has merit in the prediction of F0 and VS during vocalization.
498

Vocal Frequency Estimation and Voicing State Prediction with Surface EMG Pattern Recognition

De Armas, Winston 11 July 2013 (has links)
Most electrolarynges do not allow hands-free use or pitch modulation. This study presents the potential of pattern recognition to support electrolarynx use by predicting fundamental frequency (F0) and voicing state (VS) from neck surface EMG and respiratory trace. Respiratory trace and neck surface EMG were collected from 10 normal, adult males (18-60 years old) during different vocal tasks. Time-domain features were extracted from both signals, and a Support Vector Machine (SVM) classifier was employed to model F0 and VS. An average mean-squared-error (MSE) of 8.21 ± 3.5 semitones2 was achieved for the estimation of vocal frequency. An average classification accuracy of 78.05 ± 6.3 % was achieved for the prediction of voicing state from EMG and 65.24 ± 7.8 % from respiratory trace. Our results show that pattern classification of neck-muscle EMG and respiratory trace has merit in the prediction of F0 and VS during vocalization.
499

The effects of vocal loudness and speaking rate on voice-onset time in typically developing children and children with cochlear implants

Knuttila, Erica Lynn 06 1900 (has links)
This study explores the effects of manipulating vocal loudness and speech rate on voice onset time (VOT) in normal hearing children and two children with cochlear implants (CIs). 15 normal hearing participants and two participants with CIs produced all six stop consonants in the phrase “It’s a Cod again” while speaking normally, softly, loudly, slowly, and quickly. Consonants were grouped into voiced and voiceless categories for comparison. Results indicated that the group of normal hearing children produced longer VOTs for voiceless stops than voiced across all conditions. When speaking loudly or quickly, VOT values were shorter than at normal levels. When speaking softly or slowly, VOT values were longer than at normal levels. The two children with CIs performed in a similar manner to the normal hearing group; however, VOTs produced by the six-year old participant were consistently longer than those of the normal hearing group across all conditions. / Speech-Language Pathology
500

Respiratory, laryngeal, and articulatory adjustments to changes in vocal loudness in typically developing children and children with spastic-type cerebral palsy

Archibald, Erin D 06 1900 (has links)
This study explored the physiological adjustments made by the speech mechanism when sustained maximum phonations and sentences differing in vocal loudness were produced by typically developing children and children with cerebral palsy (CP). Respiratory adjustments (lung volume initiation, termination and excursions), chest wall muscular amplitude adjustments (intercostal, obliques), vocal fold adjustments (speed quotient), fundamental frequency of selected vowel nuclei and area of mouth opening were calculated. A total of eight children (4 typically developing children, 4 children with CP) were studied. Results indicated that overall typically developing children adjusted lung volume initiation, lung volume excursion, intercostal and oblique muscle activity, speed quotient, fundamental frequency, and area of mouth opening to meet vocal loudness targets. In contrast, children with CP primarily adjusted intercostal and oblique muscle activity, speed quotient, and fundamental frequency to meet vocal loudness targets. / Speech-Language Pathology

Page generated in 0.0352 seconds