Return to search

Software para prática de regência coral / Software For Choral Conducting

MOREIRA, C. C. Software Para Prática De Regência Coral. 2013. 60 f. Dissertação (Mestrado) - Instituto de Matemática e Estatística, Universidade de São Paulo, São Paulo, 2013. Neste documento um software é proposto para apoiar o ensino da regência coral com base em um modelo de aula padrão observado na disciplina: Análise Musical para Performance: Interfaces entre Criação e Interpretação a Partir do Universo Coral do Departamento de Música da Escola de Comunicações e Artes da Universidade de São Paulo. Neste software é possível: (i) monitorar, (ii) mensurar e (iii) avaliar os padrões de regência (gestos) de regência realizados e as posições corporais de um estudante de regência coral. O principal objetivo é permitir, através da interação com o software, que o estudante possa aprimorar sua consciência corporal através do monitoramento de seu posicionamento espacial enquanto realiza os padrões de regência e se vê projetado tridimensionalmente no sistema. Para que este monitoramento seja suportado, três módulos foram criados, de modo que as devidas configurações possam ser realizadas, assim como a visualização seja feita, a saber: (a) módulo de configuração de padrões de regência, onde padrões de regência são criados ou modificados; (b) módulo de criação de práticas, que podem ser: (b.1) sintéticas, e neste caso utilizam os padrões de regência pré-definidos em (a), dispondo-os em sequências ao longo do tempo as quais são associadas às mãos do regente, ou (b.2) gravadas, onde através do registro de movimentos corporais por um período de tempo em frente ao sensor, as juntas corporais são capturadas ao longo do tempo, de modo que se possa comparar estes movimentos com os realizados em tempo real; e (c), o módulo de visualização, onde o usuário poderá (c.1) assistir a reprise de práticas já realizadas, ou configuradas anteriormente; (c.2) comparar e visualizar práticas diversas entre si; ou ainda, (c.3) praticá-las de fato, onde receberá uma nota ao final do exercício. A idéia é que estudantes possam realizar práticas repetidas vezes, onde irão melhorando suas notas, e aprimorando seus gestos através da conscientização corporal. Outro ponto importante é que estudantes e regentes podem interagir entre si através da troca das configurações, já que estas são salvas em arquivos, possibilitando a criação de um repositório de regência coral, o que permite que as informações extrapolem os limites de sala de aula. Para implementar tal solução, algoritmos de visão computacional foram aplicados no contexto da regência coral, em conjunto com o sensor Kinect para auxiliar na captura das informações corporais. Por fim, busca-se iniciar um trabalho com o sentido de aprimorar a formação de regentes e possibilitar que o ensino desta arte seja fundamentado em dados quantitativos que poderão auxiliar o regente a tirar conclusões sobre os métodos e escolas de regência atualmente existentes. / In this document a software to support the teaching of choral conducting is proposed based on the conducting classes observed while coursing the discipline: Musical Analysis for Performance on the Choral Universe in the Music Department of the School of Arts and Communications of University of Sao Paulo. Through this software is possible to: (i) monitor, (ii) measure and (iii) evaluate the choral conducting patterns (gestures) performed and the body positions of the student. The main objective is to allow, by interacting with the software, that the student improves his body self-perception by having his body position monitored while he performs the conducting patterns and sees himself tridimensionally projected in the system. To have this monitoring in place, three modules were created such that the needed configurations could be done as well as the visualization could have been done, they are: (a) conducting patterns configuration module, where the conducting patterns are created or modified; (b) practice creation module, the practices can be (b.1) synthetical, in this case they use the conducting patterns defined in (a), placing them in sequences accross the time which are associated to the hands of the conductor, or (b.2) recorded, in which case the body movements are recorded for a period of time in front of the sensor, the positions are stored along time and allow to compare these movements recorded with the user information in real-time; and (c), the visualization module, where the user can (c.1) watch a replay of the practices already performed, or configured previously; (c.2) compare and see diversified practices, or yet, (c.3) effectivelly practice them, in which case an evaluation mark will be given at the end. The idea is that students can do and repeat practices over, improving their marks and gestures through self-perception. Another important point is that students and conductors can interact by exchanging configurations, since all of them are saved in files, which allows creating a choral conducting repository which would extrapolate the classroom boundaries. To implement such solution computer vision algorithms were applied in the context of choral conducting, together with the Kinect sensor to help capturing the body information. At last, this work tries does the kick off for teaching conductors through the usage of technology, allowing that this art is teached based on quantitative data which can help the conductor drawing conclusions over the current conducting schools and methods.

Identiferoai:union.ndltd.org:IBICT/oai:teses.usp.br:tde-29112013-144927
Date23 September 2013
CreatorsCaio Cesar Moreira
ContributorsRonaldo Fumio Hashimoto, Carlos Hitoshi Morimoto, Marco Antonio da Silva Ramos
PublisherUniversidade de São Paulo, Ciência da Computação, USP, BR
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguageEnglish
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Sourcereponame:Biblioteca Digital de Teses e Dissertações da USP, instname:Universidade de São Paulo, instacron:USP
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0028 seconds