Com a quantidade de músicas disponíveis on-line, tem ocorrido uma crescente expansão nas pesquisas de informação musical e nas investigações de recuperação para sistemas automatizados. O campo de Music Information Retrieval (MIR) olha para vários aspectos relacionados à como organizar, categorizar e acessar coleções musicais. O desenvolvimento de novos métodos e a criação de novas representações musicais podem contribuir na precisão dos classificadores para o reconhecimento das emoções, uma vez que estes estão entre os maiores desafios da área de Music Emotion Recognition (MER). Esse trabalho investiga, implementa e combina três diferentes fontes de informações (cifras, áudio e letras) para a classificação automática de emoções em músicas. A metodologia de trabalho é descrita por meio das seguintes atividades: criação da base de dados Multimodal Latin Music Mood Database (MLMMD), pré-processamento dos dados, mineração e combinação dos dados. Por meio dos procedimentos foi realizada uma análise dos diferentes resultados utilizando as diferentes fontes de informação de forma individual e combinada. Primeiramente, foi possível observar que o método combinatório multimodal early fusion foi melhor do que os demais (no fusion e late fusion). Segundo, o classificador Support Vector Machine (SVM) mostrou uma média melhor que os demais. / With the growing amount of music available online, there has been an increasing expansion in research of musical information and the recovery investigations to automated systems. The Music Information Retrieval (MIR) field looks at various aspects related to how to organize, categorize, and access music collections. The development of new methods and the creation of new musical representations can contribute to the accuracy of classifiers for recognition of emotions, since these are among the greatest challenges in the area of Music Emotion Recognition (MER). This work investigates, implements and combines three different sources of information (cifras, audio and lyrics) for automatic emotion classification in songs. The following activities have been used to develop this work: database definition Multimodal Latin Music Mood Database (MLMMD), preprocessing of the different types of data, mining and combination of the different types of data. Through the procedures applied it was possible to carry out an analysis of the different results. First, it was observed that the multimodal early fusion method was better than the others other approaches (no fusion and late fusion). Second, the Support Vector Machine (SVM) showed an overall average better than the other classifiers.
Identifer | oai:union.ndltd.org:IBICT/oai:repositorio.utfpr.edu.br:1/2932 |
Date | 17 March 2016 |
Creators | Przybysz, André Luiz |
Contributors | Silla Junior, Carlos Nascimento, Silla Junior, Carlos Nascimento, Hruschka Júnior, Estevam Rafael, Furlanete, Fábio Parra, Costa, Yandre Maldonado e Gomes da |
Publisher | Universidade Tecnológica Federal do Paraná, Cornelio Procopio, Programa de Pós-Graduação em Informática, UTFPR, Brasil |
Source Sets | IBICT Brazilian ETDs |
Language | Portuguese |
Detected Language | English |
Type | info:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis |
Source | reponame:Repositório Institucional da UTFPR, instname:Universidade Tecnológica Federal do Paraná, instacron:UTFPR |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0027 seconds