• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Onset detection in polyphonic music / Ansatsdetektion i polyfon musik

Efraimsson, Nils January 2017 (has links)
In music analysis, the beginning of events in a music signal (i.e. sound onset detection) is important for such tasks as sound segmentation, beat recognition and automatic music transcription. The aim of the present work was to make an algorithm for sound onset detection with better performance than other state-of-the-art1 algorithms. Necessary theoretical background for spectral analysis on a sound signal is given with special focus on the Short-Time Fourier Transform (STFT) and the effects of applying a window to a signal. Previous works based on different approaches to sound onset detection were studied, and a possible improvement was observed for one such approach - namely the one developed by Bello, Duxbury, Davies, & Sandler (2004). The algorithm uses an STFT approach, analyzing a sound signal time frame by time frame. The algorithm’s detection is sequential in nature: It takes a frame from the STFT and makes an extrapolation to the next frame, assuming that the signal is constant. The difference between the extrapolated frame and the actual frame of the STFT constitutes the detection function. The proposed improvement lies in a combination of ideas from other algorithms, analyzing the signal with different frequency bands with frequency dependent settings and a modification of the extrapolation step. The proposed algorithm is compared to the original algorithm and an adaption by Dixon (2006) by analyzing 20 songs using three different window functions. The results were evaluated with the standards set by MIREX (2005-2016). The results of the proposed algorithm are encouraging, showing good recall, but fail to out-perform any of the algorithms it is compared to in both precision and the so-called F-measure. The shortcomings of the proposed algorithm leave room for further improvement, and a number of possible future modifications are exemplified. / Ansatsdetektion används inom musikanalys för bland annat automatisk transkription och ljudkomprimering. Ansatsdetektion innebär att lokalisera en händelse i en musiksignal. Med målet att utveckla en algoritm som presterar bättre än aktuella2 algoritmer ges här en genomgång av några nödvändiga teoretiska kunskaper i ämnet, bland annat korttids-Fouriertransformen (STFT) och hur fönsterfunktioner påverkar signalbehandling. Tidigare arbeten inom ansatsdetektion med olika infallsvinklar studeras och en möjlig förbättring av en av dem, den av Bello, Duxbury, Davies, & Sandler (2004), framträder. Algoritmen använder sig av STFT och analyserar ljudsignaler en tidsenhet i taget. Utifrån varje analyserad tidsenhet görs en extrapolation till nästa tidsenhet genom antagandet att signalen är konstant. Skillnaden mellan den extrapolerade tidsenheten och den faktiska tidsenheten i STFTn utgör detektionsfunktionen. Den möjliga förbättringen består i att använda idéer från olika algoritmer för ansatsdetektion – ljudsignalen analyseras i olika frekvensband med bandberoende inställningar för STFTn – och en förändrad extrapoleringsfunktion. Den föreslagna algoritmen jämförs med originalet av Bello, Duxbury, Davies, & Sandler (2004) och även med en variant utvecklad av Dixon (2006) genom att applicera dem på 20 spår med tre olika fönsterfunktioner. Resultaten utvärderas enligt MIREX (2005-2016) standarder och är lovande för algoritmen, då den har en bra träffbild, men både träffsäkerhet och F-värde ligger under de båda andra. Ett flertal möjliga förbättringar av algoritmen iakttas och presenteras.
2

Expressive Automatic Music Transcription : Using hard onset detection to transcribe legato slurs for violin / Expressiv Automatisk Musiktranskription : Användning av hård ansatsdetektion för transkription av legatobågar för violin

Falk, Simon January 2022 (has links)
Automatic Music Transcriptions systems such as ScoreCloud aims to convert audio signals to sheet music. The information contained in sheet music can be divided into increasingly descriptive layers, where most research on Automatic Music Transcription is restricted on note-level transcription and disregard expressive markings such as legato slurs. In case of violin playing, legato can be determined from the articulated, "hard" onsets that occur on the first note of a legato slur. We detect hard onsets in violin recordings by three different methods — two based on signal processing and one on Convolutional Neural Networks. ScoreCloud notes are then labeled as articulated or slurred, depending on the distance to the closest hard onset. Finally, we construct legato slurs between articulated notes, and count the number of notes where the detected slur label matches ground-truth. Our best-performing method correctly labels notes in 82.9% of the cases, when averaging on the test set recordings. The designed system serves as a proof-of-concept for including expressive notation within Automatic Music Transcription. Vibrato was seen to have a major negative impact on the performance, while the method is less affected by varying sound quality and polyphony. Our system could be further improved by using phase input, data augmentation, or high-dimensional articulation representations. / System för automatisk musiktranskription såsom ScoreCloud syftar till att konvertera ljudsignaler till notskrift. Informationen i en notbild kan delas in i flera lager med en ökande nivå av beskrivning, där huvuddelen av forskningen har begränsats till transkription av noter och har bortsett från uttrycksmarkeringar såsom legatobågar. I fallet med violin kan legato bestämmas från de artikulerade, ’hårda’ ansatser som uppkommer vid den första noten i en legatobåge. Vi detekterar här hårda ansatser i inspelningar av violin genom tre olika metoder — två baserade på signalbehandling och en baserat på faltningsnätverk. Noter från ScoreCloud märks sedan som artikulerade eller bundna, beroende på det närmaste avståndet till en hård ansats. Slutligen konstrueras legatobågar mellan artikulerade noter, och vi räknar antalet noter där den predicerade märkningen stämmer med den sanna. Vår bäst presterande metod gör en korrekt märkning i 82.9% i genomsnitt taget över testinspelningarna. Vårt system validerar idén att innefatta uttrycksmarkeringar i automatisk musiktranskription. Vibrato observerades påverka resultatet mycket negativt, medan metoden är mindre påverkad av varierande ljudkvalitet och polyfoni. Vårt system kan förbättras ytterligare genom användandet av fas i indata, datautvidgning och högdimensionella representationer av artikulation.

Page generated in 0.0857 seconds