Many synthesizers are designed to emulate other instruments. Recently, progress has been made in using neural audio generation models to create synthesizers which can efficiently learn from data. However, these past approaches compromise either inter-note timbre dependencies or ease of use. This work addresses this issue with the control-synthesis approach, a method for turning audio generation models into easily controllable synthesizers. In this approach, a control model transforms user input into a set of intermediate features with which we condition a synthesis model. This approach is demonstrated through the implementation of a MIDI-controllable synthesizer which can be trained to emulate a target instrument from unannotated audio. / Många syntar är utformade för att emulera andra instrument. Nyligen har framsteg gjorts med att använda neurala nätverk för att skapa syntar som effektivt kan lära av data. Dessa tillvägagångssätt har dock offrat uttrycksfullhet eller användarvänlighet. I detta arbete så introducerar jag control-synthesis, en metod för att förvandla neurala ljudgenereringsmodeller till kontrollerbara och utrycksfulla syntar. Jag demonstrerar detta tillvägagångssätt genom att implementera en MIDIkontrollerbar synt som kan emulera akustiska instrument utifrån ljudinspelningar utan annotering.
Identifer | oai:union.ndltd.org:UPSALLA1/oai:DiVA.org:kth-287553 |
Date | January 2020 |
Creators | Jonason, Nicolas |
Publisher | KTH, Skolan för elektroteknik och datavetenskap (EECS) |
Source Sets | DiVA Archive at Upsalla University |
Language | English |
Detected Language | English |
Type | Student thesis, info:eu-repo/semantics/bachelorThesis, text |
Format | application/pdf |
Rights | info:eu-repo/semantics/openAccess |
Relation | TRITA-EECS-EX ; 2020:822 |
Page generated in 0.0019 seconds