• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Automatisk segmentering av bevegelsesdata / Automatic “chunking” of movement data

Olsen, Stian Fuglesang January 2010 (has links)
Hensikten med dette prosjektet er å benytte og videreutvikle metoder for segmentering av menneskelige bevegelser for fullstendig eller delvis automatisering av redigeringsprosessen. Bevegelsene i dette tilfellet kommer primært fra spedbarn og det er videoopptak av disse som danner grunnlaget for dataene brukt i dette prosjektet. Noen av fremgangsmåtene og metodene benyttet er også sterkt knyttet til musikkrelaterte bevegelser slik at dette også er en naturlig del av bakgrunnen til dette arbeidet. Analysen av musikalske bevegelser er inspirasjonen til de utviklede metodene for behandling av spedbarnsbevegelser og er derfor et viktig element i forklaringen av hvordan metodene er konstruert. Bevegelsene til spedbarn er viktig å kunne tolke dersom det er mistanke om nedsatte motoriske ferdigheter. Slike tegn kan være et varsel på at barnet senere kan få diagnosen cerebral parese og det er derfor en fordel å kunne bekrefte eller avkrefte dette med hensyn på iverksetting av eventuelle forebyggende tiltak.For å lage metoder for segmentering må man trekke ut nyttige variabler fra de tilgjengelige dataene. I dette tilfellet er det videoopptakene det er snakk om og disse er behandlet for å fokusere på informasjonen som har med bevegelser å gjøre. En video består av bilder (frames) og disse vises 25 ganger i sekundet for å lage ”bevegelige bilder” som vanligvis kalles en film. Bildene blir omgjort til ”bevegelsesbilder” ved matematisk å subtrahere dem fra hverandre slik at resultatet blir bilder hvor kun bevegelse fra en frame til den neste er synelig. Dette er mulig ved at pikslene i bildet som forandrer seg vises som hvite og alle uforandrede piksler blir svarte. Med dette er det mulig å kalkulerer sentrum for bevegelsen i hvert bilde samt hvor mye bevegelse det er, noe som gir grunnlag for enda flere variable som for eksempel standardavvik og varians. Bevegelsesbildene kan også gjøres om til såkalte ”motiongram” som er en måte å visualisere bevegelsene i bevegelsesbildene over tid. Motiongram er bilder som inneholder bevegelseskurver og kan selv brukes til segmentering, men er best egnet til grafisk analyse. Segmenteringen baserer seg altså på data fra bevegelsesbilder og er laget for å finne segmenter hvor bevegelsesmønsteret er betraktet som normalt. Det er ønskelig å finne disse regionene automatisk slik at avgjørelsen om grundigere oppfølging er nødvendig eller ikke kan gjøres mer effektivt. Å kunne finne segmenter som garantert inneholder normal bevegelse ved hjelp av digitale verktøy ville være et stort skritt mot effektiviseringen av denne analysen. Metodene for generering av bevegelsesbilder og motiongram sammen med gjennomføringen av klassifisering og segmentering er implementert i MATLAB. Segmenteringen baseres på å sammenligne variabelverdier for segmenter med og uten normal bevegelse. En fullstendig egenkomponert algoritme er utviklet og brukt hovedsakelig til testing mens en metode basert på lineær diskriminantanalyse også er laget med tanke på videre bruk. Resultatene viser at de utviklede metodene absolutt er lovende og har potensial til å bidra sterkt ved segmentering av bevegelsesdata. Evalueringen av de automatiske metodene i forhold til den tradisjonelle, manuelle fremgangsmåten, kan vise til solide resultater og med gode muligheter for forbedring ved anvendelse av enda flere variabeltyper samt klassifiseringsalgoritmer har arbeidet videre også svært gode utsikter.

Page generated in 0.0093 seconds