• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Stamning i vardagliga samtal : En samtalsanalytisk studie av interaktionen i en familj med barn som stammar

Eklund, David, Rommel, Helena January 2014 (has links)
Syftet med följande studie var att beskriva interaktionella mönster i en familj med två barn som stammar. Familjen filmades sju gånger under måltidssituationer. Den teoretiska utgångspunkten är en etnometodologisk syn på deltagares egna metoder och praktiker att organisera sina gemensamma sociala aktiviteter. Studien använder Conversation Analysis (CA) som analysmetod för att undersöka interaktionella mönster i familjen. Studien har undersökt barns samtalsturer med stamningssekvenser, samt hur personer i samtalssituationen responderar på dessa i olika samtalskontexter och med vilka praktiker. Praktikerna som har belysts är upprepning, ifyllnad och inväntan. Upprepningar tycks kunna ha till funktion att uppnå förståelse. Ifyllnad förekommer vid stamningssekvenser där informationen är tillräcklig för att göra en ifyllnad. Inväntan förekommer vid stamningssekvenser där informationen inte är tillräcklig för att fylla i eller föreslå en tolkning. Studien visar även på topikstrukturens påverkan på responspraktiker, närmare bestämt bristen på respons på stammade turer som utgörförsök till ämnesbyte.
2

Diffusion Models for Video Prediction and Infilling : Training a conditional video diffusion model for arbitrary video completion tasks / Diffusionsmodeller för videoförutsägelse och ifyllnad : Träning av en villkorlig videodiffusionsmodell för slumpmässiga videokompletteringsuppgifter

Höppe, Tobias January 2022 (has links)
To predict and anticipate future outcomes or reason about missing information in a sequence is a key ability for agents to be able to make intelligent decisions. This requires strong temporally coherent generative capabilities. Diffusion models have shown huge success in several generative tasks lately, but have not been extensively explored in the video domain. We present Random-Mask Video Diffusion (RaMViD), which extends image diffusion models to videos using 3D convolutions, and introduces a new conditioning technique during training. By varying the mask we condition on, the model is able to perform video prediction, infilling and upsampling. Since we do not use concatenation to condition on a mask, as done in most conditionally trained diffusion models, we are able to utilize the same architecture as used for unconditional training which allows us to train the model in a conditional and unconditional fashion at the same time. We evaluated the model on two benchmark datasets for video prediction, on which we achieve state-of-the-art results, and one for video generation. / Att förutse framtida resultat eller resonera kring bristande information i en sekvens är en viktig förutsättning för agenter att göra intelligenta beslut. Detta kräver robusta temporärt koherenta generativa kapaciteter. Diffusionsmodeller har visat pa stor framgang i flera generativa uppgifter i närtid, men denna potential har inte utforskats grundligt i samband med video. Vi presenterar Random-Mask Video Diffusion (RaMViD), vilket bredar bilddiffusionsmodeller till video med hjälp av 3D konvolutioner, och introducerar en ny konditioneringsteknik under träning. Genom att variera masken vi tränar med kan modellen utföra videoförutsägelse och videoifyllnad. Eftersom vi inte använder konkatenering för att träna pa en mask, som görs i de flesta villkorstränade diffusionsmodeller, har vi möjlighet att använda samma arkiktektur som används för ovillkorad träning, vilket i sin tur tillater oss att träna modellen pa ett villkorat och ovillkorat sätt samtidigt. Vi utvärderade modellen pa tva benchmnark datasets för videoförutsägelse och en för videogenerering, varav pa den första vi uppnade de bästa kvantitativa resultaten bland samtida metoder.

Page generated in 1.986 seconds