• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • Tagged with
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Pettson och Findus: text och bilders funktion : -En komparation av text- och bildförhållandet i tre av Sven Nordqvists böcker om Pettson och Findus

Peter, Magdalena January 2019 (has links)
Uppsatsen analyserar text och bilders funktion i några av Sven Nordqvists böcker om Pettson och Findus (1986, 1996, 2012). Syftet är att undersöka hur texterna och bilderna i dessa bilderböcker samspelar med varandra samt vilka funktioner text och bild får. Ett ytterligare syfte är att undersöka den pedagogiska potentialen i de utvalda analysobjekten. Uppsatsen utgår från text- och bildanalys i alla tre utvalda objekten, vilkas resultat sedan komparerats. Vid text- och bildanalysen har ikonotexten haft stor betydelse. Analysen visar att böckerna skulle klara sig utan bilderna, men det skulle bli väldigt platt och de säregna detaljerna Nordqvist är välkänd för skulle gå förlorade. Även de syllepser och prolepser vi kan se i bilderna skulle gå om intet utan dessa. Det är en växelverkan mellan text och bild där bilderna förmedlar mer än vad texten förmår. En av de pedagogiska möjligheterna böckerna om Pettson och Findus ger är bland annat den ämnesöverskridande potentialen. Man kan där diskutera hållbar utveckling, värdegrundsrelaterade frågor och förhållningssätt samt djurens och människors rättigheter.
2

Bilden och textens inneboende pedagogik -Hur text- och bildförhållandet synliggör motiv och tema i en bilderbok

Helgesson, Moa January 2020 (has links)
Uppsatsen analyserar text- och bildförhållandet i När Findus var liten och försvann (2001). Syftet är att tolka och analysera hur bild och text tillsammans bidrar till att få syn på den valda bokens motiv och tema. Ett delsyfte är att undersöka bokens didaktiska potential. Uppsatsen utgår från en text- och bildanalys och har som teoretisk ram Ulla Rhedins (2001) avhandling Bilderboken – på väg mot en teori (2001) och Maria Nikolajevas bok Barnbokens byggklossar (2004). Metoden behandlar även berättartekniska grepp om händelseförlopp och berättarperspektiv. Analysen visar att berättelsens text- och bildförhållande är viktigt för att få syn på bokens motiv och tema. Texten kan stå för sig själv, men utan bilderna missas både stämningar och personlighetsdrag. Analysen visar också att den valda boken har en komplex berättarteknik där handlingsförlopp och berättarperspektiv förändras. Handlingsförloppet är bland annat en ramberättelse med olika diegetiska nivåer. Det hör ihop med berättarperspektivet då Pettson är en av bokens berättare. Han blir således en jagberättare som berättar likt en tredjepersonsberättare. De motiv som synliggjordes var ensamhet, sökande, vänskap och känslor. Temat i boken kunde inte definieras med ett ord utan sammanfattades att den handlade om samhörighet, kärlek och gemenskap. Det fanns didaktisk potential i den valda boken. Den kan exempelvis användas som verktyg där känslor och samspel ska arbetas med. Identifiering av känslor bidrar till identitetsskapande och empati, vilket presenteras i den svenska kursplanen i Lgr11.
3

Automatisk detektering av skillnader av Androidenhetersanvändargränssnitt / Automatic detection of differences that occures onAndroid user interfaces

Kljakic, Danijel, Carlsson, Pontus January 2015 (has links)
Android-applikationers användargränssnitt kan se annorlunda ut på olika Android-enheteroch det är svårt att anpassa en applikation efter alla enheter då det finns så många unikamodeller. Målet med arbetet var att framställa ett verktyg som kunde med hjälp av ett korrektdefinierat gränssnitt, upptäcka skillnader i gränssnittet mellan olika Android-enheter.Ett egenutvecklat verktyg framställdes och hade en hög precision. Verktyget kunde bådaupptäcka skillnader och rapportera hur stor skillnaden var mellan gränssnitten. / User interfaces can look different on different Android devices and it is difficult to tailor anapplication to all Android devices. The goal with this project was to develop a tool that canuse a correct image of a user-interface and find differences in other images taken from otherAndroid devices. A tool was developed from scratch and it proved accurate in most cases.The tool could both find differences and report how large the difference was.
4

Video Retargeting using Vision Transformers : Utilizing deep learning for video aspect ratio change / Video Retargeting med hjälp av Vision Transformers : Användning av djupinlärning för ändring av videobildförhållanden

Laufer, Gil January 2022 (has links)
The diversity of video material, where a video is shot and produced using a single aspect ratio, and the variety of devices that can play video with screens in different aspect ratios make video retargeting a relevant topic. The process of fitting a video filmed in one aspect ratio to a screen in another aspect ratio is called video retargeting, and the retargeted video should ideally preserve the important content and structure of the original video as well as be free of visual artifacts. Important content and important structure are vague and subjective definitions, which makes this problem more difficult to solve. The video retargeting problem has been a challenge for researchers from the computer vision, computer graphics and human-computer interaction areas, and successful retargeting can improve the viewing experience and the content’s aesthetic value. Video retargeting is done by four tools: cropping, scaling, seam carving and seam adding. Previous research showed that one of the keys to successful retargeting is to use a suitable combination of operators. This study makes use of a vision transformer, a deep learning model which is trained to discriminate between original and retargeted videos. Solving an optimization problem using beam search, the transformer assists in choosing a combination of operators that will result in the best possible retargeted video. The retargeted videos were examined in a user A/B-test, where users had to choose their preferred variant of a video shot: the transformer’s output using beam search, or a singular version where the video underwent a single retargeting operation. The model and user preferences were compared to check if the model indeed can make retargeting decisions that are appealing for humans to watch. A significance test showed that no conclusion can be made, probably due to lack of enough test data. However, the study revealed patterns in the preferences of the users and the model that could be further fine-tuned or combined with other computer vision mechanisms in order to output better retargeted videos. / Variation av videomaterial, där olika videor är inspelade och producerade i olika bildförhållande, samt variation i apparater och skärmar som spelar upp videor i olika bildförhållanden gör ändring av videobildförhållande till en relevant fråga. Processen där en videos bildförhållande ändras heter video retargeting. När video retargeting används bör den nya videon helst bevara strukturen och viktigt innehåll från originalvideon samt vara artefaktfri. Struktur och viktigt innehåll är subjektiva definitioner vilket gör frågan svårlöst, och frågan har varit en utmaning för forskare inom datorseende, datorgrafik och människa-datorinteraktion. Lyckad ändring av en videos bildförhållande kan förbättra tittarupplevelsen och innehållets estetiska värde. Video retargeting kan göras med hjälp av fyra funktioner: klippning, skalning, seam carving och seam adding. Tidigare studier visar att en av nycklarna till lyckad retargeting är att hitta en lämplig kombination av funktionerna. I denna studie används Vision Transformer, en djupinlärningsmodell som tränas för att skilja mellan original och omvandlade videor. Genom att lösa ett optimeringsproblem med strålsökning hjälper modellen välja den kombination av funktionerna som resulterar i den bästa möjliga omvandlade videon. De omvandlade videorna testades genom ett användartest där användare valde vilket videoklipp de tyckte bättre om: modellens output som skapades med hjälp av strålsökning, eller en version där klippet genomgick en enklare retargeting med hjälp av endast en av funktionerna. Modellens och användarnas preferenser jämfördes för att se om modellen kan fatta beslut som användare upplever som bra. Ett signifikanstest visar att ingen slutsats kan dras, förmodligen på grund av det begränsade antalet videoklipp och data som användes i studien. Däremot visar studien mönster i användarnas och modellens preferenser som kan användas för att vidareutveckla problemlösningen inom området.

Page generated in 0.0661 seconds