Return to search

Codificação de vídeo utilizando modelos de texturas

Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2013. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2014-02-05T14:57:18Z
No. of bitstreams: 1
2013_JuanJesusCruzCartajena.pdf: 6140891 bytes, checksum: 91ac2abf0874bbe7c23585c95ab96420 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-02-14T13:05:04Z (GMT) No. of bitstreams: 1
2013_JuanJesusCruzCartajena.pdf: 6140891 bytes, checksum: 91ac2abf0874bbe7c23585c95ab96420 (MD5) / Made available in DSpace on 2014-02-14T13:05:04Z (GMT). No. of bitstreams: 1
2013_JuanJesusCruzCartajena.pdf: 6140891 bytes, checksum: 91ac2abf0874bbe7c23585c95ab96420 (MD5) / O esquema de codificação de vídeo proposto nesta tese é baseado em warping e síntese
de texturas. Em vez de utilizar técnicas de codificação de imagens inteiras ou resíduos
da predição depois da estimação de movimento, são utilizados modelos de movimento
para reconstruir texturas que sejam classificadas como estáticas e síntese de textura para criar texturas dinâmicas. As regiões texturizadas são segmentadas pelo método de water-shed e logo classificadas por métodos simples com base em suas características espectrais mediante a transformada DCT e simples diferenças entre quadros vizinhos. As regiões reconstruídas por warping e síntese são avaliadas para seu uso mediante simples métodos estatísticos. O esquema proposto trabalha em conjunto com o padrão de vídeo H.264/AVC, onde só são codificados os blocos que não sejam processados pelos modelos de textura,
mostrando um potencial para diminuir o custo computacional da codificação dos blocos
remanescentes. Os resultados mostram que a qualidade foi mantida com pontuações subjetivas em comparação ao padrão H.264/AVC enquanto resultados com métricas objetivas
mostram pequenas perdas. ______________________________________________________________________________ ABSTRACT / The video coding scheme proposed in this thesis is based on texture warping and
synthesis. Instead of using techniques such as whole-image coding or prediction residues
after motion estimation, motion models are used to reconstruct static textures and tex-
ture synthesis is used to create dynamic textures. Textured regions are segmented by the watershed method and then classi ed with simple methods based on their spectral char-
acteristics by DCT transform and simple di erences between neighboring frames. Regions
reconstructed by warping and synthesis are evaluated for their use by simple statistical
methods. The proposed scheme works together with the standard of video H.264/AVC,
which only codes blocks that are not processed by models of texture, showing a potential to decrease computational cost of coding of blocks that remain. The results show that the quality was maintained with subjective scores compared to standard H.264/AVC, while objective results show small losses.

Identiferoai:union.ndltd.org:IBICT/oai:repositorio.unb.br:10482/15176
Date15 August 2013
CreatorsCruz Cartajena, Juan Jesus
ContributorsEspinoza, Bruno Luiggi Macchiavello, Queiroz, Ricardo Lopes de
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguageEnglish
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Sourcereponame:Repositório Institucional da UnB, instname:Universidade de Brasília, instacron:UNB
RightsA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data., info:eu-repo/semantics/openAccess

Page generated in 0.0149 seconds