• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 7
  • 3
  • Tagged with
  • 38
  • 19
  • 8
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Adaptação de vídeo ao vivo apoiada em informações de contexto / Live video adaptation based on context information

Manzato, Marcelo Garcia 22 September 2006 (has links)
O trabalho apresentado nesta dissertação trata do desenvolvimento de um mecanismo para adaptação automática de ví?deo MPEG-4 ao vivo, de modo a atender as necessidades ou capacidades atuais de usuários e do sistema. Um dos desafios dessa área é capturar e representar as informações necessárias para realizar a adaptação. Assim, utilizando técnicas da área de computação ciente de contexto, foi desenvolvido um modelo extensível para representação de dispositivos. Também foram desenvolvidos métodos automáticos e semi-automáticos para capturar as informações necessárias. Neste trabalho foi adotado o modelo de recodificação de vídeo, o qual pode gerar atrasos que inviabilizam a adaptação de vídeo ao vivo em aplicações interativas. Assim, este trabalho realizou uma avaliação do impacto causado pela recodificação no atraso total, fim-a-fim, percebido pelo usuário. / This work presents the development of a mechanism to automatically adapt MPEG-4 live video, in a way to response the actual necessities or capacities of users or systems. One of the challanges in this area is to capture and represent the information needed to adapting content. Thus, using context aware computing techniques, an extensible model has been developed, which can be used to represent devices. It has also been developed automatic and semi-automatic methods to capture the needed information. In this work, the transcoding model has been adopted, which may generate latency, making difficult to use transcoding with interactive applications. In this way, this work has evaluated the impact caused by the transcoding when compared to the end-to-end total delay perceived by the user.
12

Machine learning mode decision for complexity reduction and scaling in video applications

Grellert, Mateus January 2018 (has links)
As recentes inovações em técnicas de Aprendizado de Máquina levaram a uma ampla utilização de modelos inteligentes para resolver problemas complexos que são especialmente difíceis de computar com algoritmos e estruturas de dados convencionais. Em particular, pesquisas recentes em Processamento de Imagens e Vídeo mostram que é possível desenvolver modelos de Aprendizado de Máquina que realizam reconhecimento de objetos e até mesmo de ações com altos graus de confiança. Além disso, os últimos avanços em algoritmos de treinamento para Redes Neurais Profundas (Deep Learning Neural Networks) estabeleceram um importante marco no estudo de Aprendizado de Máquina, levando a descobertas promissoras em Visão Computacional e outras aplicações. Estudos recentes apontam que também é possível desenvolver modelos inteligentes capazes de reduzir drasticamente o espaço de otimização do modo de decisão em codificadores de vídeo com perdas irrelevantes em eficiência de compressão. Todos esses fatos indicam que Aprendizado de Máquina para redução de complexidade em aplicações de vídeo é uma área promissora para pesquisa. O objetivo desta tese é investigar técnicas baseadas em aprendizado para reduzir a complexidade das decisões da codificação HEVC, com foco em aplicações de codificação e transcodificação rápidas. Um perfilamento da complexidade em codificadores é inicialmente apresentado, a fim de identificar as tarefas que requerem prioridade para atingir o objetivo dessa tese. A partir disso, diversas variáveis e métricas são extraídas durante os processos de codificação e decodificação para avaliar a correlação entre essas variáveis e as decisões de codificação associadas a essas tarefas. Em seguida, técnicas de Aprendizado de Máquina são empregadas para construir classificadores que utilizam a informação coletada para prever o resultado dessas decisões, eliminando o custo computacional necessário para computá-las. As soluções de codificação e transcodificação foram desenvolvidas separadamente, pois o tipo de informação é diferente em cada caso, mas a mesma metologia foi aplicada em ambos os casos. Além disso, mecanismos de complexidade escalável foram desenvolvidos para permitir o melhor desempenho taxa-compressão para um dado valor de redução de complexidade. Resultados experimentais apontam que as soluções desenvolvidas para codificação rápida atingiram reduções de complexidade entre 37% e 78% na média, com perdas de qualidade entre 0.04% e 4.8% (medidos em Bjontegaard Delta Bitrate – BD-BR). Já as soluções para trancodificação rápida apresentaram uma redução de 43% até 67% na complexidade, com BD-BR entre 0.34% e 1.7% na média. Comparações com o estado da arte confirmam a eficácia dos métodos desenvolvidos, visto que são capazes de superar os resultados atingidos por soluções similares. / The recent innovations in Machine Learning techniques have led to a large utilization of intelligent models to solve complex problems that are especially hard to compute with traditional data structures and algorithms. In particular, the current research on Image and Video Processing shows that it is possible to design Machine Learning models that perform object recognition and even action recognition with high confidence levels. In addition, the latest progress on training algorithms for Deep Learning Neural Networks was also an important milestone in Machine Learning, leading to prominent discoveries in Computer Vision and other applications. Recent studies have also shown that it is possible to design intelligent models capable of drastically reducing the optimization space of mode decision in video encoders with minor losses in coding efficiency. All these facts indicate that Machine Learning for complexity reduction in visual applications is a very promising field of study. The goal of this thesis is to investigate learning-based techniques to reduce the complexity of the HEVC encoding decisions, focusing on fast video encoding and transcoding applications. A complexity profiling of HEVC is first presented to identify the tasks that must be prioritized to accomplish our objective. Several variables and metrics are then extracted during the encoding and decoding processes to assess their correlation with the encoding decisions associated with these tasks. Next, Machine Learning techniques are employed to construct classifiers that make use of this information to accurately predict the outcome of these decisions, eliminating the timeconsuming operations required to compute them. The fast encoding and transcoding solutions were developed separately, as the source of information is different on each case, but the same methodology was followed in both cases. In addition, mechanisms for complexity scalability were developed to provide the best rate-distortion performance given a target complexity reduction. Experimental results demonstrated that the designed fast encoding solutions achieve time savings of 37% up to 78% on average, with Bjontegaard Delta Bitrate (BD-BR) increments between 0.04% and 4.8%. In the transcoding results, a complexity reduction ranging from 43% to 67% was observed, with average BD-BR increments from 0.34% up to 1.7%. Comparisons with state of the art confirm the efficacy of the designed methods, as they outperform the results achieved by related solutions.
13

A transcodificação de textos científicos em textos etnoliterários, o cordel: o desenvolvimento da cognição com reflexão crítica / Cordel - Transcoding of scientific texts into ethnoliterary texts: developing cognition with a critical consideration

Albelita Lourdes Monteiro Cardoso 29 June 2011 (has links)
Numa perspectiva transdisciplinar, entre os estudos de Terminologia Aplicada, Semiótica e Etnoliteratura, desenvolvemos a presente Tese, cujo principal objetivo é demonstrar a importância do processo de transcodificação de textos técnicos e científicos (A) em textos etnoliterários (B), especificamente, seus efeitos no desenvolvimento da habilidade de compreensão de A, conduzindo à cognição por meio da reflexão crítica. O corpus da pesquisa compreende excertos do livro Curso de Linguística Geral, de Ferdinand de Saussure, e seu correspondente etnoliterário A vida e as idéias geniais e dicotômicas do pai da ciência linguística, de José Lira. Compreende, ainda, a Nova Gramática do Português Contemporâneo de Celso Cunha e Lindley Cintra, e seu correspondente etnoliterário Lições de Gramática em versos de Cordel, de Junduhi Dantas. Os modelos teóricos, nos quais se calcaram as análises e sistematizações, são os que privilegiam o percurso de transmissão da metalinguagem técnica e científica; os que enfatizam os processos de cientificidade e popularização do conhecimento; a natureza dos texto A e B como linguagem conotativa e metassemiótica; as delimitações conceituais do texto transcodificado e do texto transcodificante; as relações de intertextualidade e de equivalência que se estabelecem entre ambos. O trabalho destacou os processos de banalização de linguagens de especialidade como importante mecanismo de circulação e de difusão do conhecimento. Caracterizou ainda, o texto transcodificado como meta-metassemiótico e, por isso, pluriconceptual, plurivalorativo, plurissignificativo e metareferencial, já que não cria, mas retoma conceitos, sem tirar a especificidade de tratamento: uma coisa é o fato científico tratado no Discurso Científico; outra coisa é esse mesmo fato tratado no Discurso Poético. Outra constatação importante é que o grau de equivalência entre A e B são inversamente proporcionais: quanto menor a densidade de equivalência, tanto maior será a densidade de reflexão que se exige do estudante. O texto A e o texto B são mono e homotemáticos, na medida em que abordam o mesmo tema, porém, são plurifigurativos, pois actantes e relações actanciais são diferentes de um para outro. Concluímos, ainda, que o texto A determina a isotopia do texto B, que mesmo sendo um texto poético, preserva a sua função primária que é a de ser um texto interpretante. Pelos motivos expostos, apresentamos como conclusão geral, que o processo de transcodificação, no enfoque que demos, é um dos principais meios de desenvolvimento de mecanismo muito importante na assimilação de teorias científicas, na medida em que conduz o estudante à cognição por meio da reflexão crítica. Desenvolver o refletir, tornou-se mais importante que o conhecer pois a reflexão conduz ao questionamento, à indagação, fatores fundamentais na formação do conceptus de cognição. Essas questões constituíram o ponto de partida e o ponto de chegada desta pesquisa. / In a transdisciplinary perspective, among the studies of Applied Terminology Semiotics and Etnoliterature, we developed the present work, whose main objective is to demonstrate the importance of the transcoding process of scientific and technical papers (A) into etnoliterary texts (B), specifically, its effects in the development of comprehension skills of A, leading to cognition by means of a critical reflection. The corpus includes excerpts from the book Course in General Linguistics written by Ferdinand de Saussure, and its related ethnoliterary The life and the brilliantl and dichotomous ideas of the father of language science by José Lira. The corpus also comprises the New Grammar of Contemporary Portuguese by Celso Cunha and Lindley Cintra, and its related etnoliterary \"Grammar Lessons in Cordel verses by Junduhi Dantas. The theoretical models, in which the analysis and systematization are based are those that favor the route of transmission of scientific and technical metalanguage; the ones that emphasize the processes of scientificity and popularization of knowledge the nature of the texts A and B as connotative language metasemiotics, the conceptual boundaries of the text and the transcoded and transcoding text; relations of intertextuality and equivalence established between both types of texts. The work has highlighted the processes of trivialization of specialized languages as an important mechanism of movement and diffusion of knowledge. The transcoded text was characterized as metametasemiotic and therefore multiconceptual, multivalued, multi-significant and metareferencial, once it doesnt create, but recovers concepts without taking the specificity of treatment: one thing is the scientific fact discussed in Scientific Discourse; another thing is that same fact treated in Poetic Discourse. Another important finding is that the degree of equivalence between A and B is inversely proportional: the smaller the density of equivalence, the greater the density of reflection that is required of the student. Text A and text B are mono and homothematic while they discuss the same topic, but are multifigurative because actants, and actant relationships are different from one to another. Its also concluded that text A determines the isotopy of text B, that even being a poetic text, preserves its primary function which is to be a text interpreter. For these reasons, it is presented as a general conclusion, that the transcoding process, which has been our focus is one of the chief means to develop this very important mechanism in the scientific theory construction, as it leads the student to cognition by critical reflection. The reflection development has become more important than the knowledge because reflection leads to questioning at the inquiry, which is crucial in the cognitive concept building. These issues are the starting point and the final point for this research.
14

Live Video Streaming from Android-Enabled Devices to Web Browsers

Bailey, Justin M. 01 January 2011 (has links)
The wide-spread adoption of camera-embedded mobile devices along with the ubiquitous connection via WiFi or cellular networks enables people to visually report live events. Current solutions limit the configurability of such services by allowing video streaming only to fixed servers. In addition, the business models of the companies that provide such (free) services insert visual ads in the streamed videos, leading to unnecessary resource consumption. This thesis proposes an architecture of a real-time video streaming service from an Android mobile device to a server of the user's choice. The real-time video can then be viewed from a web browser. The project builds on open-source code and open protocols to implement a set of software components that successfully stream live video. Experimental evaluations show practical resource consumption and a good quality of the streamed video. Furthermore, the architecture is scalable and can support large number of simultaneous streams with additional increase in hardware resources.
15

Cubic-Panorama Image Dataset Analysis for Storage and Transmission

Salehi Doolabi, Saeed 23 April 2013 (has links)
This thesis involves systems for virtual presence in remote locations, a field referred to as telepresence. Recent image-based representations such as Google map's street view provide a familiar example. Several areas of research are open; such image-based representations are huge in size and the necessity to compress data efficiently for storage is inevitable. On the other hand, users are usually located in remote areas, and thus efficient transmission of the visual information is another issue of great importance. In this work, real-world images are used in preference to computer graphics representations, mainly due to the photorealism that they provide as well as to avoid the high computational cost required for simulating large-scale environments. The cubic format is selected for panoramas in this thesis. A major feature of the captured cubic-panoramic image datasets in this work is the assumption of static scenes, and major issues of the system are compression efficiency and random access for storage, as well as computational complexity for transmission upon remote users' requests. First, in order to enable smooth navigation across different view-points, a method for aligning cubic-panorama image datasets by using the geometry of the scene is proposed and tested. Feature detection and camera calibration are incorporated and unlike the existing method, which is limited to a pair of panoramas, our approach is applicable to datasets with a large number of panoramic images, with no need for extra numerical estimation. Second, the problem of cubic-panorama image dataset compression is addressed in a number of ways. Two state-of-the-art approaches, namely the standardized scheme of H.264 and a wavelet-based codec named Dirac, are used and compared for the application of virtual navigation in image based representations of real world environments. Different frame prediction structures and group of pictures lengths are investigated and compared for this new type of visual data. At this stage, based on the obtained results, an efficient prediction structure and bitstream syntax using features of the data as well as satisfying major requirements of the system are proposed. Third, we have proposed novel methods to address the important issue of disparity estimation. A client-server based scheme is assumed and a remote user is assumed to seek information at each navigation step. Considering the compression stage, a fast method that uses our previous work on the geometry of the scene as well as the proposed prediction structure together with the cubic format of panoramas is used to estimate disparity vectors efficiently. Considering the transmission stage, a new transcoding scheme is introduced and a number of different frame-format conversion scenarios are addressed towards the goal of free navigation. Different types of navigation scenarios including forward or backward navigation, as well as user pan, tilt, and zoom are addressed. In all the aforementioned cases, results are compared both visually through error images and videos as well as using the objective measures. Altogether free navigation within the captured panoramic image datasets will be facilitated using our work and it can be incorporated in state-of-the-art of emerging cubic-panorama image dataset compression/transmission schemes.
16

Statistical Multiplexing of Video for Fixed Bandwidth Distribution : A multi-codec implementation and evaluation using a high-level media processing library

Halldén, Max January 2018 (has links)
When distributing multiple TV programs on a fixed bandwidth channel, the bit rate of each video stream is often constant. Since video sent at a constant quality is typically wildly varying, this is a very unoptimal solution. By instead sharing the total bit rate among all programs, the video quality can be increased by allocating bit rate where it is needed. This thesis explores the statistical multiplexing problem for a specific hardware platform with the limitations and advantages of that platform. A solution for statistical multiplexing is proposed and evaluated using the major codecs used for TV distribution today. The main advantage of the statistical multiplexer is a lot more even quality and a higher minimum quality achieved across all streams. While the solution will need a faster method for bit rate approximation for a more practical solution in terms of performance, the solution is shown to work as intended.
17

Machine learning mode decision for complexity reduction and scaling in video applications

Grellert, Mateus January 2018 (has links)
As recentes inovações em técnicas de Aprendizado de Máquina levaram a uma ampla utilização de modelos inteligentes para resolver problemas complexos que são especialmente difíceis de computar com algoritmos e estruturas de dados convencionais. Em particular, pesquisas recentes em Processamento de Imagens e Vídeo mostram que é possível desenvolver modelos de Aprendizado de Máquina que realizam reconhecimento de objetos e até mesmo de ações com altos graus de confiança. Além disso, os últimos avanços em algoritmos de treinamento para Redes Neurais Profundas (Deep Learning Neural Networks) estabeleceram um importante marco no estudo de Aprendizado de Máquina, levando a descobertas promissoras em Visão Computacional e outras aplicações. Estudos recentes apontam que também é possível desenvolver modelos inteligentes capazes de reduzir drasticamente o espaço de otimização do modo de decisão em codificadores de vídeo com perdas irrelevantes em eficiência de compressão. Todos esses fatos indicam que Aprendizado de Máquina para redução de complexidade em aplicações de vídeo é uma área promissora para pesquisa. O objetivo desta tese é investigar técnicas baseadas em aprendizado para reduzir a complexidade das decisões da codificação HEVC, com foco em aplicações de codificação e transcodificação rápidas. Um perfilamento da complexidade em codificadores é inicialmente apresentado, a fim de identificar as tarefas que requerem prioridade para atingir o objetivo dessa tese. A partir disso, diversas variáveis e métricas são extraídas durante os processos de codificação e decodificação para avaliar a correlação entre essas variáveis e as decisões de codificação associadas a essas tarefas. Em seguida, técnicas de Aprendizado de Máquina são empregadas para construir classificadores que utilizam a informação coletada para prever o resultado dessas decisões, eliminando o custo computacional necessário para computá-las. As soluções de codificação e transcodificação foram desenvolvidas separadamente, pois o tipo de informação é diferente em cada caso, mas a mesma metologia foi aplicada em ambos os casos. Além disso, mecanismos de complexidade escalável foram desenvolvidos para permitir o melhor desempenho taxa-compressão para um dado valor de redução de complexidade. Resultados experimentais apontam que as soluções desenvolvidas para codificação rápida atingiram reduções de complexidade entre 37% e 78% na média, com perdas de qualidade entre 0.04% e 4.8% (medidos em Bjontegaard Delta Bitrate – BD-BR). Já as soluções para trancodificação rápida apresentaram uma redução de 43% até 67% na complexidade, com BD-BR entre 0.34% e 1.7% na média. Comparações com o estado da arte confirmam a eficácia dos métodos desenvolvidos, visto que são capazes de superar os resultados atingidos por soluções similares. / The recent innovations in Machine Learning techniques have led to a large utilization of intelligent models to solve complex problems that are especially hard to compute with traditional data structures and algorithms. In particular, the current research on Image and Video Processing shows that it is possible to design Machine Learning models that perform object recognition and even action recognition with high confidence levels. In addition, the latest progress on training algorithms for Deep Learning Neural Networks was also an important milestone in Machine Learning, leading to prominent discoveries in Computer Vision and other applications. Recent studies have also shown that it is possible to design intelligent models capable of drastically reducing the optimization space of mode decision in video encoders with minor losses in coding efficiency. All these facts indicate that Machine Learning for complexity reduction in visual applications is a very promising field of study. The goal of this thesis is to investigate learning-based techniques to reduce the complexity of the HEVC encoding decisions, focusing on fast video encoding and transcoding applications. A complexity profiling of HEVC is first presented to identify the tasks that must be prioritized to accomplish our objective. Several variables and metrics are then extracted during the encoding and decoding processes to assess their correlation with the encoding decisions associated with these tasks. Next, Machine Learning techniques are employed to construct classifiers that make use of this information to accurately predict the outcome of these decisions, eliminating the timeconsuming operations required to compute them. The fast encoding and transcoding solutions were developed separately, as the source of information is different on each case, but the same methodology was followed in both cases. In addition, mechanisms for complexity scalability were developed to provide the best rate-distortion performance given a target complexity reduction. Experimental results demonstrated that the designed fast encoding solutions achieve time savings of 37% up to 78% on average, with Bjontegaard Delta Bitrate (BD-BR) increments between 0.04% and 4.8%. In the transcoding results, a complexity reduction ranging from 43% to 67% was observed, with average BD-BR increments from 0.34% up to 1.7%. Comparisons with state of the art confirm the efficacy of the designed methods, as they outperform the results achieved by related solutions.
18

Machine learning mode decision for complexity reduction and scaling in video applications

Grellert, Mateus January 2018 (has links)
As recentes inovações em técnicas de Aprendizado de Máquina levaram a uma ampla utilização de modelos inteligentes para resolver problemas complexos que são especialmente difíceis de computar com algoritmos e estruturas de dados convencionais. Em particular, pesquisas recentes em Processamento de Imagens e Vídeo mostram que é possível desenvolver modelos de Aprendizado de Máquina que realizam reconhecimento de objetos e até mesmo de ações com altos graus de confiança. Além disso, os últimos avanços em algoritmos de treinamento para Redes Neurais Profundas (Deep Learning Neural Networks) estabeleceram um importante marco no estudo de Aprendizado de Máquina, levando a descobertas promissoras em Visão Computacional e outras aplicações. Estudos recentes apontam que também é possível desenvolver modelos inteligentes capazes de reduzir drasticamente o espaço de otimização do modo de decisão em codificadores de vídeo com perdas irrelevantes em eficiência de compressão. Todos esses fatos indicam que Aprendizado de Máquina para redução de complexidade em aplicações de vídeo é uma área promissora para pesquisa. O objetivo desta tese é investigar técnicas baseadas em aprendizado para reduzir a complexidade das decisões da codificação HEVC, com foco em aplicações de codificação e transcodificação rápidas. Um perfilamento da complexidade em codificadores é inicialmente apresentado, a fim de identificar as tarefas que requerem prioridade para atingir o objetivo dessa tese. A partir disso, diversas variáveis e métricas são extraídas durante os processos de codificação e decodificação para avaliar a correlação entre essas variáveis e as decisões de codificação associadas a essas tarefas. Em seguida, técnicas de Aprendizado de Máquina são empregadas para construir classificadores que utilizam a informação coletada para prever o resultado dessas decisões, eliminando o custo computacional necessário para computá-las. As soluções de codificação e transcodificação foram desenvolvidas separadamente, pois o tipo de informação é diferente em cada caso, mas a mesma metologia foi aplicada em ambos os casos. Além disso, mecanismos de complexidade escalável foram desenvolvidos para permitir o melhor desempenho taxa-compressão para um dado valor de redução de complexidade. Resultados experimentais apontam que as soluções desenvolvidas para codificação rápida atingiram reduções de complexidade entre 37% e 78% na média, com perdas de qualidade entre 0.04% e 4.8% (medidos em Bjontegaard Delta Bitrate – BD-BR). Já as soluções para trancodificação rápida apresentaram uma redução de 43% até 67% na complexidade, com BD-BR entre 0.34% e 1.7% na média. Comparações com o estado da arte confirmam a eficácia dos métodos desenvolvidos, visto que são capazes de superar os resultados atingidos por soluções similares. / The recent innovations in Machine Learning techniques have led to a large utilization of intelligent models to solve complex problems that are especially hard to compute with traditional data structures and algorithms. In particular, the current research on Image and Video Processing shows that it is possible to design Machine Learning models that perform object recognition and even action recognition with high confidence levels. In addition, the latest progress on training algorithms for Deep Learning Neural Networks was also an important milestone in Machine Learning, leading to prominent discoveries in Computer Vision and other applications. Recent studies have also shown that it is possible to design intelligent models capable of drastically reducing the optimization space of mode decision in video encoders with minor losses in coding efficiency. All these facts indicate that Machine Learning for complexity reduction in visual applications is a very promising field of study. The goal of this thesis is to investigate learning-based techniques to reduce the complexity of the HEVC encoding decisions, focusing on fast video encoding and transcoding applications. A complexity profiling of HEVC is first presented to identify the tasks that must be prioritized to accomplish our objective. Several variables and metrics are then extracted during the encoding and decoding processes to assess their correlation with the encoding decisions associated with these tasks. Next, Machine Learning techniques are employed to construct classifiers that make use of this information to accurately predict the outcome of these decisions, eliminating the timeconsuming operations required to compute them. The fast encoding and transcoding solutions were developed separately, as the source of information is different on each case, but the same methodology was followed in both cases. In addition, mechanisms for complexity scalability were developed to provide the best rate-distortion performance given a target complexity reduction. Experimental results demonstrated that the designed fast encoding solutions achieve time savings of 37% up to 78% on average, with Bjontegaard Delta Bitrate (BD-BR) increments between 0.04% and 4.8%. In the transcoding results, a complexity reduction ranging from 43% to 67% was observed, with average BD-BR increments from 0.34% up to 1.7%. Comparisons with state of the art confirm the efficacy of the designed methods, as they outperform the results achieved by related solutions.
19

MPEG-DASH e seu impacto no tráfego multimídia no ensino a distância

Marangon, Rodrigo Damasceno 26 August 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-30T15:08:44Z No. of bitstreams: 1 rodrigodamascenomarangon.pdf: 825004 bytes, checksum: f6fba786f13817ab4b7d8d41a6cf4d04 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-05-30T15:36:45Z (GMT) No. of bitstreams: 1 rodrigodamascenomarangon.pdf: 825004 bytes, checksum: f6fba786f13817ab4b7d8d41a6cf4d04 (MD5) / Made available in DSpace on 2017-05-30T15:36:45Z (GMT). No. of bitstreams: 1 rodrigodamascenomarangon.pdf: 825004 bytes, checksum: f6fba786f13817ab4b7d8d41a6cf4d04 (MD5) Previous issue date: 2016-08-26 / O consumo de multimídia pela web tem crescido fortemente ao longo dos últimos anos. Com isso surge a preocupação do consumo de banda, que é significativamente reforçada pelo aumento da utilização da computação móvel. É fato conhecido que o consumo de banda para a multimídia ultrapassou o consumo nas redes P2P, e tende ao crescimento nos próximos anos. Nesse cenário, as tecnologias de streaming multimídia via HTTP vieram como parte da solução do problema de maior demanda de tráfego de multimídia. O MPEG-DASH é uma dessas tecnologias, e atualmente é utilizada em grande parte por grandes corporações que distribuem multimídia, como por exemplo Google e Netflix. No entanto, o processo da criação das mídias no padrão MPEG-DASH é um processo trabalhoso e de pouca documentação. O presente trabalho apresenta técnicas para transcodificação, segmentação e reprodução de mídias no padrão MPEG-DASH. As mídias convertidas são parte do material didático produzido pelo Centro de Educação a Distância da Universidade Federal de Juiz de Fora. O estudo foca no processo técnico de padronização das mídias para MPEG-DASH, dá foco aos problemas encontrados, além de analisar aspectos da reprodução das mídias. A dissertação traz também um estudo de caso, e análise de aspectos relevantes relacionados ao ambiente computacional da pesquisa. Foram testadas diversas técnicas e ferramentas, e os problemas, soluções e sugestões de uso são relatados ao longo do trabalho. Os resultados mostram que os resultados, apesar de problemas pontuais, são viáveis e benéficos para o consumidor do conjunto de mídias apresentado. / The multimedia consumption over the world wide web has been strongly growing along the last years. Hence it comes concerns about the bandwidth consumption, bolstered by significant raise of mobile computing. It is a known fact that multimedia bandwidth exceeded P2P network in terms of bandwidth consumption, and tend to grow in the next years. In this scenario, HTTP multimedia streaming technology came as a part of solution to the increasing multimedia bandwidth demand. MPEG-DASH is one of those technologies, currently employed at big distributing multimedia corporations, like Google and Netflix. However, the media transcoding and segmentation to MPEG-DASH standard is a laborious process and still slightly documented. This work cover in details techniques to media transcoding, segmentation, and reproduction on MPEG-DASH standard. The converted media are part of Centro de Educação a Distância of Universidade Federal de Juiz de Fora produced courseware. The work aims at technical process of MPEG DASH media standardization, with focus on raised problems, and includes some aspects of media reproduction. This work brings a case study, and an analysis of applicable aspects of computing environment. Were tested several techniques and tools and the problems, solutions and suggestions are reported through the work. Results shows that the results, although few problems, are viable and advantageous to consumer of the specified media set.
20

Cubic-Panorama Image Dataset Analysis for Storage and Transmission

Salehi Doolabi, Saeed January 2013 (has links)
This thesis involves systems for virtual presence in remote locations, a field referred to as telepresence. Recent image-based representations such as Google map's street view provide a familiar example. Several areas of research are open; such image-based representations are huge in size and the necessity to compress data efficiently for storage is inevitable. On the other hand, users are usually located in remote areas, and thus efficient transmission of the visual information is another issue of great importance. In this work, real-world images are used in preference to computer graphics representations, mainly due to the photorealism that they provide as well as to avoid the high computational cost required for simulating large-scale environments. The cubic format is selected for panoramas in this thesis. A major feature of the captured cubic-panoramic image datasets in this work is the assumption of static scenes, and major issues of the system are compression efficiency and random access for storage, as well as computational complexity for transmission upon remote users' requests. First, in order to enable smooth navigation across different view-points, a method for aligning cubic-panorama image datasets by using the geometry of the scene is proposed and tested. Feature detection and camera calibration are incorporated and unlike the existing method, which is limited to a pair of panoramas, our approach is applicable to datasets with a large number of panoramic images, with no need for extra numerical estimation. Second, the problem of cubic-panorama image dataset compression is addressed in a number of ways. Two state-of-the-art approaches, namely the standardized scheme of H.264 and a wavelet-based codec named Dirac, are used and compared for the application of virtual navigation in image based representations of real world environments. Different frame prediction structures and group of pictures lengths are investigated and compared for this new type of visual data. At this stage, based on the obtained results, an efficient prediction structure and bitstream syntax using features of the data as well as satisfying major requirements of the system are proposed. Third, we have proposed novel methods to address the important issue of disparity estimation. A client-server based scheme is assumed and a remote user is assumed to seek information at each navigation step. Considering the compression stage, a fast method that uses our previous work on the geometry of the scene as well as the proposed prediction structure together with the cubic format of panoramas is used to estimate disparity vectors efficiently. Considering the transmission stage, a new transcoding scheme is introduced and a number of different frame-format conversion scenarios are addressed towards the goal of free navigation. Different types of navigation scenarios including forward or backward navigation, as well as user pan, tilt, and zoom are addressed. In all the aforementioned cases, results are compared both visually through error images and videos as well as using the objective measures. Altogether free navigation within the captured panoramic image datasets will be facilitated using our work and it can be incorporated in state-of-the-art of emerging cubic-panorama image dataset compression/transmission schemes.

Page generated in 0.0947 seconds