41 |
Acompanhamento de recuperação estrutural de pavimento urbano de concreto e análise dos materiais empregadosGomes da Silva, Oziel 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T17:35:55Z (GMT). No. of bitstreams: 2
arquivo2266_1.pdf: 4502103 bytes, checksum: 013ab9712ce59e222b76e26019e88837 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Recife, capital pernambucana, possui 21 (vinte e uma) avenidas pavimentadas em
concreto, perfazendo um total de cerca de 1.500.000,00 m² (um milhão e quinhentos mil
metros quadrados). Uma das primeiras avenidas a ser pavimentada em concreto, a
Avenida Conde da Boa Vista, antiga Rua Formosa, foi construída na administração do
prefeito Pelópidas Silveira no período 1955/1959; passados quase meio século, esta
avenida continua sendo de importância vital para a circulação de veículos em direção ao
centro da cidade, tem uma extensão de 1.662m, com largura total de rolamento de 18m,
para tráfego nos dois sentidos, sendo cada faixa de tráfego, com 9m de largura.
Segundo a EMTU-Recife (Empresa Metropolitana de Transportes Urbanos empresa
que supervisiona o transporte coletivo em Recife), este corredor é utilizado por 107
linhas de ônibus transportando diariamente em torno de 370.000 passageiros. A
pretensão da Prefeitura da Cidade do Recife é dotar a Avenida Conde da Boa Vista de
características operacionais e físicas que permitam a sua inserção no Corredor Leste-
Oeste.
Considerando-se os dados acima, conclui-se ser imprescindível intervir no pavimento de
concreto da Avenida Conde da Boa Vista (cerca de 50 anos de vida útil), como condição
indispensável para implantação e funcionamento do Corredor Leste-Oeste. A
intervenção se resumiu na reconstrução total das placas do antigo pavimento (placas
com espessura de 20 cm). É apresentado o acompanhamento da solução adotada no
projeto para a obra de recuperação das placas, enfocando as características dos materiais
e dos concretos utilizados e os resultados obtidos no controle tecnológico da obra
executada no período de março de 2007 a março de 2008.
A metodologia adotada e os resultados obtidos foram adequados à solução proposta. As
especificações de projeto, quanto aos diversos aspectos da aplicação do concreto para as
placas do pavimento em todos os Lotes analisados e em termos da resistência à
compressão axial aos 28 dias, foram atendidas a partir dos traços usados nesta obra.
Pode-se esperar um bom desempenho do concreto ao longo de sua vida útil
|
42 |
Shifted Gradient Similarity: A perceptual video quality assessment index for adaptive streaming encodingMONTEIRO, Estêvão Chaves 04 March 2016 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-07-13T18:59:10Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Shifted Gradient Similarity - A perceptual video quality assessment index for adaptive streaming encoding.pdf: 5625470 bytes, checksum: 8ec1d179ec4cca056eb66609ba5791a0 (MD5) / Made available in DSpace on 2016-07-13T18:59:10Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Shifted Gradient Similarity - A perceptual video quality assessment index for adaptive streaming encoding.pdf: 5625470 bytes, checksum: 8ec1d179ec4cca056eb66609ba5791a0 (MD5)
Previous issue date: 2016-03-04 / Adaptive video streaming has become prominent due to the rising diversity of Web-enabled personal devices and the popularity of social networks. Common limitations in Internet bandwidth, decoding speed and battery power available in such devices challenge the efficiency of content encoders to preserve visual quality at reduced data rates over a wide range of display resolutions, typically compressing to lower than 1% of the massive raw data rate. Furthermore, the human visual system does not uniformly perceive losses of spatial and temporal information, so a simple physical objective model such as the mean squared error does not correlate well with perceptual quality. Objective assessment and prediction of perceptual quality of visual content has greatly improved in the past decade, but remains an open problem. Among the most relevant psychovisual quality metrics are the many versions of the Structural Similarity (SSIM) index. In this work, several of the most efficient SSIM-based metrics, such as the Multi-Scale Fast SSIM and the Gradient Magnitude Similarity Deviation (GMSD), are decomposed into their component techniques and reassembled in order to measure and understand the contribution of each technique and to develop improvements in quality and efficiency. The metrics are applied to the LIVE Mobile Video Quality and TID2008 databases and the results are correlated to the subjective data included in the databases in the form of mean opinion scores (MOS), so each metric’s degree of correlation indicates its ability to predict perceptual quality. Additionally, the metrics’ applicability to the recent, relevant psychovisal rate-distortion optimization (Psy-RDO) implementation in the x264 encoder, which currently lacks an ideal objective assessment metric, is investigated as well. The “Shifted Gradient Similarity” (SG-Sim) index is proposed with an improved feature enhancement by avoiding a common unintended loss of analysis information in SSIM-based indexes, and achieving considerably higher MOS correlation than the existing metrics investigated in this work. More efficient spatial pooling filters are proposed, as well: the decomposed 1-D integer Gaussian filter limited to two standard deviations, and the downsampling Box filter based on the integral image, which retain respectively 99% and 98% equivalence and achieve speed gains of respectively 68% and 382%. In addition, the downsampling filter also enables broader scalability, particularly for Ultra High Definition content, and defines the “Fast SG-Sim” index version. Furthermore, SG-Sim is found to improve correlation with Psy-RDO, as an ideal encoding quality metric for x264. Finally, the algorithms and experiments used in this work are implemented in the “Video Quality Assessment in Java” (jVQA) software, based on the AviSynth and FFmpeg platforms, and designed for customization and extensibility, supporting 4K Ultra-HD content and available as free, open source code. / Cada vez mais serviços de streaming de vídeo estão migrando para o modelo adaptativo, devido à crescente diversidade de dispositivos pessoais conectados à Web e à popularidade das redes sociais. Limitações comuns na largura de banda de Internet, velocidade de decodificação e potência de baterias disponíveis em tais dispositivos desafiam a eficiência dos codificadores de conteúdo para preservar a qualidade visual em taxas de dados reduzidas e abrangendo uma ampla gama de resoluções de tela, tipicamente comprimindo para menos de 1% da massiva taxa de dados bruta. Ademais, o sistema visual humano não percebe uniformemente as perdas de informação espacial e temporal, então um modelo objetivo físico simples como a média do erro quadrático não se correlaciona bem com qualidade perceptível. Técnicas de avaliação e predição objetiva de qualidade perceptível de conteúdo visual se aprimoraram amplamente na última década, mas o problema permanece em aberto. Dentre as métricas de qualidade psicovisual mais relevantes estão muitas versões do índice de similaridade estrutural (Structural Similarity — SSIM). No presente trabalho, várias das mais eficientes métricas baseadas em SSIM, como o Multi-Scale Fast SSIM e o Gradient Magnitude Similarity Deviation (GMSD), são decompostas em suas técnicas-componentes e recombinadas para se obter medidas e entendimento sobre a contribuição de cada técnica e se desenvolver aprimoramentos à sua qualidade e eficiência. Tais métricas são aplicadas às bases de dados LIVE Mobile Video Quality e TID2008 e os resultados são correlacionados aos dados subjetivos incluídos naquelas bases na forma de escores de opinião subjetiva (mean opinion score — MOS), de modo que o grau de correlação de cada métrica indique sua capacidade de predizer qualidade perceptível. Investiga-se, ainda, a aplicabilidade das métricas à recente e relevante implementação de otimização psicovisual de distorção por taxa (psychovisual rate-distortion optimization — Psy-RDO) do codificador x264, ao qual atualmente falta uma métrica de avaliação objetiva ideal. O índice “Shifted Gradient Similarity” (SG-Sim) é proposto com uma técnica aprimorada de realce de imagem que evita uma perda não-pretendida de informação de análise, comum em índices baseados em SSIM, assim alcançando correlação consideravelmente maior com MOS comparado às métricas existentes investigadas neste trabalho. Também são propostos filtros de consolidação espacial mais eficientes: o filtro gaussiano de inteiros 1-D decomposto e limitado a dois desvios padrão e o filtro “box” subamostrado baseado na imagem integral, os quais retém, respectivamente, 99% e 98% de equivalência e obtém ganhos de velocidade de, respectivamente, 68% e 382%. O filtro subamostrado também promove escalabilidade, especialmente para conteúdo de ultra-alta definição, e define a versão do índice “Fast SG-Sim”. Ademais, verifica-se que o SG-Sim aumenta a correlação com Psy-RDO, indicando-se uma métrica de qualidade de codificação ideal para o x264. Finalmente, os algoritmos e experimentos usados neste trabalho estão implementados no software “Video Quality Assessment in Java” (jVQA), baseado nas plataformas AviSynth e FFmpeg e que é projetado para personalização e extensibilidade, suportando conteúdo ultra-alta definição “4K” e disponibilizado como código-fonte aberto e livre.
|
43 |
Simulação para codificação de imagens paradas usando o padrão JPEG basicoChung Joo, Fernando 03 October 1995 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-21T03:31:49Z (GMT). No. of bitstreams: 1
ChungJoo_Fernando_M.pdf: 7900937 bytes, checksum: feb9ffd81b61934dd52360209c5f8ef6 (MD5)
Previous issue date: 1995 / Resumo: Este trabalho apresenta um estudo da compressão de imagens usando o padrão JPEG (Joint Photagraphic Experts Group), cujo comportamento é analisado através de simulações em computador com programas desenvolvidos em linguagem C. A simulação foi implementada com o objetivo de se estabelecer uma base eficiente para futuras adaptações e otimizações na codificação de imagens paradas, e também visando sua utilização na codificação de imagens em movimento segundo o padrão MPEG (Motion Picture Experts Group). O sistema foi avaliado através de análises objetivas e subjetivas, principalmente em termos de entropia, relação sinal/ruído e comparação entre os sinais originais e recuperados Os resultados são de fato promissores para transmissão de imagens paradas e confirmam um bom compromisso entre a qualidade de imagem processada e a compressão de dados / Abstract:This work is a study on image compression using JPEG standard (Joint Photographics Experts Group), whose performance is evaluated through a computer simulation developed in C Language. The aim of the simulation was to establish an efficient baseline for future adaptations and optimizations to the encoding of images, and also to enable its utilization in the encoding of moving images according to MPEG standard (Motion Picture Experts Group). The system was evaluated through objective and subjective analysis, in terms of entropy, signal to noise ratio and by comparing the original to the recovered signals. Theresults are promising for the transmission of images taking into account the trade off between the quality of image and the data compression / Mestrado / Mestre em Engenharia Elétrica
|
44 |
Novas medidas de distorção estatisticas para avaliar a qualidade de algoritmos de compressão de imagensAllan, Lucila Helena A 25 February 1997 (has links)
Orientador: Arnoldo Jose de Hoyos Guevara / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-22T04:05:03Z (GMT). No. of bitstreams: 1
Allan_LucilaHelenaA_M.pdf: 5934181 bytes, checksum: 880214e63b2d9eebccff84ba8f8b0df2 (MD5)
Previous issue date: 1997 / Resumo: O objetivo principal deste trabalho é procurar novas medidas de distorção estatísticas que permitam avaliar objetivamente algoritmos de compressão de imagens. Procuramos as novas medidas utilizando técnicas estatísticas, relacionadas principalmente as áreas de Análise Multivariada e Teoria da Informação. Para avaliar seu desempenho, aplicamos estas medidas em imagens de qualidade visual distintas produzidas por quatro tipos diferentes de algoritmos de compressão. utilizados atualmente. A fim de comparar a eficiência destas medidas foi feita uma pesquisa de opinião visando avaliar a qualidade subjetiva das várias imagens, que serviria de padrão comparativo de qualidade. Como resultado deste trabalho, selecionamos duas ova medidas que apresentaram bons resultados em relação aos critérios clássicos relacionados ao Erro Quadrático Médio. / Abstract: The main purpose of this work is to develop statistical models that could help to measure distortions, so that one could compare objectively the quality of image compression algorithms. The statistical models were developed using methods that come from Multivariate Statistical Analysis and Information Theory. For developing and testing our image quality models we used four different and very popular image compression algorithms. Moreover for efficiency comparison purposes we obtained, by. using a polI, a mean subjective measure of image quality As a result of our work we obtained two new statistical image quality models that in general behave better than the classical and commercial ones based on a global measure of the Mean Square Error. / Mestrado / Mestre em Estatística
|
45 |
ISO/JBIG : codificação aritmetica de imagens em 2 tonsAbushaala, Ahmed Mohamed Muftah 28 October 1996 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-22T10:09:05Z (GMT). No. of bitstreams: 1
Abushaala_AhmedMohamedMuftah_M.pdf: 5994336 bytes, checksum: 466dcdc0531a486ee717a5bc8b7f9e81 (MD5)
Previous issue date: 1996 / Resumo: Neste trabalho abordou-se aspectos gerais sobre compressão de dados, um tutorial sobre codificação aritmética não binária comparada com codificação de Huffman através de exemplos. A técnica de codificação aritmética binária adaptativa é estudada, tendo em vista sua aplicação em imagens de 2 tons "bi-level images" tendo se como base, técnicas de compressão padrão ISO/JBIG ("International Standard Organization/Joint Bi-level Image experts Group"). A imagem recuperada é igual à imagem original, ou seja, a técnica de compressão resulta em uma codificação sem perdas. Dedicamos nosso esforço para o estudo de dois sub-blocos que fazem partes do padrão JBIG: Sub-bloco "Templates Modelos" e sub-bloco Codificador Aritmético Adaptativo (CAA). O presente trabalho tem como objetivo, o estudo sobre codificação aritmética e desenvolvimento de protótipo software do codec de codificação aritmética binária adaptativa para imagens em 2 tons / Mestrado / Mestre em Engenharia Elétrica
|
46 |
Metodo robusto e simples de compressão de imagens baseado no algoritmo EZWGusmão, Andrezza Almeida 02 August 2018 (has links)
Orientador : Max Henrique Machado Costa / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-02T08:36:15Z (GMT). No. of bitstreams: 1
Gusmao_AndrezzaAlmeida_M.pdf: 1547214 bytes, checksum: cc9e0a40cf5f63688a8dc84924409c11 (MD5)
Previous issue date: 2002 / Mestrado
|
47 |
Algoritmo de casamento de padrões aplicado na estimação de movimento em compressão de videoDel Pietro, Rene Togni 01 October 2003 (has links)
Orientador: Max Henrique Machado Costa / Tese (doutorado) - Universidade Estadula de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T16:27:24Z (GMT). No. of bitstreams: 1
DelPietro_ReneTogni_D.pdf: 4504220 bytes, checksum: b4347a1723116632925fdd94aedb981f (MD5)
Previous issue date: 2003 / Resumo: Com a aplicação das técnicas de estimação e compensação de movimento em seqüências de vídeo, consegue-se reduzir o número de bits gerados na codificação e aumentar a qualidade da seqüência processada. Em contrapartida, o alto custo computacional do processo exige desempenho do codificador. O objetivo desta tese é propor um novo algoritmo de estimação que concilia qualidade de processamento e rapidez computacional.Realiza-se uma análise do problema de codificação e dos vários algoritmos de estimação utilizados, enfatizando-se a questão da qualidade e da velocidade de processamento. Apresenta-se um algoritmo de estimação inédito denominado MSEA (uma modificação do algoritmo SEA). O algoritmo SEA (Successive Elimination Algorithm) obtém o vetor de movimento ótimo fazendo uma pré-seleção de macroblocos na região de pesquisa. Modifica-se o algoritmo SEA introduzindo-se novos critérios de descarte executados em ordem crescente de complexidade e criando uma ordem de leitura dos macroblocos dentro da região de pesquisa. Tem-se um ganho expressivo na velocidade de processamento, conservando-se a solução ótima obtida pela busca exaustiva ou pelo algoritmo SEA. O algoritmo é implementado como parte de um codificador MPEG-2 e mostra-se que o MSEA atinge curvas de taxa x distorção adequadas, a um custo computacional inferior aos de seus concorrentes. Mostra-se, também, a possibilidade de se
mesclar o MSEA com outros algoritmos de estimação, resultando na otimização das curvas de taxa x distorção x tempo de processamento frente aos métodos de estimação costumeiramente utilizados na prática (busca logaritmica e busca hierárquica) / Abstract: With the application of motion estimation and compensation techniques in video sequences, we can reduce the number of bits needed to encode the video sequence and to increase the quality of the reconstructed video signal. On the other hand, the high
computational cost of the process demands high performance of the encoder. This thesis proposes a new motion estimation algorithm that reconciles processing quality and computational speed. Coding problems and severa1estimation algorithms are analyzed with
emphasis on the quality and processing speed issues. A new motion estimation algorithm, ca11edMSEA (a modification of the SEA algorithm) is presented. The algorithm k:nown as SEA (Successive Elimination Algorithm) obtains the optimum motion vector by
perfonning a pre-selection of macroblocks in the search area. The SEA algorithm is modified by introducing new discard criteria applied in increasing order of complexity and by reordering the reading of macroblocks inside of the search area. An expressive improvement in processing speed is obtained and the optimum solution of the motion vector estimation, also achieved by exhaustive search and SEA, is preserved. The algorithm is implemented as part of an MPEG-2 encoder and it is shown that MSEA achieves adequate rate x distortion curves at a smaller computationalcost than its competitors. Also, the possibility is shown of mixing MSEA with other estimation algorithms, improving the rate x distortion x processing time curves with respect to other estimation methods used in practice (two dimensionallogarithm search and hierarchical search) / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
|
48 |
Implementação do codificador de video H.264 com transformada FLICTTeraoka, Kleber 03 August 2018 (has links)
Orientador: Max Henrique Machado Costa / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T20:57:17Z (GMT). No. of bitstreams: 1
Teraoka_Kleber_M.pdf: 486505 bytes, checksum: b477978b16a5750c657fe387c60fbc75 (MD5)
Previous issue date: 2003 / Mestrado
|
49 |
Hipertenção arterial sistêmica relacionada à compressão neurovascular do bulbo raquídeo - Um estudo morfométricoLIMA, Marcelo Augusto Ribeiro de January 2006 (has links)
Made available in DSpace on 2014-06-12T23:03:40Z (GMT). No. of bitstreams: 2
arquivo8818_1.pdf: 482770 bytes, checksum: 8ab49974c0d14aadfefe5499306631b8 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2006 / O presente trabalho tem como objetivo verificar alterações na superfície do bulbo
raquídeo em indivíduos hipertensos . Avaliamos através de análise morfométrica
cortes olivares medianos de bulbos raquídeos obtidos de cadáveres submetidos à
necropsia no Serviço de Verificação de Óbitos da Secretaria de Estado de Saúde de
Pernambuco Universidade Federal de Pernambuco.
Vinte e um casos de hipertensão e doze indivíduos normotensos foram estudados.
Observou-se uma grande diversidade nos resultados das medidas da área estudada
sem significância estatística.
Concluímos que os resultados podem advir do pequeno número de casos
estudados, porém estes achados podem ser atribuídos à natureza multifatorial da
hipertensão arterial sistêmica
|
50 |
Compressão estatistica de imagens estaticas usando transformada cosseno discreta em duas dimensões com algoritmo de bloco variavel adaptativoFernandez Segovia, Guillermo Ramon 29 October 1993 (has links)
Orientador: Luiz Cesar Martini / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-18T19:31:38Z (GMT). No. of bitstreams: 1
FernandezSegovia_GuillermoRamon_D.pdf: 11050847 bytes, checksum: a546faaa9248b2784bbf9aa20454303e (MD5)
Previous issue date: 1993 / Resumo: O objetivo desta dissertação é apresentar um método eficiente de compressão de imagem aplicado na codificação digital dos sinais na forma de componentes Y, 'C IND. R, 'C IND. B¿, usando um algoritmo adaptativo de bloco variável aplicado à Transformada DCT em duas dimensões. Visam-se os defeitos usando o algoritmo de codificação por DCT convencional que trata todas as áreas segmentadas em blocos fixos não sobrepostos em forma indiscriminada produzindo uma qualidade não uniforme para diferentes conteúdos de imagem. Emprega-se uma recente técnica de segmentação por árvore. Os resultados são promissores para transmissão de imagens paradas com o melhor compromisso entre a qualidade de imagem e a codificação eficiente / Abstract: This work intends to show an efficient coding method of images using transform coding DCT-2D as a key element for image data compression. Conventional DCT coding algorithms, treat ali the image areas indiscriminaly, causing nonuniform image quality for various image contents, consequently this motivates works on DCT schemes adaptive to the images contents so that a better tradeoff between bit rate and image quality can be achieved. ln this work, a DCT-2D algorithm with adaptive zone and quantization is combined with variable block size segmentation to further improve the coding perfomance. A recent segmentation technique is used. The results are given to illustrate the superiority of this adaptive DCT algorithm with segmented blocks and this algorithm poses itself as a promising compression method to deal with transmission of good quality still images / Doutorado / Mestre em Engenharia Elétrica
|
Page generated in 0.69 seconds