21 |
Projeto de um equipamento de fadiga para caracterização do dano em telhas de aço devido à ação do vento aplicando correlação digital de imagens e modelagem computacional / Design of a device for characterization of fatigue damage in steel roofing due to wind action applying digital image correlation and computational modelingQueiroz, Washington Luiz Rodrigues de 27 September 2013 (has links)
QUEIROZ, W. L. R. Projeto de um equipamento de fadiga para caracterização do dano em telhas de aço devido à ação do vento aplicando correlação digital de imagens e modelagem computacional. 2013. 118 f. Tese (Doutorado em Engenharia e Ciência dos Materiais) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2014-04-01T13:10:04Z
No. of bitstreams: 1
2013_tese_wlrqueiroz.pdf: 4014616 bytes, checksum: 06321305909c28188b4650b9b2e8a2c8 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2014-04-02T17:27:50Z (GMT) No. of bitstreams: 1
2013_tese_wlrqueiroz.pdf: 4014616 bytes, checksum: 06321305909c28188b4650b9b2e8a2c8 (MD5) / Made available in DSpace on 2014-04-02T17:27:50Z (GMT). No. of bitstreams: 1
2013_tese_wlrqueiroz.pdf: 4014616 bytes, checksum: 06321305909c28188b4650b9b2e8a2c8 (MD5)
Previous issue date: 2013-09-27 / Shelter is an essential element for human survival. The most important changes in shelter have been in regard, on the one hand, of pre-fabrication of the material to be used, which better guarantees success at any application, and, on the other hand, of the rise of new building materials, such as laminated glass, wooden parts, plastic materials, and mainly aluminum and steel. In this context, metal roofs are praised for several reasons. They are sturdy and durable, span across wide areas, stand corrosion, and are lighter compared to ceramic tiles, which leads to savings in structure costs and ease of handling, transport, and assembly. The issue of high- speed winds, such as hurricanes and storms, often causes great damage to metal tiling. Wind damages show that the low-cycle wear fissures the roofing around the fastening holes, causing the tiles to become loose. This research developed a machine to study the simulation of cyclic loads in metal tiles by simulating wind force. By using the Digital Image Correlation (DIC) technique, a methodology was developed that will aid in assessing tile integrity both quantitatively and qualitatively. / As coberturas constituem um elemento essencial para a sobrevivência humana. As transformações mais portantes das cobertas relacionaram-se, por um lado, com a pré-fabricação do material a ser utilizado, que veio permitir maiores garantias de êxito em qualquer aplicação, e por outro lado, com o aparecimento de novos materiais na construção, como o vidro laminado, peças de madeira, os materiais plásticos e principalmente o alumínio e o aço. Neste contexto os telhados de metal são bem avaliados por vários motivos, são resistentes, duráveis, vencem grandes vãos, resistem à corrosão e são mais leves em relação às cerâmicas, gerando economia nos custos da estrutura e facilidade no manuseio, transporte e montagem. A problemática dos ventos de alta velocidade, como furacões e tempestades, muitas vezes causam danos graves às telhas metálicas. Os danos causados pelo vento mostraram que a fadiga promove uma trinca no telhado em torno dos furos do prendedor ocasionando um despendimento das telhas em sequência. Nesse trabalho desenvolve-se uma máquina para estudos de simulação de carregamento cíclico em telhas metálicas simulando a força do vento. Utilizando a técnica da Correlação Digital de Imagem (CDI) desenvolveu-se uma metodologia que auxiliou em termos quantitativos e qualitativos a avaliação da integridade da telha.
|
22 |
Aplicação da mecânica da danificação na análise do comportamento de materiais compósitos poliméricos reciclados reforçados por fibras de coco / Application of the mechanical of the damage in the analysis of the behavior of polymer composites recycled reinforced by coconut fiberPennafort Junior, Luiz Carlos Gonçalves 27 March 2015 (has links)
PENNAFORT JUNIOR, L. C. G. Aplicação da mecânica da danificação na análise do comportamento de materiais compósitos poliméricos reciclados reforçados por fibras de coco. 2015. 112 f. Tese (Doutorado em Ciências de Materiais) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2015. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2015-04-30T16:16:16Z
No. of bitstreams: 1
2015_tese_lcgpennafortjunior.pdf: 7709926 bytes, checksum: c55121a4bddba28059f966f77d35b30a (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2015-05-04T10:27:04Z (GMT) No. of bitstreams: 1
2015_tese_lcgpennafortjunior.pdf: 7709926 bytes, checksum: c55121a4bddba28059f966f77d35b30a (MD5) / Made available in DSpace on 2015-05-04T10:27:04Z (GMT). No. of bitstreams: 1
2015_tese_lcgpennafortjunior.pdf: 7709926 bytes, checksum: c55121a4bddba28059f966f77d35b30a (MD5)
Previous issue date: 2015-03-27 / With increasing the ecological movements around the
world, whose the main
objective aims to raise awareness and encourage the
world's
population to save natural resources, coupled with
the need to divert
grounded waste (sanitary or industrial) in order to
reduce
environmental problems and public health, arising f
rom the improper
disposal of solid waste, emerge incentives for recy
cling, and the
development of biodegradable materials. Given this
context, the
composites reinforced with natural fibers began to
be highlighted in
the scientific community. However, its utilization
is still seen with
suspicion due to little or no knowledge of these pr
omising materials.
Faced with this problem, arose the proposal of this
investigative
character work, in with it was researched and devel
oped a fully
recycled composite, of thermoplastic matrix (recycled PVC) reinforced
with fibers obtained from the bark of green coconut
s discarded. For
this objective were used various tools of physical,
chemical, thermal
and mechanical characterization, whose amounts of d
eformation fields
were obtained by Digital Image Correlation (DIC), c
omparing the image
of the body not deformed with images of the deforme
d body. Finally, we
assessed the processes of damage of the composite,
through
experimental characterization of the evolution of t
he isotropic damage
by the methods of varying the effective elastic mod
ulus (tensile test
with loading and unloading) and by Tsai-Wu index wi
th the parameters
constitutive of hyperbolic tangent function, where
the values found,
in both methods, were within the expected range for
composite, from
0.20 to 0.50. / Com os crescentes movimentos ecológicos em todo o mundo, onde o objetivo principal visa conscientizar e estimular a população mundial a poupar os recursos naturais, aliado a necessidade de se desviar os resíduos aterrados (sanitários ou industriais), de forma a reduzir os problemas ambientais e de saúde pública, decorrentes da disposição inadequada de resíduos sólidos, surgem os incentivos a reciclagem de materiais, bem como o desenvolvimento de materiais biodegradáveis. Diante deste contexto, os materiais compósitos reforçados com fibras naturais ganham destaque no meio científico. No entanto, seu uso ainda é tido com desconfiança, devido ao pouco ou nenhum conhecimento desses promissores materiais. Perante essa problemática, surgiu a proposta deste trabalho de caráter investigativo, em que foi pesquisado e desenvolvido um compósito totalmente reciclado, de matriz termoplástica (PVC reciclado) reforçado, com fibras obtidas da casca de cocos verdes descartados. Para esse objetivo foram utilizadas diversas ferramentas de caracterização física, química, térmica e mecânica, sendo os valores dos campos de deformação obtidos pela Correlação de Imagem Digital (CID), comparando a imagem do corpo não deformado com imagens do corpo deformado. E finalmente, avaliou-se os processos de danificação do compósito, através da caracterização experimental da evolução do dano isotrópico pelos métodosda variação do Módulo de Elasticidade efetivo (ensaio de tração com carga e descarga) e pelo índice de Tsai-Wu com os parâmetros constitutivos da função tangente hiperbólica, onde os valores encontrados, em ambos os métodos, mantiveram-se dentro da faixa esperada para compósitos, 0,20 – 0,50.
|
23 |
Análise de erros devidos a fatores externos nas medidas realizadas com câmera de distância PMD Camcube 3.0Silva, Felipe Martins Marques da January 2015 (has links)
Orientador : Prof. Dr. Jorge Antonio Silva Centeno / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências da Terra, Programa de Pós-Graduação em Ciências Geodésicas. Defesa: Curitiba, 28/09/2015 / Inclui referências : f. 97-103 / Resumo: Um dos recentes equipamentos desenvolvidos para o Sensoriamento Remoto são as câmeras de distância, conhecidas como range cameras ou TOF cameras. Tais câmeras também obtém a distância sensor-alvo, assim como os aparelhos de laser scanning, entretanto não possuem equipamentos de varredura, capturando imagens quadro a quadro. A medidas obtidas com tais câmeras estão sujeitas à diversas fontes de erros instrumentais e ambientais. Dentre as fontes de erros existentes, esta Tese focou no estudo dos erros causados pela iluminação ambiente, pela refletividade do alvo e pela distância câmera-alvo, além de verificar o tempo de aquecimento necessário para se atingir maior precisão/exatidão nas medidas da câmera. Foi utilizado uma câmera PMD Camcube 3.0, que permite obter imagens de intensidade, distância e amplitude, com 200 x 200 pixels, em um sensor CMOS (Complementary Metal Oxide Semiconductor). Para medir a distância para cada pixel da imagem, este equipamento utiliza o princípio time-of-flight (TOF) com base no método de diferença de fase. Os experimentos mostraram que a câmera necessita de, pelo menos, 40 minutos de aquecimento para atingir a estabilidade das medidas. A distância câmera-alvo influenciou o erro das medidas através de um comportamento oscilatório atenuada com o aumento da distância, sendo modelado pela equação da onda, com amplitude atenuada. Os erros devido à iluminação ambiente apresentaram variação linear proporcional à intensidade da iluminação ambiente. Por último, quanto à refletividade do alvo, verificou-se que alvos mais escuros apresentaram maior ruído e que, comparando com alvo de cor branca, a mudança na refletividade do alvo, por meio das cores cinza ou preta, aumentou significativamente os erros dos valores da distância. / Abstract: One of the latest equipment developed for Remote Sensing distance are the cameras, known as range camera or TOF cameras. Such cameras also obtains the distance between the sensor and its target, as well as laser scanning devices, however have no scanning equipment, capturing images frame by frame. The measurements obtained with this camera are subject to several sources of instrumental and environmental errors. Among these errors sources, this thesis focused on the study of the errors caused by ambient lighting and by reflectivity of the target (environmental) by the camera target distance, and checking the heating time required to achieve higher precision / accuracy in measurements camera. A PMD Camcube 3.0 camera that obtains intensity images was used, distance and amplitude, with 200 x 200 pixels on a CMOS (Complementary Metal Oxide Semiconductor). To measure the distance for each pixel in the image, this equipment uses the time-of-flight (TOF) principle, based on the phase difference method. The experiments showed that the camera needs, at least, 40 minutes heating to achieve stable measurements. The error due to distante between camera and the target behaves as an attenuated wave, that decreases as the distance get higher. The errors due to ambient lighting showed a linear variation, proportional to the intensity of the ambient lighting. Finally, about the errors of target reflectivity, the darker the target, the greater the noise. Compared with white target, the change in reflectivity of the target, by means of gray or black color, significantly increased distance values.
|
24 |
Using texture measures for visual quality assessmentFreitas, Pedro Garcia 18 October 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2018-04-19T17:18:07Z
No. of bitstreams: 1
2017_PedroGarciaFreitas.pdf: 42146492 bytes, checksum: 48f490751ac049a6ed8f8255d1da4b66 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-04-19T17:22:15Z (GMT) No. of bitstreams: 1
2017_PedroGarciaFreitas.pdf: 42146492 bytes, checksum: 48f490751ac049a6ed8f8255d1da4b66 (MD5) / Made available in DSpace on 2018-04-19T17:22:16Z (GMT). No. of bitstreams: 1
2017_PedroGarciaFreitas.pdf: 42146492 bytes, checksum: 48f490751ac049a6ed8f8255d1da4b66 (MD5)
Previous issue date: 2018-04-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). / Na última década, diversas aplicações multimídia tem gerado e distribuído conteúdos de imagens e vídeos digitais. Serviços de multimídia que tem ganhado um vasto interesse incluem televisão digital, jogos de vídeo e aplicações em tempo real operando sobre a Internet. De acordo com predições da CiscoTM, a percentagem do tráfego de dados de vídeo sobre a Internet era de 53% em 2014 e superará os 67% em 2018. Devido à esse aumento na demanda de conteúdo de dados visuais, a necessidade de métodos e ferramentas que estimem a qualidade da experiência (QoE) do consumidor é enorme. Entre os aspectos que contribuem para a QoE, a qualidade dos estímulos visuais é uma das maiores propriedades, pois pode ser alterada em diversos estágios da cadeia de comunicação, tal como na captura, na transmissão, ou na reprodução do conteúdo. Considerando que os avaliadores naturais da qualidade visual são seres humanos, a estratégia básica para medir a qualidade visual consiste na realização de experimentos subjetivos. Esses experimentos são geralmente realizados com participantes humanos em laboratórios preparados com um ambiente controlado. Esses participantes avaliam a qualidade de um dado estimulo visual (imagem ou vídeo) e atribuem a eles um valor numérico associado à qualidade. Para avaliar a qualidade, os participantes seguem um conjunto de passos experimentais. Geralmente, esses passos são padronizados para favorecer a reprodutibilidade experimental. Os padrões de experimentos incluem metodologias de avaliação, tais como condições de visualização, escala de avaliação, materiais, etc. Após um conjunto de participantes avaliarem individualmente a qualidade de um dado estímulo, a média dos valores é calculada para gerar o valor médio das opiniões subjetivas (MOS). O MOS é frequentemente utilizado para representar a qualidade geral de um dado estímulo visual. Como a coleta dos MOS é realizada a partir de experimentos com seres humanos, esse processo é demorado, cansativo, caro, e laborioso. Devido ao custo dos experimentos subjetivos, um grande esforço tem sido dedicado ao desenvolvimento de técnicas objetivas para a avaliação de estímulos visuais. Essas técnicas objetivas consistem em predizer o MOS automaticamente por meio de algoritmos computacionais. Tal automação torna possível a implementação de procedimentos computacionais rápidos e baratos para monitorar e controlar a qualidade de estímulos visuais. As técnicas objetivas para a avaliação de estímulos visuais podem ser classificadas em três tipos, dependendo da quantidade de informação necessária pelo método. Se todo o estímulo de referência (original) é requerido para a estimação da qualidade do estímulo testado, então essa técnica é classificada como sendo de referência completa. Quando somente alguma informação parcial da referência é necessária, a técnica é classificada como sendo de referência reduzida. Por outro lado, quando nenhuma informação sobre o estímulo de referência é necessária, a técnica é dita como sendo sem referência. Uma vez que a exigência de uma referência completa ou parcial é um obstáculo no desenvolvimento de diversas aplicações multimídia, as técnicas de sem referência são as mais convenientes na maioria dos casos. Diversas técnicas objetivas para avaliação de qualidade visual têm sido propostas, embora ainda existam algumas questões em aberto no seu desenvolvimento. No caso de técnicas de avaliação de imagens, diversas técnicas de referência completa têm sido produzidas com uma excelente performance. Por outro lado, técnicas que não utilizam referências ainda apresentam limitações quando múltiplas distorções estão presentes. Além disso, as técnicas sem referência para imagens mais eficientes ainda apresentam modelos computacionalmente custosos, o que limita a utilização desses métodos em várias aplicações multimídia. No caso de vídeos, o atual estado da arte ainda possui performance na predição dos MOS pior do que os métodos de imagens. Quando consideramos a acurácia da predição, os métodos objetivos para vídeos possuem uma correlação entre valores preditos e MOS ainda pequena se comparada com a correlação observada em métodos para imagens. Além disso, a complexidade computacional é ainda mais crítica no caso de vídeos, uma vez que a quantidade de informação processada é muito maior do que aquela presente em imagens. O desenvolvimento de uma técnica objetiva de avaliação de qualidade visual requer resolver três grandes problemas. O primeiro problema é determinar um conjunto de características que sejam relevantes na descrição da qualidade visual. Essas características, geralmente, referem-se às medidas de estímulos físicos, tais como quantificação da nitidez de borda, estatísticas de cenas naturais, estatísticas no domínio de curvlets, filtros de Prewitt, etc. Além disso, múltiplos tipos de características podem ser combinados para gerar um vetor de características que descrevem melhor a qualidade de um dado estímulo. O segundo problema é estabelecer uma estratégia de agrupamento das características de forma que os valores numéricos sejam descritivos dentro de um modelo. Esse agrupamento se refere a uma combinação de medidas através de um subespaço de medidas para representar o estímulo analisado. Finalmente, o terceiro problema é a criação de um modelo que mapeie as características agrupadas de forma que se correlacione com os dados preditos com os subjetivos. Neste trabalho, nós apresentamos uma investigação de métodos de avaliação de qualidade visual baseada na medição de texturas. A pressuposição é que degradações visuais alteram as texturas e as estatísticas dessas texturas em imagens e vídeos. Essas medidas são executadas em termos das estatísticas extraídas do operador de padrões binários locais (LBP) e suas extensões. Este operador foi escolhido porque ele unifica outros modelos de análise de texturas mais tradicionais, tais como o espectro de textura, o nível de cinza de comprimento (GLRLM) e as matrizes de co-ocorrência de níveis de cinza (GLCM). O operador LBP, sendo um algoritmo simples e que favorece implementações rápidas, possui propriedades muito úteis para sistemas de processamento em tempo real de imagens e vídeos. Devido às vantagens supracitadas, nós analisamos o operador LBP e algumas das suas extensões no estado da arte com o objetivo de investigar sua adequabilidade para o problema de avaliação de qualidade de imagens. Para isso, neste trabalho nós apresentamos uma extensa revisão do estado da arte dos operadores. Entre os operadores no estado da arte, podemos mencionar os padrões ternários locais (LTP), a quantização de fase local (LPQ), as estatísticas binarizadas de características de imagem (BSIF), os padrões locais binários rotacionados (RLBP), os padrões binários locais completos (CLBP), os padrões de configuração locais (LCP), entre outros. Ademais, nós também propomos novas extensões que melhoram a predição de qualidade. Entre as extensões propostas para a medida de características de qualidade, estão os padrões binários locais de múltipla escala (MLBP), os padrões ternários locais de múltipla escala (MLTP), os padrões de variância local (LVP), os padrões de planos ortogonais de cores (OCPP), os padrões binários locais salientes (SLBP) e os padrões binários locais salientes de múltipla escala (MSLBP). Para testar a adequabilidade dos operadores de texturas supracitados, propomos um arcabouço para utilizar esses operadores na produção de novas métricas de qualidade de imagens. Dessa forma, muitas métricas sem referência podem ser geradas a partir da estratégia proposta. Utilizando as métricas geradas a partir do arcabouço proposto, uma extensa análise comparativa é apresentada neste trabalho. Essa análise foi feita com três das mais populares bases de dados de qualidade imagens disponíveis, sendo elas a LIVE, CSIQ e TID 2013. Os resultados gerados a partir dos testes nessas bases demonstram que os operadores no estado da arte mais adequados para mensurar a qualidade de imagens são o BSIF, o LPQ e o CLBP. Todavia, os resultados também indicaram que os operadores propostos atingiram resultados ainda mais promissores, com as abordagens baseadas em múltiplas escalas apresentando os melhores desempenhos entre todas variações testadas. Inspirado nos resultados experimentais das métricas de imagens geradas, nós escolhemos um operador de textura conveniente para implementar uma métrica de avaliação de qualidade de vídeos. Além de incorporar informações de textura, nós também incorporamos informações de atividade espacial e informação temporal. Os resultados experimentais obtidos indicam que a métrica proposta tem uma performance consideravelmente superior quando testada em diversas bases de dados de vídeo de referência e supera os atuais modelos de qualidade vídeo. / In the last decade, many visual quality models have been proposed. However, there are some open questions involving the assessment of image and video quality. In the case of images, most of the proposed methods are very complex and require a reference content to estimate the quality, limiting their use in several multimedia application. For videos, the current state-of-the-art methods still perform worse than images in terms of prediction accuracy. In this work, we present an investigation of visual quality assessment methods based on texture measurements. The premise is that visual impairments alter image and video textures and their statistics. These measurements are performed regarding the statistics of the local binary pattern (LBP) operator and its extensions. We chosen LBP because it unifies traditional texture analysis models. In addition, LBP is a simple but effective algorithm that performs only fundamental operations, which favors fast and simple implementations, which is very useful for real-time image and video processing systems. Because of the abovementioned advantages, we analyzed the LBP operator and some of its state-of-the-art extensions addressing the problem of assessing image quality. Furthermore, we also propose new quality-aware LBP extensions to improve the prediction of quality. Then, we propose a framework for using these operators in order to produce new image quality metrics. Therefore, many no-reference image quality metrics can be generated from the proposed strategy. Inspired by experimental results of generated no-reference image quality metrics, we chosen a convenient texture operator to implement a full-reference video quality metric. In addition to the texture information, we also incorporate features including spatial activity, and temporal information. Experimental results indicated that our metric presents a superior performance when tested on several benchmark video quality databases, outperforming current state-of-the-art full-reference video quality metrics.
|
25 |
No-reference video quality assessment model based on artifact metrics for digital transmission applicationsSilva, Alexandre Fieno da 10 March 2017 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-06-22T19:03:58Z
No. of bitstreams: 1
2017_AlexandreFienodaSilva.pdf: 5179649 bytes, checksum: de1d53930e22f809bd34322d5c5270d0 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-10-05T17:04:26Z (GMT) No. of bitstreams: 1
2017_AlexandreFienodaSilva.pdf: 5179649 bytes, checksum: de1d53930e22f809bd34322d5c5270d0 (MD5) / Made available in DSpace on 2017-10-05T17:04:26Z (GMT). No. of bitstreams: 1
2017_AlexandreFienodaSilva.pdf: 5179649 bytes, checksum: de1d53930e22f809bd34322d5c5270d0 (MD5)
Previous issue date: 2017-10-05 / Um dos principais fatores para a redução da qualidade do conteúdo visual, em sistemas de imagem digital, são a presença de degradações introduzidas durante as etapas de processamento de sinais. Contudo, medir a qualidade de um vídeo implica em comparar direta ou indiretamente um vídeo de teste com o seu vídeo de referência. Na maioria das aplicações, os seres humanos são o meio mais confiável de estimar a qualidade de um vídeo. Embora mais confiáveis, estes métodos consomem tempo e são difíceis de incorporar em um serviço de controle de qualidade automatizado. Como alternativa, as métricas objectivas, ou seja, algoritmos, são geralmente usadas para estimar a qualidade de um vídeo automaticamente. Para desenvolver uma métrica objetiva é importante entender como as características perceptuais de um conjunto de artefatos estão relacionadas com suas forças físicas e com o incômodo percebido. Então, nós estudamos as características de diferentes tipos de artefatos comumente encontrados em vídeos comprimidos (ou seja, blocado, borrado e perda-de-pacotes) por meio de experimentos psicofísicos para medir independentemente a força e o incômodo desses artefatos, quando sozinhos ou combinados no vídeo. Nós analisamos os dados obtidos desses experimentos e propomos vários modelos de qualidade baseados nas combinações das forças perceptuais de artefatos individuais e suas interações. Inspirados pelos resultados experimentos, nós propomos uma métrica sem-referência baseada em características extraídas dos vídeos (por exemplo, informações DCT, a média da diferença absoluta entre blocos de uma imagem, variação da intensidade entre pixels vizinhos e atenção visual). Um modelo de regressão não-linear baseado em vetores de suporte (Support Vector Regression) é usado para combinar todas as características e estimar a qualidade do vídeo. Nossa métrica teve um desempenho muito melhor que as métricas de artefatos testadas e para algumas métricas com-referência (full-reference). / The main causes for the reducing of visual quality in digital imaging systems are the unwanted presence of degradations introduced during processing and transmission steps. However, measuring the quality of a video implies in a direct or indirect comparison between test video and reference video. In most applications, psycho-physical experiments with human subjects are the most reliable means of determining the quality of a video. Although more reliable, these methods are time consuming and difficult to incorporate into an automated quality control service. As an alternative, objective metrics, i.e. algorithms, are generally used to estimate video quality quality automatically. To develop an objective metric, it is important understand how the perceptual characteristics of a set of artifacts are related to their physical strengths and to the perceived annoyance. Then, to study the characteristics of different types of artifacts commonly found in compressed videos (i.e. blockiness, blurriness, and packet-loss) we performed six psychophysical experiments to independently measure the strength and overall annoyance of these artifact signals when presented alone or in combination. We analyzed the data from these experiments and proposed several models for the overall annoyance based on combinations of the perceptual strengths of the individual artifact signals and their interactions. Inspired by experimental results, we proposed a no-reference video quality metric based in several features extracted from the videos (e.g. DCT information, cross-correlation of sub-sampled images, average absolute differences between block image pixels, intensity variation between neighbouring pixels, and visual attention). A non-linear regression model using a support vector (SVR) technique is used to combine all features to obtain an overall quality estimate. Our metric performed better than the tested artifact metrics and for some full-reference metrics.
|
26 |
Ajuste automático de parâmetros para aplicações de segmentação nuclear em imagens médicasTaveira, Luís Felipe Rabello 22 June 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raiane Silva (raianesilva@bce.unb.br) on 2017-07-19T20:16:17Z
No. of bitstreams: 1
2017_LuisFelipeRabelloTaveira.pdf: 14744186 bytes, checksum: 6705619a59c5356003b625a6d0488abb (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-12T18:51:08Z (GMT) No. of bitstreams: 1
2017_LuisFelipeRabelloTaveira.pdf: 14744186 bytes, checksum: 6705619a59c5356003b625a6d0488abb (MD5) / Made available in DSpace on 2017-09-12T18:51:08Z (GMT). No. of bitstreams: 1
2017_LuisFelipeRabelloTaveira.pdf: 14744186 bytes, checksum: 6705619a59c5356003b625a6d0488abb (MD5)
Previous issue date: 2017-09-12 / Imagens em alta resolução de microscopia são muito importantes no estudo de doenças em níveis celulares e sub-celulares. Os efeitos causados por muitas doenças, como o câncer por exemplo, geralmente manifestam-se como alterações na morfologia das células em escala microscópica. Investigar essas mudanças e suas correlações com dados moleculares e resultados clínicos podem levar a uma melhor compreensão dos mecanismos da doença, e permitir o desenvolvimento de novas formas de tratamento. Existem aplicações de bioinformática capazes de realizar análises qualitativas em amostras de tecidos humanos por meio do processamento desse tipo de imagem. Essas aplicações são parametrizadas e alterações nos valores de seus parâmetros de configuração podem causar impactos significativos na qualidade do resultado. Além disso, elas são pré-configuradas por um conjunto de parâmetros padrão que não são os ideais para todos os tipos de imagens que poderão ser analisadas. Dependendo do tamanho da imagem a ser processada, cada execução dessas aplicações pode levar horas em uma estação de trabalho comum. Neste trabalho foram utilizadas duas aplicações exemplo que, conforme os valores de parâmetros utilizados, podem ser ajustadas em bilhões de maneiras diferentes. Para encontrar combinações de parâmetros que melhorem a qualidade do resultado e reduzam o tempo de execução destas aplicações de maneira eficiente, foi proposto um sistema de ajuste automático de parâmetros multiobjetivo capaz de melhorar a qualidade da análise dessas aplicações em até 8,35x e de reduzir o tempo de execução em até 16,05x, testando-se apenas 100 pontos do espaço de busca. A fim de avaliar a capacidade de generalização do sistema de otimização em encontrar uma combinação de parâmetros que fosse capaz de otimizar múltiplas imagens ao mesmo tempo, realizou-se experimentos de validação cruzada em que foi possível atingir uma melhoria de até 1,15x na qualidade do resultado e de redução no tempo de execução médio em 10,25x. Para quantificar essas melhorias e as alterações na morfologia das células e tecidos em escala micro-anatômica foram desenvolvidas múltiplas métricas e mecanismos de consultas espaciais a fim de tornar essas análises mais precisas e eficientes. / High resolution microscopy images may greatly help the study of diseases at cellular and subcellular levels. The effects caused by many diseases, such as cancer, usually manifest themselves as changes in the morphology of cells on a microscopic scale. Investigating these changes and their correlations with molecular data and clinical outcomes may lead to a better understanding of the mechanisms of the disease, and allow the development of new forms of treatment. There are applications of bioinformatics capable of performing qualitative analyzes on human tissue samples through the processing of this type of image. These applications are parameterized and changes in the values of their configuration parameters can cause significant impacts on the quality of the result. In addition, they are preconfigured by a set of default parameters that are not ideal for all types of images that can be processed. Depending on the size of the image being analyzed, each execution of these applications can take hours on a regular workstation. In this work, two example applications were used. Each of them can be adjusted in billions of different ways according to the parameter values used. To find combinations of parameters that improve the quality of the result and reduce the execution time of these applications efficiently, we propose a multiobjective auto tuning system. This system is able to improve the quality of the analysis of these applications by up to 8.35x and also able to reduce the execution time by up to 16.05x by testing only 100 search-space points. In order to evaluate the generalization ability of the optimization framework to find a combination of parameters that is able to optimize multiple images at the same time, cross-validation experiments were performed in which it was possible to achieve an improvement of up to 1.15x on quality and reduction of the average execution time by 10.25x. To quantify these improvements and changes in the morphology of cells and tissues at the micro-anatomical scale, multiple metrics and spatial query mechanisms were developed to make these analyzes more accurate and efficient.
|
27 |
Fototriangulação de imagens PRISM-ALOS com estimativa dos POI em órbita utilizando os modelos de plataforma UCL e J2Rodrigues, Tiago Lima, 1985- January 2015 (has links)
Orientadores : Prof. Dr. Edson Aparecido Mitishita e Prof. Dr. Luiz Danilo Damasceno Ferreira / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências da Terra, Programa de Pós-Graduação em Ciências Geodésicas. Defesa: Curitiba, 16/12/2015 / Inclui referências : f. 162-170 / Resumo: No contexto dos modelos rigorosos para orientação de imagens orbitais, para que o completo potencial geométrico das mesmas seja explorado, duas questões surgem. A primeira está relacionada aos conhecimentos mais exatos possíveis dosparâmetros de orientação exterior (POE) e dos parâmetros de orientação interior (POI). Os valores dos POI são normalmente estimados por calibração em laboratório, antes do lançamento do satélite. Porém, as acelerações e mudanças ambientais drásticas impostas durante o lançamento do satélite, bem como a influência termal do sol quando o mesmo encontra-se em órbitapodem causar alterações nos valores nominais dos POI. Desta forma, a estimativa dos POI em órbita ao mesmo tempo em que ocorre a orientação das imagens é recomendável. A segunda questão diz respeito ao modelo de plataforma a ser utilizado na modelagem rigorosa, uma vez que as posições do satélite durante o imageamento devem ser estimadas com o máximo de exatidão. Nesta pesquisa propõe-se o uso do modelo de plataforma UCL e deste modelo adicionado da perturbação orbital proveniente da atração gravitacional da Terra, devido ao seu achatamento polar, denominado de modelo J2. Ambos os modelos foram adaptados ao uso de coordenadas referenciadas a um Sistema de Referência Terrestre. Foram avaliadas fototriangulações das imagens de três tripletos PRISM-ALOS,com e sem estimativa dos POI em órbita, utilizando os dois modelos de plataforma mencionados.A partir dos resultados verificou-se que o uso do modelo de plataforma J2 não proporcionou diferenças significativas nas exatidões, em relação ao uso do modelo UCL. Verificou-se também que a estimativa dos POI em órbita nas fototriangulações proporcionou melhorias significativas de exatidão nas componentes altimétricas. Nas exatidões planimétricas resultantes, a estimativa dos POI em órbita propiciou melhoras na ordem do decímetro. Com o objetivo de analisar a usabilidade dos POI estimados na orientação de outras imagens não participantes do processo de estimativa, os POI estimados com o primeiro tripleto foram utilizados para a orientação interior nas fototriangulações das imagens do terceiro tripleto. Como resultado verificou-se uma piora na componente planimétrica e uma ligeira melhora na componente altimétrica em relação à fototriangulação do terceiro tripleto com a estimativa dos POI em órbita / Abstract: In the context of rigorous models for satellite images orientation, two questions arise for the full explorationof the geometric potential. The first question relates to the most accurate possible knowledge of the exterior orientation parameters (EOP) and the interior orientation parameters (IOP). The IOP values are usually estimated by calibration in the laboratory, before the launch of the satellite. However, accelerations and drastic environmental changes imposed during the launch of the satellite, as well as the thermal influence of the sun when it is in orbit can cause changes in nominal IOP values. Thus, the images orientation with the on orbit estimate of IOP is recommended. The second question concerns the platform model to be used in rigorous modeling, since the satellite positions during the imaging should be estimated with maximum accuracy. This research proposes the use of the UCL platform model and of the UCL platform model added of the orbital perturbation from the Earth's gravitational attraction, due to its polar flattening. This platform model was called J2 model. Both models have been adapted to using coordinates referenced to the Terrestrial Reference System. Bundle block adjustments of three PRISM-ALOS images triplets with and without on orbit IOP estimation using the two mentioned platform models were evaluated. From the results it was found that the use of J2 platform model provided no significant differences in accuracies in relation to the use of UCL model. It was also found that the on orbit estimate of IOP in the bundle block adjustments provided significant improvements of accuracy for the altimetric components. In the planimetrics resulting accuracies, on orbit estimate of IOP provided improvement in the order of decimeter. In order to analyze the usability of the estimated IOP on the orientation of other images are not participants in the estimation process, the estimated IOP with the first triplet were used to the interior orientation in the bundle adjustment of the third triplet images.As a result it was observed a decrease of accuracy in planimetric component and a slight improvement inaltimetric componentrelative to the bundle adjustment of the third triplet images with on orbit IOP estimation.
|
28 |
Testes para a avaliação do potencial fisiológico de sementes de panicum maximum cvs. Mombaça, massai e tanzânia /Pereira, Francisco Elder Carlos Bezerra. January 2018 (has links)
Orientador: Cibele Chalita Martins / Coorientador: Francisco Guilhien Gomes Junior / Banca: Ana Regina Pimentel de Almeida / Banca: Rinaldo César de Paula / Banca: Maria Renata Rocha Pereira / Banca: Everlon Cid Rigobelo / Resumo: A realização e o uso de testes rápidos e eficientes para a avaliação do vigor de lotes de sementes de gramíneas forrageiras são desejáveis nos programas de controle de qualidade das empresas deste setor. O objetivo do trabalho foi identificar testes de vigor eficientes para a diferenciação dos lotes, previsão de emergência de plântulas em campo e avaliação da qualidade fisiológica de sementes de Panicum maximum cvs. Mombaça, Massai e Tanzânia. Foram avaliados dezenove, onze e doze lotes de sementes de capim-mombaça, capim-massai e capim-tanzânia, respectivamente. As sementes foram avaliadas quanto ao teor de água, germinação, primeira contagem de germinação, índice de velocidade de germinação, emergência de plântulas em areia, primeira contagem de emergência de plântulas em areia, comprimento de raiz e parte aérea de plântulas, análise de imagens de plântulas com o SVIS® (comprimento de plântulas, índices de vigor e uniformidade) e emergência de plântulas em campo. O delineamento experimental utilizado foi o inteiramente casualizado para os testes realizados em laboratório e blocos ao acaso para o teste de emergência de plântulas em campo, com quatro repetições de 50 sementes. Para os testes avaliados por meio do SVIS utilizou-se o delineamento inteiramente casualizado com oito repetições de 25 sementes. Os dados foram submetidos à análise de variância e as médias comparadas pelo teste de Scott Knott a 5% de probabilidade. Realizou-se a análise estatística multivariada de agr... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The realization and use of quick and efficient tests for the evaluation of the vigor of seed lots of forage grasses are desirable in the quality control programs of companies in this sector. The objective of this study was to identify efficient vigor tests for lots differentiation, seedling emergence prediction in the field and evaluation of the physiological quality of Panicum maximum cvs. Mombasa, Massai and Tanzania seeds. Seed samples of nineteen, eleven and twelve seed lots of Mombasa grass, Massai grass and Tanzânia grass were evaluated, respectively. The seeds were evaluated for water content, germination, first germination count, germination speed index, seedlings emergence in sand, first emergence count of seedlings in sand, root and shoot length of seedling, seedling image analysis with SVIS® (seedling length, vigor indexes and uniformity ) and seedling emergence in the field .The experimental design was completely randomized for the laboratory tests and randomized blocks to seedling emergence on the field, with four replications of 50 seeds. For the tests evaluated by the SVIS was used the completely randomized design with eight replications of 25 seeds. The data were submitted to variance analysis and means compared by the Scott Knott test at 5% probability. Multivariate statistical analysis of cluster and principal component was performed. It was concluded that are efficient in the evaluation of the physiological potential of seeds, providing similar information ... (Complete abstract click electronic access below) / Doutor
|
29 |
Metodologia de elaboração automatizada de modelo digital de elevação e ortofoto em média e pequena escala. / Methodology of automatic digital elevation model and ortophotos construction to medium and small scales.Idoeta, Ivan Valeije 19 November 2007 (has links)
O presente trabalho propõe uma metodologia para a elaboração de modelos digitais de elevação e ortofotos, em média e pequena escala, de maneira automática, utilizando correlação de imagens digitais, a partir de fotografias aéreas métricas. Aborda conceitos básicos de Fotogrametria e correlação de imagens digitais, e lança o conceito da janela epipolar como ferramenta auxiliar na busca e correlação. Estas janelas permitem obter a máxima correlação simultânea entre duas ou mais imagens, como também a varredura em qualquer direção. Isso torna bastante robusto o método de elaboração dos produtos propostos. Esta metodologia foi implementada em um caso prático onde se utilizou uma cobertura aerofotogramétrica em escala 1:25.000. Os produtos foram validados, a partir de elementos de referência retirados de outra cobertura em escala 1:5.000. As precisões atenderam os requisitos do PEC Classe A para a escala 1:2.500 em planimetia, e intervalos de curvas de nível de 5 metros de eqüidistância, em altimetria. / This work presents a methodology for the production of digital elevation model and orthophotos on medium and small scales, with an automatic manner, using the concepts of digital image correlation. It presents basic fundamentals of photogrammetry and digital image correlation, and launches the concept of epipolar window like an auxiliary search and correlation tool. These windows allow the simultaneous multiple image correlation, in different direction scanning. This makes quite robust the production method of the proposed products. This methodology was implemented in a practical case, where 1:25.000 scale photogrammetric images were used. The products were validated using a 1:5.000 scale coverage as reference. The accuracy and precision achieved are into the Brazilian Cartography Standards as \"Classe A\" for the 1:2.500 scale, in planimmetry, and 5 meter contour lines interval in altimetry.
|
30 |
Detecção e restauração de áreas sombreadas em imagens digitais de alta resolução espacial /Azevedo, Samara Calçado de. January 2014 (has links)
Orientador: Erivaldo Antônio da Silva / Banca: Aylton Pagamisse / Banca: Rodrigo Affonso de Albuquerque Nobrega / Resumo: Novas possibilidades para o mapeamento urbano vêm sendo criadas com o aumento no detalhamento das imagens. A alta resolução espacial, espectral e radiométrica fornecem benefícios na identificação de elementos individuais em áreas urbanas, como casas, árvores, edifícios, entre outros. Contudo, as imagens acabam sofrendo com informações indesejadas ocasionadas por esses objetos elevados, como é o caso das regiões de sombras, responsáveis por influenciar na resposta espectral dos alvos e degradação visual das imagens. Como forma de reduzir as diferenças radiométricas ocasionadas pelas sombras, este trabalho tem como principal objetivo estabelecer uma metodologia capaz de detectar e restaurar sombras em imagens digitais de áreas urbanas de alta resolução espacial. O algoritmo proposto e implementado no Matlab utiliza propriedades de operadores morfológicos combinados para detectar as sombras, a partir do baixo padrão de respostas que elas apresentam nas imagens. O top-hat por fechamento de área permite realçar as sombras que são detectadas na sequência pela binarização automática... / Abstract: New possibilities for urban mapping have been created by improved level of detailing in images. High spatial, spectral and radiometric resolution provides advantages in identifying individual elements in urban areas, such as houses, trees, buildings, etc. However, these tall objects often throw up unwanted information as shadows, which influence visual image degradation and the spectral response of targets. This research aims to establish a methodology to detect and restore shadows in high spatial resolution digital images in urban areas in order to reduce radiometric differences caused by shadows. The proposed algorithm was implemented in Matlab and applies morphological operators based on the low intensity property they present in the images. The black top-hat by area closing is used to highlight shadows detected in the following with automatic binarization. In the restoration step, objects defined by the labelling of binary images are corrected by local histogram matching, which combines statistical parameters extracted from each shadow area and their neighborhood non-shadow areas... / Mestre
|
Page generated in 0.0833 seconds