• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1435
  • 71
  • 60
  • 60
  • 60
  • 36
  • 36
  • 24
  • 23
  • 22
  • 22
  • 9
  • 2
  • Tagged with
  • 1516
  • 1516
  • 625
  • 620
  • 461
  • 335
  • 244
  • 212
  • 210
  • 194
  • 193
  • 161
  • 160
  • 158
  • 155
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Retificação de imagens de documentos capturados por dispositivos móveis utilizando transformada de hough e histogramas de gradientes orientados

MONTENEGRO, Robson David 12 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2015-10-21T17:41:28Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ROBSON_MONTENEGRO.pdf: 58981994 bytes, checksum: e45d214c496ec66b4a7f5a16803daf59 (MD5) / Made available in DSpace on 2015-10-21T17:41:28Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) ROBSON_MONTENEGRO.pdf: 58981994 bytes, checksum: e45d214c496ec66b4a7f5a16803daf59 (MD5) Previous issue date: 2015-06-12 / Diversas maneiras de armazenamento e transmissão de informação em meio digital estão disponíveis devido ao contínuo crescimento tecnológico. Porém, grande parte das informações relevantes permanece armazenada em meio físico, como: livros, certidões, contratos e documentos pessoais. Existe um grande esforço para realizar a transposição dessas informações para meios digitais de forma a facilitar o acesso e utilização de meios de comunicação mais modernos. Os scanners fornecem a maneira mais popular de se obter esta transposição, porém, estes dispositivos muitas vezes não oferecem portabilidade e custo adequados. A utilização de dispositivos móveis, tais como celulares, para captura de imagens de documento tem se mostrado uma alternativa viável aos tradicionais scanners de mesa. Isto se deve a sua facilidade de uso, portabilidade e barateamento de seu hardware que facilitou sua popularização. Porém, por se tratar de captura em um ambiente menos controlado, documentos digitalizados desta forma apresentam distorções que comprometem a sua legibilidade tais como: perspectiva, embassamento, baixa resolução, interação do conteúdo com o background e curvatura das linhas de texto. Trabalhos recentes tratam este problema utilizando diferentes abordagens, muitos destes, de maneira eficaz. Entretanto, estas técnicas são fortemente dependentes do conteúdo textual presente nos documentos. Esta dissertação apresenta uma nova abordagem para realizar correção de imagens capturadas por dispositivos móveis baseado-se apenas em características morfológicas do documento. O método é dividido em três etapas. A primeira é o pré-processamento responsável por ajustar o contraste da imagem. Depois, as bordas do documento são definidas utilizando uma abordagem híbrida do descritor de Gradiente de Histogramas Orientados com a Transformada de Hough. Por último, a superfície deformada do documento é mapeada para uma superfície retangular corrigida. O algoritmo foi experimentado em diversas configurações de seus parâmetros livres em uma base de documentos pessoais coletada para este trabalho. O menor erro obtido foi de 4,08% e, além disto, as imagens corrigidas foram processadas por sistemas de OCRs e os resultados quantitativos mostram que o algoritmo proposto melhorou substancialmente a legibilidade das imagens. / Several ways of information storage and transmission in digital media emerged due to technological progress. However, much of the relevant information remains stored on physical media, such as books, certificates, contracts and personal documents. Much effort has been made to carry out the transposition of this information to digital media in order to facilitate access and use modern communication channels. The scanners provide the most popular way to obtain this transposition, however, these devices often do not offer adequate portability and are usually expensive. The use of mobile devices such as cell phones, for document imaging has proven to be a suitable alternative to traditional table scanners. This is due to its ease of use, portability and cheapness of their hardware which facilitated its popularization. However, documents acquired in a less controlled environment, have distortions that muddle its readability such as perspective, blur, low resolution, interaction of the content and the background and curled text lines. Recent works address this problems using different approaches, many of these, efficiently. However, these techniques are strongly dependent on the textual content in the document images. This dissertation presents a new algorithm to rectify images acquired by mobile devices based only on morphological features of the document image. The method is divided into three steps. First is the preprocessing when the image contrast is adjusted. Then, the document edges are determined using a hybrid approach of Hough Transform and Histogram of Oriented Gradients descriptor. Finally, the warped surface of the document is mapped to a rectangular surface. The algorithm has been tested in several configurations in a personal document image base collected for this work. The best error rate was 4.08 % and, moreover, the corrected images were processed by OCR systems and quantitative results shows that the proposed algorithm has significantly improved readability of the images.
162

Investigação sobre um ambiente computacional para reconhecimento automático de padrão em placas de veículos com consultas a bancos de dados e integração de sistemas

Fragoso de Andrade, George 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:56:13Z (GMT). No. of bitstreams: 2 arquivo2783_1.pdf: 2297866 bytes, checksum: 0779f57f69a20cf3b452636ba8d49afe (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / As atividades na área de segurança pública vêm sendo aprimoradas a cada dia com o objetivo de prover maior segurança para a população. O constante crescimento do volume de tráfego de automóvel provoca a necessidade de sistemas de processamento e de reconhecimento automático de padrões em imagens de placas de veículos. Estes são foco de estudos e pesquisas no meio acadêmico e empresarial, visto que estas ferramentas dão mais eficiência nas atividades de fiscalização de trânsito ou de delitos. Vários projetos de monitoramento de veículos vêm sendo desenvolvidos utilizando sistemas de processamento e de reconhecimento automático de placas, permitindo de forma automática, desde a captura da imagem até o retorno com a detecção de possíveis irregularidades. Na atualidade pesquisas sobre estes sistemas tem se limitado apenas às atividades de processamento das imagens e de reconhecimento de padrões, sendo necessário o estudo de toda a complexidade de um ambiente computacional. Nesse contexto, este trabalho tem o objetivo complementar os estudos atuais e apresentar a proposta de um ambiente computacional completo para reconhecimento automático de padrões em placas de veículos com consultas a bancos de dados e integração de sistemas, analisando todos os componentes: hardware, software, processos, rede de comunicação, banco de dados e integração de sistemas. Foi realizada uma pesquisa sobre as características de projetos de reconhecimento de placas estruturados no Brasil, analisando-se vantagens e desvantagens para promover uma maior efetividade do ambiente computacional proposto. O sistema de reconhecimento de placas automotivas proposto foi executado e observou-se que os requisitos exigidos foram atendidos, sendo identificados em média 91% dos veículos monitorados durante o dia e 84% durante a noite e constatados veículos com restrição para delitos de roubo ou furto
163

Um ambiente para Biblioteca Digital: PROHIST Processamento de Imagens em Documentos Históricos

Paiva, Thaysa Suely Beltrão 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:57:08Z (GMT). No. of bitstreams: 2 arquivo3144_1.pdf: 4781434 bytes, checksum: 0516b776bc190dc16a34ec981874c36f (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco / Este trabalho apresenta PROHIST, um ambiente de biblioteca digital para imagens de documentos históricos. PROHIST é um novo conceito de biblioteca digital, porque ela possui muitas funcionalidades não existentes nas bibliotecas digitais atuais, como por exemplo, o uso de algoritmos específicos de processamento de imagens em documentos históricos. Isso permite a geração de diferentes tipos de visões de um mesmo documento histórico. O principal objetivo do PROHIST é que o novo modelo de biblioteca digital seja de uso livre para qualquer pessoa interessada na preservação de documentos históricos e na aplicação de algoritmos de processamento de imagens, seja para melhor visualização da imagem, seja para obter resultados de experimentos na aplicação desses algoritmos. O ambiente PROHIST foi desenvolvido utilizando a ferramenta de repositório Fedora, Java Servlets, Islandora e Drupal
164

Projeto Híbrido de Redes Neurais

PRUDÊNCIO, Ricardo Bastos Cavalcante January 2001 (has links)
Made available in DSpace on 2014-06-12T15:59:10Z (GMT). No. of bitstreams: 2 arquivo4926_1.pdf: 315649 bytes, checksum: 553e09d0e80e43b0ca2856dd4be49858 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2001 / As Redes Neurais Artificiais (RNAs) têm sido aplicadas com sucesso em uma diversidade de problemas do mundo real. Contudo, o sucesso dessas redes para um determinado problema depende muito de um projeto bem realizado. O projeto de redes neurais envolve a definição de vários parâmetros, como, por exemplo, o tipo de rede, a arquitetura, o algoritmo de treinamento utilizado, os parâmetros de treinamento, os critérios de parada, dentre outros. A automatização (total ou parcial) do projeto de RNAs tem como objetivos principais tornar o desempenho das redes menos sensível a decisões erradas de um desenvolvedor inexperiente, além de torná-las acessíveis a usuários nãoespecialistas em redes neurais. Como solução para o problema da automatização, investigamos o uso de técnicas de Inteligência Artificial que, quando integradas com as redes neurais, resultam em Sistemas Neurais Híbridos (SNHs). Nessa dissertação, apresentamos duas aplicações desses Sistemas Híbridos para a previsão de séries temporais, um problema de relevância fundamental em muitos domínios do mundo real. Primeiramente, propomos um modelo de automatização integrando o Raciocínio Baseado em Casos (RBC) e os Algoritmos Genéticos (AGs). No nosso modelo, o sistema de RBC mantém uma base de casos em que cada caso armazena a descrição de um problema resolvido com redes neurais e a solução aplicada. Diante de um novo problema, uma consulta é feita à base de casos, recuperando as soluções usadas nos problemas mais similares. Essas soluções são inseridas na população inicial dos AGs, que são responsáveis por adaptá-las. Após a execução dos AGs, a solução final poderá ser inserida na base de casos, para auxiliar a solução de problemas futuros. Como estudo de caso, aplicamos o modelo proposto para a otimização da arquitetura de modelos neurais de previsão. As redes geradas pelo modelo apresentaram maior poder de generalização, além de um número menor de conexões de rede. Na segunda aplicação de SNHs, investigamos o uso dos Algoritmos Genéticos durante o aprendizado dos pesos de uma rede neural usada para a previsão de vazões em uma bacia hidrográfica. Nessa aplicação, os AGs foram usados para definir os pesos iniciais da rede para o algoritmo de Levenberg-Marquardt, formando assim um algoritmo de treinamento híbrido. O uso dos AGs aumentou o desempenho do aprendizado, principalmente em relação ao tempo de treinamento. Nessa dissertação, apresentamos as vantagens e limitações dos dois SNHs desenvolvidos, além de indicações de trabalhos futuros.
165

Teoria da informação aplicada a modelos Arma: testes para identificação e quantificação de Overfitting

ALMEIDA JÚNIOR, Pedro Monteiro de 26 February 2016 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-07-08T18:20:15Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao_Versao_Digital.pdf: 3769752 bytes, checksum: 03891a74bed6d1446c1f5738946e6cef (MD5) / Made available in DSpace on 2016-07-08T18:20:15Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao_Versao_Digital.pdf: 3769752 bytes, checksum: 03891a74bed6d1446c1f5738946e6cef (MD5) Previous issue date: 2016-02-26 / CAPES / Dados registrados sequencialmente sobre um determinado período são frequentes em várias aplicações; tais como, em reconhecimento padrão (ISHI et al., 1998) e em processamento de imagens de radar (DUTRA, 1989). Diferentemente de contextos suportados pela independência das observações, dados desta natureza impõem uma estrutura de correlação que deve ser considerada nos modelos. Apresentamos inicialmente um estudo de desempenho via simulação de Monte Carlo para três métodos de estimação na classe de modelos ARMA: Máxima Verossimilhança Condicional, Não Condicional e Mínimos Quadrados Não Condicional. Vários estudos têm sido feitos neste sentido (vê, por exemplo, YU, 2004). Entretanto, faltam estudos que trabalhem sobre uma discretização razoável da região de estabilidade e que avaliem a influência da estimação sobre densidades ajustadas dos processos ARMA. Para vários pontos paramétricos da região de estabilidade, os três métodos são comparados à luz de medidas da Teoria da Informação, a saber as divergências de Kullback-Leibler, Jensen-Shannon, Battacharyya e Hellinger. Adicionalmente, as medidas utilizadas para quantificação do desempenho dos métodos de estimação são entendidas como elementos na classe (h, ) de divergências proposta por Salicrú et al. (1994) e cinco novos testes de hipótese bilaterais (caso em que não há testes uniformemente mais poderosos) para identificação de modelos ARMA são propostos e comparados com o teste da razão entre verossimilhanças. Além disso, vários trabalhos têm avançado quanto à proposta de critérios para seleção de modelos na classe ARMA. McQuarrie e Tsai (1998) utilizaram a probabilidade de overfitting (isto é, escolher o modelo com ordem maior dado que o modelo verdadeiro tem ordem menor) como critério de comparação. A ideia de quantificar o erro da escolha entre modelos de probabilidade também foi estudada por Shannon (1948) que propôs os conceitos de informação, entropia e divergência. Nesta dissertação, propomos novos critérios para seleção de modelos em séries temporais baseados em medidas de distância. O desempenho dos novos critérios quantificados em termos da probabilidade de overfitting é comparado com outros métodos da literatura. Finalmente, as medidas derivadas são utilizadas como classificadores em imagens PolSAR. / Data recorded sequentially on a given period are common on several applications; such as in pattern recognition (ISHI et al., 1998) and in radar image processing (DUTRA, 1989). Unlike contexts supported by independence assumption, data of this nature impose correlation patterns that should be considered in used models. In this dissertation, we first present a performance study of three estimation methods in the ARMA class: Conditional and Non-Conditional Maximum Likelihood and Least Squares. Several works have addressed the quantification of the performance on ARMA estimation methods. However, they neither present studies on several points of stability regions nor consider the effect of estimation procedures on ARMA process densities. These methods are compared by means of the Information Theory measures, say Kullback-Leibler, Jensen-Shannon, Battacharyya and Hellinger divergences. Further, the measures used to quantify the performance of the estimation methods are understood within the class (h, )–divergences proposed by Salicrú et al. (1994) and five new bilateral hypothesis tests (case on which there are not uniformly most powerful tests) for ARMA identification are proposed and compared with the likelihood ratio test. McQuarrie e Tsai (1998) considered the overfitting (to study and the performance of those methods) probability as a comparison criterion. The idea of quantifying the error of the model choose was introduced by Shannon (1948) who proposed the concepts of information, entropy and divergence. In this dissertation, we propose new selection criteria for time series models. The proposals are formulated taken into account distance measures between probability distributions. The performance of new criteria are quantified in terms of the overfitting probability and compared to those due to literature methods. Finally, the derived measures are employed as classifiers on PolSAR images.
166

Shifted Gradient Similarity: A perceptual video quality assessment index for adaptive streaming encoding

MONTEIRO, Estêvão Chaves 04 March 2016 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-07-13T18:59:10Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Shifted Gradient Similarity - A perceptual video quality assessment index for adaptive streaming encoding.pdf: 5625470 bytes, checksum: 8ec1d179ec4cca056eb66609ba5791a0 (MD5) / Made available in DSpace on 2016-07-13T18:59:10Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Shifted Gradient Similarity - A perceptual video quality assessment index for adaptive streaming encoding.pdf: 5625470 bytes, checksum: 8ec1d179ec4cca056eb66609ba5791a0 (MD5) Previous issue date: 2016-03-04 / Adaptive video streaming has become prominent due to the rising diversity of Web-enabled personal devices and the popularity of social networks. Common limitations in Internet bandwidth, decoding speed and battery power available in such devices challenge the efficiency of content encoders to preserve visual quality at reduced data rates over a wide range of display resolutions, typically compressing to lower than 1% of the massive raw data rate. Furthermore, the human visual system does not uniformly perceive losses of spatial and temporal information, so a simple physical objective model such as the mean squared error does not correlate well with perceptual quality. Objective assessment and prediction of perceptual quality of visual content has greatly improved in the past decade, but remains an open problem. Among the most relevant psychovisual quality metrics are the many versions of the Structural Similarity (SSIM) index. In this work, several of the most efficient SSIM-based metrics, such as the Multi-Scale Fast SSIM and the Gradient Magnitude Similarity Deviation (GMSD), are decomposed into their component techniques and reassembled in order to measure and understand the contribution of each technique and to develop improvements in quality and efficiency. The metrics are applied to the LIVE Mobile Video Quality and TID2008 databases and the results are correlated to the subjective data included in the databases in the form of mean opinion scores (MOS), so each metric’s degree of correlation indicates its ability to predict perceptual quality. Additionally, the metrics’ applicability to the recent, relevant psychovisal rate-distortion optimization (Psy-RDO) implementation in the x264 encoder, which currently lacks an ideal objective assessment metric, is investigated as well. The “Shifted Gradient Similarity” (SG-Sim) index is proposed with an improved feature enhancement by avoiding a common unintended loss of analysis information in SSIM-based indexes, and achieving considerably higher MOS correlation than the existing metrics investigated in this work. More efficient spatial pooling filters are proposed, as well: the decomposed 1-D integer Gaussian filter limited to two standard deviations, and the downsampling Box filter based on the integral image, which retain respectively 99% and 98% equivalence and achieve speed gains of respectively 68% and 382%. In addition, the downsampling filter also enables broader scalability, particularly for Ultra High Definition content, and defines the “Fast SG-Sim” index version. Furthermore, SG-Sim is found to improve correlation with Psy-RDO, as an ideal encoding quality metric for x264. Finally, the algorithms and experiments used in this work are implemented in the “Video Quality Assessment in Java” (jVQA) software, based on the AviSynth and FFmpeg platforms, and designed for customization and extensibility, supporting 4K Ultra-HD content and available as free, open source code. / Cada vez mais serviços de streaming de vídeo estão migrando para o modelo adaptativo, devido à crescente diversidade de dispositivos pessoais conectados à Web e à popularidade das redes sociais. Limitações comuns na largura de banda de Internet, velocidade de decodificação e potência de baterias disponíveis em tais dispositivos desafiam a eficiência dos codificadores de conteúdo para preservar a qualidade visual em taxas de dados reduzidas e abrangendo uma ampla gama de resoluções de tela, tipicamente comprimindo para menos de 1% da massiva taxa de dados bruta. Ademais, o sistema visual humano não percebe uniformemente as perdas de informação espacial e temporal, então um modelo objetivo físico simples como a média do erro quadrático não se correlaciona bem com qualidade perceptível. Técnicas de avaliação e predição objetiva de qualidade perceptível de conteúdo visual se aprimoraram amplamente na última década, mas o problema permanece em aberto. Dentre as métricas de qualidade psicovisual mais relevantes estão muitas versões do índice de similaridade estrutural (Structural Similarity — SSIM). No presente trabalho, várias das mais eficientes métricas baseadas em SSIM, como o Multi-Scale Fast SSIM e o Gradient Magnitude Similarity Deviation (GMSD), são decompostas em suas técnicas-componentes e recombinadas para se obter medidas e entendimento sobre a contribuição de cada técnica e se desenvolver aprimoramentos à sua qualidade e eficiência. Tais métricas são aplicadas às bases de dados LIVE Mobile Video Quality e TID2008 e os resultados são correlacionados aos dados subjetivos incluídos naquelas bases na forma de escores de opinião subjetiva (mean opinion score — MOS), de modo que o grau de correlação de cada métrica indique sua capacidade de predizer qualidade perceptível. Investiga-se, ainda, a aplicabilidade das métricas à recente e relevante implementação de otimização psicovisual de distorção por taxa (psychovisual rate-distortion optimization — Psy-RDO) do codificador x264, ao qual atualmente falta uma métrica de avaliação objetiva ideal. O índice “Shifted Gradient Similarity” (SG-Sim) é proposto com uma técnica aprimorada de realce de imagem que evita uma perda não-pretendida de informação de análise, comum em índices baseados em SSIM, assim alcançando correlação consideravelmente maior com MOS comparado às métricas existentes investigadas neste trabalho. Também são propostos filtros de consolidação espacial mais eficientes: o filtro gaussiano de inteiros 1-D decomposto e limitado a dois desvios padrão e o filtro “box” subamostrado baseado na imagem integral, os quais retém, respectivamente, 99% e 98% de equivalência e obtém ganhos de velocidade de, respectivamente, 68% e 382%. O filtro subamostrado também promove escalabilidade, especialmente para conteúdo de ultra-alta definição, e define a versão do índice “Fast SG-Sim”. Ademais, verifica-se que o SG-Sim aumenta a correlação com Psy-RDO, indicando-se uma métrica de qualidade de codificação ideal para o x264. Finalmente, os algoritmos e experimentos usados neste trabalho estão implementados no software “Video Quality Assessment in Java” (jVQA), baseado nas plataformas AviSynth e FFmpeg e que é projetado para personalização e extensibilidade, suportando conteúdo ultra-alta definição “4K” e disponibilizado como código-fonte aberto e livre.
167

Uso da Constância de Cor na Robótica Móvel

ALMONFREY, D. 21 July 2011 (has links)
Made available in DSpace on 2018-08-02T00:00:55Z (GMT). No. of bitstreams: 1 tese_3866_DissertacaoMestradoDouglasAlmonfrey.pdf: 10903542 bytes, checksum: dd9d57bcb5fae71270adf607f139e977 (MD5) Previous issue date: 2011-07-21 / A cor capturada por uma câmera é função da iluminação da cena, das características reflexivas das superfícies presentes na cena, dos fotossensores presentes nos sistemas de visão e, principalmente, do processamento realizado no cérebro. Devido a este processamento realizado pelo cérebro, os seres humanos apresentam o chamado fenômeno da constância de cor: a cor de uma superfície é percebida como sendo a mesma, independentemente das condições de iluminação do ambiente. No entanto, a variação da iluminação implica na modificação do valor registrado para a cor da superfície capturada por um sistema de visão artificial. Na literatura, a obtenção de descritores da superfície que sejam independentes da iluminação é conhecido como problema de constância de cor. Uma solução para este problema é a obtenção das características reflexivas das superfícies separadas da informação de iluminação da cena. Uma outra abordagem para a solução desse problema é a obtenção das cores das superfícies sempre submetidas a uma mesma iluminação padrão, garantindo assim a constância das cores. Independentemente de qual abordagem seja escolhida, o problema de constância de cor é de difícil solução e a maioria das soluções existentes é aplicada somente em imagens sintetizadas por computador, enquanto outras apresentam desempenho limitado quando aplicadas em imagens reais de ambientes com iluminação variável e não controlada. Devido à ausência do fenômeno da constância de cor nos sistemas de visão artificial, muitos sistemas automáticos evitam a utilização da informação de cor das imagens obtidas por meio desses sistemas. Além disso, a solução do problema de constância de cor é também objeto de interesse da indústria e comércio de fotografias. Neste contexto, este trabalho aborda a solução do problema de constância de cor por meio de um algoritmo baseado no método de correção de cor desenvolvido em (KONZEN; SCHNEEBELI, 2007a). Este algoritmo converte as cores de uma cena capturada sob iluminação desconhecida, de forma que a cena aparente estar sempre sob a influência de uma iluminação padrão. Se a iluminação da cena é relativamente sempre a mesma, as cores da imagem da cena são aproximadamente constantes. Essa conversão entre iluminações é realizada por meio do conhecimento das cores de alguns pontos da cena sob influencia da iluminação padrão. Finalmente, o desempenho deste algoritmo de constância de cor é analisado aplicando-o a uma sequência de imagens de cenas sujeitas a variações abruptas de iluminação. Para auxiliar na análise, um algoritmo de tracking é utilizado para demonstrar a importância do algoritmo de constância de cor nas imagens dessas cenas. Além disso, um controlador servovisual, empregado juntamente com o algoritmo de constância de cor, é utilizado para guiar um robô móvel na navegação por um ambiente externo sujeito à iluminação variável do sol. O algoritmo de constância de cor é aplicado também em imagens de um ambiente externo que apresenta variação de iluminação e uma discussão sobre a utilização desse algoritmo em tarefas de reconhecimento de lugares, assunto fundamental na localização de robôs, é realizada.
168

Uma Abordagem Dinâmica para Detecção e Seguimento de Face em Vídeos Coloridos em Ambientes Não Controlados

PASSARINHO, C. J. P. 17 December 2012 (has links)
Made available in DSpace on 2018-08-02T00:01:54Z (GMT). No. of bitstreams: 1 tese_2831_TeseJanayna20150128-164326.pdf: 15443589 bytes, checksum: dfe7b8c6c46fa791bd1c63935b61c4c1 (MD5) Previous issue date: 2012-12-17 / Este projeto destina-se a investigar técnicas de processamento de imagens digitais para detecção e reconhecimento de faces na multidão. Este sistema pode ser utilizado para auxílio na identificação de indivíduos em situações de supervisão e segurança, bem como reconhecimento de pessoas desaparecidas. O sistema deverá ser capaz de representar faces de maneira robusta e compacta, possibilitando a distinção de indivíduos em tempo hábil.
169

Utilizando Contexto na Representação de Imagens para Classificação de Cenas

GAZOLLI, K. A. S. 27 June 2014 (has links)
Made available in DSpace on 2018-08-02T00:01:58Z (GMT). No. of bitstreams: 1 tese_3849_TeseGazolli.pdf: 10252435 bytes, checksum: 955915bcb694762c8f462ae40d2ba875 (MD5) Previous issue date: 2014-06-27 / A classifica¸cao de cenas ´e um campo bastante popular na ´area de visao computacional e encontra diversas aplica¸coes tais como: organiza¸cao e recupera¸cao de imagem baseada em conte´udo, localiza¸cao e navega¸cao de robos. No entanto, a classifica¸cao autom´atica de cenas ´e uma tarefa desafiadora devido a diversos fatores, tais como, ocorrencia de oclusao, sombras, reflexoes e varia¸coes nas condi¸coes de ilumina¸cao e escala. Dentre os trabalhos que objetivam solucionar o problema da classifica¸cao autom´atica de cenas, estao aqueles que utilizam transformadas nao-param´etricas e aqueles que tem obtido melhora no desempenho de classifica¸cao atrav´es da explora¸cao da informa¸cao contextual. Desse modo, esse trabalho propoe dois descritores de imagens que associam informa¸cao contextual, ou seja, informa¸cao advinda de regioes vizinhas, a um tipo de transformada nao-param´etrica. O objetivo ´e propor uma abordagem que nao eleve demasiadamente a dimensao do vetor de caracter´ısticas e que nao utilize a t´ecnica de representa¸cao intermedi´aria bag-of-features, diminuindo, assim, o custo computacional e extinguindo a necessidade de informa¸cao de parametros, o que possibilita a sua utiliza¸cao por usu´arios que nao possuem conhecimento na ´area de reconhecimento de padroes. Assim, sao propostos os descritores CMCT (Transformada Census Modificada Contextual) e ECMCT (CMCT Estendido) e seus desempenhos sao avaliados em quatro bases de dados p´ublicas. Sao propostas tamb´em cinco varia¸coes destes descritores (GistCMCT, GECMCT, GistCMCT-SM, ECMCT-SM e GECMCT-SM), obtidas atrav´es da associa¸cao de cada um deles com outros descritores. Os resultados obtidos nas quatro bases de dados mostram que as representa¸coes propostas sao competitivas, e que provocam um aumento nas taxas de classifica¸cao, quando comparados com outros descritores.
170

Caracterização tridimensional de sistemas porosos carbonaticos atraves de morfologia matematica

Monteiro, Marcelo Costa 20 December 1995 (has links)
Orientadores: Chang Hung Kiang e Roberto de Alencar Lotufo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Geociencias / Made available in DSpace on 2018-07-20T21:32:39Z (GMT). No. of bitstreams: 1 Monteiro_MarceloCosta_M.pdf: 7072511 bytes, checksum: 4db733463afd467f42c38a75b7411090 (MD5) Previous issue date: 1995 / Resumo: Os meios porosos carbonáticos formam um sistema tridimensional complexo de poros e gargantas. O método mais simples e óbvio para a caracterização destas formas côncavas e interconectadas é o seccionamento serial associado com a análise de imagens tridimensionais. Utilizando as rotinas existentes no sistema Khoros, foram gerados diversos algoritmos de análise de imagem (AI): a) para a medida de porosidade e superfície específica; b) para a determinação dos histogramas de tamanho de poro e garganta de poro; e, finalmente c) para simular curvas de injeção de fluidos não molhantes. Estes algoritmos foram testados com imagens sintéticas e de amostras artificiais de rocha. O seccionamento serial de 18 amostras de carbonatos gerou 32 imagens bidimensionais em níveis de cinza, todas elas paralelas e igualmente espaçadas, para cada amostra. Para a geração das imagens tridimensionais, foi necessário o alinhamento das feições e a correção da escala original. Além disto, foi necessário também a interpolação de duas imagens entre cada duas originais para a obtenção de imagens isotrópicas. A limiarização destas Imagens em níveis de cinza separou a fase poro da fase não poro, resultando, finalmente em imagens binárias tridimensionais do sistema poroso de oito amostras. Estas imagens foram submetidas a alguns dos algoritmos acima. As porosidades encontradas com o uso do algoritmo de AI ficaram sistematicamente abaixo da porosidade obtida no laboratório (injeção de mercúrio), devido principalmente à existência de microporosidade que não foi detetada devido a escala das imagens. As saturações irredutíveis da fase molhante observadas nas curvas de drenagem foram também devidas ao tamanho do pixel (18 micrômetros) que não permitiu a detecção dos pequenos volumes das gargantas de poros, desta forma desconectando o sistema em muitas unidades. Estas unidades desconectadas não puderam ser alcançadas pela fase contínua vinda da superfície das amostras / Abstract: Carbonate pore systems are known as complex three-dimensional systems of pores and pore-throats. The most simple and obviousmethod for the characterization of these nonconvex, interconnected shapes is the serial sectioning associated with three-dimensionaI image analysis. Using the Khoros system routines, it was generated several algorithms of image analysis (IA): a) for porosity and specific surface measurements, b) to find pore size and pore-throat size histograms, and finally c) to simulate nonwetting fluid injection curve. These algorithms were tested with three-dimensional synthetic and artificial rock sample images. /Serial sectioning of 18 carbonate samples generated 32 two-dimensional gray-scale images, parallel and equally spaced, for each sample. To generate three-dimensional images of those samples, it was necessary to align these images and interpolate two images between two originals. Thresholding the three-dimensional gray-scale images in a way to separate the nonpore phase from the pore phase features in these images resulted in three-dimensional binary images of the pore systems of eight samples. These images were treated with some of the algorithms above. The porosity found with IA algorithm for all of the samples was lower than that achieved by mercury injection method, mainly due the microporosity, which was not detected in the scale of the images. The high irreducible saturations of wetting phase observed in drainage curves were also due to the scale of the image, because the high pixel size (18 micrometers) could not detect the small volumes of pore-throats, so disconnecting the porosity system in many units that were not reached by the continous phase of nonwetting fluid comming from the surface of the sample / Mestrado / Geoengenharia de Reservatorios / Mestre em Geociências

Page generated in 0.3018 seconds