• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 7
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Implementação de uma arquitetura para binarização de imagens em FPGA / Implementation of an architecture for FPGA image binarization

Freitas, Jovander da Silva 13 September 2012 (has links)
Em muitas aplicações de processamento de imagens é desejável converter imagens que estão em escala de cinza para imagens binarias, ou seja, em apenas dois níveis de intensidade. Para realizar essa tarefa de separação entre dois níveis é necessário que se calcule um valor de limiar, pois a partir dele determinamos quais pixels irão pertencer a um nível, normalmente o objeto de interesse, e quais pertencerão ao outro nível, ou ao fundo da imagem. Algumas aplicações exigem que se calcule esse valor de limiar em um tempo muito curto em relação à aquisição de imagem, principalmente quando ocorre uma variação muito alta de luminosidade na aquisição de uma imagem. Para suprir essa dificuldade de velocidade nas aplicações de processamento de imagem, uma alternativa seria o desenvolvimento de uma arquitetura dedicada que realize o cálculo do valor de limiar e binarize a imagem adquirida. O presente trabalho apresenta o desenvolvimento de uma arquitetura que realiza estas tarefas, implementada em circuitos reconfiguráveis do tipo FPGA. A validação da arquitetura foi obtida por meio da comparação dos resultados obtidos com a simulação da mesma na ferramenta Matlab. A arquitetura permite uma frequência máxima de clock de 84,52 MHz, o que permite a utilização da arquitetura em sistemas de tempo real, utilizando como fonte de imagem um vídeo composto ou uma câmera comum. / In many imaging applications it is desirable that images are converted to grayscale images to binary, ie with only two intensity levels. To accomplish this task separation between two levels is necessary to calculate a threshold value as determined from it which pixels will belong to a level generally the object of interest, and which belong to another level, or to the background image . Some applications require you to calculate this threshold value in a very short time in relation to image acquisition, especially when a very high brightness variation in the acquisition of an image. To meet this difficulty in the speed image processing applications, an alternative would be to develop an architecture dedicated to perform the calculation of the value of threshold and binarize the image acquired. This paper proposes the development of an architecture that performs these tasks by implementing reconfigurable circuits like FPGA. Making a comparison of results obtained with algorithms developed in Matlab, thus performing a validation of the proposed architecture. The developed architecture has reached the maximum frequency of 84.52 MHz, and the architecture can be operated in real-time system, using an image as a source of composite video or a regular camera.
2

Implementação de uma arquitetura para binarização de imagens em FPGA / Implementation of an architecture for FPGA image binarization

Jovander da Silva Freitas 13 September 2012 (has links)
Em muitas aplicações de processamento de imagens é desejável converter imagens que estão em escala de cinza para imagens binarias, ou seja, em apenas dois níveis de intensidade. Para realizar essa tarefa de separação entre dois níveis é necessário que se calcule um valor de limiar, pois a partir dele determinamos quais pixels irão pertencer a um nível, normalmente o objeto de interesse, e quais pertencerão ao outro nível, ou ao fundo da imagem. Algumas aplicações exigem que se calcule esse valor de limiar em um tempo muito curto em relação à aquisição de imagem, principalmente quando ocorre uma variação muito alta de luminosidade na aquisição de uma imagem. Para suprir essa dificuldade de velocidade nas aplicações de processamento de imagem, uma alternativa seria o desenvolvimento de uma arquitetura dedicada que realize o cálculo do valor de limiar e binarize a imagem adquirida. O presente trabalho apresenta o desenvolvimento de uma arquitetura que realiza estas tarefas, implementada em circuitos reconfiguráveis do tipo FPGA. A validação da arquitetura foi obtida por meio da comparação dos resultados obtidos com a simulação da mesma na ferramenta Matlab. A arquitetura permite uma frequência máxima de clock de 84,52 MHz, o que permite a utilização da arquitetura em sistemas de tempo real, utilizando como fonte de imagem um vídeo composto ou uma câmera comum. / In many imaging applications it is desirable that images are converted to grayscale images to binary, ie with only two intensity levels. To accomplish this task separation between two levels is necessary to calculate a threshold value as determined from it which pixels will belong to a level generally the object of interest, and which belong to another level, or to the background image . Some applications require you to calculate this threshold value in a very short time in relation to image acquisition, especially when a very high brightness variation in the acquisition of an image. To meet this difficulty in the speed image processing applications, an alternative would be to develop an architecture dedicated to perform the calculation of the value of threshold and binarize the image acquired. This paper proposes the development of an architecture that performs these tasks by implementing reconfigurable circuits like FPGA. Making a comparison of results obtained with algorithms developed in Matlab, thus performing a validation of the proposed architecture. The developed architecture has reached the maximum frequency of 84.52 MHz, and the architecture can be operated in real-time system, using an image as a source of composite video or a regular camera.
3

Um novo algoritmo baseado em entropia para filtragem da interferência frente-verso

Marcelo Monte da Silva, João January 2005 (has links)
Made available in DSpace on 2014-06-12T17:40:54Z (GMT). No. of bitstreams: 2 arquivo7085_1.pdf: 5617751 bytes, checksum: 13b747395cadea3f73a525d5b1fd2004 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / A digitalização de documentos originariamente em papel é a maneira mais eficiente que dispomos hoje como meio de preservar o seu conteúdo para as gerações futuras, bem como possibilitar o acesso e disseminação às informações via redes de computadores. A natureza do documento impõe técnicas diferentes para a digitalização e armazenagem destes. Em geral, objetivando possibilidades futuras, os documentos são digitalizados em cores (true color) e alta resolução (chegando hoje até mais de 1.000 pontos por polegada). Visando o acesso via redes, tais documentos são geralmente disponibilizados em sua versão monocromática, com 200 dpi de resolução e comprimidos em formato conveniente, geralmente TIFF (G4). Tal processo de diminuição do número de cores de documentos, no caso de conversão para monocromático conhecido como binarização, possui dificuldades para ser efetuado de maneira automática, caso o documento tenha sido escrito ou impresso em ambos os lados de papel translúcido, situação conhecida como interferência frenteverso. Os algoritmos de binarização hoje existentes nas ferramentas comerciais geram imagem onde as porções referentes à tinta na frente e no verso ficam sobrepostas, impossibilitando a leitura da imagem obtida. Embora tal problema tenha sido apresentado há mais de uma década, ainda hoje busca-se soluções melhores para ele. No caso de documentos históricos, a complexidade do problema é ainda maior, uma vez que há o escurecimento causado pelo envelhecimento do papel como fator complicador. Esta dissertação propõe um novo algoritmo baseado na entropia do histograma da imagem para a binarização da imagem de documentos históricos com interferência frente-verso. O algoritmo proposto é comparado com os seus antecessores descritos na literatura, gerando imagens de melhor qualidade que os seus congêneres
4

Binarização de Imagens de Documentos Históricos Baseada em Imagem de Contraste

ARRUDA, Alisson Werner Arruda de 27 February 2014 (has links)
Submitted by Lucelia Lucena (lucelia.lucena@ufpe.br) on 2015-03-04T18:27:08Z No. of bitstreams: 2 DISSERTAÇÃO Alisson Werner Arruda.pdf: 4901864 bytes, checksum: ca497864a9da3134128e43273e9f28f3 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-04T18:27:08Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Alisson Werner Arruda.pdf: 4901864 bytes, checksum: ca497864a9da3134128e43273e9f28f3 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-02-27 / CAPES / Binarização de imagens de documentos históricos não é uma tarefa trivial, devido aos mais variados problemas pertinentes a este tipo de imagem, tais como a presença de manchas, variação de contraste, iluminação não-uniforme, entre outros. Atualmente, ainda não há uma solução consolidada que resolva esses tipos de problemas com precisão. Métodos atuais geralmente acarretam na perda de elementos de texto e/ou recuperação de elementos do fundo (papel). Tais consequências não são aceitáveis, tendo em vista que documentos históricos podem conter informações de valor inestimável. Um novo algoritmo para binarização de imagens de documentos históricos é apresentado nesta dissertação, a fim de contribuir para a evolução da área em questão. A partir de uma imagem de entrada em tons de cinza, o método propõe o seu mapeamento em duas novas imagens de contraste, que são combinadas para criar uma imagem binarizada "fraca", caracterizada pela exclusão do fundo e de parte do texto. Ao mesmo tempo, é utilizado o algoritmo de limiarização de Valizadeh e Kabir para criar uma imagem binarizada "forte", caracterizada pela preservação máxima do texto, como também parte do fundo. O resultado final da binarização é produzido pela reconstrução da imagem binarizada fraca através da imagem binarizada forte. Uma etapa de pós-processamento é aplicada à imagem binarizada fraca para remover possíveis ruídos. O método proposto foi testado em duas bases bem conhecidas de imagens de documentos, sendo a primeira do DIBCO 2011 (Document Image Binarization Contest), e a segunda do H-DIBCO 2012 (Handwritten Document Image Binarization Contest), ambas contendo diversos tipos de degradação. Os resultados alcançados mostraram-se bastante satisfatórios do ponto de vista qualitativo (visual) e quantitativo (alcançando altos valores em diversas medidas de avaliação).
5

Binarização de imagens de documentos utilizando estimativa local de largura de traço

ALMEIDA, Leandro Henrique Espindola Viana de 03 August 2015 (has links)
Submitted by Bárbara Carmo (barbara.queirozcarmo@ufpe.br) on 2018-11-23T21:24:08Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Leandro Henrique Espindola V de Almeida.pdf: 12354898 bytes, checksum: e501e3b7bee62acb68e2235e19c27bf8 (MD5) / Rejected by Alice Araujo (alice.caraujo@ufpe.br), reason: on 2018-11-23T21:48:10Z (GMT) / Submitted by Bárbara Carmo (barbara.queirozcarmo@ufpe.br) on 2018-11-23T21:51:06Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Leandro Henrique Espindola V de Almeida.pdf: 12354898 bytes, checksum: e501e3b7bee62acb68e2235e19c27bf8 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-11-23T21:57:45Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Leandro Henrique Espindola V de Almeida.pdf: 12354898 bytes, checksum: e501e3b7bee62acb68e2235e19c27bf8 (MD5) / Made available in DSpace on 2018-11-23T21:57:45Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Leandro Henrique Espindola V de Almeida.pdf: 12354898 bytes, checksum: e501e3b7bee62acb68e2235e19c27bf8 (MD5) Previous issue date: 2015-08-03 / Este trabalho apresenta um novo método de binarização para imagens de documentos. O algoritmo proposto utiliza operações morfológicas, estimativas de background, estimativas de largura de traço e imagens de contraste para realizar a classificação dos pixels. A estratégia de estimativa da largura de traço também é uma novidade proposta por este trabalho, desenvolvida a partir de análises de outras estratégias utilizadas na literatura e disposta a suprir deficiências identificadas nessas outras metodologias. O algoritmo foi avaliado a partir dos critérios utilizados em competições internacionais de binarização de imagens de documentos, e seu desempenho foi comparado com outras técnicas clássicas e recentes, escolhidas de acordo com a semelhança de suas estratégias em relação à técnica aqui proposta. Todas as imagens utilizadas no trabalho possuem um padrão ouro – ground truth – associado, para aferição dos resultados. A qualidade da estimativa da largura de traço também foi analisada junto a outras formas de estimativa encontradas nos algoritmos utilizados nos experimentos. A análise geral dos resultados demonstra que o algoritmo apresentou melhor desempenho em imagens de documentos manuscritos, e um desempenho compatível com os demais quando atuando sobre imagens de documentos tipografados. A estimativa da largura de traço apresentou desempenho superior às demais estratégias utilizadas na comparação. A partir dos resultados, foi feita uma análise de caso, identificando pontos fortes e deficiências do algoritmo proposto, e possíveis aprimoramentos são sugeridos, no intuito de dar continuidade aos estudos nessa área, seguindo com o desenvolvimento da técnica para obtenção de melhores resultados. / This paper proposes a new binarization method for document images. The proposed algorithm uses morphological operations, background estimation, stroke width estimation and contrast images to perform pixel classification. The strategy for estimating the stroke width is also a new proposal of this work, developed from studies of other strategies used in the literature and willing to meet shortcomings identified in these other methodologies. The algorithm was evaluated based on criteria used in international competitions of document images binarization, and its performance was compared to other classic and recent techniques, chosen according to the similarity of their strategies regarding the technique described. All images used in this study have a ground truth image associated, for measuring the results. The quality of the estimated stroke width was also evaluated alongside with other forms of estimations found in the literature. Overall results show that the algorithm performed better with the handwritten document images, and it has a compatible performance compared to others, acting on typewritten document images. The stroke width estimation method has superior performance to other strategies used in the comparison. From the results, a case study was made, identifying strengths and weaknesses of the proposed algorithm, and possible solutions are proposed in order to continue their studies in this area, following the development of the technique for better results.
6

Um estudo comparativo de métodos de segmentação de documentos antigos / A comparative study of segmentation methods of historical documents

Yanque, Nury Yuleny Arosquipa 29 November 2018 (has links)
Há uma vasta quantidade de informação nos textos antigos manuscritos e tipografados, e grandes esforços para a digitalização e disponibilização desses documentos têm sido feitos nos últimos anos. No entanto, os sistemas de Reconhecimento Óptico de Caracteres (OCR) não têm grande sucesso nesses documentos por diversas razões, por exemplo, devido a defeitos por envelhecimento do papel, manchas, iluminação desigual, dobras, escrita do verso transparecendo na frente, pouco contraste entre texto e fundo, entre outros. Uma das etapas importantes para o sucesso de um OCR é a boa segmentação da parte escrita e do fundo da imagem (binarização) e essa etapa é particularmente sensível a esses efeitos que são próprios de documentos históricos. Tanto assim que nos últimos oito anos foram realizadas competições de métodos de binarização de documentos históricos que levaram ao avanço do estado da arte na área. Neste trabalho fizemos um estudo comparativo de diversos métodos de segmentação de documentos antigos e propusemos um método baseado em aprendizado de máquina que resgata as vantagens dos métodos heurísticos. Esse estudo abrangeu documentos históricos manuscritos e tipografados e foi comparado com os métodos do estado da arte via métricas usuais e via um sistema de OCR de código aberto. Os resultados obtidos pelo método proposto são comparáveis com os métodos do estado da arte respeito no resultado do OCR, mostrando algumas vantagens em imagens específicas. / There is a vast amount of information in the ancient handwritten and machine-printed texts, and great efforts for the digitization and availability of these documents have been made in recent years. However, Optical Character Recognition (OCR) systems do not have much success in these documents for a variety of reasons, for example, due to paper aging defects, faded ink, stains, uneven lighting, folds, bleed-through, gosthing, poor contrast between text and background, among others. One of the important steps for the success of an OCR system is the good segmentation of the written part and the background of the image (binarization) and this step is particularly sensitive to those defects that are typical of historical documents. So much so that in the last eight years a competition for the binarization methods of historical documents have been held which led to the advance of the state of the art in the area. In this work we have done a comparative study of several methods of segmentation of historical documents and propose a method based on machine learning that rescues the advantages of the heuristic methods. This study covered both handwritten and typography historical documents and was compared to state-of-the-art methods via DIBCO standard metrics and via an open source OCR system. The results obtained by the proposed method are comparable with the methods of the state of the art respect in the OCR result, showing some advantages in specific images.
7

Uma metodologia de binarização para áreas de imagens de cheque utilizando algoritmos de aprendizagem supervisionada

Alves, Rafael Félix 23 June 2015 (has links)
Made available in DSpace on 2016-03-15T19:38:02Z (GMT). No. of bitstreams: 1 RAFAEL FELIX ALVES.pdf: 2156088 bytes, checksum: a82e527c69001eb9cee5a989bde3b8dc (MD5) Previous issue date: 2015-06-23 / The process of image binarization consists of transforming a color image into a new one with only two colors: black and white. This process is an important step for many modern applica-tions such as Check Clearance, Optical Character Recognition and Handwriting Recognition. Improvements in the automatic process of image binarization represent impacts on applications that rely on this step. The present work proposes a methodology for automatic image binariza-tion. This methodology applies supervised learning algorithms to binarize images and consists of the following steps: images database construction; extraction of the region of interest; pat-terns matrix construction; pattern labelling; database sampling; and classifier training. Experi-mental results are presented using a database of Brazilian bank check images and the competi-tion database DIBCO 2009. In conclusion, the proposal demonstrated to be superior to some of its competitors in terms of accuracy and F-Measure. / O processo de binarização de imagens consiste na transformação de uma imagem colorida em uma nova imagem com apenas duas cores: uma que representa o fundo, outra o objeto de interesse. Este processo é uma importante etapa de diversas aplicações modernas, como a Compensação de Cheque, o Reconhecimento Ótico de Caracteres (do inglês Optical Characterer Recognition) e o Reconhecimento de Texto Manuscrito (do inglês Handwritten Recognition, HWR). Dado que melhorias no processo automático de binarização de imagens representam impactos diretos nas aplicações que dependem desta etapa o presente trabalho propõe uma metodologia para realizar a binarização automática de imagens. A proposta realiza a binarização de forma automática baseado no uso de algoritmos de aprendizagem supervisionada, tais como redes neurais artificiais e árvore de decisão. O processo como um todo consiste das seguintes etapas: construção do banco de imagens; extração da região de interesse; construção da matriz de padrões; rotulação dos padrões; amostragem da base; e treinamento do classificador. Resultados experimentais são apresentados utilizando uma base de imagens de cheques de bancos brasileiros (CMC-7 e montante de cortesia) e a base de imagens da competição DIBCO 2009. Em conclusão, a metodologia proposta apresentou-se competitiva aos métodos da literatura destacando-se em aplicações onde o processamento de imagens está restrito a uma categoria de imagens, como é o caso das imagens de cheques de bancos brasileiros. A presente metodologia apresenta resultados experimentais entre as três primeiras posições e melhores resultados em relação a medida F-Measure quando comparada com as demais.

Page generated in 0.0395 seconds