• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 7
  • 7
  • 5
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Um novo algoritmo baseado em entropia para filtragem da interferência frente-verso

Marcelo Monte da Silva, João January 2005 (has links)
Made available in DSpace on 2014-06-12T17:40:54Z (GMT). No. of bitstreams: 2 arquivo7085_1.pdf: 5617751 bytes, checksum: 13b747395cadea3f73a525d5b1fd2004 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / A digitalização de documentos originariamente em papel é a maneira mais eficiente que dispomos hoje como meio de preservar o seu conteúdo para as gerações futuras, bem como possibilitar o acesso e disseminação às informações via redes de computadores. A natureza do documento impõe técnicas diferentes para a digitalização e armazenagem destes. Em geral, objetivando possibilidades futuras, os documentos são digitalizados em cores (true color) e alta resolução (chegando hoje até mais de 1.000 pontos por polegada). Visando o acesso via redes, tais documentos são geralmente disponibilizados em sua versão monocromática, com 200 dpi de resolução e comprimidos em formato conveniente, geralmente TIFF (G4). Tal processo de diminuição do número de cores de documentos, no caso de conversão para monocromático conhecido como binarização, possui dificuldades para ser efetuado de maneira automática, caso o documento tenha sido escrito ou impresso em ambos os lados de papel translúcido, situação conhecida como interferência frenteverso. Os algoritmos de binarização hoje existentes nas ferramentas comerciais geram imagem onde as porções referentes à tinta na frente e no verso ficam sobrepostas, impossibilitando a leitura da imagem obtida. Embora tal problema tenha sido apresentado há mais de uma década, ainda hoje busca-se soluções melhores para ele. No caso de documentos históricos, a complexidade do problema é ainda maior, uma vez que há o escurecimento causado pelo envelhecimento do papel como fator complicador. Esta dissertação propõe um novo algoritmo baseado na entropia do histograma da imagem para a binarização da imagem de documentos históricos com interferência frente-verso. O algoritmo proposto é comparado com os seus antecessores descritos na literatura, gerando imagens de melhor qualidade que os seus congêneres
2

Algoritmos e arquiteturas para processamento de documentos digitalizados monocromáticos

Tenório Ávila, Bruno January 2006 (has links)
Made available in DSpace on 2014-06-12T17:39:40Z (GMT). No. of bitstreams: 2 arquivo6931_1.pdf: 2770678 bytes, checksum: 56abc1e9ebe7d0b4bfc3fa9b7bd71858 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Em projetos de digitalização de alto volume de documentos, a imagem dos documentos digitalizados pode ser gerada com vários defeitos acarretando dificuldades desde a sua leitura até sua transcrição automática. Além disso, o alto volume de documentos a serem processados gera a necessidade de automatização do processo de digitalização e à procura por melhores soluções para esses problemas. Esta dissertação aborda os seguintes problemas encontrados nos documentos digitalizados monocromáticos: detecção e remoção de borda preta e; detecção e correção da orientação e enviesamento. Um novo filtro para remoção de borda preta foi desenvolvido, testado em 21 mil documentos e comparado com várias ferramentas comerciais. Um novo algoritmo de detecção de orientação e enviesamento com capacidade de estimar a rotação em qualquer ângulo com uma precisão de 0,1º foi desenvolvido e comparado com outro método da literatura. Um segundo algoritmo de detecção de enviesamento foi proposto com o objetivo de aumentar o desempenho do processamento. Observaram-se três problemas na correção de rotação do algoritmo clássico: pontos brancos, contorno acidentado e desconexão de parte dos objetos. Um algoritmo de correção de rotação foi proposto com capacidade de corrigir os três problemas. Um método quantitativo para medir a degradaçãodos algoritmos de correção de rotação foi introduzido e utilizado para comparar o novo algoritmo com outros da literatura. Além dos filtros, duas arquiteturas para processamento de documentos digitalizados monocromáticos foram estudadas: seqüencial e cluster. Um ambiente visual, intitulado BigBatch, foi construído com ambas as arquiteturas. A arquitetura em grid foi apenas especulada
3

Um Novo Algoritmo para a Remoção de Bordas Ruidosas em Documentos Monocromáticos

Mariano, Ednardo Jerônimo Cavalcante 31 January 2012 (has links)
Submitted by Eduarda Figueiredo (eduarda.ffigueiredo@ufpe.br) on 2015-03-06T13:53:56Z No. of bitstreams: 2 Dissertação Ednardo Jerônimo Mariano.pdf: 6874063 bytes, checksum: 791258ac65e7483a77dc6e6d559019f6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-06T13:53:56Z (GMT). No. of bitstreams: 2 Dissertação Ednardo Jerônimo Mariano.pdf: 6874063 bytes, checksum: 791258ac65e7483a77dc6e6d559019f6 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2012-01-31 / A digitalização de grandes quantidades de documentos através de scanners de linha de produção geralmente incorpora na imagem defeitos que acarretam dificuldades desde a sua leitura até sua transcrição automática. Tais defeitos devem ser removidos, obtendo imagens de documentos com melhor qualidade, através de técnicas de processamento de imagens digitais. Devido à grande quantidade de documentos, essas técnicas devem ser rápidas e capazes de abranger a maior parte das falhas nessas imagens. Esta dissertação apresenta um novo algoritmo para remoção de bordas ruidosas cujo tempo de processamento chegou a ser reduzido em até 62% em relação ao algoritmo de Ávila-Lins, com qualidade semelhante, quando testado num conjunto de cinco mil imagens.
4

Identificação da correlação entre as características das imagens de documentos e os impactos na fidelidade visual em função da taxa de compressão. / Identification of correlation between the characteristics of document images and its impact in visual fidelity in function of compression rate.

Tsujiguchi, Vitor Hitoshi 11 October 2011 (has links)
Imagens de documentos são documentos digitalizados com conteúdo textual. Estes documentos são compostos de caracteres e diagramação, apresentando características comuns entre si, como a presença de bordas e limites no formato de cada caractere. A relação entre as características das imagens de documentos e os impactos do processo de compressão com respeito à fidelidade visual são analisadas nesse trabalho. Métricas objetivas são empregadas na análise das características das imagens de documentos, como a medida da atividade da imagem (IAM) no domínio espacial dos pixels, e a verificação da medida de atividade espectral (SAM) no domínio espectral. Os desempenhos das técnicas de compressão de imagens baseada na transformada discreta de cosseno (DCT) e na transformada discreta de Wavelet (DWT) são avaliados sobre as imagens de documentos ao aplicar diferentes níveis de compressão sobre as mesmas, para cada técnica. Os experimentos são realizados sobre imagens digitais de documentos impressos e manuscritos de livros e periódicos, explorando texto escritos entre os séculos 16 ao século 19. Este material foi coletado na biblioteca Brasiliana Digital (www.brasiliana.usp.br), no Brasil. Resultados experimentais apontam que as medidas de atividade nos domínios espacial e espectral influenciam diretamente a fidelidade visual das imagens comprimidas para ambas as técnicas baseadas em DCT e DWT. Para uma taxa de compressão fixa de uma imagem comprimida em ambas técnicas, a presença de valores superiores de IAM e níveis menores de SAM na imagem de referência resultam em menor fidelidade visual, após a compressão. / Document images are digitized documents with textual content. These documents are composed of characters and their layout, with common characteristics among them, such as the presence of borders and boundaries in the shape of each character. The relationship between the characteristics of document images and the impact of the compression process with respect to visual fidelity are analyzed herein. Objective metrics are employed to analyze the characteristics of document images, such as the Image Activity Measure (IAM) in the spatial domain, and assessment of Spectral Activity Measure (SAM) in the spectral domain. The performance of image compression techniques based on Discrete Cosine Transform (DCT) and Discrete Wavelet Transform (DWT) are evaluated from document images by applying different compression levels for each technique to these images. The experiments are performed on digital images of printed documents and manuscripts of books and magazines, exploring texts written from the 16th to the 19th century. This material was collected in the Brasiliana Digital Library in Brazil. Experimental results show that the activity measures in spatial and spectral domains directly influence the visual fidelity of compressed images for both the techniques based on DCT and DWT. For a fixed compression ratio for both techniques on a compressed image, higher values of IAM and low levels of SAM in the reference image result in less visual fidelity after compression.
5

Identificação da correlação entre as características das imagens de documentos e os impactos na fidelidade visual em função da taxa de compressão. / Identification of correlation between the characteristics of document images and its impact in visual fidelity in function of compression rate.

Vitor Hitoshi Tsujiguchi 11 October 2011 (has links)
Imagens de documentos são documentos digitalizados com conteúdo textual. Estes documentos são compostos de caracteres e diagramação, apresentando características comuns entre si, como a presença de bordas e limites no formato de cada caractere. A relação entre as características das imagens de documentos e os impactos do processo de compressão com respeito à fidelidade visual são analisadas nesse trabalho. Métricas objetivas são empregadas na análise das características das imagens de documentos, como a medida da atividade da imagem (IAM) no domínio espacial dos pixels, e a verificação da medida de atividade espectral (SAM) no domínio espectral. Os desempenhos das técnicas de compressão de imagens baseada na transformada discreta de cosseno (DCT) e na transformada discreta de Wavelet (DWT) são avaliados sobre as imagens de documentos ao aplicar diferentes níveis de compressão sobre as mesmas, para cada técnica. Os experimentos são realizados sobre imagens digitais de documentos impressos e manuscritos de livros e periódicos, explorando texto escritos entre os séculos 16 ao século 19. Este material foi coletado na biblioteca Brasiliana Digital (www.brasiliana.usp.br), no Brasil. Resultados experimentais apontam que as medidas de atividade nos domínios espacial e espectral influenciam diretamente a fidelidade visual das imagens comprimidas para ambas as técnicas baseadas em DCT e DWT. Para uma taxa de compressão fixa de uma imagem comprimida em ambas técnicas, a presença de valores superiores de IAM e níveis menores de SAM na imagem de referência resultam em menor fidelidade visual, após a compressão. / Document images are digitized documents with textual content. These documents are composed of characters and their layout, with common characteristics among them, such as the presence of borders and boundaries in the shape of each character. The relationship between the characteristics of document images and the impact of the compression process with respect to visual fidelity are analyzed herein. Objective metrics are employed to analyze the characteristics of document images, such as the Image Activity Measure (IAM) in the spatial domain, and assessment of Spectral Activity Measure (SAM) in the spectral domain. The performance of image compression techniques based on Discrete Cosine Transform (DCT) and Discrete Wavelet Transform (DWT) are evaluated from document images by applying different compression levels for each technique to these images. The experiments are performed on digital images of printed documents and manuscripts of books and magazines, exploring texts written from the 16th to the 19th century. This material was collected in the Brasiliana Digital Library in Brazil. Experimental results show that the activity measures in spatial and spectral domains directly influence the visual fidelity of compressed images for both the techniques based on DCT and DWT. For a fixed compression ratio for both techniques on a compressed image, higher values of IAM and low levels of SAM in the reference image result in less visual fidelity after compression.
6

Implementación de un Sistema Web para el proceso de conclusión de escritura pública en el Colegio de Notarios de Lima

Collazos Tejada, Jenny Heydi, Manrique Quispe, Wilbert Pedro January 2015 (has links)
La presente tesis tiene como objetivo la implementación de un Sistema Web para el Colegio de Notarios de Lima que será utilizado principalmente por el área de archivo de ex-Notarios en el proceso de Conclusión de Escrituras, proceso que consiste en culminar las firmas pendientes de las personas que intervienen en una Escritura Pública, en la actualidad este servicio se realiza de forma manual, es lento y engorroso. El sistema permitirá al cliente contar con una respuesta inmediata del estado actual de la Escritura Pública, costo del servicio y de esta manera decidir al instante si continua con el servicio solicitado, todo gracias a la base de datos de Escrituras Públicas digitalizadas, que han sido enviadas por los notarios que han cesado de su función. Además, agilizará el proceso de respuesta del Notario encargado respecto a los informes de Conclusión de Escritura enviados por el Encargado del archivo, la fecha de conclusión y notificación por correo electrónico. El sistema permitirá tener un mejor control del proceso actual gracias a que las tareas serán administradas y personalizadas según el perfil de cada usuario. Dicho sistema utiliza la tecnología web que dispone de información en tiempo real y está orientado a la búsqueda de documentos digitalizados. Por último el sistema podrá generar reportes respecto al servicio realizado en el área de archivo permitiendo a la Junta Directiva del Colegio de Notarios de Lima tomar decisiones para planificar estrategias de gestión. This thesis aims to implement a Web System for the College of Notaries of Lima which will be used mainly for the archive area of former notaries in the process of concluding Scriptures process of culminating the outstanding signatures people involved in a public deed, at present this service is performed manually, it is slow and cumbersome. The system will allow customers to have immediate feedback of the current state of the Deed, cost of service and thus decide immediately whether to continue with the requested service, thanks to the database Deeds digitized, which have been submitted by notaries who have ceased to function. In addition, it will streamline the process commissioned Notary response regarding Conclusion Writing reports sent by the File Manager, the completion date and email notification. The system will allow better control of the current process by which tasks are managed and customized to each user's profile. This system uses web technology that provides real-time information and is aimed at finding scanned documents. Finally the system can generate reports regarding the service performed in the area of file allowing the Board of the Association of Notaries of Lima make decisions to plan management strategies.
7

[en] METHOD FOR AUTOMATIC DETECTION OF STAMPS IN SCANNED DOCUMENTS USING DEEP LEARNING AND SYNTHETIC DATA GENERATION BY INSTANCE AUGMENTATION / [pt] MÉTODO PARA DETECÇÃO AUTOMÁTICA DE CARIMBOS EM DOCUMENTOS ESCANEADOS USANDO DEEP LEARNING E GERAÇÃO DE DADOS SINTÉTICOS ATRAVÉS DE INSTANCE AUGMENTATION

THALES LEVI AZEVEDO VALENTE 11 August 2022 (has links)
[pt] Documentos digitalizados em ambientes de negócios substituíram grandes volumes de papéis. Profissionais autorizados usam carimbos para certificar informações críticas nesses documentos. Muitas empresas precisam verificar o carimbo adequado de documentos de entrada e saída. Na maioria das situações de inspeção, as pessoas realizam inspeção visual para identificar carimbos. Assim sendo, a verificação manual de carimbos é cansativa, suscetível a erros e ineficiente em termos de tempo gasto e resultados esperados. Erros na verificação manual de carimbos podem gerar multas de órgãos reguladores, interrupção de operações e até mesmo comprometer fluxos de trabalho e transações financeiras. Este trabalho propõe dois métodos que combinados podem resolver esse problema, automatizando totalmente a detecção de carimbos em documentos digitalizados do mundo real. Os métodos desenvolvidos podem lidar com conjuntos de dados contendo muitos tipos de carimbos de tamanho de amostra pequena, com múltiplas sobreposições, combinações diferentes por página e dados ausentes. O primeiro método propõe uma arquitetura de rede profunda projetada a partir da relação entre os problemas identificados em carimbos do mundo real e os desafios e soluções da tarefa de detecção de objetos apontados na literatura. O segundo método propõe um novo pipeline de aumento de instâncias de conjuntos de dados de carimbos a partir de dados reais e investiga se é possível detectar tipos de carimbos com amostras insuficientes. Este trabalho avalia os hiperparâmetros da abordagem de aumento de instâncias e os resultados obtidos usando um método Deep Explainability. Foram alcançados resultados de última geração para a tarefa de detecção de carimbos combinando com sucesso esses dois métodos, alcançando 97.3 por cento de precisão e 93.2 por cento de recall. / [en] Scanned documents in business environments have replaced large volumes of papers. Authorized professionals use stamps to certify critical information in these documents. Many companies need to verify the adequate stamping of incoming and outgoing documents. In most inspection situations, people perform a visual inspection to identify stamps. Therefore, manual stamp checking is tiring, susceptible to errors, and inefficient in terms of time spent and expected results. Errors in manual checking for stamps can lead to fines from regulatory bodies, interruption of operations, and even compromise workflows and financial transactions. This work proposes two methods that combined can address this problem, by fully automating stamp detection in real-world scanned documents. The developed methods can handle datasets containing many small sample-sized types of stamps, multiples overlaps, different combinations per page, and missing data. The first method proposes a deep network architecture designed from the relationship between the problems identified in real-world stamps and the challenges and solutions of the object detection task pointed out in the literature. The second method proposes a novel instance augmentation pipeline of stamp datasets from real data to investigate whether it is possible to detect stamp types with insufficient samples. We evaluate the hyperparameters of the instance augmentation approach and the obtained results through a Deep Explainability method. We achieve state-of-the-art results for the stamp detection task by successfully combining these two methods, achieving 97.3 percent of precision and 93.2 percent of recall.

Page generated in 0.0663 seconds