• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1435
  • 71
  • 60
  • 60
  • 60
  • 36
  • 36
  • 24
  • 23
  • 22
  • 22
  • 9
  • 2
  • Tagged with
  • 1516
  • 1516
  • 625
  • 620
  • 461
  • 335
  • 244
  • 212
  • 210
  • 194
  • 193
  • 161
  • 160
  • 158
  • 155
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Ferramenta computacional para a medição de campos de velocidade utilizando processamento digital de imagens

Gutkoski, Lucas Luis January 2001 (has links)
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
32

Restauração digital de imagens coloridas de documentos históricos

ROE, Edward 27 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-19T18:36:51Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Edward Roe.pdf: 19085506 bytes, checksum: 6b8817adad23084ffd72efac1f4f9b5c (MD5) / Made available in DSpace on 2016-02-19T18:36:51Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Edward Roe.pdf: 19085506 bytes, checksum: 6b8817adad23084ffd72efac1f4f9b5c (MD5) Previous issue date: 2015-02-27 / Esta Tese apresenta três novos algoritmos para restauração digital de imagens coloridas de documentos antigos, colaborando com soluções econômicas para preservação digital, proporcionando maior democratização e facilidade no acesso aos documentos em museus, bibliotecas e acervos em geral e abrindo possibilidades no uso das imagens em e-books, além de alcançar economia no processo de impressão. Para cada algoritmo, novas técnicas foram desenvolvidas como uma equalização local que elimina artefatos causados pela degradação do papel; um novo filtro bilateral, que reduz ruídos preservando bordas e a criação de critérios para definir qualidade visual em imagens de documentos contendo elementos gráficos. Dos algoritmos propostos, dois têm como finalidade obter uma versão binarizada da imagem e o terceiro visa a restauração digital de cartões postais antigos. Nos três casos, o documento pode apresentar diversos tipos de degradações causadas pela ação do tempo. O primeiro é um novo algoritmo de binarização voltado para imagens de documentos históricos que podem apresentar níveis acentuados de degradações. O método proposto faz uso da equalização local da imagem e uma extensão da diferença entre Gaussianas, o XDoG. A binarização é alcançada através de três passos: remoção de artefatos causados pela ação do tempo, através da equalização local e binarização, com o algoritmo de Otsu. O segundo combina equalização global e o operador de detecção de bordas, XDoG, para a binarização do texto. O passo final combina os resultados dos dois passos anteriores, efetuando em seguida a remoção de artefatos remanescentes. O segundo algoritmo foi desenvolvido para binarização de imagens de documentos históricos contendo, além de texto, elementos gráficos. Os objetivos deste método são: aperfeiçoar o processo de binarização, de forma que a qualidade visual dos elementos gráficos seja mantida e proporcionar economia de tinta no processo de impressão em preto e branco. O método utiliza um filtro bilateral para remover ruídos, preservando as bordas e a equalização local para remover degradações causadas pelo tempo e problemas de iluminação. O terceiro algoritmo propõe uma forma automática para restauração digital de imagens de cartões postais coloridos antigos, empregando técnicas combinadas de equalização de imagem, segmentação do fundo, realce das cores e remoção de manchas. Para realçar as cores, a degradação geral do documento é considerada como um problema de iluminação, permitindo a aplicação de algoritmos de constância de cores. / This Thesis presents three new algorithms for digital restoration of color images of old documents, collaborating with economical solutions for digital preservation and for greater democracy and ease of access to documents in museums, libraries and archives in general, opening possibilities for the use of images in e-books, also achieving economy in the printing process. For each of the algorithms, new techniques were developed as a local equalization, which eliminates images artifacts caused by the paper degradation, a new bilateral filter, that reduces noise while preserving edges and the creation of criteria for defining visual quality of document images containing graphic elements. Two of these methods convert the image to bilevel, while the third aims a color restoration of old postcards. In all three cases, the document may have various types of degradation caused by time. The first thresholding algorithm is suitable for color images of degraded historical documents. The proposed method makes use of local image equalization and an extension to the standard difference of Gaussians, the XDoG. The binarization is achieved after three main steps: the first step removes undesirable degradation artifacts using a local image equalization and Otsu binarization algorithm. The second step uses global image equalization and XDoG edge detection operator to binarize the text. The final step combines the two images generated by the previous steps, performing a cleanup to remove remaining degradations artifacts and fix possible missing text or area, to produce the final result. The second algorithm proposes a new binarization method for color images of historical document containing graphical elements. The objectives of this method are: to improve the binarization process, such that the visual quality of the drawings is not lost in the final bi-level image; to provide economy of ink in the printing process. The proposal uses a new bilateral-like filter, to remove noise but preserving edges, and a local image equalization algorithm to enhance edges, remove aging degradations and illumination artifacts. The third algorithm proposes an automatic system for the restoration of digital images of vintage colored postcards, employing the combined techniques of image equalization, background segmentation based on edge detection (using an extension of the standard difference of Gaussians filter), color enhancement, and noisy spots removal. Equalization and background segmentation are used to make easier the background spot removal. To enhance colors, the overall document degradation is regarded as an illumination problem, thereby allowing the use of color constancy algorithms.
33

Aspectos Computacionais do Processamento de Imagens de Documentos Históricos

MELLO, Carlos Alexandre Barros de January 2002 (has links)
Made available in DSpace on 2014-06-12T15:53:11Z (GMT). No. of bitstreams: 2 arquivo4986_1.pdf: 7522254 bytes, checksum: f384eca043128f0eabf85ef228f843bd (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2002 / Este trabalho apresenta novos aspectos quanto ao processamento de imagens de documentos históricos. Um novo algoritmo para segmentação de imagens baseado em Entropia é proposto e analisado e comparado com diversos outros métodos, com a finalidade de gerar imagens monocromáticas de alta qualidade para inspeção visual, impressão e para inserção em ferramentas de Reconhecimento Óptico de Caracteres. Com a aplicação desse novo algoritmo, um sistema de síntese de imagens de documentos históricos é proposto, onde a textura do papel é criada automaticamente a partir de informações estatísticas da textura original. À essa textura é adicionada a imagem de textual, também sintetizada, apresentando a imagem final do documento com características perceptualmente similares à imagem original e com diferenças estatisticamente não-significantes
34

Reconhecimento de expressões faciais utilizando estimação de movimento

SANTIAGO, Hemir da Cunha 07 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T21:40:31Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5) / Made available in DSpace on 2018-06-25T21:40:31Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5) Previous issue date: 2017-02-07 / As expressões faciais fornecem informações sobre a resposta emocional e exercem um papel fundamental na interação humana e como forma de comunicação não-verbal. Contudo, o reconhecimento das expressões ainda é algo considerado complexo para o computador. Neste trabalho, propomos um novo extrator de características que utiliza a estimação de movimento para o reconhecimento de expressões faciais. Nesta abordagem, o movimento facial entre duas expressões é codificado usando uma estimação dos deslocamentos de regiões entre duas imagens, que podem ser da mesma face ou de faces similares. A imagem da expressão facial é comparada a outra imagem mais similar em cada expressão facial da base de treinamento, a maior similaridade é obtida usando a medida de Similaridade Estrutural (SSIM - Structural Similarity Index). Após a identificação das imagens mais similares na base de treinamento, são calculados os vetores de movimento entre a imagem cuja expressão facial será reconhecida e a outra mais similar em uma das expressões da base. Para calcular os vetores de movimento é proposto o algoritmo MARSA(Modified Adaptive Reduction of the Search Area). Todos os vetores de movimento são comparados às coordenadas com as maiores ocorrências dentre todos os vetores de movimento obtidos durante a fase de treinamento, a partir dessa comparação são gerados os vetores de características que servem de dados de entrada para uma SVM (Support Vector Machine),que irá realizar a classificação da expressão facial. Diversas bases de imagens e vídeos de faces, reproduzindo expressões faciais, foram utilizadas para os experimentos. O critério adotado para a escolha das bases foi a frequência com que são utilizadas em outros trabalhos do estado da arte, portanto foram escolhidas: Cohn-Kanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI e CMU Pose, Illumination, and Expression (CMU-PIE). Os resultados experimentais demostram taxas de reconhecimento das expressões faciais compatíveis a outros trabalhos recentes da literatura, comprovando a eficiência do método apresentado. / Facial expressions provide information on the emotional response and play an essential role in human interaction and as a form of non-verbal communication. However, there cognition of expressions is still something considered complex for the computer. In this work, it is proposed a novel feature extractor that uses motion estimation for Facial Expression Recognition (FER). In this approach, the facial movement between two expressions is coded using an estimation of the region displacements between two images, which may be of the same face or the like. The facial expression image is compared to another more similar image in each facial expression of the training base, the best match is obtained using the Structural Similarity Index (SSIM). After identifying the most similar images in the training base, the motion vectors are calculated between the reference image and the other more similar in one of the expressions of the base. To calculate the motion vectors is proposed the MARSA (Modified Adaptive Reduction of the Search Area) algorithm. All motion vectors are compared to the coordinates with the highest occurrences of all motion vectors obtained during the training phase, from this comparison the feature vectors are generated that serve as input data for a SVM (Support Vector Machine), which will perform the classification of facial expression. Several databases of images and videos of faces reproducing facial expressions were used for the experiments, the adopted criteria for selection of the bases was the frequency which they are used in the state of the art, then were chosen: CohnKanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI, and CMU Pose, Illumination, and Expression (CMU-PIE). The experimental results demonstrate that there cognition rates of facial expressions are compatible to recent literature works proving the efficiency of the presented method.
35

Reconhecimento de instâncias guiado por algoritmos de atenção visual

MESQUITA, Rafael Galvão de 24 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T22:48:16Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rafael Galvão de Mesquita.pdf: 3132690 bytes, checksum: 146f47256f9ec73dd248693c53e9d44e (MD5) / Made available in DSpace on 2018-06-25T22:48:16Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rafael Galvão de Mesquita.pdf: 3132690 bytes, checksum: 146f47256f9ec73dd248693c53e9d44e (MD5) Previous issue date: 2017-02-24 / CNPQ / Atenção visual é o processo pelo qual o cérebro humano prioriza e controla o processamento de estímulos visuais e é, dentre outras características do sistema visual, responsável pela forma rápida com que seres humanos interagem com o meio ambiente, mesmo considerando uma grande quantidade de informações a ser processada. A atenção visual pode ser direcionada pelo mecanismo bottom-up, em que estímulos de baixo nível da cena, como cor, guiam o foco atentivo para aquelas regiões mais salientes, ou seja, que se distinguam da sua vizinhança ou do restante da cena; ou pelo mecanismo top-down, em que fatores cognitivos, como expectativas do indivíduo ou o objetivo de concluir certa tarefa, definem a região de atenção. Esta Tese investiga o uso de algoritmos de atenção visual para guiar (e acelerar) a busca por objetos em imagens digitais. Inspirado no funcionamento do mecanismo bottom-up, um algoritmo de detecção de saliências baseado na estimativa do background da cena combinado com o resultado de um operador Laplaciano, denominado de BLS (Background Laplacian Saliency), é proposto. Além disso, uma modificação no detector/descritor de características locais SURF (Speeded-UpRobust Features), denominado depatch-based SURF, é desenvolvida para que o reconhecimento ocorra iterativamente em certos locais em foco da cena, ao invés de executar o modo clássico de reconhecimento (busca clássica), em que toda a cena é analisada de uma só vez. O modo de busca em que opatch-based SURF é aplicado e a ordem das regiões analisadas da imagem é definida por um algoritmo de detecção de saliência é referenciado como Busca Guiada por Mapa de Saliência (BGMS). O BLS e outros nove algoritmos de detecção de saliências são experimentados na BGMS. Resultados indicam, em média, uma redução para (i) 73% do tempo de processamento da busca clássica apenas pela aplicação do patch-based SURF em uma busca aleatória, (ii) e para 53% desse tempo quando a busca é guiada pelo BLS. Utilizando outros algoritmos de detecção de saliências do estado da arte, entre 55% e 133% do tempo da busca clássica são necessários para o reconhecimento. Além disso, inspirado pelo mecanismo top-down, é proposta a Busca Guiada por Características do Objeto (BGCO) por meio da priorização de descritores extraídos da cena em função da distância Hamming para os descritores de um determinado objeto alvo. A BGCO utiliza filtros de Bloom para representar vetores de características similares aos descritores do objeto buscado e possui complexidade de espaço e tempo constantes em relação ao número de elementos na base de descritores do alvo. Experimentos demonstram uma redução do tempo de processamento para 80% do tempo necessário quando a busca clássica é executada. Concluindo, a partir da integração entre a BGMS e a BGCO (BGMS+BGCO) é possível reduzir o tempo de execução da busca para 44% do tempo da busca clássica. / Visual attention is the process by which the human brain prioritizes and controls visual stimuli and it is, among other characteristics of the visual system, responsible for the fast way in which human beings interact with the environment, even considering a large amount of information to be processed. Visual attention can be driven by abottom-up mechanism, in which low level stimuli of the analysed scene, like color, guides the focused region to salient regions (regions that are distinguished from its neighborhood or from the whole scene); orbyatop-down mechanism, in which cognitive factors, like expectations or the goal of concluding certain task, define the attended location. This Thesis investigates the use of visual attention algorithms to guide (and to accelerate) the search for objects in digital images. Inspired by the bottom-up mechanism, a saliency detector based on the estimative of the scene’s background combined with the result of a Laplacian-based operator, referred as BLS (BackgroundLaplacianSaliency), is proposed. Moreover, a modification in SURF (Speeded-Up Robust Features) local feature detector/descriptor, named as patch-based SURF, is designed so that the recognition occurs iteratively in each focused location of the scene, instead of performing the classical recognition (classic search), in which the whole scene is analysed at once. The search mode in which the patch-based SURF is applied and the order of the regions of the image to be analysed is defined by a saliency detection algorithm is called BGMS. The BLS and nine other state-of-the-art saliency detection algorithms are experimented in the BGMS. Results indicate, in average, a reduction to (i) 73% of the classic search processing time just by applyingpatch-basedSURF in a random search, (ii) and to 53% of this time when the search is guided by BLS. When using other state-of-the-art saliency detection algorithms, between 55% and 133% of the processing time of the classic search is needed to perform recognition. Moreover, inspired by thetop-down mechanism, it is proposed the BGCO, in which the visual search occurs by prioritizing scene descriptors according to its Hamming distance to the descriptors of a given target object. The BGCO uses Bloom filters to represent feature vectors that are similar to the descriptors of the searched object and it has constant space and time complexity in relation to the number of elements in the set of the descriptors of the target. Experiments showed a reduction in the processing time to 80% of the required time when the classic search is performed. Finally, by using the BGMS and the BGCO in an integrated way, the processing time of the search was reduced to 44% of the execution time required by the classic search.
36

Identificação e Monitoramento de Dormentes de Ferrovias usando Processamento de Imagens

FRANCA, A. S. 29 May 2017 (has links)
Made available in DSpace on 2018-08-02T00:00:45Z (GMT). No. of bitstreams: 1 tese_11031_André Stanzani Franca.pdf: 7177903 bytes, checksum: d242880f1213767800f5b7bbf8661aa6 (MD5) Previous issue date: 2017-05-29 / A ferrovia é importante motor da economia mundial. Eficiente, segura e de grande capacidade e velocidade, esse meio de transporte de mais de 200 anos, ainda sofre com as dificuldades de manutenção, majoritariamente devido aos seus ativos de grande extensão, dispersão geográfica, quantidade e peso. Em vista disso, iniciativas em inspeção automática de ativos ferroviários vem se desenvolvendo. Em particular, a inspeção de dormentes ferroviários, que por vezes é feita manualmente, carece de desenvolvimento e consolidação. Esta dissertação apresenta um método para inventariar, identificar o tipo e defeitos em dormentes baseando-se em processamento de imagens, heurística e fusão de características de forma não-supervisionada. Utiliza-se transformada de Haar e imagens integrais, além de outras técnicas de processamento de imagens como detecção de bordas e cálculo de entropia acompanhadas de aspectos da própria topologia da ferrovia para alcançar os objetivos propostos. O desenvolvimento ocorreu sobre imagens reais, não classificadas previamente, do cotidiano ferroviário e que estavam sujeitas a diversos ruídos e variações de uma operação ferroviária autêntica. O método foi validado através de experimentos com um banco de imagens que possuem aproximadamente 33 mil dormentes. Os resultados alcançados são promissores, com acurácia de 97% na assertividade do tipo de dormente identificado e 93% na identificação de defeitos visíveis em dormentes.
37

Algoritmos de afinamento de imagens 3-d : uma analise teorica e pratica

Bezerra, Francisco Nivando 11 April 1997 (has links)
Orientador: Neucimar Jeronimo Leite / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-22T06:43:38Z (GMT). No. of bitstreams: 1 Bezerra_FranciscoNivando_M.pdf: 1868137 bytes, checksum: 850c4ef8f5e74ba6aa091bb37de3ae03 (MD5) Previous issue date: 1997 / Resumo: O afinamento de imagens tem sido bastante estudado em Processamento Digital de Imagens. O caso de imagens bidimensionais, extensivamente considerado na literatura, apresenta um conjunto significativo de algoritmos com diferentes métodos e caracterizações. O mesmo não ocorre com imagens em três dimensões em que as limitações tecnológicas de alguns anos atrás refletem, ainda, a pouca abordagem neste sentido. Esta dissertação apresenta uma análise comparativa dos algoritmos de afinamento de imagens tridimensionais. São discutidos problemas tais como performance, características geométricas das imagens resultantes, e apresentadas algumas equivalências entre os principais métodos. Algumas extensões de técnicas de processamento de imagens bidimensionais ao caso tridimensional são consideradas. Estas técnicas incluem eliminação de ruídos nas imagens afinadas, e definição de divisores de água de uma função. São apresentadas, ainda, técnicas de otimização para os algoritmos estudados. / Abstract: The problem of thinning binary images has been extensively studied in the digital image processing field. Particularly to the bidimensional images, there is a large number of methods leading to different results. In the three-dimensional case, due to the technological limitations, the number of such algorithms is rather limited. This work discusses some problems concerned with the definition of thinning algorithms to three-dimensional images. It describes the main algorithms presented in the literature and analyses them in a comparative way. We consider different aspects of the thinning problem such as execution time, geometric characteristics, and define formally some equivalences between the methods. We also consider some extensions from the bidimensional image processing algorithms to the three-dimensional case. These extensions include noise reduction of thinned images and the watersheds of a function. Finally, some general optimization techniques are defined for the implementation of the algorithms. / Mestrado / Mestre em Ciência da Computação
38

Reconhecimento de caracteres numericosmanuscritos que considera as caracteristicas intrinsecas e comuns de cada digito

Flores, Edna Lucia 04 February 1997 (has links)
Orientador: João Baptista Tadanobu Yabu-uti / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-22T09:53:52Z (GMT). No. of bitstreams: 1 Flores_EdnaLucia_D.pdf: 41857471 bytes, checksum: 3330a44e038adda58d3075d3a209a91e (MD5) Previous issue date: 1997 / Resumo: Este trabalho descreve o desenvolvimento de software em linguagem C para o reconhecimento de caracters numéricos manuscritos. Estes caracteres podem estar isolados, sobrepostos ou conectados e apresentar ao longo do seu contorno trechos contínuos ou fragmentados. No desenvolvimento deste trabalho, o reconhecimento dos caracteres foi realizado inicialmente utilizando-se redes neuronais. Os resultados obtidos com esse processo não são satisfatórios quando ocorrem diferenças expressivas entre os padrões utilizados no treinamento e os padrões utilizados no reconhecimento. As diferenças que podem ocorrer entre os padrões utilizados são mudança de escala, translação e rotação. A mudança de escala ocorre quando as dimensões do padrão utilizados no reconhecimento. A translação ocorre quando o padrão utilizado no treinamento encontra-se localizado em uma posição distinta à posição do padrão utilizado no reconhecimento. A rotação ocorre quando os padrões utilizados no treinamento e no reconhecimento apresentem inclinações diferentes. Com o objetivo de minimizar essas diferenças, os dígitos utilizados antes de serem treinados e reconhecidos pela rede neuronal são normalizados, tornando-se insensíveis mudança de escala, translação e rotação. Vários testes foram realizados utilizando-se padrões normalizados. Os resultados obtidos nesses testes foram satisfatórios quando na fase de treinamento os padrões utilizados foram escritos pelas mesmas pessoas que escreveram os padrões utilizados na fase de reconhecimento ... Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: This work describes the development of software in C language for the recognition of handwritten numerical characters. These characters may be isolated, overlapped or connected and present continuous or fragmented parts along their boundaries. In the development of this work, the recognition of characters was realized initially using neural networks. The results obtained from using this process are not satisfactory when expressive differences occur between the training and recognition patterns used. Difference that can occurs between the used patterns are scale change, translation and rotation. The scale change occurs when the dimensions of the training pattern are different from the dimension of the recognition pattern. The rotation occurs when the patterns used in training and recognition present different inclinations. With the objective of minimizing the differences, digits used before being trained and recognized by the neural network are normalized, becoming insensitive to scale change, translation and rotation. Various tests were carried out using normalized patterns. The results obtained from these were satisfactory when during the training phase the patterns used were written by the same people who wrote the patterns during the recognition phase. However, in order that 90%or more of the tested to be recognized, it was necessary to increase the quantity of patterns used in the training process of the neural network ...Note: The complete abstract is available with the full electronic digital thesis or dissertations / Doutorado / Doutor em Engenharia Elétrica
39

Segmentação de imagens tomograficas usando contornos deformaveis com segmentos de custo minimo

Rodrigues, Elisângela de Araújo 28 July 2018 (has links)
Orientador: Alexandre Xavier Falcão / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-28T09:30:12Z (GMT). No. of bitstreams: 1 Rodrigues_ElisangeladeAraujo_M.pdf: 11506401 bytes, checksum: 9f798d0df7136b095c08e70579c6f2e2 (MD5) Previous issue date: 2001 / Resumo: Imagens tomográficas consistem de uma seqüência de imagens de cortes paralelos contendo informações internas da anatomia (ou função) de estruturas tridimensionais. A segmentação é a operação que "extrai" das imagens tomográficas as estruturas de interesse em uma dada aplicação. Métodos de contornos deformáveis têm sido bastante investigados como uma solução para problemas de segmentação de imagens. Estes métodos, porém, apresentam problemas de convergência e estabilização do contorno sobre a borda da estrutura desejada. Este trabalho apresenta uma revisão sobre as principais técnicas de contornos deformáveis e uma solução eficiente para os problemas de convergência e estabilização através do uso de segmentos de custo mínimo. Os resultados do método proposto são ilustrados e analisados com respeito a segmentação de imagens tomográficas do corpo humano. / Abstract: Tomographic images contain important information about the anatomy (or function) of three-dimensional structures of the human boby. Image segmentation is the operation that "extracts" the structures of interest from the tomographic images for a given aplication. Deformable contours are among the most investigated methods for image segmentation. Two traditional problems in such an approach are the convergence and the stabilization of the deformable model over a desired object boundary. This work presents an overview about deformable contours and proposes an efficient solution to the convergence and stabilization problems. Our solution essentially splits the contour in minimum-cost segments which snap onto the object boundary when the deformable contour gets close to it. The results of the work are illustrated with respect to image segmentation tasks in medicine. / Mestrado / Mestre em Ciência da Computação
40

Estudo de codigo de barras por analise de imagens

Soares, Ricardo Correia 01 August 2018 (has links)
Orientador: Roberto de Alencar Lotufo / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-01T07:55:25Z (GMT). No. of bitstreams: 1 Soares_RicardoCorreia_M.pdf: 3223147 bytes, checksum: e539cc074c722af6ff23b6c261d13daa (MD5) Previous issue date: 2001 / Mestrado

Page generated in 0.1369 seconds