• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 138
  • 18
  • 12
  • 12
  • 12
  • 9
  • 8
  • 8
  • 8
  • 6
  • 3
  • 1
  • Tagged with
  • 160
  • 160
  • 160
  • 92
  • 89
  • 68
  • 62
  • 40
  • 39
  • 35
  • 34
  • 33
  • 31
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Sistema de visão computacional para a caracterização da grafita usando microfotografias / System of computational vision for the characterization of the graphite using microphotographies

Albuquerque, Victor Hugo Costa de 06 October 2007 (has links)
ALBUQUERQUE, V. H. C. Sistema de visão computacional para a caracterização da grafita usando microfotografias. 2007. 72 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2007. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2016-04-05T12:42:11Z No. of bitstreams: 1 2007_dis_vhcalbuquerque.pdf: 3387249 bytes, checksum: d481ca28c0ee4f8e40aaf98708890c74 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2016-04-06T16:42:01Z (GMT) No. of bitstreams: 1 2007_dis_vhcalbuquerque.pdf: 3387249 bytes, checksum: d481ca28c0ee4f8e40aaf98708890c74 (MD5) / Made available in DSpace on 2016-04-06T16:42:01Z (GMT). No. of bitstreams: 1 2007_dis_vhcalbuquerque.pdf: 3387249 bytes, checksum: d481ca28c0ee4f8e40aaf98708890c74 (MD5) Previous issue date: 2007-10-06 / Caterials Sciences field uses Computational Vision systems to determine size and/or amount of grains, welding control, modeling of alloy elements, among other. The present paper has as main objective to develop and validate the SVRNA system (Microstructure Segmentation for Computational Vision based on Artificial Neural Networks), which, combined with Arti¯cial Neural Network, uses mathematical morphology technics to accomplish the constituent segmentations from white cast iron of semi-automatic form, and graphite automatic classi¯cation from nodular, malleable and gray cast iron. Segmentation and quanti¯cation results of this materials are compared between SVRNA and a commercial program more used in this domain. Comparative analysis between this methods showed that SVRNA present best results. It has concluded, therefore, which the proposed system can be used in applications in Material Sciences field for microstructure segmentation and quantification in metallic materials, reducing the analyze time, and obtained accurate results. / A área de Ciência dos Materiais utiliza sistemas de Visão Computacional para determinar tamanho e/ou quantidade de grãos, controle de soldagem, modelamento de elementos de ligas, entre outras. O presente trabalho tem como principal objetivo desenvolver e validar o programa SVRNA (Segmentação de Microestruturas por Visão Computacional Baseada em Rede Neural Artificial), que, combinado com Rede Neural Artificial, utiliza técnicas de morfologia matemática para realizar a segmentação dos constituintes do ferro fundido branco de forma semi-automática e a classificação automática da grafita nos ferros fundidos nodular, maleável e cinzento. Os resultados da segmentação e quantificação destes materiais são comparados entre o SVRNA e um programa comercial bastante utilizado neste domínio. A análise comparativa entre estes métodos mostra que o SVRNA apresenta melhores resultados. Conclui-se, portanto, que o sistema proposto pode ser utilizado em aplicações na área da Ciência dos Materiais para a segmentação e quantificação de constituintes em materiais metálicos, reduzindo o tempo de análise e obtendo resultados precisos.
62

Utilizando contexto na representação de imagens para a classificação de cenas

Gazolli, Kelly Assis de Souza 27 June 2014 (has links)
Submitted by Elizabete Silva (elizabete.silva@ufes.br) on 2015-09-02T19:11:11Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Utilizando Contexto na Representa¸c˜ao de Imagens para a.pdf: 4083803 bytes, checksum: e0ced4975f7eee5db5316f7e096db639 (MD5) / Approved for entry into archive by Morgana Andrade (morgana.andrade@ufes.br) on 2015-11-23T19:25:43Z (GMT) No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Utilizando Contexto na Representa¸c˜ao de Imagens para a.pdf: 4083803 bytes, checksum: e0ced4975f7eee5db5316f7e096db639 (MD5) / Made available in DSpace on 2015-11-23T19:25:43Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Utilizando Contexto na Representa¸c˜ao de Imagens para a.pdf: 4083803 bytes, checksum: e0ced4975f7eee5db5316f7e096db639 (MD5) Previous issue date: 2014 / A classifica¸c˜ao de cenas ´e um campo bastante popular na ´area de vis˜ao computacional e encontra diversas aplica¸c˜oes tais como: organiza¸c˜ao e recupera¸c˜ao de imagem baseada em conte´udo, localiza¸c˜ao e navega¸c˜ao de robˆos. No entanto, a classifica¸c˜ao autom´atica de cenas ´e uma tarefa desafiadora devido a diversos fatores, tais como, ocorrˆencia de oclus˜ao, sombras, reflex˜oes e varia¸c˜oes nas condi¸c˜oes de ilumina¸c˜ao e escala. Dentre os trabalhos que objetivam solucionar o problema da classifica¸c˜ao autom´atica de cenas, est˜ao aqueles que utilizam transformadas n˜ao-param´etricas e aqueles que tˆem obtido melhora no desempenho de classifica¸c˜ao atrav´es da explora¸c˜ao da informa¸c˜ao contextual. Desse modo, esse trabalho prop˜oe dois descritores de imagens que associam informa¸c˜ao contextual, ou seja, informa¸c˜ao advinda de regi˜oes vizinhas, a um tipo de transformada n˜ao-param´etrica. O objetivo ´e propor uma abordagem que n˜ao eleve demasiadamente a dimens˜ao do vetor de caracter´ısticas e que n˜ao utilize a t´ecnica de representa¸c˜ao intermedi´aria bag-of-features, diminuindo, assim, o custo computacional e extinguindo a necessidade de informa¸c˜ao de parˆametros, o que possibilita a sua utiliza¸c˜ao por usu´arios que n˜ao possuem conhecimento na ´area de reconhecimento de padr˜oes. Assim, s˜ao propostos os descritores CMCT (Transformada Census Modificada Contextual) e ECMCT (CMCT Estendido) e seus desempenhos s˜ao avaliados em quatro bases de dados p´ublicas. S˜ao propostas tamb´em cinco varia¸c˜oes destes descritores (GistCMCT, GECMCT, GistCMCT-SM, ECMCT-SM e GECMCT-SM), obtidas atrav´es da associa¸c˜ao de cada um deles com outros descritores. Os resultados obtidos nas quatro bases de dados mostram que as representa¸c˜oes propostas s˜ao competitivas, e que provocam um aumento nas taxas de classifica¸c˜ao, quando comparados com outros descritores. / Scene classification is a very popular topic in the field of computer vision and it has many applications, such as, content-based image organization and retrieval and robot navigation. However, scene classification is quite a challenging task, due to the occurrence of occlusion, shadows and reflections, illumination changes and scale variability. Among the approaches to solve the scene classification problems are those that use nonparametric transform and those that improve classification results by using contextual information. Thus, this work proposes two image descriptors that associate contextual information, from neighboring regions, with a non-parametric transforms. The aim is to propose an approach that does not increase excessively the feature vector dimension and that does not use the bag-of-feature method. In this way, the proposals descrease the computational costs and eliminate the dependence parameters, which allows the use of those descriptors in applications for non-experts in the pattern recognition field. The CMCT and ECMCT descriptors are presented and their performances are evaluated, using four public datasets. Five variations of those descriptors are also proposed (GistCMCT, GECMCT, GistCMCT-SM, ECMCT-SM e GECMCT-SM), obtained through their association with other approaches. The results achieved on four public datasets show that the proposed image representations are competitive and lead to an increase in the classification rates when compared to others descriptors.
63

Segmentação em imagens digitais de veículos obtidas por controladores eletrônicos de velocidade

Bittencourt, Anderson Luis Schvindt January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-21T05:47:33Z (GMT). No. of bitstreams: 1 198623.pdf: 1548366 bytes, checksum: d4e7bec7b3ab6aed830008e2b2b2187b (MD5) / Este trabalho apresenta o desenvolvimento de um método baseado em técnicas de tratamento de imagens e inteligência computacional, capaz de segmentar a área correspondente aos caracteres da placa de um veículo em imagens digitalizadas obtidas por controladores eletrônicos de velocidade. Nesse são abordados os principais aspectos teóricos das referidas áreas, entre eles os conceitos relativos à fisiologia da visão, imagens digitais, visão computacional e redes neurais artificiais, cujos conceitos dão o suporte necessário à tarefa de extrair e interpretar informações de imagens digitais. A tarefa de identificar automaticamente a informação contida nas placas de veículos em imagens digitalizadas compreende duas fases distintas de processamento. A primeira dessas fases consiste na segmentação da área da imagem em que estão localizados os caracteres da placa; e a segunda, no reconhecimento e obtenção do conteúdo semântico de tais caracteres. Nesta dissertação propõe-se uma contribuição baseada no uso de redes neurais do tipo perceptron de múltiplas camadas capazes de realizar a primeira das fases citadas.
64

Contribuições para o desenvolvimento de um sistema de visão aplicado ao monitoramento do desgate de ferramentas de corte - o sistema toolspy

Deschamps, Fernando January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-21T15:51:25Z (GMT). No. of bitstreams: 1 203609.pdf: 5632684 bytes, checksum: 0b63d2591765416e45a82afd6753571f (MD5) / A área de desenvolvimento de sistemas para o monitoramento do desgaste de ferramentas de corte vem recebendo grande atenção tanto do meio acadêmico quanto do meio industrial. A complexidade do assunto atrai o interesse da comunidade científica, ao passo que a redução de custos com menor desperdício de matéria-prima e ferramentas e o aumento da qualidade de produtos tornam esta área bastante atrativa aos olhos do setor produtivo. Duas são as principais abordagens para este problema: métodos indiretos, baseados na correlação de algum sinal proveniente do processo com o desgaste da ferramenta e os métodos diretos, baseados na avaliação do desgaste a partir da própria ferramenta. A utilização de um método direto, como o baseado em sistemas de visão, possibilita uma avaliação mais confiável do real estado da ferramenta, fornecendo medidas quantitativas e qualitativas do desgaste. Neste trabalho, o sistema TOOLSPY para o monitoramento do estado de ferramentas de corte é apresentado, sendo ênfase dada a sua cadeia de processamento de imagens e visão computacional e a estrutura do programa que implementa esta cadeia de processamento. O sistema descrito e proposto está em estado de testes e a ponto de poder ser validado através de parceriais com o setor industrial. A arquitetura IPFRAMEWORK bem como a cadeia de processamento de imagens e visão computacional do sistema e os diversos módulos montados para a implementação da mesma junto à biblioteca S2ILIB são apresentados e discutidos. Resultados da aplicação da estrutura IPFRAMEWORK ao programa do sistema TOOLSPY e os resultados obtidos com este na medição de pastilhas de torneamento são mostrados.
65

Desenvolvimento de uma metodologia de visão computacional para o auxílio no planejamento cirúrgico no implante de próteses endoluminais

Biasi, Herculano Haymussi de January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T20:24:15Z (GMT). No. of bitstreams: 1 186201.pdf: 2995502 bytes, checksum: fc247eccf6b3f31c58d6738aaaaef000 (MD5) / O tratamento endoluminal tem evoluído de forma significativa, reduzindo enormemente os riscos do tratamento aneurismático. Essas técnicas de tratamento endoluminais poderiam ser ainda melhores se utilizassem um suporte computacional para uma clara e objetiva quantificação da patologia aneurismática. Em função das variações anatômicas entre pacientes existe a necessidade clara de um software específico para a mensuração das patologias vasculares tratáveis endoluminalmente a partir de volumes tomográficos no sentido de: a) prover dados para a escolha de uma prótese endovascular adequada dentre os modelos comercialmente disponíveis ou, caso não exista um modelo comercial adequado, b) prover dados quantitativos detalhados que permitam a um fabricante de endopróteses a confecção de uma prótese com diâmetro e curvatura adequados às especificidades anatômicas do paciente. Em função das deficiências da tecnologia atualmente empregada, faz-se necessário o desenvolvimento de um novo enfoque para o processamento de volumes tomográficos objetivando o planejamento cirúrgico endovascular. O trabalho aqui descrito objetivou o desenvolvimento de uma metodologia de visão computacinal e de uma ferramenta de software para o auxílio ao planejamento do tratamento endoluminal. Para o desenvolvimento inicial da tecnologia escolheu-se o aneurisma de aorta abdominal como área de aplicação. Deve-se atender às seguintes exigências principais. a) identificação de forma automática com exatidão e confiabilidade a luz e o tecido aneurismático da aorta abdominal e a luz das artérias femurais e ilíacas com base em um volume tomográfico; b) execução uma reconstrução tridimensional e exportação desses dados de reconstrução e mensuração em um formato que permita a visualização através de técnicas de realidade virtual e compartilhamento através da Internet e que possam ser utilizados para a confecção das próteses endovasculares; c) realização de forma automática e confiável a mensuração de diâmetro, volume e extensão de segmentos arteriais, independentemente de sua curvatura; d) conformidade com o padrão DICOM 3.0 e independência de plataforma.
66

Reconhecimento de faces humanas através de técnicas de inteligência artificial aplicadas a formas 3D

Zimmermann, Antonio Carlos January 2003 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-20T15:29:52Z (GMT). No. of bitstreams: 0 / Esta tese propõe uma nova metodologia de reconhecimento de faces humanas. Diferente dos tradicionais métodos que empregam imagens bidimensionais e níveis de cinza, o paradigma aqui proposto utiliza a forma geométrica da face como parâmetro de avaliação e autenticação. Destacam-se como vantagens desta técnica o melhor desempenho principalmente frente aos problemas de iluminação e posicionamento espacial. Este trabalho engloba duas áreas de conhecimento distintas. A primeira, abordando aspectos da extração da forma tridimensional da face humana e a segunda o reconhecimento facial. A metodologia de extração da geometria baseia-se no método de Perfilometria de Fourier para obter a forma geométrica das faces. A metodologia de reconhecimento de faces divide-se em duas abordagens distintas: A primeira delas do tipo algorítmica, por Raciocínio Baseado em Casos - RBC empregando da distância de Hamming como medidor da similitude entre duas formas de faces e a segunda do tipo conexionista, baseando-se no emprego de Redes Neurais Artificiais #RNA do tipo Funções de Base Radiais - FBR, para a classificação das faces. O modelo de reconhecimento adotado nesta tese é o da verificação, onde o indivíduo se apresenta previamente e ao sistema é atribuída à tarefa de verificação da veracidade da identidade alegada. A inspiração biológica está totalmente presente neste trabalho, em primeiro lugar porque os seres humanos, no processo de reconhecimento de seus semelhantes, utilizam se das faces humanas e a forma da face é uma das grandezas identificadoras.Em segundo lugar porque as metodologias de reconhecimento inspiradas em Redes Neurais Artificiais são inerentemente paradigmas biológicos. Finalmente empregando uma grande base de faces humanas tridimensionais, são mostrados os resultados da aplicação dos paradigmas de verificação desenvolvidos, comparando-se os resultados obtidos através de uma análise detalhada.
67

Embedded landmark acquisition system for visual slam using star identification based stereo correspondence descriptor

Schulz, Victor Hugo January 2015 (has links)
Orientador : Prof. Dr. Eduardo Todt / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 13/04/2015 / Inclui referências / Resumo: O uso de câmeras como sensores principais em Localização e Mapeamento Simultâneos (Simultaneous Localization and Mapping), o que é denominado SLAM Visual (Visual SLAM), tem crescido recentemente devido à queda nos preços das câmeras. Ao mesmo tempo em que imagens trazem informações mais ricas do que outros sensores típicos empregados em aplicações SLAM, como lasers e sonares, há um custo adicional de processamento significativo quando elas são utilizadas. A informação de profundidade adicional proveniente de configurações estéreo de câmeras às fazem mais interessantes para aplicações SLAM. Nesta abordagem em especial, grande parte do custo de processamento adicional vem da extração de pontos únicos ou pedaços em ambas as imagens em estéreo e da solução do problema de correspondência entre eles. Com posse dessa informação, a disparidade horizontal entre o par de imagens pode ser utilizada para recuperar a informação de profundidade. Esse trabalho explora a utilização de uma plataforma embarcada do tipo system-ona- chip (SoC) que integra um processador ARM multinúcleo com lógica FPGA como um módulo de processamento para visão estéreo. O detector de cantos Harris e Stephens (Harris & Stephens, 1988) é usado para encontrar pontos de interesse (Points of Interest, POIs) em imagens estéreo em um coprocessador soft sintetizado no FPGA para acelerar a extração de características e livrar o processador principal deste processo altamente paralelizável. As tarefas restantes tais como correção das imagens pela calibração de câmeras, encontrar um descritor único para as características detectadas e a correspondência entre os POIs no par de imagens estéreo são solucionadas em software executando no processador principal. A arquitetura proposta para o coprocessador permite que a tarefa de extração de cantos seja executada em aproximadamente metade do tempo necessário pelo processador principal sem auxílio algum. Após encontrar os POIs, para cada um dos pontos um descritor único é necessário para que seja possível encontrar o POI correspondente na outra imagem. Esse trabalho também propõe um descritor inovador que considera o relacionamento espacial bidimensional global entre os pontos detectados para descrevê-los individualmente. Para cada imagem, cada ponto da nuvem de pontos detectada pelo algoritmo de Harris e Stephens é descrito considerando-se apenas as posições relativas entre ele e seus vizinhos. Quando somente a posição é considerada, um padrão de céu estrelado noturno é formado pelos POIs. Com o padrão de POIs sendo considerado como estrelas, descritores já utilizados em problemas de identificação de estrelas podem ser reaplicados para identificar unicamente POIs. Um protótipo do descritor baseado do algoritmo de grade de Padgett e KreutzDelgado (Padgett & KreutzDelgado, 1997) é escrito e seus resultados comparados com os descritores normalmente utilizados para este propósito, mostrando que a informação espacial bidimensional pode ser utilizada por si só para resolver o problema de correspondência. O número de correspondências úteis é comparável ao atingido com o SIFT, o descritor com melhor desempenho neste quesito, enquanto a velocidade foi superior ao BRIEF, o descritor mais rápido utilizado na comparação, na plataforma ARM, com um speedup de 1,64 e 1,40 nas bases de dados dos testes. Palavras-chave: Harris; FPGA; SLAM; Hardware Reconfigurável; VHDL; Processamento de Imagem; Visão Estéreo; Computer Vision; Arquitetura Híbrida; Sistemas Embarcados; Pontos de Interesse; Keypoints; Correspondência; Correspondência Estéreo; Identificação de Estrelas; Descrição de Características; Percepção de Profundidade. / Abstract: The use of cameras as the main sensors in Simultaneous Localization and Mapping, what is called Visual SLAM, has risen recently due to the fall in camera prices. While images bring richer information than other typical SLAM sensors, such as lasers and sonars, there is significant extra processing cost when they are used. The extra depth information available from stereo camera setups makes them preferable for SLAM applications. In this particular approach, great part of the added processing cost comes from extracting unique points or image patches in both stereo images and solving the correspondence problem between them. With this information, the horizontal disparity between the pair can be used to retrieve depth information. This work explores the use of an embedded system-on-a-chip (SoC) platform that integrates a multicore ARM processor with FPGA fabric as a stereo vision processing module. The Harris and Stephens corner detector (Harris & Stephens, 1988) is used to find Point of Interests (POIs) in stereo images in a hardware soft co-processor synthesized in the FPGA to speed up feature extraction and relieve this highly parallelizable process from the main embedded processor. Remaining tasks such as image correction from camera calibration, finding unique descriptor for the detected features and the correspondence between POIs in the stereo pair are solved in software running on the main processor. The proposed architecture for the co-processor enabled the corner extraction task to be performed in about half the time taken by the main processor without aid. After finding the POIs, for each point a unique descriptor is needed for finding the correspondent POI in the other image. This work also proposes an innovative descriptor that considers a global two-dimensional spatial relationship between the detected points to describe them individually. In each image, every point in the cloud of points detected by the Harris and Stephens algorithm is described by considering only the relative position between it and its neighbors. When position alone is considered, a starry night pattern is formed by the POIs. With the POI pattern being considered as stars, the descriptors already used in star identification problems can be reapplied to uniquely identify POIs. A prototype of the descriptor based on the Padgett and KreutzDelgado's grid algorithm (Padgett & KreutzDelgado, 1997) is written and the results compared with common descriptors used for this purpose, showing that two-dimensional spatial information alone can be used to solve the correspondence problem. The number of useful matches was comparable to what was obtained with SIFT, the best performing descriptor in this matter, while the speed was superior to BRIEF, the fastest descriptor used in the comparison, on the ARM platform, with a speedup of 1.64 and 1.40 on the tested datasets. Keywords: Harris; FPGA; SLAM; Reconfigurable Hardware; VHDL; Image Processing; Stereo Vision; Computer Vision; Hybrid Architecture; Embedded Systems; Point Of Interest; Keypoints; Matching; Stereo Correspondence; Star Identification; Feature Description; Depth Perception.
68

Processamento de fotomicrografias por meio da transformada wavelet starlet

Siqueira, Alexandre Fioravante de [UNESP] 23 February 2015 (has links) (PDF)
Made available in DSpace on 2015-08-20T17:09:45Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-23. Added 1 bitstream(s) on 2015-08-20T17:26:29Z : No. of bitstreams: 1 000837544.pdf: 4548876 bytes, checksum: d50c957c71c1497ccdc64d03f717ca8f (MD5) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Microscopias têm sido utilizadas para avaliação da morfologia de diferentes estruturas de materiais. Entretanto, seus resultados podem ser afetados por vários fatores externos. Técnicas de processamento de imagens podem ser empregadas para atenuar esses fatores, aprimorando os resultados. Neste estudo é proposto um método de segmentação de fotomicrografias em vários níveis, denominado Segmentação Starlet Multinível (MLSS), fundamentado na transformada walvelet starlet, uma walvelet não-decimada. A escolha de um nível ótimo de segmentação se dá pela técnica de nome Segmentação Starlet Ótima Multinível (MLSOS), que se baseia nos resultados da MLSS e no coeficiente de correlação de Matthews (MCC) faz a comparação entre as segmentações obtidas e imagens ground truth, elegendo a melhor segmentação para a imagem de entrada. Os métodos são avaliados pelos valores de precisão, sensibilidade e exatidão. MLSS e MLSOS deram origem ao software livre Jansen-MIDAS, voltando ao uso dessas técnicas pelo usuário final. O programa foi utilizado na separação de elementos em imagens de diferentes materiais, a saber: nanoportículas de ouro em amostras de borracha natural traços de fissão em cristais de epídoto. Nessas aplicações, o método proposto apresentou exatidão maior que 87% para as imagens de teste / Microscopies have been used for morphology evaluation of different materials structures. However, their results can be affected by several external factors. Image processing techniques can be used to attenuate these factors, improving the results. In this study we propose a method for segmentation of photomicrographs, denominated Multi-Level Startelet Segmentation (MLSS), based on the starlet wavelet transform. The choise of an optimal segmentation level is given by Multi-Level Optimal Segmentation (MLSOS), that uses MLSS results and the Matthews correlation coefficient (MCC). MCC compares the obtained segmentations and ground truth images, choosing the best segmentation for the input image. MLSS and MLSOS are evaluated using precision, recall and accuracy. Jansen-MIDAS, an open-source software from these methods, allows using MLSS and MLSOS by the end user. This software was employed in the separation of elements in images of different materials, namely gold nanoparticles in natural rubber samples and fission tracks in epidote crystals. In these applications, the proposed method presented accuracy higher than 87% for all test images / FAPESP: 11/09438-3
69

Visão estéreo para auxílio à navegação autônoma em ambientes agrícolas

Trentini, Vinicius Bergoli [UNESP] 02 February 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:25:00Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-02. Added 1 bitstream(s) on 2015-09-17T15:46:50Z : No. of bitstreams: 1 000845659.pdf: 1520527 bytes, checksum: 1392f882a0b143c7225dac78caa33eeb (MD5) / Com o objetivo de atingir a maior produtividade possível, a agricultura de precisão tenta utilizar as melhores técnicas da agricultura tradicional combinadas com equipamentos muito eficientes em suas funções específicas. No contexto da visão computacional, o desenvolvimento de um sistema autônomo de navegação voltado para ambientes agrícolas rurais e externos, possui, além das dificuldades encontradas em ambientes fechados e controlados, adversidades características, tais como terrenos irregulares e problemas com a iluminação não controlada. Com a utilização de visão estéreo para navegação em um ambiente externo agrícola é possível, por meio da geração do mapa de disparidades e da matriz de disparidade V, verificar através de qual profundidade uma área é navegável com apenas uma cena, e ainda mapear anteparos e deformações durante o trajeto. Com base nesse mapeamento dos objetos, pode-se então desenvolver uma navegação livre de possíveis obstáculos. O objetivo desse trabalho foi, considerando-se um ambiente externo agrícola, mapear os objetos da cena de acordo com a sua profundidade, de forma que possa ser identificado um caminho livre para a navegação. Experimentos foram realizados utilizando-se uma base de dados própria, contendo 5.379 imagens capturadas em forma de sequências de vídeo, todas representando o ambiente selecionado para testes. A metodologia desenvolvida apresentou uma taxa de acerto de aproximadamente 92%, com resultados calculados em tempo real, provando-se portanto, ser uma técnica eficiente para a navegação autônoma em ambientes agrícolas e externos / efficient equipments on its specific functions. Considering the context of computer vision, the development of an autonomous navigation system aimed to external rural farming environments, considers, besides the difficulties faced on closed and controlled environments, which can be targeted as irregular lands and problems with not controlled lighting. By using the stereo vision to perform the navigation in an external farming environment is possible, through the creation of the disparity map, and the v-disparity matrix, verify through what depth an area is possible to be navigated with just one scene and still map the obstacles and deflections along the way. Therefore, calculating the disparity map of the observed scene, it is possible, using the v-disparity matrix, map the objects in the scene according to their depth. Based on the mapping of the objects it is possible to perform a obstructions free navigation along all the way. The aim of this study is, considering an external agricultural environment, map the objects in the scene according to their depth making it possible to identify an obstruction free navigation path. Experiments were performed using an own database, composed of 5.379 pictures in video sequence form, all representing the test's environment. The developed methodology showed an accuracy rate of approximately 92%, with results calculated in real time, proving itself, as an efficient technique for autonomous navigation in agricultural and external areas
70

Uma proposta para a classificação de ações humanas baseada nas carcterísticas do movimento e em redes neurais artificiais

Rocha, Thiago da 24 February 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, Programa de Pós-Graduação em Engenharia de Sistemas Eletrônicos e Automação, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-06-05T13:51:53Z No. of bitstreams: 1 2012_ThiagodaRocha.pdf: 4149743 bytes, checksum: e943bb5c2633ad1dc18db2f78cb73e4a (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-06-14T14:08:22Z (GMT) No. of bitstreams: 1 2012_ThiagodaRocha.pdf: 4149743 bytes, checksum: e943bb5c2633ad1dc18db2f78cb73e4a (MD5) / Made available in DSpace on 2012-06-14T14:08:22Z (GMT). No. of bitstreams: 1 2012_ThiagodaRocha.pdf: 4149743 bytes, checksum: e943bb5c2633ad1dc18db2f78cb73e4a (MD5) / A recente revolução tecnológica ocorrida nas últimas décadas nos proporcionou a disponibilização de computadores com grande capacidade de armazenamento e processamento. Além disso, também temos ao nosso alcance câmeras de vídeo com alta qualidade de captura de imagens. Este cenário nos permite criar, armazenar e distribuir grande quantidade de vídeos. Diversas áreas da sociedade, tais como, vigilância, controle de tráfego e entretenimento, tem demandado o desenvolvimento de novas técnicas e metodologias automatizadas de análise de vídeos, as quais são independentes da avaliação humana ou de buscas exaustivas pelos arquivos de vídeo. Aplicações naturais para estas áreas podem incluir: reconhecimento baseado em movimento, navegação veicular, vigilância automatizada, monitoramento de fluxo de veículos e pedestres, controle de qualidade em fábricas, indexação de vídeos e iteração homem-máquina. Neste trabalho propomos uma metodologia para o reconhecimento de ações humanas executadas em sequências de imagens usando Visão Computacional e Inteligência Computacional. Na etapa de Visão Computacional utilizamos uma combinação de duas técnicas de análise de movimento: Histograma de Fluxo Óptico Orientado e Análise de Contorno de Objetos. Na etapa de Inteligência Computacional nós utilizamos um Mapa-Auto Organizável (SOM, do inglês Self-Organizing Map) otimizado através da rede de Aprendizado por Quantização Vetorial (LVQ, do inglês Learning Vector Quantization). Testamos a metodologia proposta com uma base de dados que contém diferentes tipos de ações humanas. Por meio dos resultados obtidos e comparando-os com outras propostas encontradas na literatura, demonstramos a utilidade e a robustez da técnica. _______________________________________________________________________________ ABSTRACT / The technology evolution that we experienced over the last decades increased the availability of computers with high processing and storage capacity, and video cameras with high quality image capture. It made it easier to create, store and upload videos. Considering this scenario, the areas such as surveillance, traffic control and entertainment deal with increasingly high amounts of video information, and require the development of new methodologies and techniques for video analysis. The increase in the overall amount of available video has set a requirement for simpler video analysis, independent of human evaluation and exhaustive searches. Natural applications of automatic video analysis include: motion based recognition, vehicle navigation, surveillance automation, pedestrian and vehicle flow monitoring, quality control in factories, video indexing and man-machine interaction. In this work we develop and test a method for recognition of human actions in sequence of images using Computer Vision and Computational Intelligence. The Computer Vision stage is a combination of two motion analysis techniques: Histogram of Oriented Optical Flow and Object Contour Analysis. For the Computational Intelligence stage we use a Self-Organizing Map (SOM) optimized through Learning Vector Quantization (LVQ). We test the proposed method against a database with different kinds of human actions. From the results and comparing it to other proposals in the literature, we show the usefulness and robustness of this method.

Page generated in 0.0459 seconds