261 |
Reconhecimento de gestos usando segmentação de imagens dinâmicas de mãos baseada no modelo de mistura de gaussianas e cor de pele / Gesture recognizing using segmentation of dynamic hand image based on the mixture of Gaussians model and skin colorHebert Luchetti Ribeiro 01 September 2006 (has links)
O objetivo deste trabalho é criar uma metodologia capaz de reconhecer gestos de mãos, a partir de imagens dinâmicas, para interagir com sistemas. Após a captação da imagem, a segmentação ocorre nos pixels pertencentes às mãos que são separados do fundo pela segmentação pela subtração do fundo e filtragem de cor de pele. O algoritmo de reconhecimento é baseado somente em contornos, possibilitando velocidade para se trabalhar em tempo real. A maior área da imagem segmentada é considerada como região da mão. As regiões detectadas são analisadas para determinar a posição e a orientação da mão. A posição e outros atributos das mãos são rastreados quadro a quadro para distinguir um movimento da mão em relação ao fundo e de outros objetos em movimento, e para extrair a informação do movimento para o reconhecimento de gestos. Baseado na posição coletada, movimento e indícios de postura são calculados para reconhecimento um gesto significativo. / The purpose of this paper is to develop a methodology able to recognize hand gestures from dynamic images to interact with systems. After the image capture segmentation takes place where pixels belonging to the hands are separated from the background based on skin-color segmentation and background extraction. The image preprocessing can be applied before the edge detection. The recognition algorithm uses edges only; therefore it is quick enough for real time. The largest blob from the segmented image will be considered as the hand region. The detected regions are analyzed to determine position and orientation of the hand for each frame. The position and other attributes of the hands are tracked per frame to distinguish a movement from the hand in relation to the background and from other objects in movement, and to extract the information of the movement for the recognition of dynamic gestures. Based in the collected position, movement and indications of position are calculated to recognize a significant gesture.
|
262 |
Identificação automatizada de espécies de abelhas através de imagens de asas. / Automated bee species identification through wing images.Felipe Leno da Silva 19 February 2015 (has links)
Diversas pesquisas focam no estudo e conservação das abelhas, em grande parte por sua importância para a agricultura. Entretanto, a identicação de espécies de abelhas vem sendo um impedimento para a condução de novas pesquisas, já que demanda tempo e um conhecimento muito especializado. Apesar de existirem diversos métodos para realizar esta tarefa, muitos deles são excessivamente custosos, restringindo sua aplicabilidade. Por serem facilmente acessíveis, as asas das abelhas vêm sendo amplamente utilizadas para a extração de características, já que é possível aplicar técnicas morfométricas utilizando apenas uma foto da asa. Como a medição manual de diversas características é tediosa e propensa a erros, sistemas foram desenvolvidos com este propósito. Entretanto, os sistemas ainda possuem limitações e não há um estudo voltado às técnicas de classificação que podem ser utilizadas para este m. Esta pesquisa visa avaliar as técnicas de extração de características e classificação de modo a determinar o conjunto de técnicas mais apropriado para a discriminação de espécies de abelhas. Nesta pesquisa foi demonstrado que o uso de uma conjunção de características morfométricas e fotométricas obtêm melhores resultados que o uso de somente características morfométricas. Também foram analisados os melhores algoritmos de classificação tanto usando somente características morfométricas, quanto usando uma conjunção de características morfométricas e fotométricas, os quais são, respectivamente, o Naïve Bayes e o classificador Logístico. Os Resultados desta pesquisa podem guiar o desenvolvimento de novos sistemas para identificação de espécies de abelha, objetivando auxiliar pesquisas conduzidas por biólogos. / Several researches focus on the study and conservation of bees, largely because of its importance for agriculture. However, the identification of bee species has hampering new studies, since it demands a very specialized knowledge and is time demanding. Although there are several methods to accomplish this task, many of them are excessively costly, restricting its applicability. For being accessible, the bee wings have been widely used for the extraction of features, since it is possible to apply morphometric techniques using just one image of the wing. As the manual measurement of various features is tedious and error prone, some systems have been developed for this purpose. However, these systems also have limitations, and there is no study concerning classification techniques that can be used for this purpose. This research aims to evaluate the feature extraction and classification techniques in order to determine the combination of more appropriate techniques for discriminating species of bees. The results of our research indicate that the use of a conjunction of Morphometric and Pixel-based features is more effective than only using Morphometric features. OuranalysisalsoconcludedthatthebestclassicationalgorithmsusingbothonlyMorphometric features and a conjunction of Morphometric and Pixel-based features are, respectively, Naïve Bayes and Logistic classier. The results of this research can guide the development of new systems to identify bee species in order to assist in researches conducted by biologists.
|
263 |
METODOLOGIA DE DETECÇÃO E RECONHECIMENTO DE SEMÁFOROS UTILIZANDO REDES NEURAIS ARTIFICIAIS / METHODOLOGY OF DETECTION AND RECOGNITION OF SEMAPHORES USING ARTIFICIAL NEURAL NETWORKSSOARES, Julio Cesar da Silva 22 March 2016 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-04-24T13:52:10Z
No. of bitstreams: 1
Julio Cesar da Silva Soares.pdf: 1645821 bytes, checksum: e32d7384c0a6f1999bc7eb190dcd7a05 (MD5) / Made available in DSpace on 2017-04-24T13:52:10Z (GMT). No. of bitstreams: 1
Julio Cesar da Silva Soares.pdf: 1645821 bytes, checksum: e32d7384c0a6f1999bc7eb190dcd7a05 (MD5)
Previous issue date: 2017-03-22 / FAPEMA / Urban roads are very complex. The increase in the flow of vehicles in the cities has
contributed to traffic accidents. Researches for accident reduction show that the traffic lights
are effective in reducing accidents. Traffic lights can minimize the occurrence of accidents at
intersections and crosswalks. The implementation of traffic light signals shows significant
advantages, otherwise reveals some problems such as the failure to detect road signs by
drivers on urban roads. This fact is related to excessive visual information, the stress of the
drivers and/or eyestrain makes the drivers lose their attention. These reasons motivated
researches about intelligent vehicles. This work aims to develop a methodology to detect and
recognize traffic lights, to be applied in smart vehicles. This methodology can contribute to
the Advanced Driver Support Systems (ADAS), which assists drivers, especially those with
partial vision impairment.
Image processing techniques are used to develop the detection methodology. Back project and
global thresholding are combined to find light points. Local thresholding techniques are
applied to calculate the symmetry between the radius and the center of the light points to
segment the traffic light body. The first step got an average rate of 99% of detection. The
features of the traffic lights are extracted using Haralick texture measures, with the inclusion
of color and shape information. The data generated by the feature extraction step were preprocessed using the SMOTE technique to balance the database. The recognition and
identification of the traffic lights state are made by an artificial neural network using
Multilayer-Perceptron (MLP). The backpropagation learning algorithm are used in the
network training. The validation results show an average recognition rate of 98%. / As vias urbanas estão cada vez mais complexas e o acréscimo no fluxo de veículos nas
cidades de médio e grande porte vem contribuindo para a elevação do número de acidentes.
Pesquisas apontam que os sinais de trânsito são eficientes na redução do número de acidentes.
A implantação de sinais de trânsito apresentam vantagens relevantes, mas por outro lado
revelam alguns problemas, como a dificuldade na detecção de sinais de trânsito pelos
condutores em vias urbanas. Este fato está relacionado à quantidade de informações visuais
nas vias, ao estresse dos motoristas e/ou à fadiga visual destes, que fazem os motoristas
desviarem sua atenção da sinalização. Estas razões motivaram muitas pesquisas nos últimos
anos, sobre o tema veículos inteligentes. Assim, o presente trabalho propõe uma metodologia
para detectar e reconhecer semáforos de trânsito para ser aplicada em veículos inteligentes,
podendo contribuir para os Advanced Driver Support Systems - ADAS (Sistema Avançado de
Auxílio ao Motorista), e que auxilie os motoristas, em especial aqueles com deficiência
parcial da visão. Além disso, o sistema desenvolvido é capaz de identificar o estado do
semáforo e indicar ao condutor se ele deve parar ou prosseguir, contribuindo assim para a
redução de acidentes de transito.
Para o desenvolvimento do algoritmo de detecção, utilizaram-se técnicas de processamento de
imagens, através de histograma retroprojetado e limiarização global para detectar pontos de
luzes. A limiarização local é aplicada para o cálculo de simetria entre o raio e o centro dos
pontos de luzes, com a finalidade de segmentar o corpo do semáforo, onde se obteve uma taxa
média de detecção de 99%. As características dos semáforos foram extraídas utilizando os
atributos de Haralick, com a inclusão de informações de cor e forma. Os dados gerados pela
extração de características foram pré-processados utilizando a técnica de SMOTE para
balancear a base de dados. O reconhecimento e a identificação do estado do semáforo foram
realizados por uma rede neural artificial do tipo Multilayer Perceptron (MLP). No
treinamento da rede se utilizou o algoritmo de aprendizagem backpropagation e a separação
de dados para treinamento e validação. Os resultados da validação mostraram uma taxa média
de reconhecimento de 98%.
|
264 |
Identificação automatizada de espécies de abelhas através de imagens de asas. / Automated bee species identification through wing images.Silva, Felipe Leno da 19 February 2015 (has links)
Diversas pesquisas focam no estudo e conservação das abelhas, em grande parte por sua importância para a agricultura. Entretanto, a identicação de espécies de abelhas vem sendo um impedimento para a condução de novas pesquisas, já que demanda tempo e um conhecimento muito especializado. Apesar de existirem diversos métodos para realizar esta tarefa, muitos deles são excessivamente custosos, restringindo sua aplicabilidade. Por serem facilmente acessíveis, as asas das abelhas vêm sendo amplamente utilizadas para a extração de características, já que é possível aplicar técnicas morfométricas utilizando apenas uma foto da asa. Como a medição manual de diversas características é tediosa e propensa a erros, sistemas foram desenvolvidos com este propósito. Entretanto, os sistemas ainda possuem limitações e não há um estudo voltado às técnicas de classificação que podem ser utilizadas para este m. Esta pesquisa visa avaliar as técnicas de extração de características e classificação de modo a determinar o conjunto de técnicas mais apropriado para a discriminação de espécies de abelhas. Nesta pesquisa foi demonstrado que o uso de uma conjunção de características morfométricas e fotométricas obtêm melhores resultados que o uso de somente características morfométricas. Também foram analisados os melhores algoritmos de classificação tanto usando somente características morfométricas, quanto usando uma conjunção de características morfométricas e fotométricas, os quais são, respectivamente, o Naïve Bayes e o classificador Logístico. Os Resultados desta pesquisa podem guiar o desenvolvimento de novos sistemas para identificação de espécies de abelha, objetivando auxiliar pesquisas conduzidas por biólogos. / Several researches focus on the study and conservation of bees, largely because of its importance for agriculture. However, the identification of bee species has hampering new studies, since it demands a very specialized knowledge and is time demanding. Although there are several methods to accomplish this task, many of them are excessively costly, restricting its applicability. For being accessible, the bee wings have been widely used for the extraction of features, since it is possible to apply morphometric techniques using just one image of the wing. As the manual measurement of various features is tedious and error prone, some systems have been developed for this purpose. However, these systems also have limitations, and there is no study concerning classification techniques that can be used for this purpose. This research aims to evaluate the feature extraction and classification techniques in order to determine the combination of more appropriate techniques for discriminating species of bees. The results of our research indicate that the use of a conjunction of Morphometric and Pixel-based features is more effective than only using Morphometric features. OuranalysisalsoconcludedthatthebestclassicationalgorithmsusingbothonlyMorphometric features and a conjunction of Morphometric and Pixel-based features are, respectively, Naïve Bayes and Logistic classier. The results of this research can guide the development of new systems to identify bee species in order to assist in researches conducted by biologists.
|
265 |
Reconhecimento de gestos usando segmentação de imagens dinâmicas de mãos baseada no modelo de mistura de gaussianas e cor de pele / Gesture recognizing using segmentation of dynamic hand image based on the mixture of Gaussians model and skin colorRibeiro, Hebert Luchetti 01 September 2006 (has links)
O objetivo deste trabalho é criar uma metodologia capaz de reconhecer gestos de mãos, a partir de imagens dinâmicas, para interagir com sistemas. Após a captação da imagem, a segmentação ocorre nos pixels pertencentes às mãos que são separados do fundo pela segmentação pela subtração do fundo e filtragem de cor de pele. O algoritmo de reconhecimento é baseado somente em contornos, possibilitando velocidade para se trabalhar em tempo real. A maior área da imagem segmentada é considerada como região da mão. As regiões detectadas são analisadas para determinar a posição e a orientação da mão. A posição e outros atributos das mãos são rastreados quadro a quadro para distinguir um movimento da mão em relação ao fundo e de outros objetos em movimento, e para extrair a informação do movimento para o reconhecimento de gestos. Baseado na posição coletada, movimento e indícios de postura são calculados para reconhecimento um gesto significativo. / The purpose of this paper is to develop a methodology able to recognize hand gestures from dynamic images to interact with systems. After the image capture segmentation takes place where pixels belonging to the hands are separated from the background based on skin-color segmentation and background extraction. The image preprocessing can be applied before the edge detection. The recognition algorithm uses edges only; therefore it is quick enough for real time. The largest blob from the segmented image will be considered as the hand region. The detected regions are analyzed to determine position and orientation of the hand for each frame. The position and other attributes of the hands are tracked per frame to distinguish a movement from the hand in relation to the background and from other objects in movement, and to extract the information of the movement for the recognition of dynamic gestures. Based in the collected position, movement and indications of position are calculated to recognize a significant gesture.
|
266 |
Impacto da redução de taxa de transmissão de fluxos de vídeos na eficácia de algoritmo para detecção de pessoas. / Impact of reducing transmission rate of video streams on algorithm effectiveness for people detection.BARBACENA, Marcell Manfrin. 18 April 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-04-18T15:01:39Z
No. of bitstreams: 1
MARCELL MANFRIN BARBACENA - DISSERTAÇÃO PPGCC 2014..pdf: 1468565 bytes, checksum: b94d20ffdace21ece654986ffd8fbb63 (MD5) / Made available in DSpace on 2018-04-18T15:01:39Z (GMT). No. of bitstreams: 1
MARCELL MANFRIN BARBACENA - DISSERTAÇÃO PPGCC 2014..pdf: 1468565 bytes, checksum: b94d20ffdace21ece654986ffd8fbb63 (MD5)
Previous issue date: 2014 / Impulsionadas pela crescente demanda por sistemas de segurança para proteção do indivíduo e da propriedade nos dias atuais, várias pesquisas têm sido desenvolvidas com foco na implantação de sistemas de vigilância por vídeo com ampla cobertura. Um dos problemas de pesquisa em aberto nas áreas de visão computacional e redes de computadores envolvem a escalabilidade desses sistemas, principalmente devido ao aumento do número de câmeras transmitindo vídeos em tempo real para monitoramento e processamento. Neste contexto, o objetivo geral deste trabalho é avaliar o impacto que a redução da taxa de transmissão dos fluxos de vídeos impõe na eficácia dos algoritmos de detecção de pessoas utilizados em sistemas inteligentes de videovigilância. Foram realizados experimentos utilizando vídeos em alta resolução no contexto de vigilância com tomadas externas e com um algoritmo de detecção de pessoas baseado em histogramas de gradientes orientados, nos quais se coletou, como medida de eficácia do algoritmo, a métrica de área sob a curva de precisão e revocação para, em sequência, serem aplicados os testes estatísticos de Friedman e de comparações múltiplas com um controle na aferição das hipóteses levantadas. Os resultados obtidos indicaram que é possível uma redução da taxa de transmissão em mais de 70% sem que haja redução da eficácia do algoritmo de detecção de pessoas. / Motivated by the growing demand for security systems to protect persons and properties in
the nowadays, several researches have been developed focusing on the deployment of widearea
video coverage surveillance systems. One open research problem in the areas of
computer vision and computer networks involves the scalability of these systems, mainly due
to the increasing number of cameras transmitting real-time video for monitoring and
processing. In this context, the aim of this study was to evaluate the impact that transmission
data-rate reduction of video streams imposes on the effectiveness of people detection
algorithms used in intelligent video surveillance systems. With a proposed experimental
design, experiments were performed using high-resolution wide-area external coverage video
surveillance and using an algorithm for people detection based on histograms of oriented
gradients. As a measure of effectiveness of the people detection algorithm, the metric of area
under the precision-recall curve was collected and statistical tests of Friedman and multiple
comparisons with a control were applied to evaluate the hypotheses. The results indicated that
it is possible to reduce transmission rate by more than 70% without decrease in the
effectiveness of the people detection algorithm.
|
267 |
Um método computacional livre de modelo esquelético para rastreamento e reconstrução em tempo real de múltiplos marcadores em sistemas de captura de movimento ópticosFurtado, Daniel Antônio 07 March 2013 (has links)
Universidade de Uberaba / In the past years, motion capture has been widely used in many application areas. In movies and games, motion capture is frequently employed to animate virtual characters. In sports, motion capture and analyses focus on optimizing movements of athletes and injury prevention. More applications areas include medicine, military and engineering. Motion capture can be accomplished by several technologies. However, optical marker-based systems are considered the gold standard of the motion capture field. They can offer high precision levels and flexibility to support most applications, but they are also the most expensive systems due to high costs of hardware and software. Although low-cost optical systems have been proposed in the last decade, these systems cannot provide enough precision, flexibility, automatism and/or real-time capability for a number of applications. In this context, the present research aims to develop a complete and high precision approach to track and reconstruct a cloud of independent markers, in real time, using multiple infrared specialized cameras. The proposed method includes a set of relatively simple algorithms which are part of a three-stage procedure. These stages work on the tracking and matching of the image points and spatial reconstruction of the marker trajectories. In order to evaluate the method, a prototype software has been implemented and experiments were performed using a pack of eight infrared cameras. The NaturalPoint s OptiTrack system, which includes the Arena software, was used as a reference system. In the experiments, the proposed technique was able to successfully track and reconstruct a set of 38 reflective markers in real time. When compared to the commercial software, the method performed better for automatically maker tracking. In addition, the reconstructed trajectories produced by the prototype software were far less contaminated by noise than the trajectories generated by the Arena software. The proposed method should encourage the development of new high performance systems at a more affordable price. / Nos últimos anos, os sistemas de captura de movimento vêm sendo aplicados em diversas áreas do conhecimento. A animação de personagens virtuais na indústria cinematográfica e a avaliação dos movimentos corporais em áreas da saúde e nos esportes são apenas algumas de suas diversas aplicações. Dos diferentes tipos de sistemas de captura de movimento existentes, os sistemas ópticos baseados em marcadores são reconhecidos como os mais avançados e os que oferecem níveis de precisão e flexibilidade suficientes para suportar o maior número de aplicações. Todavia, esses sistemas estão também entre os mais caros, devido ao alto preço dos elementos de hardware e software. As propostas de baixo custo existentes possuem limitações com relação à precisão, flexibilidade, automatismo e/ou velocidade de processamento, que as tornam inviáveis para uma considerável parcela de aplicações. Neste contexto, esta pesquisa propõe um método computacional completo, considerando as principais deficiências dos trabalhos existentes, para rastrear e reconstruir as trajetórias de uma nuvem de marcadores reflexivos independentes, em tempo real, utilizando múltiplas câmeras especializadas de infravermelho. A técnica proposta envolve um conjunto de algoritmos relativamente simples, os quais integram três etapas principais. Estas etapas realizam o rastreamento e o casamento dos pontos nas imagens e a reconstrução tridimensional das trajetórias dos marcadores. O método foi implementado em software e testado utilizando uma coleção de oito câmeras de infravermelho. Como referência, utilizou-se o software Arena e o sistema OptiTrack comercializado pela empresa NaturalPoint. Nos experimentos conduzidos, a técnica foi capaz de rastrear automaticamente um conjunto de 38 marcadores em tempo real. Comparada ao software comercial Arena, a técnica revelou uma melhor capacidade de rastreamento automático dos marcadores e ainda reconstruiu trajetórias com menor incidência de ruídos. O método proposto deve incentivar pesquisadores e empresas a desenvolverem sistemas de captura de movimento de alto desempenho e com menor custo. / Doutor em Ciências
|
268 |
Reconhecimento de produtos por imagem utilizando palavras visuais e redes neurais convolucionais / Image recognition of products using bag of visual words and convolutional neural networksJuraszek, Guilherme Defreitas 15 December 2014 (has links)
Made available in DSpace on 2016-12-12T20:22:53Z (GMT). No. of bitstreams: 1
Guilherme Defreitas Juraszek.pdf: 7449714 bytes, checksum: 9caf50824709b584d611d1086803286b (MD5)
Previous issue date: 2014-12-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The popularization of electronic devices like cameras and smartphones resulted in an increasing volume of images and videos available on the internet. This scenario allowed researchers to explore new search and retrieval techniques to use, not only the wide available text, but also extract information directly from images and videos. In this work three image recognition techniques have been compared, the Bag of Features or Bag of Visual Words (BOVW) using artificial descriptors, Convolutional Neural Networks (CNN) and CNN as a natural descriptor where the descriptors are obtained from a large pre-trained CNN in a different dataset. The techniques are applied in the image recognition problem using image analysis. Those techniques can be applied in products
search applications using smartphones, smart glasses, products recognition in videos and others. The BOVW technique is demonstrated using the artificial descriptors SIFT, SURF and MSER, with dense and interest points based extraction. The algorithms KMeans and unsupervised Optimum-Path Forest (OPF-U) are used for clustering and supervised Optimum-Path Forest (OPF-S) and Support Vector Machines (SVM) are used for classification. The second technique uses a convolutional neural network (CNN) with three convolutional layers. The third technique uses the Overfeat, a large pre-trained CNN in the ImageNet dataset, for extraction of a characteristic vector of the new image dataset. This characteristic vector act as a natural descriptor and is then classified using OPF-S and SVM. The accuracy, total time of processing, time for clustering (KMeans and OPF-U), time for classification (OPF-S and SVM) are evaluated in the Caltech 101 dataset and in a dataset created by the author with images of products (Recog- Prod). It is evaluated how image size, category size and overall parameters affect the accuracy of the studied techniques. The results showed that the CNN (Overfeat), pre-trained in a different large dataset, used for extraction of the natural descriptor of the new dataset and trained with SVM achieved the best accuracy with 0.855 in the Caltech 101 dataset and 0.905 in the authors dataset. The CNN created and trained entirely by the author showed the second best result with the accuracy of 0.710, using the RGB color space in the authors dataset and 0.540 using the YUV color space in the Caltech 101 dataset. Both CNN, using RGB and YUV, showed similar accuracies but the CNN using YUV images took significant less time to be trained. The BOVW technique resulted in a accuracy lower than the preview techniques in both tested datasets. In the experiments using the author s dataset with different category sizes (5, 10, 15, 36) the CNN as a natural descriptor resulted in the best accuracy among the other tested techniques. The CNN as a natural descriptor is also the most robust, since as the number of the categories is increased, and resulted in a lower accuracy decay among the others. In the experiments with a dataset with 5 categories the CNN
as natural descriptor was able to recognize all the images correctly. / A popularização de equipamentos como câmeras e celulares equipados com câmeras resultou em um grande volume de informações no formato de imagens e vídeos disponibilizadas na internet. O crescimento no volume de informação digital disponível nestes formatos demanda a criação de novas soluções de buscas baseadas não apenas em texto, mas capazes de extraírem informações relevantes diretamente desses formatos de mídia. Neste trabalho são comparadas as técnicas de reconhecimento utilizando palavras visuais por meio de descritores artificiais Bag of Visual Words ou Bag of Features (BOVW), reconhecimento utilizando redes neurais convolucionais (CNN) e reconhecimento usando descritores naturais obtidos através de uma rede neural convolucional previamente treinada em uma base distinta. As técnicas são aplicadas no problema de reconhecimento de produtos a partir da análise de imagens. Tais técnicas podem ser aplicadas em uma ampla gama de sistemas como reconhecimento de produtos utilizando dispositivos móveis, obtenção de informações de produtos visualizados utilizando um óculos de realidade aumentada, reconhecimento de produtos em vídeos, entre outros. A técnica BOVW é demonstrada com base nos descritores artificiais SIFT, SURF e MSER com extração de características densa e por meio de pontos de interesse. São estudados os algoritmos KMeans e Floresta de Caminhos Ótimos não Supervisionada (OPFU) na etapa de agrupamento e Máquinas de Vetor de Suporte (SVM) e Floresta de Caminhos Ótimos Supervisionada (OPF-S) na etapa de classificação. A segunda técnica utiliza uma rede neural convolucional (CNN) de três camadas. Na terceira técnica é utilizada uma CNN, previamente treinada na base de imagens ImageNet, de cinco camadas convolucionais. A CNN previamente treinada é utilizada para a extração de um vetor de características do novo conjunto de imagens a ser analisado. Este vetor atua como um descritor natural e é classificado utilizando SVM e OPF-S. São avaliadas a acurácia, tempo de processamento total, tempo de processamento para agrupamento (KMeans e OPF-U), tempo de processamento para classificação das técnicas nas bases de imagens Caltech 101 e em uma base de imagens de produtos criada pelo autor (RecogProd). São avaliados ainda como o tamanho da imagens, quantidade de categorias e escolha dos parâmetros influenciam na acurácia do resultado. Os resultados mostram que a utilização de uma CNN (Overfeat), previamente treinada em uma grande base de imagens, como um descritor natural para extração de um vetor de características e treinamento de um classificador SVM, apresentou a melhor acurácia com 0,855 na base Caltech101 e 0,905 na base criada, RecogProd, em uma escala de 0 a 1. A CNN criada e treinada pelo autor apresentou o segundo melhor resultado com 0,710 utilizando o espaço de cores RGB na RecogProd e 0,540 utilizando o espaço de cores YUV na base Caltech101. A CNN treinada com imagens utilizando os espaço de cores RGB e YUV apresentaram acurácias muito próximas em ambas as bases de treinamento porém, o treinamento utilizando YUV foi muito mais rápido. A técnica BOVW apresentou uma acurácia inferior à CNN como descritor natural e a CNN em ambas as bases testadas. Nos experimentos, com diversos tamanhos de categorias (5, 10, 15 e 36) da RecogProd, a CNN como descritor natural apresentou novamente a melhor acurácia. Os resultados mostram ainda que, conforme o número de categorias é aumentado, a CNN como descritor natural apresentou uma queda menor na acurácia em relação às demais técnicas avaliadas. Foi observado ainda que em uma base com 5 categorias a CNN como descritor natural alcançou a acurácia de 1,0, sendo capaz de classificar todos os exemplos corretamente.
|
269 |
Seleção e classificação inteligente de mangas por análise de imagens. / Selection and classification intelligent of mango per image analysis.CARVALHO, Joelson Nogueira de. 04 June 2018 (has links)
Submitted by Emanuel Varela Cardoso (emanuel.varela@ufcg.edu.br) on 2018-06-04T18:57:23Z
No. of bitstreams: 1
JOELSON NOGUEIRA DE CARVALHO – TESE (PPGEP) 2015.pdf: 13948643 bytes, checksum: 489b4bafa76b44f12e75f8cdd9288f56 (MD5) / Made available in DSpace on 2018-06-04T18:57:23Z (GMT). No. of bitstreams: 1
JOELSON NOGUEIRA DE CARVALHO – TESE (PPGEP) 2015.pdf: 13948643 bytes, checksum: 489b4bafa76b44f12e75f8cdd9288f56 (MD5)
Previous issue date: 2015-03-09 / O Brasil está hoje inserido entre os principais produtores mundiais de frutas, onde a manga se apresenta como um importante componente da sua pauta de exportações; para manter -se na vanguarda desse mercado, multiplicam-se esforços no sentido de prover frutos de alta qualidade ao consumidor, onde os avanços na tecnologia da informação permitem o desenvolvimento de sistemas de automação para tarefas de suma importância que envolvem aspectos cognitivos, como a seleção e a classificação de frutas, o que garante um rendimento superior. Considerando essa premissa, este trabalho apresenta o desenvolvimento de um sistema de automação não destrutivo para classificação e seleção da manga Tommy Atkins, empregando um sistema de visão computacional associado a um sistema de aprendizagem de máquina, capaz de especificar e utilizar qualquer padrão comercial para avaliação pela cor e pela forma. A estimação de parâmetros como massa, volume, posição relativa do seu pedúnculo e outras informações relevantes são também impleme ntadas. Este sistema foi desenvolvido vislumbrando a possibilidade de ser implantado numa esteira de classificação de baixo custo, em benefício do pequeno produtor rural, onde a interface desenvolvida permite sua operação por operadores com pouca qualificação. / Brazil is today one of the major world producers of fruit, where the mango is presented as an important component of its exports. To remain at the forefront of this market, efforts are multiplied in order to provide the consumer high quality fruits, where advances in information technology allow the development of automation systems for tasks of major import ance involving cognitive aspects, such as selection and sorting of fruit, which ensures a higher yield. Given this premise, this paper presents the development of a non -destructive automation system for classification and selection of Tommy Atkins mango, employing a computer vision system associated with a machine learning system that can specify and use any trade standard for review by color and shape. The estimation of parameters such as mass, volume, position on the stem and other relevant information are also implemented. This system was developed glimpsing the possibility of being embedded into a low cost classification conveyor belt, for the benefit of small farmers, where the developed interface allows operation by operators with little qualification.
|
270 |
Códigos de barras bidimensionais com identificação de posição e orientação no espaço tridimensional / Two-dimensional barcodes with position and orientation identification in three-dimensional spaceAlcântara, Marlon Fernandes de 28 May 2012 (has links)
Made available in DSpace on 2016-12-12T17:38:31Z (GMT). No. of bitstreams: 1
Marlon Alcantara.pdf: 7618831 bytes, checksum: 4f3eda2c23fb87ff3373687e72470feb (MD5)
Previous issue date: 2012-05-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Barcodes, already common in commercial environments and supermarkets, are applied in various situations as a way to record and acquire data automatically and quickly, using electronic devices. Barcodes do not incorporate features that allow identification of their position and orientation during the reading process, these resources are essential in everal areas, such as Augmented Reality (AR) and Mobile Robotics (MR). This paper shows a survey of applications in AR and MR and it was observed that several technologies are used for data logging and acquisition of position and orientation, at the same time or not, such as sensors, cameras and maps. Therefore, we developed a barcode with capacity to acquire position and orientation in a three-dimensional space. The development of barcode enriched, called QRPO, was reached through the calculation of the Direct Linear Transformation on a standard two-dimensional barcode, like QR Code with square shape, which allowed the extraction of translation, rotation and scale parameters using the capture device as reference, in this case, a low-cost webcam. With this, we developed QRPO versions to be applied both in Augmented Reality (using no edge) and in Mobile Robotics (using an edge): for the first, we made programs and tests which validated the robustness and efficiency calculating the position and orientation, and correctness of reading data, for the second, we created a solution to the problem of exploring an unknown environment, called mouse-cheese problem, from its conception to the definition of the movement control strategy, passing through deployment and testing. This application demonstrated that it is possible, with a single camera, to conduct a mobile robot acquiring position, orientation and data efficiently and avoiding the use of additional sensors, only using the QRPO. Thus, the result of this work, the QRPO, represents a new enriched barcode with the capacity of data representation and acquisition of position and orientation with wide applicability. / Os códigos de barras, já comuns em ambientes comerciais e supermercados, são aplicados em diversas situações como meio de registrar e adquirir, automática e rapidamente, dados por meio de leitura por dispositivos eletrônicos. Os códigos de barras não incorporam recursos que permitam a identificação de sua posição e orientação nos momentos de leitura, recursos estes essenciais em diversas áreas, como a Realidade Aumentada (RA) e Robótica Móvel (RM). Este trabalho fez um levantamento das aplicações em RA e RM e constatou-se que diversas tecnologias são utilizadas para registro de dados e aquisição de posição e orientação, às vezes juntas e às vezes isolada, tais como sensores, câmeras e mapas. Por isto, foi desenvolvido um código de barras com capacidade de aquisição de posição e orientação no espaço tridimensional. A elaboração do código de barras enriquecido, denominado QRPO, foi alcançada por meio do cálculo da Transformada Linear Direta sobre um código de barra bidimensional padronizado, do tipo QR Code e com forma quadrada, o que permitiu a extração dos parâmetros de translação, rotação e escala com referência ao dispositivo de captura, no caso uma webcam de baixo custo. Com isto, foram desenvolvidas versões do QRPO para serem aplicadas tanto para Realidade Aumentada (sem uso de uma borda) quanto para Robótica Móvel (com o uso da borda): para a primeira, foram feitos programas e testes que validaram a robustez e eficiência no cálculo da posição e
orientação e a corretude na leitura de dados; para a segunda, foi elaborada uma solução para o problema de exploração de um ambiente desconhecido, denominado problema do rato-queijo , desde a sua concepção até a definição da estratégia de controle de movimentação, passando pela implantação e testes. Esta aplicação demonstrou que é possível com uma única câmera, conduzir um robô móvel adquirindo posição, orientação e dados de forma eficiente e dispensando o uso de sensores adicionais, apenas com o uso do QRPO. Assim, o resultado deste trabalho, o QRPO, representa um novo código de barras enriquecido com a capacidade de representação de dados e aquisição de posição e orientação e com ampla aplicabilidade.
|
Page generated in 0.0377 seconds