Spelling suggestions: "subject:"máquinas agrícola - automação"" "subject:"máquinas agrícola - utomação""
1 |
Sistema de visão artificial para discriminação entre plantas daninhas e milho / Machine vision system for automatic discrimination of weed and cornOrlando, Roberto Carlos 22 March 2003 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-02-20T18:31:41Z
No. of bitstreams: 1
texto completo.pdf: 837417 bytes, checksum: b9d9f56f2490f6fcf0d75f43abd0edcc (MD5) / Made available in DSpace on 2017-02-20T18:31:41Z (GMT). No. of bitstreams: 1
texto completo.pdf: 837417 bytes, checksum: b9d9f56f2490f6fcf0d75f43abd0edcc (MD5)
Previous issue date: 2003-03-22 / A agricultura de precisão busca adequar as práticas agrícolas às exigências e potencial produtivo de parcelas dos talhões, objetivando maximizar o lucro, racionalizar o uso dos fatores de produção e reduzir a contaminação ambiental. Esses objetivos estão condicionados ao desenvolvimento de técnicas capazes de operacionalizá-los. As técnicas de Visão Artificial podem trazer benefícios, principalmente, na racionalização do uso de herbicidas que é uma das maiores fontes de custos e de contaminação ambiental. O objetivo do presente trabalho foi desenvolver e avaliar um sistema para identificação de plantas daninhas e milho, utilizando imagens digitais coloridas e monocromáticas. Foram obtidas imagens de plantas de Picão Preto (Bidens pilosa L.), Leiteira, (Euphorbia heterophylla L.), Capim-milhã (Digitaria horizontalis Willd), Timbête (Cenchrus echinatus L.) e milho (Zea mays). Para a classificação das plantas utilizou-se análise textural com base na técnica da matriz de co-ocorrência de sub-blocos das imagens. Das matrizes de co- ocorrência retirou-se oito parâmetros texturais, os quais foram utilizados com dados de entrada em um classificador. Foram testados quatro classificadores (um estatístico e três neuroniais). Foram testados fatores que podem interferir na classificação automática de plantas daninhas por um sistema de visão artificial: três dimensões de sub-bloco da imagem (17 x 17, 34 x 34, 68 x 68 pixels), quatro níveis de valores numéricos de pixels (32, 64, 128 e 256 níveis), três alturas da câmera (1,32 m, 1,58 m, 2,04 m para a câmera CIR/RGB e 1,35, 1,61, 2,04 m para a monocromática) quatro tipos de imagens (verde, excesso de verde, falsa cor infravermelha e monocromática), três diferentes números de dias após a emergência (22 DAE, 25 DAE, 29 DAE) e quatro níveis de iluminação (600, 700, 800 e 900 W). Inicialmente foram fixadas as variáveis dias após a emergência (29 dias), nível de iluminação (900 W) e classificador estatístico para testar os parâmetros dimensões do sub-bloco, número de níveis de valores de pixel e altura da câmera somente para. As combinações de variáveis que apresentaram melhores exatidões na classificação foram escolhidas para definir o melhor tipo de imagem por meio da influência de diferentes níveis de iluminação. Por fim, comparou-se a performance dos quatro classificadores para os diferentes dias após a emergência. Os resultados obtidos indicaram que: a) Dadas as condições metodológicas do estudo, os melhores valores da exatidão global, em todas as combinações dos fatores estudados tenderam a ocorrer para o tamanho de sub-bloco 68 x 68 pixels; b) a variação dos níveis de cinza aparentemente não alterou a classificação, definindo-se pelo menor número de níveis (32 níveis); c) a altura da câmera de 2,04 m tendeu a resultar em melhores valores de exatidão global; d) para a câmera CIR/RGB a imagem que tendeu a apresentar os melhores resultados de exatidão global foi a imagem de excesso de verde; e) imagem monocromática tendeu a apresentar valores superiores a imagem excesso de verde da câmera CIR/RGB; f) O classificador neuronial com maior número de neurônios (arq10_10) aparentemente apresentou os melhores resultados de exatidão global tanto para a imagem monocromática (86,5%) como para a imagem excesso de verde (86,2%); g) As exatidões globais alcançadas pelo classificador estatístico tenderam a ser inferiores aos resultados obtidos pelo classificador neuronial para os dois tipos de imagens testadas, 77,5% e 80,1% para a imagem monocromática e excesso de verde, respectivamente. / Precision farming looks up to adjust the agricultural practices to the parcels demands and productive potential to maximize the profit, rationalize the use of the product factors and reduce the environmental damage. Those objectives are conditioned to the development of techniques capable of make them viable. Machine Vision techniques can bring benefits mainly in the rationing herbicides use. The herbicides are one of the largest sources of costs and environmental damage. The goal of the present work was to develop and evaluate a weeds and corn identification system, using color and monochromatic digital images. Images of plants of picão preto (Bidens pilosa L.), leiteira (Euphorbia heterophylla L.), capim-milhã (Digitaria horizontalis Willd) and timbête (Cenchrus echinatus L.) and corn (Zea mays) were obtained. Two of the weed species were crabgrass, Timbete and Capim-milhã, and the other two were broadleaf Picão Preto and leiteira. A co-occurrence matrix technique was used to classify sub-blocks of plant images. Eight textural features were obtained from the co-occurrence matrixes and used with input in four types of classifiers (one statistic and three neural). Some factors that can interfere in the automatic classification of weed plants for machine vision system were tested. The tested factors were: three block sizes (17 x 17 pixels, 34 x 34 pixels, 68 x 68 pixels), three bands of a RGB camera (green, green excess and near- infrared), two cameras (monochromatic and RGB), four grayscale levels (32, 64, 128 and 256 levels), three different days after the emergency (22 DAE, 25 DAE, 29 DAE), three distances of the camera (1,32 m, 1,58 m, 2,04 m) and four illumination levels (600, 700, 800 and 900 W). Initially the parameters sub-block size, the grayscale level and the camera height were defined to 29 days after the emergence, the illumination level of 900 W and statistical classifier. The parameter combinations that presented the best classification accuracy were choose to define the best kind of image by studing the influence of the different illumination levels. At the end, the four classifiers performance were compared to the different days after the emergence. The results indicated that: a) the better global accuracy, in all the studied factor combinations, occurred for 68 x 68 pixels block; b) the gray level variations apparently didn’t alter the classification, and the smalles level number (32 levels) was defined; c) the camera height of 2,04 m resulted in better values of global accuracy; d) for the CIR/RGB camera, the image that presented the best results of global accuracy was the green excess image; e) the monochromatic image presented superior values than the green excess image of the CIR/RGB camera; f) the neural classifier with the liggest number of neurons (arq 10-10) presented the best results of global accuracy for monochromatic image (86,5%) as well as for green excess image (86,2%); g) the global accuracy of the statistic classifier tend to be smaller than those of the neural classifier for the two kinds of image tested; 77,5% and 80,1% for monochromatic image and green excess, respectively. / Tese importada do Alexandria
|
Page generated in 0.0777 seconds