• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 262
  • 17
  • 4
  • 1
  • Tagged with
  • 285
  • 285
  • 229
  • 212
  • 67
  • 63
  • 61
  • 47
  • 47
  • 41
  • 39
  • 35
  • 35
  • 34
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Analysis and evaluation of optimization techniques for tracking in augmented reality applications

Teixeira, João Marcelo Xavier Natário 01 March 2013 (has links)
Real-time computer vision applications that run on the field and make frequent use of wearable computers have a critical restriction on the amount of processing they can perform, because of the fact that most (if not all) of the application runs on the wearable platform. A balancing scheme capable of allowing the application to use more processing power is fundamental both when input scenarios present more visual restrictions regarding, for example, the object to be tracked, and also to reduce processing in order to save battery and CPU time for other applications when the captured video is better controlled (more accessible). The fact that computer vision applications may run on a variety of platforms justifies the need for defining a model that automatically adjusts the tracker being used in applications with hard performance constraints. Performance degradation in wearable platforms can be greater than expected, as desktop and mobile platforms present different levels of hardware capabilities, and consequently, different performance restrictions. This doctoral thesis addresses the object tracking problem using a decision model, in such a way that prioritizes using the least computationally intensive algorithm whenever possible. It has the following specific objectives: to investigate and implement different tracking techniques, to choose/define a reference metric that can be used to detect image interference (occlusion, image noise, etc.), to propose a decision model that allows automatic switching of different trackers in order to balance the application's performance, and to reduce the application's workload without compromising tracking quality. The effectiveness of the system will be verified by synthetic case studies that comprise different object classes that can be tracked, focusing on augmented reality applications that can run on wearable platforms. Different tracking algorithms will be part of the proposed decision model. It will be shown that by switching among these algorithms, it is possible to reach a performance improvement of a factor of three, while keeping a minimum quality defined by a reprojection error of 10 pixels when compared to the use of only the best algorithm independent of its computational cost. This work results in better performance of applications with memory and battery restrictions. / Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T19:02:48Z No. of bitstreams: 2 Tese Joao Teixeira.pdf: 5813706 bytes, checksum: 85ed76e5022129077b181bca61f92678 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T19:02:48Z (GMT). No. of bitstreams: 2 Tese Joao Teixeira.pdf: 5813706 bytes, checksum: 85ed76e5022129077b181bca61f92678 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-03-01 / CAPES e CNPq / Aplicações de visão computacional em tempo real executadas em campo fazem uso frequente de computadores vestíveis, os quais apresentam uma restrição crítica na quantidade de processamento que podem suportar, uma vez que a maior parte da aplicação (se não sua totalidade) deverá executar na plataforma vestível. É fundamental um esquema de balanceamento de carga capaz de permitir que a aplicação utilize mais poder de processamento quando os cenários de entrada apresentam mais restrições visuais, por exemplo, referentes ao objeto a ser rastreado, e diminua tal processamento com o objetivo de economizar bateria e tempo de CPU em aplicações quando o vídeo capturado é mais controlado (mais acessível). O fato de aplicações de visão computacional executarem em uma variedade de plataformas justifica se definir um modelo que ajuste automaticamente o rastreador em uso em aplicações com restrições de recursos computacionais. A degradação de desempenho em plataformas vestíveis pode ser maior do que a esperada, uma vez que plataformas desktop e móvel apresentam diferentes níveis de configurações de hardware, e consequentemente, diferentes restrições de desempenho. Esta tese de doutorado soluciona o problema do rastreamento de objetos usando um modelo de decisão, objetivando utilizar o algoritmo menos custoso sempre que possível. Como objetivos específicos têm-se: investigar e implementar diferentes técnicas de rastreamento, para escolher/definir uma métrica de referência que possa ser usada para detectar interferência na imagem (oclusão, ruído, etc.), propor um modelo de decisão que permita chaveamento automático entre diferentes rastreadores visando balancear o desempenho da aplicação baseado na métrica escolhida, e diminuir a quantidade de processamento requerida pela aplicação sem comprometer a qualidade do rastreamento envolvido. A eficiência do sistema será verificada através de estudos de caso sintéticos que compreendem diferentes classes de objetos que podem ser rastreados, focando em aplicações de realidade aumentada que executam em plataformas vestíveis. Diferentes algoritmos de rastreamento farão parte do modelo de decisão e através do chaveamento entre eles, será demonstrado que é possível atingir uma melhoria no desempenho de até três vezes, mantendo uma qualidade mínima definida como erro de reprojeção de até 10 pixels quando comparado à utilização apenas do algoritmo que gera a melhor qualidade de rastreamento, independente do seu custo computacional. O impacto desse trabalho implicará em uma melhor qualidade de aplicações com restrições de quantidade de memória, carga de baterias, entre outras.
102

Processamento digital de imagens para análise do comportamento e bem-estar de frangos de corte

RODRIGUES, Tatiana Patrícia Nascimento da Silva 28 February 2017 (has links)
Submitted by Mario BC (mario@bc.ufrpe.br) on 2018-10-02T16:19:05Z No. of bitstreams: 1 Tatiana Patricia Nascimento da Silva Rodrigues.pdf: 1291364 bytes, checksum: ff9930db35eb8488c4ab320b1d2d8e6e (MD5) / Made available in DSpace on 2018-10-02T16:19:05Z (GMT). No. of bitstreams: 1 Tatiana Patricia Nascimento da Silva Rodrigues.pdf: 1291364 bytes, checksum: ff9930db35eb8488c4ab320b1d2d8e6e (MD5) Previous issue date: 2017-02-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The present research was conducted with the main objective of using computational vision techniques to develop a program that could identify, qualify and quantify the frequency of ingestive behavior expressed by broilers. And analyze the differences between the ingestive behavior regarding the factors age, production environment, sexing and lighting system, using stochastic tools of multivariate analysis. The validation of the software was performed by the result obtained from the visual analysis of a specialist, by means of linear regression analysis by the R platform. Based on the analyzes, it was verified that the coefficient of determination (R²) ranged from 0.74 to 0.97, for all validation events of the software, which shows good characterization of the ingestive behavior of broiler chickens by the computational view. Feeding behavior of broilers was influenced by the environment, especially in the morning and afternoon. The night was most evident the influence of the white LED lighting system, by the greater weight gain presented by the birds. The birds submitted to the lighting systems did not present behavioral changes during the day, because the incidence of solar radiation is greater than the illuminance promoted by the lighting system. The variation of the weight gain and live weight of the birds presented better response when the birds were exposed to a temperature of 27ºC, that is, 3 °C above the comfort condition recommended, for the 5th week of the breeding cycle. / A presente pesquisa foi conduzida com o objetivo principal de utilizar as técnicas de visão computacional para desenvolver um programa que permitisse identificar, qualificar e quantificar a frequência de comportamento ingestivo expressos por frangos de corte. E analisar as diferenças entre o comportamento ingestivo frente aos fatores idade, ambiente de produção, sexagem e sistema de iluminação, utilizando ferramentas estocásticas de análises multivariadas. A validação do software foi realizada pelo resultado obtido a partir da análise visual de um especialista, por meio de análise de regressão linear pela plataforma R. Com base nas análises, verificou-se que o coeficiente de determinação (R²) variou de 0,74 a 0,97, para todos os eventos de validação do software, o que evidencia boa caracterização do comportamento ingestivo de frangos de corte pela visão computacional. O comportamento alimentar dos frangos de corte foi influenciado pelo ambiente, principalmente no período da manhã e tarde. A noite foi mais evidente a influência do sistema de iluminação a base de LED branco, pelo maior ganho de peso apresentado pelas aves. As aves submetidas aos sistemas de iluminação não apresentaram alteração comportamental durante o dia, pelo fato da incidência da radiação solar ser maior que a iluminância promovida pelo sistema de iluminação. A variação do ganho de peso e peso vivo das aves apresentaram melhor resposta quando as aves foram expostas a temperatura de 27oC, ou seja, 3°C acima da condição de conforto recomenda, para 5ª semana do ciclo de criação.
103

Object detection and pose estimation from natural features for augmented reality in complex scenes

SIMOES, Francisco Paulo Magalhaes 07 March 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-29T16:49:07Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TeseFinal_fpms.pdf: 108609391 bytes, checksum: c84c50e3c8588d6c85e44f9ac6343200 (MD5) / Made available in DSpace on 2017-11-29T16:49:07Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TeseFinal_fpms.pdf: 108609391 bytes, checksum: c84c50e3c8588d6c85e44f9ac6343200 (MD5) Previous issue date: 2016-03-07 / CNPQ / Alignment of virtual elements to the real world scenes (known as detection and tracking) relying on features that are naturally present on the scene is one of the most important challenges in Augmented Reality. When it goes to complex scenes like industrial scenarios, the problem gets bigger with the lack of features and models, high specularity and others. Based on these problems, this PhD thesis addresses the question “How to improve object detection and pose estimation from natural features for AR when dealing with complex scenes problems?”. In order to answer this question, we need to ask ourselves “What are the challenges that we face when developing a new tracker for real world scenarios?”. We begin to answer these questions by developing a complete tracking system that tackles some characteristics typically found in industrial scenarios. This system was validated in a tracking competition organized by the most important AR conference in the world, called ISMAR. During the contest, two complementary problems to tracking were also discussed: calibration, procedure which puts the virtual information in the same coordinate system of the real world, and 3D reconstruction, which is responsible for creating 3D models of the scene to be used for tracking. Because many trackers need a pre-acquired model of the target objects, the quality of the generated geometric model of the objects influences the tracker, as observed on the tracking contest. Sometimes these models are available but in other cases their acquisition represents a great effort (manually) or cost (laser scanning). Because of this we decided to analyze how difficult it is today to automatically recover 3D geometry from complex 3D scenes by using only video. In our case, we considered an electrical substation as a complex 3D scene. Based on the acquired knowledge from previous experiments, we decided to first tackle the problem of improving the tracking for scenes where we can use recent RGB-D sensors during model generation and tracking. We developed a technique called DARP, Depth Assisted Rectification of Patches, which can improve matching by using rectified features based on patches normals. We analyzed this new technique under different synthetic and real scenes and improved the results over traditional texture based trackers like ORB, DAFT or SIFT. Since model generation is a difficult problem in complex scenes, our second proposed tracking approach does not depend on these geometric models and aims to track texture or textureless objects. We applied a supervised learning technique, called Gradient Boosting Trees (GBTs) to solve the tracking as a linear regression problem. We developed this technique by using image gradients and analyzing their relationship with tracking parameters. We also proposed an improvement over GBTs by using traditional tracking approaches together with them, like intensity or edge based features which turned their piecewise constant function to a more robust piecewise linear function. With the new approach, it was possible to track textureless objects like a black and white map for example. / O alinhamento de elementos virtuais com a cena real (definido como detecção e rastreamento) através de características naturalmente presentes em cena é um dos grandes desafios da Realidade Aumentada. Quando se trata de cenas complexas, como cenários industriais, o problema se torna maior com objetos pouco texturizados, alta especularidade e outros. Com base nesses problemas, esta tese de doutorado aborda a questão "Como melhorar a detecção de objetos e a estimativa da sua pose através de características naturais da cena para RA ao lidar com problemas de cenários complexos?". Para responder a essa pergunta, precisamos também nos perguntar: Quais são os desafios que enfrentamos ao desenvolver um novo rastreador para cenários reais?". Nesta tese, começamos a responder estas questões através da criação de um sistema de rastreamento completo que lida com algumas características tipicamente encontradas em cenários industriais. Este sistema foi validado em uma competição de rastreamento realizada na principal conferência de RA no mundo, chamada ISMAR. Durante a competição também foram discutidos dois problemas complementares ao rastreamento: a calibração, procedimento que coloca a informação virtual no mesmo sistema de coordenadas do mundo real, e a reconstrução 3D, responsável por criar modelos 3D da cena. Muitos rastreadores necessitam de modelos pré-adquiridos dos objetos presentes na cena e sua qualidade influencia o rastreador, como observado na competição de rastreamento. Às vezes, esses modelos estão disponíveis, mas em outros casos a sua aquisição representa um grande esforço (manual) ou custo (por varredura a laser). Devido a isto, decidimos analisar a dificuldade de reconstruir automaticamente a geometria de cenas 3D complexas usando apenas vídeo. No nosso caso, considerou-se uma subestação elétrica como exemplo de uma cena 3D complexa. Com base no conhecimento adquirido a partir das experiências anteriores, decidimos primeiro resolver o problema de melhorar o rastreamento para as cenas em que podemos utilizar sensores RGB-D durante a reconstrução e o rastreamento. Foi desenvolvida a técnica chamada DARP, sigla do inglês para Retificação de Patches Assistida por Informação de Profundidade, para melhorar o casamento de características usando patches retificados a partir das normais. A técnica foi analisada em cenários sintéticos e reais e melhorou resultados de rastreadores baseados em textura como ORB, DAFT ou SIFT. Já que a reconstrução do modelo 3D é um problema difícil em cenas complexas, a segunda abordagem de rastreamento não depende desses modelos geométricos e pretende rastrear objetos texturizados ou não. Nós aplicamos uma técnica de aprendizagem supervisionada, chamada Gradient Boosting Trees (GBTs) para tratar o rastreamento como um problema de regressão linear. A técnica foi desenvolvida utilizando gradientes da imagem e a análise de sua relação com os parâmetros de rastreamento. Foi também proposta uma melhoria em relação às GBTs através do uso de abordagens tradicionais de rastreamento em conjunto com a regressão linear, como rastreamento baseado em intensidade ou em arestas, propondo uma nova função de predição por partes lineares mais robusta que a função de predição por partes constantes. A nova abordagem permitiu o rastreamento de objetos não-texturizados como por exemplo um mapa em preto e branco.
104

Desenvolvimento e validação de métodos de sensoreamento visual aplicados a instrumentação de processos no contexto da industria 4.0 / Development and validation of visual sensing applied to the instruction of processes without context of industry 4.0

Fonseca, Thiago dos Santos da January 2017 (has links)
Submitted by Jessica Andrade (jessicastefanysa@gmail.com) on 2018-06-25T17:14:22Z No. of bitstreams: 1 THIAGO.pdf: 5801437 bytes, checksum: a7a50de6e0e6daba9cb435c749323658 (MD5) / Rejected by Margareth Ferreira Pinto (margarethfpinto@hotmail.com), reason: Falta o título em inglês. Palavra escrita errada na citação. on 2018-06-26T14:04:10Z (GMT) / Submitted by Jessica Andrade (jessicastefanysa@gmail.com) on 2018-06-28T17:07:32Z No. of bitstreams: 1 THIAGO.pdf: 5801437 bytes, checksum: a7a50de6e0e6daba9cb435c749323658 (MD5) / Approved for entry into archive by Margareth Ferreira Pinto (margarethfpinto@hotmail.com) on 2018-07-16T21:00:46Z (GMT) No. of bitstreams: 1 THIAGO.pdf: 5801437 bytes, checksum: a7a50de6e0e6daba9cb435c749323658 (MD5) / Made available in DSpace on 2018-07-16T21:00:46Z (GMT). No. of bitstreams: 1 THIAGO.pdf: 5801437 bytes, checksum: a7a50de6e0e6daba9cb435c749323658 (MD5) Previous issue date: 2017 / Na busca por mais agilidade, qualidade e baixos custos de produc ̧ao as industrias enfrentam inumeras dificuldades para conseguir lidar com imensas quantidades de informações. Para auxiliar neste problema, sistemas de visão de máquina tem sido cada vez mais utilizados, abrangendo diversas etapas de um processo industrial, principalmenteno conceito apresentado pela Industria 4.0. Neste trabalho, são propostos tres métodos de medição baseada em visão, chamados de Sensores Visuais, que possibilitam a extração das variaveis de processo: nível, temperatura e presença/estado. Tais metodos visam obter informações digitais por meio da analise das cores presentes em instrumentos indicadores e outros dispositivos sem capacidade de comunicação. E utilizado um framework de visao computacional, desenvolvido no C3 da FURG, para fornecer as camadas de aquisição, comunicação e uma interface para visualização e configuração dos metodos. O sistema baseado em OpenCV, processa as imagens capturadas por uma ou mais cameras em tempo real e envia os resultados (medições) a outros dispositivos de automação via protocolo de comunicacão Modbus. Para avaliar os Sensores Visuais, foram utilizados metodos da area da metrologia a fim de obter seus erros e incertezas de medic ̧ao. Tambem foram realizados testes em uma planta didatica, onde todas as medições utilizadas no CLP e SCADA foram extraídas atraves de uma camera conectada ao sistema proposto. Os experimentos demonstraram resultados promissores. / In the search for more agility, quality and low production costs industries face numerous difficulties in handling huge amounts of information. To assist in this problem, machine vision systems have been increasingly used, encompassing several stages of an industrial process, mainly in the concept presented by Industry 4.0. In this work, three methods of vision-based measurement, called Visual Sensors, are proposed, which allow the extraction of process variables: level, temperature and presence/state. These methods are aimed at obtaining digital information through the analysis of the colors present in indicating instruments and other devices without communication capability. A computational vision framework, developed in FURG’s C3, is used to provide the acquisition, communication and interface layers for visualization and configuration of the methods. The OpenCV-based system processes images captured by one or more cameras in real time and sends the results (measurements) to other automation devices via Modbus communication protocol. In order to evaluate the Visual Sensors, metrology methods were used to obtain their measurement errors and uncertainties. Tests were also carried out in a didactic plant, where all the measurements used in CLP and SCADA were extracted through a camera connected to the proposed system. The experiments showed promising results.
105

Visão computacional aplicada ao monitoramento de robôs móveis em cenários de robótica educacional

Rios, Marcel Leite, 69-99276-6560 24 March 2017 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-07-31T15:21:47Z No. of bitstreams: 2 Dissertação - Marcel L. Rios.pdf: 13630848 bytes, checksum: ca93845061a346157ad072dcd09d432f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-07-31T15:23:20Z (GMT) No. of bitstreams: 2 Dissertação - Marcel L. Rios.pdf: 13630848 bytes, checksum: ca93845061a346157ad072dcd09d432f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2017-07-31T15:23:31Z (GMT) No. of bitstreams: 2 Dissertação - Marcel L. Rios.pdf: 13630848 bytes, checksum: ca93845061a346157ad072dcd09d432f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-07-31T15:23:31Z (GMT). No. of bitstreams: 2 Dissertação - Marcel L. Rios.pdf: 13630848 bytes, checksum: ca93845061a346157ad072dcd09d432f (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-03-24 / A frequent concern among students and teachers working with educational robotics is about the results gathered through practical activities. Generally, robotic scenarios are made of tasks that challenge students' knowledge, making them to setup a moving robot in order to solve certain problems. Currently, educational institutions and robotics competitions lack of mechanisms that can evaluate the robot’s behavior during the accomplishment of the proposed challenges. In this work, we propose the development of a technological solution using Computational Vision, whose purpose is to monitor and evaluate the performance of mobile robots during the execution of Robotics Pedagogic tasks. The developed system, named MonitoRE - Monitoring System for Educational Robotics, was tested on three categories of pedagogic robotics environments, obtaining promising results. Our tool uses an Absolute Location Method with descriptors based on color and shape to analyze the task environments, mapping the path taken by the robot, evaluating the achievements in the proposed tasks. The experiments carried out indicate that the adopted method is effective, performing satisfactory results in robotic monitoring. In addition, it was found that teachers and students felt more motivated, demonstrating interest in using monitored task environments, because it ease the understanding of the difficulties faced by the moving robot in completing the activities, assisting students in the teaching-learning process. / Uma preocupação frequente entre alunos e professores que trabalham com robótica educacional é sobre os resultados obtidos por meio de atividades práticas. Geralmente, os cenários robóticos são compostos por ambientes de tarefas que desafiam o conhecimento dos alunos, fazendo com que os mesmos programem robôs móveis com o objetivo de solucionar determinados problemas. Atualmente, as instituições de ensino e as competições de robótica educacional carecem de mecanismos que possam avaliar o desempenho de robôs móveis durante a realização dos desafios propostos. Neste trabalho, propomos o desenvolvimento de uma solução tecnológica utilizando Visão Computacional, cuja finalidade é monitorar e avaliar o comportamento de robôs móveis durante a realização de tarefas de Robótica Pedagógica. O sistema desenvolvido, denominado MonitoRE - Sistema de Monitoramento para Robótica Educacional, foi testado sobre três categorias de ambientes de robótica pedagógica, obtendo resultados promissores. Nossa ferramenta utiliza um Método de Localização Absoluta com descritores baseado em cor e forma para analisar os ambientes de tarefas, mapeando a trajetória percorrida pelo robô, verificando a satisfação do mesmo nas tarefas propostas. Os experimentos realizados indicam que o método adotado é eficaz, alcançando resultados satisfatórios no monitoramento robótico. Além disso, foi constatado que professores e alunos sentiram-se mais motivados, demonstrando interesse em utilizar ambientes de tarefas monitorados, por facilitar a compreensão das dificuldades enfrentadas pelo robô móvel na realização das atividades, auxiliando no processo de ensino-aprendizagem dos alunos.
106

Utilização da visão artificial para diagnóstico nutricional de nitrogênio, fósforo, potássio e manganês em milho / Use of the artificial vision for nutritional diagnosis of nitrogen, phosphorus, potassium and manganese in corn

Liliane Maria Romualdo 01 April 2013 (has links)
Um sistema de visão artificial (SVA) para diagnose nutricional de milho, baseado em análise de imagens de folhas foi recentemente proposto pelo GCC-IFSC e Agrárias-FZEA/USP. O objetivo do estudo foi avaliar o estado nutricional do milho cultivado em casa de vegetação em solução nutritiva, com deficiência e suficiência nutricionais induzidas de nitrogênio (N), fósforo (P), potássio (K) e manganês (Mn) utilizando visão artificial, e posteriormente em campo visando validar o diagnóstico pelo sistema de visão artificial desenvolvido. As doses dos nutrientes foram constituídas pela omissão, 1/5, 2/5 e a dose completa, combinadas em três estádios de desenvolvimento do milho (V4, V7 e R1), com quatro repetições. O experimento foi individual para cada elemento. Em cada época foram coletadas imagens de folhas indicativas do estádio (FI), folhas velhas (FV) para o N, P e K e folhas novas para o Mn, que foram primeiramente digitalizadas em 1200 dpi, e em seguida encaminhadas para serem analisadas quimicamente. Também foram avaliadas nas plantas, as variáveis biométricas (altura, diâmetro do colmo e número de folhas) e determinar as produções de massa seca da parte aérea e do sistema radicular, além da determinação dos teores de nutrientes. A omissão de N, P e K proporcionaram deficiências nutricionais características nas folhas do milho, quando cultivado em casa de vegetação. As modificações nas folhas do milho, com as doses dos nutrientes estudadas, possibilitaram a obtenção de imagens necessárias para o desenvolvimento do SVA, em casa de vegetação. A utilização das imagens da casa de vegetação para treinar o SVA visando à validação de imagens do campo, gerou confusão na interpretação, levando a erros de classificação, entretanto, o uso desta tecnologia para diagnose nutricional do milho, tanto em casa de vegetação, como no campo, é promissora. / An artificial vision system (AVS) for nutrient diagnosis of corn, based on analysis of images of leaves was recently proposed by SCG-IFSC and Agrarian-FZEA/USP. The objective was evaluate the nutritional status of maize grown in a greenhouse in nutrient solution with induced nutritional deficiency and sufficiency of nitrogen (N), phosphorus (P), potassium (K) and manganese (Mn) using artificial vision, and correlate the results obtained with foliar analysis, and then the field in order to validate the diagnosis by artificial vision system developed. Doses of nutrients were established by omission, 1/5, 2/5 and full dose, combined into three developmental stages of corn (V4, V7 and R1), with four replications. The experiment was for each individual element. Images of leaves were collected in each epoch indicating the stage (FI), old leaves (FV) for N, P and K and Mn for new leaves, which were first scanned at 1200 dpi, then sent to be analyzed chemically. The biometric variables (height, stem diameter and number of leaves) were also evaluated, and the dry matter production of shoots and roots was determined, besides the determination of nutritional content. The omission of N, P and K caused typical nutrient deficiencies provided in the leaves of maize when grown in a greenhouse. The changes in the leaves of maize, with doses of nutrients studied, allowed the imaging necessary for training SVA in a greenhouse. The use of images of the greenhouse to train the SVA aiming to validate images of the field has led to confusion in the interpretation leading to errors of classification, however the use of this technology for nutrient diagnosis of corn, both in the greenhouse and in the field, is promising.
107

Metodologia para a detecção do movimento utilizando a técnica do fluxo ótico / Not available

Miguel Alfonso Seminario Patiño 31 March 1997 (has links)
O presente trabalho foi motivado pela grande importância que tem o movimento na percepção do espaço. Essa função é comum nos sistemas de visão natural já que a sobrevivência de algumas espécies é função desse fenômeno físico. Obviamente, a detecção do movimento no sistema de visão humana é de vital importância. Visão computacional é uma área de pesquisa de forte interesse atual. Em visão computacional o movimento nas imagens é recuperado a partir de uma seqüência de imagens. Neste campo a análise do movimento dos objetos pelo processamento de seqüência de imagens tem tido aplicações em diversas áreas, desde o monitoramento de tráfego veicular até nas áreas biomédica e militar. Também, uma seqüência de imagens pode proporcionar informação das estruturas e comportamento dos objetos que pertencem à cena do mundo 3D. O objetivo do presente trabalho foi desenvolver uma metodologia computacional aplicada à detecção do movimento utilizando a técnica do Fluxo Ótico. Uma das características do Fluxo Ótico é que o campo de velocidades dos objetos que se movem na imagem pode ser estimado utilizando a informação local das mudanças do brilho da imagem. Aplicou-se a consideração de que só ocorre mudança de brilho nas regiões da imagem onde ocorreu movimento e que o brilho varia suavemente em quase toda a imagem.. Realizou-se uma implementação computacional com a qual a estimativa do Fluxo Ótico é bem sucedida para uma seqüência de imagens compatíveis de entrada. Executou-se uma operação de pré-processamento para filtrar e determinar as bordas das imagens. Utilizaram-se operadores derivativos para calcular as derivadas numéricas que permitem determinar a direção e a intensidade das velocidades. Aplicou-se a técnica de relaxação as velocidades calculadas para obter uma melhor aproximação. Como conseqüência da metodologia obtiveram-se resultados de (Diagramas de Agulha) que permitem por inspeção visual a detecção do movimento. O algoritmo é robusto no que se refere à manipulação das imagens, dados e cálculos. Para mostrar o bom desempenho da técnica apresentam-se os resultados de uma série de experiências que correspondem a diferentes formas de movimento: translação, rotação, translação-rotação, divergência, utilizando diversos tipos de cenas sintéticas e reais / The motivation for the present work was the great important of the movement in space perception. Movement detection is a normal function in natural vision systems, the survival of some animal species depends on it. In human vision movement detection is an essential feature. Computer vision is a strong contemporary research area. In computer vision systems movement is recovered from a sequence of image frames. Motion analysis using frame sequences has important applications, going from vehicular traffic monitoring to biomedical and military applications. A sequence of frame images can also supply information about the structure and behavior of objects belonging to the 3D world. The purpose of the present work was to develop a computer methodology for motion analysis using the optical flow methodology. The optical flow technique estimates the velocity field of moving objects in a sequence of images considering the local information of brightness change. It has been considered that the brightness changes occurs only because of the moving objects and is smooth over the entire image. The computer methodology developed for the optical flow estimation performed reasonably well for a compatible sequence of image frames. A pre-processing was used to filter and extract the edges of the images. Derivative operators were used to find the numeric derivatives of the brightness, which allow determining the value and the direction of the velocities. A relaxation technique was used to provide a better approximation of the velocities. As a result of the developed methodology we obtained from a sequence of two images, vector diagrams (needle diagrams) that allow by visual inspection the detection of motion. The algorithm is robust regarding to the image manipulation, data and numeric calculations. To show the good performance of the technique we present the results of some experiments with different motion types: translation, rotation, translation and rotation and divergence, using artificial and real images
108

Uso de visão computacional em dispositivos móveis para auxílio à travessia de pedestres com deficiência visual

Sousa, Kelly Aparecida Oliveira 31 July 2013 (has links)
Made available in DSpace on 2016-03-15T19:37:46Z (GMT). No. of bitstreams: 1 Kelly Aparecida Oliveira Sousa.pdf: 1564262 bytes, checksum: e09d424f63f398bcb113bf6a3833e48a (MD5) Previous issue date: 2013-07-31 / This project presents an application that is intended to assist the visually impaired in crossing streets using mobile devices. This work also examined the challenges and some solutions to develop mobile interfaces available that perform image processing for crosswalks and people detection. Further information is given about using the OpenCV Library for the Android platform and the differences in the processing of computer vision algorithms between the mobile and other environments. The results presented demonstrate the feasibility of the project. It is also pointed out the future work required to improve the current system. / Esse projeto tem como objetivo a construção de um aplicativo que tem o propósito de auxiliar deficientes visuais na travessia de ruas utilizando dispositivos móveis. Neste trabalho são analisados também os desafios e algumas soluções para desenvolver interfaces móveis acessíveis que executem o processamento de imagens para o reconhecimento de pessoas e faixas de pedestres. Adicionalmente são fornecidas informações sobre o uso da Biblioteca OpenCV para a plataforma Android e as diferenças do processamento de algoritmos de Visão Computacional entre os aparelhos móveis e demais ambientes. Os resultados apresentados mostram a viabilidade do projeto e a necessidade de trabalhos futuros nos campos de pesquisa estudados.
109

Identificação de pontos robustos em marcadores naturais e aplicação de metodologia baseada em aprendizagem situada no desenvolvimento de sistemas de realidade aumentada

Forte, Cleberson Eugenio 07 August 2015 (has links)
Made available in DSpace on 2016-03-15T19:38:53Z (GMT). No. of bitstreams: 1 CLEBERSON EUGENIO FORTE.pdf: 2993506 bytes, checksum: e8e990b2681adb61a5be14b6e6282431 (MD5) Previous issue date: 2015-08-07 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In the past, the Augmented Reality (AR) required advanced technologies in special devices for interaction and visualization. Nowadays, with the emergence of the mobile devices it has become common the usage of these tools in the development of AR systems applied to various purposes, including education, using natural markers. As the quality of images captured by mobile devices has increased the number of detected feature points has increased also, which ultimately hampers, or even prevents the technique to be used in applications, which run in real time. In addition, it becomes clear the necessity of proposing methodologies to be used in the development of educational applications using AR systems in order to improve the user s experience as well as the longevity of these applications, adding elements based on educational theories. The technique presented in this work determine illumination robust feature points, in order to reduce the time required to match high-resolution images. Additionally, the research also provides a conceptual framework methodology that, based on situated learning theory, combines the educational and technological aspects related to the context of developing mobile AR applications. Based on the experiments, it is possible to say that the technique using robust feature points saves about 70% in the processing time for matching high resolution images. / No passado, a Realidade Aumentada (RA) requeria a tecnologia avançada de dispositivos especiais de interação e de visualização. Atualmente, com o surgimento de dispositivos móveis tornou-se comum o uso destas ferramentas no desenvolvimento de sistemas de RA aplicados aos mais diversos fins, dentre eles a educação, utilizando marcadores naturais. Com o aumento na qualidade das imagens captadas pelos dispositivos móveis, preocupa o fato de que, quanto melhor esta qualidade, mais pontos de interesse tendem a ser detectados para o reconhecimento dos marcadores naturais, o que, em última instância, dificulta ou mesmo impede que a técnica seja utilizada em aplicações que exijam funcionamento em tempo real. Soma-se a isto a constatação da necessidade de proposição de metodologias a serem empregadas no desenvolvimento de aplicações educacionais usando RA, visando tanto a melhoria da experiência do usuário quanto à longevidade de utilização destas aplicações, por meio da incorporação de elementos baseados em teorias educacionais. A técnica proposta neste trabalho para determinação de pontos de interesse robustos à variação de iluminação visa diminuir o tempo necessário para a correspondência entre imagens em alta definição. A pesquisa indica também uma metodologia no formato de framework conceitual, que, baseada na teoria de aprendizagem situada, correlaciona os aspectos educacionais e tecnológicos próprios ao contexto do desenvolvimento de aplicações de RA móvel. Com base nos experimentos realizados, é possível observar que a técnica que utiliza os pontos robustos, representa economia de, aproximadamente, 70% no tempo necessário para a correspondência entre imagens em alta definição.
110

Desenvolvimento e validação de um sistema de identificação de emoções por visão computacional e redes neurais convolucionais com transferência de aprendizado

Matos, Hamilton de 07 August 2017 (has links)
Submitted by Marta Toyoda (1144061@mackenzie.br) on 2018-02-26T19:51:31Z No. of bitstreams: 2 HAMILTON DE MATOS.pdf: 25340069 bytes, checksum: 42b3c3c262d4682b8240b3cc157a63b8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Paola Damato (repositorio@mackenzie.br) on 2018-04-28T16:04:20Z (GMT) No. of bitstreams: 2 HAMILTON DE MATOS.pdf: 25340069 bytes, checksum: 42b3c3c262d4682b8240b3cc157a63b8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-04-28T16:04:20Z (GMT). No. of bitstreams: 2 HAMILTON DE MATOS.pdf: 25340069 bytes, checksum: 42b3c3c262d4682b8240b3cc157a63b8 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-08-07 / This research aims to establish a methodology for the creation of a convolutional neural network in situations where there is a reduced number of data for training. The scenario adopted is the identi_cation of facial expressions in images and their respective emotions. Through the validation of the proposed method, in addition to the availability of the methodology itself, a public access interface is also available for providing information about the emotions detected in an image. In this context, human behavior studies such as Paul Ekman's analysis and definitions of universal emotions are used. Diferent techniques of computer vision and machine learning with convolutional neural networks were used to create the software. The aim of this work is to verify the possibility of real-time analysis, aiming to provide data in situations in which feedback can be fundamental for making certain decisions (eg in reactions in statements, for example). Even on a reduced training data set, it was possible to achieve an average final test accuracy of 65 % with an average training time of ten minutes. / Esta pesquisa tem como objetivo estabelecer uma metodologia para a criação de uma rede neural convolucional em situações em que exista um número reduzido de dados para treinamento. O cenário adotado é o de identificação de expressões faciais em imagens e suas respectivas emoções. Por meio da validação do método proposto, além da disponibilização da própria metodologia, também é disponibilizada uma interface de acesso público que apresenta informações a respeito das emoções detectadas em uma imagem. Neste contexto, são utilizados estudos de comportamento humano como a análise feita por Paul Ekman e as definições de emoções universais. Para criação do software, foram utilizadas diferentes técnicas de visão computacional e técnicas de aprendizagem de máquina com redes neurais convolucionais. Pretende-se, com este trabalho, verificar a possibilidade de leituras em tempo real, tendo como objetivo fornecer dados em situações nas quais os feedbacks podem ser fundamentais para a tomada de determinadas decisões (como em reações em depoimentos, por exemplo). Como resultados mesmo sobre um conjunto de dados de treinamento reduzido, foi possível conseguir uma acurácia de teste final média de 65% com tempo médio de treinamento de dez minutos.

Page generated in 0.0881 seconds