• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 4
  • Tagged with
  • 20
  • 20
  • 19
  • 16
  • 6
  • 6
  • 6
  • 6
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Combinação de métodos de inteligência artificial para fusão de sensores / Combination of artificial intelligence methods for sensor fusion

Faceli, Katti 23 March 2001 (has links)
Robôs móveis dependem de dados provenientes de sensores para ter uma representação do seu ambiente. Porém, os sensores geralmente fornecem informações incompletas, inconsistentes ou imprecisas. Técnicas de fusão de sensores têm sido empregadas com sucesso para aumentar a precisão de medidas obtidas com sensores. Este trabalho propõe e investiga o uso de técnicas de inteligência artificial para fusão de sensores com o objetivo de melhorar a precisão e acurácia de medidas de distância entre um robô e um objeto no seu ambiente de trabalho, obtidas com diferentes sensores. Vários algoritmos de aprendizado de máquina são investigados para fundir os dados dos sensores. O melhor modelo gerado com cada algoritmo é chamado de estimador. Neste trabalho, é mostrado que a utilização de estimadores pode melhorar significativamente a performance alcançada por cada sensor isoladamente. Mas os vários algoritmos de aprendizado de máquina empregados têm diferentes características, fazendo com que os estimadores tenham diferentes comportamentos em diferentes situações. Objetivando atingir um comportamento mais preciso e confiável, os estimadores são combinados em comitês. Os resultados obtidos sugerem que essa combinação pode melhorar a confiança e precisão das medidas de distâncias dos sensores individuais e estimadores usados para fusão de sensores. / Mobile robots rely on sensor data to have a representation of their environment. However, the sensors usually provide incomplete, inconsistent or inaccurate information. Sensor fusion has been successfully employed to enhance the accuracy of sensor measures. This work proposes and investigates the use of artificial intelligence techniques for sensor fusion. Its main goal is to improve the accuracy and reliability of a distance between a robot and an object in its work environment using measures obtained from different sensors. Several machine learning algorithms are investigated to fuse the sensors data. The best model generated with each algorithm are called estimator. It is shown that the employment of the estimators based on artificial intelligence can improve significantly the performance achieved by each sensor alone. The machine learning algorithms employed have different characteristics, causing the estimators to have different behaviour in different situations. Aiming to achieve more accurate and reliable behavior, the estimators are combined in committees. The results obtained suggest that this combination can improve the reliability and accuracy of the distance measures by the individual sensors and estimators used for sensor fusion.
2

Combinação de métodos de inteligência artificial para fusão de sensores / Combination of artificial intelligence methods for sensor fusion

Katti Faceli 23 March 2001 (has links)
Robôs móveis dependem de dados provenientes de sensores para ter uma representação do seu ambiente. Porém, os sensores geralmente fornecem informações incompletas, inconsistentes ou imprecisas. Técnicas de fusão de sensores têm sido empregadas com sucesso para aumentar a precisão de medidas obtidas com sensores. Este trabalho propõe e investiga o uso de técnicas de inteligência artificial para fusão de sensores com o objetivo de melhorar a precisão e acurácia de medidas de distância entre um robô e um objeto no seu ambiente de trabalho, obtidas com diferentes sensores. Vários algoritmos de aprendizado de máquina são investigados para fundir os dados dos sensores. O melhor modelo gerado com cada algoritmo é chamado de estimador. Neste trabalho, é mostrado que a utilização de estimadores pode melhorar significativamente a performance alcançada por cada sensor isoladamente. Mas os vários algoritmos de aprendizado de máquina empregados têm diferentes características, fazendo com que os estimadores tenham diferentes comportamentos em diferentes situações. Objetivando atingir um comportamento mais preciso e confiável, os estimadores são combinados em comitês. Os resultados obtidos sugerem que essa combinação pode melhorar a confiança e precisão das medidas de distâncias dos sensores individuais e estimadores usados para fusão de sensores. / Mobile robots rely on sensor data to have a representation of their environment. However, the sensors usually provide incomplete, inconsistent or inaccurate information. Sensor fusion has been successfully employed to enhance the accuracy of sensor measures. This work proposes and investigates the use of artificial intelligence techniques for sensor fusion. Its main goal is to improve the accuracy and reliability of a distance between a robot and an object in its work environment using measures obtained from different sensors. Several machine learning algorithms are investigated to fuse the sensors data. The best model generated with each algorithm are called estimator. It is shown that the employment of the estimators based on artificial intelligence can improve significantly the performance achieved by each sensor alone. The machine learning algorithms employed have different characteristics, causing the estimators to have different behaviour in different situations. Aiming to achieve more accurate and reliable behavior, the estimators are combined in committees. The results obtained suggest that this combination can improve the reliability and accuracy of the distance measures by the individual sensors and estimators used for sensor fusion.
3

Metodologia de fusão de vídeos e sons para monitoração de comportamento de insetos / Merging methodology videos and sounds for monitoring insect behavior

Jorge, Lúcio André de Castro 02 September 2011 (has links)
Este trabalho apresenta uma nova abordagem para fusão de vídeo e som diretamente no espaço de atributos visando otimizar a identificação do comportamento de insetos. Foi utilizado o detector de Harris para rastreamento dos insetos, assim como a técnica inovadora Wavelet-Multifractal para análise de som. No caso da Wavelet-Multifractal, foram testadas várias Wavelet-mães, sendo a Morlet a melhor escolha para sons de insetos. Foi proposto a Wavelet Módulo Máximo para extrair atributos multifractais dos sons para serem utilizados no reconhecimento de padrões de comportamento de insetos. A abordagem Wrapper de mineração de dados foi usada para selecionar os atributos relevantes. Foi constatado que a abordagem Wavelet-multifractal identifica melhor os sons, particularmente no caso de distorções provocadas por ruídos. As imagens foram responsáveis pela identificação de acasalamento e os sons pelos outros comportamentos. Foi também proposto um novo método do triângulo como representação simplificada do espectro multifractal visando simplificação do processamento. / This work presents an innovative video and sound fusion approach by feature subset selection under the space of attributes to optimally identify insects behavior. Harris detector was used for insect movement tracking and an innovative technique of Multifractal-Wavelet was used to analyze the insect sounds. In the case of Multifractal-Wavelet, more than one mother-wavelet was tested, being the Morlet wavelet the best choice of mother-wavelet for insect sounds. The wavelet modulus maxima was proposed to extract multifractal sound attributes to be used in pattern recognition of an insect behavior. The wrapper data mining approach was used to select relevant attributes. It has been found that, in general, wavelet-multifractal based schemes perform better for sound, particularly in terms of minimizing noise distortion influence. The image features only determine the mating and the sound other behaviors. A new triangle representation of multifractal spectrum was proposed as a processing simplification.
4

Fusão de sensores para obtenção de dados de produtividade em colhedora de cana-de-açúcar / Fusion of sensors to obtain a yield data for sugarcane harvesters

Lima, Jeovano de Jesus Alves de 20 February 2019 (has links)
A cana-de-açúcar é uma importante cultura semi-perene em regiões tropicais do mundo como a principal fonte de açúcar e bioenergia e o Brasil é seu maior produtor. Como qualquer outra cultura, demanda um aperfeiçoamento prática constante, buscando uma cultura sustentável e com maiores rendimentos e menores custos. Uma das alternativas é a utilização de práticas de agricultura de precisão para explorar a variabilidade espacial dos rendimentos potenciais e para tanto, os mapas de produtividade são essenciais. Para obter os dados necessários para gerar um mapa confiável, é necessário um sistema com capacidade de ler e georreferenciar os dados do sensor e compará-los a uma calibração. No entanto, os resultados das pesquisas mais recentes associadas aos monitores de rendimento comercial, que utilizam apenas um tipo de sensor para determinar os mapas de produtividade, não retratam a exatidão exigida para a cana-de-açúcar. Este estudo teve como objetivo explorar o potencial do uso de dados provenientes de sensores instalados em diferentes partes da colhedora de cana-de-açúcar para determinação e aplicação em monitores de produtividade e determinação de falhas na lavoura. Para fins de comparação foi utilizado um transbordo instrumentado com células de carga para aferição da massa colhida. Foram utilizadas abordagens estatísticas convencionais e inteligência artificial para fusão dos dados e predição da produtividade da cana-de-açúcar, os métodos convencionais foram regressão linear simples e múltipla, e comparado com o método de redes neurais. Além da produtividade foi possível constatar que é possível identificar as falhas na lavoura através dos dados coletados e das falhas produzidas manualmente, todos os sensores medidos identificaram as falhas georeferenciadas. Com relação aos modelos implementados e utilizados, os baseados em regressão linear múltipla não apresentaram potencial na integração e predição da produtividade com os valores de erros definidos nas premissas do trabalho que é de menor que 2%. Além disso os mapas gerados com esses modelos tiveram algumas discrepâncias quanto ao aumento da produtividade em algumas áreas e extração das falhas existentes. Já o modelo de fusão utilizando redes neurais artificiais apresentou uma excelente alternativa para predição da produtividade. Uma vez que a rede é treinada, a mesma apresentou erros inferiores a 2% em todos os mapas gerados. De maneira geral todos os sensores quando avaliados individualmente apresentaram vantagens e desvantagens na determinação da produtividade. Porém, quando fundido os dados dos diversos sensores, as respostas encontradas apresentaram coeficiente de determinação R2 superiores a 95%, RMSE menor que 1kg e RE menor que 2%. / Sugarcane is an important semi-perennial crop in tropical regions of the world as the main source of sugar and bioenergy, and Brazil is its largest producer. Like any other culture, it demands constant improvement in practice, seeking a sustainable culture with higher yields and lower costs. One of the alternatives is the use of precision farming practices to explore the spatial variability of potential yields and for that, productivity maps are essential. To obtain the data needed to generate a reliable map, a system is required that is capable of reading and georeferencing the sensor data and comparing them to a calibration. However, the results of the most recent surveys associated with commercial yield monitors, which use only one type of sensor to determine productivity maps, do not depict the exactitude required for sugarcane. This study aimed to explore the potential of using data from sensors installed in different parts of the sugarcane harvester for determination and application in productivity monitors and determination of crop failure, for comparison purposes a transhipment was used instrumented with load cells to measure the mass harvested. We used conventional statistical approaches and artificial intelligence for data fusion and prediction of sugarcane productivity, conventional methods were simple and multiple linear regression, and compared with the neural network method. In addition to productivity, it was possible to verify that it is possible to identify crop failures through the data collected and the failures produced manually, all the measured sensors identified georeferenced faults. Regarding the implemented and used models, those based on multiple linear regression did not present potential in the integration and prediction of productivity with the values of errors defined in the assumptions of the work that is less than 2%. In addition, the maps generated with these models had some discrepancies regarding productivity increase in some areas and extraction of existing flaws. On the other hand, the model of fusion using artificial neural networks presented an excellent alternative for prediction of productivity; since the network is trained the same one presented in all the generated maps errors inferior to 2%. In a general way all the sensors when evaluated individually presented advantages and disadvantages in determining the productivity, but when fused the data of the various sensors the answers found of coefficient of determination R2 higher than 95%, RMSE less than 1kg and RE less than 2%.
5

Uma abordagem para visão artificial em robótica móvel baseada em fusão de sensores

Oliveira, Luciano Rebouças de 16 September 2005 (has links)
Submitted by Marcio Filho (marcio.kleber@ufba.br) on 2017-06-06T13:29:36Z No. of bitstreams: 1 mestrado_luciano.pdf: 1770348 bytes, checksum: 311bfc2531be2f0144b369d6861acb71 (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-06-16T15:08:33Z (GMT) No. of bitstreams: 1 mestrado_luciano.pdf: 1770348 bytes, checksum: 311bfc2531be2f0144b369d6861acb71 (MD5) / Made available in DSpace on 2017-06-16T15:08:33Z (GMT). No. of bitstreams: 1 mestrado_luciano.pdf: 1770348 bytes, checksum: 311bfc2531be2f0144b369d6861acb71 (MD5) / Cada sub-sistema de um robô móvel possui aspectos próprios, que devem estar integrados a fim de capacitar o robô para a realização de uma tarefa particular. Dentre estes sub-sistemas, o sensoriamento é responsável por construir uma representação dos marcos do ambiente a fim de fornecer informações relevantes para a navegação do robô. Em geral, a construção de uma representação do ambiente possui alto custo computacional, devido a inaptidão nas estimativas de medição dos sensores. A proposta deste trabalho é a construção de um sistema de sensoriamento, baseado em fusão de sensores, de baixo custo computacional. O objetivo do sistema é o reconhecimento e localização espacial de objetos. A abordagem para o sistema se baseia na fusão redundante e complementar de dados dos sensores envolvidos (uma câmera e sensores de distância), utilizando Lógica Difusa. Para a classificação e localização dos objetos na imagem, o método de Máquina de Vetores de Suporte é utilizado e os resultados obtidos apontam para um bom desempenho nestas tarefas, com a utiliza¸c˜ao de apenas uma amostra de treinamento e sem qualquer tipo de processamento de imagem prévio. Ao final do processo, uma descrição dos objetos na cena é enviada para o robô, com informações detalhadas sobre cada objeto detectado no quadro considerado. O sistema de sensoriamento proposto ´e aplicado no ambiente de experimentação de futebol de robôs, cujas regras determinam as restrições para a arquitetura do sistema
6

Metodologia de fusão de vídeos e sons para monitoração de comportamento de insetos / Merging methodology videos and sounds for monitoring insect behavior

Lúcio André de Castro Jorge 02 September 2011 (has links)
Este trabalho apresenta uma nova abordagem para fusão de vídeo e som diretamente no espaço de atributos visando otimizar a identificação do comportamento de insetos. Foi utilizado o detector de Harris para rastreamento dos insetos, assim como a técnica inovadora Wavelet-Multifractal para análise de som. No caso da Wavelet-Multifractal, foram testadas várias Wavelet-mães, sendo a Morlet a melhor escolha para sons de insetos. Foi proposto a Wavelet Módulo Máximo para extrair atributos multifractais dos sons para serem utilizados no reconhecimento de padrões de comportamento de insetos. A abordagem Wrapper de mineração de dados foi usada para selecionar os atributos relevantes. Foi constatado que a abordagem Wavelet-multifractal identifica melhor os sons, particularmente no caso de distorções provocadas por ruídos. As imagens foram responsáveis pela identificação de acasalamento e os sons pelos outros comportamentos. Foi também proposto um novo método do triângulo como representação simplificada do espectro multifractal visando simplificação do processamento. / This work presents an innovative video and sound fusion approach by feature subset selection under the space of attributes to optimally identify insects behavior. Harris detector was used for insect movement tracking and an innovative technique of Multifractal-Wavelet was used to analyze the insect sounds. In the case of Multifractal-Wavelet, more than one mother-wavelet was tested, being the Morlet wavelet the best choice of mother-wavelet for insect sounds. The wavelet modulus maxima was proposed to extract multifractal sound attributes to be used in pattern recognition of an insect behavior. The wrapper data mining approach was used to select relevant attributes. It has been found that, in general, wavelet-multifractal based schemes perform better for sound, particularly in terms of minimizing noise distortion influence. The image features only determine the mating and the sound other behaviors. A new triangle representation of multifractal spectrum was proposed as a processing simplification.
7

Development of an autonomous unmanned aerial vehicle specification of a fixed-wing vertical takeoff and landing aircraft / Desenvolvimento de um veículo aéreo não tripulado autônomo especificação de uma aeronave asa-fixa capaz de decolar e aterrissar verticalmente

Silva, Natássya Barlate Floro da 29 March 2018 (has links)
Several configurations of Unmanned Aerial Vehicles (UAVs) were proposed to support different applications. One of them is the tailsitter, a fixed-wing aircraft that takes off and lands on its own tail, with the high endurance advantage from fixed-wing aircraft and, as helicopters and multicopters, not requiring a runway during takeoff and landing. However, a tailsitter has a complex operation with multiple flight stages, each one with its own particularities and requirements, which emphasises the necessity of a reliable autopilot for its use as a UAV. The literature already introduces tailsitter UAVs with complex mechanisms or with multiple counter-rotating propellers, but not one with only one propeller and without auxiliary structures to assist in the takeoff and landing. This thesis presents a tailsitter UAV, named AVALON (Autonomous VerticAL takeOff and laNding), and its autopilot, composed of 3 main units: Sensor Unit, Navigation Unit and Control Unit. In order to choose the most appropriate techniques for the autopilot, different solutions are evaluated. For Sensor Unit, Extended Kalman Filter and Unscented Kalman Filter estimate spatial information from multiple sensors data. Lookahead, Pure Pursuit and Line-of-Sight, Nonlinear Guidance Law and Vector Field path-following algorithms are extended to incorporate altitude information for Navigation Unit. In addition, a structure based on classical methods with decoupled Proportional-Integral-Derivative controllers is compared to a new control structure based on dynamic inversion. Together, all these techniques show the efficacy of AVALONs autopilot. Therefore, AVALON results in a small electric tailsitter UAV with a simple design, with only one propeller and without auxiliary structures to assist in the takeoff and landing, capable of executing all flight stages. / Diversas configurações de Veículos Aéreos Não Tripulados (VANTs) foram propostas para serem utilizadas em diferentes aplicações. Uma delas é o tailsitter, uma aeronave de asa fixa capaz de decolar e pousar sobre a própria cauda. Esse tipo de aeronave apresenta a vantagem de aeronaves de asa fixa de voar sobre grandes áreas com pouco tempo e bateria e, como helicópteros e multicópteros, não necessita de pista para decolar e pousar. Porém, um tailsitter possui uma operação complexa, com múltiplos estágios de voo, cada um com suas peculiaridades e requisitos, o que enfatiza a necessidade de um piloto automático confiável para seu uso como um VANT. A literatura já introduz VANTs tailsitters com mecanismos complexos ou múltiplos motores contra-rotativos, mas não com apenas um motor e sem estruturas para auxiliar no pouso e na decolagem. Essa tese apresenta um VANT tailsitter, chamado AVALON (Autonomous VerticAL takeOff and laNding), e seu piloto automático, composto por 3 unidades principais: Unidade Sensorial, Unidade de Navegação e Unidade de Controle. Diferentes soluções são avaliadas para a escolha das técnicas mais apropriadas para o piloto automático. Para a Unidade Sensorial, Extended Kalman Filter e Unscented Kalman Filter estimam a informação espacial de múltiplos dados de diversos sensores. Os algoritmos de seguimento de trajetória Lookahead, Pure Pursuit and Line-of-Sight, Nonlinear Guidance Law e Vector Field são estendidos para considerar a informação da altitude para a Unidade de Navegação. Além do mais, uma estrutura baseada em métodos clássicos com controladores Proporcional- Integral-Derivativo desacoplados é comparada a uma nova estrutura de controle baseada em dinâmica inversa. Juntas, todas essas técnicas demonstram a eficácia do piloto automático do AVALON. Portanto, AVALON resulta em um VANT tailsitter pequeno e elétrico, com um design simples, apenas um motor e sem estruturas para auxiliar o pouso e a decolagem, capaz de executar todos os estágios de voo.
8

Development of an autonomous unmanned aerial vehicle specification of a fixed-wing vertical takeoff and landing aircraft / Desenvolvimento de um veículo aéreo não tripulado autônomo especificação de uma aeronave asa-fixa capaz de decolar e aterrissar verticalmente

Natássya Barlate Floro da Silva 29 March 2018 (has links)
Several configurations of Unmanned Aerial Vehicles (UAVs) were proposed to support different applications. One of them is the tailsitter, a fixed-wing aircraft that takes off and lands on its own tail, with the high endurance advantage from fixed-wing aircraft and, as helicopters and multicopters, not requiring a runway during takeoff and landing. However, a tailsitter has a complex operation with multiple flight stages, each one with its own particularities and requirements, which emphasises the necessity of a reliable autopilot for its use as a UAV. The literature already introduces tailsitter UAVs with complex mechanisms or with multiple counter-rotating propellers, but not one with only one propeller and without auxiliary structures to assist in the takeoff and landing. This thesis presents a tailsitter UAV, named AVALON (Autonomous VerticAL takeOff and laNding), and its autopilot, composed of 3 main units: Sensor Unit, Navigation Unit and Control Unit. In order to choose the most appropriate techniques for the autopilot, different solutions are evaluated. For Sensor Unit, Extended Kalman Filter and Unscented Kalman Filter estimate spatial information from multiple sensors data. Lookahead, Pure Pursuit and Line-of-Sight, Nonlinear Guidance Law and Vector Field path-following algorithms are extended to incorporate altitude information for Navigation Unit. In addition, a structure based on classical methods with decoupled Proportional-Integral-Derivative controllers is compared to a new control structure based on dynamic inversion. Together, all these techniques show the efficacy of AVALONs autopilot. Therefore, AVALON results in a small electric tailsitter UAV with a simple design, with only one propeller and without auxiliary structures to assist in the takeoff and landing, capable of executing all flight stages. / Diversas configurações de Veículos Aéreos Não Tripulados (VANTs) foram propostas para serem utilizadas em diferentes aplicações. Uma delas é o tailsitter, uma aeronave de asa fixa capaz de decolar e pousar sobre a própria cauda. Esse tipo de aeronave apresenta a vantagem de aeronaves de asa fixa de voar sobre grandes áreas com pouco tempo e bateria e, como helicópteros e multicópteros, não necessita de pista para decolar e pousar. Porém, um tailsitter possui uma operação complexa, com múltiplos estágios de voo, cada um com suas peculiaridades e requisitos, o que enfatiza a necessidade de um piloto automático confiável para seu uso como um VANT. A literatura já introduz VANTs tailsitters com mecanismos complexos ou múltiplos motores contra-rotativos, mas não com apenas um motor e sem estruturas para auxiliar no pouso e na decolagem. Essa tese apresenta um VANT tailsitter, chamado AVALON (Autonomous VerticAL takeOff and laNding), e seu piloto automático, composto por 3 unidades principais: Unidade Sensorial, Unidade de Navegação e Unidade de Controle. Diferentes soluções são avaliadas para a escolha das técnicas mais apropriadas para o piloto automático. Para a Unidade Sensorial, Extended Kalman Filter e Unscented Kalman Filter estimam a informação espacial de múltiplos dados de diversos sensores. Os algoritmos de seguimento de trajetória Lookahead, Pure Pursuit and Line-of-Sight, Nonlinear Guidance Law e Vector Field são estendidos para considerar a informação da altitude para a Unidade de Navegação. Além do mais, uma estrutura baseada em métodos clássicos com controladores Proporcional- Integral-Derivativo desacoplados é comparada a uma nova estrutura de controle baseada em dinâmica inversa. Juntas, todas essas técnicas demonstram a eficácia do piloto automático do AVALON. Portanto, AVALON resulta em um VANT tailsitter pequeno e elétrico, com um design simples, apenas um motor e sem estruturas para auxiliar o pouso e a decolagem, capaz de executar todos os estágios de voo.
9

Modelo para a classificação da qualidade da água contaminada por solo usando indução por árvore de decisão. / Classification model for soil-contaminated water quality using decision tree induction.

Dota, Mara Andréa 12 September 2014 (has links)
A possibilidade de avaliar remotamente e de forma instantânea alterações na qualidade das águas em função da entrada de solos permite o monitoramento de processos ecológicos como o assoreamento, perdas e solos, carreamento de pesticidas e degradação de habitats aquáticos. Com a utilização de um modelo automatizado, torna-se possível um monitoramento em tempo real remoto coletando dados por meio de Redes de Sensores Sem Fio. Esta pesquisa propõe um modelo de classificação da qualidade da água contaminada por solo usando técnicas de Árvore de Decisão. Com este modelo torna-se possível acompanhar alterações que venham a ocorrer em águas superficiais indicando o nível de contaminação por solo com maior rapidez do que a forma convencional que necessita de análise em laboratório e coleta de amostra manual. A classificação proposta considera sete classes de qualidade da água, conforme dados de um experimento conduzido em laboratório. Foram utilizadas técnicas de Inteligência Artificial com o intuito de realizar a Fusão de Sensores para avaliar, em tempo real, as leituras dos sensores, indicando a qual classe de qualidade a amostra se enquadra. Na verificação de quantas classes seria o ideal, utilizou-se o algoritmo k-means++. Para a construção do modelo de classificação foram usadas técnicas de Indução por Árvore de Decisão, tais como: Best-First Decision Tree Classifier BFTree, Functional Trees FT, Naïve Bayes Decision Tree NBTree, Grafted C4.5 Decision Tree J48graft, C4.5 Decision Tree J48, LADTree. Os testes realizados indicam que a classificação proposta é coerente, visto que os diferentes algoritmos comprovaram uma relação estatística forte entre as instâncias das classes, garantindo que o modelo proposto irá predizer saídas para entradas de dados desconhecidas com acurácia. Os algoritmos com melhores resultados foram FT, J48graft e J48. / The possibility to remotely and instantaneously evaluate changes in water quality due to soil contamination allows monitoring ecological processes such as siltation, soil losses, loading of pesticides and degradation of aquatic habitats. Using an automated model to classify soil-contaminated water quality allows for a remote realtime monitoring by collecting data using Wireless Sensor Networks. This study proposes a model to classify soil-contaminated water quality by using Decision Tree techniques. With this model, it is possible to track changes that may occur in surface waters indicating the level of contamination by soil faster than the conventional way, which requires laboratory analysis and manual sampling. The classification proposed considers seven classes of water quality, according to data from an experiment carried out in laboratory. Artificial Intelligence techniques were used in order to implement Sensor Fusion to evaluate, in real time, sensor readings to which class the sample quality fits. By checking how many classes would be ideal, the k-means + + algorithm was used. To build the classification model, Decision Tree Induction techniques were used, such as: Best-First Decision Tree Classifier BFTree, Functional Trees FT, Naïve Bayes Decision Tree NBTree, Grafted C4.5 Decision Tree J48graft, C4.5 Decision Tree J48, LADTree. Tests indicated that the proposed classification is consistent because different algorithms results confirmed a strong statistical relationship between instances of classes, ensuring that this model will predict outputs to unknown inputs accurately. The algorithms with best results were FT, J48graft and J48.
10

Detecção de obstáculos usando fusão de dados de percepção 3D e radar em veículos automotivos / Obstacle detection using 3D perception and radar data fusion in automotive vehicles

Rosero, Luis Alberto Rosero 30 January 2017 (has links)
Este projeto de mestrado visa a pesquisa e o desenvolvimento de métodos e algoritmos, relacionados ao uso de radares, visão computacional, calibração e fusão de sensores em veículos autônomos/inteligentes para fazer a detecção de obstáculos. O processo de detecção de obstáculos se divide em três etapas, a primeira é a leitura de sinais de Radar, do LiDAR e a captura de dados da câmera estéreo devidamente calibrados, a segunda etapa é a fusão de dados obtidos na etapa anterior (Radar+câmera, Radar+LIDAR 3D), a terceira etapa é a extração de características das informações obtidas, identificando e diferenciando o plano de suporte (chão) dos obstáculos, e finalmente realizando a detecção dos obstáculos resultantes da fusão dos dados. Assim é possível diferenciar os diversos tipos de elementos identificados pelo Radar e que são confirmados e unidos aos dados obtidos por visão computacional ou LIDAR (nuvens de pontos), obtendo uma descrição mais precisa do contorno, formato, tamanho e posicionamento destes. Na tarefa de detecção é importante localizar e segmentar os obstáculos para posteriormente tomar decisões referentes ao controle do veículo autônomo/inteligente. É importante destacar que o Radar opera em condições adversas (pouca ou nenhuma iluminação, com poeira ou neblina), porém permite obter apenas pontos isolados representando os obstáculos (esparsos). Por outro lado, a câmera estéreo e o LIDAR 3D permitem definir os contornos dos objetos representando mais adequadamente seu volume, porém no caso da câmera esta é mais suscetível a variações na iluminação e a condições restritas ambientais e de visibilidade (p.ex. poeira, neblina, chuva). Também devemos destacar que antes do processo de fusão é importante alinhar espacialmente os dados dos sensores, isto e calibrar adequadamente os sensores para poder transladar dados fornecidos por um sensor referenciado no próprio sistema de coordenadas para um outro sistema de coordenadas de outro sensor ou para um sistema de coordenadas global. Este projeto foi desenvolvido usando a plataforma CaRINA II desenvolvida junto ao Laboratório LRM do ICMC/USP São Carlos. Por fim, o projeto foi implementado usando o ambiente ROS, OpenCV e PCL, permitindo a realização de experimentos com dados reais de Radar, LIDAR e câmera estéreo, bem como realizando uma avaliação da qualidade da fusão dos dados e detecção de obstáculos comestes sensores. / This masters project aims to research and develop methods and algorithms related to the use of radars, computer vision, calibration and sensor data fusion in autonomous / intelligent vehicles to detect obstacles. The obstacle detection process is divided into three stages, the first one is the reading of Radar, LiDAR signals and the data capture of the stereo camera properly calibrated, the second stage is the fusion of data obtained in the previous stage(Radar + Camera, Radar + 3D LIDAR), the third step is the extraction of characteristics of the information obtained, identifying and differentiating the support plane(ground) of the obstacles, and finally realizing the detection of the obstacles resulting from the fusion of the data. Thus it is possible to differentiate types of elements identified by the Radar and that are confirmed and united to the data obtained by computational vision or LIDAR (point cloud), obtaining amore precise description of the contour, format, size and positioning of these. During the detection task it is important to locate and segment the obstacles to later make decisions regarding the control of the autonomous / intelligent vehicle. It is important to note that Radar operates in adverse conditions (little or no light, with dust or fog), but allows only isolated points representing obstacles (sparse), where on the other hand, the stereo camera and LIDAR 3D allow to define the shapeand size of objects. As for the camera, this is more susceptible to variations in lighting and to environmental and visibility restricted conditions (eg dust, haze, rain). It is important to spatially align the sensor data, calibrating the sensors appropriately, to be able to translate data provided by a sensor referenced in the coordinate system itself to another coordinate system of another sensor or to a global coordinate system. This project was developed using the CaRINA II platform developed by the LRM Laboratory ICMC / USP São Carlos. Finally, the project was implemented using the ROS, OpenCV and PCL environments, allowing experiments with real data from Radar, LIDAR and stereo camera, as well as performing an evaluation of the quality of the data fusion and detection of obstacles with these sensors .

Page generated in 0.4906 seconds