• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 5
  • 5
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Método de amostragem de área agrícola com sensores embarcados: uma abordagem que leva em conta a variabilidade do campo / Sampling method for agricultural area with embedded sensors: an approach that takes the variability of the field into account

Tangerino, Giovana Tripoloni 29 October 2014 (has links)
O trabalho apresentado destaca a importância do uso de práticas agrícolas que estimulem a manutenção da agricultura em níveis de alta produtividade, mas que, ao mesmo tempo, viabilizem uma minimização dos efeitos negativos da agricultura sobre o meio ambiente. O trabalho situa-se no contexto da aquisição de informação sobre a plantação considerando sua variabilidade para uso em Agricultura de Precisão. Foi proposto o desenvolvimento de um método inteligente de amostragem, que faz uso de sensores embarcados em veículos autônomos com capacidade de processamento em conjunto com técnicas geoestatísticas de amostragem. O processo de amostragem proposto leva em consideração a dependência espacial do campo, obtendo apenas a quantidade de informação necessária para reproduzir confiavelmente a variável em estudo para análises posteriores, amostrando mais densamente áreas de maior variabilidade e menos densamente áreas de menor variabilidade. O método desenvolvido estabelece a exploração em duas fases. Na fase de levantamento exploratório é utilizado um esquema de amostragem aninhado adaptado para as características do sistema de coleta de dados, nesta fase é realizada uma primeira avaliação sobre a escala espacial de variabilidade do campo. Na fase do levantamento principal são realizados ciclos de amostragens em grade, quantas vezes seja necessário até que critérios de decisão sejam atingidos. Nestes ciclos, ou etapas, são tomadas decisões com base na qualidade e na densidade de variabilidade das amostras. Tais decisões estabelecem se a área deve ser mais amostrada ou dividida em subáreas. A mínima precisão que se deseja alcançar é determinada pelo usuário e também limitada pelas capacidades estruturais da máquina que realizará aplicações a taxa variada. Em comparação com métodos tradicionais de obtenção de dados com sensores embarcados, as análises dos resultados mostram reduções que chegam a 98% na quantidade de pontos amostrados e redução de mais de 49% na distância final percorrida pelo veículo. Assim, a utilização do método proposto viabiliza a redução em custos computacionais de armazenagem e processamento, de gastos com combustíveis e de tempo de mão de obra. Os resultados evidenciam que é viável a amostragem baseada na densidade de variabilidade, racionalizando a quantidade, a qualidade e a disposição da informação obtida e armazenada. Em conclusão, o método de amostragem proposto apresenta potencial capacidade para sua utilização como uma ferramenta de apoio às novas práticas agrícolas, oferecendo uma alternativa mais eficiente e inteligente aos métodos tradicionais de coleta de dados. / The present work highlights the importance of using farming practices that encourage the maintenance of agriculture in high levels of productivity and, at the same time, enable reduction of the negative effects of agriculture on the environment. The work is in the context of acquisition of crop information considering its variability for use in Precision Agriculture. The development of a smart sampling method has been proposed, which uses of embedded sensors in autonomous vehicles with a processing capacity together with sampling geostatistics techniques. The sampling process takes into account the spatial dependence of the field, obtaining strictly the necessary amount of information to subsequent analyzes in a reliable way. It also aims to sample areas of higher variability more densily and areas of lower variability less densily. The developed method performs the exploration in two phases. In the exploratory phase, a nested sampling scheme adapted to the characteristics of the system is used. In this phase, the first assessment about the spatial scale of variability of the field is done. In the main survey phase, grid samplings are performed in stages, as many times as necessary until the decision criteria are reached. At the stages of the main survey, decisions are taken based on the quality and variability density of the samples, and this establishes whether the area should be better sampled or divided into subareas. The user determines the minimum precision to be reached. The structural capabilities of the machine, that will perform the variable rate applications, also restrict the system precision. The result analyses show that the number of samples reduced 98% and the final distance ran by the autonomous vehicle reduced 49%, compared to traditional methods that use embedded sensors to collect data. Thus, the use of the proposed method represents reduced computational costs of data storage and processing, fuel costs and manpower. The results show that the sampling based on variability density is feasible, rationalizing the quantity, quality and layout of the information obtained and stored. In summary, the proposed sampling method shows potential capacity to be used as a tool to support new agricultural practices, offering a more efficient and smart alternative to traditional methods of data collection.
2

Método de amostragem de área agrícola com sensores embarcados: uma abordagem que leva em conta a variabilidade do campo / Sampling method for agricultural area with embedded sensors: an approach that takes the variability of the field into account

Giovana Tripoloni Tangerino 29 October 2014 (has links)
O trabalho apresentado destaca a importância do uso de práticas agrícolas que estimulem a manutenção da agricultura em níveis de alta produtividade, mas que, ao mesmo tempo, viabilizem uma minimização dos efeitos negativos da agricultura sobre o meio ambiente. O trabalho situa-se no contexto da aquisição de informação sobre a plantação considerando sua variabilidade para uso em Agricultura de Precisão. Foi proposto o desenvolvimento de um método inteligente de amostragem, que faz uso de sensores embarcados em veículos autônomos com capacidade de processamento em conjunto com técnicas geoestatísticas de amostragem. O processo de amostragem proposto leva em consideração a dependência espacial do campo, obtendo apenas a quantidade de informação necessária para reproduzir confiavelmente a variável em estudo para análises posteriores, amostrando mais densamente áreas de maior variabilidade e menos densamente áreas de menor variabilidade. O método desenvolvido estabelece a exploração em duas fases. Na fase de levantamento exploratório é utilizado um esquema de amostragem aninhado adaptado para as características do sistema de coleta de dados, nesta fase é realizada uma primeira avaliação sobre a escala espacial de variabilidade do campo. Na fase do levantamento principal são realizados ciclos de amostragens em grade, quantas vezes seja necessário até que critérios de decisão sejam atingidos. Nestes ciclos, ou etapas, são tomadas decisões com base na qualidade e na densidade de variabilidade das amostras. Tais decisões estabelecem se a área deve ser mais amostrada ou dividida em subáreas. A mínima precisão que se deseja alcançar é determinada pelo usuário e também limitada pelas capacidades estruturais da máquina que realizará aplicações a taxa variada. Em comparação com métodos tradicionais de obtenção de dados com sensores embarcados, as análises dos resultados mostram reduções que chegam a 98% na quantidade de pontos amostrados e redução de mais de 49% na distância final percorrida pelo veículo. Assim, a utilização do método proposto viabiliza a redução em custos computacionais de armazenagem e processamento, de gastos com combustíveis e de tempo de mão de obra. Os resultados evidenciam que é viável a amostragem baseada na densidade de variabilidade, racionalizando a quantidade, a qualidade e a disposição da informação obtida e armazenada. Em conclusão, o método de amostragem proposto apresenta potencial capacidade para sua utilização como uma ferramenta de apoio às novas práticas agrícolas, oferecendo uma alternativa mais eficiente e inteligente aos métodos tradicionais de coleta de dados. / The present work highlights the importance of using farming practices that encourage the maintenance of agriculture in high levels of productivity and, at the same time, enable reduction of the negative effects of agriculture on the environment. The work is in the context of acquisition of crop information considering its variability for use in Precision Agriculture. The development of a smart sampling method has been proposed, which uses of embedded sensors in autonomous vehicles with a processing capacity together with sampling geostatistics techniques. The sampling process takes into account the spatial dependence of the field, obtaining strictly the necessary amount of information to subsequent analyzes in a reliable way. It also aims to sample areas of higher variability more densily and areas of lower variability less densily. The developed method performs the exploration in two phases. In the exploratory phase, a nested sampling scheme adapted to the characteristics of the system is used. In this phase, the first assessment about the spatial scale of variability of the field is done. In the main survey phase, grid samplings are performed in stages, as many times as necessary until the decision criteria are reached. At the stages of the main survey, decisions are taken based on the quality and variability density of the samples, and this establishes whether the area should be better sampled or divided into subareas. The user determines the minimum precision to be reached. The structural capabilities of the machine, that will perform the variable rate applications, also restrict the system precision. The result analyses show that the number of samples reduced 98% and the final distance ran by the autonomous vehicle reduced 49%, compared to traditional methods that use embedded sensors to collect data. Thus, the use of the proposed method represents reduced computational costs of data storage and processing, fuel costs and manpower. The results show that the sampling based on variability density is feasible, rationalizing the quantity, quality and layout of the information obtained and stored. In summary, the proposed sampling method shows potential capacity to be used as a tool to support new agricultural practices, offering a more efficient and smart alternative to traditional methods of data collection.
3

Técnicas de aumento de eficiência para metaheurísticas aplicadas a otimização global contínua e discreta / Efficiency--enhancement techniques for metaheuristics applied and continuous global optimization

Melo, Vinícius Veloso de 07 December 2009 (has links)
Vários problemas do mundo real podem ser modelados como problemas de otimização global, os quais são comuns em diversos campos da Engenharia e Ciência. Em geral, problemas complexos e de larga-escala não podem ser resolvidos de forma eficiente por técnicas determinísticas. Desse modo, algoritmos probabilísticos, como as metaheurísticas, têm sido amplamente empregados para otimização global. Duas das principais dificuldades nesses problemas são escapar de regiões sub-ótimas e evitar convergência prematura do algoritmo. À medida que a complexidade do problema aumenta, devido a um grande número de variáveis ou de regiões sub-ótimas, o tempo computacional torna-se grande e a possibilidade de que o algoritmo encontre o ótimo global diminui consideravelmente. Para solucionar esses problemas, propõe-se o uso de técnicas de aumento ou melhoria de eficiência. Com essas técnicas, buscase desenvolver estratégias que sejam aplicáveis a diversos algoritmos de otimização global, ao invés de criar um novo algoritmo de otimização ou um algoritmo híbrido. No contexto de problemas contínuos, foram desenvolvidas técnicas para determinação de uma ou mais regiões promissoras do espaço de busca, que contenham uma grande quantidade de soluções de alta qualidade, com maior chance de conterem o ótimo global. Duas das principais técnicas propostas, o Algoritmo de Otimização de Domínio (DOA) e a arquitetura de Amostragem Inteligente (SS), foram testadas com sucesso significativo em vários problemas de otimização global utilizados para benchmark na literatura. A aplicação do DOA para metaheurísticas produziu melhoria de desempenho em 50% dos problemas testados. Por outro lado, a aplicação da SS produziu reduções de 80% da quantidade de avaliações da função objetivo, bem como aumentou a taxa de sucesso em encontrar o ótimo global. Em relação a problemas discretos (binários), foram abordados problemas nos quais existem correlações entre as variáveis, que devem ser identificadas por um modelo probabilístico. Das duas técnicas de aumento de eficiência propostas para esses problemas, a técnica denominada Gerenciamento do Tamanho da População (PSM) possibilita a construção de modelos probabilísticos mais representativos. Com o PSM foi possível atingir uma redução de cerca de 50% na quantidade de avaliações, mantendo a taxa de sucesso em 100%. Em resumo, as técnicas de aumento de eficiência propostas mostramse capazes de aumentar significativamente o desempenho de metaheurísticas, tanto para problemas contínuos quanto para discretos / Several real-world problems from various fields of Science and Engineering can be modeled as global optimization problems. In general, complex and large-scale problems can not be solved eficiently by exact techniques. In this context, Probabilistic algorithms, such as metaheuristics, have shown relevant results. Nevertheless, as the complexity of the problem increases, due to a large number of variables or several regions of the search space with sub-optimal solutions, the running time augments and the probability that the metaheuristics will find the global optimum is significantly reduced. To improve the performance of metaheuristics applied to these problems, new eficiency-enhancement techniques (EETs) are proposed in this thesis. These EETs can be applied to different types of global optimization algorithms, rather than creating a new or a hybrid optimization algorithm. For continuous problems, the proposed EETs are the Domain Optimization Algorithm (DOA) and the Smart Sampling (SS) architecture. In fact, they are pre-processing algorithms that determine one or more promising regions of the search-space, containing a large amount of high-quality solutions, with higher chance of containing the global optimum. The DOA and SS were tested with signicant success in several global optimization problems used as benchmark in the literature. The application of DOA to metaheuristics produced a performance improvement in 50% of problems tested. On the other hand, the application of SS have produced reductions of 80% of the evaluations of the objective function, as well as increased the success rate of finding the global optimum. For discrete problems (binary), we focused on metaheuristics that use probabilistic models to identify correlations among variables that are frequent in complex problems. The main EET proposed for discrete problems is called Population Size Management (PSM), which improves the probabilistic models constructed by such algorithms. The PSM produced a reduction of 50% of function evaluations maintaining the success rate of 100%. In summary, the results show that the proposed EETs can significantly increase the performance of metaheuristics for both discrete and continuous problems
4

Técnicas de aumento de eficiência para metaheurísticas aplicadas a otimização global contínua e discreta / Efficiency--enhancement techniques for metaheuristics applied and continuous global optimization

Vinícius Veloso de Melo 07 December 2009 (has links)
Vários problemas do mundo real podem ser modelados como problemas de otimização global, os quais são comuns em diversos campos da Engenharia e Ciência. Em geral, problemas complexos e de larga-escala não podem ser resolvidos de forma eficiente por técnicas determinísticas. Desse modo, algoritmos probabilísticos, como as metaheurísticas, têm sido amplamente empregados para otimização global. Duas das principais dificuldades nesses problemas são escapar de regiões sub-ótimas e evitar convergência prematura do algoritmo. À medida que a complexidade do problema aumenta, devido a um grande número de variáveis ou de regiões sub-ótimas, o tempo computacional torna-se grande e a possibilidade de que o algoritmo encontre o ótimo global diminui consideravelmente. Para solucionar esses problemas, propõe-se o uso de técnicas de aumento ou melhoria de eficiência. Com essas técnicas, buscase desenvolver estratégias que sejam aplicáveis a diversos algoritmos de otimização global, ao invés de criar um novo algoritmo de otimização ou um algoritmo híbrido. No contexto de problemas contínuos, foram desenvolvidas técnicas para determinação de uma ou mais regiões promissoras do espaço de busca, que contenham uma grande quantidade de soluções de alta qualidade, com maior chance de conterem o ótimo global. Duas das principais técnicas propostas, o Algoritmo de Otimização de Domínio (DOA) e a arquitetura de Amostragem Inteligente (SS), foram testadas com sucesso significativo em vários problemas de otimização global utilizados para benchmark na literatura. A aplicação do DOA para metaheurísticas produziu melhoria de desempenho em 50% dos problemas testados. Por outro lado, a aplicação da SS produziu reduções de 80% da quantidade de avaliações da função objetivo, bem como aumentou a taxa de sucesso em encontrar o ótimo global. Em relação a problemas discretos (binários), foram abordados problemas nos quais existem correlações entre as variáveis, que devem ser identificadas por um modelo probabilístico. Das duas técnicas de aumento de eficiência propostas para esses problemas, a técnica denominada Gerenciamento do Tamanho da População (PSM) possibilita a construção de modelos probabilísticos mais representativos. Com o PSM foi possível atingir uma redução de cerca de 50% na quantidade de avaliações, mantendo a taxa de sucesso em 100%. Em resumo, as técnicas de aumento de eficiência propostas mostramse capazes de aumentar significativamente o desempenho de metaheurísticas, tanto para problemas contínuos quanto para discretos / Several real-world problems from various fields of Science and Engineering can be modeled as global optimization problems. In general, complex and large-scale problems can not be solved eficiently by exact techniques. In this context, Probabilistic algorithms, such as metaheuristics, have shown relevant results. Nevertheless, as the complexity of the problem increases, due to a large number of variables or several regions of the search space with sub-optimal solutions, the running time augments and the probability that the metaheuristics will find the global optimum is significantly reduced. To improve the performance of metaheuristics applied to these problems, new eficiency-enhancement techniques (EETs) are proposed in this thesis. These EETs can be applied to different types of global optimization algorithms, rather than creating a new or a hybrid optimization algorithm. For continuous problems, the proposed EETs are the Domain Optimization Algorithm (DOA) and the Smart Sampling (SS) architecture. In fact, they are pre-processing algorithms that determine one or more promising regions of the search-space, containing a large amount of high-quality solutions, with higher chance of containing the global optimum. The DOA and SS were tested with signicant success in several global optimization problems used as benchmark in the literature. The application of DOA to metaheuristics produced a performance improvement in 50% of problems tested. On the other hand, the application of SS have produced reductions of 80% of the evaluations of the objective function, as well as increased the success rate of finding the global optimum. For discrete problems (binary), we focused on metaheuristics that use probabilistic models to identify correlations among variables that are frequent in complex problems. The main EET proposed for discrete problems is called Population Size Management (PSM), which improves the probabilistic models constructed by such algorithms. The PSM produced a reduction of 50% of function evaluations maintaining the success rate of 100%. In summary, the results show that the proposed EETs can significantly increase the performance of metaheuristics for both discrete and continuous problems
5

Efficient Design of Embedded Data Acquisition Systems Based on Smart Sampling

Satyanarayana, J V January 2014 (has links) (PDF)
Data acquisition from multiple analog channels is an important function in many embedded devices used in avionics, medical electronics, robotics and space applications. It is desirable to engineer these systems to reduce their size, power consumption, heat dissipation and cost. The goal of this research is to explore designs that exploit a priori knowledge of the input signals in order to achieve these objectives. Sparsity is a commonly observed property in signals that facilitates sub-Nyquist sampling and reconstruction through compressed sensing, thereby reducing the number of A to D conversions. New architectures are proposed for the real-time, compressed acquisition of streaming signals. A. It is demonstrated that by sampling a collection of signals in a multiplexed fashion, it is possible to efficiently utilize all the available sampling cycles of the analogue-to-digital converters (ADCs), facilitating the acquisition of multiple signals using fewer ADCs. The proposed method is modified to accommodate more general signals, for which spectral leakage, due to the occurrence of non-integral number of cycles in the reconstruction window, violates the sparsity assumption. When the objective is to only detect the constituent frequencies in the signals, as against exact reconstruction, it can be achieved surprisingly well even in the presence of severe noise (SNR ~ 5 dB) and considerable undersampling. This has been applied to the detection of the carrier frequency in a noisy FM signal. Information redundancy due to inter-signal correlation gives scope for compressed acquisition of a set of signals that may not be individually sparse. A scheme has been proposed in which the correlation structure in a set of signals is progressively learnt within a small fraction of the duration of acquisition, because of which only a few ADCs are adequate for capturing the signals. Signals from the different channels of EEG possess significant correlation. Employing signals taken from the Physionet database, the correlation structure of nearby EEG electrodes was captured. Subsequent to this training phase, the learnt KLT matrix has been used to reconstruct signals of all the electrodes with reasonably good accuracy from the recordings of a subset of electrodes. Average error is below 10% between the original and reconstructed signals with respect to the power in delta, theta and alpha bands: and below 15% in the beta band. It was also possible to reconstruct all the channels in the 10-10 system of electrode placement with an average error less than 8% using recordings on the sparser 10-20 system. In another design, a set of signals are collectively sampled on a finer sampling grid using ADCs driven by phase-shifted clocks. Thus, each signal is sampled at an effective rate that is a multiple of the ADC sampling rate. So, it is possible to have a less steep transition between the pass band and the stop band, thereby reducing the order of the anti-aliasing filter from 30 to 8. This scheme has been applied to the acquisition of voltages proportional to the deflection of the control surfaces in an aerospace vehicle. The idle sampling cycles of an ADC that performs compressive sub-sampling of a sparse signal, can be used to acquire the residue left after a coarse low-resolution sample is taken in the preceding cycle, like in a pipelined ADC. Using a general purpose, low resolution ADC, a DAC and a summer, one can acquire a sparse signal with double the resolution of the ADC, without having to use a dedicated pipelined ADC. It has also been demonstrated as to how this idea can be applied to achieve a higher dynamic range in the acquisition of fetal electrocardiogram signals. Finally, it is possible to combine more than one of the proposed schemes, to handle acquisition of diverse signals with di_erent kinds of sparsity. The implementation of the proposed schemes in such an integrated design can share common hardware components so as to achieve a compact design.

Page generated in 0.099 seconds