• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 443
  • 40
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 500
  • 500
  • 470
  • 468
  • 217
  • 181
  • 150
  • 149
  • 148
  • 135
  • 130
  • 114
  • 114
  • 113
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
491

Anemômetro ultrassônico unidimensional baseado em correlação cruzada / Unidimensional ultrasonic anemometer based in cross correlation

Silva, Tiago Polizer da 05 May 2016 (has links)
Este trabalho descreve o desenvolvimento de um medidor de velocidade de vento aplicando técnicas da teoria de erros, como a correlação cruzada, bem como sensores de ultrassom. Ele pode ser utilizado em encanamentos, onde se busca obter a velocidade de fluídos, em estações climáticas, em aeroportos, no momento de se aplicar pesticidas assim como em fazendas eólicas, onde o conhecimento da velocidade do vento é necessário, dentre outras aplicações. O sistema desenvolvido é composto pela placa de desenvolvimento de0-nano, uma placa de circuito impresso (PCB) para aquisição de sinais e dois pares de sensores de ultrassom. A PCB também possui circuitos para excitação dos sensores de ultrassom bem como comunicação com o PC para armazenamento dos sinais amostrados. A teoria de erros foi discutida e os resultados do protótipo foram analisados utilizando métodos probabilísticos necessários para verificar a incerteza. Dentro da FPGA da placa de0-nano foi desenvolvido um sistema baseado no processador NIOS, o qual foi construído através da ferramenta QSYS. Além disso, blocos em VHDL foram desenvolvidos para interfaceamento do sistema com o PC. Um pequeno túnel de vento foi construído e um anemômetro de mão foi adquirido para validar o protótipo. Simulações foram realizadas no Microsoft Excel 2007 para comparar a correlação cruzada dada pelo protótipo e a teoria. É comum que DSPs e Microprocessadores estejam dentro de medidores de velocidade do vento, no entanto um sistema desenvolvido com FPGA aumenta a velocidade de processamento devido ao paralelismo. Blocos descritos em VHDL podem ser facilmente replicados dentro da FPGA e existe uma grande coleção de bibliotecas, literatura extensiva e exemplos de código para o NIOS. Com isso há um menor tempo de desenvolvimento de um protótipo/sistema e há facilidade de desenvolver um System on Chip (SoC) de sistemas baseados em FPGA, reduzindo os custos de um futuro produto comercial. / This work describes the development of one axis wind speed measurement equipment applying error theory techniques, as the cross correlation, and ultrasound sensors. It can be used in tubes, where fluid speed knowledge is needed, climate stations, airports, in the moment of applying pesticides and in wind farms, where wind speed knowledge is necessary. The built prototype is a connected set of a de0-nano development board, a signal acquisition printed circuit board and two pairs of ultrasound sensors. The PCB also has circuits for ultrasound sensors exciting and PC communications to store the sampled signals. The error theory was discussed and the prototype's results were developed using probabilistic methods needed to verify the uncertainty. Inside de0-nano board FPGA chip, a system based in NIOS processor was developed and built through QSYS tool. There are some blocks described in VHDL for PCB interfacing. A small wind tunnel was built and a hand anemometer was acquired to validate the proposed system. Simulations were done in Microsoft Excel 2007 to compare the cross correlation given by the prototype and the theory. It is common DSPs and microprocessors inside this type of equipments to measure wind speed, but a system developed with a FPGA increases the processing speed due to parallelism. Blocks described in VHDL can be easily replicated inside the FPGA and there is a large collection of libraries, extensive literature and code examples for NIOS. Thereby there are small system/prototype developing times and there is an easy development of a System on Chip (SOC) of FPGA based systems, reducing the costs for a future commercial product.
492

Uma nova proposta para análise do sistema de transporte público utilizando redes complexas ponderadas / A new proposal for analysis of the public transport system using weighted complex networks

De Bona, Anderson Andrei 02 August 2017 (has links)
Com base na teoria de redes complexas, este trabalho analisa as características das redes de sistema transporte público (STPs) de duas grandes cidades brasileiras (Curitiba e São Paulo) usando a representação do tipo Espaço-L e Espaço-P, através de métricas não ponderadas e ponderadas (distância geográfica entre as paradas de veículos e frequência dos veículos nos pontos de paradas). É proposta uma nova forma de classificar as métricas de redes complexas (orientadas a congestionamento e acessibilidade) aplicadas exclusivamente aos STPs. Também é proposta uma nova forma de interpretar resultados baseados em distância geográfica e frequência através do inverso da distância e inverso da frequência. Através da classificação das métricas também são propostas duas novas métricas para identificação de congestionamento em STP, além de uma nova forma de utilizar a representação utilizando mapas geográficos baseado em curvas de dispersão para identificar regiões de congestionamento e de acessibilidade do STP. Para a cidade de Curitiba é realizado um estudo que analisa o STP ao longo da semana (dia útil, sábados e domingos) e ao longo do dia útil através de 14 intervalos de horários com a finalidade de avaliar a rede de forma dinâmica. Com os resultados foi possível identificar comportamentos em regiões geográficas dos STP de Curitiba e São Paulo que podem auxiliar aos planejadores do STP a entenderem e realizar mudanças em busca de melhorias. Para os usuários é possível utilizar os resultados para buscar alternativas na utilização do STP. Outra contribuição é a interpretação e visualização dos resultados das métricas de redes complexas para avaliação de STPs. / Abstract (parágrafo único): Based on the theory of complex networks, this work analyzes the characteristics of public transport networks (PTNs) of two large Brazilian cities (Curitiba and São Paulo). Using the L-space and P-space representation, through unweighted and weighted metrics (geographical distance between vehicle stops and vehicle frequency at stop points) a new way of classifying the complex network metrics (congestion and accessibility oriented) applied exclusively to PTNs is proposed. It is also proposed a new way of interpreting results based on geographic distance and frequency by inverse distance and inverse frequency. Through the classification of the metrics also two new metrics for congestion identification in PTN are proposed, as well as a new way of using the representation using geographic maps based on dispersion curves to identify congestion and accessibility regions of the PTN. For the city of Curitiba a study is carried out that analyzes a PTN throughout the week (weekday, Saturdays and Sundays) and throughout the business day through 14 time intervals in order to evaluate the network dynamically evaluate. With the results it was possible to identify behaviors and geographic regions of the PTNs of Curitiba and São Paulo that can help the PTN planners to understand and make changes in the PTN seeking improvements. For users it is possible to use the results to find alternatives in the use of PTN. Another contribution is the way of interpreting and visualizing the results of complex network metrics for PTN evaluation, which allows the evaluation of networks through a PTN.
493

Modelagem e implementação de um sistema de processamento digital de sinais baseado em FPGA para geração de imagens por ultrassom usando Simulink / Modeling and implementation of a FPGA-based digital signal processing for ultrasound imaging using Simulink

Ferreira, Breno Mendes 04 April 2017 (has links)
O ultrassom (US) é uma técnica bem consolidada que vem sendo amplamente utilizada para teste, caracterização e visualização de estruturas internas de materiais biológicos e não biológicos. Na Universidade Tecnológica Federal do Paraná, o grupo de pesquisa do US desenvolveu o sistema ULTRA-ORS que, apesar de adequado para pesquisa relacionada à excitação e recepção multicanal, possui tempo de computação muito elevado, devido a processamento em computador pessoal. Este trabalho apresenta a modelagem, implementação e validação de um sistema de processamento digital de sinais baseado em dispositivo FPGA (Field-Programmable Gate Array) de alto desempenho para reconstrução de imagens por US através da técnica beamforming. O software Simulink e a ferramenta DSP Builder foram empregados para simulação e transformação dos seguintes modelos em linguagem de descrição de hardware: filtro digital FIR (Finite Impulse Response), filtro de interpolação CIC (Cascaded Integrator-Comb), atraso variável, apodização, somatório coerente, decimação, demodulação com detecção de envoltória e compressão logarítmica. Após validação no Simulink, o projeto foi sintetizado para uma FPGA Stratix IV e implementado na placa Terasic DE4-230. A ferramenta SignalTap II do software Quartus II foi utilizada para aquisição dos sinais processados pela FPGA. Para avaliação gráfica e quantitativa da acurácia deste método, foram empregados dados brutos reais de US, adquiridos do ULTRA-ORS com frequência de amostragem de 40 MHz e resolução de 12 bits, e a função de custo da raiz quadrada do erro quadrático médio normalizado (NRMSE) em comparação com as mesmas funções implementadas através de scripts no Matlab. Como resultado principal do modelamento, além das respostas individuais de cada bloco implementado, são apresentadas as comparações entre as imagens reconstruídas pelo ULTRA-ORS e pelo processamento em FPGA para quatro janelas de apodização. A excelente concordância entre os resultados simulados e experimentais com valores de NRMSE inferiores à 6,2% e latência total de processamento de 0,83 µs corroboram a simplicidade, modularidade e efetividade do modelamento proposto para utilização em pesquisas sobre o processamento de sinais de US para reconstrução de imagens em tempo real. / Ultrasound (US) is a well-established technique that has been widely used for testing, characterizing and visualizing internal structures of biological and non-biological material. The US research group of the Federal University of Technology - Paraná developed the ULTRA-ORS system, which, although suitable for research related to multichannel excitation and reception, uses a large computing time, due to the personal computer processing. This research presents the modeling, implementation and validation of a digital processing system of signals based on a FPGA (Field-Programmable Gate Array) device of high performance for the reconstruction of images through US, using the beamforming technique. The software Simulink and the tool DSP Builder were used for simulation and transformation of the following models in hardware description language: digital filter FIR (Finite Impulse Response), CIC (Cascaded Integrator-Comb) Interpolation filter, variable delay, apodization, coherent summation, decimation, demodulation with envelope detection and logarithmic compression. After the Simulink validation, the design was synthesized for a Stratix IV FPGA and implemented on the Terasic DE4-230 board. The tool SignalTap II in the software Quartus II was used to acquire the processed signals from the FPGA. For the graphic and quantitative evaluation of the accuracy of this method, we used real raw US data, acquired from the ULTRA-ORS with sampling frequency of 40 MHz and 12-bit resolution, and the normalized root mean squared error (NRMSE) in comparison with the same functions implemented through scripts in Matlab. As a main result of the modeling, in addition to the individual responses of each implemented block, comparisons between the reconstructed images by ULTRA-ORS and FPGA processing for four apodization windows are presented. The excellent agreement between the simulated and experimental results with NRMSE values lower than 6.2% and total processing latency of 0.83 µs corroborates the simplicity, modularity and effectiveness of the proposed modeling for use in US signal processing research for real-time image reconstruction.
494

Prior de regularização para problema de demosaicing com aplicação em CFA’s variados / Regularization prior to demosaicing problems with various CFA application

Fugita, Romário Keiti Pizzatto 24 September 2015 (has links)
CNPq / Este trabalho tem por objetivo apresentar uma nova proposta aos algoritmos de Demosaicing existentes, utilizando uma abordagem mais flexível quanto ao uso do Color filter array (CFA) em imagens coloridas de único sensor. O algoritmo proposto tem como base a estrutura de problemas inversos, cujo funcionamento utiliza um modelo de operação matriz-vetor que é adaptável ao CFA empregado. A partir deste conceito, o algoritmo trata o problema de Demosaicing como o de minimização de função custo, com um termo referente à dependência da estimativa com os dados obtidos e com o modelo de captura, o outro termo é relacionado aos conhecimentos observados em imagens que podem ser explorados para uma estimativa mais precisa, tal elemento é chamado de Prior. A proposta estabelecida tem como base algoritmos de regularização com foco na alta correlação presente entre os canais de cor (R, G e B), e na suavidade local de regiões uniformes, essa base formaliza o Prior empregado no trabalho. A minimização da proposta é atingida iterativamente através do IRLS-CG, que é a combinação de dois algoritmos de minimização eficientes, que apresenta rápidas respostas, e a capacidade de trabalhar com a norma L1 em conjunto com a norma L2. Com o intuito de atestar a qualidade do algoritmo proposto, foi elaborado um experimento em que o mesmo foi testado com diferentes CFAs e em situação com ruído gaussiano de 35dB e sem ruído algum em imagens da base de dados da Kodak, e os resultados comparados com algoritmos do estado-da-arte, no qual o desempenho da proposta apresentou resultados excelentes, inclusive em CFAs que destoam do padrão Bayer, que é o mais comumente usado na atualidade. / This research presents a new proposal to Demosaicing algorithms, using a more flexible approach to deal with the Color filter array (CFA) in single sensor color imaging. The proposed algorithm is structured in the inverse problems model, whose functions employ a CFA adaptive matrix-vector operational model. From this concept, the Demosaicing problem is treated as a cost function minimization with two terms, one referring to the dependence between the estimation and the data provided by the acquisition model, and other term related to features observed in images, which can be explored to form a more precise estimation, this last term is known as Prior. The established proposal is applied in regularization algorithms with focus on the high correlation among color channels (R, G, and B), and in the local smoothness of uniform regions. Both characteristics organize the Prior employed in this work. The minimization proposed is iteratively achieved through IRLS-CG, which is the combination of two efficient minimization algorithms, that presents quick responses, and the capacity to deal with L1 and L2 norm at the same time. The quality of the proposed algorithm is verified in an experiment in which varous CFA were used and a situation with 35dB gaussian noise and another one with no noise applied to the Kodak dataset, and the results were compared with state-of-the-art algorithms, in which the performance of the proposed Prior showed excellent results, including when the CFA is different from Bayer’s, which is the most commonly used pattern.
495

Esquemas de comunicação cooperativa com múltiplos relays e múltiplas antenas visando a eficiência energética / Cooperative communication schemes with multiple relays and multiple antennas aiming energy efficiency

Peron, Guilherme de Santi 26 May 2016 (has links)
Redes de sensores sem fio geralmente são compostas por dispositivos que demandam qualidade de transmissão, porém com energia limitada. Desta condição, surge a necessidade do estudo da eficiência energética. Neste documento são apresentadas e comparadas algumas técnicas para melhorar a eficiência energética que englobam o uso da diversidade, tais como o uso de múltiplas antenas no transmissor e receptor bem como o uso de comunicação cooperativa, esta última melhor aproveitada quando um canal de retorno está disponível. São abordados dois modelos de comunicação. No primeiro cenário, apenas a camada física é levada em conta em uma rede MIMO cooperativa com múltiplos relays, em que é proposto um algoritmo distribuído iterativo de alocação de potência baseado no algoritmo de Dinkelbach visando a maximização da eficiência energética. Os resultados demonstram que o uso de múltiplas antenas melhora a eficiência energética, mas que dependendo da técnica MIMO utilizada, o número de relays e o número de antenas podem levar a efeitos diferentes em termos de eficiência energética. Em seguida, é apresentado um cenário que envolve a camada física e a camada de controle de acesso ao meio (MAC), no qual propõe-se um protocolo MAC cooperativo distribuído. Neste caso, além da energia utilizada para transmitir os pacotes de dados, também é analisado o atraso e o consumo para acessar o canal. Pelos resultados obtidos, notase que as técnicas MIMO aumentam a eficiência energética em relação ao caso SISO, das quais pode-se destacar a seleção de antenas. Além disso, outros parâmetros, tais como densidade de nós, eficiência espectral, número de antenas e distância entre nós, são analisados em termos de eficiência energética. / Wireless sensor networks are usually composed of devices that require transmission quality, but with limited energy. From this condition arises the necessity of the energy efficiency study. In this document, we present and compare some techniques to improve the energy efficiency, which include the use of diversity, such as the use of multiple antennas in the transmitter and receiver as well as the use of cooperative communication. The latter has better results when a feedback channel is available. We cover two communication scenarios. In the first scenario, only the physical layer is taken into account in a MIMO cooperative network with multiple relays, where we propose a power allocation distributed iterative algorithm based on the Dinkelbach’s algorithm aiming at the energy efficiency maximization. The results show that the use of multiple antennas improve the energy efficiency, but depending on the used MIMO transmission scheme, the number of relays and the number of antennas can lead to different effects with respect to the energy efficiency. In the following, we present a scenario that contains a cross-layer analysis encompassing physical and medim access control (MAC) layers in a cooperative MIMO network, where we propose a distributed cooperative MAC protocol. In this case, besides the energy used to transmit thte data packets, we also analyze the delay and energy consumption to access the channel. Results show that the MIMO techniques improve the energy efficiency when we compare to SISO, especially when employing antenna selection techniques. In addition, other parameters, such as node density, spectral efficiency, number of antennas and distance between nodes, are analyzed with respect to the energy efficiency.
496

Development and evaluation of an elderly fall detection system based on a wearable device located at wrist / Desenvolvimento e avaliação de um sistema de detecção de quedas de idosos baseado em um dispositivo vestível localizado no punho

Quadros, Thiago de 31 August 2017 (has links)
A queda de idosos é um problema de saúde mundial. Todos os anos, cerca de 30% dos idosos com 65 anos ou mais são vítimas de quedas. Além disso, as consequências de uma queda podem ser fisiológicas (e.g. fraturas ósseas, ferimentos musculares) e psicológicas, como a perda de autoconfiança, levando a novas quedas. Uma solução para este problema está relacionada com ações preventivas (e.g. adaptação de mobília) aliadas a sistemas de detecção de quedas, os quais podem notificar familiares e serviços médicos de urgência. Como o tempo de espera por socorro após uma queda está relacionado com a severidade das consequências dela, esses sistemas devem oferecer elevada acurácia e detecção em tempo real. Embora existam várias soluções para isso na literatura (a maioria relacionada com dispositivos vestíveis), poucas delas estão relacionadas a dispositivos de punho, principalmente por causa dos desafios existentes para essa configuração. Considerando o punho como um local mais confortável, discreto e aceitável para uso de um dispositivo (menos associado com o estigma do uso de uma solução médica), este trabalho propõe o desenvolvimento e avaliação de uma solução baseada nessa configuração. Para isso, diferentes sensores (acelerômetro, giroscópio e magnetômetro) foram combinados com diferentes algoritmos, baseados em métodos de limiar e aprendizado de máquina, visando definir os melhores sinais e abordagem para a detecção de quedas. Esses métodos consideraram informações de aceleração, velocidade, deslocamento e orientação espacial, permitindo o cálculo de componentes verticais do movimento. Para o treino e avaliação dos algoritmos, dois protocolos diferentes foram empregados: um primeiro envolvendo 2 voluntários (homens, 27 e 31 anos) simulando um total de 80 sinais de queda e 80 de não-queda, e um segundo envolvendo 22 voluntários (14/8 homens/mulheres, idade média: 25,2 ± 4,7) simulando um total de 396 sinais de queda e 396 de não-queda. Uma análise exaustiva de diferentes sinais e parâmetros de configuração foi executada para cada método. O melhor algoritmo baseado em limiar considerou sinais de aceleração vertical e velocidade total, alcançando 95,8% de sensibilidade e 86,5% de especificidade. Por outro lado, o melhor algoritmo de aprendizagem de máquina foi o baseado no método K-Nearest Neighbors, considerando informações de aceleração, velocidade e deslocamento verticais combinadas com os ângulos de orientação espacial: 100% de sensibilidade e 97,9% de especificidade. Os resultados obtidos permitem enfatizar a relevância de algoritmos de aprendizagem de máquina para sistemas de detecção de queda vestíveis localizados no punho quando comparados a algoritmos baseados em limiar. Esta conclusão oferece grande contribuição para a pesquisa de detectores de quedas similares, sugerindo a melhor abordagem para novos desenvolvimentos. / Falls in the elderly age are a world health problem. Every year, about 30% of people aged 65 or older become victims of fall events. The consequences of a fall may be physiological (e.g. bone fractures, muscular injuries) and psychological, including the loss of self-confidence by fear of falling, which leads to new falls. A solution to this problem is related to preventive actions (e.g. adapting furniture) allied to fall detection systems, which can alert family members and emergency medical services. Since the response time for help is related to the fall's consequences and severity, such systems must offer high accuracy and real-time fall detection. Although there are many fall detection solutions in literature (most part of them related to wearable devices), few of them are related to wrist-worn devices, mainly because of the existing challenges for this configuration. Considering the wrist as a comfortable, discrete and acceptable place for an elderly wearable device (less associated to the stigma of using a medical device), this work proposes the development and evaluation of a fall detection solution based on this configuration. For this, different sensors (accelerometer, gyroscope and magnetometer) were combined to different algorithms, based on threshold and machine learning methods, in order to define the best signals and approach for an elderly fall detection. These methods considered acceleration, velocity and displacement information, relating them with wrist spatial orientation, allowing the calculation of the vertical components of each movement. For the algorithms' training and evaluation, two different protocols were employed: one involving 2 volunteers (both males, ages of 27 and 31) performing a total of 80 fall and 80 non-fall events simulation, and the other involving 22 volunteers (14/8 males/females, ages mean: 25.2 ± 4.7) performing a total of 396 fall and 396 non-fall events simulation. An exhaustive evaluation of different signals and configuration parameters was performed for each method. The best threshold-based algorithm employed the vertical acceleration and total velocity signals, achieving 95.8% and 86.5% of sensitivity and specificity, respectively. On the other hand, the best machine learning algorithm was based on the K-Nearest Neighbors method employing the vertical acceleration, velocity and displacement information combined with spatial orientation angles: 100% of sensitivity and 97.9% of specificity. The obtained results allow to emphasize the relevance of machine learning algorithms for wrist-worn fall detection systems instead of traditional threshold-based algorithms. These results offer great contributions for the research of similar wearable fall detectors, suggesting the best approach for new developments.
497

Controle de fixação atentivo para uma cabeça robótica com visão binocular / Attentive gaze control for a binocular robot head

Roos, André Filipe 29 August 2016 (has links)
A pesquisa em visão computacional ainda está distante de replicar a adaptabilidade e o desempenho do Sistema Visual Humano. Grande parte das técnicas consolidadas são válidas apenas em cenas estáticas e condições restritivas. Cabeças robóticas representam um avanço em flexibilidade, pois carregam câmeras que podem ser movimentadas livremente para a exploração dos arredores. A observação artificial de um ambiente dinâmico exige a solução de pelo menos dois problemas: determinar quais informações perceptuais relevantes extrair dos sensores e como controlar seu movimento para mudar e manter a fixação de alvos com forma e movimento arbitrários. Neste trabalho, um sistema de controle de fixação binocular geral é proposto, e o subsistema responsável pela seleção de alvos e fixação de deslocamentos laterais é projetado, experimentado e avaliado em uma cabeça robótica com quatro graus de liberdade. O subsistema emprega um popular modelo de atenção visual de baixo nível para detectar o ponto mais saliente da cena e um controlador proporcional-integral gera um movimento conjuntivo das duas câmeras para centralizá-lo na imagem da câmera esquerda, assumida como dominante. O desenvolvimento do sistema envolveu primeiramente a modelagem física detalhada do mecanismo de pan e tilt das câmeras. Então, a estrutura linearizada obtida foi ajustada por mínimos quadrados aos dados experimentais de entrada-saída. Por fim, os ganhos do controlador foram sintonizados por otimização e ajuste manual. A implementação em C++ com a biblioteca OpenCV permitiu operação em tempo real a 30 Hz. Experimentos demonstram que o sistema é capaz de fixar alvos estáticos e altamente salientes sem conhecimento prévio ou fortes suposições. Alvos em movimento harmônico são perseguidos naturalmente, embora com defasamento. Em cenas visualmente densas, onde múltiplos alvos em potencial competem pela atenção, o sistema pode apresentar comportamento oscilatório, exigindo o ajuste fino dos pesos do algoritmo para operação suave. A adição de um controlador para o pescoço e de um controlador de vergência para a compensação de deslocamentos em profundidade são os próximos passos rumo a um observador artificial genérico. / Computer vision research is still far from replicating the adaptability and performance of the Human Visual System. Most of its consolidated techniques are valid only over static scenes and restrictive conditions. Robot heads represent an advance in terms of flexibility by carrying cameras that can be freely moved to explore the surroundings. Artificial observation of dynamic environments requires the solution of at least two problems: to determine what is the relevant perceptual information to be extracted from the sensors and how to control their movement in order to shift and hold gaze on targets featuring arbitrary shapes and motions. In this work, a general binocular gaze control system is proposed, and the subsystem responsible for targeting and following lateral displacements is designed, tested and assessed in a four degrees-of-freedom robot head. The subsystem employs a popular low-level visual attention model to detect the most salient point in the scene, and a proportional-integral controller generates a conjunctive movement of the cameras to center it in the left camera image, assumed to be dominant. The development started with a detailed physical modeling of the pan and tilt mechanism that drives the cameras. Then, the linearized structure obtained was fitted via least squares estimation to experimental input-output data. Finally, the controller gains were tuned by optimization and manual adjustment. The OpenCV-based implementation in C++ allowed real-time execution at 30 Hz. Experiments demonstrate that the system is capable of fixating highly salient and static targets without any prior knowledge or strong assumptions. Targets describing harmonic motion are naturally pursued, albeit with a phase shift. In cluttered scenes, where multiple potential targets compete for attention, the system may present oscillatory behavior, requiring fine adjustment of algorithm weights for smooth operation. The addition of a controller for the neck and a vergence controller to compensate for depth displacements are the next steps towards a generic artificial observer.
498

Modelagem de uma cadeia de suprimentos com logística reversa e incerteza na demanda utilizando programação linear inteira mista / Modeling a supply chain with reverse logistics and demand uncertainty mixed integer linear programming

Pereira, Laion Xavier 16 December 2016 (has links)
Este trabalho considera uma cadeia de suprimentos (CS) que opera com logística reversa. A modelagem da CS foi adaptada de um modelo de Programação Linear Inteira Mista (PLIM) da literatura que maximiza o valor presente líquido (VPL) esperado para o caso de uma empresa brasileira. Esta adaptação considera uma CS de menor complexidade, com um número menor de nós e produtos em relação à aplicação da literatura. A estrutura da CS considerada é formada por duas fábricas, dois centros de distribuição, dois pontos varejistas e quatro mercados consumidores, assim como fluxos de transporte direto e reverso de produtos. A modelagem da CS considera ainda incertezas na demanda e cenários com e sem tributação. Os resultados mostram os fluxos de transporte de produtos no sentido direto e reverso, estoques ao longo da CS, assim como aspectos econômicos segundo regras tributárias e incentivos fiscais. Estes aspectos econômicos são utilizados para justificar o investimento na logística reversa. Embora a incerteza na demanda altere o VPL esperado, que é maior quando cenários otimistas de demanda são considerados, resultados obtidos para diversos cenários de demanda mostram que esta alteração não é significativa. / This dissertation considers a supply chain (SC) with reverse logistics. The SC modeling has been modified for a Brazilian company from a MILP model which maximizes the expected net present value (NPV) found in the literature. This modification considers a low complexity SC with fewer number of nodes and products than the application of the literature.The SC structure is composed by two factories, two warehouses, two retailers, and four markets as well as direct and reverse flows of products. The SC modeling also considers demand uncertainty and cenarios with and without taxes. The results show direct and reverse flows of products, inventories, and economic aspects according to tax rules and incentives. These economic aspects are used to justify the investment in reverse logistics. Although the demand uncertainty changes the expected NPV, which is big for cenarios with optimistic demand, the results obtained for several cenarios of demand show that the expected NPV is not quite affected.
499

Avaliação de desempenho de controladores preditivos multivariáveis

Santos, Rodrigo Ribeiro 11 November 2013 (has links)
In advanced process control, the Model Predictive Control (MPC) may be considered the most important innovation in recent years and the standard tool for industrial applications due to the fact that it keeps the plant operating in the constraints more profitable. However, like every control algorithm, the MPC after some time in operation rarely works as originally designed. Thus, to preserve the benefits of MPC systems for a long period of time, their performance needs to be monitored and evaluated during the operation. This task require the presence of reliable and effective tools to detect when the controller performance is below of the desirable, to define the need, or not, of recommissioning the system. Thus, the objective of this work is development of techniques for monitoring and evaluating the performance of multivariable predictive controllers, being developed two new tools: LQG benchmark Modified and IHMC benchmark. The results obtained from numerical simulations were satisfactory and consistent with the technical literature applied in the developments of the evaluators, which were used in the monitoring of the control system MPC of the oil-water-gas three-phase separation process, offering an appropriate solution and providing subsidies for implementations in real industrial systems. / Em controle avançado de processos, o controlador preditivo ou MPC (Model Predictive Control) pode ser considerado como a mais importante inovação dos últimos anos e a ferramenta padrão para aplicações industriais, devido ao fato do MPC manter a planta operando dentro das suas restrições de forma mais lucrativa. Entretanto, como todo algoritmo de controle, o MPC depois de algum tempo em operação dificilmente funciona como quando fora inicialmente projetado. Desta forma, com o objetivo de manter os benefícios dos sistemas MPC por um longo período de tempo, seu desempenho precisa ser monitorado e avaliado durante a operação. Esta tarefa requer a presença de ferramentas efetivas e confiáveis para detectar quando o desempenho do controlador estiver abaixo do desejável, para definir a necessidade, ou não, de um recomissionamento do sistema. Destarte, aborda-se neste trabalho o desenvolvimento de técnicas para monitoramento e avaliação de desempenho de controladores preditivos multivariáveis, sendo desenvolvidas duas novas ferramentas: LQG benchmark Modificado e IHMC benchmark. Os resultados obtidos a partir de simulações numéricas foram satisfatórios e coerentes com a literatura técnica aplicada no desenvolvimento dos avaliadores, os quais foram utilizados no monitoramento do sistema de controle MPC do processo de separação trifásica água-óleo-gás, oferecendo assim uma solução apropriada e fornecendo subsídios para implementações em sistemas industrias reais.
500

Caracterização de sistemas fotovoltaicos conectados à rede elétrica na cidade de Curitiba / Grid-connected photovoltaic systems characterization in Curitiba

Tonin, Fabianna Stumpf 05 June 2017 (has links)
Na busca por novas opções para a constituição da matriz energética brasileira, os Sistemas Fotovoltaicos Conectados à Rede Elétrica (SFVCR) configuram-se como uma alternativa para os centros urbanos, pois permitem a geração de energia de modo distribuído, ou seja, no próprio local onde esta será consumida e, permitem também, com que o excedente de energia produzido seja injetado na rede elétrica. Diante da perspectiva de instalar o SFVCR, o objetivo desta pesquisa foi o de elaborar um estudo específico, detalhado e atualizado sobre o potencial de geração de energia na cidade de Curitiba. Neste trabalho apresenta-se o estudo de caso de seis sistemas fotovoltaicos instalados em Curitiba, os quais tiveram seus Índices de Mérito – Produtividade, Taxa de Desempenho e Fator de Capacidade - avaliados, a partir dos dados de geração de energia elétrica destes sistemas, e dos dados de irradiação obtidos do Instituto Nacional de Meteorologia (INMET). O estudo revelou que, até abril de 2017, o estado do Paraná possuía 810 SFVCR em operação, correspondendo a um total de 5MW e, a cidade de Curitiba 170 SFVCR – 865 kW em operação, sendo que 80% dos sistemas estão instalados em residências. Outro fato interessante é que 98% desses sistemas usam módulos com tecnologia de silício policristalino, 75% aplicam inversores monofásicos e, 95% desses inversores não possuem transformadores, pois dessa forma as perdas no processo de conversão são menores, além desses equipamentos serem mais compactos e possuírem tecnologia mais avançada do que os inversores com transformador. Constatou-se que a principal tendência do mercado de energia fotovoltaica é empregar inversores sem transformador. Além disso, os estudos realizados revelaram que a escolha do inversor e o modo de instalação dos painéis fotovoltaicos são fatores determinantes para maximizar o desempenho do sistema fotovoltaico. Os resultados desta pesquisa mostram a importante contribuição que os SFVCR podem trazer na geração de energia de modo distribuído e dessa forma, podem colaborar para a elaboração de políticas públicas com o intuito de incentivar projetos e pesquisas na área de energia fotovoltaica, visando à disseminação do uso dessa fonte renovável no país. / In the search for new options for the establishment of the energy matrix of Brazil, the Grid-Connected Photovoltaic Systems (SFVCR) are configured as an alternative to urban centers, because they allow the power generation at distributed mode, that is, generate energy at the place where it will be consumed and inject the surplus energy into the network. Faced with the prospect of installing Grid-Connected Photovoltaic System, the objective of this research is to characterize this type of photovoltaic system and also, analyze the results in terms of productivity parameters, such as Yield, Performance Ratio and Capacity Factor of six grid-connected systems that are installed in Curitiba. The radiation data used to calcute those parameters has been acquired from Instituto Nacional de Meteorologia (INMET). This paper highlight that the Parana state has 810 SFVCR (until April 2017) in operation, which stands for 5MW and Curitiba has 170 SFVCR, 865 kW in operation, and 80% of them are installed in residences. In addition, 98% of those systems use multicrystalline modules, 75% use single phase inverters and 95% of these use inverters transformerless, because the losses in the conversion process are reduced and the equipments are more compact and have more technology than the inverters with transformer. So, the main trend of photovoltaic energy market is to use transformerless inverters. The results obtained shows that the inverters’choice and the installation mode of the photovoltaic modules are important factors to maximize the photovoltaic system’s performance. In the end, the results demonstrates that the SFVCR contribute to distributed power generation and should be use in the elaboration of public policies with the purpose of encouraging projects and research in the photovoltaic energy’s area, aiming the dissemination of this renewable source of energy in Brazil.

Page generated in 0.1206 seconds