• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 539
  • 16
  • 6
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • Tagged with
  • 568
  • 568
  • 341
  • 329
  • 280
  • 203
  • 131
  • 124
  • 121
  • 118
  • 114
  • 101
  • 101
  • 88
  • 85
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
521

Determinação do melhor método para prever o alcance à junção craniovertebral nas cirurgias endoscópicas transnasais utilizando neuronavegação / Definition of the best method to predict the extent of endoscopic transnasal surgery to the cranio vertebral junction using neuronavigation

Aurich, Lucas Alves 31 March 2017 (has links)
Espera-se redução das complicações cirúrgicas quando lesões localizadas na junção craniovertebral (JCV) são operadas pelo acesso cirúrgico endoscópico transnasal ao invés do acesso transoral. Entretanto, não se sabe ainda qual seria o maior alcance inferior da abordagem transnasal e também qual seria o melhor método para prever o limite de exposição no planejamento pré-operatório. No presente estudo, o alcance à JCV foi definido no período intraoperatório com neuronavegação em 10 pacientes operados pela via transnasal. O limite anatômico obtido foi comparado com as linhas nasopalatina e palatina. A linha nasopalatina mostrou ser o melhor método para prever o alcance inferior à JCV. / It is expected reduction of surgical complications when craniovertebral junction pathologies are operated using the endoscopic transnasal approach instead of the transoral approach. However, it is yet unclear what is the lower extent of the transnasal approach and which method is better to predict this lower limit in preoperative planning. This study evaluates the inferior exposure of craniocervical junction in 10 patients operated through the transnasal approach using neuronavigation. The intraoperative anatomical limit was compared to nasopalatine and palatine lines. The nasopalatine line predicts more accurately the inferior limit of the transnasal approach.
522

Avaliação de uma análise automatizada para determinação de atividade enzimática / Evaluation of new method for automatized analysis to determine the enzimatic activity

Estrela, Mariely Cordeiro 31 March 2017 (has links)
O Instituto de Biologia Molecular do Paraná (IBMP) atua na produção de insumos para detecção de doenças. Em parceria com Bio-Manguinhos (Fiocruz) é atualmente responsável pelo fornecimento do módulo de amplificação do KIT NAT Brasileiro para o diagnóstico molecular de HIV (AIDS), HCV (Hepatite C) e HBV (Hepatite B), entre outros produtos para diagnóstico in vitro. O teste molecular consiste basicamente, na amplificação do material genético do vírus (DNA ou RNA) através da técnica de PCR (reação em cadeia pela polimerase) em tempo real, que possibilita a detecção do agente patógeno a partir de pequenas quantidades de ácido nucleico presente na amostra. A reação de PCR ocorre pela atividade da Taq DNA Polimerase, uma enzima termostável amplamente utilizada para replicação seletiva de fragmentos de DNA. Esta enzima foi isolada a partir de uma bactéria termofílica, denominada Thermus aquaticus e é produzida pelo IBMP, sendo considerada um insumo de alta criticidade. Uma das etapas de controle do processo produtivo dessa enzima é a avaliação do extrato bruto enzimático e a determinação da atividade da enzima purificada. O método de quantificação consiste em avaliar a atividade enzimática através da metodologia de PCR convencional, seguida por uma análise do perfil eletroforético das amostras em gel de agarose. No entanto, a metodologia empregada atualmente apresenta uma grande subjetividade, visto que a interpretação dos resultados pode sofrer variações quando analisados por diferentes operadores. O objetivo do presente trabalho é avaliar a implementação de uma análise automatizada dos resultados através do processamento digital de imagens, que além de facilitar sobremaneira as rotinas laboratoriais, pode ser a chave para resultados com maior grau de precisão e repetibilidade, eliminando assim o viés subjetivo do analista. A nova metodologia de análise implica em menor interferência do analista na interpretação dos resultados. O método proposto foi testado em um conjunto de imagens e os resultados obtidos foram comparados com os valores da análise manual atualmente utilizada. Os resultados foram considerados promissores, pois a análise automatizada, além de reduzir significativamente o tempo de análise, possibilita uma padronização dos resultados. / The Molecular Biology Institute of Paraná (IBMP) acts in the production of inputs for detection of diseases. In partnership with Bio-Manguinhos (Fiocruz), it is currently responsible for manufacturing the amplification module of the Brazilian NAT KIT for HIV (AIDS), HCV (Hepatitis C) and HBV (Hepatitis B), besides other products for molecular diagnostics. The molecular test basically consists of amplifying the genetic material of the virus (DNA or RNA) through the real-time PCR (polymerase chain reaction) technique, which enables detection of the pathogen from small amounts of nucleic acid present in the sample. The PCR reaction occurs by the activity of Taq DNA Polymerase, a thermostable enzyme widely used for selective replication of DNA fragments. This enzyme was isolated from a thermophilic bacterium, called Thermus aquaticus and is produced by the IBMP, being considered an input of high criticality. One of the steps in controlling the production process of this enzyme is the evaluation of the enzymatic extract and the determination of the activity of the purified enzyme. The quantification method consists in evaluating the enzymatic activity through the conventional PCR methodology, followed by an analysis of the electrophoretic profile of the agarose gel samples. However, the methodology currently used presents a great subjectivity, since the interpretation of results can suffer variations when analyzed by different operators. The objective of the present work is to evaluate the implementation of an automated analysis of the results through digital image processing, which in addition to facilitating the laboratory routines, can be the key to results with a greater degree of precision and repeatability, thus eliminating the subjective bias of the analyst. The new methodology of analysis implies less interference of the analyst in the interpretation of the results. The proposed method was tested in a set of images and the obtained results were compared with the values of the manual analysis currently used. The results were considered promising because the automated analysis, besides significantly reducing the analysis time, allows a standardization of the results.
523

Arquitetura RF-Miner: uma solução para localização em ambientes internos / RF-Miner Architecture: a solution for locating indoor environments

Gomes, Eduardo Luis 12 December 2017 (has links)
A utilização de etiquetas RFID UHF passivas para localização indoor vem sendo amplamente estudada devido ao seu baixo custo. Porém ainda existe uma grande dificuldade em obter bons resultados, principalmente devido à variação de rádio frequência em ambientes que possuem materiais reflexivos, como por exemplo, metais e vidros. Esta pesquisa propõe uma arquitetura de localização para ambientes indoor utilizando etiquetas RFID UHF passivas e técnicas de mineração de dados. Com a aplicação da arquitetura em ambiente real foi possível identificar a posição exata de objetos com a precisão de aproximadamente cinco centímetros e em tempo real. A arquitetura se demonstrou uma eficiente alternativa para implantação de sistemas de localização indoor, além de apresentar uma técnica de derivação de atributos diretos que contribui efetivamente para os resultados finais. / The use of passive UHF RFID tags for indoor location has been widely studied due to its low cost. However, there is still a great difficulty to reach good results, mainly due the radio frequency variation in environments that have materials with reflective surfaces, such as metal and glass. This research proposes a localization architecture for indoor environments using passive UHF RFID tags and data mining techniques. With the application of the architecture in real environment, it was possible to identify the exact position of objects with the precision of approximately five centimeters and in real time. The architecture has demonstrated an efficient alternative for the implantation of indoor localization systems, besides presenting a derivation technique of direct attributes that contributes effectively to the final results.
524

Priorização de testes de sistema automatizados por meio de grafos de chamadas / Test case prioritization of automated system tests using call graphs

Meros, Jader Elias 31 March 2016 (has links)
Com a necessidade cada vez maior de agilizar a entrega de novos desenvolvimentos ao cliente e de diminuir o tempo de desenvolvimento das aplicações, a priorização de casos de teste possibilita a detecção das falhas presentes na aplicação mais rapidamente por meio da ordenação dos casos de teste a serem executados. E, com isso, possibilita também que a correção destas falhas inicie o mais brevemente possível. Entretanto, quando os casos de teste a serem priorizados são testes automatizados de sistema, critérios tradicionais utilizados na literatura como cobertura de código ou modelos do sistema deixam de ser interessantes, dada a característica inerente deste tipo de teste na qual a organização e a modelagem adotadas são ignoradas por se tratarem de testes de caixa preta. Considerando a hipótese de que casos de teste automatizados grandes testam mais partes da aplicação e que casos de teste similares podem estar testando a mesma área da aplicação, parece válido crer que a execução dos casos de teste de sistema priorizando os testes mais complexos pode alcançar resultados positivos quando comparada à execução não ordenada dos casos de teste. É neste cenário que este trabalho propõe o uso dos grafos de chamadas dos próprios casos de teste como critério para priorização destes, priorizando assim a execução dos casos de teste com a maior quantidade de nós no seu grafo. A abordagem proposta neste trabalho mostrou, por meio de dois estudos de caso, ser capaz de melhorar a taxa de detecção de falhas em relação à execução não ordenada dos casos de teste. Além disso, a abordagem proposta obteve resultados semelhantes as abordagens tradicionais de priorização utilizando cobertura de código da aplicação. / With the increasing need to streamline the delivery of new developments to the customer and reduce application development time, test case prioritization allows a quicker detection of faults present in the application through the ordering of test cases to be executed. Besides that, a quicker detection enables also the correction of these faults to start as soon as possible. However, when the test cases to be prioritized are automated system tests, traditional criteria used in the literature like code coverage or system models become uninteresting, given that this type of test case, classified as black box test, ignores how the application was coded or modeled. Considering the hypothesis that bigger automated test cases verify more parts of the application and that similar test cases may be testing the same application areas, it seems valid to believe that giving a higher priority to more complex test cases to be executed first can accomplish positive results when compared to the unordered execution of test cases. It is on this scenario that this project studies the usage of call graphs from test cases as the criterion to prioritize them, increasing the priority of the execution of test cases with the higher number of nodes on the graph. The approach proposed in this document showed through two case studies that it is capable of improving fault detection rate compared to unordered test cases. Furthermore, the proposed approach achieved similar results when compared to a traditional prioritization approach using code coverage of the application.
525

Estudo do controle com Feedforward de potência e realimentação direta aplicado ao retificador Boost Bridgeless com alto fator de potência

Ganacim, Júlio César Secolo 04 December 2014 (has links)
Neste trabalho é apresentado um estudo de controladores aplicados a retificadores boost pré reguladores de alto fator de potência. A estratégia convencional, mais utilizada, é o controle por valores médios instantâneos que apresenta uma malha de corrente rápida e uma malha de tensão lenta. A frequência de corte desta última malha é baixa devido a ondulação de tensão de saída no dobro da frequência da rede que deve existir para apresentar uma corrente de entrada com baixa distorção harmônica. Esses controles apresentam um sobressinal elevado e transição lenta durante transitórios de carga, levando a elevação da tensão dos capacitores de saída. A técnica apresentada é um controlador digital com feedforward de potência de saída associado a uma malha de realimentação direta, também conhecido como autocontrole. Essa estratégia possibilita melhores resultados nos transitórios de carga possibilitando redução do capacitor de saída com reduzido sobressinal no transitório de carga. / In this work a study applied in controlled boost rectifiers with high power factor is presented. A most widely used conventional control strategy is the instant average current control, this kind of control have a fast current loop and a slow voltage loop.The cutoff frequency of the voltage loop is low because the output voltage ripple must be twice the frequency of the input network, that need to exist to provide an input current with low harmonic distortion. These controllers feature a high overshoot and a slow transition during the transient load what leads a high voltage in the output capacitors. The developed technique is a digital controller that operate with a feedforward output power associated with one cycle control. This strategy provides better results in the load transient, reducing the overshoot and alloying a reduction of the output capacitor.
526

Anemômetro ultrassônico unidimensional baseado em correlação cruzada / Unidimensional ultrasonic anemometer based in cross correlation

Silva, Tiago Polizer da 05 May 2016 (has links)
Este trabalho descreve o desenvolvimento de um medidor de velocidade de vento aplicando técnicas da teoria de erros, como a correlação cruzada, bem como sensores de ultrassom. Ele pode ser utilizado em encanamentos, onde se busca obter a velocidade de fluídos, em estações climáticas, em aeroportos, no momento de se aplicar pesticidas assim como em fazendas eólicas, onde o conhecimento da velocidade do vento é necessário, dentre outras aplicações. O sistema desenvolvido é composto pela placa de desenvolvimento de0-nano, uma placa de circuito impresso (PCB) para aquisição de sinais e dois pares de sensores de ultrassom. A PCB também possui circuitos para excitação dos sensores de ultrassom bem como comunicação com o PC para armazenamento dos sinais amostrados. A teoria de erros foi discutida e os resultados do protótipo foram analisados utilizando métodos probabilísticos necessários para verificar a incerteza. Dentro da FPGA da placa de0-nano foi desenvolvido um sistema baseado no processador NIOS, o qual foi construído através da ferramenta QSYS. Além disso, blocos em VHDL foram desenvolvidos para interfaceamento do sistema com o PC. Um pequeno túnel de vento foi construído e um anemômetro de mão foi adquirido para validar o protótipo. Simulações foram realizadas no Microsoft Excel 2007 para comparar a correlação cruzada dada pelo protótipo e a teoria. É comum que DSPs e Microprocessadores estejam dentro de medidores de velocidade do vento, no entanto um sistema desenvolvido com FPGA aumenta a velocidade de processamento devido ao paralelismo. Blocos descritos em VHDL podem ser facilmente replicados dentro da FPGA e existe uma grande coleção de bibliotecas, literatura extensiva e exemplos de código para o NIOS. Com isso há um menor tempo de desenvolvimento de um protótipo/sistema e há facilidade de desenvolver um System on Chip (SoC) de sistemas baseados em FPGA, reduzindo os custos de um futuro produto comercial. / This work describes the development of one axis wind speed measurement equipment applying error theory techniques, as the cross correlation, and ultrasound sensors. It can be used in tubes, where fluid speed knowledge is needed, climate stations, airports, in the moment of applying pesticides and in wind farms, where wind speed knowledge is necessary. The built prototype is a connected set of a de0-nano development board, a signal acquisition printed circuit board and two pairs of ultrasound sensors. The PCB also has circuits for ultrasound sensors exciting and PC communications to store the sampled signals. The error theory was discussed and the prototype's results were developed using probabilistic methods needed to verify the uncertainty. Inside de0-nano board FPGA chip, a system based in NIOS processor was developed and built through QSYS tool. There are some blocks described in VHDL for PCB interfacing. A small wind tunnel was built and a hand anemometer was acquired to validate the proposed system. Simulations were done in Microsoft Excel 2007 to compare the cross correlation given by the prototype and the theory. It is common DSPs and microprocessors inside this type of equipments to measure wind speed, but a system developed with a FPGA increases the processing speed due to parallelism. Blocks described in VHDL can be easily replicated inside the FPGA and there is a large collection of libraries, extensive literature and code examples for NIOS. Thereby there are small system/prototype developing times and there is an easy development of a System on Chip (SOC) of FPGA based systems, reducing the costs for a future commercial product.
527

Development and evaluation of an elderly fall detection system based on a wearable device located at wrist / Desenvolvimento e avaliação de um sistema de detecção de quedas de idosos baseado em um dispositivo vestível localizado no punho

Quadros, Thiago de 31 August 2017 (has links)
A queda de idosos é um problema de saúde mundial. Todos os anos, cerca de 30% dos idosos com 65 anos ou mais são vítimas de quedas. Além disso, as consequências de uma queda podem ser fisiológicas (e.g. fraturas ósseas, ferimentos musculares) e psicológicas, como a perda de autoconfiança, levando a novas quedas. Uma solução para este problema está relacionada com ações preventivas (e.g. adaptação de mobília) aliadas a sistemas de detecção de quedas, os quais podem notificar familiares e serviços médicos de urgência. Como o tempo de espera por socorro após uma queda está relacionado com a severidade das consequências dela, esses sistemas devem oferecer elevada acurácia e detecção em tempo real. Embora existam várias soluções para isso na literatura (a maioria relacionada com dispositivos vestíveis), poucas delas estão relacionadas a dispositivos de punho, principalmente por causa dos desafios existentes para essa configuração. Considerando o punho como um local mais confortável, discreto e aceitável para uso de um dispositivo (menos associado com o estigma do uso de uma solução médica), este trabalho propõe o desenvolvimento e avaliação de uma solução baseada nessa configuração. Para isso, diferentes sensores (acelerômetro, giroscópio e magnetômetro) foram combinados com diferentes algoritmos, baseados em métodos de limiar e aprendizado de máquina, visando definir os melhores sinais e abordagem para a detecção de quedas. Esses métodos consideraram informações de aceleração, velocidade, deslocamento e orientação espacial, permitindo o cálculo de componentes verticais do movimento. Para o treino e avaliação dos algoritmos, dois protocolos diferentes foram empregados: um primeiro envolvendo 2 voluntários (homens, 27 e 31 anos) simulando um total de 80 sinais de queda e 80 de não-queda, e um segundo envolvendo 22 voluntários (14/8 homens/mulheres, idade média: 25,2 ± 4,7) simulando um total de 396 sinais de queda e 396 de não-queda. Uma análise exaustiva de diferentes sinais e parâmetros de configuração foi executada para cada método. O melhor algoritmo baseado em limiar considerou sinais de aceleração vertical e velocidade total, alcançando 95,8% de sensibilidade e 86,5% de especificidade. Por outro lado, o melhor algoritmo de aprendizagem de máquina foi o baseado no método K-Nearest Neighbors, considerando informações de aceleração, velocidade e deslocamento verticais combinadas com os ângulos de orientação espacial: 100% de sensibilidade e 97,9% de especificidade. Os resultados obtidos permitem enfatizar a relevância de algoritmos de aprendizagem de máquina para sistemas de detecção de queda vestíveis localizados no punho quando comparados a algoritmos baseados em limiar. Esta conclusão oferece grande contribuição para a pesquisa de detectores de quedas similares, sugerindo a melhor abordagem para novos desenvolvimentos. / Falls in the elderly age are a world health problem. Every year, about 30% of people aged 65 or older become victims of fall events. The consequences of a fall may be physiological (e.g. bone fractures, muscular injuries) and psychological, including the loss of self-confidence by fear of falling, which leads to new falls. A solution to this problem is related to preventive actions (e.g. adapting furniture) allied to fall detection systems, which can alert family members and emergency medical services. Since the response time for help is related to the fall's consequences and severity, such systems must offer high accuracy and real-time fall detection. Although there are many fall detection solutions in literature (most part of them related to wearable devices), few of them are related to wrist-worn devices, mainly because of the existing challenges for this configuration. Considering the wrist as a comfortable, discrete and acceptable place for an elderly wearable device (less associated to the stigma of using a medical device), this work proposes the development and evaluation of a fall detection solution based on this configuration. For this, different sensors (accelerometer, gyroscope and magnetometer) were combined to different algorithms, based on threshold and machine learning methods, in order to define the best signals and approach for an elderly fall detection. These methods considered acceleration, velocity and displacement information, relating them with wrist spatial orientation, allowing the calculation of the vertical components of each movement. For the algorithms' training and evaluation, two different protocols were employed: one involving 2 volunteers (both males, ages of 27 and 31) performing a total of 80 fall and 80 non-fall events simulation, and the other involving 22 volunteers (14/8 males/females, ages mean: 25.2 ± 4.7) performing a total of 396 fall and 396 non-fall events simulation. An exhaustive evaluation of different signals and configuration parameters was performed for each method. The best threshold-based algorithm employed the vertical acceleration and total velocity signals, achieving 95.8% and 86.5% of sensitivity and specificity, respectively. On the other hand, the best machine learning algorithm was based on the K-Nearest Neighbors method employing the vertical acceleration, velocity and displacement information combined with spatial orientation angles: 100% of sensitivity and 97.9% of specificity. The obtained results allow to emphasize the relevance of machine learning algorithms for wrist-worn fall detection systems instead of traditional threshold-based algorithms. These results offer great contributions for the research of similar wearable fall detectors, suggesting the best approach for new developments.
528

Modelagem e implementação de um sistema de processamento digital de sinais baseado em FPGA para geração de imagens por ultrassom usando Simulink / Modeling and implementation of a FPGA-based digital signal processing for ultrasound imaging using Simulink

Ferreira, Breno Mendes 04 April 2017 (has links)
O ultrassom (US) é uma técnica bem consolidada que vem sendo amplamente utilizada para teste, caracterização e visualização de estruturas internas de materiais biológicos e não biológicos. Na Universidade Tecnológica Federal do Paraná, o grupo de pesquisa do US desenvolveu o sistema ULTRA-ORS que, apesar de adequado para pesquisa relacionada à excitação e recepção multicanal, possui tempo de computação muito elevado, devido a processamento em computador pessoal. Este trabalho apresenta a modelagem, implementação e validação de um sistema de processamento digital de sinais baseado em dispositivo FPGA (Field-Programmable Gate Array) de alto desempenho para reconstrução de imagens por US através da técnica beamforming. O software Simulink e a ferramenta DSP Builder foram empregados para simulação e transformação dos seguintes modelos em linguagem de descrição de hardware: filtro digital FIR (Finite Impulse Response), filtro de interpolação CIC (Cascaded Integrator-Comb), atraso variável, apodização, somatório coerente, decimação, demodulação com detecção de envoltória e compressão logarítmica. Após validação no Simulink, o projeto foi sintetizado para uma FPGA Stratix IV e implementado na placa Terasic DE4-230. A ferramenta SignalTap II do software Quartus II foi utilizada para aquisição dos sinais processados pela FPGA. Para avaliação gráfica e quantitativa da acurácia deste método, foram empregados dados brutos reais de US, adquiridos do ULTRA-ORS com frequência de amostragem de 40 MHz e resolução de 12 bits, e a função de custo da raiz quadrada do erro quadrático médio normalizado (NRMSE) em comparação com as mesmas funções implementadas através de scripts no Matlab. Como resultado principal do modelamento, além das respostas individuais de cada bloco implementado, são apresentadas as comparações entre as imagens reconstruídas pelo ULTRA-ORS e pelo processamento em FPGA para quatro janelas de apodização. A excelente concordância entre os resultados simulados e experimentais com valores de NRMSE inferiores à 6,2% e latência total de processamento de 0,83 µs corroboram a simplicidade, modularidade e efetividade do modelamento proposto para utilização em pesquisas sobre o processamento de sinais de US para reconstrução de imagens em tempo real. / Ultrasound (US) is a well-established technique that has been widely used for testing, characterizing and visualizing internal structures of biological and non-biological material. The US research group of the Federal University of Technology - Paraná developed the ULTRA-ORS system, which, although suitable for research related to multichannel excitation and reception, uses a large computing time, due to the personal computer processing. This research presents the modeling, implementation and validation of a digital processing system of signals based on a FPGA (Field-Programmable Gate Array) device of high performance for the reconstruction of images through US, using the beamforming technique. The software Simulink and the tool DSP Builder were used for simulation and transformation of the following models in hardware description language: digital filter FIR (Finite Impulse Response), CIC (Cascaded Integrator-Comb) Interpolation filter, variable delay, apodization, coherent summation, decimation, demodulation with envelope detection and logarithmic compression. After the Simulink validation, the design was synthesized for a Stratix IV FPGA and implemented on the Terasic DE4-230 board. The tool SignalTap II in the software Quartus II was used to acquire the processed signals from the FPGA. For the graphic and quantitative evaluation of the accuracy of this method, we used real raw US data, acquired from the ULTRA-ORS with sampling frequency of 40 MHz and 12-bit resolution, and the normalized root mean squared error (NRMSE) in comparison with the same functions implemented through scripts in Matlab. As a main result of the modeling, in addition to the individual responses of each implemented block, comparisons between the reconstructed images by ULTRA-ORS and FPGA processing for four apodization windows are presented. The excellent agreement between the simulated and experimental results with NRMSE values lower than 6.2% and total processing latency of 0.83 µs corroborates the simplicity, modularity and effectiveness of the proposed modeling for use in US signal processing research for real-time image reconstruction.
529

Otimização por enxame de partículas para segmentação de cordões de solda em imagens radiográficas de tubulações de petróleo / Particle swarm optimization for weld bead segmentation in radiographics images of petroleum pipes

Miranda, Rafael Arthur Rocha 03 December 2015 (has links)
CAPES / A inspeção radiográfica de juntas soldadas é importante para garantir qualidade e segurança em redes de tubulações. Apesar de todo treinamento e conhecimento, os especialistas estão sujeitos a cometer erros causados por diferentes fatores. O cansaço visual, distrações e a quantidade de radiografias a serem analisadas podem ser listados como principais fatores. Este trabalho busca propor um sistema de auxílio às inspeções de defeitos em cordões de solda de tubulações de petróleo. Para isto, apresenta uma abordagem para a segmentação automática de cordões de solda em imagens radiográficas do tipo Parede Dupla Vista Dupla (PDVD) combinando dois métodos já conhecidos na literatura: Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO) e Alinhamento Dinâmico no Tempo (Dynamic Time Warping – DTW). Um perfil vertical é obtido das coordenadas da janela codificada nas partículas do PSO e comparado, via DTW a um perfil modelo. A medida de similaridade entre o perfil modelo e o perfil extraído é a base para o cálculo do fitness de cada partícula o qual possui grande importância para o funcionamento da abordagem. Desta forma estudos foram realizados para a escolha de uma função de fitness adequada para o PSO. Os testes foram realizados em duas etapas: primeiramente, fixou-se a altura do perfil extraído e num segundo conjunto de experimentos a altura foi um elemento variável incorporado à codificação das partículas e evoluiu durante as iterações do PSO. Os resultados obtidos na segmentação automática do cordão de solda mostraram que o PSO, na maioria das vezes (no primeiro conjunto de experimentos, obteve um desempenho entre 85,17% e 93,11% e no segundo entre 79,83% e 81,36%), convergiu para a janela que permite a segmentação do cordão de solda, indicando resultados promissores. / The radiographic weld inspection is important to ensure quality and security of pipe networks. Despite all training and knowledge, specialists can provide misclassifications for several reasons. The visual tiredness, distraction and the quantity of radiographic to be analyzed can induce an inspector mistaken. This work aims at proposing an assistant system for automatic segmentation of weld bead present in radiographic images. For this, it presents an approach for segmentation of weld bead in radiographic images of type double wall double image (DWDI), merging two well known algorithms: Particle Swarm Optimization - PSO and Dynamic Time Warping - DTW. A vertical profile is raised from a window encoded in a particle of PSO and it is compared through DTW with a model profile. The similarity measure between the model and extracted profile is the basis for the fitness computation which is of great importance to the final performance. Thus a lot of effort has devoted to choose a suitable fitness function for PSO. The tests were realized in two steps: firstly, the height of the extracted profile was fixed and in a second set of experiments the height was a variable component incorporated into the coding of particles and evolved during PSO iterations. The results obtained in automatic segmentation of weld bead showed that the PSO, mostly, converged satisfactorily (first phase achieved a performance was between 85,17% and 93,11% and the second one is between 79,83% and 81,36%), to the window that enables the segmentation of the weld bead, indicating promising results.
530

Eficiência energética por meio de um controlador PI autossintonizado por lógica fuzzy em sistema de distribuição de água de um setor da grande Curitiba / Energy efficiency by a PI controller self-tuned by fuzzy logic in a water distribution system of a sector of the great Curitiba

Pena, Jailson Silvério 23 March 2018 (has links)
Esta dissertação apresenta uma aplicação de inteligência artificial, a lógica fuzzy, estruturada como um controlador fuzzy, para a sintonia dos ganhos Kp e Ki de um controlador PI. Este último, configurado num conversor de frequência para a operação de um conjunto motor-bomba do sistema de abastecimento de água potável na região denominada de Recalque Mercês (RMER), na cidade de Curitiba, compreendendo 4 bairros com 140 km de tubulação e mais de 13 mil ligações a clientes. Hoje, o sistema funciona com controle PI tradicional de ganhos fixos, variando a velocidade do conjunto motorbomba, controlados por um sensor de pressão à jusante do bombeamento. Contudo, a variação de consumo de água potável fornecida é muito grande durante o período de um dia, sendo máxima no entardecer e mínima durante a madrugada, e com características sazonais, o consumo aumenta com o calor e diminui no frio, o que faz esse tipo de controle fixo ser ineficiente em determinados momentos. A proposta é adotar o controle fuzzy para alterar os coeficientes do controlador PI ao longo do dia, de forma autônoma, de acordo com o consumo instantâneo e assim, alcançar uma melhor eficiência energética do sistema, prezando pela qualidade do serviço prestado à população. Isto é, garantindo a vazão e a pressão de água para o consumidor. Por meio do MatLab®, mais precisamente os toolbox’s de simulação, Simulink® e SimScape®, foram criados dois modelos, um com o controle atual e o outro com a proposta inteligente, de uma abreviação da rede e do sistema de bombeamento da elevatória existente, a diminuição de 4 conjuntos motor-bomba para apenas 1 (um) e num trajeto único, perfazendo 5,4 km de distância, até o local denominado de ponto crítico, onde é mais longe, alto e difícil de se manter a pressão no patamar de 10 m.c.a. (1 bar), por norma. O controlador fuzzy desenvolvido possui 2 entradas, o nível do reservatório e a pressão à jusante do conjunto motor-bomba, e 2 saídas, os ganhos proporcional e integral para o PI. Com a estrutura baseado em regras, foram criadas 123 regras de inferência para que o sistema obtenha um desempenho favorável. As simulações foram realizadas com a referência de dados – 3 meses de histórico – de medições do reservatório e do sensor de pressão que é a realimentação do controle PI existente. Assim, a eficiência energética de 6,15% ao mês, em termos de energia elétrica consumida, foi conseguida, comparando com o modelo de controle tradicional. / This dissertation presents an application of artificial intelligence, the fuzzy logic, structured as a fuzzy controller, for the tuning of the Kp and Ki gains of a PI controller. The latter, configured in a frequency converter for the operation of a motor-pump assembly of the drinking water supply system in the region called Recalque Mercês (RMER), in the city of Curitiba, comprising 4 districts with 140 km of pipeline and more than 13 thousand connections to customers. Today, the system operates with PI traditional control with fixed gains, varying the speed of the motor-pump assembly, controlled by a pressure sensor downstream to the pumping. However, the variation in the consumption of potable water supplied is very large during the period of one day, being maximum at dusk and minimum during the dawn, and with seasonal characteristics, consumption increases with heat and decreases in the cold, which makes static control inefficient at certain times. The proposal is to adopt the fuzzy control to change the coefficients of the PI controller throughout the day, autonomously, according to the instantaneous consumption and thus achieve a better energy efficiency of the system, appreciating the quality of service provided to the population. That is, ensuring the flow and pressure of water to the consumer. Through MatLab®, simulation tools, Simulink® and SimScape®, two models were created, one with the current control and the other with the intelligent proposal. An abbreviation of the network and the existing pumping system of the lift, the reduction of 4 engine-pump assemblies to only 1 (one) and a single path, making 5.4 km distance, to the socalled critical point location, where it is further, higher and more difficult to keep the pressure at the 10 mwg (1 bar), as a rule. The developed fuzzy controller has 2 inputs, the reservoir level and the downstream pressure of the motor-pump assembly, and 2 outputs, proportional and integral gains for the PI. With the rulesbased framework, 123 inference rules were created for the system to perform favorably. The simulations were carried out with the reference of data – 3 months of historical – of measurements of the reservoir and pressure sensor that is the feedback of the existing PI control. Thus, the energy efficiency of 6.15% per month, in terms of electric power consumed, was achieved, compared to the traditional control model.

Page generated in 0.0575 seconds