• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5783
  • 109
  • 97
  • 84
  • 84
  • 83
  • 55
  • 37
  • 29
  • 21
  • 21
  • 18
  • 3
  • 3
  • 1
  • Tagged with
  • 6029
  • 3373
  • 2538
  • 1559
  • 1414
  • 1184
  • 959
  • 777
  • 749
  • 729
  • 672
  • 662
  • 615
  • 611
  • 525
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
771

Methodology to accelerate diagnostic coverage assessment

Ferlini, Frederico January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-04-25T04:09:57Z (GMT). No. of bitstreams: 1 344792.pdf: 2995970 bytes, checksum: 3778627bb72f25d91f0304214061e55a (MD5) Previous issue date: 2016 / Os veículos da atualidade vêm integrando um número crescente de eletrônica embarcada, com o objetivo de permitir uma experiência mais segura aos motoristas. Logo, a garantia da segurança física é um requisito que precisa ser observada por completo durante o processo de desenvolvimento. O padrão ISO 26262 provê medidas para garantir que esses requisitos não sejam negligenciados. Injeção de falhas é fortemente recomendada quando da verificação do funcionamento dos mecanismos de segurança implementados, assim como sua capacidade de cobertura associada ao diagnóstico de falhas existentes. A análise exaustiva não é obrigatória, mas evidências de que o máximo esforço foi feito para acurar a cobertura de diagnóstico precisam ser apresentadas, principalmente durante a avalição dos níveis de segurança associados a arquitetura implementada em hardware. Estes níveis dão suporte às alegações de que o projeto obedece às métricas de segurança da integridade física exigida em aplicações automotivas. Os níveis de integridade variam de A à D, sendo este último o mais rigoroso. Essa Tese explora o estado-da-arte em soluções de verificação, e tem por objetivo construir uma metodologia que permita acelerar a verificação da cobertura de diagnóstico alcançado. Diferentemente de outras técnicas voltadas à aceleração de injeção de falhas, a metodologia proposta utiliza uma plataforma de hardware dedicada à verificação, com o intuito de maximizar o desempenho relativo a simulação de falhas. Muitos aspectos relativos a ISO 26262 são observados de forma que a presente contribuição possa ser apreciada no segmento automotivo. Por fim, uma arquitetura OpenRISC é utilizada para confirmar os resultados alcançados com essa solução proposta pertencente ao estado-da-arte.<br> / Abstract : Modern vehicles are integrating a growing number of electronics to provide a safer experience for the driver. Therefore, safety is a non-negotiable requirement that must be considered through the vehicle development process. The ISO 26262 standard provides guidance to ensure that such requirements are implemented. Fault injection is highly recommended for the functional verification of safety mechanisms or to evaluate their diagnostic coverage capability. An exhaustive analysis is not required, but evidence of best effort through the diagnostic coverage assessment needs to be provided when performing quantitative evaluation of hardware architectural metrics. These metrics support that the automotive safety integrity level ? ranging from A (lowest) to D (strictest) levels ? was obeyed. This thesis explores the most advanced verification solutions in order to build a methodology to accelerate the diagnostic coverage assessment. Different from similar techniques for fault injection acceleration, the proposed methodology does not require any modification of the design model to enable acceleration. Many functional safety requisites in the ISO 26262 are considered thus allowing the contribution presented to be a suitable solution for the automotive segment. An OpenRISC architecture is used to confirm the results achieved by this state-of-the-art solution.
772

Um modelo de otimização estocástica com representação individualizada das usinas hidrelétricas no planejamento de médio prazo da operação hidrotérmica

Larroyd, Paulo Vitor January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-05-02T04:10:15Z (GMT). No. of bitstreams: 1 345227.pdf: 5434882 bytes, checksum: 75b6636b485230432f1dfbc878bdcc08 (MD5) Previous issue date: 2016 / O problema do Planejamento de Médio Prazo da Operação hidrotérmica (PMPO) possui papel fundamental na coordenação dos sistemas elétricos que dependem fortemente de eletricidade proveniente de fontes hídricas. O objetivo do PMPO é definir uma política de operação ótima que minimiza o custo de operação para o atendimento da demanda por energia em um horizonte de médio prazo. Nesse contexto, o método da Programação Dinâmica Dual Estocástica (PDDE) é amplamente utilizado para o cálculo de políticas de operação na solução do problema do PMPO. Além disso, destaca-se que para a incorporação das incertezas associadas às afluências, um modelo linear multiestágio estocástico é atribuído ao PMPO. No caso brasileiro, algumas simplificações são adotadas na representação das decisões hidrelétricas com o objetivo de se reduzir o esforço computacional. A principal simplificação adotada é a modelagem de Reservatórios Equivalentes de Energia (REE) na representação de um conjunto de decisões hidrelétricas mensais. Neste trabalho, as decisões de cada hidrelétrica do sistema são modeladas individualmente, de modo que a abordagem por REEs é completamente sobrepujada. Assim, o desempenho do cálculo da política de operação na PDDE é diretamente afetado pela elevada dimensão do modelo individualizado do PMPO. Logo, o principal objetivo deste trabalho consiste em calcular políticas de operação de boa qualidade para o modelo individualizado estocástico do PMPO, em um tempo razoável de execução da PDDE. Para que esse objetivo seja alcançado, algumas melhorias em termos da modelagem do PMPO e do algoritmo da PDDE são propostas. Os resultados acerca das melhorias propostas são apresentados, de modo que o sistema hidrotérmico brasileiro é considerado nos experimentos computacionais. A partir dos resultados obtidos, podem-se observar vantagens consideráveis na modelagem individual das decisões hidrelétricas no PMPO, em relação à utilização de REEs, para um tempo razoável de execução da PDDE.<br> / Abstract : The Long-Term Hydrothermal Scheduling (LTHS) problem plays an important role in power systems that rely heavily on hydroelectricity. The purpose of the LTHS problem is to define an optimal operation policy that minimizes the operation costs to meet demand over a long horizon. A popular solution approach to this problem is called Stochastic Dual Dynamic Programming (SDDP). To incorporate the inflow uncertainties, the LTHS problem is modeled as a multi-stage linear stochastic problem. In the Brazilian LTHS problem, some simplifications are made in the hydro power plants representation in order to reduce the computational burden. The main simplification is the Equivalent Energy Reservoir (EER) modeling that replaces set of hydro plants monthly decisions. In this work, the EERs approach is overcame and individual decisions for each hydro plant in the hydrothermal system are modeled. As a result, the operation policy computation in SDDP is directly affected by the dimension of the LTHS stochastic framework with individual hydro plant decisions. Consequently, the goal of this work is to achieve reasonable operation polices for the individualized LTHS stochastic modeling in an acceptable and practicable computational time. To accomplish this objective, improvements in the LTHS modeling and SDDP algorithm design are proposed. The results regarding theses aspects are presented, which the Brazilian hydrothermal power system are considered. The results show advantages in individual hydro plant decisions modeling, in relation to EERs, for practical computational time assumptions in SDDP execution.
773

A new adaptive algorithm for video super-resolution with improved outlier handling capability

Borsoi, Ricardo Augusto January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-05-02T04:11:04Z (GMT). No. of bitstreams: 1 345229.pdf: 8370755 bytes, checksum: 43bc9ba1a882d921528fd1f71fccec7d (MD5) Previous issue date: 2016 / Abstract : Super resolution reconstruction (SRR) is a technique that consists basically in combining multiple low resolution images from a single scene in order to create an image with higher resolution. The main characteristics considered in the evaluation of SRR algorithms performance are the resulting image quality, its robustness to outliers and its computational cost. Among the super resolution algorithms present in the literature, the R-LMS has a very small computational cost, making it suitable for real-time operation. However, like many SRR techniques the R-LMS algorithm is also highly susceptible to outliers, which can lead the reconstructed image quality to be of lower quality than the low resolution observations. Although robust techniques have been proposed to mitigate this problem, the computational cost associated with even the simpler algorithms is not comparable to that of the R-LMS, making real-time operation impractical. It is therefore desirable to devise new algorithms that offer a better compromise between quality, robustness and computational cost. In this work, a new SRR technique based on the R-LMS algorithm is proposed. Based on the proximal-point cost function representation of the gradient descent iterative equation, an intuitive interpretation of the R-LMS algorithm behavior is obtained, both in ideal conditions and in the presence of outliers. Using a statistical model for the innovation outliers, a new regularization is then proposed to increase the algorithm robustness by allowing faster convergence on the subspace corresponding to the innovations while at the same time preserving the estimated image details. Two new algorithms are then derived. Computer simulations have shown that the new algorithms deliver a performance comparable to that of the R-LMS in the absence of outliers, and a significantly better performance in the presence of outliers, both quantitatively and visually. The computational cost of the proposed solution remained comparable to that of the R-LMS.<br> / Reconstrução com super resolução (SRR - Super resolution reconstruction) é uma técnica que consiste basicamente em combinar múltiplas imagens de baixa resolução a fim de formar uma única imagem com resolução superior. As principais características consideradas na avaliação de algoritmos de SRR são a qualidade da imagem reconstruída, sua robustez a outliers e o custo computacional associado. Uma maior qualidade nas imagens reconstruídas implica em um maior aumento efetivo na resolução das mesmas. Uma maior robustez, por outro lado, implica que um resultado de boa qualidade é obtido mesmo quando as imagens processadas não seguem fielmente o modelo matemático adotado. O custo computacional, por sua vez, é extremamente relevante em aplicações de SRR, dado que a dimensão do problema é extremamente grande. Uma das principais aplicações da SRR consiste na reconstrução de sequências de vídeo. De modo a facilitar o processamento em tempo real, o qual é um requisito frequente para aplicações de SRR de vídeo, algorítmos iterativos foram propostos, os quais processam apenas uma imagem a cada instante de tempo, utilizando informações presentes nas estimativas obtidas em instantes de tempo anteriores. Dentre os algoritmos de super resolução iterativos presentes na literatura, o R-LMS possui um custo computacional extremamente baixo, além de fornecer uma reconstrução com qualidade competitiva. Apesar disso, assim como grande parte das técnicas de SRR existentes o R-LMS é bastante suscetível a presença de outliers, os quais podem tornar a qualidade das imagens reconstruídas inferior àquela das observações de baixa resolução. A fim de mitigar esse problema, técnicas de SRR robusta foram propostas na literatura. Não obstante, mesmo o custo computacional dos algoritmos robustos mais simples não é comparável àquele do R-LMS, tornando o processamento em tempo real infactível. Deseja-se portanto desenvolver novos algoritmos que ofereçam um melhor compromisso entre qualidade, robustez e custo computacional. Neste trabalho uma nova técnica de SRR baseada no algoritmo R-LMS é proposta. Com base na representação da função custo do ponto proximal para a equação iterativa do método do gradiente, uma interpretação intuitiva para o comportamento do algoritmo R-LMS é obtida tanto para sua operação em condições ideais quanto na presença de outliers do tipo inovação, os quais representam variações significativas na cena entre frames adjacentes de uma sequência de vídeo. É demonstrado que o problema apresentado pelo R-LMS quanto a robustez à outliers de inovação se deve, principalmente, a sua baixa taxa de convergência. Além disso, um balanço direto pôde ser observado entre a rapidez da taxa de convergência e a preservação das informações estimadas em instantes de tempo anteriores. Desse modo, torna-se inviável obter, simultaneamente, uma boa qualidade no processamento de sequências bem comportadas e uma boa robustez na presença de inovações de grande porte. Desse modo, tem-se como objetivo projetar um algoritmo voltado à reconstrução de sequências de vídeo em tempo real que apresente uma maior robustez à outliers de grande porte, sem comprometer a preservação da informação estimada a partir da sequência de baixa resolução. Utilizando um modelo estatístico para os outliers provindos de inovações, uma nova regularização é proposta a fim de aumentar a robustez do algoritmo, permitindo simultaneamente uma convergência mais rápida no subespaço da imagem correspondente às inovações e a preservação dos detalhes previamente estimados. A partir disso dois novos algoritmos são então derivados. A nova regularização proposta penaliza variações entre estimativas adjacentes na sequência de vídeo em um subespaço aproximadamente ortogonal ao conteúdo das inovações. Verificou-se que o subespaço da imagem no qual a inovação contém menos energia é precisamente onde estão contidos os detalhes da imagem. Isso mostra que a regularização proposta, além de levar a uma maior robustez, também implica na preservação dos detalhes estimados na sequência de vídeo em instantes de tempo anteriores. Simulações computacionais mostram que apesar da solução proposta não levar a melhorias significativas no desempenho do algoritmo sob condições próximas às ideais, quando outliers estão presentes na sequência de imagens o método proposto superou consideravelmente o desempenho apresentado pelo R-LMS, tanto quantitativamente quanto visualmente. O custo computacional da solução proposta manteve-se comparável àquele do algoritmo R-LMS.
774

Modelagem estocástica de algoritmos adaptativos para equalização ativa de ruído e identificação de sistemas

Matsuo, Marcos Vinícius January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-05-02T04:12:13Z (GMT). No. of bitstreams: 1 345510.pdf: 8179542 bytes, checksum: c7d616d9dbca1730bc9064d7782ee7f2 (MD5) Previous issue date: 2016 / Este trabalho de pesquisa trata da modelagem estocástica de dois algoritmos adaptativos bem conhecidos na literatura, a saber: o algoritmo FxLMS (filtered x least mean square) e o algoritmo NLMS (normalized least mean square). Particularmente, para o algoritmo FxLMS são desenvolvidos dois modelos estocásticos, ambos considerando aplicações de controle e/ou equalização ativa de ruído periódico, porém em diferentes estruturas (monocanal e multicanal). Baseado nas expressões de modelo obtidas, diversos aspectos do comportamento do algoritmo FxLMS são discutidos, evidenciando o impacto dos parâmetros do algoritmo sobre seu desempenho. Para o algoritmo NLMS, são propostos dois modelos estocásticos, ambos considerando a aplicação de identificação de sistemas tanto com sinal de entrada branco gaussiano quanto correlacionado gaussiano. Especificamente, o primeiro modelo do algoritmo NLMS é derivado assumindo que o filtro adaptativo e a planta a ser estimada podem possuir ordens diferentes (tal suposição, que é condizente com cenários práticos, não é usualmente tratada na literatura devido às dificuldades matemáticas surgidas no desenvolvimento da modelagem estocástica). O segundo modelo do algoritmo NLMS considera uma formulação matemática mais geral (quando comparada a outros trabalhos da literatura) para representar a planta a ser identificada, possibilitando a representação de diversos tipos de sistemas variantes no tempo; originando, assim, um modelo estocástico capaz de predizer o comportamento do algoritmo NLMS em uma ampla gama de cenários de operação. Resultados de simulação são apresentados, ratificando a precisão dos modelos estocásticos propostos, tanto na fase transitória quanto em regime permanente.<br> / Abstract : This research work focuses on the stochastic modeling of two well-known adaptive algorithms from the literature, namely: the filtered x least mean square (FxLMS) algorithm and the normalized least mean square (NLMS) algorithm. In particular, for the FxLMS algorithm two stochastic models are developed, both considering applications of active noise control and equalization of periodic noise, but in different structures (single channel and multichannel). Based on the obtained expressions, several aspects of the FxLMS algorithm behavior are discussed, highligting the impact of some parameters on the algorithm performance. For the NLMS algorithm, two stochastic models are proposed, both considering the application of system identification with white Gaussian and correlated Gaussian input signals. Specifically, the first model of the NLMS algorithm is developed assuming that the adaptive filter and the system to be identified can have different orders (such a supposition, which is consistent with practical scenarios, is not usually considered in the literature due to the mathematical difficulties ariasing in the development of the stochastic model). The second model of the NLMS algorithm considers a more general mathematical formulation (compared with other works from the open literature) to represent the system to be identified, allowing to represent several types of time varying systems; resulting in a stochastic model able to predict the NLMS algorithm behavior in several scenarios. Simulation results are presented, confirming the accuracy of the proposed stochastic models for both transient and steady state phases.
775

Geração automática de testes baseada em algoritmos genéticos para verificação funcional

Maziero, Fabrízio Piccoli January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-05-02T04:12:34Z (GMT). No. of bitstreams: 1 345228.pdf: 2456245 bytes, checksum: 8a93eaf6ebf886bec3c4c85de820db74 (MD5) Previous issue date: 2016 / O constante aumento da complexidade de sistemas embarcados requer um processo de verificação capaz de acompanhar esse crescimento e ser capaz de assegurar o correto funcionamento do sistema projetado, especialmente se tratando de aplicações críticas que lidem com vidas humanas ou com grandes investimentos. Esta responsabilidade por parte das companhias que desenvolvem tais sistemas faz com que a verificação se torne a parte mais importante no projeto de um sistema, consumindo a maior parte dos seus recursos, tanto em questão de tempo quanto financeiramente. A verificação realizada através de simulações requer a participação de um engenheiro de verificação analisando os resultados e com base nestes, modificando parâmetros para gerar novos testes. Neste trabalho é apresentada uma abordagem para uso de Algoritmos Genéticos no processo de verificação, de forma a automatizar a geração de novos vetores de teste. Esta abordagem analisa os resultados com base nas métricas de verificação definidas durante a fase de planejamento do projeto, e com estas informações gera novos testes que contribuam para a validação do sistema, adaptando-se ao funcionamento do sistema e aos resultados de cada nova iteração do processo de verificação.<br> / Abstract : The growing increase in embedded systems complexity requires a verification process to be able to follow this trend while capable of assuring the correctness of the designed system, especially on critical applications that deal with human lives, or big financial investments. This responsibility incurred by these system's developers makes verification the most important step in designing an embedded system, considering both development time and money. Simulation-based verification requires an engineer's work by analyzing results and creating new test vectors relevant to the process. In this work an approach for automating test vector generation through Genetic Algorithms is presented. This approach analyzes test results based on predefined verification metrics and, with this information creates new tests that aim on advancing the verification process to reach a better system validation, adapting itself to the design and its results at each step of the process.
776

Nonlinear hyperspectral unmixing

Imbiriba, Tales Cesar de Oliveira January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-05-02T04:12:42Z (GMT). No. of bitstreams: 1 345225.pdf: 2049485 bytes, checksum: b138ce3f4249b8d23da1cd8d2d24875d (MD5) Previous issue date: 2016 / Abstract : Mixing phenomena in hyperspectral images depend on a variety of factors such as the resolution of observation devices, the properties of materials, and how these materials interact with incident light in the scene. Different parametric and nonparametric models have been considered to address hyperspectral unmixing problems. The simplest one is the linear mixing model. Nevertheless, it has been recognized that mixing phenomena can also be nonlinear. Kernel-based nonlinear mixing models have been applied to unmix spectral information of hyperspectral images when the type of mixing occurring in the scene is too complex or unknown. However, the corresponding nonlinear analysis techniques are necessarily more challenging and complex than those employed for linear unmixing. Within this context, it makes sense to search for different strategies to produce simpler and/or more accurate results. In this thesis, we tackle three distinct parts of the complete spectral unmixing (SU) problem. First, we propose a technique for detecting nonlinearly mixed pixels. The detection approach is based on the comparison of the reconstruction errors using both a Gaussian process regression model and a linear regression model. The two errors are combined into a detection test statistics for which a probability density function can be reasonably approximated. Second, we propose an iterative endmember extraction algorithm to be employed in combination with the detection algorithm. The proposed detect-then-unmix strategy, which consists of extracting endmembers, detecting nonlinearly mixed pixels and unmixing, is tested with synthetic and real images. Finally, we propose two methods for band selection (BS) in the reproducing kernel Hilbert space (RKHS), which lead to a significant reduction of the processing time required by nonlinear unmixing techniques. The first method employs the kernel k-means (KKM) algorithm to find clusters in the RKHS. Each cluster centroid is then associated to the closest mapped spectral vector. The second method is centralized, and it is based upon the coherence criterion, which sets the largest value allowed for correlations between the basis kernel functions characterizing the unmixing model. We show that the proposed BS approach is equivalent to solving a maximum clique problem (MCP), that is, to searching for the largest complete subgraph in a graph. Furthermore, we devise a strategy for selecting the coherence threshold and the Gaussian kernel bandwidth using coherence bounds for linearly independent bases. Simulation results illustrate the efficiency of the proposed method.<br> / Imagem hiperespectral (HI) é uma imagem em que cada pixel contém centenas (ou até milhares) de bandas estreitas e contíguas amostradas num amplo domínio do espectro eletromagnético. Sensores hiperespectrais normalmente trocam resolução espacial por resolução espectral devido principalmente a fatores como a distância entre o instrumento e a cena alvo, e limitada capacidade de processamento, transmissão e armazenamento históricas, mas que se tornam cada vez menos problemáticas. Este tipo de imagem encontra ampla utilização em uma gama de aplicações em astronomia, agricultura, imagens biomédicas, geociências, física, vigilância e sensoriamento remoto. A usual baixa resolução espacial de sensores espectrais implica que o que se observa em cada pixel é normalmente uma mistura das assinaturas espectrais dos materiais presentes na cena correspondente (normalmente denominados de endmembers). Assim um pixel em uma imagem hiperespectral não pode mais ser determinado por um tom ou cor mas sim por uma assinatura espectral do material, ou materiais, que se encontram na região analisada. O modelo mais simples e amplamente utilizado em aplicações com imagens hiperespectrais é o modelo linear, no qual o pixel observado é modelado como uma combinação linear dos endmembers. No entanto, fortes evidências de múltiplas reflexões da radiação solar e/ou materiais intimamente misturados, i.e., misturados em nível microscópico, resultam em diversos modelos não-lineares dos quais destacam-se os modelos bilineares, modelos de pós não-linearidade, modelos de mistura íntima e modelos não-paramétricos. Define-se então o problema de desmistura espectral (ou em inglês spectral unmixing - SU), que consiste em determinar as assinaturas espectrais dos endmembers puros presentes em uma cena e suas proporções (denominadas de abundâncias) para cada pixel da imagem. SU é um problema inverso e por natureza cego uma vez que raramente estão disponíveis informações confiáveis sobre o número de endmembers, suas assinaturas espectrais e suas distribuições em uma dada cena. Este problema possui forte conexão com o problema de separação cega de fontes mas difere no fato de que no problema de SU a independência de fontes não pode ser considerada já que as abundâncias são de fato proporções e por isso dependentes (abundâncias são positivas e devem somar 1). A determinação dos endmembers é conhecida como extração de endmembers e a literatura apresenta uma gama de algoritmos com esse propósito. Esses algoritmos normalmente exploram a geometria convexa resultante do modelo linear e da restrições sobre as abundâncias. Quando os endmembers são considerados conhecidos, ou estimados em um passo anterior, o problema de SU torna-se um problema supervisionado, com pares de entrada (endmembers) e saída (pixels), reduzindo-se a uma etapa de inversão, ou regressão, para determinar as proporções dos endmembers em cada pixel. Quando modelos não-lineares são considerados, a literatura apresenta diversas técnicas que podem ser empregadas dependendo da disponibilidade de informações sobre os endmembers e sobre os modelos que regem a interação entre a luz e os materiais numa dada cena. No entanto, informações sobre o tipo de mistura presente em cenas reais são raramente disponíveis. Nesse contexto, métodos kernelizados, que assumem modelos não-paramétricos, têm sido especialmente bem sucedidos quando aplicados ao problema de SU. Dentre esses métodos destaca-se o SK-Hype, que emprega a teoria de mínimos quadrados-máquinas de vetores de suporte (LS-SVM), numa abordagem que considera um modelo linear com uma flutuação não-linear representada por uma função pertencente a um espaço de Hilbert de kernel reprodutivos (RKHS). Nesta tese de doutoramento diferentes problemas foram abordados dentro do processo de SU de imagens hiperespectrais não-lineares como um todo. Contribuições foram dadas para a detecção de misturas não-lineares, estimação de endmembers quando uma parte considerável da imagem possui misturas não-lineares, e seleção de bandas no espaço de Hilbert de kernels reprodutivos (RKHS). Todos os métodos foram testados através de simulações com dados sintéticos e reais, e considerando unmixing supervisionado e não-supervisionado. No Capítulo 4, um método semi-paramétrico de detecção de misturas não-lineares é apresentado para imagens hiperespectrais. Esse detector compara a performance de dois modelos: um linear paramétrico, usando mínimos-quadrados (LS), e um não-linear não-paramétrico usando processos Gaussianos. A idéia da utilização de modelos não-paramétricos se conecta com o fato de que na prática pouco se sabe sobre a real natureza da não-linearidade presente na cena. Os erros de ajuste desses modelos são então comparados em uma estatística de teste para a qual é possível aproximar a distribuição na hipótese de misturas lineares e, assim, estimar um limiar de detecção para uma dada probabilidade de falso-alarme. A performance do detector proposto foi estudada considerando problemas supervisionados e não-supervisionados, sendo mostrado que a melhoria obtida no desempenho SU utilizando o detector proposto é estatisticamente consistente. Além disso, um grau de não-linearidade baseado nas energias relativas das contribuições lineares e não-lineares do processo de mistura foi definido para quantificar a importância das parcelas linear e não-linear dos modelos. Tal definição é importante para uma correta avaliação dos desempenhos relativos de diferentes estratégias de detecção de misturas não-lineares. No Capítulo 5 um algoritmo iterativo foi proposto para a estimação de endmembers como uma etapa de pré-processamento para problemas SU não supervisionados. Esse algoritmo intercala etapas de detecção de misturas não-lineares e estimação de endmembers de forma iterativa, na qual uma etapa de estimação de endmembers é seguida por uma etapa de detecção, na qual uma parcela dos pixels mais não-lineares é descartada. Esse processo é repetido por um número máximo de execuções ou até um critério de parada ser atingido. Demonstra-se que o uso combinado do detector proposto com um algoritmo de estimação de endmembers leva a melhores resultados de SU quando comparado com soluções do estado da arte. Simulações utilizando diferentes cenários corroboram as conclusões. No Capítulo 6 dois métodos para SU não-linear de imagens hiperespectrais, que empregam seleção de bandas (BS) diretamente no espaço de Hilbert de kernels reprodutivos (RKHS), são apresentados. O primeiro método utiliza o algoritmo Kernel K-Means (KKM) para encontrar clusters diretamente no RKHS onde cada centroide é então associada ao vetor espectral mais próximo. O segundo método é centralizado e baseado no critério de coerência, que incorpora uma medida da qualidade do dicionário no RKHS para a SU não-linear. Essa abordagem centralizada é equivalente a resolver um problema de máximo clique (MCP). Contrariamente a outros métodos concorrentes que não incluem uma escolha eficiente dos parâmetros do modelo, o método proposto requer apenas uma estimativa inicial do número de bandas selecionadas. Os resultados das simulações empregando dados, tanto sintéticos como reais, ilustram a qualidade dos resultados de unmixing obtidos com os métodos de BS propostos. Ao utilizar o SK-Hype, para um número reduzido de bandas, são obtidas estimativas de abundância tão precisas quanto aquelas obtidas utilizando o método SK-Hype com todo o espectro disponível, mas com uma pequena fração do custo computacional.
777

Projeto e otimização de motores BLDC de ímãs permanentes superficiais

Schmitz, Claudio January 2017 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2017. / Made available in DSpace on 2017-05-02T04:14:05Z (GMT). No. of bitstreams: 1 345508.pdf: 3912458 bytes, checksum: 3dd31a82f6d2f007f1230ce752b9a02b (MD5) Previous issue date: 2017 / O presente trabalho aborda o projeto de motores síncronos com ímãs permanentes, em específico os motores de corrente contínua sem escovas (BLDC). Os motores de ímãs permanentes, se comparados aos de indução, são de melhor desempenho, o que justifica as suas utilizações. Com a preocupação de se obter um projeto competitivo no mercado, a técnica de otimização também é abordada nas etapas de projeto. É realizado o projeto de um motor de pequeno porte o qual é otimizado considerando o modelo térmico. Para verificar a eficácia do método e validar os resultados, os dados de saída da otimização são validados pelo método dos elementos finitos. Aspectos como combinação do número de ranhuras e polos, esquema de bobinagem, harmônicas, perdas, indutâncias e influência da comutação no torque também são abordados, o que permite realizar uma melhor análise do projeto para que soluções mais eficientes, econômicas e sustentáveis possam ser propostas.<br> / Abstract : This work discusses the design of permanent magnet synchronous motors, in particular the brushless direct current motors (BLDC). Permanent magnet motors when compared to induction motors present better performance justifying their use. In order to obtain a competitive design, an optimization technique is also discussed. The design of a small motor is optimized considering the thermal model. Finite Element simulations are performed to verify the effectiveness of the design methodology and validate the optimization procedure. Aspects such as combinations of slots and poles numbers, winding scheme, harmonics, losses, inductances and influence of switching in torque are also discussed allowing a better design for more efficient, economic and sustainable solutions.
778

Coordenação de isolamento para surtos de frente rápida utilizando o método da densidade espectral de energia

Reis, Julian Luiz January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:34:20Z (GMT). No. of bitstreams: 1 326074.pdf: 5661706 bytes, checksum: 2962f41b6de615c76b62c240edfcb2cc (MD5) Previous issue date: 2013 / Os estudos tradicionais de coordenação de isolamento fazem uso de metodologias determinísticas e probabilísticas, considerando apenas a amplitude das sobretensões no domínio do tempo. Na presente dissertação, aplica-se uma metodologia proposta recentemente para coordenação de isolamento, fazendo uso da teoria da densidade espectral de energia. Esta nova abordagem quantifica a energia das sobretensões transitórias no domínio da frequência, associando amplitude, espectro de frequências e a participação (duração) destas no sinal, e pode ser aplicada a qualquer equipamento de uma subestação. Esta nova metodologia define uma grandeza adimensional, denominada fator de severidade no domínio da frequência (FSDF), que permite avaliar os resultados dos estudos frente aos ensaios de suportabilidade realizados em fábrica. Simulações de descargas atmosféricas em um sistema real são utilizadas para avaliar os resultados dessa nova metodologia, sob o ponto de vista de transitórios de frente rápida oriundos destes surtos. Nas simulações, visando avaliar a contribuição dos modelos computacionais, faz-se uso de dois tipos de modelagem, uma mais simplificada, que não considera todas as informações necessárias para reproduzir os efeitos físicos do fenômeno, e uma modelagem mais detalhada, com uma reprodução mais fidedigna dos parâmetros físicos, no caso de transformadores baseada em medições de resposta em frequência. Os resultados das simulações para cada tipo de modelagem, considerando a abordagem clássica de coordenação de isolamento e a recente metodologia, são comparados em termos de suas margens de segurança em relação ao nível de isolamento especificado para o transformador. Do ponto de vista da nova metodologia, os resultados de algumas simulações demonstram que os ensaios padronizados realizados em fábrica não garantem a suportabilidade do transformador para alguns eventos transitórios, em determinadas faixas de frequência, que podem ocorrer quando da sua conexão ao sistema elétrico. A importância do uso dessa nova metodologia se confirma ao final desse trabalho com as avaliações dos resultados obtidos.<br> / Abstract : Traditionally, studies for insulation coordination apply probabilistic and deterministic methods considering only the amplitude of overvoltages in the time domain. In this work, a recently proposed methodology for insulation coordination, based on the theory of energy spectral density, is applied. This new approach quantifies the energy of transient overvoltages in the frequency domain taking into account their magnitude, frequency spectrum and participation (duration) of those in signal, and can be applied to any substation apparatus. This new methodology defines a dimensionless quantity, called frequency domain severity factor (FDSF), which allows evaluating the results of studies against withstand capability tests carried out in factory. Lightning surges simulations, for a real system, are used to evaluate the results of this new methodology, from the point of view of fast front transients. In order to evaluate how the models affect the simulation results, two types of modeling are tested: simplified modeling, which does not include all information necessary to reproduce the physical phenomenon, and a more detailed modeling, with more accurate reproduction of the physical parameters, in the case of transformers based on measurements of frequency response. The simulation results for each type of modeling, considering the classic approach of insulation coordination and the new methodology, are compared considering the safety margin that they provide in relation to the insulation specified for the transformer. From the viewpoint of the new methodology, the results of some simulated cases show that standardized tests executed at the transformer factory do not guarantee its supportability, in specific frequency bands, when it faces some events after installation in a real electric system. The importance of the use of this new methodology is confirmed at the end of this work, with the evaluation of the results obtained.
779

Conversor CC-CC bidirecional de alto ganho para aplicação em sistemas autônomos de geração de energia elétrica / A reversible high gain DC-DC buck-boost converter for application in micro-grid with DC and AC buses

Marques, Derivan Dutra 03 August 2012 (has links)
MARQUES, Derivan Dutra. Conversor CC-CC bidirecional de alto ganho para aplicação em sistemas autônomos de geração de energia elétrica. 2012. 132 f. Dissertação (Mestrado em Engenharia Elétrica) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2012. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2012-10-18T17:57:38Z No. of bitstreams: 1 2012_dis_ddmarques.pdf: 4563543 bytes, checksum: 890624b3fbd52239a5578fccebee19fd (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2012-10-18T17:57:50Z (GMT) No. of bitstreams: 1 2012_dis_ddmarques.pdf: 4563543 bytes, checksum: 890624b3fbd52239a5578fccebee19fd (MD5) / Made available in DSpace on 2012-10-18T17:57:50Z (GMT). No. of bitstreams: 1 2012_dis_ddmarques.pdf: 4563543 bytes, checksum: 890624b3fbd52239a5578fccebee19fd (MD5) Previous issue date: 2012-08-03 / The achievement of energy generation which combines human development with less environment pollution impact is a key item in the premises of this century. Thus the main motivation of the present walk is the development of new topologies for decentralized supply systems. The objective is to develop a bidirectional converter with high voltage gain, which is designed to operate in two modes: step-up (boost) and step down (buck). The presented topology enables to bidirectional energy transfer, which in some situations it is returned to the load DC bus, formed by a back of batteries. The converter is designed for 2 kW linear load power. If is presented theoretical development and experimental designs for the two operation modes. In order to validate the proposal, it is presented experimental results, from 1 kW laboratory prototype are presented as well and 93% overall efficiency. The prototype was tested in different conditions that may be found daily. / A geração de energia elétrica que combina o desenvolvimento humano com menos impactos ambientais e menos poluição é um item fundamental no início deste século. Assim, a principal motivação da caminhada atual é o desenvolvimento de novas topologias de sistemas descentralizados de fornecimento de energia. O objetivo é desenvolver um conversor bidirecional com alto ganho tensão, que é projetado para operar em dois modos: boost e buck. A topologia apresentada permite a transferência bidirecional de energia, o que em algumas situações, é transferida para o barramento CC, ou para um banco de baterias. O conversor é projetado para um potência de 2 kW. É apresentado o desenvolvimento teórico e experimental do projeto para os dois modos de operação. A fim de validar a proposta, são apresentados resultados experimentais, para uma potência de 1 kW. Os resultados foram satisfatórios e seu rendimento global de 93%. O protótipo foi testado em condições diferentes que podem ser encontradas no dia-a-dia.
780

Monitoramento on-line e diagnóstico inteligente da qualidade dielétrica do isolamento líquido de transformadores de potência / Online monitoring and intelligent diagnostic quality dielectric insulating fluid power transformers

Barbosa, Fábio Rocha 13 March 2008 (has links)
BARBOSA, F. R. Monitoramento on-line e diagnóstico inteligente da qualidade dielétrica do isolamento líquido de transformadores de potência. 2008. 139 f. Dissertação (Mestrado em Engenharia Elétrica) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2008. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2012-10-18T18:30:02Z No. of bitstreams: 1 2008_dis_frbarbosa.pdf: 10425280 bytes, checksum: 104fd35dd6a548f442ba6333f17c2839 (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2012-10-18T18:41:19Z (GMT) No. of bitstreams: 1 2008_dis_frbarbosa.pdf: 10425280 bytes, checksum: 104fd35dd6a548f442ba6333f17c2839 (MD5) / Made available in DSpace on 2012-10-18T18:41:19Z (GMT). No. of bitstreams: 1 2008_dis_frbarbosa.pdf: 10425280 bytes, checksum: 104fd35dd6a548f442ba6333f17c2839 (MD5) Previous issue date: 2008-03-13 / The monitoring and diagnosis of incipient fault in power transformers immerses in oil are directly related to the assessment of the isolation system conditions. In this research, it is established the concept of monitoring and diagnosis, after that, on-line monitoring techniques are discussed. A pre-diagnosis system is elaborated based on use of a monitoring on-line device, Hydran® GE, to classify the situation gravity of the detected fault. Once detected a fault situation, intelligent modules of incipient fault diagnosis, by neural networks, can be used to identification of internal fault of the equipment. To complete the checking of the dielectric quality of the isolate liquid, it is also described an intelligent algorithm, based on neural networks, to diagnosis of the oil estate through physical-chemical attribute. The relation between physical-chemical attributes and chromatographic ones regarding to mineral oil were also verified. It was developed, then, the dissolved gases esteem through physicalchemical characteristics. The on-line monitoring modules, diagnosis of oil estate and incipient fault, besides dissolved gases esteem, constitute a computation aid system to operation and maintenance. The implemented system presents satisfied results in a thermoelectric power plant. / O monitoramento e o diagnóstico de falhas incipientes em transformadores de potência imersos em óleo estão diretamente relacionados à avaliação das condições do sistema de isolamento. Neste estudo, estabelece-se o conceito de monitoramento e diagnóstico, e em seguida técnicas de monitoramento on-line são discutidas. Um sistema de pré-diagnóstico é elaborado baseado na utilização de um dispositivo on-line de monitoramento, Hydran® da GE, para classificar a gravidade da situação de falha detectada. Uma vez detectada uma situação de falha, módulos inteligentes de diagnóstico de falhas incipientes, via redes neurais, podem ser utilizados para identificação da falha interna do equipamento. Para completar a verificação da qualidade dielétrica do líquido isolante, também é descrito um algoritmo inteligente, baseado em redes neurais, para diagnóstico do estado do óleo através das grandezas físico-químicas. A relação entre os atributos físico-químicos e as grandezas cromatográficas referente ao óleo mineral também foram averiguadas. Foi desenvolvida, então, a estimação dos gases dissolvidos através das características físico-químicas. Os módulos de monitoramento on-line, diagnósticos do estado do óleo e de falhas incipientes, além da estimação dos gases dissolvidos, perfazem um sistema computacional de auxílio à operação e manutenção. O sistema implementado apresenta resultados satisfatórios na implantação em uma planta de usina termelétrica.

Page generated in 0.0786 seconds