• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 202
  • 88
  • 54
  • 34
  • 14
  • 13
  • 12
  • 9
  • 6
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 485
  • 86
  • 71
  • 59
  • 56
  • 55
  • 50
  • 48
  • 48
  • 45
  • 45
  • 44
  • 41
  • 40
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

La modélisation du risque en immobilier d'entreprise / The risk modelling in the office investment market

Vu Anh Tuan, Eric 15 April 2014 (has links)
L’immobilier est un actif récalcitrant, hétérogène et illiquide, ces incertitudes constituent l`appréhension du risque en immobilier d`entreprise. Nous suggérons que le risque peut être évaluer à travers une somme de mesure de risque : en premier lieu dans une approche globale de la volatilité, ce que peut nous proposer une analyse de portefeuille, puis dans une approche plus fine, que peut nous donner la prime de risque d`un marché bureau. Notre travail doctoral se propose d’adapter les outils hérités du monde financier à l’évaluation du risque dans les principaux marchés de bureau Européen. Notre thèse sera rédigée en anglais et la question de recherche s`articulera autour de trois grands axes que nous illustrons sous forme d’articles. / The real estate asset class is tangible, heterogeneous and illiquid. It gives a specific investment universe that needs to be understood by investors, because the uncertainties created by this universe compose the risk of real estate investment. We suggest modelling risks across a sum of risk unit appraisal, on one hand, in constructing portfolio analysis, and on the other hand, through the office market risk premium modelling. Our doctoral study proposes to adapt financial theorems to risk modelling in the main European office markets. Our thesis will be written in Englishand its body will be articulated around three axes whereby those will be illustrated under the form of article.
152

Effects of template mass, complexity, and analysis method on the ability to correctly determine the number of contributors to DNA mixtures

Alfonse, Lauren Elizabeth 08 April 2016 (has links)
In traditional forensic DNA casework, the inclusion or exclusion of individuals who may have contributed to an item of evidence may be dependent upon the assumption on the number of individuals from which the evidence arose. Typically, the determination of the minimum number of contributors (NOC) to a mixture is achieved by counting the number of alleles observed above a given analytical threshold (AT); this technique is known as maximum allele count (MAC). However, advances in polymerase chain reaction (PCR) chemistries and improvements in analytical sensitivities have led to an increase in the detection of complex, low template DNA (LtDNA) mixtures for which MAC is an inadequate means of determining the actual NOC. Despite the addition of highly polymorphic loci to multiplexed PCR kits and the advent of interpretation softwares which deconvolve DNA mixtures, a gap remains in the DNA analysis pipeline, where an effective method of determining the NOC needs to be established. The emergence of NOCIt -- a computational tool which provides the probability distribution on the NOC, may serve as a promising alternative to traditional, threshold- based methods. Utilizing user-provided calibration data consisting of single source samples of known genotype, NOCIt calculates the a posteriori probability (APP) that an evidentiary sample arose from 0 to 5 contributors. The software models baseline noise, reverse and forward stutter proportions, stutter and allele dropout rates, and allele heights. This information is then utilized to determine whether the evidentiary profile originated from one or many contributors. In short, NOCIt provides information not only on the likely NOC, but whether more than one value may be deemed probable. In the latter case, it may be necessary to modify downstream interpretation steps such that multiple values for the NOC are considered or the conclusion that most favors the defense is adopted. Phase I of this study focused on establishing the minimum number of single source samples needed to calibrate NOCIt. Once determined, the performance of NOCIt was evaluated and compared to that of two other methods: the maximum likelihood estimator (MLE) -- accessed via the forensim R package, and MAC. Fifty (50) single source samples proved to be sufficient to calibrate NOCIt, and results indicate NOCIt was the most accurate method of the three. Phase II of this study explored the effects of template mass and sample complexity on the accuracy of NOCIt. Data showed that the accuracy decreased as the NOC increased: for 1- and 5-contributor samples, the accuracy was 100% and 20%, respectively. The minimum template mass from any one contributor required to consistently estimate the true NOC was 0.07 ng -- the equivalent of approximately 10 cells' worth of DNA. Phase III further explored NOCIt and was designed to assess its robustness. Because the efficacy of determining the NOC may be affected by the PCR kit utilized, the results obtained from NOCIt analysis of 1-, 2-, 3-, 4-, and 5-contributor mixtures amplified with AmpFlstr® Identifiler® Plus and PowerPlex® 16 HS were compared. A positive correlation was observed for all NOCIt outputs between kits. Additionally, NOCIt was found to result in increased accuracies when analyzed with 1-, 3-, and 4-contributor samples amplified with Identifiler® Plus and with 5-contributor samples amplified with PowerPlex® 16 HS. The accuracy rates obtained for 2-contributor samples were equivalent between kits; therefore, the effect of amplification kit type on the ability to determine the NOC was not substantive. Cumulatively, the data indicate that NOCIt is an improvement to traditional methods of determining the NOC and results in high accuracy rates with samples containing sufficient quantities of DNA. Further, the results of investigations into the effect of template mass on the ability to determine the NOC may serve as a caution that forensic DNA samples containing low-target quantities may need to be interpreted using multiple or different assumptions on the number of contributors, as the assumption on the number of contributors is known to affect the conclusion in certain casework scenarios. As a significant degree of inaccuracy was observed for all methods of determining the NOC at severe low template amounts, the data presented also challenge the notion that any DNA sample can be utilized for comparison purposes. This suggests that the ability to detect extremely complex, LtDNA mixtures may not be commensurate with the ability to accurately interpret such mixtures, despite critical advances in software-based analysis. In addition to the availability of advanced comparison algorithms, limitations on the interpretability of complex, LtDNA mixtures may also be dependent on the amount of biological material present on an evidentiary substrate.
153

Efficient Perceptual Super-Resolution

January 2011 (has links)
abstract: Super-Resolution (SR) techniques are widely developed to increase image resolution by fusing several Low-Resolution (LR) images of the same scene to overcome sensor hardware limitations and reduce media impairments in a cost-effective manner. When choosing a solution for the SR problem, there is always a trade-off between computational efficiency and High-Resolution (HR) image quality. Existing SR approaches suffer from extremely high computational requirements due to the high number of unknowns to be estimated in the solution of the SR inverse problem. This thesis proposes efficient iterative SR techniques based on Visual Attention (VA) and perceptual modeling of the human visual system. In the first part of this thesis, an efficient ATtentive-SELective Perceptual-based (AT-SELP) SR framework is presented, where only a subset of perceptually significant active pixels is selected for processing by the SR algorithm based on a local contrast sensitivity threshold model and a proposed low complexity saliency detector. The proposed saliency detector utilizes a probability of detection rule inspired by concepts of luminance masking and visual attention. The second part of this thesis further enhances on the efficiency of selective SR approaches by presenting an ATtentive (AT) SR framework that is completely driven by VA region detectors. Additionally, different VA techniques that combine several low-level features, such as center-surround differences in intensity and orientation, patch luminance and contrast, bandpass outputs of patch luminance and contrast, and difference of Gaussians of luminance intensity are integrated and analyzed to illustrate the effectiveness of the proposed selective SR frameworks. The proposed AT-SELP SR and AT-SR frameworks proved to be flexible by integrating a Maximum A Posteriori (MAP)-based SR algorithm as well as a fast two-stage Fusion-Restoration (FR) SR estimator. By adopting the proposed selective SR frameworks, simulation results show significant reduction on average in computational complexity with comparable visual quality in terms of quantitative metrics such as PSNR, SNR or MAE gains, and subjective assessment. The third part of this thesis proposes a Perceptually Weighted (WP) SR technique that incorporates unequal weighting parameters in the cost function of iterative SR problems. The proposed approach is inspired by the unequal processing of the Human Visual System (HVS) to different local image features in an image. Simulation results show an enhanced reconstruction quality and faster convergence rates when applied to the MAP-based and FR-based SR schemes. / Dissertation/Thesis / Ph.D. Electrical Engineering 2011
154

Abordagem sistemática para construção e sintonia de estimadores de estados não-lineares

Salau, Nina Paula Gonçalves January 2009 (has links)
Este trabalho apresenta metodologias para a construção e a sintonia de estimadores de estados não-lineares visando aplicações práticas. O funcionamento de um estimador de estados não-linear está calcado em quatro etapas básicas: (a) sintonia; (b) predição; (c) atualização da matriz de covariância de estados; (d) filtragem e suavização dos estados. As principais contribuições deste trabalho para cada uma destas etapas podem ser resumidas como segue: (a) Sintonia. A sintonia adequada da matriz de covariância do ruído de processos é fundamental na aplicação dos estimadores de estado com modelos sujeitos a incertezas paramétricas e estruturais. Sendo assim, foi proposto um novo algoritmo para a sintonia desta matriz que considera dois novos métodos para a determinação da matriz de covariância dos parâmetros. Este algoritmo melhorou significativamente a precisão da estimação dos estados na presença dessas incertezas, com potencialidade para ser usado na atualização de modelos em linha em práticas industriais. (b) Predição. Uma das etapas mais importantes para a aplicação do estimador de estados é a formulação dos modelos usados. Desta forma, foi mostrado como a formulação do modelo a ser usada em um estimador de estados pode impactar na observabilidade do sistema e na sintonia das matrizes de covariância. Também são apresentadas as principais recomendações para formular um bom modelo. (c) Atualização da matriz de covariância dos estados. A robustez numérica das matrizes de covariância dos estados usadas em estimadores de estados sem e com restrições é ilustrada através de dois exemplos da engenharia química que apresentam multiplicidade de soluções. Mostrou-se que a melhor forma de atualizar os estados consiste na resolução de um problema de otimização sujeito a restrições onde as estimativas fisicamente inviáveis dos estados são evitadas. Este também preserva a gaussianidade dos ruídos evitando que estes sejam mal distribuídos. (d) Filtragem e suavização dos estados. Entre as formulações estudadas, observou-se também que a melhor relação entre a acuracidade das estimativas e a viabilidade de aplicação prática é obtida com a formulação do filtro de Kalman estendido sujeita a restrições (denominada Constrained Extended Kalman Filter - CEKF), uma vez que esta demanda menor esforço computacional que a estimação de horizonte móvel, apresentando um desempenho comparável exceto no caso de estimativas ruins da condição inicial dos estados. Como uma solução alternativa eficiente para a estimação de horizonte móvel neste último caso, foi proposto um novo estimador baseado na inclusão de uma estratégia de suavização na formulação do CEKF, referenciado como CEKF & Smoother (CEKF&S). / This work presents approaches to building and tuning nonlinear state estimators aiming practical applications. The implementation of a nonlinear state estimator is supported by four basic steps: (a) tuning; (b) forecast; (c) state covariance matrix update; (d) states filtering and smoothing. The main contributions of this work for each one of these stages can be summarized as follows: (a) Tuning. An appropriate choice of the process-noise covariance matrix is crucial in applying state estimators with models subjected to parametric and structural uncertainties. Thus, a new process-noise covariance matrix tuning algorithm is presented in this work which incorporates two new methods for the parameter covariance matrix computation. The algorithm has improved significantly the state estimation accuracy when the presence of such uncertainties, with potential to be applied in on-line model update in industrial practice. (b) Forecast. One of the most important stages in applying state estimators is the used model formulation. In this way, it has been shown that the model formulation to be used in state estimator can impact on the system observability and noisecovariance matrices tuning. In this work it is also presented the main recommendations to formulate an appropriated model. (c) State covariance matrix update. The numerical robustness of the state covariance matrices used in unconstrained and constrained state estimators is illustrated by two chemical engineering examples tending to multiple solutions. It has been shown that the best technique to update the states consists in solving an optimization problem subjected to constraints, since it prevents from physically unfeasible states. It also preserves the noise gaussianity preventing from bad noise distribution. (d) States filtering and smoothing. Among the studied formulations, it was also noticed that the better relationship between performance and practical application is obtained with an extended Kalman filter formulation subjected to constraints (called Constrained Extended Kalman Filter - CEKF) because it requires small computational effort than MHE with comparable performance, except in case of poor guesses of the initial state. As an efficient solution for moving horizon estimation in the last case, it was proposed a new estimator based on the addition of a smoother strategy into the CEKF formulation, referred as CEKF & Smoother (CEKF&S).
155

Aplicação de um modelo substituto para otimização estrutural topológica com restrição de tensão e estimativa de erro a posteriori

Varella, Guilherme January 2015 (has links)
Este trabalho apresenta uma metodologia de otimização topológica visando reduzir o volume de uma estrutura tridimensional sujeita a restrição de tensão. A análise estrutural é feita através do método dos elementos finitos, as tensões são calculadas nos pontos de integração Gaussiana e suavizadas. Para evitar problemas associados a singularidades na tensão é aplicado o método de relaxação de tensão, que penaliza o tensor constitutivo. A norma-p é utilizada para simular a função máximo, que é utilizada como restrição global de tensão. O estimador de erro de Zienkiewicz e Zhu é usado para calcular o erro da tensão, que é considerado durante o cálculo da norma-p, tornando o processo de otimização mais robusto. Para o processo de otimização é utilizada o método de programação linear sequencial, sendo todas as derivadas calculadas analiticamente. É proposto um critério para remoção de elementos de baixa densidade, que se mostrou eficiente contribuindo para gerar estruturas bem definidas e reduzindo significativamente o tempo computacional. O fenômeno de instabilidade de tabuleiro é contornado com o uso de um filtro linear de densidade. Para reduzir o tempo dispendido no cálculo das derivadas e aumentar o desempenho do processo de otimização é proposto um modelo substituto (surrogate model) que é utilizado em iterações internas na programação linear sequencial. O modelo substituto não reduz o tempo de cálculo de cada iteração, entretanto reduziu consideravelmente o número de avaliações da derivada. O algoritmo proposto foi testado otimizando quatro estruturas, e comparado com variações do método e com outros autores quando possível, comprovando a validade da metodologia empregada. / This work presents a methodology for stress-constrained topology optimization, aiming to minimize material volume. Structural analysis is performed by the finite element method, and stress is computed at the elemental Gaussian integration points, and then smoothed over the mesh. In order to avoid the stress singularity phenomenon a constitutive tensor penalization is employed. A normalized version of the p-norm is used as a global stress measure instead of local stress constraint. A finite element error estimator is considered in the stress constraint calculation. In order to solve the optimization process, Sequential Linear Programming is employed, with all derivatives being calculated analiticaly. A criterion is proposed to remove low density elements, contributing for well-defined structures and reducing significantly the computational time. Checkerboard instability is circumvented with a linear density filter. To reduce the computational time and enhance the performance of the code, a surrogate model is used in inner iterations of the Sequential Linear Programming. The present algorithm was evaluated optimizing four structures, and comparing with variations of the methodolgy and results from other authors, when possible, presenting good results and thus verifying the validity of the procedure.
156

Uso de pseudomedidas em estimador de estados para cálculo de distorção harmônica em sistemas elétricos

Pulz, Lucas Tupi Caldas January 2017 (has links)
A maior presença de correntes harmônicas no sistema de distribuição, principalmente devido à geração distribuída, tem chamado atenção sobre suas possíveis consequências. O trabalho apresenta um método para a avaliação de harmônicas em um sistema elétrico através de um estimador de estados. A proposta é um método de supervisão da rede de distribuição utilizando o menor número de medidores possível. Isso foi feito identificando topologias de rede que viabilizam o uso de pseudomedidas no lugar de medidores. O método é aplicado a um estudo de caso baseado no modelo IEEE 13 barras e os resultados do estimador de estados foram comparados a uma simulação. Também é feita uma análise de sensibilidade do código, observando os resultados quando se adicionam erros sobre as medidas e sobre os parâmetros das linhas do sistema. / The growth of harmonic currents in distribution system, mainly due the distributed generation, is calling attention of the specialists to its possible consequences. This work presents a method to assessment of harmonics in an electric power system through a state estimator. The proposal is a method to monitor the distribution network using as few measurement devices as possible. It was performed identifying network topologies where a pseudomeasurement can replace a measurement device. The method was applied to a study case based on the IEEE 13 buses model and its results were compared to a simulation. A sensitivity analysis of the code also was performed, errors were added to measurements and lines parameters to assess the errors in the state estimator results.
157

Estimação de perdas técnicas e comerciais : métodos baseados em fluxo de carga e estimador de estados

Rossoni, Aquiles January 2014 (has links)
As perdas técnicas e comerciais apresentam valores significativos nas empresas de distribuição de energia elétrica, prejudicando o seu desempenho técnico e financeiro. A aplicação e avaliação das técnicas de redução de perdas estão diretamente relacionadas à correta estimação das mesmas. Este trabalho tem o objetivo de analisar o desempenho dos métodos baseados em fluxo de carga e estimação de estados na estimação de perdas, considerando sistemas de distribuição equilibrados. O método de fluxo de carga utilizado é o Newton-Raphson. Considerando este fluxo de carga, os métodos de comparação com medições e de fatores de correção são descritos e aplicados, ambos revisados da literatura. Utilizando o estimador de estados por mínimos quadrados ponderados, a estimação das perdas é dada com o auxílio da análise de erros grosseiros. Nos métodos utilizados, o primeiro aplica a análise dos resíduos, conforme é apresentado na literatura, no outro método, é proposta a aplicação da análise dos erros compostos. O estudo de caso é realizado em um sistema de distribuição equilibrado, considerando predições de carga e um número restrito de medições. Nos casos propostos, são inseridos diferentes níveis de perdas comerciais, em diferentes barras, e é considerado que as predições de carga e as medições estão sujeitas a erros. Para cada caso proposto, os resultados apresentam os erros dos métodos na estimação das perdas técnicas e comerciais. Adicionalmente, é realizada uma análise da relação dos erros com o nível de inserção de perdas comerciais. O trabalho também apresenta o desempenho dos métodos na localização das perdas comerciais e um estudo do custo computacional das metodologias. Os resultados demonstram que a precisão da predição de carga é determinante na estimação das perdas comerciais. O método baseado em estimador de estados com a aplicação da análise de erros compostos, proposto neste trabalho, apresentou os melhores resultados na estimação e identificação de perdas. A expansão deste método para sistemas de distribuição maiores e desequilibrados aparenta ser uma alternativa interessante para a estimação e combate de perdas. / The technical and commercial energy losses are significant in distribution companies, hampering the technical and financial performance. The application and evaluation of techniques to reduce losses are directly related to the proper loss estimation. This work aims to analyze the performance of loss estimation using methods based on load flow and state estimation, considering balanced distribution systems. The method of load flow used is the Newton-Raphson. Considering this load flow, the methods of comparison with measurements and correction factors are described, both of them from the literature. Using the weighted least squares state estimator, the losses are estimated using the gross error analysis. One of the methods uses the residue analysis, as presented in the literature, in another method, is proposed to use the composed error analysis. The case study is performed in a balanced distribution system, considering load forecastings and a limited number of measurements. In the proposed cases, different levels of commercial losses are inserted in different buses, and it is considered that load forecatings and measurements are subject to error. For each proposed case, the results show the methods errors in technical and commercial loss estimation. Additionally, an analysis of the relationship of estimation errors with the level of commercial losses is performed. This work also shows the methods performance in the commercial losses location and a study of the computational costs of methods. The results show that the load forecast accuracy is relevant in the commercial losses estimation. The method based on state estimation that uses composed error analysis, proposed in this dissertation, showed the best results in the loss estimation and identification. The expansion of this method for larger and unbalanced distribution systems appears to be an interesting alternative to estimate and combat losses.
158

Abordagem sistemática para construção e sintonia de estimadores de estados não-lineares

Salau, Nina Paula Gonçalves January 2009 (has links)
Este trabalho apresenta metodologias para a construção e a sintonia de estimadores de estados não-lineares visando aplicações práticas. O funcionamento de um estimador de estados não-linear está calcado em quatro etapas básicas: (a) sintonia; (b) predição; (c) atualização da matriz de covariância de estados; (d) filtragem e suavização dos estados. As principais contribuições deste trabalho para cada uma destas etapas podem ser resumidas como segue: (a) Sintonia. A sintonia adequada da matriz de covariância do ruído de processos é fundamental na aplicação dos estimadores de estado com modelos sujeitos a incertezas paramétricas e estruturais. Sendo assim, foi proposto um novo algoritmo para a sintonia desta matriz que considera dois novos métodos para a determinação da matriz de covariância dos parâmetros. Este algoritmo melhorou significativamente a precisão da estimação dos estados na presença dessas incertezas, com potencialidade para ser usado na atualização de modelos em linha em práticas industriais. (b) Predição. Uma das etapas mais importantes para a aplicação do estimador de estados é a formulação dos modelos usados. Desta forma, foi mostrado como a formulação do modelo a ser usada em um estimador de estados pode impactar na observabilidade do sistema e na sintonia das matrizes de covariância. Também são apresentadas as principais recomendações para formular um bom modelo. (c) Atualização da matriz de covariância dos estados. A robustez numérica das matrizes de covariância dos estados usadas em estimadores de estados sem e com restrições é ilustrada através de dois exemplos da engenharia química que apresentam multiplicidade de soluções. Mostrou-se que a melhor forma de atualizar os estados consiste na resolução de um problema de otimização sujeito a restrições onde as estimativas fisicamente inviáveis dos estados são evitadas. Este também preserva a gaussianidade dos ruídos evitando que estes sejam mal distribuídos. (d) Filtragem e suavização dos estados. Entre as formulações estudadas, observou-se também que a melhor relação entre a acuracidade das estimativas e a viabilidade de aplicação prática é obtida com a formulação do filtro de Kalman estendido sujeita a restrições (denominada Constrained Extended Kalman Filter - CEKF), uma vez que esta demanda menor esforço computacional que a estimação de horizonte móvel, apresentando um desempenho comparável exceto no caso de estimativas ruins da condição inicial dos estados. Como uma solução alternativa eficiente para a estimação de horizonte móvel neste último caso, foi proposto um novo estimador baseado na inclusão de uma estratégia de suavização na formulação do CEKF, referenciado como CEKF & Smoother (CEKF&S). / This work presents approaches to building and tuning nonlinear state estimators aiming practical applications. The implementation of a nonlinear state estimator is supported by four basic steps: (a) tuning; (b) forecast; (c) state covariance matrix update; (d) states filtering and smoothing. The main contributions of this work for each one of these stages can be summarized as follows: (a) Tuning. An appropriate choice of the process-noise covariance matrix is crucial in applying state estimators with models subjected to parametric and structural uncertainties. Thus, a new process-noise covariance matrix tuning algorithm is presented in this work which incorporates two new methods for the parameter covariance matrix computation. The algorithm has improved significantly the state estimation accuracy when the presence of such uncertainties, with potential to be applied in on-line model update in industrial practice. (b) Forecast. One of the most important stages in applying state estimators is the used model formulation. In this way, it has been shown that the model formulation to be used in state estimator can impact on the system observability and noisecovariance matrices tuning. In this work it is also presented the main recommendations to formulate an appropriated model. (c) State covariance matrix update. The numerical robustness of the state covariance matrices used in unconstrained and constrained state estimators is illustrated by two chemical engineering examples tending to multiple solutions. It has been shown that the best technique to update the states consists in solving an optimization problem subjected to constraints, since it prevents from physically unfeasible states. It also preserves the noise gaussianity preventing from bad noise distribution. (d) States filtering and smoothing. Among the studied formulations, it was also noticed that the better relationship between performance and practical application is obtained with an extended Kalman filter formulation subjected to constraints (called Constrained Extended Kalman Filter - CEKF) because it requires small computational effort than MHE with comparable performance, except in case of poor guesses of the initial state. As an efficient solution for moving horizon estimation in the last case, it was proposed a new estimator based on the addition of a smoother strategy into the CEKF formulation, referred as CEKF & Smoother (CEKF&S).
159

Optimal regression design under second-order least squares estimator: theory, algorithm and applications

Yeh, Chi-Kuang 23 July 2018 (has links)
In this thesis, we first review the current development of optimal regression designs under the second-order least squares estimator in the literature. The criteria include A- and D-optimality. We then introduce a new formulation of A-optimality criterion so the result can be extended to c-optimality which has not been studied before. Following Kiefer's equivalence results, we derive the optimality conditions for A-, c- and D-optimal designs under the second-order least squares estimator. In addition, we study the number of support points for various regression models including Peleg models, trigonometric models, regular and fractional polynomial models. A generalized scale invariance property for D-optimal designs is also explored. Furthermore, we discuss one computing algorithm to find optimal designs numerically. Several interesting applications are presented and related MATLAB code are provided in the thesis. / Graduate
160

Uso de pseudomedidas em estimador de estados para cálculo de distorção harmônica em sistemas elétricos

Pulz, Lucas Tupi Caldas January 2017 (has links)
A maior presença de correntes harmônicas no sistema de distribuição, principalmente devido à geração distribuída, tem chamado atenção sobre suas possíveis consequências. O trabalho apresenta um método para a avaliação de harmônicas em um sistema elétrico através de um estimador de estados. A proposta é um método de supervisão da rede de distribuição utilizando o menor número de medidores possível. Isso foi feito identificando topologias de rede que viabilizam o uso de pseudomedidas no lugar de medidores. O método é aplicado a um estudo de caso baseado no modelo IEEE 13 barras e os resultados do estimador de estados foram comparados a uma simulação. Também é feita uma análise de sensibilidade do código, observando os resultados quando se adicionam erros sobre as medidas e sobre os parâmetros das linhas do sistema. / The growth of harmonic currents in distribution system, mainly due the distributed generation, is calling attention of the specialists to its possible consequences. This work presents a method to assessment of harmonics in an electric power system through a state estimator. The proposal is a method to monitor the distribution network using as few measurement devices as possible. It was performed identifying network topologies where a pseudomeasurement can replace a measurement device. The method was applied to a study case based on the IEEE 13 buses model and its results were compared to a simulation. A sensitivity analysis of the code also was performed, errors were added to measurements and lines parameters to assess the errors in the state estimator results.

Page generated in 0.2262 seconds