• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 1
  • Tagged with
  • 12
  • 12
  • 7
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Detecção de falhas em sistemas dinâmicos empregando transformadas wavelet adaptativas.

Henrique Mohallem Paiva 00 December 2003 (has links)
Este trabalho revisita um método de detecção de falhas baseado em wavelets e propõe uma melhoria na técnica utilizando wavelets adaptativas, implementadas através de bancos de filtros. A dificuldade associada às restrições não-lineares de reconstrução perfeita dos filtros é contornada adotando uma abordagem descrita na literatura, que permite caracterizar os filtros utilizando um conjunto de parâmetros angulares livres de restrições. Esta parametrização é discutida no trabalho e algumas de suas características de relevância para a técnica proposta são demonstradas. A abordagem adotada para a parametrização dos filtros possibilita a utilização de algoritmos simples de busca para otimização sem restrições. Escolheu-se o algoritmo dos poliedros flexíveis, que minimiza localmente uma função de custo, partindo de uma condição inicial conveniente. Para definir tal ponto de partida, propõe-se nesse trabalho um algoritmo que permite a obtenção de um conjunto de parâmetros angulares que caracterize uma wavelet mãe tradicional. Para validação da técnica proposta, foi desenvolvido um esquema de computação analógica para simular a ocorrência de falhas abruptas em um servomecanismo. Três técnicas de detecção de falhas são utilizadas no processamento dos sinais experimentais: wavelets adaptativas, wavelets fixas e observadores de estados. Os resultados mostram que as técnicas baseadas em wavelets são menos susceptíveis a falsos alarmes, a falhas não detectadas e à diminuição na relação sinal/ruído, necessitando, contudo, de um tempo maior para detectar a ocorrência de uma falha que a técnica baseada em observadores de estados. Observa-se ainda que a introdução de wavelets adaptativas melhora o desempenho do sistema de detecção wavelet sem aumentar o seu atraso de resposta.
2

Efeitos dos erros não modelados da instrumentação de ensaio em vôo na estimação de parâmetros aerodinâmicos de uma aeronave.

Ilka Rodrigues de Santana 28 November 2005 (has links)
Este trabalho avalia os efeitos na estimação de parâmetros aerodinâmicos de uma aeronave devido a erros não modelados da instrumentação de ensaio em vôo. O algoritmo utilizado para estimação dos parâmetros da aeronave é do tipo output error e a ferramenta estatística para análise da distribuição dos parâmetros estimados foi Monte Carlo. A análise estatística dos efeitos dos erros não modelados foi realizada com dados sintéticos de vôo, o que facilitou bastante as diferentes combinações de tipos de erros tais como ruído de medição, erro de polarização, fator de escala, atraso temporal, erros interferentes associados com cruzamento entre variáveis, latência dinâmica dos sensores e desalinhamento geométrico dos sensores. Foi verificado que o ruído de medição, o fator de escala e o cruzamento de variável não causam grandes erros nos parâmetros aerodinâmicos estimados enquanto que os demais tipos de erros geram erros que invalidam a estimativa dos parâmetros aerodinâmicos.
3

Uma análise dos esquemas de dígitos verificadores usados no Brasil / An analysis of check digit schemes used in Brazil

Natália Pedroza de Souza 31 July 2013 (has links)
Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro / Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos. / In this paper we present several check digit systems used in Brazil, many of them similar to schemes used worldwide, and we do an analysis of their ability to detect various types of errors that are common in data entry computer systems. This analysis shows that the schemes constitute suboptimal decisions and almost never get the best rate possible error detection. Check digit schemes are based on three algebra theory: modular arithmetic, group theory and quasigroup. For the schemes based on modular arithmetic we present several improvements that can be made. We developed a new optimal scheme based on modular arithmetic base 10 with three permutations for identifers larger than 7. We also present the Verhoeff scheme, already old but used very little and that is also a good alternative for improvement identifers for size up to 7. We have also developed,optimum schemes for any modular base prime that detect all types of errors considered. The dissertation also makes use of elements of statistics in the study of the probability of error detection and algorithms to obtain optimal schemes.
4

Uma análise dos esquemas de dígitos verificadores usados no Brasil / An analysis of check digit schemes used in Brazil

Natália Pedroza de Souza 31 July 2013 (has links)
Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro / Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos. / In this paper we present several check digit systems used in Brazil, many of them similar to schemes used worldwide, and we do an analysis of their ability to detect various types of errors that are common in data entry computer systems. This analysis shows that the schemes constitute suboptimal decisions and almost never get the best rate possible error detection. Check digit schemes are based on three algebra theory: modular arithmetic, group theory and quasigroup. For the schemes based on modular arithmetic we present several improvements that can be made. We developed a new optimal scheme based on modular arithmetic base 10 with three permutations for identifers larger than 7. We also present the Verhoeff scheme, already old but used very little and that is also a good alternative for improvement identifers for size up to 7. We have also developed,optimum schemes for any modular base prime that detect all types of errors considered. The dissertation also makes use of elements of statistics in the study of the probability of error detection and algorithms to obtain optimal schemes.
5

Wavelet-packet identification of dynamic systems in frequency subbands.

Henrique Mohallem Paiva 26 August 2005 (has links)
This work presents a technique for linear system identification in frequency subbands by using wavelet packets. The wavelet-packet decomposition tree is used to establish frequency bands where subband models are created. An algorithm is proposed to adjust the tree structure, in order to achieve a compromise between accuracy and parsimony of the model. In a simulated example involving the identification of an aircraft model, the results of the proposed technique are favorably compared with those of a standard time-domain method.An application of the technique in the context of fault detection is also proposed. Once the identification is carried out, the difference between the outputs of the plant and of the model in the established frequency bands can be used as a residual signal for the purpose of fault detection. Two analytical redundancy approaches are exploited: input-output and output-output consistency check. Simulation studies involving a servomechanism and a Boeing 747 are provided to illustrate the proposed technique. The results show that the wavelet-packet method compares favorably with a standard observer-based scheme in terms of after-fault residue amplification, detection delay and number of successful fault detections.
6

Validação experimental dos mecanismos de detecção de erros implementados no computador de bordo do satélite SSR.

Antônio Carlos de Oliveira Pereira Júnior 00 December 1997 (has links)
Este trabalho apresenta os resultados da avaliação experimental da cobertura e latência dos mecanismos de detecção de erros implementados no computador de bordo do Satélite de Sensoriamento Remoto (SSR), desenvolvido pelo Instituto Nacional de Pesquisas Espaciais (INPE). A avaliação foi obtida usando a ferramenta de injeção de falhas físicas RIFLE, sendo adaptado ao computador do SSR através de um novo Módulo de Adaptação. A injeção de falhas consiste na emulação de falhas de curta duração (um ciclo de memória) nos pinos do processador. Dois conjuntos de experiências foram realizados: o primeiro conjunto de falhas foi injetado com uma distribuição aleatória ao longo do código do programa e o segundo ao longo do tempo de execução. Além dos mecanismos de detecção de erros originalmente implementados, foi proposto e avaliado um novo mecanismo de detecção de erros. Este novo mecanismo foi implementado exclusivamente por software. Em função da distribuição de falhas, foi obtida uma cobertura de 16,1% a 56,4%, apresentando uma baixa latência. Uma análise do impacto das falhas no sistema também é apresentado. Esta análise mostrou que 41,3% a 83,4% das falhas não apresentaram nenhum impacto macroscópico no comportamento do sistema e os erros causados por essas falhas foram "overwritten" ou descartados em conseqüência da execução normal do programa. Uma pequena percentagem de falhas (9,1% a 6,2%) causou erro no resultado produzido. Assumindo que todas as falhas detectadas podem ser recuperadas pelos mecanismos de recuperação (não desenvolvidos até o momento), acredita-se que o sistema possa tolerar de 93,8% a 99,9% das falhas transitórias.
7

Caminhamento fotogramétrico com arranjo triangular de câmaras fotográficas / Photogrammetric bridge using a triangular set of cameras

Blasechi, Victor [UNESP] 11 March 2016 (has links)
Submitted by VICTOR BLASECHI null (victorblasechi@yahoo.com.br) on 2016-05-11T16:11:17Z No. of bitstreams: 1 DISSERTACAO_VICTOR_BLASECHIFINAL_R04.pdf: 1882001 bytes, checksum: 8df7fc0d3db2ba1fe05127d304bbee53 (MD5) / Rejected by Felipe Augusto Arakaki (arakaki@reitoria.unesp.br), reason: Solicitamos que realize uma nova submissão seguindo as orientações abaixo: O arquivo submetido está sem a ficha catalográfica e folha de aprovação. Lembramos que a versão submetida por você é considerada a versão final da dissertação/tese, portanto não poderá ocorrer qualquer alteração em seu conteúdo após a aprovação. Corrija esta informação e realize uma nova submissão contendo o arquivo correto. Agradecemos a compreensão. on 2016-05-13T14:58:00Z (GMT) / Submitted by VICTOR BLASECHI null (victorblasechi@yahoo.com.br) on 2016-05-17T01:32:50Z No. of bitstreams: 1 DISSERTACAO_VICTOR_BLASECHIFINAL_R05.pdf: 1986271 bytes, checksum: b7f47f40ba442b7c083b6159620ea982 (MD5) / Rejected by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br), reason: Solicitamos que realize uma nova submissão seguindo as orientações abaixo: No campo “Versão a ser disponibilizada online imediatamente” foi informado que seria disponibilizado o texto completo porém no campo “Data para a disponibilização do texto completo” foi informado que o texto completo deverá ser disponibilizado apenas 6 meses após a defesa. Caso opte pela disponibilização do texto completo apenas 6 meses após a defesa selecione no campo “Versão a ser disponibilizada online imediatamente” a opção “Texto parcial”. Esta opção é utilizada caso você tenha planos de publicar seu trabalho em periódicos científicos ou em formato de livro, por exemplo e fará com que apenas as páginas pré-textuais, introdução, considerações e referências sejam disponibilizadas. Se optar por disponibilizar o texto completo de seu trabalho imediatamente selecione no campo “Data para a disponibilização do texto completo” a opção “Não se aplica (texto completo)”. Isso fará com que seu trabalho seja disponibilizado na íntegra no Repositório Institucional UNESP. Por favor, corrija esta informação realizando uma nova submissão. Agradecemos a compreensão. on 2016-05-17T15:00:18Z (GMT) / Submitted by VICTOR BLASECHI null (victorblasechi@yahoo.com.br) on 2016-05-17T15:49:29Z No. of bitstreams: 1 DISSERTACAO_VICTOR_BLASECHIFINAL_R05.pdf: 1986271 bytes, checksum: b7f47f40ba442b7c083b6159620ea982 (MD5) / Approved for entry into archive by Juliano Benedito Ferreira (julianoferreira@reitoria.unesp.br) on 2016-05-19T17:10:23Z (GMT) No. of bitstreams: 1 blasechi_v_me_prud.pdf: 1986271 bytes, checksum: b7f47f40ba442b7c083b6159620ea982 (MD5) / Made available in DSpace on 2016-05-19T17:10:23Z (GMT). No. of bitstreams: 1 blasechi_v_me_prud.pdf: 1986271 bytes, checksum: b7f47f40ba442b7c083b6159620ea982 (MD5) Previous issue date: 2016-03-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Os sistemas de mapeamento móvel (SMM) podem ser definidos como um conjunto de sensores instalados sobre uma mesma plataforma com o intuito de obter informação espacial. Estes sensores têm função de imageamento ou orientação. A orientação integrada utilizando a fototriangulação pode ser empregada tanto na extração de informações espaciais quanto para a orientação do SMM. No mapeamento móvel terrestre, o caminhamento fotogramétrico (CF), é um modo especial de levantamento utilizando pares estereoscópicos para determinar as orientações e coordenadas tridimensionais de pontos do terreno. No CF, um mesmo ponto pode ser visto por um par de imagens ou por quantas for possível. Esta característica, entretanto, não garante que erros grosseiros sejam detectados em todas as direções. A introdução de uma terceira câmara que não forme uma geometria coplanar (sobre o plano epipolar) permite uma melhoria na qualidade da determinação da rede fotogramétrica, formada pelos pontos do espaço-objeto e as estações de exposição. Os principais objetivos deste trabalho são mostrar a contribuição da terceira câmara para a qualidade da fototriangulação, encontrar uma situação ótima de trabalho para este arranjo e mostrar que a orientação obtida no processamento sequencial da fototriangulação pode ser utilizada como um sensor de dead-reckoning. Isto é feito através de 9 experimentos, em que são analisadas as características de processamento, geometria e controlabilidade de erros grosseiros. Em todos os experimentos, a determinação da orientação exterior é precisa. Os erros nos pontos de enlace são bem maiores e se propagam na direção do caminhamento. A comparação entre processamento em lote com o sequencial mostra que o processamento em lote pode ser menos oneroso do que o sequencial quando se tem poucas observações, mesmo tendo mais iterações. A controlabilidade é maior no processamento em lote, sendo que a determinação das coordenadas tridimensionais dos pontos de enlace é mais acurada. Maiores janelas de processamento resultam em maior qualidade na orientação, mas não afetam os pontos de enlace. A quantidade de avanços de base não afeta a qualidade. O aumento da distância focal resulta em melhora na estimativa da trajetória no sentido do caminhamento, mas reduz o ângulo de abertura, diminuindo o campo de visão. Uma maior distância focal melhora a determinação das coordenadas tridimensionais dos pontos de enlace proporcionalmente ao aumento da distância focal. Aumentando-se o espaçamento entre as câmaras do arranjo, aumenta-se a qualidade do posicionamento das câmaras no sentido do levantamento, bem como a acurácia das coordenadas dos pontos de enlace, mas torna-se mais difícil a correspondência intra-imagens de feições próximas às câmaras. O distanciamento entre estações de exposição subsequentes não afeta a qualidade da fototriangulação, mas pode dificultar a correspondência de imagens. Na comparação com o arranjo formado por um par estereoscópico, o arranjo triangular permitiu a detecção-localização-tratamento do erro introduzido, enquanto que o par estereoscópico perde convergência já nas primeiras janelas de processamento. Um percurso sinuoso tende a reduzir a acurácia, mas mesmo assim, o programa mostrou conseguir processar toda a sequência. / The Mobile Mapping Systems (MMS) can be defined as a set of sensors embedded on a common platform in order to get spatial information. These sensors are used for imaging or orientation. The integrated orientation using phototriangulation can be employed on both spatial information extracting and MMS orientation. On terrestrial mobile mapping, the photogrammetric bridge (PB) is a special mode of surveying that uses stereopairs to determine the orientation and tridimensional points on terrain. On PB, a point can be viewed by one pair of images or as many as possible images. This characteristic, however, do not ensure that blunders can be detected for all directions. Introducing a third camera having a non-coplanar geometry (based on the epipolar plane) allows a quality improvement of the photogrammetric network determination, formed by the object-space points and exposure stations. The main objectives of this work are showing the third camera contribution for the phototriangulation quality, find an optimal working situation for this set and show that the orientation obtained on the sequential phototriangulation processing can be used as a dead-reckoning sensor. This is done through nine experiments by witch are analyzed processing characteristics, geometry and controllability of blunders. On all experiments, the exterior orientation determination is precise. The tiepoints errors are larger and propagates on the moving direction of the platform. The comparison between batch and sequential processing shows that the batch can be less onerous than sequential when it has few observations, even though it costs more iterations. The controllability is better on the batch processing and the tiepoints tridimensional coordinates determination is more accurate. Bigger processing windows results in more quality on the orientation, but do not affect the tiepoints determination. The dimension of base lift does not affects the quality. A rise of the focal length results on improvement of the trajectory estimation in the movement direction, but reduces the aperture angle, decreasing the field of view. A bigger focal length improves the tiepoints tridimensional coordinates determination proportionally to the rising of focal length. When rising the distance between cameras of the arrange, the positioning quality of the cameras rises in the movement direction as well the tiepoints accuracy, but it turns intra-images matching more difficult for close features. The distance between subsequent exposure stations does not affects the phototriangulations quality, but image matching tends to be more difficult. Comparing with arrange formed by a stereopair, the triangular arrange allowed a detecting-localizationtreatment of an intentionally introduced blunder, while the stereopair lost convergence on the early processing windows. A sinuous trajectory tends to reduce the accuracy, but even so, the program had success on processing the whole sequence.
8

Detecção de falhas em sistema para Ambiente de Vida Assistida

Jesus Junior, Airton Antônio de 09 June 2017 (has links)
Não informado. / Ambiente de Vida Assistida (AVA) é, essencialmente, uma proposta científica e tecnológica que visa auxiliar a manutenção da vida e o bem-estar de pessoas idosas ou com necessidades especiais. Para tanto, utiliza-se um sistema de controle que integra e coordena dispositivos inteligentes: braceletes, roupas, camas, quartos etc., com vistas a ampliar a autonomia dos indivíduos na execução das mais simples atividades diárias bem como prover remotamente serviços de saúde e de assistência social. Como então garantir, neste contexto, que o sistema não esteja interpretando uma situação equivocada da realidade do meio ou do próprio paciente? Ou ainda, como prevenir respostas inadequadas ou omissões irremediáveis? Apenas com o cumprimento eficaz de requisitos qualitativos, tais como técnicas de detecção de erros e tolerância a falhas poder-se-á minimizar tais circunstâncias inaceitáveis para preservação da saúde do indivíduo assistido. Neste diapasão, o presente estudo visa levantar o contexto de identificação de falhas em sistemas distribuídos assíncronos de modo a projetar, desenvolver e, em seguida, avaliar a eficácia do módulo de detecção de erros em sistema para controle de AVA por meio do emprego de tecnologias abertas (open hardware/software). A metodologia empregada para avaliação deste trabalho será a abordagem Goal Question Metric (GQM). Diante dos resultados encontrados identificou-se a necessidade de modificar um algoritmo de detector de erros originalmente proposto para redes móveis auto organizáveis (MANETs) de modo a torná-lo mais apropriado para o contexto de sistema para Ambiente de Vida Assistida.
9

Índice de não-detecção de erros grosseiros no processo de estimação de estado em sistemas elétricos de potência / Undetectability index of gross errors in power systems state estimation

Benedito, Raphael Augusto de Souza 03 June 2011 (has links)
A partir de uma análise geométrica, do estimador de estado por mínimos quadrados ponderados, propõe-se, neste trabalho, um índice para classificação das medidas de acordo com as suas características de não refletirem grande parcela de seus erros nos resíduos do processo de estimação de estado, por mínimos quadrados ponderados. O índice proposto foi denominado Índice de Não-Detecção de Erros, ou apenas UI (Undetectability Index). As medidas com maiores UI são aquelas cujos erros grosseiros (EGs) são mais difíceis de serem detectados através de métodos que fazem uso da análise dos resíduos. Isto porque os erros dessas medidas são, de certa forma, \"mascarados\", isto é, não são refletidos nos resíduos das mesmas. Nesse sentido, a medida crítica é o caso limite de medidas cujos erros são mascarados, isto é, possui UI infinito e seu resíduo é igual a zero, independente de a mesma ter ou não EG. Para obtenção dos índices UI das medidas, desenvolveu-se um algoritmo simples e de fácil implementação. Tomando por base o índice UI, propõe-se, também, uma metodologia para processamento de EGs e dois algoritmos para projeto ou fortalecimento de sistemas de medição. Esses algoritmos possibilitam a obtenção de sistemas de medição confiáveis (observáveis e isentos de medidas críticas e de conjuntos críticas de medidas), de baixo custo e formados por medidas com índices UI menores que um valor pré-estabelecido. Para validar o índice UI e as suas aplicações propostas neste trabalho, realizaram-se diversas simulações computacionais nos sistemas de 14 e 30 barras do IEEE, tendo sido satisfatórios todos os resultados obtidos. / The present thesis proposes an index, called Undetectability Index (UI), to classify the measurements according to their characteristics of not reflecting their errors into the residuals of the weighted least squares state estimation process from a geometric analysis of this estimator. Gross errors in measurements with higher UIs are very difficult to be detected by methods based on the residual analysis, as the errors in those measurements are \"masked\", i.e., they are not reflected in the residuals. In this sense, critical measurements are the limit case of measurements that mask errors, that is, they have infinite UI and their residuals are always zero independently of their having or not gross errors. Based on the UI a methodology for gross error processing and two algorithms for metering system planning are also proposed in this thesis. These algorithms enable the obtaining of reliable measurement systems (observable and free from critical measurements and critical sets of measurements) with low investment and containing only measurements with UIs lower than a pre-established value. Several simulation results (with IEEE 14-bus and 30-bus systems) have validated the UI and its application.
10

Processamento de erros grosseiros através do índice de não-detecção de erros e dos resíduos normalizados / Bad data processing through the undetectability index and the normalized residuals

Vieira, Camila Silva 20 October 2017 (has links)
Esta dissertação trata do problema de processamento de Erros Grosseiros (EGs) com base na aplicação do chamado Índice de Não-Detecção de Erros, ou apenas UI (Undetectability Index), na análise dos resíduos do estimador de estado por mínimos quadrados ponderados. O índice UI foi desenvolvido recentemente e possibilita a classificação das medidas de acordo com as suas características de não refletirem grande parcela de seus erros nos resíduos daquele estimador. As medidas com maiores UIs são aquelas cujos erros são mais difíceis de serem detectados através de métodos que fazem uso da análise dos resíduos, pois grande parcela do erro dessas medidas não aparece no resíduo. Inicialmente demonstrou-se, nesta dissertação, que erros das estimativas das variáveis de estado em um sistema com EG não-detectável (em uma medida de alto índice UI) podem ser mais significativos que em medidas com EGs detectáveis (em medidas com índices UIs baixos). Justificando, dessa forma, a importância de estudos para tornar possível o processamento de EGs em medidas com alto índice UI. Realizou-se, então, nesta dissertação, diversas simulações computacionais buscando analisar a influência de diferentes ponderações de medidas no UI e também nos erros das estimativas das variáveis de estado. Encontrou-se, então, uma maneira que destacou-se como a mais adequada para ponderação das medidas. Por fim, ampliaram-se, nesta dissertação, as pesquisas referentes ao UI para um estimador de estado por mínimos quadrados ponderados híbrido. / This dissertation deals with the problem of Gross Errors processing based on the use of the so-called Undetectability Index, or just UI. This index was developed recently and it is capable to classify the measurements according to their characteristics of not reflecting their errors into the residuals of the weighted least squares state estimation process. Gross errors in measurements with higher UIs are very difficult to be detected by methods based on the residual analysis, as the errors in those measurements are masked, i.e., they are not reflected in the residuals. Initially, this dissertation demonstrates that a non-detectable gross error (error in a measurement with high UI) may affect more the accuracy of the estimated state variables than a detectable gross error (error in a measurement with low UI). Therefore, justifying the importance of studies that make possible gross errors processing in measurements with high UI. In this dissertation, several computational simulations are carried out to analyze the influence of different weights of measurements in the UI index and also in the accuracy of the estimated state variables. It is chosen a way that stood out as the most appropriate for weighing the measurements. Finally, in this dissertation, the studies referring to the UI is extended for a hybrid weighted least squares state estimator.

Page generated in 0.0639 seconds