• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 2
  • Tagged with
  • 34
  • 34
  • 34
  • 32
  • 9
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] DATA MINING WITH ROUGH SETS TECHNIQUES / [pt] MINERAÇÃO DE DADOS COM TÉCNICAS DE ROUGH SETS

DANTE JOSE ALEXANDRE CID 13 October 2005 (has links)
[pt] Esta dissertação investiga a utilização de Rough Sets no processo de descoberta de conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). O objetivo do trabalho foi avaliar o desempenho da técnica de Rough Sets na tarefa de Classificação de Dados. A Classificação é a tarefa da fase de Mineração de Dados que consiste na descoberta de regras de decisão, ou regras de inferência, que melhor representem um grupo de registros do banco de dados. O trabalho consistiu de cinco etapas principais: estudo sobre o processo de KDD; estudo sobre as técnicas de Rough Sets aplicadas à mineração de dados; análise de ferramentas de mineração de dados do mercado; evolução do projeto Bramining; e a realização de alguns estudos de caso para avaliar o Bramining. O estudo sobre o caso KDD abrangeu todas as suas fases: transformação, limpeza, seleção, mineração de dados e pós-processamento. O resultado obtido serviu de base para o aprimoramento do projeto Bramining. O estudo sobre as técnicas de Rough Sets envolveu a pesquisa de seus conceitos e sua aplicabilidade no contexto de KDD. A teoria de Rough Sets foi apresentada por Zdzislaw Pawlak no início dos anos 80 como uma abordagem matemática para a análise de dados vagos e imprecisos. Este estudo permitiu sua aplicação na ferramenta de mineração de dados desenvolvida. A análise de ferramentas de mineração de dados do mercado abrangeu o estudo e testes de aplicativos baseados em diferentes técnicas, enriquecimento a base de comparação utilizada na avaliação da pesquisa. A evolução do projeto Bramining consistiu no aprimoramento do ambiente KDD desenvolvido em estudos anteriores, passando a incluir técnica de Rough Sets em seu escopo. Os estudos de caso foram conduzidos paralelamente com o uso de Bramining e de outras ferramentas existentes, para efeito de comparação. Os índices apresentados pelo Bramining nos estudos de caso foram considerados, de forma geral, equivalentes aos do software comercial, tendo ambos obtidos regras de boa qualidade na maioria dos casos. O Bramining, entretanto, mostrou-se mais completo para o processo de KDD, graças às diversas opções nele disponíveis para preparação dos dados antes da fase de mineração. Os resultados obtidos comprovaram, através da aplicação desenvolvida, a adequação dos conceitos de Rough Sets à tarefa de classificação de dados. Alguns pontos frágeis da técnica foram identificados, como a necessidade de um mecanismo de apoio para a redução de atributos e a dificuldade em trabalhar com atributos de domínio contínuo. Porém, ao se inserir a técnica em um ambiente mais completo de KDD, como o Bramining, estas deficiências foram sanadas. As opções de preparação da base que o Bramining disponibiliza ao usuário para executar, em particular, a redução e a codificação de atributos permitem deixar os dados em estado adequado à aplicação de Rough Sets. A mineração de dados é uma questão bastante relevante nos dias atuais, e muitos métodos têm sido propostos para as diversas tarefas que dizem respeito a esta questão. A teoria de Rough Sets não mostrou significativas vantagens ou desvantagens em relação a outras técnicas já consagradas, mas foi de grande valia comprovar que há caminhos alternativos para o processo de descoberta de conhecimento. / [en] This dissertation investigates the application of Rough Sets to the process of KDD - Knowledge Discovery in Databases. The main goal of the work was to evaluate the performance of Rough Sets techniques in solving the classification problem. Classification is a task of the Data Mining step in KDD Process that performs the discovery of decision rules that best represent a group of registers in a database. The work had five major steps: study of the KDD process; study of Rough Sets techniques applied to data mining; evaluation of existing data mining tools; development of Bramining project; and execution of some case studies to evaluate Bramining. The study of KDD process included all its steps: transformation, cleaning, selection, data mining and post- processing. The results obtained served as a basis to the enhamcement of Bramining. The study of Rough Sets techniques included the research of theory´s concepts and its applicability at KDD context. The Rough Sets tehory has been introduced by Zdzislaw Pawlak in the early 80´s as a mathematical approach to the analysis of vague and uncertain data. This research made possible the implementation of the technique under the environment of the developed tool. The analysis of existing data mining tools included studying and testing of software based on different techniques, enriching the background used in the evaluation of the research. The evolution of Bramining Project consisted in the enhancement of the KDD environment developed in previous works, including the addition of Rough Sets techniques. The case studies were performed simultaneously with Bramining and a commercial minig tool, for comparison reasons. The quality of the knowledge generated by Bramining was considered equivalent to the results of commercial tool, both providing good decision rules for most of the cases. Nevertheless, Bramining proved to be more adapted to the complete KDD process, thanks to the many available features to prepare data to data mining step. The results achieved through the developed application proved the suitability of Rough Sets concepts to the data classification task. Some weaknesses of the technique were identified, like the need of a previous attribute reduction and the inability to deal with continuous domain data. But as the technique has been inserted in a more complete KDD environment like the Bramining Project, those weaknesses ceased to exist. The features of data preparation available in Bramining environment, particularly the reduction and attribute codification options, enable the user to have the database fairly adapted to the use of Rough Sets algorithms. Data mining is a very relevant issue in present days and many methods have been proposed to the different tasks involved in it. Compared to other techniques, Rough Sets Theory did not bring significant advantages or disadvantages to the process, but it has been of great value to show there are alternate ways to knowledge discovery.
2

[en] A STUDY FOR SHARING LEARNING OBJECTS IN MULTIMEDIA DATABASE / [pt] UM ESTUDO PARA O COMPARTILHAMENTO DE OBJETOS DE APRENDIZADO EM BANCO DE DADOS MULTIMÍDIA

KONSTANTIN KURIZKY 30 June 2004 (has links)
[pt] Este trabalho apresenta uma proposta para utilizar a tecnologia de banco de dados para o armazenamento e a gerência de objetos de aprendizado em uma federação de banco de dados (banco de dados distribuído). A crescente evolução no uso de aprendizado eletrônico trouxe o foco para a produtividade na elaboração e gerência do conteúdo dos módulos educacionais. Este conteúdo compreende hoje de vídeos, áudios e de outros dados relacionados, além de textos. Este material é normalmente armazenado pelos instrutores sem maiores preocupações quanto ao compartilhamento. Como membro do projeto PGL (Partnership in Global Learning) - uma organização virtual voltada para pesquisa, desenvolvimento e disseminação do aprendizado através de novas tecnologias - o laboratório de banco de dados da PUC-Rio - TecBD, tem pesquisado a adoção do enfoque de banco de dados para a gerência de objetos de aprendizado (Learning Objects) armazenados em locais interligados formando um ambiente de banco de dados heterogêneos distribuído. Este trabalho visa: 1) utilizando produtos de BD comercialmente disponíveis; 2) adotando os atuais padrões existentes para definição de objetos de aprendizado; 3) considerando objetos de aprendizado armazenados em locais separados e autônomos; 4) desenvolver uma aplicação (protótipo) com esses objetos de aprendizado. O modelo de dados adotado estabelece uma estrutura de objetos de aprendizado compostos, via relacionamentos com elementos atômicos e também com elementos compostos. Diferentes abordagens como, por exemplo, Web Services, Java/Servlets e Web Application Servers, foram estudadas para o problema da autonomia e distribuição geográfica. Um protótipo foi construído utilizando o produto IBM DB2 com seus recursos suplementares tais como extensores para dados de áudio, vídeo, imagens, XML e suporte para gerenciamento federado. A exploração dos dados armazenados, via navegador (browser), foi realizada utilizando a camada IBM Net.Data que embora não obrigatória, permitiu realizar a tarefa de um modo simples e disponibilizou uma solução bem integrada com o IBM DB2 e seus complementos. / [en] This work presents a proposal to utilize database technology for storing and managing learning objects in a database federation (distributed database). The evolution of e-learning has brought the focus over the productivity to make and to manage the content of learning modules, which today comprises videos, audio, among other related data, besides the text data. Instructors normally store this material without worry about sharing. As a member of PGL - Partnership in Global Learning - a virtual organization for research, development and dissemination of learning through new technologies - TecBD - the PUC-Rio`s Database Laboratory is researching the use of database approach for managing learning objects stored on interconnected sites composing a heterogeneous distributed database environment. This work intends: 1) using market ready DB products; 2) adopting the actual standards for defining of learning objects; 3) considering learning objects stored on separated and autonomous sites; 4) to develop an application (a study case) with these learning objects. The learning object`s model establishes a structure for composing learning objects by linking atomic elements and also linking composed elements. Different approaches as Web Services, Java/Servlets and Web Application Servers were considered for the geographically distributed problem. A study case was build using the product IBM DB2 with the provided extenders for audio, video, image, XML data and the Federated System Support. The web browser`s explore of the stored data was build using the IBM Net.Data software. Although not exclusive, it provided an easy way to perform this task and also enabled an easy integration with IBM DB2 and its extenders.
3

[en] RXQEE - RELATIONAL-XML QUERY EXECUTION ENGINE / [pt] RXQEE: UMA MÁQUINA DE EXECUÇÃO DE CONSULTAS DE INTEGRAÇÃO DE DADOS RELACIONAIS E XML

AMANDA VIEIRA LOPES 10 February 2005 (has links)
[pt] Na abordagem tradicional para execução de consultas em um ambiente de integração de dados, os dados provenientes de fontes heterogêneas são convertidos para o modelo de dados global do sistema integrador, através do uso de adaptadores (wrappers), antes de serem submetidos aos operadores algébricos de uma consulta. Como conseqüência disto, planos de execução de consultas (PECs) contêm operadores que processam dados representados apenas no modelo de dados global. Esta dissertação apresenta uma nova abordagem para a execução de consultas de integração, denominada Moving Wrappers, na qual a conversão entre os modelos de dados acontece durante o processamento, em qualquer ponto do PEC, permitindo que os operadores processem dados representados no modelo de dados original de suas fontes. Baseada nesta abordagem, foi desenvolvida uma máquina de execução de consultas (MEC) que executa PECs de integração de dados de fontes Relacionais e XML, combinando, em um mesmo PEC, operadores em ambos os modelos. Esta MEC, denominada RXQEE (Relational-XML Query Execution Engine), foi instanciada a partir do framework QEEF (Query Execution Engine Framework), desenvolvido em um projeto de pesquisa do laboratório TecBD da PUC-Rio. De modo a permitir a execução de PECs de integração, a MEC RXQEE implementa operadores algébricos, nos modelos XML e Relacional, e operadores interalgébricos, desenvolvidos para a realizar a conversão entre esses modelos de dados na MEC construída. / [en] In the traditional approach for the evaluation of data integration queries, heterogeneous data in data sources are converted into the global data model by wrappers before being delivered to algebraic operators. Consequently, query execution plans (QEPs) are composed exclusively by operations in accordance to the global data model. This work proposes a new data integration query evaluation strategy, named Moving Wrappers, in which data conversion is considered as an operation placed in any part of the QEP, based on a query optimization process. This permits the use of algebraic operators of the data sourceís data model. So, a QEP may include fragments with operations in different data models converted to the global data model by inter-algebraic operators. Based on this strategy, a query execution engine (QEE), named RXQEE (Relational-XML Query Execution Engine), was developed as an instance of QEEF (Query Execution Engine Framework). In particular, RXQEE explores integration queries over Relational and XML data, and therefore it implements algebraic operators, in XML and Relational models, and inter-algebraic operators, permiting the execution of integration QEPs.
4

[en] BABEL: AN EXTENSIBLE FRAMEWORK FOR EASY RDF PUBLICATION FROM MULTIPLE DATA SOURCES USING TEMPLATES / [pt] BABEL: UM FRAMEWORK EXTENSÍVEL PARA A PUBLICAÇÃO DE RDF DE VÁRIAS FONTES DE DADOS UTILIZANDO TEMPLATES

EDGARD LUIZ MARX 03 January 2013 (has links)
[pt] A grande maioria dos dados que se encontram hoje na Web não estão preparados para a Web Semântica. Para facilitar e promover a conversão de dados, armazenados em bancos de dados relacionais e planilhas em particular, nós introduzimos a abordagem do Babel. Diferentemente das abordagens existentes, nomeadamente RDB2RDF, Babel e promove a conversão de dados em uma ampla variedade de formatos, que incluem OWL, RDFa, RSS e (X)HTML, além de RDF. A principal contribuição de Babel, no entanto, é sua facilidade de uso. Babel suaviza a curva de aprendizado, eliminando a necessidade de se familiarizar com técnicas de mapeamento complexas, que são substituídas pelo uso de templates. / [en] The vast majority of data on the Web today is not Semantic Web ready. To facilitate and promote the conversion of data, stored in relational databases and spreadsheets in particular, we introduce the Babel approach. Differently from existing approaches, notably RDBtoRDF, Babel outputs data in a wider range of formats, that include OWL, RDFa, RSS and (X)HTML, in addition to RDF. The main contribution of Babel, however, is its ease of use. Babel smoothes the learning curve by altogether eliminating the need of getting acquainted with complex mapping techniques, that are substituted by the use of templates.
5

[en] FRAMEWORK TO SUPPORT DATABASE TUNING / [pt] FRAMEWORK PARA APOIAR A SINTONIA FINA DE BANCO DE DADOS

ANA CAROLINA BRITO DE ALMEIDA 05 August 2014 (has links)
[pt] Há uma crescente demanda por ferramentas que automatizem tarefas complexas relacionadas ao SGBD, tais como aquelas relacionadas às atividades de sintonia fina. Nestas ferramentas, existe uma falta de clareza sobre as decisões e as ações que são tomadas de forma automática. Essa tese propõe um framework para execução das heurísticas de sintonia fina para apoiar o DBA (e possivelmente outros usuários) nas escolhas envolvidas na atividade de sintonia fina. Esse trabalho de pesquisa inclui uma proposta de ontologia para a sintonia fina (automática ou não) que proporciona uma abordagem formal para decisões e inferências. A contribuição inovadora dessa abordagem é oferecer transparência e confiabilidade acerca das alternativas disponíveis para possíveis cenários no SGBD, por meio de justificativas concretas para as decisões que foram tomadas. Além disso, através do uso de uma ontologia específica, proporcionar a geração automática de novas práticas de sintonia fina, que podem ser obtidas a partir das práticas existentes (uso de inferências) ou de novas regras e conceitos que venham a surgir no futuro. Esta abordagem permite também a realização de combinações de heurísticas de sintonia fina em alto nível. / [en] There is a strong demand for automation of Database Management Systems (DBMS) tasks, as those related to self-management and self-tuning activities. However, whenever automatic decisions are made, there is also a lack of clearness about the considered decisions and actions. This thesis proposes a framework to support the DBA (and possibly other database users) on choices concerning tuning activities. This research work includes the proposal of an ontology for (autonomous or not) database tuning that enables a formal approach for decisions and inferences. The goals are to offer transparency and confidence on the available tuning alternatives with respect to the possible DBMS scenarios through a concrete justification about the decisions that are made. Moreover, new tuning practices may be obtained automatically as soon as new rules, concepts and practices are known. Finally, our approach enables an actual combination, at a high level of abstraction, of distinct database tuning strategies.
6

[en] INSTANCE-BASED SCHEMA MATCHING / [pt] ALINHAMENTO DE ESQUEMAS BASEADO EM INSTÂNCIAS

DANIELA FRANCISCO BRAUNER 10 December 2008 (has links)
[pt] Um mediador é um componente de software que auxilia o acesso a fontes de dados. Com o advento da Web, a construção de mediadores impõe desafios importantes, tais como a capacidade de fornecer acesso integrado a fontes de dados independentes e dinâmicas e a habilidade de resolver a heterogeneidade semântica entre os esquemas destas fontes. Para lidar com esses desafios, o alinhamento de esquemas é uma questão fundamental. Nesta tese são propostas abordagens de alinhamento de esquemas de classificação (tesauros) e esquemas conceituais, utilizando instâncias como evidências para os mapeamentos. As abordagens propostas são classificadas em dois tipos: adaptativa e a priori, referindo-se, respectivamente, à descoberta dos mapeamentos de forma incremental ou à definição dos mapeamentos antes da implantação do mediador. Por fim, são apresentados experimentos para validação e teste das abordagens propostas. / [en] A mediator is a software component that helps accessing data sources. With the advent of the Web, the design of mediators imposes important challenges, such as the ability of providing integrated access to independent and dynamic data sources and the ability of resolving the semantic heterogeneity between different data source schemas. To deal with these challenges, schema matching is a fundamental issue. In this thesis, matching approaches for classification schemas (thesauri) and conceptual schemas are proposed, using instances as evidences for the mappings. The proposed approaches are classified as adaptative and a priori, referring to, respectively, the discovery of the mappings in an incremental way or the definition of the mappings before the deployment of the mediator. Finally, experiments to validate and test the proposed approaches are presented.
7

[en] SYSTEM FOR KEYWORD SEARCH IN RELATIONAL DATABASE / [pt] SISTEMA PARA CONSULTAS SOBRE BANCO DE DADOS RELACIONAL BASEADO EM PALAVRAS-CHAVE

LEANDRO DOS SANTOS NAZARETH 02 July 2009 (has links)
[pt] Esta dissertação descreve um sistema desenvolvido que permite a criação e execução de consultas a partir de palavras-chave sobre um banco de dados relacional. O sistema recebe palavras-chave quaisquer e tenta criar consultas que podem ser executadas em um Sistema de Gerenciamento de Banco de dados (SGBD). Para realizar esta geração automática de consultas o sistema utiliza os dados do catálogo da base de origem. O sistema permite assim efetuar consultas em um SGBD sem o conhecimento de uma linguagem de consultas, como SQL, e sem conhecimento do modelo do banco de dados. / [en] This dissertation describes a developed system that allows the creation and execution of searches from keywords in a relational database. The system receives any keywords and tries to create queries that can be executed in database. To perform this automatic generation of queries the system uses the information of the catalogue of the source database. The system allows to make queries in a database without the knowledge of a language queries, like SQL, and the model from the database.
8

[en] CONCEPTUAL SCHEMA MATCHING BASED ON SIMILARITY HEURISTICS / [pt] ALINHAMENTO DE ESQUEMAS CONCEITUAIS BASEADO EM HEURÍSTICAS DE SIMILARIDADE

LUIZ ANDRE PORTES PAES LEME 07 January 2016 (has links)
[pt] Alinhamento de esquema é uma questão fundamental em aplicações de banco de dados, tais como mediação de consultas, integração de banco de dados e armazéns de dados. Nesta tese, abordamos inicialmente o alinhamento de catálogos. Um catálogo é um banco de dados simples que contém informações sobre conjuntos de objetos, tipicamente classificados usando-se termos de um dado tesauro. Inicialmente apresentamos uma técnica de alinhamento baseada na noção de similaridade, que se aplica a pares de tesauros e de listas de propriedades. Descrevemos, então, o alinhamento baseado na noção de informação mútua e introduzimos variações que exploram certas heurísticas. Ao final, discutimos resultados experimentais que avaliam a precisão do método e comparam a influência das heurísticas. Após as técnicas para alinhamento de catálogos, nos concentramos no problema mais complexo de alinhamento de dois esquemas descritos em um subconjunto de OWL. Adotamos uma técnica baseada em instâncias e, por isso, assumimos que conjuntos de instâncias de cada esquema estão disponíveis. Decompomos este problema nos subproblemas de alinhamento de vocabulário e de alinhamento de conceitos. Introduzimos também condições suficientes para garantir que o alinhamento de vocabulário induz um alinhamento de conceitos correto. Em seguida, descrevemos uma técnica de alinhamento de esquemas OWL baseada no conceito de similaridade. Finalmente, avaliamos a precisão da técnica usando dados disponíveis na Web. De forma diferente de outras técnicas anteriores baseadas em instâncias, o processo de alinhamento que descrevemos usa funções de similaridade para induzir alinhamento de vocabulários de uma forma não trivial. Ilustramos, também, que a estrutura de esquemas OWL pode nos levar a mapeamentos de conceitos errados e indicamos como evitar tais problemas. / [en] Schema matching is a fundamental issue in many database applications, such as query mediation, database integration, catalog matching and data warehousing. In this thesis, we first address hot to match catalogue schemas. A catalogue is a simple database that holds information about a set of objects, typically classified using terms taken from a given thesaurus. We introduce a matching approach, based on the notion of similarity, which applies to pairs of thesauri and to pairs of lists of properties. We then describe matchings based on cooccurrence of information and introduce variations that explore certain heuristics. Lastly, we discuss experimental results that evaluate the precision of the matchings introduced and that measure the influence of the heuristics. We then focus on the mre complex problem of matching two schemas that belong to an expressive OWL dialect. We adopt an instance-based approach and, therefore, assume that a set of instances from each schema is available. We first decompose the problem of OWL schema matching into the problem of vocabulary matching and the problem of concept mapping. We also introduce sufficient conditions guaranteeing that a vocabulary matching induces a correct concept mapping. Next, we describe OWL schema matching technique based on the notion of similarity. Lastly, we evaluate the precision of the technique using data available on the Web. Unlike any of the previous instance-based techniques, the matching process we describe uses similarity functions to induce vocabulary matchings in a non-trivial, coping with an expressive OWL dialect. We also illustrate, through a set of examples, that the structure of OWL schemas may lead to incorrect concept mappings and indicate how to avoid such pitfalls.
9

[en] FLEXIBLE WORKFLOW SCHEDULING WITH TEMPORAL RESTRICTIONS / [pt] ESCALONAMENTO FLEXÍVEL DE WORKFLOWS COM RESTRIÇÕES TEMPORAIS

GERALDO DA SILVA ROCHA NETTO 17 January 2017 (has links)
[pt] A especificação de planos deve levar em consideração restrições temporais e restrições sobre o uso de recursos, associadas a cada ação. A abordagem clássica para a execução de planos com tais restrições trabalha em duas fases, que se alternam. Na primeira fase, determina-se o conjunto das ações prontas para execução, sob o ponto de vista de controle de execução. Na segunda fase, consideram-se as restrições temporais e sobre o uso de recursos para gerar um escalonamento viável das ações. Esta separação em duas fases pode levar a ineficiências face à necessidade de refazer a primeira fase quando se detectam inconsistências insanáveis na segunda fase. Esta dissertação inicialmente propõe um modelo para planos que incorpora uma linguagem, bastante rica, para especificar restrições temporais. Em seguida, apresenta um algoritmo para execução de planos com escalonamento, que busca integrar as duas fases anteriormente apontadas. / [en] Any realistic plan specification must take into account temporal and resourse restrictions for actions. The classical approach fo executing plans with restrictions works in two alternating phases. During the first phase, the set of actions that are ready to be executed is determined. In the second phase, temporal and resource restrictions are taken into account to generate a viable scheduling for the ready actions. This separation into two phases may lead to inefficiencies, when inconsistencies in the second phase force backtracking to the first phase. This dissertation first proposes a plan model that incorporates a rich language to specify temporal restrictions. Then, it introduces a plan execution algorithm that integrates the two phases mentioned above, thereby reducing as mush as possible the need for backtracking.
10

[en] INFORMATION DEBUGGING THROUGH DYNAMIC STATE ESTIMATION IN POWER SYSTEMS / [pt] DEPURAÇÃO DE INFORMAÇÕES ATRAVÉS DA ESTIMAÇÃO DINÂMICA DE ESTADO EM SITEMAS DE POTÊNCIA

ROGERIO AMADO DA SILVA 14 May 2007 (has links)
[pt] O objetivo principal do uso de estimadores de estado em sistemas de potência é o de permitir o estabelecimento de um banco de dados confiável, a ser usado na supervisão em tempo real de tais sistemas. Geralmente, os dados armazenados são: injeções e fluxos de potência ativa e reativa, magnitudes de tensão e informações sobre a configuração da rede do sistema. Este trabalho apresenta uma metodologia eficiente para a detecção, diagnóstico e tratamento de dados inconsistentes, através do uso de um algoritmo de estimação dinâmica de estado. A característica básica dos estimadores dinâmicos está na sua capacidade de prever o estado do sistema (tensões nodais complexas) e, conseqüentemente, o conjunto de medidas. Baseado nesta característica, um esquema para detecção de informações suspeitas é construído. As causas de suspeição devem-se a: erros grosseiros nas medidas, erros topológicos ou erros de previsão devidos a mudanças bruscas do ponto de operação do sistema. O diagnóstico sobre que anomalia está de fato presente é realizado levando-se em consideração os resultados das etapas de previsão e filtragem do estimador de estado. O algoritmo de depuração proposto é testado usando dados simulados de um sistema de potência operando sob condições normais/anormais e os resultados são discutidos. / [en] The main concern of the power system state estimation is to allow the establishment of a reliable data base to be used in real-time monitoring. Generally, the stored data are: active and reactive power injection and line flows, voltage magnitudes and the information about the system network configuration. This work presents an efficient methodology for detection, diagnostic and treatment of inconsistent data using a dynamic state estimation algorithm. The basic characteristic of the dynamic estimators is its capability of forecasting the system state (complex nodal voltages) and, consequently, the measurement set. Based on this characteristic, a scheme for detection of suspected information is built. The suspicions are caused by: gross measurement error, topological errors or forecasting erros due to sudden changes in the system operating point. The diagnostic about which anomaly is actualy present is carried out taken into account the results of the forecasting and filtering steps of the state estimator. The proposed debugging algorithm is tested using simulated data from a power system operating under normal and abnormal conditions and the results are discussed.

Page generated in 0.0509 seconds