• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 5
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Fatores que afetam a detectabilidade da toninha (Pontoporia blainvillei) em estudos de estimativas populacionais

Perez, Federico Sucunza 05 March 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-07-26T12:08:42Z No. of bitstreams: 1 federicosucunzaperez.pdf: 1575469 bytes, checksum: cd3afde7a6b38a3953480ca345febe79 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-27T11:27:42Z (GMT) No. of bitstreams: 1 federicosucunzaperez.pdf: 1575469 bytes, checksum: cd3afde7a6b38a3953480ca345febe79 (MD5) / Made available in DSpace on 2016-07-27T11:27:42Z (GMT). No. of bitstreams: 1 federicosucunzaperez.pdf: 1575469 bytes, checksum: cd3afde7a6b38a3953480ca345febe79 (MD5) Previous issue date: 2015-03-05 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A toninha (Pontoporia blainvillei) é considerada o pequeno cetáceo mais ameaçado de extinção no oceano Atlântico Sul ocidental. Portanto, obter estimativas robustas do tamanho populacional é fundamental para garantir a conservação da espécie. O presente trabalho teve como objetivo investigar o viés de visibilidade em levantamentos aéreos da toninha e, quando possível, utilizá-lo para corrigir estimativas de abundância para essa espécie. Sobrevoos utilizando um helicóptero Robinson R44 foram realizados na Baía da Babitonga, Santa Catarina, para estimar o tempo que a toninha permanece disponível para ser detectada durante levantamentos aéreos. O tempo de superfície foi definido como o período durante o qual um grupo permaneceu disponível visualmente para observadores no helicóptero. Um ciclo superfície-mergulho correspondeu ao início de um intervalo de superfície até o início do próximo intervalo de superfície. Modelos lineares generalizados com efeitos mistos (GLMM) foram utilizados para investigar o efeito de variáveis ambientais e biológicas sobre a proporção de tempo que a toninha permanece disponível para o observador. O viés de disponibilidade foi calculado como proposto por LAAKE et al. (1997). Foram realizadas aproximadamente 15 h de observação durante os sobrevoos com helicóptero. Após a triagem dos dados, sobraram 248 ciclos de superfíce-mergulho registrados em 101 amostragens. O modelo GLMM com maior suporte incluiu apenas o tamanho de grupo como variável explanatória fixa e indicou uma correlação positiva entre a proporção de tempo que grupos de toninha permanecem disponíveis para detecção e o tamanho de grupo. O tempo médio que um grupo de toninhas permaneceu disponível e indisponível para os observadores foi de 16,10 segundos (EP = 9,74) e de 39,77 segundos (EP = 29,06), respectivamente. Assumindo um tempo de janela de 5,77 segundos, o viés de disponibilidade da toninha é de 0,38 (EP = 0,01). A proporção de toninhas disponíveis na linha de transecção que não são detectadas pelos observadores (viés de percepção) foi estimada utilizando os métodos de amostragem de distâncias combinados com marca-recaptura (MRDS) assumindo a independência pontual dos observadores. As detecções utilizadas foram registradas durante levantamentos aéreos (20112014) realizados com a mesma aeronave Aerocommander 500B e os mesmos quatro observadores sempre posicionados no mesmo lugar. Devido à diferença no formato das janelas da frente (janleas-bolha) e de trás (janelas-plana), somente detecções realizadas entre 60º-30º foram selecionadas. Para estimar o viés de percepção foram utilizadas 191 detecções. O modelo MRDS que melhor acomodou os dados teve as covariáveis distância, área (fator) e lado (fator) no componente da marca-recaptura, e distância e Beaufort (fator) no componente 12 da amostragem de distâncias. A partir deste modelo o (0) estimado foi de 0,38 (EP = 0,12). O tempo de superfície da toninha estimado a partir do helicóptero é 13,42 vezes maior do que o estimado a partir de plataformas em superfície e, assim, deve ser utilizado para corrigir o efeito do viés de disponibilidade em levantamentos aéreos. Os resultados indicaram que o viés de percepção para a toninha pode ser substancial, contudo foi constatada a necessidade de mudanças metodológicas para obter uma estimativa robusta desse parâmetro. / The franciscana dolphin (Pontoporia blainvillei) is considered the most threatened cetacean species in the southwestern Atlantic Ocean. Therefore, robust abundance estimates are necessary to improve conservation and management effort for this species. The goal of the present work was improve abundance estimates of franciscana dolphins by estimating correction factors to compensate for visibility bias in aerial surveys. Field experiments were made from a Robinson R44 helicopter in Babitonga Bay, Santa Catarina State, to estimate the time during which a franciscana group remained available to be detected from an aircraft. The surfacing interval was defined as the period of time during which one or more franciscanas in a group were available to the observer in the helicopter. A surface-dive cycle was defined as the period of time from the beginning of one surfacing to the next. Generalized mixed effect models (GLMMs) were used to investigate the influence of environmental and biological predictors on the proportion of time franciscana groups spend ate the surface. Availability bias was then estimated following the methods proposed by LAAKE et al. (1997). A total of 15 hours were flow during the helicopter experiment. After filtering the whole dataset 248 complete surface-dive cycles from a total of 101 samples remained. The most supported GLMM model show a positive relationship between the proportion of time at surface and the size of franciscana groups. The average time franciscana groups spent at the surface and in a dive was 16.10 (SE = 9.74) and 39.77 (SE = 29.06), respectively. Assuming a time window of 5.77 seconds, the estimated availability bias was 0.38 (SE = 0.01). The fraction of individuals available at the surface that were missed by the observers (perception bias) was estimated using mark-recapture-distance-sampling methods (MRDS) assuming point independence. Sightings were recorded through aerial surveys carried out between 2011 and 2014 with an Aerocommander 500B and the same observers, which were locaed at the same observing positions. Because of differences between front (bubble) and rear (flat) windows field of view, only sighting made between 60º-30º were used in the analysis (n = 191). The MRDS model that best fit the data had distance, area (factor), and side (factor) as covariates in the mark-recapture component, and distance and Beaufort (factor) as covariates in the distance sampling component. The estimated probability of detecting a franciscana group that was visible at the transect line was 0.38 (SE = 0.12). Results of this study showed that surfacing time recorded from helicopter were 13.42 times greater than time recorded from surface platforms. Therefore, availability bias estimates for aerial surveys of franciscana dolphins must be estimated from dive parameters computed from aerial platforms. Estimates of 14 perception bias indicated that the number of franciscana sightings missed by observers can be significant and that correction factors to compensate for this bias are necessary. However, methodological improvements in the sampling procedures are needed to estimate this parameter in a more robust way.
2

Estoque de carbono em solos brasileiros e potencial de contribuição para mitigação de emissões de gases de efeito estufa

Cidin, Ana Carolina Martins 11 August 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-02-16T13:09:22Z No. of bitstreams: 1 DissACMC.pdf: 3790593 bytes, checksum: cb1417be4a2fe538b7b730f90132e43e (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T18:46:36Z (GMT) No. of bitstreams: 1 DissACMC.pdf: 3790593 bytes, checksum: cb1417be4a2fe538b7b730f90132e43e (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T18:47:04Z (GMT) No. of bitstreams: 1 DissACMC.pdf: 3790593 bytes, checksum: cb1417be4a2fe538b7b730f90132e43e (MD5) / Made available in DSpace on 2017-03-20T18:53:16Z (GMT). No. of bitstreams: 1 DissACMC.pdf: 3790593 bytes, checksum: cb1417be4a2fe538b7b730f90132e43e (MD5) Previous issue date: 2016-08-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In recent years, Brazil has proposed policies to reduce emissions of greenhouse gases (GEE). In this context, the aim of this study was to estimate the carbon stock (EC) from different Brazilian soils under different agricultural uses and propose strategies that contribute to mitigation of GEE emissions. The research was conducted in four stages: i) organization of a soil database; ii) development of a pedotransfer function (PTF) for the estimation of bulk density (DS) and evaluate the effect on estimate of EC; iii) estimation of the EC; and iv) evaluation of potential EC by Brazilian agriculture. Data from 38.456 soil samples were performed and, after standardization, they formed a database with 10.445 data samples corresponding to 5.823 data for the 0-30 cm layer. These data covered all Brazilian states, all classes of the Brazilian System of Soil Classification and nine types of land use: annual crop in no-tillage system (SPD), annual crop in conventional tillage system, perennial crop, planted forest, integrated crop-livestock (ILP) system, integrated crop-livestock-forest (ILPF) system, pasture, uncovered soil and native vegetation. Many samples had no DS record, then 12 PTF for DS estimation were developed using 974 soil samples. The performance of PTFs was assessed by R2, and in the validation, the accuracy of prediction was measured based on the mean error (ME), the mean absolute error (MAE), and the root mean squared error (RMSE). All functions overestimated DS values and one of them (PTF 5) presented the best performance. The evaluation of the estimated EC was made with 926 samples layer 0-30 cm, using observed data DS (ECobs), estimated data DS from the PTF5 (ECest) and estimated data DS from the null model (ECnull), in which the DS was given by the mean value of DS observed. Based on the calculation of ME, MAE, the RMSE and comparison with ECobs values, it was found that the ECnull values were overestimated and dispersed. It was concluded at this stage that the null model was not a reliable alternative and PTF5 was applied in 4.540 samples from 0-30 cm layer with missing DS. The estimated DS values ranged from 0,10 kg dm-3 at 1,92 kg dm-3 with a mean of 1,39 kg dm-3 and standard deviation of 0,19 kg dm-3. The coefficient of variation was less than 15% configuring a homogeneous data. It was made the EC calculation for 5.823 EC data for the layer 0-30 cm and these values were grouped by types of land use and soil types. In grouping by type of land use, the lowest EC values were observed in annual crop and native vegetation (0,10 Mg ha-1) and the largest maximum values were observed in annual crop, pasture and native vegetation, with 297,3 Mg ha-1, 259,9 Mg ha-1 and 253,6 Mg ha-1 respectively. In grouping by type of soil, it was observed that a minimum value of 0,10 Mg ha-1 in an Argisol while maxima were observed in a Cambisol (297,3 Mg ha-1) and an Argisol (265,8 Mg ha-1). Three scenarios were developed to estimate the potential increase of EC, from changes in management practices and land use. In a scenario where 18% of the areas of annual crops adopt SPD, the increase in EC was 73,6 Gg. If 15 million hectares of degraded pastures were recovered with ILP system in 20% of the area, and ILPF system in 10% of the area, the potential for increasing the EC would be 88.13 Gg. These values could represent an addition of 59,6 Gg of CO2, which could offset the 472,1 Gg CO2 emitted by the Brazilian agricultural sector in 2010, according to estimates by the Ministry of Science, Technology and Innovation. It concludes that: i) the absence of DS data, using a simple PTF is more appropriate than the use of the null model; ii) the detected errors in the estimation of DS by PTF not propagate the EC calculation; iii) the proposed changes would offset emissions from the Brazilian agricultural sector; and iv) the estimates presented highlight the role of the agricultural sector in mitigating GEE emissions. / Nos últimos anos, o Brasil tem proposto políticas para diminuir as emissões de gases de efeito estufa (GEE). Nesse contexto, o objetivo geral deste trabalho foi estimar o estoque de carbono (EC) de diferentes solos brasileiros com diferentes usos agrícolas e propor estratégias que contribuam para mitigação das emissões de GEE. A pesquisa foi desenvolvida em quatro etapas: i) organização de um banco de dados de solos; ii) desenvolvimento de função de pedotransferência (PTF) para a estimativa de densidade do solo (DS) e avaliação do efeito na estimativa de EC; iii) estimativa do EC; e iv) potencial de EC pela agricultura brasileira. Foram levantados dados de 38.456 amostras de solos que, após padronização, constituíram um banco com dados de 10.445 amostras, que corresponderam a 5.823 dados para a camada 0-30 cm. Esses dados recobriram todos os estados brasileiros, todas as classes do Sistema Brasileiro de Classificação de Solos e nove tipos de uso do solo: cultura anual em sistema de plantio direto (SPD), cultura anual sem SPD, cultura perene, floresta plantada, integração lavoura-pecuária (ILP), integração lavoura-pecuária-floresta (ILPF), pastagem, solo descoberto e vegetação nativa. Como muitas amostras não apresentavam registro de DS, 12 PTF foram desenvolvidas em um subconjunto de 974 amostras do banco de dados, sendo 664 amostras utilizadas para o desenvolvimento das PTFs e 310 utilizadas para teste. O desempenho de cada PTF foi avaliado através do R2, e na validação, a acurácia da predição foi medida pela comparação dos valores estimados com os observados, com base no cálculo de erro médio (ME), do erro absoluto médio (MAE) e da raiz quadrada do erro quadrático médio (RMSE). Todas as PTFs testadas superestimaram os valores de DS, porém, a PTF5 apresentou o melhor desempenho. A avaliação da estimativa de EC foi feita com 926 amostras da camada 0-30 cm, usando-se dados de DS observados (ECobs), dados de DS estimados a partir da PTF5 (ECest) e dados de DS estimados a partir do modelo nulo (ECnulo), no qual a DS é dada pelo valor médio das DS observadas. Com base no cálculo do ME, da MAE, da RMSE e da comparação com os valores de ECobs, constatou-se que os valores de ECnulo foram superestimados e dispersos. Concluiu-se nesta etapa que o modelo nulo não era uma alternativa confiável e a PTF5 foi aplicada em 4.540 amostras de camada 0- 30 cm com DS faltante. Os valores de DS estimados variaram de 0,10 kg dm-3 a 1,92 kg dm-3, com média de 1,39 kg dm-3 e desvio padrão de 0,19 kg dm-3. O coeficiente de variação foi menor que 15%, configurando dados homogêneos. Foi feito o cálculo de EC para 5.823 dados de EC referentes à camada 0-30 cm e esses valores foram agrupados por tipos de uso do solo e por classes de solo. No agrupamento por tipos de uso do solo, os menores valores de EC foram observados em cultura anual e vegetação nativa (0,10 Mg ha-1) e o maiores valores máximos foram observados em cultura anual, pastagem e vegetação nativa, com 297,3 Mg ha- 1, 259,9 Mg ha-1 e 253,6 Mg ha-1 respectivamente. No agrupamento por tipos de solo, observou-se que um valor mínimo de 0,10 Mg ha-1 em um Argissolo enquanto que valores máximos foram observados em um Cambissolo (297,3 Mg ha-1) e em um Argissolo (265,8 Mg ha-1). Foram elaborados três cenários para estimar o potencial de aumento de EC, a partir de mudanças nas práticas de manejo e de uso do solo. Em um cenário de adoção de SPD em 18 % das áreas de culturas anuais, o aumento do EC seria de 73,6 Gg. Se 15 milhões de hectares de pastagens degradadas forem recuperados com ILP, em 20% da área, e com ILPF, em 10% da área, o potencial de aumento do EC seria de 88,13 Gg. Esses valores somados representariam 593,6 Gg de CO2, que poderiam compensar os 472,1 Gg de CO2 emitidos pelo setor agropecuário brasileiro em 2010, conforme estimativas do Ministério da Ciência, Tecnologia e Inovação. Conclui-se que: i) na ausência de dados de DS, o uso de uma PTF simples é mais indicado do que o uso do modelo nulo; ii) os erros detectados na estimativa de DS por meio de PTF não se propagam no cálculo de EC; iii) as mudanças propostas compensariam emissões do setor agrícola brasileiro; e iv) as estimativas apresentadas ressaltam o papel do setor agropecuário na mitigação das emissões de GEE.
3

Um método Kernel para estimativa de densidade e sua aplicação em jogos de repetição

Goulart, Renan Motta 01 September 2017 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-10-23T17:05:10Z No. of bitstreams: 1 renanmottagoulart.pdf: 506891 bytes, checksum: 01d7b3b82d2bc0af0d295fc75de17b91 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-11-09T13:52:19Z (GMT) No. of bitstreams: 1 renanmottagoulart.pdf: 506891 bytes, checksum: 01d7b3b82d2bc0af0d295fc75de17b91 (MD5) / Made available in DSpace on 2017-11-09T13:52:19Z (GMT). No. of bitstreams: 1 renanmottagoulart.pdf: 506891 bytes, checksum: 01d7b3b82d2bc0af0d295fc75de17b91 (MD5) Previous issue date: 2017-09-01 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Jogos de repetição é um ramo de Teoria dos Jogos, em que um jogo é jogado repetidas vezes pelos jogadores. Neste cenário, assume-se que os jogadores nem sempre jogam de modo ótimo ou podem estar dispostos, se possível, a colaborar. Neste contexto é possível um jogador analisar o comportamento dos oponentes para encontrar padrões. Estes padrões podem ser usados para aumentar o lucro obtido pelo jogador ou detectar se o oponente está disposto a realizar uma colaboração mutualmente benéfica. Nesta dissertação é proposto um novo algoritmo baseado em kernel de similaridade capaz de prever as ações de jogadores em jogos de repetição. A predição não se limita a ação do próximo round, podendo prever as ações de uma sequência finita de rounds consecutivos. O algoritmo consegue se adaptar rapidamente caso os outros jogadores mudem suas estratégias durante o jogo. É mostrado empiricamente que o algoritmo proposto obtém resultados superiores ao estado da arte atual. / Repeated games is a branch of game theory, where a game can be played several times by the players involved. In this setting, it is assumed that the players do not always play the optimal strategy or that they may be willing to collaborate. In this context it is possible for a player to analyze the opponent’s behaviour to find patters. These patterns can be used to maximize the player’s profit or to detect if the opponent is willing to collaborate. On this dissertation it is proposed a new algorithm based on similarity kernel capable of predicting the opponent’s actions on repeated games. The prediction is not limited to the next round’s action, being able to predict actions on a finite sequence of rounds. It is able to adapt rapidly if the opponents change their strategies during the course of a game. It is shown empirically that the proposed algorithm achieves better results than the current state of the art.
4

Detec??o e diagn?stico de falhas n?o-supervisionados baseados em estimativa de densidade recursiva e classificador fuzzy auto-evolutivo

Costa, Bruno Sielly Jales 13 May 2014 (has links)
Made available in DSpace on 2015-03-03T15:08:47Z (GMT). No. of bitstreams: 1 BrunoSJC_TESE.pdf: 2605632 bytes, checksum: cc7fdbd9d8d7dfe3adac23f17fab1ae2 (MD5) Previous issue date: 2014-05-13 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / In this work, we propose a two-stage algorithm for real-time fault detection and identification of industrial plants. Our proposal is based on the analysis of selected features using recursive density estimation and a new evolving classifier algorithm. More specifically, the proposed approach for the detection stage is based on the concept of density in the data space, which is not the same as probability density function, but is a very useful measure for abnormality/outliers detection. This density can be expressed by a Cauchy function and can be calculated recursively, which makes it memory and computational power efficient and, therefore, suitable for on-line applications. The identification/diagnosis stage is based on a self-developing (evolving) fuzzy rule-based classifier system proposed in this work, called AutoClass. An important property of AutoClass is that it can start learning from scratch". Not only do the fuzzy rules not need to be prespecified, but neither do the number of classes for AutoClass (the number may grow, with new class labels being added by the on-line learning process), in a fully unsupervised manner. In the event that an initial rule base exists, AutoClass can evolve/develop it further based on the newly arrived faulty state data. In order to validate our proposal, we present experimental results from a level control didactic process, where control and error signals are used as features for the fault detection and identification systems, but the approach is generic and the number of features can be significant due to the computationally lean methodology, since covariance or more complex calculations, as well as storage of old data, are not required. The obtained results are significantly better than the traditional approaches used for comparison / Este trabalho prop?e um algoritmo de dois estagios para detec??o e identifica??o de falhas, em tempo real, em plantas industriais. A proposta baseia-se na analise de caracter?sticas selecionadas utilizando estimativa de densidade recursiva e um novo algoritmo evolutivo de classifica??o. Mais especificamente, a abordagem proposta para detec??o e baseada no conceito de densidade no espa?o de dados, o que difere da tradicional fun??o densidade de probabilidade, porem, sendo uma medida bastante util na detec??o de anormalidades/outliers. Tal densidade pode ser expressa por uma fun??o de Cauchy e calculada recursivamente, o que torna o algoritmo computacionalmente eficiente, em termos de processamento e memoria, e, dessa maneira, apropriado para aplica??es on-line. O estagio de identifica??o/diagnostico e realizado por um classificador baseado em regras fuzzy capaz de se auto-desenvolver (evolutivo), chamado de AutoClass, e introduzido neste trabalho. Uma propriedade importante do AutoClass e que ele e capaz de aprender a partir do zero". Tanto as regras fuzzy, quanto o numero de classes para o algoritmo n?o necessitam de pre-especifica??o (o numero de classes pode crescer, com os rotulos de classe sendo adicionados pelo processo de aprendizagem on-line), de maneira n~ao-supervisionada. Nos casos em que uma base de regras inicial existe, AutoClass pode evoluir/desenvolver-se a partir dela, baseado nos dados adquiridos posteriormente. De modo a validar a proposta, o trabalho apresenta resultados experimentais de simula??o e de aplica??es industriais reais, onde o sinal de controle e erro s?o utilizados como caracter?sticas para os estagios de detec??o e identifica??o, porem a abordagem e generica, e o numero de caracter?sticas selecionadas pode ser significativamente maior, devido ? metodologia computacionalmente eficiente adotada, uma vez que calculos mais complexos e armazenamento de dados antigos n?o s?o necess?rios. Os resultados obtidos s?o signifificativamente melhores que os gerados pelas abordagens tradicionais utilizadas para compara??o
5

Reconhecimento de padrões em sistemas de energia elétrica através de uma abordagem geométrica aprimorada para a construção de redes neurais artificiais

Valente, Wander Antunes Gaspar 09 February 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-01-08T10:36:58Z No. of bitstreams: 1 wanderantunesgasparvalente.pdf: 4197156 bytes, checksum: 5b667869c3bb237e570559ddf4cbb30d (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-01-25T16:56:26Z (GMT) No. of bitstreams: 1 wanderantunesgasparvalente.pdf: 4197156 bytes, checksum: 5b667869c3bb237e570559ddf4cbb30d (MD5) / Made available in DSpace on 2016-01-25T16:56:26Z (GMT). No. of bitstreams: 1 wanderantunesgasparvalente.pdf: 4197156 bytes, checksum: 5b667869c3bb237e570559ddf4cbb30d (MD5) Previous issue date: 2015-02-09 / O presente trabalho fundamenta-se no método das segmentações geométricas sucessivas (MSGS) para a construção de uma rede neural artificial capaz de gerar tanto a topologia da rede quanto o peso dos neurônios sem a especificação de parâmetros iniciais. O MSGS permite identificar um conjunto de hiperplanos no espaço Rn que, quando combinados adequadamente, podem separar duas ou mais classes de dados. Especificamente neste trabalho é empregado um aprimoramento ao MSGS com base em estimativas de densidade por kernel. Utilizando-se KDE, é possível encontrar novos hiperplanos de separação de forma mais consistente e, a partir daí, conduzir à classificação de dados com taxas de acerto superiores à técnica originalmente empregada. Neste trabalho, o MSGS aprimorado é empregado satisfatoriamente pela primeira vez para a identificação de padrões em sistemas de energia elétrica. O método foi ajustado para a classificação de faltas incipientes em transformadores de potência e os resultados apresentam índices de acerto superiores a trabalhos correlatos. O MSGS aprimorado também foi adaptado para classificar e localizar faltas inter-circuitos em linhas áreas de transmissão em circuito duplo, obtendo resultados positivos em comparação com a literatura científica. / This work is based on the method of successive geometric segmentations (SGSM) for the construction of an artificial neural network capable of generating both the network topology as the weight of neurons without specifying initial parameters. The MSGS allows to identify a set of hyperplanes in the Rn space that when properly combined, can separate two or more data classes. Specifically in this work is used an improvement to SGSM based on kernel density estimates (KDE). Using KDE, it is possible to find new hyperplanes of separation more consistently and, from there, lead to data classification with accuracy rates higher than originally technique. In this paper, the improved SGSM is first used satisfactorily to identify patterns in electrical power systems. The method has been adjusted to the classification of incipient faults in power transformers and the results have achieved rates above related work. The improved SGSM has also been adapted to classify and locate inter-circuit faults on double circuit overhead transmission lines with positive results compared with the scientific literature.

Page generated in 0.1312 seconds