Spelling suggestions: "subject:"estimativa dde densidade"" "subject:"estimativa dee densidade""
1 |
Fatores que afetam a detectabilidade da toninha (Pontoporia blainvillei) em estudos de estimativas populacionaisPerez, Federico Sucunza 05 March 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-07-26T12:08:42Z
No. of bitstreams: 1
federicosucunzaperez.pdf: 1575469 bytes, checksum: cd3afde7a6b38a3953480ca345febe79 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-27T11:27:42Z (GMT) No. of bitstreams: 1
federicosucunzaperez.pdf: 1575469 bytes, checksum: cd3afde7a6b38a3953480ca345febe79 (MD5) / Made available in DSpace on 2016-07-27T11:27:42Z (GMT). No. of bitstreams: 1
federicosucunzaperez.pdf: 1575469 bytes, checksum: cd3afde7a6b38a3953480ca345febe79 (MD5)
Previous issue date: 2015-03-05 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A toninha (Pontoporia blainvillei) é considerada o pequeno cetáceo mais ameaçado de extinção no oceano Atlântico Sul ocidental. Portanto, obter estimativas robustas do tamanho populacional é fundamental para garantir a conservação da espécie. O presente trabalho teve como objetivo investigar o viés de visibilidade em levantamentos aéreos da toninha e, quando possível, utilizá-lo para corrigir estimativas de abundância para essa espécie. Sobrevoos utilizando um helicóptero Robinson R44 foram realizados na Baía da Babitonga, Santa Catarina, para estimar o tempo que a toninha permanece disponível para ser detectada durante levantamentos aéreos. O tempo de superfície foi definido como o período durante o qual um grupo permaneceu disponível visualmente para observadores no helicóptero. Um ciclo superfície-mergulho correspondeu ao início de um intervalo de superfície até o início do próximo intervalo de superfície. Modelos lineares generalizados com efeitos mistos (GLMM) foram utilizados para investigar o efeito de variáveis ambientais e biológicas sobre a proporção de tempo que a toninha permanece disponível para o observador. O viés de disponibilidade foi calculado como proposto por LAAKE et al. (1997). Foram realizadas aproximadamente 15 h de observação durante os sobrevoos com helicóptero. Após a triagem dos dados, sobraram 248 ciclos de superfíce-mergulho registrados em 101 amostragens. O modelo GLMM com maior suporte incluiu apenas o tamanho de grupo como variável explanatória fixa e indicou uma correlação positiva entre a proporção de tempo que grupos de toninha permanecem disponíveis para detecção e o tamanho de grupo. O tempo médio que um grupo de toninhas permaneceu disponível e indisponível para os observadores foi de 16,10 segundos (EP = 9,74) e de 39,77 segundos (EP = 29,06), respectivamente. Assumindo um tempo de janela de 5,77 segundos, o viés de disponibilidade da toninha é de 0,38 (EP = 0,01). A proporção de toninhas disponíveis na linha de transecção que não são detectadas pelos observadores (viés de percepção) foi estimada utilizando os métodos de amostragem de distâncias combinados com marca-recaptura (MRDS) assumindo a independência pontual dos observadores. As detecções utilizadas foram registradas durante levantamentos aéreos (20112014) realizados com a mesma aeronave Aerocommander 500B e os mesmos quatro observadores sempre posicionados no mesmo lugar. Devido à diferença no formato das janelas da frente (janleas-bolha) e de trás (janelas-plana), somente detecções realizadas entre 60º-30º foram selecionadas. Para estimar o viés de percepção foram utilizadas 191 detecções. O modelo MRDS que melhor acomodou os dados teve as covariáveis distância, área (fator) e lado (fator) no componente da marca-recaptura, e distância e Beaufort (fator) no componente
12
da amostragem de distâncias. A partir deste modelo o (0) estimado foi de 0,38 (EP = 0,12). O tempo de superfície da toninha estimado a partir do helicóptero é 13,42 vezes maior do que o estimado a partir de plataformas em superfície e, assim, deve ser utilizado para corrigir o efeito do viés de disponibilidade em levantamentos aéreos. Os resultados indicaram que o viés de percepção para a toninha pode ser substancial, contudo foi constatada a necessidade de mudanças metodológicas para obter uma estimativa robusta desse parâmetro. / The franciscana dolphin (Pontoporia blainvillei) is considered the most threatened cetacean species in the southwestern Atlantic Ocean. Therefore, robust abundance estimates are necessary to improve conservation and management effort for this species. The goal of the present work was improve abundance estimates of franciscana dolphins by estimating correction factors to compensate for visibility bias in aerial surveys. Field experiments were made from a Robinson R44 helicopter in Babitonga Bay, Santa Catarina State, to estimate the time during which a franciscana group remained available to be detected from an aircraft. The surfacing interval was defined as the period of time during which one or more franciscanas in a group were available to the observer in the helicopter. A surface-dive cycle was defined as the period of time from the beginning of one surfacing to the next. Generalized mixed effect models (GLMMs) were used to investigate the influence of environmental and biological predictors on the proportion of time franciscana groups spend ate the surface. Availability bias was then estimated following the methods proposed by LAAKE et al. (1997). A total of 15 hours were flow during the helicopter experiment. After filtering the whole dataset 248 complete surface-dive cycles from a total of 101 samples remained. The most supported GLMM model show a positive relationship between the proportion of time at surface and the size of franciscana groups. The average time franciscana groups spent at the surface and in a dive was 16.10 (SE = 9.74) and 39.77 (SE = 29.06), respectively. Assuming a time window of 5.77 seconds, the estimated availability bias was 0.38 (SE = 0.01). The fraction of individuals available at the surface that were missed by the observers (perception bias) was estimated using mark-recapture-distance-sampling methods (MRDS) assuming point independence. Sightings were recorded through aerial surveys carried out between 2011 and 2014 with an Aerocommander 500B and the same observers, which were locaed at the same observing positions. Because of differences between front (bubble) and rear (flat) windows field of view, only sighting made between 60º-30º were used in the analysis (n = 191). The MRDS model that best fit the data had distance, area (factor), and side (factor) as covariates in the mark-recapture component, and distance and Beaufort (factor) as covariates in the distance sampling component. The estimated probability of detecting a franciscana group that was visible at the transect line was 0.38 (SE = 0.12). Results of this study showed that surfacing time recorded from helicopter were 13.42 times greater than time recorded from surface platforms. Therefore, availability bias estimates for aerial surveys of franciscana dolphins must be estimated from dive parameters computed from aerial platforms. Estimates of
14
perception bias indicated that the number of franciscana sightings missed by observers can be significant and that correction factors to compensate for this bias are necessary. However, methodological improvements in the sampling procedures are needed to estimate this parameter in a more robust way.
|
2 |
Estoque de carbono em solos brasileiros e potencial de contribuição para mitigação de emissões de gases de efeito estufaCidin, Ana Carolina Martins 11 August 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-02-16T13:09:22Z
No. of bitstreams: 1
DissACMC.pdf: 3790593 bytes, checksum: cb1417be4a2fe538b7b730f90132e43e (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T18:46:36Z (GMT) No. of bitstreams: 1
DissACMC.pdf: 3790593 bytes, checksum: cb1417be4a2fe538b7b730f90132e43e (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-20T18:47:04Z (GMT) No. of bitstreams: 1
DissACMC.pdf: 3790593 bytes, checksum: cb1417be4a2fe538b7b730f90132e43e (MD5) / Made available in DSpace on 2017-03-20T18:53:16Z (GMT). No. of bitstreams: 1
DissACMC.pdf: 3790593 bytes, checksum: cb1417be4a2fe538b7b730f90132e43e (MD5)
Previous issue date: 2016-08-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In recent years, Brazil has proposed policies to reduce emissions of greenhouse gases (GEE).
In this context, the aim of this study was to estimate the carbon stock (EC) from different
Brazilian soils under different agricultural uses and propose strategies that contribute to
mitigation of GEE emissions. The research was conducted in four stages: i) organization of a
soil database; ii) development of a pedotransfer function (PTF) for the estimation of bulk
density (DS) and evaluate the effect on estimate of EC; iii) estimation of the EC; and iv)
evaluation of potential EC by Brazilian agriculture. Data from 38.456 soil samples were
performed and, after standardization, they formed a database with 10.445 data samples
corresponding to 5.823 data for the 0-30 cm layer. These data covered all Brazilian states, all
classes of the Brazilian System of Soil Classification and nine types of land use: annual crop
in no-tillage system (SPD), annual crop in conventional tillage system, perennial crop, planted
forest, integrated crop-livestock (ILP) system, integrated crop-livestock-forest (ILPF) system,
pasture, uncovered soil and native vegetation. Many samples had no DS record, then 12 PTF
for DS estimation were developed using 974 soil samples. The performance of PTFs was
assessed by R2, and in the validation, the accuracy of prediction was measured based on the
mean error (ME), the mean absolute error (MAE), and the root mean squared error (RMSE).
All functions overestimated DS values and one of them (PTF 5) presented the best
performance. The evaluation of the estimated EC was made with 926 samples layer 0-30 cm,
using observed data DS (ECobs), estimated data DS from the PTF5 (ECest) and estimated
data DS from the null model (ECnull), in which the DS was given by the mean value of DS
observed. Based on the calculation of ME, MAE, the RMSE and comparison with ECobs
values, it was found that the ECnull values were overestimated and dispersed. It was
concluded at this stage that the null model was not a reliable alternative and PTF5 was applied
in 4.540 samples from 0-30 cm layer with missing DS. The estimated DS values ranged from
0,10 kg dm-3 at 1,92 kg dm-3 with a mean of 1,39 kg dm-3 and standard deviation of 0,19 kg
dm-3. The coefficient of variation was less than 15% configuring a homogeneous data. It was
made the EC calculation for 5.823 EC data for the layer 0-30 cm and these values were
grouped by types of land use and soil types. In grouping by type of land use, the lowest EC
values were observed in annual crop and native vegetation (0,10 Mg ha-1) and the largest
maximum values were observed in annual crop, pasture and native vegetation, with 297,3 Mg
ha-1, 259,9 Mg ha-1 and 253,6 Mg ha-1 respectively. In grouping by type of soil, it was
observed that a minimum value of 0,10 Mg ha-1 in an Argisol while maxima were observed in a Cambisol (297,3 Mg ha-1) and an Argisol (265,8 Mg ha-1). Three scenarios were developed
to estimate the potential increase of EC, from changes in management practices and land use.
In a scenario where 18% of the areas of annual crops adopt SPD, the increase in EC was 73,6
Gg. If 15 million hectares of degraded pastures were recovered with ILP system in 20% of the
area, and ILPF system in 10% of the area, the potential for increasing the EC would be 88.13
Gg. These values could represent an addition of 59,6 Gg of CO2, which could offset the 472,1
Gg CO2 emitted by the Brazilian agricultural sector in 2010, according to estimates by the
Ministry of Science, Technology and Innovation. It concludes that: i) the absence of DS data,
using a simple PTF is more appropriate than the use of the null model; ii) the detected errors
in the estimation of DS by PTF not propagate the EC calculation; iii) the proposed changes
would offset emissions from the Brazilian agricultural sector; and iv) the estimates presented
highlight the role of the agricultural sector in mitigating GEE emissions. / Nos últimos anos, o Brasil tem proposto políticas para diminuir as emissões de gases de efeito
estufa (GEE). Nesse contexto, o objetivo geral deste trabalho foi estimar o estoque de carbono
(EC) de diferentes solos brasileiros com diferentes usos agrícolas e propor estratégias que
contribuam para mitigação das emissões de GEE. A pesquisa foi desenvolvida em quatro
etapas: i) organização de um banco de dados de solos; ii) desenvolvimento de função de
pedotransferência (PTF) para a estimativa de densidade do solo (DS) e avaliação do efeito na
estimativa de EC; iii) estimativa do EC; e iv) potencial de EC pela agricultura brasileira.
Foram levantados dados de 38.456 amostras de solos que, após padronização, constituíram
um banco com dados de 10.445 amostras, que corresponderam a 5.823 dados para a camada
0-30 cm. Esses dados recobriram todos os estados brasileiros, todas as classes do Sistema
Brasileiro de Classificação de Solos e nove tipos de uso do solo: cultura anual em sistema de
plantio direto (SPD), cultura anual sem SPD, cultura perene, floresta plantada, integração
lavoura-pecuária (ILP), integração lavoura-pecuária-floresta (ILPF), pastagem, solo
descoberto e vegetação nativa. Como muitas amostras não apresentavam registro de DS, 12
PTF foram desenvolvidas em um subconjunto de 974 amostras do banco de dados, sendo 664
amostras utilizadas para o desenvolvimento das PTFs e 310 utilizadas para teste. O
desempenho de cada PTF foi avaliado através do R2, e na validação, a acurácia da predição
foi medida pela comparação dos valores estimados com os observados, com base no cálculo
de erro médio (ME), do erro absoluto médio (MAE) e da raiz quadrada do erro quadrático
médio (RMSE). Todas as PTFs testadas superestimaram os valores de DS, porém, a PTF5
apresentou o melhor desempenho. A avaliação da estimativa de EC foi feita com 926
amostras da camada 0-30 cm, usando-se dados de DS observados (ECobs), dados de DS
estimados a partir da PTF5 (ECest) e dados de DS estimados a partir do modelo nulo
(ECnulo), no qual a DS é dada pelo valor médio das DS observadas. Com base no cálculo do
ME, da MAE, da RMSE e da comparação com os valores de ECobs, constatou-se que os
valores de ECnulo foram superestimados e dispersos. Concluiu-se nesta etapa que o modelo
nulo não era uma alternativa confiável e a PTF5 foi aplicada em 4.540 amostras de camada 0-
30 cm com DS faltante. Os valores de DS estimados variaram de 0,10 kg dm-3 a 1,92 kg dm-3,
com média de 1,39 kg dm-3 e desvio padrão de 0,19 kg dm-3. O coeficiente de variação foi
menor que 15%, configurando dados homogêneos. Foi feito o cálculo de EC para 5.823 dados
de EC referentes à camada 0-30 cm e esses valores foram agrupados por tipos de uso do solo
e por classes de solo. No agrupamento por tipos de uso do solo, os menores valores de EC foram observados em cultura anual e vegetação nativa (0,10 Mg ha-1) e o maiores valores
máximos foram observados em cultura anual, pastagem e vegetação nativa, com 297,3 Mg ha-
1, 259,9 Mg ha-1 e 253,6 Mg ha-1 respectivamente. No agrupamento por tipos de solo,
observou-se que um valor mínimo de 0,10 Mg ha-1 em um Argissolo enquanto que valores
máximos foram observados em um Cambissolo (297,3 Mg ha-1) e em um Argissolo (265,8
Mg ha-1). Foram elaborados três cenários para estimar o potencial de aumento de EC, a partir
de mudanças nas práticas de manejo e de uso do solo. Em um cenário de adoção de SPD em
18 % das áreas de culturas anuais, o aumento do EC seria de 73,6 Gg. Se 15 milhões de
hectares de pastagens degradadas forem recuperados com ILP, em 20% da área, e com ILPF,
em 10% da área, o potencial de aumento do EC seria de 88,13 Gg. Esses valores somados
representariam 593,6 Gg de CO2, que poderiam compensar os 472,1 Gg de CO2 emitidos pelo
setor agropecuário brasileiro em 2010, conforme estimativas do Ministério da Ciência,
Tecnologia e Inovação. Conclui-se que: i) na ausência de dados de DS, o uso de uma PTF
simples é mais indicado do que o uso do modelo nulo; ii) os erros detectados na estimativa de
DS por meio de PTF não se propagam no cálculo de EC; iii) as mudanças propostas
compensariam emissões do setor agrícola brasileiro; e iv) as estimativas apresentadas
ressaltam o papel do setor agropecuário na mitigação das emissões de GEE.
|
3 |
Um método Kernel para estimativa de densidade e sua aplicação em jogos de repetiçãoGoulart, Renan Motta 01 September 2017 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-10-23T17:05:10Z
No. of bitstreams: 1
renanmottagoulart.pdf: 506891 bytes, checksum: 01d7b3b82d2bc0af0d295fc75de17b91 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-11-09T13:52:19Z (GMT) No. of bitstreams: 1
renanmottagoulart.pdf: 506891 bytes, checksum: 01d7b3b82d2bc0af0d295fc75de17b91 (MD5) / Made available in DSpace on 2017-11-09T13:52:19Z (GMT). No. of bitstreams: 1
renanmottagoulart.pdf: 506891 bytes, checksum: 01d7b3b82d2bc0af0d295fc75de17b91 (MD5)
Previous issue date: 2017-09-01 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Jogos de repetição é um ramo de Teoria dos Jogos, em que um jogo é jogado repetidas vezes pelos jogadores. Neste cenário, assume-se que os jogadores nem sempre jogam de modo ótimo ou podem estar dispostos, se possível, a colaborar. Neste contexto é possível um jogador analisar o comportamento dos oponentes para encontrar padrões. Estes padrões podem ser usados para aumentar o lucro obtido pelo jogador ou detectar se o oponente está disposto a realizar uma colaboração mutualmente benéfica. Nesta dissertação é proposto um novo algoritmo baseado em kernel de similaridade capaz de prever as ações de jogadores em jogos de repetição. A predição não se limita a ação do próximo round, podendo prever as ações de uma sequência finita de rounds consecutivos. O algoritmo consegue se adaptar rapidamente caso os outros jogadores mudem suas estratégias durante o jogo. É mostrado empiricamente que o algoritmo proposto obtém resultados superiores ao estado da arte atual. / Repeated games is a branch of game theory, where a game can be played several times
by the players involved. In this setting, it is assumed that the players do not always
play the optimal strategy or that they may be willing to collaborate. In this context
it is possible for a player to analyze the opponent’s behaviour to find patters. These
patterns can be used to maximize the player’s profit or to detect if the opponent is willing
to collaborate. On this dissertation it is proposed a new algorithm based on similarity
kernel capable of predicting the opponent’s actions on repeated games. The prediction is
not limited to the next round’s action, being able to predict actions on a finite sequence
of rounds. It is able to adapt rapidly if the opponents change their strategies during the
course of a game. It is shown empirically that the proposed algorithm achieves better
results than the current state of the art.
|
4 |
Detec??o e diagn?stico de falhas n?o-supervisionados baseados em estimativa de densidade recursiva e classificador fuzzy auto-evolutivoCosta, Bruno Sielly Jales 13 May 2014 (has links)
Made available in DSpace on 2015-03-03T15:08:47Z (GMT). No. of bitstreams: 1
BrunoSJC_TESE.pdf: 2605632 bytes, checksum: cc7fdbd9d8d7dfe3adac23f17fab1ae2 (MD5)
Previous issue date: 2014-05-13 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / In this work, we propose a two-stage algorithm for real-time fault detection and
identification of industrial plants. Our proposal is based on the analysis of selected
features using recursive density estimation and a new evolving classifier algorithm.
More specifically, the proposed approach for the detection stage is based on the
concept of density in the data space, which is not the same as probability density
function, but is a very useful measure for abnormality/outliers detection. This
density can be expressed by a Cauchy function and can be calculated recursively,
which makes it memory and computational power efficient and, therefore, suitable for
on-line applications. The identification/diagnosis stage is based on a self-developing
(evolving) fuzzy rule-based classifier system proposed in this work, called AutoClass.
An important property of AutoClass is that it can start learning from scratch".
Not only do the fuzzy rules not need to be prespecified, but neither do the number of
classes for AutoClass (the number may grow, with new class labels being added by
the on-line learning process), in a fully unsupervised manner. In the event that an
initial rule base exists, AutoClass can evolve/develop it further based on the newly
arrived faulty state data. In order to validate our proposal, we present experimental
results from a level control didactic process, where control and error signals are used
as features for the fault detection and identification systems, but the approach is
generic and the number of features can be significant due to the computationally
lean methodology, since covariance or more complex calculations, as well as storage
of old data, are not required. The obtained results are significantly better than the
traditional approaches used for comparison / Este trabalho prop?e um algoritmo de dois estagios para detec??o e identifica??o
de falhas, em tempo real, em plantas industriais. A proposta baseia-se na analise de
caracter?sticas selecionadas utilizando estimativa de densidade recursiva e um novo
algoritmo evolutivo de classifica??o. Mais especificamente, a abordagem proposta
para detec??o e baseada no conceito de densidade no espa?o de dados, o que difere da
tradicional fun??o densidade de probabilidade, porem, sendo uma medida bastante
util na detec??o de anormalidades/outliers. Tal densidade pode ser expressa por uma
fun??o de Cauchy e calculada recursivamente, o que torna o algoritmo computacionalmente
eficiente, em termos de processamento e memoria, e, dessa maneira, apropriado
para aplica??es on-line. O estagio de identifica??o/diagnostico e realizado por
um classificador baseado em regras fuzzy capaz de se auto-desenvolver (evolutivo),
chamado de AutoClass, e introduzido neste trabalho. Uma propriedade importante
do AutoClass e que ele e capaz de aprender a partir do zero". Tanto as regras fuzzy,
quanto o numero de classes para o algoritmo n?o necessitam de pre-especifica??o (o
numero de classes pode crescer, com os rotulos de classe sendo adicionados pelo
processo de aprendizagem on-line), de maneira n~ao-supervisionada. Nos casos em
que uma base de regras inicial existe, AutoClass pode evoluir/desenvolver-se a partir
dela, baseado nos dados adquiridos posteriormente. De modo a validar a proposta,
o trabalho apresenta resultados experimentais de simula??o e de aplica??es industriais
reais, onde o sinal de controle e erro s?o utilizados como caracter?sticas para
os estagios de detec??o e identifica??o, porem a abordagem e generica, e o numero
de caracter?sticas selecionadas pode ser significativamente maior, devido ? metodologia
computacionalmente eficiente adotada, uma vez que calculos mais complexos
e armazenamento de dados antigos n?o s?o necess?rios. Os resultados obtidos s?o signifificativamente melhores que os gerados pelas abordagens tradicionais utilizadas para compara??o
|
5 |
Reconhecimento de padrões em sistemas de energia elétrica através de uma abordagem geométrica aprimorada para a construção de redes neurais artificiaisValente, Wander Antunes Gaspar 09 February 2015 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-01-08T10:36:58Z
No. of bitstreams: 1
wanderantunesgasparvalente.pdf: 4197156 bytes, checksum: 5b667869c3bb237e570559ddf4cbb30d (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-01-25T16:56:26Z (GMT) No. of bitstreams: 1
wanderantunesgasparvalente.pdf: 4197156 bytes, checksum: 5b667869c3bb237e570559ddf4cbb30d (MD5) / Made available in DSpace on 2016-01-25T16:56:26Z (GMT). No. of bitstreams: 1
wanderantunesgasparvalente.pdf: 4197156 bytes, checksum: 5b667869c3bb237e570559ddf4cbb30d (MD5)
Previous issue date: 2015-02-09 / O presente trabalho fundamenta-se no método das segmentações geométricas sucessivas
(MSGS) para a construção de uma rede neural artificial capaz de gerar tanto a topologia
da rede quanto o peso dos neurônios sem a especificação de parâmetros iniciais. O MSGS
permite identificar um conjunto de hiperplanos no espaço Rn que, quando combinados
adequadamente, podem separar duas ou mais classes de dados. Especificamente neste
trabalho é empregado um aprimoramento ao MSGS com base em estimativas de densidade
por kernel. Utilizando-se KDE, é possível encontrar novos hiperplanos de separação de
forma mais consistente e, a partir daí, conduzir à classificação de dados com taxas de acerto
superiores à técnica originalmente empregada. Neste trabalho, o MSGS aprimorado é
empregado satisfatoriamente pela primeira vez para a identificação de padrões em sistemas
de energia elétrica. O método foi ajustado para a classificação de faltas incipientes em
transformadores de potência e os resultados apresentam índices de acerto superiores a
trabalhos correlatos. O MSGS aprimorado também foi adaptado para classificar e localizar
faltas inter-circuitos em linhas áreas de transmissão em circuito duplo, obtendo resultados
positivos em comparação com a literatura científica. / This work is based on the method of successive geometric segmentations (SGSM) for
the construction of an artificial neural network capable of generating both the network
topology as the weight of neurons without specifying initial parameters. The MSGS
allows to identify a set of hyperplanes in the Rn space that when properly combined, can
separate two or more data classes. Specifically in this work is used an improvement to
SGSM based on kernel density estimates (KDE). Using KDE, it is possible to find new
hyperplanes of separation more consistently and, from there, lead to data classification
with accuracy rates higher than originally technique. In this paper, the improved SGSM
is first used satisfactorily to identify patterns in electrical power systems. The method has
been adjusted to the classification of incipient faults in power transformers and the results
have achieved rates above related work. The improved SGSM has also been adapted to
classify and locate inter-circuit faults on double circuit overhead transmission lines with
positive results compared with the scientific literature.
|
Page generated in 0.0868 seconds