1 |
[pt] TARIFAÇÃO ZONAL DO USO DA TRANSMISSÃO APLICADA A SISTEMAS ELÉTRICOS INTERLIGADOS / [en] ZONAL TARIFF FOR THE TRANSMISSION USAGE APPLIED TO INTERCONNECTED POWER SYSTEMSJÉSSICA FELIX MACEDO TALARICO 30 September 2021 (has links)
[pt] Os sistemas de transmissão cumprem uma função vital para o bom desempenho dos mercados de energia elétrica. A precificação do seu uso afeta diretamente a remuneração das empresas concessionárias e os custos dos participantes do mercado. No Brasil, os usuários do sistema interligado nacional (SIN) devem pagar pela disponibilização dos equipamentos que compõem a rede para as transmissoras detentoras destes ativos de forma proporcional ao seu uso. Assim, a agência reguladora brasileira (ANEEL) estabeleceu as tarifas de uso do sistema de transmissão (TUST), que são calculadas anualmente por barra via
metodologia nodal. Tais tarifas são compostas por duas parcelas: locacional e selo. A parcela locacional reflete o uso efetivo da rede por cada agente participante, medindo o impacto da injeção de potência marginal de uma barra nos equipamentos do sistema. A parcela selo consiste num valor constante que
garantirá a remuneração da porção não utilizada da rede. Em geral, a proximidade elétrica das barras do sistema implica valores tarifários similares. Esta Dissertação de Mestrado propõe uma nova metodologia a ser incorporada no cálculo da TUST, considerando a divisão do SIN em zonas tarifárias de transmissão (ZTT). Desta forma, cada ZTT apresentará uma única tarifa a ser aplicada aos seus participantes, que corresponderá à média ponderada das tarifas finais calculadas via metodologia nodal. Para a identificação das ZTT, são aplicadas técnicas de agrupamento k-Means e espectral nos sistemas IEEE-RTS e SIN. Nesta
dissertação, avalia-se também o uso de modelos matemáticos para definir o número ideal de ZTT a ser considerado. São realizadas diversas análises de sensibilidade relativas a mudanças de despacho, alterações de topologia e evolução do sistema ao longo dos anos. Os resultados correspondentes são então
extensivamente discutidos. / [en] Transmission systems play a vital role in the good performance of the electrical energy markets. The pricing of its use directly affects the budget of concessionary companies and the costs of market participants. In Brazil, users of the national interconnected system (NIS) must pay for the equipment availability
that makes up the network to the transmission companies that own these assets in proportion to their use. Thus, the Brazilian regulatory agency (ANEEL) established the tariffs for transmission system usage (TTSU), which are calculated annually by bus using the nodal methodology. Such tariffs are made up of two
installments: locational and postage stamp. The locational portion reflects the effective use of the grid by each participating agent, measuring the impact of the marginal power injection at a bus on the system equipment. The stamp portion consists of a constant amount that will guarantee the remuneration of the unused portion of the network. In general, the electrical proximity of the system buses leads
to similar tariff values. This dissertation proposes a new methodology to be incorporated into the TTSU calculation, considering the division of the NIS into transmission tariff zones (TTZ). In this way, each TTZ will present a single tariff to be applied to its participants, which will correspond to the weighted average of the final tariffs calculated via the nodal methodology. For the identification of the TTZ, k-Means and Spectral clustering techniques are applied to the IEEE-RTS and SIN systems. In this dissertation, the use of mathematical models is also assessed to define the ideal number of TTZ to be considered. Various sensitivity analyses are carried out regarding changes in dispatch, grid topology and expansion of the
system over the years. The corresponding results are deeply discussed.
|
2 |
[en] COMPARATIVE STUDY OF TECHNIQUES TO SPEAKER DIARIZATION / [pt] ESTUDO COMPARATIVO DE TÉCNICAS DE DIARIZAÇÃO DE LOCUTORMARCELO DE CAMPOS NIERO 25 July 2014 (has links)
[pt] A tarefa de diarização de locutor surgiu como forma de otimizar o trabalho do homem em recuperar informações sobre áudios, com o objetivo de realizar, por exemplo, indexação de fala e locutor. De fato, realizar a diarização de locutor consiste em, dado uma gravação de ligação telefônica, reunião ou noticiários, deve responder a pergunta Quem falou quando? sem nenhuma informação prévia sobre o áudio. A resposta em questão nos permite saber as referências temporais das atividades de cada locutor participante na gravação. Computacionalmente falando, o processamento da diarização ocorre através de quatro etapas principais: extração de características do sinal, detecção de fala e não fala, segmentação e agrupamento. Neste trabalho realiza-se um estudo sobre a etapa de agrupamento, comparando o desempenho e comprovando problemas de algumas técnicas do estado da arte. Todos os experimento foram executados em uma base controlada, originada do corpus TIMIT, e outra real utilizada no concurso NIST-SRE 2002. / [en] The speaker diarization task emerged as a way to optimize audio information retrieval processing by detecting and tracking speech and speaker information. Actually, speaker diarization consists in answering the question Who spoke when for a given conversation in a telephone call, meeting, or broadcast news, without any prior information about neither the audio nor the speakers. This answer allows us to know the time references for each speaker in a recording. Computationally speaking, the diarization processing occurs through four main steps: feature extraction of the signal, speech and non-speech detection, segmentation and clustering. In this work, the clustering step is analyzed by comparing the performance of some methods used in the state of the art and showing some of their problems. All experiments are performed on an excerpt from the TIMIT corpus and the diarization task database used in the 2002 NIST Speaker Recognition Evaluation.
|
3 |
[en] REORGANIZATION AND COMPRESSION OF SEISMIC DATA / [pt] REORGANIZAÇÃO E COMPRESSÃO DE DADOS SÍSMICOSFLAVIA MEDEIROS DOS ANJOS 19 February 2008 (has links)
[pt] Dados sísmicos, utilizados principalmente na indústria de
petróleo,
costumam apresentar dimensões de dezenas de gigabytes e em
alguns casos,
centenas. Este trabalho apresenta propostas de manipulação
destes dados que
ajudem a contornar problemas enfrentados por aplicativos
de processamento e
interpretação sísmica ao trabalhar com arquivos deste
porte. As propostas se
baseiam em reorganização e compressão. O conhecimento do
formato de
utilização dos dados permite reestruturar seu
armazenamento diminuindo o
tempo gasto com a transferência entre o disco e a memória
em até 90%. A
compressão é utilizada para diminuir o espaço necessário
para armazenamento.
Para dados desta natureza os melhores resultados, em taxa
de redução, são das
técnicas de compressão com perda, entre elas as
compressões por
agrupamento. Neste trabalho apresentamos um algoritmo que
minimiza o erro
médio do agrupamento uma vez que o número de grupos tenha
sido
determinado. Em qualquer método desta categoria o grau de
erro e a taxa de
compressão obtidos dependem do número de grupos. Os dados
sísmicos
possuem uma coerência espacial que pode ser aproveitada
para melhorar a
compressão dos mesmos. Combinando-se agrupamento e o
aproveitamento da
coerência espacial conseguimos comprimir os dados com
taxas variando de 7%
a 25% dependendo do erro associado. Um novo formato é
proposto utilizando a
reorganização e a compressão em conjunto. / [en] Seismic data, used mainly in the petroleum industry,
commonly present
sizes of tens of gigabyte, and, in some cases, hundreds.
This work presents
propositions for manipulating these data in order to help
overcoming the
problems that application for seismic processing and
interpretation face while
dealing with file of such magnitude. The propositions are
based on reorganization
and compression. The knowledge of the format in which the
data will
be used allows us to restructure storage reducing disc-
memory transference time
up to 90%. Compression is used to save storage space. For
data of such nature,
best results in terms of compression rates come from
techniques associated to
information loss, being clustering one of them. In this
work we present an
algorithm for minimizing the cost of clustering a set of
data for a pre-determined
number of clusters. Seismic data have space coherence that
can be used to
improve their compression. Combining clustering with the
use of space
coherence we were able to compress sets of data with rates
from 7% to 25%
depending on the error associated. A new file format is
proposed using reorganization
and compression together.
|
4 |
[en] A MODEL-BASED FRAMEWORK FOR SEMI-SUPERVISED CLUSTERING AND COMMUNITY DETECTION / [pt] UM FRAMEWORK BASEADO EM MODELO PARA CLUSTERIZAÇÃO SEMISSUPERVISIONADA E DETECÇÃO DE COMUNIDADESDANIEL LEMES GRIBEL 09 September 2021 (has links)
[pt] Em clusterização baseada em modelos, o objetivo é separar amostras de
dados em grupos significativos, otimizando a aderência dos dados observados a
um modelo matemático. A recente adoção de clusterização baseada em modelos
tem permitido a profissionais e usuários mapearem padrões complexos nos
dados e explorarem uma ampla variedade de aplicações. Esta tese investiga
abordagens orientadas a modelos para detecção de comunidades e para o estudo
de clusterização semissupervisionada, adotando uma perspectiva baseada em
máxima verossimilhança. Focamos primeiramente na exploração de técnicas
de otimização com restrições para apresentar um novo modelo de detecção de
comunidades por meio de modelos de blocos estocásticos (SBMs). Mostramos
que a formulação com restrições revela comunidades estruturalmente diferentes
daquelas obtidas com modelos clássicos. Em seguida, estudamos um cenário
onde anotações imprecisas são fornecidas na forma de relações must-link e
cannot-link, e propomos um modelo de clusterização semissupervisionado.
Nossa análise experimental mostra que a incorporação de supervisão parcial
e de conhecimento prévio melhoram significativamente os agrupamentos. Por
fim, examinamos o problema de clusterização semissupervisionada na presença
de rótulos de classe não confiáveis. Investigamos o caso em que grupos de
anotadores deliberadamente classificam incorretamente as amostras de dados
e propomos um modelo para lidar com tais anotações incorretas. / [en] In model-based clustering, we aim to separate data samples into meaningful
groups by optimizing the fit of some observed data to a mathematical model.
The recent adoption of model-based clustering has allowed practitioners to
model complex patterns in data and explore a wide range of applications. This thesis investigates model-driven approaches for community detection and semisupervised clustering by adopting a maximum-likelihood perspective. We first focus on exploiting constrained optimization techniques to present a new model for community detection with stochastic block models (SBMs). We show that the proposed constrained formulation reveals communities structurally different from those obtained with classical community detection models. We then study a setting where inaccurate annotations are provided as must-link and cannot-link relations, and propose a novel semi-supervised clustering model.
Our experimental analysis shows that incorporating partial supervision and
appropriately encoding prior user knowledge significantly enhance clustering performance. Finally, we examine the problem of semi-supervised clustering in the presence of unreliable class labels. We focus on the case where groups of untrustworthy annotators deliberately misclassify data samples and propose a model to handle such incorrect statements.
|
5 |
[pt] AGRUPAMENTO FUZZY APLICADO À INTEGRAÇÃO DE DADOS MULTI-ÔMICOS / [en] FUZZY CLUSTERING APPLIED TO MULTI-OMICS DATASARAH HANNAH LUCIUS LACERDA DE GOES TELLES CARVALHO ALVES 05 October 2021 (has links)
[pt] Os avanços nas tecnologias de obtenção de dados multi-ômicos têm disponibilizado diferentes níveis de informação molecular que aumentam progressivamente em volume e variedade. Neste estudo, propõem-se uma metodologia de integração de dados clínicos e multi-ômicos, com o objetivo de identificar subtipos de câncer por agrupamento fuzzy, representando assim as gradações entre os diferentes perfis moleculares. Uma melhor caracterização de tumores em subtipos moleculares pode contribuir para uma medicina mais
personalizada e assertiva. Os conjuntos de dados ômicos a serem integrados são definidos utilizando um classificador com classe-alvo definida por resultados da literatura. Na sequência, é realizado o pré-processamento dos conjuntos de dados para reduzir a alta dimensionalidade. Os dados selecionados são
integrados e em seguida agrupados. Optou-se pelo algoritmo fuzzy C-means pela sua capacidade de considerar a possibilidade dos pacientes terem características de diferentes grupos, o que não é possível com métodos clássicos de agrupamento. Como estudo de caso, utilizou-se dados de câncer colorretal
(CCR). O CCR tem a quarta maior incidência na população mundial e a terceira maior no Brasil. Foram extraídos dados de metilação, expressão de miRNA e mRNA do portal do projeto The Cancer Genome Atlas (TCGA). Observou-se que a adição dos dados de expressão de miRNA e metilação a um classificador de expressão de mRNA da literatura aumentou a acurácia deste em 5 pontos percentuais. Assim, foram usados dados de metilação, expressão de miRNA e mRNA neste trabalho. Os atributos de cada conjunto de dados foram selecionados, obtendo-se redução significativa do número de atributos. A identificação dos grupos foi realizada com o algoritmo fuzzy C-means. A variação dos hiperparâmetros deste algoritmo, número de grupos e parâmetro de fuzzificação, permitiu a escolha da combinação de melhor desempenho. A escolha da melhor configuração considerou o efeito da variação dos parâmetros nas características biológicas, em especial na sobrevida global dos pacientes. Observou-se que o agrupamento gerado permitiu identificar que as amostras consideradas não agrupadas têm características biológicas compartilhadas entre grupos de diferentes prognósticos. Os resultados obtidos com a combinação de dados clínicos e ômicos mostraram-se promissores para melhor predizer o fenótipo. / [en] The advances in technologies for obtaining multi-omic data provide different levels of molecular information that progressively increase in volume and variety. This study proposes a methodology for integrating clinical and multiomic data, which aim is the identification of cancer subtypes using fuzzy clustering
algorithm, representing the different degrees between molecular profiles. A better characterization of tumors in molecular subtypes can contribute to a more personalized and assertive medicine. A classifier that uses a target class from literature results indicates which omic data sets should be integrated.
Next, data sets are pre-processed to reduce high dimensionality. The selected data is integrated and then clustered. The fuzzy C-means algorithm was chosen due to its ability to consider the shared patients characteristics between different groups. As a case study, colorectal cancer (CRC) data were used. CCR has
the fourth highest incidence in the world population and the third highest in Brazil. Methylation, miRNA and mRNA expression data were extracted from The Cancer Genome Atlas (TCGA) project portal. It was observed that the addition of miRNA expression and methylation data to a literature mRNA expression classifier increased its accuracy by 5 percentage points. Therefore, methylation, miRNA and mRNA expression data were used in this work. The attributes of each data set were pre-selected, obtaining a significant reduction in the number of attributes. Groups were identified using the fuzzy C-means
algorithm. The variation of the hyperparameters of this algorithm, number of groups and membership degree, indicated the best performance combination. This choice considered the effect of parameters variation on biological characteristics, especially on the overall survival of patients. Clusters showed that patients considered not grouped had biological characteristics shared between groups of different prognoses. The combination of clinical and omic data to better predict the phenotype revealed promissing results.
|
6 |
[pt] MODELAGEM ESPARSA E SUPERTRAÇOS PARA DECONVOLUÇÃO E INVERSÃO SÍSMICAS / [en] SPARSE MODELING AND SUPERTRACES FOR SEISMIC DECONVOLUTION AND INVERSIONRODRIGO COSTA FERNANDES 11 May 2020 (has links)
[pt] Dados de amplitude sísmica compõem o conjunto de insumos do trabalho de interpretação geofísica. À medida que a qualidade dos sensores sísmicos evoluem, há aumento importante tanto na resolução quanto no espaço ocupado para armazenamento. Neste contexto, as tarefas de deconvolução e inversão sísmicas se tornam mais custosas, em tempo de processamento ou em espaço ocupado, em memória principal ou secundária. Partindo do pressuposto de que é possível assumir, por aproximação, que traços de amplitudes sísmicas são o resultado da fusão entre um conteúdo oscilatório – um pulso gerado por um tipo de explosão, em caso de aquisição marítima – e a presença esparsa de contrastes de impedância e variação de densidade de rocha, pretende-se, neste trabalho, apresentar contribuições quanto à forma de realização de duas atividades em interpretação geofísica: a deconvolução e a inversão de refletividades em picos esparsos. Tomando como inspiração trabalhos em compressão volumétrica 3D e 4D, modelagem esparsa, otimização em geofísica, segmentação de imagens e visualização científica, apresenta-se, nesta tese, um conjunto de métodos que buscam estruturas fundamentais e geradoras das amplitudes: (i) uma abordagem para segmentação e seleção de traços sísmicos como representantes de todo o dado, (ii) uma abordagem para separação de amplitudes em ondaleta e picos esparsos de refletividade via deconvolução e (iii) uma outra para confecção de um operador linear – um dicionário – capaz de representar, parcial e aproximadamente, variações no conteúdo oscilatório – emulando alguns efeitos do subsolo –, com o qual é possível realizar uma inversão de refletividades. Por fim, apresentase um conjunto de resultados demonstrando a viabilidade das abordagens, o ganho eventual se aplicadas – incluindo a possibilidade de compressão – e a abertura de oportunidades de trabalhos futuros mesclando geofísica e computação. / [en] Seismic amplitude data are part of the input in a geophysical interpretation pipeline. As seismic sensors evolve, resolution and occupied storage space grows. In this context, tasks as seismic deconvolution and inversion become more expensive, in processing time or in – main or secondary – memory. Assuming that, approximately, seismic amplitude traces result from a fusion between an oscillatory content – a pulse generated by a kind of explosion, in the case of marine acquisition – and the sparse presence of impedance constrasts and rock density variation, this work presents contributions to the way of doing two geophysical interpretation activities: deconvolution and inversion, both targeting sparse-spike refletivity extraction.
Inspired by works in 3D and 4D volumetric compression, sparse modeling, optimization applied to geophysics, image segmentation and scientific visualization, this thesis presents a set of methods that try to fetch fundamental features that generate amplitude data: (i) an approach for seismic traces segmentation and selection, electing them as representatives of the whole data, (ii) an enhancement of an approach for separation of amplitudes into wavelet and sparse-spike reflectivities via deconvolution, and (iii) a way to generate a linear operator – a dictionary – partially and approximately capable of representing variations on the wavelet shape, emulating some effects of the subsoil, from which is possible to accomplish a reflectivity inversion. By the end, it is presented a set of results that demonstrate the viability of such approaches, the possible gain when they are applied – including compression – and some opportunities for future works mixing geophysics and computer science.
|
7 |
[en] COMBINING TO SUCCEED: A NOVEL STRATEGY TO IMPROVE FORECASTS FROM EXPONENTIAL SMOOTHING MODELS / [pt] COMBINANDO PARA TER SUCESSO: UMA NOVA ESTRATÉGIA PARA MELHORAR A PREVISÕES DE MODELOS DE AMORTECIMENTO EXPONENCIALTIAGO MENDES DANTAS 04 February 2019 (has links)
[pt] A presente tese se insere no contexto de previsão de séries temporais. Nesse sentido, embora muitas abordagens tenham sido desenvolvidas, métodos simples como o de amortecimento exponencial costumam gerar resultados extremamente competitivos muitas vezes superando abordagens com maior nível de complexidade. No contexto previsão, papers seminais na área mostraram que a combinação de previsões tem potencial para reduzir de maneira acentuada o erro de previsão. Especificamente, a combinação de
previsões geradas por amortecimento exponencial tem sido explorada em papers recentes. Apesar da combinação de previsões utilizando Amortecimento Exponencial poder ser feita de diversas formas, um método proposto recentemente e chamado de Bagged.BLD.MBB.ETS utiliza uma técnica chamada
Bootstrap Aggregating (Bagging) em combinação com métodos de amortecimento exponencial para gerar previsões mostrando que a abordagem é capaz de gerar previsões mensais mais precisas que todos os benchmarks analisados. A abordagem era considerada o estado da arte na utilização de Bagging e Amortecimento Exponencial até o desenvolvimento dos resultados obtidos nesta tese. A tese em questão se ocupa de, inicialmente, validar o método Bagged.BLD.MBB.ETS em um conjunto de dados relevante
do ponto de vista de uma aplicação real, expandindo assim os campos de aplicação da metodologia. Posteriormente, são identificados motivos relevantes para redução do erro de e é proposta uma nova metodologia que utiliza Bagging, Amortecimento Exponencial e Clusters para tratar o efeito covariância, até então não identificado anteriormente na literatura do método. A abordagem proposta foi testada utilizando diferentes tipo de séries temporais da competição M3, CIF 2016 e M4, bem como utilizando dados
simulados. Os resultados empíricos apontam para uma redução substancial na variância e no erro de previsão. / [en] This thesis is inserted in the context of time series forecasting. In this sense, although many approaches have been developed, simple methods such as exponential smoothing usually produce extremely competitive results, often surpassing approaches with a higher level of complexity. Seminal papers
in time series forecasting showed that the combination of forecasts has the potential to dramatically reduce the forecast error. Specifically, the combination of forecasts generated by Exponential Smoothing has been explored in recent papers. Although this can be done in many ways, a specific method called Bagged.BLD.MBB.ETS uses a technique called Bootstrap Aggregating (Bagging) in combination with Exponential Smoothing methods to generate forecasts, showing that the approach can generate more accurate monthly forecasts than all the analyzed benchmarks. The approach was considered the state of the art in the use of Bagging and Exponential Smoothing until the development of the results obtained in this thesis. This thesis initially deals with validating Bagged.BLD.MBB.ETS in a data set relevant from the point of view of a real application, thus expanding the fields of application of the methodology. Subsequently, relevant motifs for error reduction are identified and a new methodology using Bagging, Exponential Smoothing and Clusters is proposed to treat the covariance effect, not previously identified in the method s literature. The proposed approach was tested using data from three time series competitions (M3, CIF 2016 and M4), as well as using simulated data. The empirical results point to a substantial reduction in variance and forecast error.
|
8 |
[en] DATA CLUSTERING: ANALYSIS OF METHODS AND DEVELOPMENT OF APPLICATION FOR CLUSTER ANALYSIS / [pt] AGRUPAMENTOS DE DADOS: AVALIAÇÃO DE MÉTODOS E DESENVOLVIMENTO DE APLICATIVO PARA ANÁLISE DE GRUPOSMARCOS NEVES DO VALE 23 March 2006 (has links)
[pt] A enorme massa de dados que é gerada pelas diversas
empresas diariamente
pode conter informações importantes que não são fáceis de
serem extraídas. Com
isso advém a necessidade de analisá-los automaticamente,
de forma adequada,
extraindo informação útil que pode agregar algum tipo de
conhecimento. Uma das
formas de se analisar os dados automaticamente é através
da análise de
agrupamentos. Ela procura encontrar grupos de dados
semelhantes entre si. As
técnicas de análise de agrupamentos revelam como os dados
estão estruturados e
resultam em um melhor entendimento sobre o negócio. Existe
ainda hoje uma
escassez de ferramentas para esse fim. Em um problema real
de agrupamento de
dados convém analisar os dados através da utilização de
diferentes métodos, a fim
de buscar aquele que melhor se adapte ao problema. Porém,
as ferramentas
existentes hoje em dia não são integradas, onde cada
ferramenta possui um
subconjunto dos métodos existentes de agrupamento. Dessa
forma o usuário fica
limitado à utilização de uma ferramenta específica ou é
obrigado a conhecer
diversas ferramentas diferentes, de forma a melhor
analisar os dados de sua
empresa. Esta dissertação apresenta uma revisão detalhada
de todo o processo de
análise de agrupamentos e o desenvolvimento de um
aplicativo que visa não
apenas a atender as deficiências presentes na maioria das
ferramentas com esse
fim, mas também a auxiliar, de forma mais completa, todo o
processo de análise
dos grupos. O aplicativo desenvolvido é de fácil
utilização e permite que a ele
sejam incorporados outros métodos eventualmente
desenvolvidos pelo usuário. O
aplicativo foi avaliado em três estudos de casos, os quais
visam demonstrar a
facilidade de uso do aplicativo, assim como avaliar as
vantagens do uso de
métodos de natureza fuzzy em uma base de dados real. / [en] The enormous data mass that is daily generated by several
companies can
contain critical information that might not be easily
retrieved, considering that the
amount of data is generally huge and/or the target
information might be spread
through different data bases. Taking that into
consideration, it might be necessary
to properly analyze the data in an automatic way, so
useful and valuable
information can be extracted. One way of automatically
analyzing data is through
cluster analysis. This type of analysis searches for
related similar data. These
clusters settle a data structure model and with proper
analysis can reveal important
information. The techniques used in cluster analysis
disclose how data is
structured and allow a better knowledge of the business.
Still today there is a lack
of tools for this purpose. On a real situation with a data
cluster problem it is wise
to analyze the data through different methods, so we can
find the one that better
fits the problem. However, today the existing tools are
not integrated, and each
tool has a subgroup of existing cluster methods. This way
the user stays limited to
use only one specific tool or is forced to be aware of a
number of different tools,
so he would be able to better analyze the company data.
This study presents a
detailed review of the whole group analysis process and
develops an application
that not only suggests how to cover the currently lack of
tools for this purpose, but
also to help the complete cluster analysis process in a
more extended way. The
application developed is user friendly and allows other
methods developed by
users to be incorporated. The application has been
evaluated into three case
studies with the purpose of demonstrating its user
friendly, as well as evaluating
the advantages of using fuzzy methods on a true data base.
|
9 |
[pt] MODELOS NEURO-EVOLUCIONÁRIOS DE REDES NEURAIS SPIKING APLICADOS AO PRÉ-DIAGNÓSTICO DE ENVELHECIMENTO VOCAL / [en] NEURO-EVOLUTIONARY OF SPIKING NEURAL NETWORKS APPLIED TO PRE-DIAGNOSIS OF VOCAL AGINGMARCO AURELIO BOTELHO DA SILVA 09 October 2015 (has links)
[pt] O envelhecimento da voz, conhecido como presbifonia, é um processo natural que pode causar grande modificação na qualidade vocal do indivíduo. A sua identificação precoce pode trazer benefícios, buscando tratamentos que possam prevenir o seu avanço. Esse trabalho tem como motivação a identificação de vozes com sinais de envelhecimento através de redes neurais do tipo Spiking (SNN). O objetivo principal é o de construir dois novos modelos, denominados híbridos, utilizando SNN para problemas de agrupamento, onde os atributos de entrada e os parâmetros que configuram a SNN são otimizados por algoritmos evolutivos. Mais especificamente, os modelos neuro-evolucionários propostos são utilizados com o propósito de configurar corretamente a SNN, e selecionar os atributos mais relevantes para a formação dos grupos. Os algoritmos evolutivos utilizados foram o Algoritmo Evolutivo com Inspiração Quântica com representação Binário-Real (AEIQ-BR) e o Optimization by Genetic Programming (OGP). Os modelos resultantes foram nomeados Quantum-Inspired Evolution of Spiking Neural Networks with Binary-Real (QbrSNN) e Spiking Neural Network Optimization by Genetic Programming (SNN-OGP). Foram utilizadas oito bases benchmark e duas bases de voz, masculinas e femininas, a fim de caracterizar o envelhecimento. Para uma análise funcional da SNN, as bases benchmark forma testadas com uma abordagem clássica de agrupamento (kmeans) e com uma SNN sem evolução. Os modelos propostos foram comparados com uma abordagem clássica de Algoritmo Genético (AG). Os resultados mostraram a viabilidade do uso das SNNs para agrupamento de vozes envelhecidas. / [en] The aging of the voice, known as presbyphonia, is a natural process that can cause great change in vocal quality of the individual. Its early identification can benefit, seeking treatments that could prevent their advance. This work is motivated by the identification of voices with signs of aging through neural networks of spiking type (SNN). The main objective is to build two new models, called hybrids, using SNN for clustering problems where the input attributes and parameters that configure the SNN are optimized by evolutionary algorithms. More specifically, the proposed neuro-evolutionary models are used in order to properly configure the SNN, and select the most relevant attributes for the formation of groups. Evolutionary algorithms used were the Evolutionary Algorithm with Quantum Inspiration with representation Binary-Real (AEIQ-BR) and the Optimization by Genetic Programming (OGP). The resulting models were named Quantum-Inspired Spiking Neural Evolution of Networks with Binary-Real (QbrSNN) and Spiking Neural Network Optimization by Genetic Programming (SNN-OGP). Eight bases were used, and two voice benchmark bases, male and female, in order to characterize aging. NNS for functional analysis, the tested benchmark base form with a classical clustering approach (kmeans) and a SNN without change. The proposed models were compared with a classical approach of Genetic Algorithm (GA). The results showed the feasibility of using the SNN to agrupamentode aged voices.
|
10 |
[pt] MINERANDO O PROCESSO DE UM COQUEAMENTO RETARDADO ATRAVÉS DE AGRUPAMENTO DE ESTADOS / [en] MINING THE PROCESS OF A DELAYED COKER USING CLUSTERED STATESRAFAEL AUGUSTO GASETA FRANCA 25 November 2021 (has links)
[pt] Procedimentos e processos são essenciais para garantir a qualidade de
qualquer operação. Porém, o processo realizado na prática nem sempre está
de acordo com o processo idealizado. Além disso, uma análise mais refinada
de gargalos e inconsistências só é possível a partir do registro de eventos do
processo (log). Mineração de processos (process mining) é uma área que reúne
um conjunto de métodos para reconstruir, monitorar e aprimorar um processo a
partir de seu registro de eventos. Mas, ao aplicar as soluções já existentes no log
de uma unidade de coqueamento retardado, os resultados foram insatisfatórios.
O núcleo do problema está na forma como o log está estruturado, carecendo
de uma identificação de casos, essencial para a mineração do processo. Para
contornar esse problema, aplicamos agrupamento hierárquico aglomerativo no
log, separando as válvulas em grupos que exercem uma função na operação.
Desenvolvemos uma ferramenta (PLANTSTATE) para avaliar a qualidade desses
grupos no contexto da planta e ajustar conforme a necessidade do domínio.
Identificando os momentos de ativação desses grupos no log chegamos a uma
estrutura de sequência e paralelismo entre os grupos. Finalmente, propomos
um modelo capaz de representar as relações entre os grupos, resultando em
um processo que representa a operações em uma unidade de coqueamento
retardado. / [en] Procedures and processes are essential to guarantee the quality of any
operation. However, processes carried out in the real world are not always in
accordance with the imagined process. Furthermore, a more refined analysis
of obstacles and inconsistencies is only possible from the process events record
(log). Process mining is an area that brings together a set of methods to
rebuild, monitor and improve processes from their log. Nevertheless, when
applying existing solutions to the log of a delayed coker unit, the results
were unsatisfactory. The core of the problem is how the log is structured,
lacking a case identification, essential for process mining. To deal with this
issue, we apply agglomerative hierarchical clustering in the log, separating
the valves into groups that perform a task in an operation. We developed a
tool (PLANTSTATE) to assess the quality of these groups in the context of
the plant and to adjust in accord to the needs of the domain. By identifying
the moments of activation of these groups in the log we arrive at a structure
of sequence and parallelism between the groups. Finally, we propose a model
capable of representing the relationships between groups, resulting in a process
that represents the operations in a delayed coker unit.
|
Page generated in 0.0532 seconds