• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 3
  • Tagged with
  • 14
  • 14
  • 8
  • 7
  • 7
  • 6
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[pt] TARIFAÇÃO ZONAL DO USO DA TRANSMISSÃO APLICADA A SISTEMAS ELÉTRICOS INTERLIGADOS / [en] ZONAL TARIFF FOR THE TRANSMISSION USAGE APPLIED TO INTERCONNECTED POWER SYSTEMS

JÉSSICA FELIX MACEDO TALARICO 30 September 2021 (has links)
[pt] Os sistemas de transmissão cumprem uma função vital para o bom desempenho dos mercados de energia elétrica. A precificação do seu uso afeta diretamente a remuneração das empresas concessionárias e os custos dos participantes do mercado. No Brasil, os usuários do sistema interligado nacional (SIN) devem pagar pela disponibilização dos equipamentos que compõem a rede para as transmissoras detentoras destes ativos de forma proporcional ao seu uso. Assim, a agência reguladora brasileira (ANEEL) estabeleceu as tarifas de uso do sistema de transmissão (TUST), que são calculadas anualmente por barra via metodologia nodal. Tais tarifas são compostas por duas parcelas: locacional e selo. A parcela locacional reflete o uso efetivo da rede por cada agente participante, medindo o impacto da injeção de potência marginal de uma barra nos equipamentos do sistema. A parcela selo consiste num valor constante que garantirá a remuneração da porção não utilizada da rede. Em geral, a proximidade elétrica das barras do sistema implica valores tarifários similares. Esta Dissertação de Mestrado propõe uma nova metodologia a ser incorporada no cálculo da TUST, considerando a divisão do SIN em zonas tarifárias de transmissão (ZTT). Desta forma, cada ZTT apresentará uma única tarifa a ser aplicada aos seus participantes, que corresponderá à média ponderada das tarifas finais calculadas via metodologia nodal. Para a identificação das ZTT, são aplicadas técnicas de agrupamento k-Means e espectral nos sistemas IEEE-RTS e SIN. Nesta dissertação, avalia-se também o uso de modelos matemáticos para definir o número ideal de ZTT a ser considerado. São realizadas diversas análises de sensibilidade relativas a mudanças de despacho, alterações de topologia e evolução do sistema ao longo dos anos. Os resultados correspondentes são então extensivamente discutidos. / [en] Transmission systems play a vital role in the good performance of the electrical energy markets. The pricing of its use directly affects the budget of concessionary companies and the costs of market participants. In Brazil, users of the national interconnected system (NIS) must pay for the equipment availability that makes up the network to the transmission companies that own these assets in proportion to their use. Thus, the Brazilian regulatory agency (ANEEL) established the tariffs for transmission system usage (TTSU), which are calculated annually by bus using the nodal methodology. Such tariffs are made up of two installments: locational and postage stamp. The locational portion reflects the effective use of the grid by each participating agent, measuring the impact of the marginal power injection at a bus on the system equipment. The stamp portion consists of a constant amount that will guarantee the remuneration of the unused portion of the network. In general, the electrical proximity of the system buses leads to similar tariff values. This dissertation proposes a new methodology to be incorporated into the TTSU calculation, considering the division of the NIS into transmission tariff zones (TTZ). In this way, each TTZ will present a single tariff to be applied to its participants, which will correspond to the weighted average of the final tariffs calculated via the nodal methodology. For the identification of the TTZ, k-Means and Spectral clustering techniques are applied to the IEEE-RTS and SIN systems. In this dissertation, the use of mathematical models is also assessed to define the ideal number of TTZ to be considered. Various sensitivity analyses are carried out regarding changes in dispatch, grid topology and expansion of the system over the years. The corresponding results are deeply discussed.
2

[en] COMPARATIVE STUDY OF TECHNIQUES TO SPEAKER DIARIZATION / [pt] ESTUDO COMPARATIVO DE TÉCNICAS DE DIARIZAÇÃO DE LOCUTOR

MARCELO DE CAMPOS NIERO 25 July 2014 (has links)
[pt] A tarefa de diarização de locutor surgiu como forma de otimizar o trabalho do homem em recuperar informações sobre áudios, com o objetivo de realizar, por exemplo, indexação de fala e locutor. De fato, realizar a diarização de locutor consiste em, dado uma gravação de ligação telefônica, reunião ou noticiários, deve responder a pergunta Quem falou quando? sem nenhuma informação prévia sobre o áudio. A resposta em questão nos permite saber as referências temporais das atividades de cada locutor participante na gravação. Computacionalmente falando, o processamento da diarização ocorre através de quatro etapas principais: extração de características do sinal, detecção de fala e não fala, segmentação e agrupamento. Neste trabalho realiza-se um estudo sobre a etapa de agrupamento, comparando o desempenho e comprovando problemas de algumas técnicas do estado da arte. Todos os experimento foram executados em uma base controlada, originada do corpus TIMIT, e outra real utilizada no concurso NIST-SRE 2002. / [en] The speaker diarization task emerged as a way to optimize audio information retrieval processing by detecting and tracking speech and speaker information. Actually, speaker diarization consists in answering the question Who spoke when for a given conversation in a telephone call, meeting, or broadcast news, without any prior information about neither the audio nor the speakers. This answer allows us to know the time references for each speaker in a recording. Computationally speaking, the diarization processing occurs through four main steps: feature extraction of the signal, speech and non-speech detection, segmentation and clustering. In this work, the clustering step is analyzed by comparing the performance of some methods used in the state of the art and showing some of their problems. All experiments are performed on an excerpt from the TIMIT corpus and the diarization task database used in the 2002 NIST Speaker Recognition Evaluation.
3

[en] REORGANIZATION AND COMPRESSION OF SEISMIC DATA / [pt] REORGANIZAÇÃO E COMPRESSÃO DE DADOS SÍSMICOS

FLAVIA MEDEIROS DOS ANJOS 19 February 2008 (has links)
[pt] Dados sísmicos, utilizados principalmente na indústria de petróleo, costumam apresentar dimensões de dezenas de gigabytes e em alguns casos, centenas. Este trabalho apresenta propostas de manipulação destes dados que ajudem a contornar problemas enfrentados por aplicativos de processamento e interpretação sísmica ao trabalhar com arquivos deste porte. As propostas se baseiam em reorganização e compressão. O conhecimento do formato de utilização dos dados permite reestruturar seu armazenamento diminuindo o tempo gasto com a transferência entre o disco e a memória em até 90%. A compressão é utilizada para diminuir o espaço necessário para armazenamento. Para dados desta natureza os melhores resultados, em taxa de redução, são das técnicas de compressão com perda, entre elas as compressões por agrupamento. Neste trabalho apresentamos um algoritmo que minimiza o erro médio do agrupamento uma vez que o número de grupos tenha sido determinado. Em qualquer método desta categoria o grau de erro e a taxa de compressão obtidos dependem do número de grupos. Os dados sísmicos possuem uma coerência espacial que pode ser aproveitada para melhorar a compressão dos mesmos. Combinando-se agrupamento e o aproveitamento da coerência espacial conseguimos comprimir os dados com taxas variando de 7% a 25% dependendo do erro associado. Um novo formato é proposto utilizando a reorganização e a compressão em conjunto. / [en] Seismic data, used mainly in the petroleum industry, commonly present sizes of tens of gigabyte, and, in some cases, hundreds. This work presents propositions for manipulating these data in order to help overcoming the problems that application for seismic processing and interpretation face while dealing with file of such magnitude. The propositions are based on reorganization and compression. The knowledge of the format in which the data will be used allows us to restructure storage reducing disc- memory transference time up to 90%. Compression is used to save storage space. For data of such nature, best results in terms of compression rates come from techniques associated to information loss, being clustering one of them. In this work we present an algorithm for minimizing the cost of clustering a set of data for a pre-determined number of clusters. Seismic data have space coherence that can be used to improve their compression. Combining clustering with the use of space coherence we were able to compress sets of data with rates from 7% to 25% depending on the error associated. A new file format is proposed using reorganization and compression together.
4

[en] A MODEL-BASED FRAMEWORK FOR SEMI-SUPERVISED CLUSTERING AND COMMUNITY DETECTION / [pt] UM FRAMEWORK BASEADO EM MODELO PARA CLUSTERIZAÇÃO SEMISSUPERVISIONADA E DETECÇÃO DE COMUNIDADES

DANIEL LEMES GRIBEL 09 September 2021 (has links)
[pt] Em clusterização baseada em modelos, o objetivo é separar amostras de dados em grupos significativos, otimizando a aderência dos dados observados a um modelo matemático. A recente adoção de clusterização baseada em modelos tem permitido a profissionais e usuários mapearem padrões complexos nos dados e explorarem uma ampla variedade de aplicações. Esta tese investiga abordagens orientadas a modelos para detecção de comunidades e para o estudo de clusterização semissupervisionada, adotando uma perspectiva baseada em máxima verossimilhança. Focamos primeiramente na exploração de técnicas de otimização com restrições para apresentar um novo modelo de detecção de comunidades por meio de modelos de blocos estocásticos (SBMs). Mostramos que a formulação com restrições revela comunidades estruturalmente diferentes daquelas obtidas com modelos clássicos. Em seguida, estudamos um cenário onde anotações imprecisas são fornecidas na forma de relações must-link e cannot-link, e propomos um modelo de clusterização semissupervisionado. Nossa análise experimental mostra que a incorporação de supervisão parcial e de conhecimento prévio melhoram significativamente os agrupamentos. Por fim, examinamos o problema de clusterização semissupervisionada na presença de rótulos de classe não confiáveis. Investigamos o caso em que grupos de anotadores deliberadamente classificam incorretamente as amostras de dados e propomos um modelo para lidar com tais anotações incorretas. / [en] In model-based clustering, we aim to separate data samples into meaningful groups by optimizing the fit of some observed data to a mathematical model. The recent adoption of model-based clustering has allowed practitioners to model complex patterns in data and explore a wide range of applications. This thesis investigates model-driven approaches for community detection and semisupervised clustering by adopting a maximum-likelihood perspective. We first focus on exploiting constrained optimization techniques to present a new model for community detection with stochastic block models (SBMs). We show that the proposed constrained formulation reveals communities structurally different from those obtained with classical community detection models. We then study a setting where inaccurate annotations are provided as must-link and cannot-link relations, and propose a novel semi-supervised clustering model. Our experimental analysis shows that incorporating partial supervision and appropriately encoding prior user knowledge significantly enhance clustering performance. Finally, we examine the problem of semi-supervised clustering in the presence of unreliable class labels. We focus on the case where groups of untrustworthy annotators deliberately misclassify data samples and propose a model to handle such incorrect statements.
5

[pt] AGRUPAMENTO FUZZY APLICADO À INTEGRAÇÃO DE DADOS MULTI-ÔMICOS / [en] FUZZY CLUSTERING APPLIED TO MULTI-OMICS DATA

SARAH HANNAH LUCIUS LACERDA DE GOES TELLES CARVALHO ALVES 05 October 2021 (has links)
[pt] Os avanços nas tecnologias de obtenção de dados multi-ômicos têm disponibilizado diferentes níveis de informação molecular que aumentam progressivamente em volume e variedade. Neste estudo, propõem-se uma metodologia de integração de dados clínicos e multi-ômicos, com o objetivo de identificar subtipos de câncer por agrupamento fuzzy, representando assim as gradações entre os diferentes perfis moleculares. Uma melhor caracterização de tumores em subtipos moleculares pode contribuir para uma medicina mais personalizada e assertiva. Os conjuntos de dados ômicos a serem integrados são definidos utilizando um classificador com classe-alvo definida por resultados da literatura. Na sequência, é realizado o pré-processamento dos conjuntos de dados para reduzir a alta dimensionalidade. Os dados selecionados são integrados e em seguida agrupados. Optou-se pelo algoritmo fuzzy C-means pela sua capacidade de considerar a possibilidade dos pacientes terem características de diferentes grupos, o que não é possível com métodos clássicos de agrupamento. Como estudo de caso, utilizou-se dados de câncer colorretal (CCR). O CCR tem a quarta maior incidência na população mundial e a terceira maior no Brasil. Foram extraídos dados de metilação, expressão de miRNA e mRNA do portal do projeto The Cancer Genome Atlas (TCGA). Observou-se que a adição dos dados de expressão de miRNA e metilação a um classificador de expressão de mRNA da literatura aumentou a acurácia deste em 5 pontos percentuais. Assim, foram usados dados de metilação, expressão de miRNA e mRNA neste trabalho. Os atributos de cada conjunto de dados foram selecionados, obtendo-se redução significativa do número de atributos. A identificação dos grupos foi realizada com o algoritmo fuzzy C-means. A variação dos hiperparâmetros deste algoritmo, número de grupos e parâmetro de fuzzificação, permitiu a escolha da combinação de melhor desempenho. A escolha da melhor configuração considerou o efeito da variação dos parâmetros nas características biológicas, em especial na sobrevida global dos pacientes. Observou-se que o agrupamento gerado permitiu identificar que as amostras consideradas não agrupadas têm características biológicas compartilhadas entre grupos de diferentes prognósticos. Os resultados obtidos com a combinação de dados clínicos e ômicos mostraram-se promissores para melhor predizer o fenótipo. / [en] The advances in technologies for obtaining multi-omic data provide different levels of molecular information that progressively increase in volume and variety. This study proposes a methodology for integrating clinical and multiomic data, which aim is the identification of cancer subtypes using fuzzy clustering algorithm, representing the different degrees between molecular profiles. A better characterization of tumors in molecular subtypes can contribute to a more personalized and assertive medicine. A classifier that uses a target class from literature results indicates which omic data sets should be integrated. Next, data sets are pre-processed to reduce high dimensionality. The selected data is integrated and then clustered. The fuzzy C-means algorithm was chosen due to its ability to consider the shared patients characteristics between different groups. As a case study, colorectal cancer (CRC) data were used. CCR has the fourth highest incidence in the world population and the third highest in Brazil. Methylation, miRNA and mRNA expression data were extracted from The Cancer Genome Atlas (TCGA) project portal. It was observed that the addition of miRNA expression and methylation data to a literature mRNA expression classifier increased its accuracy by 5 percentage points. Therefore, methylation, miRNA and mRNA expression data were used in this work. The attributes of each data set were pre-selected, obtaining a significant reduction in the number of attributes. Groups were identified using the fuzzy C-means algorithm. The variation of the hyperparameters of this algorithm, number of groups and membership degree, indicated the best performance combination. This choice considered the effect of parameters variation on biological characteristics, especially on the overall survival of patients. Clusters showed that patients considered not grouped had biological characteristics shared between groups of different prognoses. The combination of clinical and omic data to better predict the phenotype revealed promissing results.
6

[pt] MODELAGEM ESPARSA E SUPERTRAÇOS PARA DECONVOLUÇÃO E INVERSÃO SÍSMICAS / [en] SPARSE MODELING AND SUPERTRACES FOR SEISMIC DECONVOLUTION AND INVERSION

RODRIGO COSTA FERNANDES 11 May 2020 (has links)
[pt] Dados de amplitude sísmica compõem o conjunto de insumos do trabalho de interpretação geofísica. À medida que a qualidade dos sensores sísmicos evoluem, há aumento importante tanto na resolução quanto no espaço ocupado para armazenamento. Neste contexto, as tarefas de deconvolução e inversão sísmicas se tornam mais custosas, em tempo de processamento ou em espaço ocupado, em memória principal ou secundária. Partindo do pressuposto de que é possível assumir, por aproximação, que traços de amplitudes sísmicas são o resultado da fusão entre um conteúdo oscilatório – um pulso gerado por um tipo de explosão, em caso de aquisição marítima – e a presença esparsa de contrastes de impedância e variação de densidade de rocha, pretende-se, neste trabalho, apresentar contribuições quanto à forma de realização de duas atividades em interpretação geofísica: a deconvolução e a inversão de refletividades em picos esparsos. Tomando como inspiração trabalhos em compressão volumétrica 3D e 4D, modelagem esparsa, otimização em geofísica, segmentação de imagens e visualização científica, apresenta-se, nesta tese, um conjunto de métodos que buscam estruturas fundamentais e geradoras das amplitudes: (i) uma abordagem para segmentação e seleção de traços sísmicos como representantes de todo o dado, (ii) uma abordagem para separação de amplitudes em ondaleta e picos esparsos de refletividade via deconvolução e (iii) uma outra para confecção de um operador linear – um dicionário – capaz de representar, parcial e aproximadamente, variações no conteúdo oscilatório – emulando alguns efeitos do subsolo –, com o qual é possível realizar uma inversão de refletividades. Por fim, apresentase um conjunto de resultados demonstrando a viabilidade das abordagens, o ganho eventual se aplicadas – incluindo a possibilidade de compressão – e a abertura de oportunidades de trabalhos futuros mesclando geofísica e computação. / [en] Seismic amplitude data are part of the input in a geophysical interpretation pipeline. As seismic sensors evolve, resolution and occupied storage space grows. In this context, tasks as seismic deconvolution and inversion become more expensive, in processing time or in – main or secondary – memory. Assuming that, approximately, seismic amplitude traces result from a fusion between an oscillatory content – a pulse generated by a kind of explosion, in the case of marine acquisition – and the sparse presence of impedance constrasts and rock density variation, this work presents contributions to the way of doing two geophysical interpretation activities: deconvolution and inversion, both targeting sparse-spike refletivity extraction. Inspired by works in 3D and 4D volumetric compression, sparse modeling, optimization applied to geophysics, image segmentation and scientific visualization, this thesis presents a set of methods that try to fetch fundamental features that generate amplitude data: (i) an approach for seismic traces segmentation and selection, electing them as representatives of the whole data, (ii) an enhancement of an approach for separation of amplitudes into wavelet and sparse-spike reflectivities via deconvolution, and (iii) a way to generate a linear operator – a dictionary – partially and approximately capable of representing variations on the wavelet shape, emulating some effects of the subsoil, from which is possible to accomplish a reflectivity inversion. By the end, it is presented a set of results that demonstrate the viability of such approaches, the possible gain when they are applied – including compression – and some opportunities for future works mixing geophysics and computer science.
7

[en] COMBINING TO SUCCEED: A NOVEL STRATEGY TO IMPROVE FORECASTS FROM EXPONENTIAL SMOOTHING MODELS / [pt] COMBINANDO PARA TER SUCESSO: UMA NOVA ESTRATÉGIA PARA MELHORAR A PREVISÕES DE MODELOS DE AMORTECIMENTO EXPONENCIAL

TIAGO MENDES DANTAS 04 February 2019 (has links)
[pt] A presente tese se insere no contexto de previsão de séries temporais. Nesse sentido, embora muitas abordagens tenham sido desenvolvidas, métodos simples como o de amortecimento exponencial costumam gerar resultados extremamente competitivos muitas vezes superando abordagens com maior nível de complexidade. No contexto previsão, papers seminais na área mostraram que a combinação de previsões tem potencial para reduzir de maneira acentuada o erro de previsão. Especificamente, a combinação de previsões geradas por amortecimento exponencial tem sido explorada em papers recentes. Apesar da combinação de previsões utilizando Amortecimento Exponencial poder ser feita de diversas formas, um método proposto recentemente e chamado de Bagged.BLD.MBB.ETS utiliza uma técnica chamada Bootstrap Aggregating (Bagging) em combinação com métodos de amortecimento exponencial para gerar previsões mostrando que a abordagem é capaz de gerar previsões mensais mais precisas que todos os benchmarks analisados. A abordagem era considerada o estado da arte na utilização de Bagging e Amortecimento Exponencial até o desenvolvimento dos resultados obtidos nesta tese. A tese em questão se ocupa de, inicialmente, validar o método Bagged.BLD.MBB.ETS em um conjunto de dados relevante do ponto de vista de uma aplicação real, expandindo assim os campos de aplicação da metodologia. Posteriormente, são identificados motivos relevantes para redução do erro de e é proposta uma nova metodologia que utiliza Bagging, Amortecimento Exponencial e Clusters para tratar o efeito covariância, até então não identificado anteriormente na literatura do método. A abordagem proposta foi testada utilizando diferentes tipo de séries temporais da competição M3, CIF 2016 e M4, bem como utilizando dados simulados. Os resultados empíricos apontam para uma redução substancial na variância e no erro de previsão. / [en] This thesis is inserted in the context of time series forecasting. In this sense, although many approaches have been developed, simple methods such as exponential smoothing usually produce extremely competitive results, often surpassing approaches with a higher level of complexity. Seminal papers in time series forecasting showed that the combination of forecasts has the potential to dramatically reduce the forecast error. Specifically, the combination of forecasts generated by Exponential Smoothing has been explored in recent papers. Although this can be done in many ways, a specific method called Bagged.BLD.MBB.ETS uses a technique called Bootstrap Aggregating (Bagging) in combination with Exponential Smoothing methods to generate forecasts, showing that the approach can generate more accurate monthly forecasts than all the analyzed benchmarks. The approach was considered the state of the art in the use of Bagging and Exponential Smoothing until the development of the results obtained in this thesis. This thesis initially deals with validating Bagged.BLD.MBB.ETS in a data set relevant from the point of view of a real application, thus expanding the fields of application of the methodology. Subsequently, relevant motifs for error reduction are identified and a new methodology using Bagging, Exponential Smoothing and Clusters is proposed to treat the covariance effect, not previously identified in the method s literature. The proposed approach was tested using data from three time series competitions (M3, CIF 2016 and M4), as well as using simulated data. The empirical results point to a substantial reduction in variance and forecast error.
8

[en] DATA CLUSTERING: ANALYSIS OF METHODS AND DEVELOPMENT OF APPLICATION FOR CLUSTER ANALYSIS / [pt] AGRUPAMENTOS DE DADOS: AVALIAÇÃO DE MÉTODOS E DESENVOLVIMENTO DE APLICATIVO PARA ANÁLISE DE GRUPOS

MARCOS NEVES DO VALE 23 March 2006 (has links)
[pt] A enorme massa de dados que é gerada pelas diversas empresas diariamente pode conter informações importantes que não são fáceis de serem extraídas. Com isso advém a necessidade de analisá-los automaticamente, de forma adequada, extraindo informação útil que pode agregar algum tipo de conhecimento. Uma das formas de se analisar os dados automaticamente é através da análise de agrupamentos. Ela procura encontrar grupos de dados semelhantes entre si. As técnicas de análise de agrupamentos revelam como os dados estão estruturados e resultam em um melhor entendimento sobre o negócio. Existe ainda hoje uma escassez de ferramentas para esse fim. Em um problema real de agrupamento de dados convém analisar os dados através da utilização de diferentes métodos, a fim de buscar aquele que melhor se adapte ao problema. Porém, as ferramentas existentes hoje em dia não são integradas, onde cada ferramenta possui um subconjunto dos métodos existentes de agrupamento. Dessa forma o usuário fica limitado à utilização de uma ferramenta específica ou é obrigado a conhecer diversas ferramentas diferentes, de forma a melhor analisar os dados de sua empresa. Esta dissertação apresenta uma revisão detalhada de todo o processo de análise de agrupamentos e o desenvolvimento de um aplicativo que visa não apenas a atender as deficiências presentes na maioria das ferramentas com esse fim, mas também a auxiliar, de forma mais completa, todo o processo de análise dos grupos. O aplicativo desenvolvido é de fácil utilização e permite que a ele sejam incorporados outros métodos eventualmente desenvolvidos pelo usuário. O aplicativo foi avaliado em três estudos de casos, os quais visam demonstrar a facilidade de uso do aplicativo, assim como avaliar as vantagens do uso de métodos de natureza fuzzy em uma base de dados real. / [en] The enormous data mass that is daily generated by several companies can contain critical information that might not be easily retrieved, considering that the amount of data is generally huge and/or the target information might be spread through different data bases. Taking that into consideration, it might be necessary to properly analyze the data in an automatic way, so useful and valuable information can be extracted. One way of automatically analyzing data is through cluster analysis. This type of analysis searches for related similar data. These clusters settle a data structure model and with proper analysis can reveal important information. The techniques used in cluster analysis disclose how data is structured and allow a better knowledge of the business. Still today there is a lack of tools for this purpose. On a real situation with a data cluster problem it is wise to analyze the data through different methods, so we can find the one that better fits the problem. However, today the existing tools are not integrated, and each tool has a subgroup of existing cluster methods. This way the user stays limited to use only one specific tool or is forced to be aware of a number of different tools, so he would be able to better analyze the company data. This study presents a detailed review of the whole group analysis process and develops an application that not only suggests how to cover the currently lack of tools for this purpose, but also to help the complete cluster analysis process in a more extended way. The application developed is user friendly and allows other methods developed by users to be incorporated. The application has been evaluated into three case studies with the purpose of demonstrating its user friendly, as well as evaluating the advantages of using fuzzy methods on a true data base.
9

[pt] MODELOS NEURO-EVOLUCIONÁRIOS DE REDES NEURAIS SPIKING APLICADOS AO PRÉ-DIAGNÓSTICO DE ENVELHECIMENTO VOCAL / [en] NEURO-EVOLUTIONARY OF SPIKING NEURAL NETWORKS APPLIED TO PRE-DIAGNOSIS OF VOCAL AGING

MARCO AURELIO BOTELHO DA SILVA 09 October 2015 (has links)
[pt] O envelhecimento da voz, conhecido como presbifonia, é um processo natural que pode causar grande modificação na qualidade vocal do indivíduo. A sua identificação precoce pode trazer benefícios, buscando tratamentos que possam prevenir o seu avanço. Esse trabalho tem como motivação a identificação de vozes com sinais de envelhecimento através de redes neurais do tipo Spiking (SNN). O objetivo principal é o de construir dois novos modelos, denominados híbridos, utilizando SNN para problemas de agrupamento, onde os atributos de entrada e os parâmetros que configuram a SNN são otimizados por algoritmos evolutivos. Mais especificamente, os modelos neuro-evolucionários propostos são utilizados com o propósito de configurar corretamente a SNN, e selecionar os atributos mais relevantes para a formação dos grupos. Os algoritmos evolutivos utilizados foram o Algoritmo Evolutivo com Inspiração Quântica com representação Binário-Real (AEIQ-BR) e o Optimization by Genetic Programming (OGP). Os modelos resultantes foram nomeados Quantum-Inspired Evolution of Spiking Neural Networks with Binary-Real (QbrSNN) e Spiking Neural Network Optimization by Genetic Programming (SNN-OGP). Foram utilizadas oito bases benchmark e duas bases de voz, masculinas e femininas, a fim de caracterizar o envelhecimento. Para uma análise funcional da SNN, as bases benchmark forma testadas com uma abordagem clássica de agrupamento (kmeans) e com uma SNN sem evolução. Os modelos propostos foram comparados com uma abordagem clássica de Algoritmo Genético (AG). Os resultados mostraram a viabilidade do uso das SNNs para agrupamento de vozes envelhecidas. / [en] The aging of the voice, known as presbyphonia, is a natural process that can cause great change in vocal quality of the individual. Its early identification can benefit, seeking treatments that could prevent their advance. This work is motivated by the identification of voices with signs of aging through neural networks of spiking type (SNN). The main objective is to build two new models, called hybrids, using SNN for clustering problems where the input attributes and parameters that configure the SNN are optimized by evolutionary algorithms. More specifically, the proposed neuro-evolutionary models are used in order to properly configure the SNN, and select the most relevant attributes for the formation of groups. Evolutionary algorithms used were the Evolutionary Algorithm with Quantum Inspiration with representation Binary-Real (AEIQ-BR) and the Optimization by Genetic Programming (OGP). The resulting models were named Quantum-Inspired Spiking Neural Evolution of Networks with Binary-Real (QbrSNN) and Spiking Neural Network Optimization by Genetic Programming (SNN-OGP). Eight bases were used, and two voice benchmark bases, male and female, in order to characterize aging. NNS for functional analysis, the tested benchmark base form with a classical clustering approach (kmeans) and a SNN without change. The proposed models were compared with a classical approach of Genetic Algorithm (GA). The results showed the feasibility of using the SNN to agrupamentode aged voices.
10

[pt] MINERANDO O PROCESSO DE UM COQUEAMENTO RETARDADO ATRAVÉS DE AGRUPAMENTO DE ESTADOS / [en] MINING THE PROCESS OF A DELAYED COKER USING CLUSTERED STATES

RAFAEL AUGUSTO GASETA FRANCA 25 November 2021 (has links)
[pt] Procedimentos e processos são essenciais para garantir a qualidade de qualquer operação. Porém, o processo realizado na prática nem sempre está de acordo com o processo idealizado. Além disso, uma análise mais refinada de gargalos e inconsistências só é possível a partir do registro de eventos do processo (log). Mineração de processos (process mining) é uma área que reúne um conjunto de métodos para reconstruir, monitorar e aprimorar um processo a partir de seu registro de eventos. Mas, ao aplicar as soluções já existentes no log de uma unidade de coqueamento retardado, os resultados foram insatisfatórios. O núcleo do problema está na forma como o log está estruturado, carecendo de uma identificação de casos, essencial para a mineração do processo. Para contornar esse problema, aplicamos agrupamento hierárquico aglomerativo no log, separando as válvulas em grupos que exercem uma função na operação. Desenvolvemos uma ferramenta (PLANTSTATE) para avaliar a qualidade desses grupos no contexto da planta e ajustar conforme a necessidade do domínio. Identificando os momentos de ativação desses grupos no log chegamos a uma estrutura de sequência e paralelismo entre os grupos. Finalmente, propomos um modelo capaz de representar as relações entre os grupos, resultando em um processo que representa a operações em uma unidade de coqueamento retardado. / [en] Procedures and processes are essential to guarantee the quality of any operation. However, processes carried out in the real world are not always in accordance with the imagined process. Furthermore, a more refined analysis of obstacles and inconsistencies is only possible from the process events record (log). Process mining is an area that brings together a set of methods to rebuild, monitor and improve processes from their log. Nevertheless, when applying existing solutions to the log of a delayed coker unit, the results were unsatisfactory. The core of the problem is how the log is structured, lacking a case identification, essential for process mining. To deal with this issue, we apply agglomerative hierarchical clustering in the log, separating the valves into groups that perform a task in an operation. We developed a tool (PLANTSTATE) to assess the quality of these groups in the context of the plant and to adjust in accord to the needs of the domain. By identifying the moments of activation of these groups in the log we arrive at a structure of sequence and parallelism between the groups. Finally, we propose a model capable of representing the relationships between groups, resulting in a process that represents the operations in a delayed coker unit.

Page generated in 0.0532 seconds