• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 15
  • 13
  • 13
  • 12
  • 12
  • 5
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 203
  • 203
  • 203
  • 84
  • 82
  • 54
  • 41
  • 40
  • 38
  • 34
  • 32
  • 30
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Sistema especialista probabilístico para apoio ao diagnóstico de potencial econômico - SEPE

Pasini, Hamilton January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós -Graduação em Computação. / Made available in DSpace on 2012-10-19T17:55:16Z (GMT). No. of bitstreams: 0 / Realizar o planejamento mercadológico a partir do conhecimento do potencial econômico dos municípios de Santa Catarina é uma das tarefas desempenhadas pela área de marketing dos Correios. Na sua elaboração trabalha-se com dados incertos sobre o mercado, ou seja, tomam-se decisões sem ter as informações necessárias. Para que o diagnóstico seja realizado de uma forma mais eficiente, é necessário que os técnicos visualizem os dados relacionados ao potencial de uma forma gráfica e que sejam investigadas relações entre variáveis endógenas e exógenas aos Correios, por meio de evidências observadas. Sendo assim, esta pesquisa volta-se ao desenvolvimento de um sistema especialista probabilístico para o apoio ao diagnóstico de potencial econômico dos municípios de Santa Catarina segundo serviços dos Correios, denominado de SEPE. O sistema explora o raciocínio probabilístico em sistemas especialistas, com uma base de conhecimentos atualizável. Ainda, emprega técnicas de mineração de dados no processo de aquisição e atualização de conhecimento de uma base de dados. O SEPE foi desenvolvido para a plataforma Windows, no ambiente Visual Basic 5, utilizando as DLL's da shell Netica.
72

Modelo de investigação de acidentes do trabalho baseado na aplicação de tecnologias de extração de conhecimento

Bartolomeu, Tereza Angelica. January 2002 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-20T03:51:19Z (GMT). No. of bitstreams: 1 189111.pdf: 5732932 bytes, checksum: d592e75a3caba4fc23251432574ffd7d (MD5) / A realidade mundial é preocupante no que diz respeito à ocorrência de acidentes do trabalho e doenças ocupacionais. No Brasil, esta realidade é ainda mais preocupante devido ao número de ocorrências e a gravidade dos mesmos. Neste trabalho é proposto um modelo de investigação de acidentes do trabalho baseado na análise de dados relativos aos registros administrativos de notificações de acidentes do trabalho, com o intuito de nortear tomadas de decisões gerenciais e estratégicas no que diz respeito às políticas de controle e prevenção de acidentes e doenças ocupacionais. O modelo baseia-se na aplicação da tecnologia de extração de conhecimento data mining em grandes bases de dados, a qual possibilita a descoberta de correlações e informações implícitas, dificilmente identificáveis utilizando as técnicas convencionais de análise. Tudo isso de forma rápida e simplificada. O modelo é descrito a partir da apresentação de suas etapas. Para fins de validação, o modelo é testado e avaliado mediante a investigação dos acidentes notificados no Instituto Nacional de Seguridade Social (INSS), no Estado de Santa Catarina, no ano de 2000. Através da aplicação do modelo foram identificadas informações relevantes relativas às empresas empregadoras, os tipos de acidentes e doenças ocorridas e o perfil dos trabalhadores acidentados, cujas lesões sofridas e/ou enfermidades poderiam ter sido evitados, na avaliação de especialistas, com o uso de vestimentas de proteção adequadas.
73

Extração do fator qualidade de uma clínica odontológica utilizando algoritmos genéticos aplicados ao processo de KDD

Tenório Junior, Nelson Nunes January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-20T05:38:34Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T02:28:51Z : No. of bitstreams: 1 187850.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Este trabalho modela e implementa um Algoritmo Genético (AG) capaz de extrair o fator qualidade de uma clínica odontológica baseado em informações de prontuários clínicos devidamente armazenados em um Banco de Dados. Para tanto são abordados: um estudo sobre a área de Knowledge Discovery in Database (KDD); conceito de Mineração de Dados (Data Mining) no contexto de Algoritmos Genéticos; a implementação de um Sistema de Controle de Prontuários Odontológicos - SCoPO - que avalia e retorna o fator qualidade da clínica; e, por fim um estudo de casos com seus respectivos resultados obtidos. O estudo da área de KDD, que envolve todo o processo de descoberta de conhecimento útil em banco de dados, abrange: definição do problema; seleção dos dados; limpeza dos dados; pré-processamento dos dados; codificação dos dados; enriquecimento dos dados; mineração dos dados e a interpretação dos resultados. Em particular, este estudo trata a fase de Mineração de Dados (Data Mining) destacando os algoritmos e técnicas empregadas que utilizam-se dos Modelos Estatísticos e Algoritmos Genéticos e, ainda, o desenvolvimento de uma procedimento capaz de analisar o fator qualidade de uma clínica odontológica sobre uma base de dados constituída de prontuários. O estudo de casos mostrará o sistema SCoPO, desenvolvido pelo próprio autor desta pesquisa, operando sob a base de dados da clínica odontológica retornando através de uma interface específica a qualidade da clínica odontológica.
74

Aspectos teóricos do Datamining

Collazos Linares, Kathya Silvia January 2003 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-20T11:13:01Z (GMT). No. of bitstreams: 0Bitstream added on 2013-07-16T19:10:41Z : No. of bitstreams: 1 198161.pdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Este trabalho apresenta um estudo do método Descoberta de Conhecimento em Base de Dados (Knowledge Discovery in Database - KDD) aplicado à medicina, o qual permitiu a definição de aspectos teóricos deste método. O KDD é uma linha de pesquisa da
75

Correlação e visualização de alertas de segurança em redes de computadores

Ribeiro, Adriano Cesar [UNESP] 27 April 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:26:06Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-04-27. Added 1 bitstream(s) on 2015-09-17T15:46:09Z : No. of bitstreams: 1 000844040_20171231.pdf: 102042 bytes, checksum: 2f85634f2d37dd588c1520b4cad71259 (MD5) Bitstreams deleted on 2018-01-02T17:04:38Z: 000844040_20171231.pdf,. Added 1 bitstream(s) on 2018-01-02T17:05:42Z : No. of bitstreams: 1 000844040.pdf: 1321400 bytes, checksum: 217899678e8fc1ba39cc092067843827 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Os sistemas de detecção de intrusão fornecem informações valiosas em relação à segurança das redes de computadores. No entanto, devida à quantidade de ameaças inerentes aos sistemas computacionais, os registros dessas ameaças na forma de alertas podem constituir de grandes volumes de dados, muitas vezes bastante complexos para serem analisados em tempo hábil. Esta dissertação apresenta uma abordagem para correlacionar alertas de segurança. A metodologia tem como princípio a utilização de mineração de dados para a coleta de informações constituintes nos alertas providos pelos sistemas detectores de intrusão. Primeiramente, os alertas são classificados em tipos de ataques para que, na sequência, sejam clusterizados de forma a agrupar alertas com características semelhantes. Por fim, a correlação é realizada baseada na ocorrência dos alertas em cada cluster e, dessa forma, é obtida uma visão geral do cenário de ataque, utilizando de métodos de visualização de tais ocorrências maliciosas. / Intrusion detection systems provides valuable information regarding the security of computer networks. However, due to the amount of threats inherent in computer systems, records of these threats in the form of alerts can be large volumes of data, often quite complex to be analyzed in a timely manner. This paper presents an approach to correlate security alerts. The methodology is based on the use of data mining to the collection of constituent information in the alerts provided by intrusion detection systems. First, alerts are classified into types of attacks so that, later, are clustered in order to compose alerts with similar characteristics. Finally, the correlation is performed based on the occurrence of alerts in each cluster and thereby an overview of the attack scenario is obtained using visualization methods of such malicious events.
76

Modelagem simbólica de padrões morfológicos para classificação de séries temporais

Zalewski, Willian January 2015 (has links)
Orientador : Prof. Dr. Fabiano Silva / Tese (Doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 14/09/2015 / Inclui referências : f. 149-167 / Resumo: O contínuo armazenamento de dados ao longo do tempo, tais como séries temporais, tem motivado o desenvolvimento de novas abordagens baseadas em métodos de mineração de dados. Nesse cenário, uma nova área de pesquisa emergiu durante as últimas duas décadas, a mineração de dados em séries temporais. Mais especificamente, as abordagens baseadas em técnicas de aprendizado de máquina têm apresentado maior interesse entre os pesquisadores. Dentre as tarefas de mineração de dados, a classificação de séries temporais tem sido amplamente explorada, de modo que estudos recentes, utilizando algoritmos de aprendizado não simbólicos, têm reportado resultados significativos, em termos da acurácia de classificação. No entanto, em aplicações que envolvem processos de auxílio à tomada de decisão, tais como diagnóstico médico, controle de produção industrial, sistemas de monitoração de segurança em aeronaves ou usinas de energia elétrica, é necessário possibilitar o entendimento do raciocínio utilizado no processo de classificação. A primitiva shapelet foi proposta na literatura como um descritor de características morfológicas locais para possibilitar melhor compreensão dos conceitos, devido a sua maior proximidade com a percepção humana na identificação de padrões em séries temporais. Contudo, a maioria dos trabalhos relacionados ao estudo dessa primitiva tem se dedicado ao desenvolvimento de abordagens mais eficientes em termos de tempo e de acurácia, desconsiderando a necessidade da inteligibilidade dos classificadores. Nesse contexto, neste trabalho foi proposto um método que utiliza a transformada shapelet para a construção de modelos simbólicos de classificação por meio de uma abordagem híbrida que combina a representação de árvore de decisão com o algoritmo vizinho mais próximo. Também, foram desenvolvidas estratégias para melhorar a qualidade de representação da transformada shapelet na utilização de classificadores simbólicos, como árvores de decisão. Para avaliar o desempenho dessas propostas, foi conduzida uma avaliação experimental que envolveu a comparação com os algoritmos considerados estado da arte usando conjuntos de dados amplamente estudados na literatura de classificação de séries temporais. Com base nos resultados e análises realizadas nesta tese, foi possível verificar que a melhoria do processo de identificação de shapelets possibilita a construção de classificadores inteligíveis e competitivos; e que métodos híbridos podem contribuir para prover uma representação simbólica dos modelos, com desempenho equivalente ou até mesmo superior aos métodos não simbólicos. Palavras-chave: mineração de dados. aprendizado de máquina. séries temporais. classificação. modelos simbólicos. / Abstract: The large amount of stored data over time, such as time series, has motivated the development of new approaches based on data mining methods. In this context, a new research area has emerged over the last two decades, the time series data mining. In particular, the approaches based on machine learning techniques have shown large interest among researchers. Among the data mining tasks, the time series classification has been widely exploited. Recent studies using non-symbolic learning algorithms have reported significant results in terms of classification accuracy. However, in applications related to decision making process, such as medical diagnosis, industrial production control, security monitoring systems in aircraft and in power plants, it is necessary allow the understanding of the reasoning used in the classification process. To take this into account, the shapelet primitive has been proposed in the literature as a descriptor of local morphological characteristics, which is closer to human perception for patterns identification in time series. On the other hand, most of the existing work related to shapelets has been dedicated to the development of more effective approaches in terms of time and accuracy, disregarding the need for interpretability of the classifiers. In this work, we propose to build symbolic models for time series classification using the shapelet transformation. This method is based on a hybrid approach that merges the decision tree representation and the nearest neighbor algorithm. Also, we developed strategies to improve the representation quality of the shapelet transformation using feature selection algorithms. We performed an experimental evaluation to analyze the performance of our proposals in comparison to the algorithms considered state of the art using datasets widely studied in the literature of time series classification. Based on the results and analysis carried out in this thesis, we found that the improvement of shapelet representation allows the construction of interpretable and competitive classifiers. Moreover, we found that the hybrid methods can help to provide symbolic models with equivalent or even superior performance to non-symbolic methods. Keywords: data mining. machine learning. time series. classification. symbolic models.
77

Estimativa do volume e da forma do fuste utilizando técnicas de aprendizado de máquina

Schikowski, Ana Beatriz January 2016 (has links)
Orientadora : Profª. Drª. Ana Paula Dalla Corte / Coorientador : Prof. Dr. Carlos Roberto Sanquetta / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Agrárias, Programa de Pós-Graduação em Engenharia Florestal. Defesa: Curitiba, 11/03/2016 / Inclui referências : f. 59-71 / Área de concentração : Tecnologia e utilização de produtos florestais / Resumo: A acurácia e precisão na avaliação quantitativa de povoamentos para fins comerciais são fundamentais, especialmente a estimativa do volume individual. Nesse contexto, as equações de volume e funções de afilamento são importantes ferramentas para a estimativa do volume individual, ambos com métodos tradicionalmente aplicados e sólida teoria. Por outro lado, a inovação matemática é muito dinâmica, com diversos outros recursos disponíveis para o estudo de aproximação de função (regressão), métodos esses que ainda carecem de estudos de base, podendo potencialmente melhorar as estimativas no campo de modelagem florestal. Assim, o trabalho tem como objetivo principal analisar a acurácia de técnicas de aprendizado de máquina em relação a um modelo volumétrico e a uma função de afilamento, para a espécie Acacia mearnsii De Wild. Foram utilizados dados de cubagem Acacia mearnsii, variando de 1 a 10 anos. A base de dados foi dividida em 60% para ajuste e o restante para validação. Foram ajustadas equações com o modelo volumétrico de Schumacher e Hall e com a função de afilamento de Hradetzky, comparados com três algoritmos de aprendizado de máquina: k-vizinho mais próximo (k-NN), Random Forest (RF) e Redes Neurais Artificiais (RNA) para a estimativa do volume total e diâmetro referente à altura relativa. Os modelos foram ranqueados conforme estatísticas de erros, bem como observadas as distribuições destes. Para a estimativa do volume em função do dap e altura, a RNA e o modelo de Schumacher e Hall apresentaram melhores resultados no ranqueamento do que o k-NN e RF. Os métodos de aprendizado de máquina aplicados se mostraram mais acurados que o polinômio de Hradetzky para estimativas da forma da árvore, tais como o diâmetro ao longo do fuste e volume total. Os modelos de AM se mostraram adequados como alternativa na modelagem tradicionalmente aplicada na mensuração florestal, contudo a sua utilização deve ser cuidadosa devida a maior possibilidade de supertreinamento a base de ajuste. Palavras-chave: Modelagem. Inteligência Artificial. Mineração de dados. / Abstract: Accuracy and precision are essential topics when it comes to the quantitative evaluation of a forest stand with commercial purposes, especially in regards to the estimation of individual volume. In one hand, due to its solid theory, volume equations and taper functions are important tools for estimating individual volume. On the other hand, the mathematical breakthrough is dynamic, having several resources for the study of approximation functions (regression). However, these new methods still lack baseline studies and may potentially improve estimates in the forest modeling field. Under this circumstances, this study aims to analyze the accuracy of machine learning techniques in regards to a volumetric model and a taper function for the species Acacia mearnsii De Wild. Acacia mearnsii scaling data, from 1 to10 years, were used in order to achieve the objective of this work. The database was divided into 60% for adjustment and the remainder for validation. Equations were adjusted with the volume model of Schumacher and Hall and the taper function Hradetzky and were compared to three machine learning algorithms: nearest neighbor models (k-NN), Random Forest (RF) and Artificial Neural Networks (ANN) to estimate of the total volume and diameter concerning relative height. The models were ranked according to its statistics errors and distributions. ANN and Schumacher and Hall model showed better results in regards to the estimation of volume as a function of dbh and height. The applied machine learning methods were more accurate than Hradetzky polynomial to estimates of tree shape, such as the diameter along the stem and total volume. The machine learning models were satisfactory as an alternative to the traditional methods in forest measurement. However, due to its higher possibility of overtraining the adjustment basis, it should be carefully used. Keywords: Modelling. Artificial Intelligence. Data mining.t
78

Framework para prospecção de dados espaciais baseado em semântica apoiado por ontologias

Guimarães, Diogo Lemos [UNESP] 14 January 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:24:58Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-01-14. Added 1 bitstream(s) on 2015-09-17T15:46:54Z : No. of bitstreams: 1 000844461.pdf: 2343781 bytes, checksum: 8681cf73adb75087200b650dc39d2dba (MD5) / Com a popularização de dispositivos que permitem a obtenção de dados espaciais, como pontos geográficos, velocidade e direção, aumentou-se consideravelmente o interesse pela captura, armazenamento e interpretação desses dados. Com isto, cada vez mais, um número maior de aplicações demostram interesse nesse tipo de dado e necessitam de bases de dados próprias para armazenar as informações. Estas bases são conhecidas como bases de dados espaciais. Com o objetivo de obter informações relevantes destes dados, algoritmos de prospecção de dados espaciais foram desenvolvidos e vem avançando com o intuito de, por exemplo, melhorar a qualidade dos resultados obtidos. Todavia, os algoritmos atuais desconsideram que os pontos geográficos estão em determinadas regiões, que por si só, fornecem informações semânticas relevantes. Com o objetivo de aprimorar os resultados de algoritmos, o uso de ontologias permite adicionar semântica e expressar o conhecimento sobre um domínio específico. O trabalho desenvolvido apresenta uma abordagem que permite, por meio do uso de ontologia, estender algoritmos espaciais para utilizarem um novo atributo durante o processo de criação de agrupamentos, o coeficiente semântico do ponto. Através do framework desenvolvido é possível adaptar algoritmos para utilizarem essa abordagem possibilitando gerar resultados mais relevantes / With the popularity of devices it became possible to easily obtain spatial data, such as geographic points, speed and direction, and because of that it also increased considerably the interest in obtaining, storing and analyzing such data. Therefore, a larger number of applications demonstrate interest in this type of data requiring it's own databases for storing this kind of information. These bases are known as spatial databases. In order to obtain relevant information from these data, spatial data algorithms were developed and has been advancing in order to, for example, improve the quality of the results. However, current algorithms disregard that geographical points are in certain regions, which in itself, provide relevant semantic information. In order to improve the results of algorithms, the use of ontologies allows to express semantics and knowledge about a particular domain. This work presents an approach that allows, through the use of ontology, extend spatial algorithms to use a new attribute in the process of creating groups, the semantic coefficient point. Through the developed framework it is possible to adapted algorithms to use this approach enabling generate more relevant results
79

Detecção de outliers espaciais: refinamento de similaridade e desempenho

Kawabata, Thatiane [UNESP] 06 March 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:25:36Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-03-06. Added 1 bitstream(s) on 2015-09-17T15:48:34Z : No. of bitstreams: 1 000846509.pdf: 1580186 bytes, checksum: d89c082f46e712aad17c33f71c4143c3 (MD5) / O avanço e desenvolvimento de tecnologias utilizadas na coleta de informações georreferenciáveis proporcionou um aumento na quantidade de dados espaciais armazenados nas bases de dados. Isso também acarretou muitos problemas, comuns em grandes bases de dados, tais como: redundância de dados, dados incompletos, valores desconhecidos e outliers. Com o objetivo de obter informações relevantes dos dados espaciais, a aplicação de algoritmos de prospecção de dados espaciais, principalmente os algoritmos de agrupamentos espaciais, tornou-se uma prática bastante recorrente em todo cenário mundial. Por outro lado, muitos algoritmos atuais desconsideram a presença de outliers locais em dados espaciais, ou apenas consideram a sua localidade em relação aos demais dados da base, o que pode gerar resultados inconsistentes e dificultar a extração de conhecimento. Dessa forma, com o propósito de contribuir nesse sentido, o trabalho visa elaborar um levantamento de informações relacionadas a prospecção de dados espaciais, detecção de outliers convencionais e espaciais, assim como, apresentar os principais trabalhos no estado da arte. Por fim, propõe-se disponibilizar uma abordagem configurável e portável aos resultados dos algoritmos de agrupamento espaciais, na qual inclui-se uma melhoria em um algoritmo de detecção de outliers espaciais, que visa a prospecção de informações no conjunto de dados / The progress and development of technologies used to collect spatial information resulted in an increase in the amount of spatial data stored in databases. This also caused many problems, common in large databases, such as data redundancy, incomplete data, unknown values and outliers. Aiming to obtain relevant information from spatial data, the application of algorithms for exploration of spatial data, especially spatial clusters of algorithms, has become a fairly common practice across the world scene. Moreover, many current algorithms ignore the presence of local outliers in spatial data, or just consider your location in relation to other data in base, which can cause inconsistent results and complicate the extraction of knowledge. Thus, in order to contribute to this, the work aims to develop a survey of information related to exploration of spatial data, detection of conventional and spatial outliers, as well as, present the main work in state of the art. Finally, we propose to provide a portable and configurable algorithms to the results of spatial clustering approach, which includes an improvement on an algorithm to detect spatial outliers, aimed at prospecting for information in the dataset
80

Uma abordagem usando visualização de software como apoio à refatoração para aspectos

Delfim, Fernanda Madeiral [UNESP] 06 August 2013 (has links) (PDF)
Made available in DSpace on 2014-11-10T11:09:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-08-06Bitstream added on 2014-11-10T11:58:47Z : No. of bitstreams: 1 000786875.pdf: 3157101 bytes, checksum: 8d7cc7e4bd3ac445b9569b6dcfbdc90f (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A evolução de sistemas de software existentes para a tecnologia orientada a aspectos tem como primeiro passo a mineração de aspectos, que visa a identificar interesses transversais em código fonte, para serem encapsulados em aspectos. Diversas técnicas têm sido propostas para a mineração de aspectos, mas ainda com deficiências. Uma das causas dessas deficiências apontada na literatura é a apresentação inadequada dos resultados obtidos por tais técnicas. A Visualização de Software pode ser utilizada para analisar, interpretar e combinar resultados de técnicas de mineração de aspectos, sendo os resultados apresentados juntamente com características de programa. Neste trabalho é apresentada uma abordagem visual de múltiplas visões coordenadas com o propósito de prover um ambiente para a apresentação dos resultados gerados por técnicas de mineração de aspectos, para melhorar a compreensão do usuário ao analisá-los para futura refatoração para aspectos. As múltiplas visões coordenadas são utilizadas para permitir a análise: das associações baseadas em chamadas de métodos, em nível de classe e de método, permitindo a visualização da frequência de chamadas das unidades baseada na métrica fan-in; das dependências de controle e de dados entre instruções de programa; da estrutura de programa; de como conjuntos de instruções (fatias) são compostos em diversas classes; e do bytecode. O foco é investigar se a visualização contribui na compreensão de programas por meio dos resultados gerados usando as técnicas fatiamento de programa e análise de fan-in, propostas para minerar aspectos, de maneira complementar. Uma ferramenta de visualização de software, nomeada SoftV is4CA (Software Visualization for Code Analysis), foi desenvolvida para apoiar a abordagem visual proposta. O estudo preliminar mostrou que o modelo de coordenação proposto apoia a análise pela exploração de diferentes níveis de ... / The evolution of existing software systems to aspect-oriented technology has as first step the aspect mining, which aims to identify crosscutting concerns in source code to be encapsulated into aspects. Several techniques have been proposed for aspect mining, but still with shortcomings. One cause of these shortcomings pointed out in the literature is inadequate presentation of the results obtained by these techniques. Software Visualization can be used to analyze, interpret and combine results of aspect mining techniques, being the results presented with program characteristics. This work presents a visual approach of multiple coordinated views in order to provide an environment for the presentation of the results generated by aspect mining techniques, as well as to improve the understanding of the user to analyze them for future refactoring to aspects. The multiple coordinated views are used to allow the analysis: of associations based on method calls, at class and method levels, allowing visualization of the units call frequency based on fan-in metric; of the control and data dependencies between program instructions; of the program structure; of how instruction sets (slices) are composed in several classes; and of bytecode. The focus is to investigate whether visualization helps in program comprehension by the results generated using program slicing and fan-in analysis techniques, proposals for mining aspects in a complementary way. A software visualization tool, named SoftV is4CA (Software Visualization for Code Analysis), was developed to support the proposed visual approach. The preliminary study showed that the proposed coordination model supports the analysis by exploration of different levels of details

Page generated in 0.1138 seconds