• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 591
  • 18
  • 18
  • 13
  • 13
  • 12
  • 12
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 629
  • 629
  • 376
  • 373
  • 243
  • 110
  • 104
  • 104
  • 103
  • 102
  • 90
  • 89
  • 87
  • 81
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Uma abordagem usando visualização de software como apoio à refatoração para aspectos /

Delfim, Fernanda Madeiral. January 2013 (has links)
Orientador: Rogério Eduardo Garcia / Banca: Fabiano Cutigi Ferrari / Banca: Marcelo de Almeida Maia / Resumo: A evolução de sistemas de software existentes para a tecnologia orientada a aspectos tem como primeiro passo a mineração de aspectos, que visa a identificar interesses transversais em código fonte, para serem encapsulados em aspectos. Diversas técnicas têm sido propostas para a mineração de aspectos, mas ainda com deficiências. Uma das causas dessas deficiências apontada na literatura é a apresentação inadequada dos resultados obtidos por tais técnicas. A Visualização de Software pode ser utilizada para analisar, interpretar e combinar resultados de técnicas de mineração de aspectos, sendo os resultados apresentados juntamente com características de programa. Neste trabalho é apresentada uma abordagem visual de múltiplas visões coordenadas com o propósito de prover um ambiente para a apresentação dos resultados gerados por técnicas de mineração de aspectos, para melhorar a compreensão do usuário ao analisá-los para futura refatoração para aspectos. As múltiplas visões coordenadas são utilizadas para permitir a análise: das associações baseadas em chamadas de métodos, em nível de classe e de método, permitindo a visualização da frequência de chamadas das unidades baseada na métrica fan-in; das dependências de controle e de dados entre instruções de programa; da estrutura de programa; de como conjuntos de instruções (fatias) são compostos em diversas classes; e do bytecode. O foco é investigar se a visualização contribui na compreensão de programas por meio dos resultados gerados usando as técnicas fatiamento de programa e análise de fan-in, propostas para minerar aspectos, de maneira complementar. Uma ferramenta de visualização de software, nomeada SoftV is4CA (Software Visualization for Code Analysis), foi desenvolvida para apoiar a abordagem visual proposta. O estudo preliminar mostrou que o modelo de coordenação proposto apoia a análise pela exploração de diferentes níveis de ... / Abstract: The evolution of existing software systems to aspect-oriented technology has as first step the aspect mining, which aims to identify crosscutting concerns in source code to be encapsulated into aspects. Several techniques have been proposed for aspect mining, but still with shortcomings. One cause of these shortcomings pointed out in the literature is inadequate presentation of the results obtained by these techniques. Software Visualization can be used to analyze, interpret and combine results of aspect mining techniques, being the results presented with program characteristics. This work presents a visual approach of multiple coordinated views in order to provide an environment for the presentation of the results generated by aspect mining techniques, as well as to improve the understanding of the user to analyze them for future refactoring to aspects. The multiple coordinated views are used to allow the analysis: of associations based on method calls, at class and method levels, allowing visualization of the units call frequency based on fan-in metric; of the control and data dependencies between program instructions; of the program structure; of how instruction sets (slices) are composed in several classes; and of bytecode. The focus is to investigate whether visualization helps in program comprehension by the results generated using program slicing and fan-in analysis techniques, proposals for mining aspects in a complementary way. A software visualization tool, named SoftV is4CA (Software Visualization for Code Analysis), was developed to support the proposed visual approach. The preliminary study showed that the proposed coordination model supports the analysis by exploration of different levels of details / Mestre
242

Mineração multirrelacional de regras de associação em grandes bases de dados /

Oyama, Fernando Takeshi. January 2010 (has links)
Orientador: Carlos Roberto Valêncio / Banca: Cristina Dutra de Aguiar Ciferri / Banca: Rogéria Cristiane Gratão de Souza / Resumo: O crescente avanço e a disponibilidade de recursos computacionais viabilizam o armazenamento e a manipulação de grandes bases de dados. As técnicas típicas de mineração de dados possibilitam a extração de padrões desde que os dados estejam armazenados em uma única tabela. A mineração de dados multirrelacional, por sua vez, apresenta-se como uma abordagem mais recente que permite buscar padrões provenientes de múltiplas tabelas, sendo indicada para a aplicação em bases de dados relacionais. No entanto, os algoritmos multirrelacionais de mineração de regras de associação existentes tornam-se impossibilitados de efetuar a tarefa de mineração em grandes volumes de dados, uma vez que a quantia de memória exigida para a conclusão do processamento ultrapassa a quantidade disponível. O objetivo do presente trabalho consiste em apresentar um algoritmo multirrelacional de extração de regras de associação com o foco na aplicação em grandes bases de dados relacionais. Para isso, o algoritmo proposto, MR-RADIX, apresenta uma estrutura denominada Radix-tree que representa comprimidamente a base de dados em memória. Além disso, o algoritmo utiliza-se do conceito de particionamento para subdividir a base de dados, de modo que cada partição possa ser processada integralmente em memória. Os testes realizados demonstram que o algoritmo MR-RADIX proporciona um desempenho superior a outros algoritmos correlatos e, ainda, efetua com êxito, diferentemente dos demais, a mineração de regras de associação em grandes bases de dados. / Abstract: The increasing spread and availability of computing resources make feasible storage and handling of large databases. Traditional techniques of data mining allows the extraction of patterns provided that data is stored in a single table. The multi- relational data mining presents itself as a more recent approach that allows search patterns from multiple tables, indicated for use in relational databases. However, the existing multi-relational association rules mining algorithms become unable to make mining task in large data, since the amount of memory required for the completion of processing exceed the amount available. The goal of this work is to present a multi- relational algorithm for extracting association rules with focus application in large relational databases. For this the proposed algorithm MR-RADIX presents a structure called Radix-tree that represents compressly the database in memory. Moreover, the algorithm uses the concept of partitioning to subdivide the database, so that each partition can be processed entirely in memory. The tests show that the MR-RADIX algorithm provides better performance than other related algorithms, and also performs successfully, unlike others, the association rules mining in large databases. / Mestre
243

Utilização de modelos de classificação para mineração de dados relacionados à aprendizagem de matemática e ao perfil de professores do ensino fundamental / Application of classification models for mining of data related to mathematics learning and elementary school teachers profile

Stella Oggioni da Fonseca 20 February 2014 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão. / Classification models were applied in this work in order to mine data related to elementary school teachers profiles and students' mathematics learning. More specifically, teacher characteristics which in uence positively and negatively on the Mathematics tests performance of the students in the 9th grade of elementary education in Rio de Janeiro State were addressed. The data used to extract this information are provided by the National Institute of Studies and Educational Research Anisio Teixeira (INEP), which evaluates the Brazilian educational system at various levels and types of education, including Elementary Education. The Knowledge Discovery in Databases (KDD) process was applied comprising the steps of preparation, mining and post processing of data. The patterns were extracted from the classification models generated by decision tree, rule induction and Bayesian classifiers, whose algorithms are implemented in software Weka (Waikato Environment for Knowledge Analysis). In addition, group methods were used as well as a methodology for making uniformly distributed classes in order to improve the accuracy of the models obtained. The results showed important factors that contribute to the learning of mathematics and aspects that negatively compromise the performance of students. The extracted results can provide to educators and public policies makers the support for analysis and decision making.
244

Inteligência de processos de negócio: uma proposta de padronização entre as etapas de mineração de dados e visualização dos resultados

Garcia, Rafael Saraiva January 2007 (has links)
Made available in DSpace on 2013-08-07T18:43:35Z (GMT). No. of bitstreams: 1 000400741-Texto+Completo-0.pdf: 8197264 bytes, checksum: 06de0e14d6fe03643c75f2ccd841d590 (MD5) Previous issue date: 2007 / Several business processes may be automated using Workflow systems. Some of these processes are strategically important and require tools to allow managerial analyses and assist process managers in decision making. Thus, the application of knowledge discovery techniques regarding records of steps of business processes shows great promise. Yet, the computational environment adopted by KDD may be significantly complex, with steps executed independently such as seen in a service-oriented environment. This architecture poses a problem linked to the exchange of information between process steps, since each service may have been written in different languages and requires data to be allocated as a predefined format. In this case, if the format is exclusive, different applications may operate using the same data, adding an array of procedural options. In this sense, this paper addresses an approach to make independent two steps of the knowledge discovery process: data mining and visualization of results. With this aim, the solution proposed is built on the use of XML and XML Schema technologies for the definition of data output and input structures of algorithms for data mining and visualization techniques. Moreover, the use of XLST techniques contributes to the automation of the transformation of formats. The validation of the solution, which was developed over the pertinent theory, was carried out with experiments that used free code implementation. The main contribution of this paper lies in the generation of exclusive and generic formats for information exchange between the steps mentioned and their transformation. / Diversos processos de negócio das organizações podem ser automatizados com o auxílio de sistemas de Workflow. Alguns deles, estrategicamente importantes, necessitam de ferramentas que permitam análises gerenciais e auxiliem os gestores no processo de tomada de decisão. Neste contexto, a aplicação das técnicas de descoberta de conhecimento sobre os registros de execução das instâncias dos processos de negócio mostra-se uma prática promissora. No entanto, o ambiente computacional utilizado pelas aplicações de KDD pode ser significativamente complexo, tendo suas etapas executadas de forma independente como, por exemplo, em um ambiente orientado a serviços. Esta arquitetura possui um problema relacionado à troca de informações entre as etapas do processo, visto que cada serviço pode ter sido escrito em linguagens diferentes e necessitar que os dados estejam dispostos em um determinado formato. Neste caso, uma vez que este formato seja único, distintas aplicações podem trabalhar utilizando mesmos dados, agregando ao procedimento com diversidade de opções. Seguindo esta problemática, este trabalho versa sobre uma abordagem que visa tornar independentes duas etapas do processo de descoberta de conhecimento: a mineração de dados e a visualização dos resultados. Para isto, a solução proposta está baseada no uso das tecnologias de XML e XML Schema para a definição de estruturas para as saídas e entradas dos algoritmos de mineração e técnicas de visualização. Além disto, o uso de técnicas de XSLT contribui para que a transformação entre estes formatos possa ser realizada de modo automatizado. Para a validação da solução, criada com base teórica, foram realizadas alguns testes utilizando as implementações de código livre. A principal contribuição deste trabalho está na criação de formatos únicos e genéricos para a troca de informações entre as etapas citadas, bem como sua transformação.
245

Mineração de dados em sistema eficiente de iluminação pública incluindo parâmetros sócio-comportamentais

Lange, Luiz Carlos January 2007 (has links)
Made available in DSpace on 2013-08-07T18:52:54Z (GMT). No. of bitstreams: 1 000395839-Texto+Completo-0.pdf: 1413354 bytes, checksum: 434d075aab87b2e1155b9509585420e5 (MD5) Previous issue date: 2007 / The present paper proposes a model of Efficient Public Lighting System based on the Reluz Program of the Brazilian public lighting system. The program uses new technologies according to the ABNT regulation with the objective of increasing lighting efficiency with less power installation. The importance of this program is on the management of public lighting system with detailed records of existing points in the illumination area, power of installed street lamps and their fittings, which through a database offers information aiming at a technical and economical analysis. It presents considerations on the necessity of including social-behavioral information from IBGE, pointing out the importance of public illumination as a great accident prevention factor in the streets as well as an inhibitor to night illicit trade, crime, and prostitution. With a directory organized in three separate databases, it presents a study of the Data Mining technique in the Efficient Public Lighting System, using algorithm information for the finding of new patterns. The search for new patterns and relationship among the different variables of the data mining technical application is one of the purposes of the present study thus offering database knowledge through the development and implementation of specific algorithms that can support a decision-taking process when identifying, diagnosing and profiling a community. At the end, a new model of Public Illumination management, based on the knowledge gained on mining, was used with practical results that show effectiveness through power consumption reduction, meaningful improvement of the socialbehavioral indexes like urban violence reduction and better community satisfaction. / O presente trabalho propõe um modelo de Sistema de Iluminação Pública Eficiente baseando no Programa Reluz do sistema de iluminação pública brasileiro. Os meios apresentados pelo programa utilizam novas tecnologias de acordo com as normas da ABNT, que têm por objetivo aumentar a eficiência luminosa com a menor potência instalada. Ressalta-se a importância do programa de gestão no sistema de iluminação pública com o cadastramento detalhado dos pontos existentes no parque de iluminação, potência das lâmpadas instaladas, o tipo de luminárias em seus logradouros e, através de um banco de dados, o armazenamento destas informações visando uma análise técnica e econômica. São apresentadas considerações sobre a necessidade de inclusão de dados sócio-comportamental a partir de informações do IBGE, ressaltando-se a importância da iluminação pública como um grande fator preventivo de acidentes nas vias urbanas, bem como inibidor de ações por parte do comércio ilícito, da criminalidade e da prostituição, em horários noturnos. Com o diretório organizado com três bases de dados distintos, apresenta-se um estudo da técnica de Mineração de Dados no sistema Eficiente de Iluminação Pública, utilizando-se as informações dos algoritmos para a descoberta de novos padrões. A busca de novos padrões e relacionamento entre diferentes variáveis da aplicação técnica da mineração de dados é um dos propósitos deste estudo, viabilizando a descoberta do conhecimento em uma base de dados através do desenvolvimento e implementação de algoritmos específicos, que sirvam de suporte à tomada de decisão no processo de identificação, do diagnóstico e do perfil de uma comunidade. Ao final, um novo modelo de gestão de Iluminação Pública, agora baseado no conhecimento adquirido pela mineração, foi empregado, com resultados práticos que mostram efetiva eficiência pela redução de consumo e significativa melhora nos índices sócio-comportamentais, tais como, redução de violência urbana e maior grau de satisfação da comunidade.
246

Identificação de causas de desligamentos não programados em redes de distribuição

Tronchoni, Alex Bernsts January 2008 (has links)
Made available in DSpace on 2013-08-07T18:53:41Z (GMT). No. of bitstreams: 1 000403015-Texto+Completo-0.pdf: 1369362 bytes, checksum: 80f10cb0cad2240a06c6783c86c07472 (MD5) Previous issue date: 2008 / Forced outages are one of the most relevant elements of influence in the energy supply interruption and, thus, in the service quality. A correct identification of the causes that led to an outage become essential, once it provides a better way to allocate resources and investments to reduce problems in the electrical system, and, as a consequence, the improvement of reliability indices. To achieve this goal it is necessary to develop tools for the management, analysis and diagnostic of forced outage causes in the electric distribution system. This dissertation presents two methodologies to identify forced outage causes: a probabilistic model using Bayesian Networks, and an Artificial Neural Networks model. Initially, theoretical concepts and definitions required to understand Bayesian Networks and Artificial Neural Networks are presented, followed by a review on basic definitions of distribution system reliability and forced outage causes in the distribution system. After, are described training and validation steps of both forced outage cause identification methods. The knowledge base used for the network learning process was extracted from an event database provided by an electric utility. The knowledge discovery process comprised several stages, including one of data mining. This process turns the database into a more reliable and appropriate format, resulting in 8888 samples for construction, generation of the training and validation dataset of the proposed Bayesian Network and Neural Network models. Both heuristics were validated through the split-half method. The learning process of the Bayesian Network was done using the Expectation Maximization Algorithm, while for Neural Network was used Resilient back propagation learning algorithm, chosen specially because of its fast convergence and good performance. / Os desligamentos não programados são um dos fatores que mais contribuem para a interrupção do fornecimento de energia e, portanto, na qualidade do serviço prestado. Uma correta identificação das causas que originaram os desligamentos tornase cada vez mais indispensável para distribuir de forma mais eficaz os investimentos e recursos para a redução de problemas no sistema elétrico, trazendo como conseqüência direta destes investimentos a melhoria dos índices de confiabilidade. Dessa forma, torna-se necessário o desenvolvimento de ferramentas para gerenciamento, análise e diagnóstico de causas de eventos não programados que ocorrem nos sistema de distribuição das empresas. Nesta dissertação são apresentados dois métodos para identificação da causa de desligamentos não programados na rede de distribuição: um modelo probabilístico utilizando Redes Bayesianas e um modelo usando Redes Neurais Artificiais. Inicialmente é apresentada uma conceituação sobre aspectos teóricos fundamentais ao entendimento de Redes Bayesianas e Redes Neurais Artificiais, seguida de uma revisão sobre definições básicas acerca de confiabilidade e causas de desligamentos em sistemas de distribuição. Após, são descritas as etapas realizadas para treinamento e validação dos dois sistemas de identificação da causa de desligamentos não programados. A base de conhecimento utilizada para o aprendizado foi extraída de um banco de dados de eventos fornecido por uma concessionária de energia, cujo processo de extração de conhecimento consistiu em uma série de etapas, incluindo uma de mineração de dados. Esse processo tornou a base de dados mais confiável e adequada resultando em 8888 amostras para a construção, geração dos conjuntos de treinamento e validação dos modelos de Rede Bayesiana e de Rede Neural utilizados. Ambas heurísticas foram validadas através do método da prova bipartida (split-half method). O processo de aprendizagem da Rede Bayesiana foi realizado através do algoritmo de maximização da expectância (Expectation Maximization), enquanto que para a Rede Neural o algoritmo de treinamento escolhido foi o Resilient back propagation, devido as suas características de desempenho e velocidade de convergência.
247

Modelo de mineração de dados para classificação de clientes em telecomunicações

Petermann, Rafael Jordan January 2006 (has links)
Made available in DSpace on 2013-08-07T18:53:46Z (GMT). No. of bitstreams: 1 000388093-Texto+Completo-0.pdf: 2571421 bytes, checksum: 24dba4cbf5ab13c6a005e3d642b95d63 (MD5) Previous issue date: 2006 / The aim of this work is to develop a complete data mining model in a telecommunication company, focusing on client/user of the STFC (Commuted Fixed Telephone Service). Currently, the management of the database containing client information is an essential point in the success of telecommunication companies in the country. With the raise of new communication technologies and with the easy access to broadband and mobile services, there is an increasing number of clients canceling the STFC service. This forces the STFC companies to keep a consistent service process aiming to use well their physical installations and to keep the income. With the development of a data mining model, we generated a system aiming to predict events and to classify clients. The predicted event is called chum (service cancellation) and it is based on classificatory algorithms applied to a real database, containing records such as general information, client relationship and billing. The development of the data mining model was constituted of the following: problem analysis (chum), evaluation and understanding of the data, pre-processing and classification. We studied and used the following three classification algorithms methods for the prediction: Neural Networks RFB (Radial Basis Function), Decision Trees and Bayesian Classifiers. The results obtained validate the model developed by us, allowing the use and improvement in the telecommunication companies. The model can also be used as a generic data mining model, with possible applications in diverse fields related to keeping clients loyalty. / O objetivo desta dissertação é desenvolver um modelo completo de mineração de dados no ambiente de uma operação de telecomunicações, com foco na retenção de clientes usuários do STFC ( Serviço Telefônico Fixo Comutado). Atualmente, a manutenção da base de clientes é ponto crucial para a atuação das operadoras de telecomunicações no país. Com o surgimento de novas tecnologias de comunicação e com a popularização de acessos de banda larga e do SMP (Serviço Móvel Pessoal), as taxas de cancelamentos dos acessos de STFC exigem das operadoras que oferecem o serviço um processo consistente visando à retenção de sua planta física instalada e da receita gerada. Através da construção de um modelo de mineração de dados, formou-se um sistema visando à predição de eventos e a classificação de clientes. O evento a ser previsto é o churn (cancelamento do serviço), com base na utilização de algoritmos classificadores aplicados sobre uma base de dados real, contendo informações cadastrais, de relacionamento com o fornecedor, de consumo e faturamento. A formação do modelo de mineração de dados envolveu as etapas de análise do problema (churn), avaliação e entendimento dos dados, pré-processamento e classificação. Como algoritmos classificadores (utilizados na predição), foram estudados e utilizados três métodos: redes Neurais RBF ( Radial Basis Function), Árvores de Decisão e Classificadores Bayesianos. Os resultados obtidos validam o modelo desenvolvido, permitindo a sua utilização e aperfeiçoamento no ambiente de uma operadora de telecomunicações ou ainda como um modelo genérico de mineração de dados, passível de aplicação em diferentes segmentos envolvendo o problema da retenção e fidelização de clientes.
248

Mineração de textos aplicada na previsão e detecção de eventos adversos no Hospital de Clínicas de Porto Alegre

Silva, Daniel Antonio da January 2017 (has links)
Este trabalho apresenta os resultados de uma pesquisa que teve como objetivo avaliar o desempenho de métodos de mineração de textos na previsão e detecção de Eventos Adversos (EA). A primeira etapa foi a revisão sistemática da literatura que buscou identificar os métodos de mineração de textos e as áreas da saúde que esses estão sendo aplicados para prever e detectar EA. Após essa etapa foi realizada uma aplicação de métodos de mineração de textos para prever Infecções do Sítio Cirúrgico (ISC) a partir do texto livre de descrições cirúrgicas no Hospital de Clínicas de Porto Alegre (HCPA). Por fim, métodos de mineração de textos foram aplicados para detectar ISC a partir do texto das evoluções de pacientes 30 (trinta) dias após uma cirurgia. Como resultados, destaca-se a identificação dos melhores métodos de pré-processamento e mineração de textos para prever e detectar ISC no HCPA, podendo ser aplicados a outros EA. O método Stochastic Gradient Descent (SGD) apresentou o melhor desempenho, 79,7% de ROC-AUC na previsão de EA. Já para detecção de EA o melhor método foi o Logistic Regression, com desempenho 80,6% de ROC-AUC. Os métodos de mineração de textos podem ser usados para apoiar de maneira eficaz a previsão e detecção de EA, direcionando ações de vigilância para a melhoria da segurança do paciente. / This work presents the results of a research that aimed to evaluate the performance of text mining methods in the prediction and detection of Adverse Events (AE). The first step was the systematic review of the literature that sought to identify the methods of text mining and the health areas they are being applied to predict and detect AE. After this step, an application of text mining methods was performed to predict Surgical Site Infections (SSI) from the free text of medical records at Hospital de Clínicas de Porto Alegre (HCPA). Finally, text mining methods were applied to detect SSI from the text of medical records 30 (thirty) days after surgery. As results, is highlight the identification of the best methods of pre-processing and text mining to predict and detect SSI in the HCPA, and can be applied to other AE. The Stochastic Gradient Descent (SGD) presented the best performance, 79.7% of ROC-AUC in the prediction of AE. Already for the detection of AE the best method was the Logistic Regression, with performance 80.6% of ROC-AUC. Text mining methods can be used to effectively support the prediction and detection of AE by directing surveillance actions to improve patient safety.
249

Regras de associação para análise de casos de dengue em municípios paraibanos

Medeiros Filho, Fernando 03 July 2017 (has links)
Submitted by Jean Medeiros (jeanletras@uepb.edu.br) on 2017-07-26T14:29:32Z No. of bitstreams: 1 PDF - Fernando Medeiros Filho.pdf: 33120095 bytes, checksum: db172d5d9db843bf28b9d566bd372433 (MD5) / Approved for entry into archive by Secta BC (secta.csu.bc@uepb.edu.br) on 2017-08-29T15:31:18Z (GMT) No. of bitstreams: 1 PDF - Fernando Medeiros Filho.pdf: 33120095 bytes, checksum: db172d5d9db843bf28b9d566bd372433 (MD5) / Made available in DSpace on 2017-08-29T15:31:18Z (GMT). No. of bitstreams: 1 PDF - Fernando Medeiros Filho.pdf: 33120095 bytes, checksum: db172d5d9db843bf28b9d566bd372433 (MD5) Previous issue date: 2017-07-03 / The objective of this work is to apply the techniques of Data Mining in the information contained in epidemiological bulletins of the portal of the Ministry of Health that concern the information of Dengue of 18 municipalities of the State of Paraíba. Through this volume of data association rules were applied through analyzes with the APRIORI algorithm. The techniques were used through the free software WEKA and the algorithm implemented by it to generate association rules. Throughout the process the visualization, recognition and organization of the patterns discovered through maps were made, finding relationships among the thirteen analyzes that were carried out at the time of work. They involved the 52 epidemiological weeks and from that found rules that are applicable to programs to combat Dengue. The identified patterns were part of the great proposal of this dissertation - To direct the actions to combat Dengue in the analyzed municipalities. Leading to conclude that actions involving Sanitary and Environmental Surveillance of the municipalities in question can perform better if the actions are internalized, segmented and adapted to the reality found. / O objetivo deste trabalho é aplicar as técnicas de Mineração de Dados nas informações contidas nos boletins epidemiológicos do portal do Ministério da Saúde que dizem respeito às informações de Dengue de 18 municípios do Estado da Paraíba. Através desse volume de dados foram aplicadas regras de associação por meio de análises com o algoritmo APRIORI. As técnicas foram usadas através do software livre WEKA e o algoritmo por ele implementado para gerar as regras de associação. Ao longo do processo foi feita a visualização, o reconhecimento e a organização dos padrões descobertos através de mapas, encontrando relações entre as treze análises que foram realizadas ao logo do trabalho. Elas envolveram as 52 semanas epidemiológicas e a partir disso encontradas regras que são aplicáveis aos programas de combate a Dengue. Os padrões identificados fizeram parte da grande proposta dessa dissertação - Direcionar as ações de combate à Dengue nos municípios analisados. Levando a concluir que ações que envolvem a Vigilância Sanitária e Ambiental dos municípios em questão podem ter um melhor desempenho se as ações forem interiorizadas, segmentadas e adaptadas para a realidade encontrada.
250

Investigação de técnicas de classificação hierárquica para problemas de bioinformática / Investigation of hierarchial classification techniques for bioinformatics problems

Eduardo de Paula Costa 25 March 2008 (has links)
Em Aprendizado de Máquina e Mineração de Dados, muitos dos trabalhos de classificação reportados na literatura envolvem classificação plana (flat classification), em que cada exemplo é associado a uma dentre um conjunto finito (e normalmente pequeno) de classes, todas em um mesmo nível. Entretanto, existem problemas de classificação mais complexos em que as classes a serem preditas podem ser dispostas em uma estrutura hierárquica. Para esses problemas, a utilização de técnicas e conceitos de classificação hierárquica tem se mostrado útil. Uma das linhas de pesquisa com grande potencial para a utilização de tais técnicas é a Bioinformática. Dessa forma, esta dissertação apresenta um estudo envolvendo técnicas de classificação hierárquica aplicadas à predição de classes funcionais de proteínas. No total foram investigados doze algoritmos hierárquicos diferentes, sendo onze deles representantes da abordagem Top-Down, que foi o enfoque da investigação realizada. O outro algoritmo investigado foi o HC4.5, um algoritmo baseado na abordagem Big- Bang. Parte dos algoritmos estudados foram desenvolvidos com base em uma variação da abordagem Top-Down, denominada de Top-Down Ensemble, que foi proposta neste estudo. Alguns do algoritmos baseados nessa nova abordagem apresentaram resultados promissores, superando os resultados dos demais algoritmos. Para avaliação dos resultados, foi utilizada uma medida específica para problemas hierárquicos, denominada taxa de acerto dependente da profundidade. Além dessa, outras três medidas de avaliação foram utilizadas, de modo a comparar os resultados reportados por diferentes medidas / In Machine Learning and Data Mining, most of the research in classification reported in the literature involve flat classification, where each example is assigned to one class out of a finite (and usually small) set of flat classes. Nevertheless, there are more complex classification problems in which the classes to be predicted can be disposed in a hierarchy. In this context, the use of hierarchical classification techniques and concepts have been shown to be useful. One research with great potential is the application of hierarchical classification techniques to Bioinformatics problems. Therefore, this MSc thesis presents a study involving hierarchical classification techniques applied to the prediction of functional classes of proteins. Twelve different algorithms were investigated - eleven of them based on the Top-Down approach, which was the focus of this study. The other investigated algorithm was HC4.5, an algorithm based on the Big-Bang approach. Part of these algorithms are based on a variation of the Top-Down approach, named Top-Down Ensembles, proposed in this study. Some of the algorithms based on this new approach presented promising results, which were better than the results presented by other algorithms. A specific evaluation measure for hierarchical classification, named depth-dependent accuracy, was used to evaluate the classification models. Besides, other three evaluation measures were used in order to compare the results reported by them

Page generated in 0.0546 seconds