• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 591
  • 18
  • 18
  • 13
  • 13
  • 12
  • 12
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 629
  • 629
  • 376
  • 373
  • 243
  • 110
  • 104
  • 104
  • 103
  • 102
  • 90
  • 89
  • 87
  • 81
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Mineração de dados em triagem neonatal de hemoglobinopatias /

Melo, Luciane Moreno Storti de. January 2006 (has links)
Orientador: Claudia Regina Bonini Domingos / Banca: Paulo Peitl Júnior / Banca: Carlos Roberto Valêncio / Resumo: Nos anos de 1997 a 2002 foi desenvolvido um programa de triagem de hemoglobinopatias pelo Laboratório de Hemoglobinas e Genética das Doenças Hematológicas - LHGDH, UNESP, com 5976 neonatos nascidos no Hospital de Base de São José do Rio Preto. O montante de dados gerados em todas as fases dos seis anos de programa constitui uma fonte de informações, que armazenadas em banco de dados, permitem a análise por métodos computacionais na tentativa de estabelecer comportamentos, tendências e padrões, objetivando dessa forma, contribuir com a Triagem Neonatal no país, fornecendo bases para agilizar os diagnósticos e torná-los cada vez mais precisos. Após desenvolvimento de uma Base de Dados Eletrônica e inserção dos resultados da triagem de hemoglobinopatias objetivou-se: avaliar por meio de ferramenta data mining- CLIBIA as metodologias utilizadas, testar a aplicabilidade do banco de dados e analisar os dados quantitativos de hemoglobinas obtidos por HPLC nos diferentes fenótipos, em sistema de visualização 3D - Fas MapDB. A utilização de um banco de dados em laboratórios com grande fluxo de amostras mostrou-se imprescindível para a segurança, confiabilidade e agilidade das análises e ferramentas que promovem a mineração dos dados, como a CLIBIA, revelaram a necessidade de reavaliar as metodologias de rotina utilizadas no diagnóstico de hemoglobinopatias em neonatos. As visualizações tridimensionais revelaram a existência de dois padrões de distribuição das amostras com Hb normais, devido a amplitude de variação nos valores obtidos por HPLC para o pico de "F1". Permitiu a separação das amostras com Hb normais e com alfa talassemia, ressaltando as diferenças estatísticas nos valores percentuais médios dos picos de "Fast" e "A", reforçando a necessidade de melhor avaliação dos cromatogramas obtidos e a possibilidade de aplicação dessa metodologia como parte do diagnóstico de alfa talassemia em neonatos. / Abstract: Since 1997 until 2002, a neonatal screening program of hemoglobinopatias were carried out in the Hemoglobin and Hematologic Genetic Diseases Laboratory - LHGDH, UNESP, with 5976 newborns from Hospital de Base de São José do Rio Preto. The amount of data obtained during six years of program constitutes a source of information, that stored in data base, allows the analysis for computational methods in the attempt to establish behaviors, trends and standards, aiming to contribute with the Neonatal screening in the country and supplied bases to better diagnostic and to become them each time more exact. After an Electronic Database were development and the screening results were inserted was aimed: to evaluate by data mining tool - CLIBIA the methodologies used, test the applicability of a hemoglobinopathies database and to analyze the quantitative hemoglobins data obtained by HPLC in the different phenotypes, in 3D visualization system - FastMapDB, for to analyze the phenotypes behavior. The use of a database in laboratories with great sample routine were essential for the security, trustworthiness and agility of the analyses and tools that promote the datamining, as the CLIBIA, had disclosed the necessity to reevaluate the methodologies used in hemoglobinopathies diagnosis routine in newborns. The three-dimensional visualizations carried out by the FastMapDB tool showed the existence of two distribution standards in the samples with normal Hb, due to the variation amplitude into the values obtained by HPLC for the "F1" window. It allowed separating the samples with normal Hb from alpha thalassemia, evidencing the statistical differences in the mean values of the "Fast" and "A” window, emphasizing the necessity of better chromatograms evaluation and the possibility of this methodology application as part of alpha thalassemia diagnosis in newborns. / Mestre
42

RSAPP, um algoritmo baseado em rough sets para auxílio ao processo de descoberta de conhecimento em banco de dados

Silveira, Juliano Gomes da January 2013 (has links)
Made available in DSpace on 2013-11-12T11:38:27Z (GMT). No. of bitstreams: 1 000451416-Texto+Completo-0.pdf: 14725586 bytes, checksum: 00990626e7c5d4d2d585832062bda2f3 (MD5) Previous issue date: 2013 / Techniques of Business Intelligence (BI) became one of the main allies of organizations in tasks of transforming data into knowledge, supporting the middle and upper management levels in decision making. BI tools in their composition are based on techniques of knowledge management, such as Data Warehouse (DW), OLAP (Online Analytical Processing), Data Mining (DM), among others. In this context, it is observed that in many case, DM projects become unfeasible by some factors, such as project costs, duration and specially the uncertainty in obtaining results that return the investment spent on the project. This work seeks to minimize these factors through a diagnosis on data, by an algorithm based on Rough Sets Theory. The algorithm, named Rough Set App (RSAPP) aims to create a diagnosis on data persisted in DW, in order to map which attributes have the greatest potential for generating more accurate mining models and more interesting results. Thus, it is expected that the diagnosis generated by RSAPP can complement the KDD (Knowledge Discovery in Database) process, reducing the time spent on activities of understanding and reducing data dimensionality. This work presents a detailed description about the implemented algorithm, as well as the report of the executed tests. At the end there is an empirical analysis of the results, in order to estimate the effectiveness of the proposed algorithm. / As técnicas, business intelligence (BI) firmaram-se como grandes aliadas das organizações nas tarefas de transformar dados em conhecimento, apoiando a média e alta gestão na tomada de decisões. As ferramentas de BI em sua, composição são fundadas em técnicas de gestão do conhecimento, tais como Data Warehouse (DW), OLAP (Online Analytical Processing), minaração de dados (MD), entre outras. Neste contexto, observa-se que em muitos casos, projatos de MD acabam sendo inviabilizados por alguns fatores, tais como, custo do projeto, duração e principalmente, a incerteza na obtenção de resultados que retornem o investimento despedindo no projeto. O presente trabalho busca minimizar os fatores acima por meio um diagnóstico sobre dados, através de um algoritmo baseado em Rough Sets Theory (Teoria dos Conjuntos Aproximados (TCA)). O algoritmo desenvolvido, nomeado Rough Set App (RSAPP) objetiva criar um diagnóstico sobre os dados persistidos no DW, a fim de mapear quais atributos possuem maior potencial de gerar modelos de mineração mais preciosos e resultados mais interessantes. Desta forma, entende-se que o diagnóstico gerado por RSAPP pode complementar o processo de KDD (Knowledge Discovery in database), reduzindo o tempo gasto nas atividades de entendimento e redução da dimensionalidade dos dados. No trabalho se faz uma descrição detalhada acerca do algoritmo implementado, bem como o relato dos, testes que foram executados. Ao final faz-se uma análise empírica sobre os resultados a fim de estimar a eficácia do algoritmo quanto a sua proposta.
43

Método para apoio à construção de strings de busca em revisões sistemáticas por meio de mineração visual de texto

Mergel, Germano Duarte January 2014 (has links)
Made available in DSpace on 2015-04-30T14:04:04Z (GMT). No. of bitstreams: 1 000467244-Texto+Completo-0.pdf: 1839473 bytes, checksum: addcf180682b243c0834e784f67d8774 (MD5) Previous issue date: 2014 / Despite the increased popularity of the adoption of Systematic Literature Reviews in Software Engineering, many researchers still indicate it as a costly and challenging process. Studies report problems in different activities throughout the review process, as in the construction of the Systematic Review search string and selection of primary studies. Aiming to promote aid to its realization, tools based on methods and techniques from the Visual Text Mining area are presented in published studies, proposing assistance in various tasks of a Systematic Literature Review. However, it’s perceived a lack of methods proposing to aid a researcher with the construction of the Systematic Review search string, on its planning phase. In this context, this paper proposes an iterative method to assist the process of building the search string for a Systematic Review. Using Visual Text Mining techniques, it supports the researcher by suggesting terms for the search string. Relevant terms are extracted from studies selected by the researcher and shown in a visualization that facilitates the decision of the researcher to update the search string and include them, building and refining the search string that will be used in the Systematic Review. A tool that implements the proposed method has been developed, allowing the execution of tests with researchers and an analysis of the feasibility of this proposal. Interviews with researchers identified the difficulties in performing Systematic Reviews and captured their opinions regarding the use of the proposed method, discussing its adoption. / Apesar do aumento na popularidade da aplicação de Revisões Sistemáticas da Literatura na Engenharia de Software, muitos pesquisadores ainda a apontam como um processo custoso e desafiador. Estudos levantados reportam problemas em diferentes atividades ao longo de seu processo, como na construção da string de busca da Revisão Sistemática e na seleção dos estudos primários. Visando promover um auxílio à sua realização, métodos e ferramentas baseados em técnicas da área de Mineração Visual de Texto são propostas em estudos publicados da área, atuando em diversas etapas de uma Revisão Sistemática da Literatura. É percebida, porém, a ausência de métodos que auxiliem um pesquisador na construção da string de busca de sua Revisão Sistemática, na fase de planejamento da mesma. Neste contexto, o presente trabalho visa qualificar o processo de construção da string de busca de uma Revisão Sistemática, propondo um método iterativo que, aplicando técnicas da Mineração Visual de Texto, apoia o pesquisador através da sugestão de termos relevantes de estudos selecionados. Os termos mais relevantes são extraídos de estudos selecionados e visualizados de forma a facilitar a decisão do pesquisador em incluí-los na string de busca utilizada, construindo e refinando a string de busca que será usada na Revisão Sistemática. Uma ferramenta que implementa o método proposto foi desenvolvida, permitindo que testes com estes mesmos pesquisadores fossem realizados, e que uma análise sobre a viabilidade desta proposta fosse feita. Entrevistas realizadas com pesquisadores identificaram as dificuldades enfrentadas na realização de Revisões Sistemáticas e captaram suas opiniões a respeito da utilização do método proposto como solução.
44

Mineração de dados aplicada à construção de bases de hash em computação forense / Data mining applied to hashsets construction in computer forensics

Ruback, Marcelo Caldeira 11 December 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2011. / Submitted by Jaqueline Ferreira de Souza (jaquefs.braz@gmail.com) on 2012-06-27T14:13:15Z No. of bitstreams: 1 2011_MarceloCaldeiraRuback.pdf: 7076665 bytes, checksum: 3fc94510de918eb4cb5fed8dd6985746 (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-06-27T14:13:27Z (GMT) No. of bitstreams: 1 2011_MarceloCaldeiraRuback.pdf: 7076665 bytes, checksum: 3fc94510de918eb4cb5fed8dd6985746 (MD5) / Made available in DSpace on 2012-06-27T14:13:27Z (GMT). No. of bitstreams: 1 2011_MarceloCaldeiraRuback.pdf: 7076665 bytes, checksum: 3fc94510de918eb4cb5fed8dd6985746 (MD5) / A grande quantidade de dados a serem processados e analisados por peritos em informática é um desafio crescente enfrentado pela comunidade de Computação Forense. O uso de conjuntos de hashes de arquivos conhecidos para identificar e filtrar arquivos irrelevantes é um procedimento amplamente utilizado, mas não é tão eficaz quanto poderia ser, especialmente em países cujo idioma não seja o inglês. Este trabalho propõe o uso de técnicas de mineração de dados com algoritmos de classificação baseados em árvores de decisão para encontrar novos arquivos irrelevantes para a análise forense a partir de uma amostra de computadores de uma dada região ou país. Os hashes dos arquivos identificados podem ser mesclados com um subconjunto selecionado de hashes que sejam realmente efetivos, escolhido a partir de bases de hashes convencionais. Os experimentos foram conduzidos para avaliar o desempenho de filtragem da solução proposta, usando amostras de evidências extraídas de casos reais. Esses experimentos demonstraram que a abordagem proposta obteve resultados de filtragem entre 15% e 30% melhores do que a base de hash convencional utilizada, mesmo contendo um número reduzido de valores de hash. Este trabalho lança luz sobre uma técnica forense comumente utilizada, mas que tem sido relegada ao uso de bases de dados em constante crescimento composto apenas de hashes de arquivos conhecidos cuja origem seja rigidamente rastreável. A adoção de novas soluções para lidar com bancos de dados de hash em Computação Forense é uma boa oportunidade para introduzir técnicas inteligentes para melhorar a forma como conjuntos de hashes são criados, mantidos e utilizados. _________________________________________________________________________________ ABSTRACT / The large amount of data to be processed and analyzed by forensic experts is a growing challenge faced by the computer forensics community. The use of hashsets of known files to identify and filter irrelevant files is a commonly used technique, but it is not as effective as it could be, especially in non-English speaking countries. This work proposes the use of data mining techniques with decision tree learning algorithms to find new irrelevant files to the forensic analysis from a sample of computers from a given region or country. The resulting files can be merged with an optimized subset of really effectively used hashsets, which are chosen from conventional hash databases. Experiments were conducted to evaluate the filtering performance of the proposed solution, using samples from real evidence. The experimental results demonstrate that our approach obtained between 15% to 30% better filtering results than the conventional hashset database used as benchmark, even with a reduced number of hash values. This work sheds light on a commonly used forensics technique, which has relied on the use of ever-growing databases composed only of hashes from rigidly traceable known files. The adoption of new solutions to deal with hash databases in computer forensics is a good opportunity to introduce intelligent techniques to improve the way hashsets are created, maintained and used.
45

Metodologia para recomendação de consultores ad-hoc baseada na extração de perfis do currículo Lattes

Bastos, Weliton Moreira 28 July 2009 (has links)
Dissertação (mestrado)–Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2009. / Submitted by Liliane Simões (miix007@gmail.com) on 2013-04-12T12:04:15Z No. of bitstreams: 1 2009_WelitonMoreiraBastos.pdf: 1272234 bytes, checksum: 59ad04f86952c0869c72167bbd8e6f11 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-04-15T14:54:58Z (GMT) No. of bitstreams: 1 2009_WelitonMoreiraBastos.pdf: 1272234 bytes, checksum: 59ad04f86952c0869c72167bbd8e6f11 (MD5) / Made available in DSpace on 2013-04-15T14:54:58Z (GMT). No. of bitstreams: 1 2009_WelitonMoreiraBastos.pdf: 1272234 bytes, checksum: 59ad04f86952c0869c72167bbd8e6f11 (MD5) / Segundo Han e Caryps (2005), recomendação é uma técnica de filtragem personalizada cujo objetivo é predizer se um usuário vai gostar de um determinado item,ou qual o conjunto de itens são mais relevantes e úteis para um grupo de usuários.A sobrecarga de informações imposta pela Internet e a necessidade de determinar com rapidez e eficiência o que é relevante e útil para os usuários têm feito com que técnicas de recomendação sejam amplamente utilizadas em sistemas baseados na Web.Técnicas de recomendação estão presentes em muitas situações que como comércio eletrônico, sítios de relacionamento e bibliotecas digitais. A seleção e recrutamento de recursos humanos com base no perfil dos profissionais, é uma área de aplicação que atende às características de sistemas de recomendação, pois consiste em identificar quais os profissionais cujos perfis são mais adequados à execução de um conjunto de tarefas.Um caso particular de seleção de recursos humanos é a indicação de consultores para avaliação de projetos. Nesse caso, deve-se identificar quais os profissionais com qualificações mais adequadas para avaliação dos projetos com base na similaridade entre os perfis dos consultores e dos projetos. Sistemas de recomendação de consultores devem levar em conta os perfis do consultores,do proponentes e do projetos a serem avaliados, além de possuir mecanismos para detectar e minimizar possíveis conflitos de interesses que tornariam as avaliações suspeitas.Este trabalho propõe uma metodologia para recomendação de consultores para avaliação de projetos no âmbito do Conselho Nacional de Desenvolvimento Científico e Tecnológico - CNPq, aplicando estratégias de filtragem baseada em conteúdo. Esta metodologia utiliza o modelo de espaço vetorial (VSM - vector space model)para determinar o grau de semelhança entre os perfis dos consultores e proponen tese entre os perfis dos consultores e projetos. _________________________________________________________________________________ ABSTRACT / According to Han and Caryps (2005), recommendation is a customized filtering technique whose goal is predict whether a user will like a particular item, or what set of items are most relevant and useful to a group of users. The overload of information imposed by the Internet and the need to determine quickly and efficiently what is relevant and useful to the users have done with that recommendation technique sare been widely used in systems based on Web. Recommendation techniques are presents in many situations such as electronic commerce, social networking websites and digital libraries. The selection and recruitment of human resources based on the profiles of professionals, is one application area that meets the requirements of recommendation systems, since it consists in identifying the professionals whose profiles are most suitable for the implementation of a set of tasks. A particular case of selection of human resources is an indication of consultants for evaluation of projects. In this case, must identify practitioners with skills more appropriate for evaluating projects based on the similarity between the profiles of consultants and projects. Recommendation systems of consultants should consider the consultants’ profiles, the proponents’ profiles and projects’ profiles to be evaluated, and have mechanisms to detect and minimize possible conflicts of interest that would make the evaluations suspicions. This paper proposes a methodology for the recommendation of consultants for project evaluation under the National Council for Scientific and Technological Development- CNPq, applying strategies based filtering content. This methodology uses the vector space model (VSM - vector space model) to determine the degree of similarity between the profiles of consultants and bidders and between the profiles of consultants and projects.
46

Agentes de Mineração e sua Aplicação no Domínio de Auditoria Governamental

Silva, Carlos Vinícius Sarmento 11 March 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2011. / Submitted by Gabriela Ribeiro (gaby_ribeiro87@hotmail.com) on 2011-06-22T20:32:22Z No. of bitstreams: 1 2011_CarlosViníciusSarmentoSilva.pdf: 3795960 bytes, checksum: 63d12d2765cdb654dc26657b9ec5bfd3 (MD5) / Approved for entry into archive by Guilherme Lourenço Machado(gui.admin@gmail.com) on 2011-06-28T13:01:49Z (GMT) No. of bitstreams: 1 2011_CarlosViníciusSarmentoSilva.pdf: 3795960 bytes, checksum: 63d12d2765cdb654dc26657b9ec5bfd3 (MD5) / Made available in DSpace on 2011-06-28T13:01:49Z (GMT). No. of bitstreams: 1 2011_CarlosViníciusSarmentoSilva.pdf: 3795960 bytes, checksum: 63d12d2765cdb654dc26657b9ec5bfd3 (MD5) / O trabalho de auditoria governamental tem sido realizado no âmbito do Poder Executivo Federal pela Controladoria-Geral da União. Várias estratégias são utilizadas visando a prevenção e o combate à corrupção. No entanto, algumas atividades tais como detecção de cartéis em licitações são limitadas devido à complexidade de se correlacionar informa ções para geração de conhecimento útil para os auditores através da análise de bases de dados. A área de Mineração de Dados tem sido alvo de várias pesquisas tendo bons resultados no processo de descoberta de conhecimento em grandes bases de dados onde várias técnicas já foram de_nidas nesta área tais como classi_cação, clusterização e regras de associação. Sistema Multiagentes por sua vez, apresenta consideráveis vantagens no sentido de possibilitar a distribuição do processamento e fazer uso de autonomia de agentes de softwares para realização de tarefas complexas. Essas duas áreas de estudo, até recentemente separadas, são integradas neste trabalho através de AGent Mining Integration (AGMI), uma arquitetura que integra diferentes técnicas de mineração de dados utilizando uma abordagem multiagentes para automatização do processo de descoberta de conhecimento. AGMI é composta por agentes que operam em três diferentes camadas: estratégica, tática e operacional. Através da autonomia de agentes, AGMI é capaz de integrar técnicas de mineração de dados de forma distribuída e utilizar heurísticas para melhoramento do conhecimento encontrado. Neste trabalho é apresentado um protótipo do AGMI que foi testado com dados reais de licitações extraídas do Sistema ComprasNet. Vários experimentos foram realizados explorando os aspectos de distribuição do processamento e autonomia dos agentes. AGMI apresentou bons resultados quanto ao desempenho, capacidade autônoma de melhorar o conhecimento descoberto e quanto à qualidade do conhecimento apresentado. Comparando com a abordagem testada, utilizando apenas o algoritmo de Regras de Associação, os experimentos com AGMI mostraram um aumento de 170% na qualidade média das 10 melhores regras encontradas e de 350% na qualidade média das 100 melhores regras encontradas. Além disso, AGMI aumentou a qualidade de 193 regras, através de heurística aplicada autonomamente pelo agente Avaliador. As regras descobertas nos experimentos foram analisadas por especialistas da Controladoria- Geral da União e apresentaram fortes indícios de irregularidades em licitações tais como cartéis, simulação de concorrência e direcionamento de editais. _________________________________________________________________________________ ABSTRACT / In Brazil, government auditing is performed by the O_ce of the Comptroller General (CGU), where several approaches are being used to prevent and _ght corruption. However, some activities such as government purchasing fraud detection are limited by the di_culty in _nding e_ective ways to implement. The main problem focused by this research project is how to extract and generate useful knowledge from huge databases of Brazilian Federal procurement processes, in order to help the governmental auditing work. However, activities like detection of cartels are a complex problem in many senses. In terms of _nding useful auditing knowledge, because of the volume of data to correlate information, and also because of the dynamism and diversi_ed strategies used by companies to hide their fraudulent operations. In this research, we combine two originally separated areas and increasingly interrelated: distributed multi-agent systems and data mining. In our approach, we prove the interaction features in a bilateral and complementary way, by introducing AGMI - an AGent-MIning tool for automate knowledge discovery process in a distributed way. Considering the data mining perspective, we have used di_erent model functions, such as clusterization and link analysis with association rules. Autonomous agents are also used in the process in order to improve the discovered knowledge quality. To validate the usage of AGMI, we have performed several experiments using real data from ComprasNet, a government purchasing system of Brazil. Our approach resulted in expressive discovered knowledge. Considering a tested approach using only Association Rule algorithm, the AGMI's experiments have shown a rule quality improvement of 170% in the top 10 rules and 350% in the top 100 rules. Besides, AGMI also enhanced the quality of 193 rules through the autonomous heuristics of Evaluator Agent. According to the auditing experts, the discovered knowledge shall help the work of the CGU auditors in the detection, prevention and monitoring of cartels acting in public procurement processes.
47

Mineração de dados educacionais para geração de alertas em ambientes virtuais de aprendizagem como apoio à prática docente

Kampff, Adriana Justin Cerveira January 2009 (has links)
A Educação a Distância (EAD) no país apresenta-se em franca expansão. Cresce, a cada dia, o número de alunos que estudam por meio dessa modalidade. Gerenciar seus processos de aprendizagem em Ambientes Virtuais de Aprendizagem (AVA), com qualidade de interação e de acompanhamento, exige cada vez mais do professor. Esta tese descreve uma pesquisa que identifica, por meio de Mineração de Dados (MD) gerados pela interação em AVA, comportamentos e características de alunos com risco de evasão ou reprovação e, então, alerta o professor. Tais alertas são gerados a partir de agrupamentos de alunos com características similares, para que o professor possa estabelecer comunicação personalizada e contextualizada com esses sujeitos. O trabalho propõe uma arquitetura para sistemas de alertas em AVA, com alertas pré-definidos e outros gerados a partir da mineração de dados. Para validação da arquitetura, foram utilizados dados de 1564 alunos, de edições anteriores de uma mesma disciplina a distância, para mineração e extração de regras de classificação. As regras foram aplicadas para gerar os alertas durante o acompanhamento de 230 alunos em turmas em andamento. De cada aluno, cerca de 230 atributos foram analisados. Ao final, foi possível comprovar que as intervenções realizadas pelo professor, a partir dos alertas, direcionadas a grupos que compartilhavam necessidades específicas, contribuíram para a melhoria dos índices de aprovação e para redução dos índices de evasão dos alunos na disciplina acompanhada. / Distance Education is increasing very fast in Brazil. It grows every day the number of students engaged in this educacional mode. The professor must manage the teaching and the learning processes in Learning Management System (LMS), with quality of monitoring and interaction. This thesis describes a study that identifies, by Data Mining (DM) of educacional data generated by the interaction at LMS, profiles of students in risk of dropout or fail, and then alerts the professor. These alerts are based on groups of students with similar characteristics, so the professor can communicate with them in a personalized and contextualized way. The research proposes an architecture for warning systems in LMS, with pre-defined alerts and other generated from data mining. To validate the architecture, it was used data from 1564 students from previous editions of the same distance course, for data mining and extraction of classification rules. The rules were applied to generate alerts during the monitoring of 230 students in classes in progress. From each student, about 230 attributes were analyzed. In the end, it was possible to demonstrate that the interventions by the professor, based on the alerts, to groups that shared needs, contribute to higher rates of sucess and to reduce the dropout rates of students in the course.
48

Data Mining no Varejo: estudo de caso para loja de materiais de construção

Schaeffer, André Gustavo January 2003 (has links)
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.
49

Processo de mineração de dados como apoio à decisão no controle de gastos públicos

Wanderley lubambo, Sandra 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:54:42Z (GMT). No. of bitstreams: 2 arquivo1992_1.pdf: 1340077 bytes, checksum: 87952fc48524e4810f49792ca3ccee8a (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Considerando que, cada vez mais, tanto a sociedade como as instituições da esfera governamental, vêm exigindo dos órgãos responsáveis uma atuação de controle de gestão mais eficiente. Resta, a essas instituições, a difícil missão de realizar suas tarefas que são fortemente dependentes de informações e de recursos adequados para tratamento das mesmas. A mineração de dados como parte de processo de descoberta de conhecimento em bases de dados vem se consolidando como opção para o tratamento de grandes volumes de dados, no sentido de extrair conhecimento dos mesmos. Essa dissertação apresenta, como principal contribuição, investigar uma solução de mineração de dados fundamentada na metodologia Cross-Industry Standard Process for Data Mining (CRISIP-DM), metodologia não proprietária que define um processo de mineração de dados de forma estruturada e não linear, e em indução de regras de associação como apoio à decisão no controle da gestão pública, mais especificamente controle de gastos públicos. Os recursos estudados e avaliados foram dispostos em conformidade com uma metodologia específica para processo de mineração de dados. Na investigação do problema, a escolha da técnica de inteligência artificial, baseada na extração de regras de associação e seus respectivos algoritmos, teve o foco na questão da utilidade do conhecimento adquirido com os dados para os processos concretos de tomada de decisão inerentes às atividades de controle interno. Os experimentos realizados através de um estudo de caso, baseados nos algoritmos de indução de regras APRIORI e TERTIUS, com dados reais da Secretaria da Fazenda de Pernambuco (SEFAZ-PE), representaram uma confirmação do modelo escolhido como um recurso adequado no apoio às atividades de controle de gestão pública
50

Minerando exceções em cubos OLAP

Moura Pereira, Fabio January 2003 (has links)
Made available in DSpace on 2014-06-12T15:58:59Z (GMT). No. of bitstreams: 2 arquivo4803_1.pdf: 2486056 bytes, checksum: 5d7c8be789c9fce90bbfa23c16bef5e3 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / OLAP e Mineração de Dados têm emergido separadamente como duas das técnicas de maior sucesso para suporte à decisão, independentes de domínio. Elas têm poderes e limitações complementares: OLAP fornece um serviço rápido e flexível para visualização guiada pelo usuário de dados multidimensionais e de multi-granularidade, enquanto a mineração de dados fornece um serviço automático para descoberta de padrões e dados. Assim como OLAP pode representar um passo de pré-processamento e seleção de dados eficiente, flexível e iterativo para a mineração de dados, por sua vez, a mineração de dados pode representar um guia automático que acelera em muito a procura por insigths nos dados OLAP. Esta dissertação investiga a integração sinérgica entre essas duas tecnologias, que recentemente passou a ser chamada de OLAM (On-Line Analytical Mining), com a finalidade de minerar desvios em um data warehouse multidimensional e de multi-granularidade. Construído a partir de um trabalho teórico previamente realizado neste tema, a dissertação lida com aspectos práticos da integração de alguns algoritmos propostos para mineração de exceções em dados OLAP dentro de JODI/OCCOM: um sistema cliente-servidor, de código aberto, independente de plataforma, multi-usuário e com uma interface gráfica amigável. O sistema é o primeiro do gênero e pode ser prontamente incorporado a ambientes de descoberta de conhecimento baseados em Java ou orientação a objetos. A combinação de JODI/OCCOM com o previamente desenvolvido gerador de hipertexto em linguagem natural HYSSOP, permite a geração automática de resumos, no formato de páginas web, de células de dados que são estatisticamente consideradas exceções em um contexto multidimensional e multi-granular de um data warehouse OLAP

Page generated in 0.076 seconds