• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 15
  • 13
  • 13
  • 12
  • 12
  • 5
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 203
  • 203
  • 203
  • 84
  • 82
  • 54
  • 41
  • 40
  • 38
  • 34
  • 32
  • 30
  • 28
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Uma aplicação de mineração de dados em periodontia

Gesser, Hubert Chamone January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-18T12:59:20Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T20:29:16Z : No. of bitstreams: 1 184964.pdf: 3192365 bytes, checksum: c69ce62ae638420296e64f34ce761279 (MD5) / O presente estudo tem como propósito conhecer a prevalência da doença periodontal e sua associação com questões socioeconômicas e com o hábito de fumar. Análises estatísticas e técnicas de regras de classificação pelo processo KDD (Knowledge Discovery in Databases) foram empregadas em um banco de dados dos alistandos do Exército em Florianópolis, Santa Catarina, Brasil, em 1999. O banco de dados contém informações obtidas através da aplicação de um questionário socioeconômico e realização um exame clínico para coleta de dados como: o sangramento gengival, a presença de cálculo e componentes do índice CPI (Community Periodontal Index). Os testes de associação estatística (Teste do Qui-quadrado e o Teste Exato de Fisher) mostram que as variáveis socioeconômicas como a escolaridade e a renda familiar, bem como o hábito de fumar cigarro, têm associação com as doenças periodontais. A mineração de dados do processo KDD mostra que os fatores socioeconômicos e o tabagismo estão presentes em muitas das regras de classificação geradas. Com a baixa ocorrência de problemas periodontais avançados nesta faixa etária (18 anos de idade), conclui-se que a doença periodontal mais severa não é um problema de saúde pública nesta amostra, apesar da mesma estar associada com questões socioeconômicas. Relata-se ainda que, devido à inexistência de outros estudos com esta população, faz-se necessária a confirmação destes achados com trabalhos posteriores
12

Predição da recuperação da inadimplência em operações de crédito

Lopes, Rogério Gomes 31 July 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-11-01T16:45:32Z No. of bitstreams: 1 2017_RogérioGomesLopes.pdf: 1328248 bytes, checksum: 51169d7c0b756520f1bc9e754d297d79 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-01-04T20:36:56Z (GMT) No. of bitstreams: 1 2017_RogérioGomesLopes.pdf: 1328248 bytes, checksum: 51169d7c0b756520f1bc9e754d297d79 (MD5) / Made available in DSpace on 2018-01-04T20:36:56Z (GMT). No. of bitstreams: 1 2017_RogérioGomesLopes.pdf: 1328248 bytes, checksum: 51169d7c0b756520f1bc9e754d297d79 (MD5) Previous issue date: 2018-01-04 / Este trabalho propôs a indução de classificadores, a partir da aplicação de técnicas de mineração de dados,para identificar clientes inadimplentes com potencial de regularização da dívida visando auxiliar uma instituição financeira a reduzir a Provisão para Créditos de Liquidação Duvidosa (PCLD). Estes modelos poderão contribuir para reversão de despesas da instituição financeira. Foram utilizados as técnicas Generalized Linear Models (GLM), Distributed Random Forest (DRF), Deep Learning (DL) e Gradient Boosting Methods (GBM), implementados na plataforma H2O.ai. Alguns aspectos que afetam o comportamento do cliente inadimplente foram identificados, como o perfil de sua renda e a época do ano. Estratégias de recuperação de crédito foram propostas e simulações identificaram possibilidades de redução de despesas operacionais. / This works proposes the induction of classifiers, from the application of data mining techniques, to identify defaulting clients with debt settlement potential to assist a financial institution in reducing its provision for doubtful debits. These models may contribute to the reversal of expenses of the financial institution. The techniques Generalized Linear Models (GLM), Distributed Random Forest (DRF), Deep Learning (DL) and Gradient Boosting Methods (GBM) algorithms implemented in the H2O.ai platform were used. Some aspects that affect the behavior of the defaulting customer, such as the profile of their income and the period of the year, have been identified. Strategies of credit recovery strategies were proposed and simulations identified possibilities of reducing operating expenses.
13

Método de mineração de processos para auxílio à tomada de decisão : um estudo de caso no controle de férias

Gandulfo, Pablo Ignacio 21 July 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2016-09-01T19:47:04Z No. of bitstreams: 1 2016_PabloIgnácioGandulfo.pdf: 5521073 bytes, checksum: 55a29dfb170f7b470c29b4d44fe55f21 (MD5) / Rejected by Raquel Viana(raquelviana@bce.unb.br), reason: Bom dia, Há erros na descrição da citação bibliográfica e o campo de Informações adicionais não foi preenchido. Atenciosamente, on 2016-11-04T10:41:14Z (GMT) / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2016-12-05T14:12:37Z No. of bitstreams: 1 2016_PabloIgnácioGandulfo.pdf: 5521073 bytes, checksum: 55a29dfb170f7b470c29b4d44fe55f21 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-01-04T19:01:46Z (GMT) No. of bitstreams: 1 2016_PabloIgnácioGandulfo.pdf: 5521073 bytes, checksum: 55a29dfb170f7b470c29b4d44fe55f21 (MD5) / Made available in DSpace on 2017-01-04T19:01:46Z (GMT). No. of bitstreams: 1 2016_PabloIgnácioGandulfo.pdf: 5521073 bytes, checksum: 55a29dfb170f7b470c29b4d44fe55f21 (MD5) / A prática de mineração de processos tem sido impulsionada pela necessidade das organizações conhecerem cada vez mais os seus processos de negócio. No entanto, ainda existem alguns desafios e obstáculos a serem superados. Pode-se citar a escassez de modelos e métodos que efetivamente ajudem as organizações a reduzir custos e otimizar o uso de recursos nos fluxos de trabalho organizacionais. Neste cenário, o objetivo geral desta pesquisa é descrever um modelo de mineração de processos para o apoio à tomada de decisões nas organizações, aplicando-o no âmbito do processo de gestão de pessoas nas organizações públicas. O método de mineração desenvolvido foi definido através da junção dos métodos de Bozkaya et al. (2009) e van der Ham (2015), e ilustrado através de uma descrição detalhada dos passos envolvidos. O método foi aplicado em um estudo de caso real numa organização judicial. Foi descoberto um retrabalho de 4,3 vezes na tarefa "Alterar Homologação de Férias". Além disso, o papel "Analista de RH" está consideravelmente sobrecarregado, pois, atua em 47,05% das atividades realizadas, apesar de representar apenas 3,45% dos recursos envolvidos. Esses indicadores de desperdício permitem uma tomada de decisão do gestor para melhoria no processo de controle de férias da organização estudada. ______________________________________________________________________________________________________ ABSTRACT / The increase of process mining's practice has been driven by the need from organizations to better understand their processes. On the other hand, there are still some challenges and obstacles to be overcome. One could mention the lack of models and methods that effectively help government organizations to reduce costs and optimize the use of resources on their personnel management's workflows. In that respect, the objective of this research is to describe a model for process mining to support decisionmaking in organizations, applying it in the personnel management's processes at government organizations. The mining method developed was defined by a combination of the methods of Bozkaya et al. (2009) and van der Ham (2015), with a detailed description of the several steps involved. The method was applied in a real case study at a government organization from the judicial area. A 4.3 times rework was discovered on "Change Vacation approval" task. Besides that, the role "HR Analist" is considerably overloaded because it acts in 47.05% of all activities in spite of representing 3.45% of all resources involved. This waste indicators allow for the decision-making of the manager to improve the vacation control process of the organization analyzed.
14

Modelos preditivos para avaliação de risco de corrupção de servidores públicos federais

Carvalho, Ricardo Silva 21 September 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas Departamento de Ciência da Computação, Mestrado Profissional em Computação Aplicada, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-01-26T12:19:36Z No. of bitstreams: 1 2015_RicardoSilvaCarvalho.pdf: 12764754 bytes, checksum: 6912c187f6b4d6ea2b4520b7651675e7 (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2016-01-26T15:13:56Z (GMT) No. of bitstreams: 1 2015_RicardoSilvaCarvalho.pdf: 12764754 bytes, checksum: 6912c187f6b4d6ea2b4520b7651675e7 (MD5) / Made available in DSpace on 2016-01-26T15:13:56Z (GMT). No. of bitstreams: 1 2015_RicardoSilvaCarvalho.pdf: 12764754 bytes, checksum: 6912c187f6b4d6ea2b4520b7651675e7 (MD5) / A Controladoria-Geral da União (CGU), por meio da Diretoria de Pesquisas e Informa ções Estratégicas (DIE), articula ações de produção de informações estratégicas, investigando possíveis irregularidades cometidas por servidores públicos federais. Com quantitativo reduzido de analistas e inúmeras responsabilidades, a DIE necessita de métodos automatizados aplicáveis a grande volume de dados para aferir corruptibilidade de servidores, buscando assim priorização de trabalho e atuação e caz baseando-se em aspectos de corrupção. Este trabalho apresenta a aplicação de mineração de dados para gerar modelos preditivos para avaliar risco de corrupção de servidores públicos federais, usando várias bases de dados a que a CGU tem acesso. O processo CRISP-DM é a referência para as fases da mineração de dados. Inicialmente, o conhecimento dos analistas especialistas em combate à corrupção da DIE é aplicado nas diversas bases de dados disponíveis para extração de informações possivelmente úteis na indicação de corruptibilidade. Os dados levantados são analisados e preparados com o uso de diversas técnicas, como discretização e análise de correlação, para, em seguida, passarem por um processo de seleção. Métodos de regressão como Adaptive Lasso e Regressão Ridge são aplicados objetivando a criação de modelos preditivos. O modelo de avaliação de risco de corrupção de servidores públicos federais construído ao nal do trabalho obteve resultados satisfatórios de aproximadamente 85% de sensibilidade, 81% de precisão e 83% de acurácia assim como resultados positivos em testes estatísticos corroborando a validade do modelo com nível de con ança de 95%. Em seguida, as regras geradas pelo modelo nal foram analisadas, adicionando-se o estudo de casos pontuais, de modo a subsidiar a descoberta do conhecimento obtido com o processo de mineração de dados. Com a avaliação de risco de corrupção a partir de modelos preditivos, possibilitouse: uso mais e ciente e e caz de recursos e pessoal da CGU; um impacto nacional; e fortalecimento do controle prévio. O direcionamento de esforços de auditoria e scalização a partir de índices de corruptibilidade sustenta a priorização efetiva de trabalho da CGU. Atinge-se todos os estados do país analisando em larga escala o nível de corrupção dos mais de um milhão de servidores públicos federais, gerando impacto em âmbito nacional. Finalmente, todos os pólos regionais da CGU são apoiados com uma atuação de controle prévio, fortalecendo o combate à corrupção. / The Brazilian O ce of the Comptroller General (CGU), through the Department of Research and Strategic Information (DIE), articulates activities of strategic information production, investigating possible irregularities by federal civil servants. With a reduced quantitative of analysts and numerous responsibilities, DIE needs automated methods applicable to large volumes of data to assess civil servants' corruptibility, seeking then work prioritization and e ective action based on aspects of corruption. This work presents a data mining application to generate predictive models to assess risk of corruption of federal civil servants, using various databases that CGU has access to. The CRISP-DM process is the reference to the phases of the data mining. Initially, the knowledge of DIE's analysts with expertise in ghting corruption is applied in the various databases available to extract potentially useful information in corruptibility indication. The data collected is analyzed and prepared using various techniques, such as correlation analysis and discretization, to then pass through a selection process. Regression methods like Adaptive Lasso and Ridge Regression are applied towards the creation of predictive models. The model to assess risk of corruption of civil servants built at the end of the work obtained satisfactory results of approximately 85% sensitivity, 81% precision and 83% accuracy as well as positive results in statistical tests con rming the relevance of the model with a con dence level of 95%. Then, the rules generated by the nal model were analyzed, aside with the study of individual cases, in order to support the knowledge discovery through the data mining process. The assessment of risk of corruption with predictive models allows: more e cient and e ective use of CGU's resources; a national impact; and strengthening of previous control. The targeting of audit and control e orts from corruptibility indicators sustains e ective prioritization of the work of CGU. Every state in the country is reached by analyzing in large scale the level of corruption of the more than one million federal civil servants, generating impact nationwide. Finally, all regional centers of CGU are backed with prior control activities, strengthening the ght against corruption.
15

Mineração de dados em triagem neonatal de hemoglobinopatias /

Melo, Luciane Moreno Storti de. January 2006 (has links)
Orientador: Claudia Regina Bonini Domingos / Banca: Paulo Peitl Júnior / Banca: Carlos Roberto Valêncio / Resumo: Nos anos de 1997 a 2002 foi desenvolvido um programa de triagem de hemoglobinopatias pelo Laboratório de Hemoglobinas e Genética das Doenças Hematológicas - LHGDH, UNESP, com 5976 neonatos nascidos no Hospital de Base de São José do Rio Preto. O montante de dados gerados em todas as fases dos seis anos de programa constitui uma fonte de informações, que armazenadas em banco de dados, permitem a análise por métodos computacionais na tentativa de estabelecer comportamentos, tendências e padrões, objetivando dessa forma, contribuir com a Triagem Neonatal no país, fornecendo bases para agilizar os diagnósticos e torná-los cada vez mais precisos. Após desenvolvimento de uma Base de Dados Eletrônica e inserção dos resultados da triagem de hemoglobinopatias objetivou-se: avaliar por meio de ferramenta data mining- CLIBIA as metodologias utilizadas, testar a aplicabilidade do banco de dados e analisar os dados quantitativos de hemoglobinas obtidos por HPLC nos diferentes fenótipos, em sistema de visualização 3D - Fas MapDB. A utilização de um banco de dados em laboratórios com grande fluxo de amostras mostrou-se imprescindível para a segurança, confiabilidade e agilidade das análises e ferramentas que promovem a mineração dos dados, como a CLIBIA, revelaram a necessidade de reavaliar as metodologias de rotina utilizadas no diagnóstico de hemoglobinopatias em neonatos. As visualizações tridimensionais revelaram a existência de dois padrões de distribuição das amostras com Hb normais, devido a amplitude de variação nos valores obtidos por HPLC para o pico de "F1". Permitiu a separação das amostras com Hb normais e com alfa talassemia, ressaltando as diferenças estatísticas nos valores percentuais médios dos picos de "Fast" e "A", reforçando a necessidade de melhor avaliação dos cromatogramas obtidos e a possibilidade de aplicação dessa metodologia como parte do diagnóstico de alfa talassemia em neonatos. / Abstract: Since 1997 until 2002, a neonatal screening program of hemoglobinopatias were carried out in the Hemoglobin and Hematologic Genetic Diseases Laboratory - LHGDH, UNESP, with 5976 newborns from Hospital de Base de São José do Rio Preto. The amount of data obtained during six years of program constitutes a source of information, that stored in data base, allows the analysis for computational methods in the attempt to establish behaviors, trends and standards, aiming to contribute with the Neonatal screening in the country and supplied bases to better diagnostic and to become them each time more exact. After an Electronic Database were development and the screening results were inserted was aimed: to evaluate by data mining tool - CLIBIA the methodologies used, test the applicability of a hemoglobinopathies database and to analyze the quantitative hemoglobins data obtained by HPLC in the different phenotypes, in 3D visualization system - FastMapDB, for to analyze the phenotypes behavior. The use of a database in laboratories with great sample routine were essential for the security, trustworthiness and agility of the analyses and tools that promote the datamining, as the CLIBIA, had disclosed the necessity to reevaluate the methodologies used in hemoglobinopathies diagnosis routine in newborns. The three-dimensional visualizations carried out by the FastMapDB tool showed the existence of two distribution standards in the samples with normal Hb, due to the variation amplitude into the values obtained by HPLC for the "F1" window. It allowed separating the samples with normal Hb from alpha thalassemia, evidencing the statistical differences in the mean values of the "Fast" and "A” window, emphasizing the necessity of better chromatograms evaluation and the possibility of this methodology application as part of alpha thalassemia diagnosis in newborns. / Mestre
16

Mineração de dados aplicada à construção de bases de hash em computação forense / Data mining applied to hashsets construction in computer forensics

Ruback, Marcelo Caldeira 11 December 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2011. / Submitted by Jaqueline Ferreira de Souza (jaquefs.braz@gmail.com) on 2012-06-27T14:13:15Z No. of bitstreams: 1 2011_MarceloCaldeiraRuback.pdf: 7076665 bytes, checksum: 3fc94510de918eb4cb5fed8dd6985746 (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-06-27T14:13:27Z (GMT) No. of bitstreams: 1 2011_MarceloCaldeiraRuback.pdf: 7076665 bytes, checksum: 3fc94510de918eb4cb5fed8dd6985746 (MD5) / Made available in DSpace on 2012-06-27T14:13:27Z (GMT). No. of bitstreams: 1 2011_MarceloCaldeiraRuback.pdf: 7076665 bytes, checksum: 3fc94510de918eb4cb5fed8dd6985746 (MD5) / A grande quantidade de dados a serem processados e analisados por peritos em informática é um desafio crescente enfrentado pela comunidade de Computação Forense. O uso de conjuntos de hashes de arquivos conhecidos para identificar e filtrar arquivos irrelevantes é um procedimento amplamente utilizado, mas não é tão eficaz quanto poderia ser, especialmente em países cujo idioma não seja o inglês. Este trabalho propõe o uso de técnicas de mineração de dados com algoritmos de classificação baseados em árvores de decisão para encontrar novos arquivos irrelevantes para a análise forense a partir de uma amostra de computadores de uma dada região ou país. Os hashes dos arquivos identificados podem ser mesclados com um subconjunto selecionado de hashes que sejam realmente efetivos, escolhido a partir de bases de hashes convencionais. Os experimentos foram conduzidos para avaliar o desempenho de filtragem da solução proposta, usando amostras de evidências extraídas de casos reais. Esses experimentos demonstraram que a abordagem proposta obteve resultados de filtragem entre 15% e 30% melhores do que a base de hash convencional utilizada, mesmo contendo um número reduzido de valores de hash. Este trabalho lança luz sobre uma técnica forense comumente utilizada, mas que tem sido relegada ao uso de bases de dados em constante crescimento composto apenas de hashes de arquivos conhecidos cuja origem seja rigidamente rastreável. A adoção de novas soluções para lidar com bancos de dados de hash em Computação Forense é uma boa oportunidade para introduzir técnicas inteligentes para melhorar a forma como conjuntos de hashes são criados, mantidos e utilizados. _________________________________________________________________________________ ABSTRACT / The large amount of data to be processed and analyzed by forensic experts is a growing challenge faced by the computer forensics community. The use of hashsets of known files to identify and filter irrelevant files is a commonly used technique, but it is not as effective as it could be, especially in non-English speaking countries. This work proposes the use of data mining techniques with decision tree learning algorithms to find new irrelevant files to the forensic analysis from a sample of computers from a given region or country. The resulting files can be merged with an optimized subset of really effectively used hashsets, which are chosen from conventional hash databases. Experiments were conducted to evaluate the filtering performance of the proposed solution, using samples from real evidence. The experimental results demonstrate that our approach obtained between 15% to 30% better filtering results than the conventional hashset database used as benchmark, even with a reduced number of hash values. This work sheds light on a commonly used forensics technique, which has relied on the use of ever-growing databases composed only of hashes from rigidly traceable known files. The adoption of new solutions to deal with hash databases in computer forensics is a good opportunity to introduce intelligent techniques to improve the way hashsets are created, maintained and used.
17

Metodologia para recomendação de consultores ad-hoc baseada na extração de perfis do currículo Lattes

Bastos, Weliton Moreira 28 July 2009 (has links)
Dissertação (mestrado)–Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2009. / Submitted by Liliane Simões (miix007@gmail.com) on 2013-04-12T12:04:15Z No. of bitstreams: 1 2009_WelitonMoreiraBastos.pdf: 1272234 bytes, checksum: 59ad04f86952c0869c72167bbd8e6f11 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-04-15T14:54:58Z (GMT) No. of bitstreams: 1 2009_WelitonMoreiraBastos.pdf: 1272234 bytes, checksum: 59ad04f86952c0869c72167bbd8e6f11 (MD5) / Made available in DSpace on 2013-04-15T14:54:58Z (GMT). No. of bitstreams: 1 2009_WelitonMoreiraBastos.pdf: 1272234 bytes, checksum: 59ad04f86952c0869c72167bbd8e6f11 (MD5) / Segundo Han e Caryps (2005), recomendação é uma técnica de filtragem personalizada cujo objetivo é predizer se um usuário vai gostar de um determinado item,ou qual o conjunto de itens são mais relevantes e úteis para um grupo de usuários.A sobrecarga de informações imposta pela Internet e a necessidade de determinar com rapidez e eficiência o que é relevante e útil para os usuários têm feito com que técnicas de recomendação sejam amplamente utilizadas em sistemas baseados na Web.Técnicas de recomendação estão presentes em muitas situações que como comércio eletrônico, sítios de relacionamento e bibliotecas digitais. A seleção e recrutamento de recursos humanos com base no perfil dos profissionais, é uma área de aplicação que atende às características de sistemas de recomendação, pois consiste em identificar quais os profissionais cujos perfis são mais adequados à execução de um conjunto de tarefas.Um caso particular de seleção de recursos humanos é a indicação de consultores para avaliação de projetos. Nesse caso, deve-se identificar quais os profissionais com qualificações mais adequadas para avaliação dos projetos com base na similaridade entre os perfis dos consultores e dos projetos. Sistemas de recomendação de consultores devem levar em conta os perfis do consultores,do proponentes e do projetos a serem avaliados, além de possuir mecanismos para detectar e minimizar possíveis conflitos de interesses que tornariam as avaliações suspeitas.Este trabalho propõe uma metodologia para recomendação de consultores para avaliação de projetos no âmbito do Conselho Nacional de Desenvolvimento Científico e Tecnológico - CNPq, aplicando estratégias de filtragem baseada em conteúdo. Esta metodologia utiliza o modelo de espaço vetorial (VSM - vector space model)para determinar o grau de semelhança entre os perfis dos consultores e proponen tese entre os perfis dos consultores e projetos. _________________________________________________________________________________ ABSTRACT / According to Han and Caryps (2005), recommendation is a customized filtering technique whose goal is predict whether a user will like a particular item, or what set of items are most relevant and useful to a group of users. The overload of information imposed by the Internet and the need to determine quickly and efficiently what is relevant and useful to the users have done with that recommendation technique sare been widely used in systems based on Web. Recommendation techniques are presents in many situations such as electronic commerce, social networking websites and digital libraries. The selection and recruitment of human resources based on the profiles of professionals, is one application area that meets the requirements of recommendation systems, since it consists in identifying the professionals whose profiles are most suitable for the implementation of a set of tasks. A particular case of selection of human resources is an indication of consultants for evaluation of projects. In this case, must identify practitioners with skills more appropriate for evaluating projects based on the similarity between the profiles of consultants and projects. Recommendation systems of consultants should consider the consultants’ profiles, the proponents’ profiles and projects’ profiles to be evaluated, and have mechanisms to detect and minimize possible conflicts of interest that would make the evaluations suspicions. This paper proposes a methodology for the recommendation of consultants for project evaluation under the National Council for Scientific and Technological Development- CNPq, applying strategies based filtering content. This methodology uses the vector space model (VSM - vector space model) to determine the degree of similarity between the profiles of consultants and bidders and between the profiles of consultants and projects.
18

Agentes de Mineração e sua Aplicação no Domínio de Auditoria Governamental

Silva, Carlos Vinícius Sarmento 11 March 2011 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2011. / Submitted by Gabriela Ribeiro (gaby_ribeiro87@hotmail.com) on 2011-06-22T20:32:22Z No. of bitstreams: 1 2011_CarlosViníciusSarmentoSilva.pdf: 3795960 bytes, checksum: 63d12d2765cdb654dc26657b9ec5bfd3 (MD5) / Approved for entry into archive by Guilherme Lourenço Machado(gui.admin@gmail.com) on 2011-06-28T13:01:49Z (GMT) No. of bitstreams: 1 2011_CarlosViníciusSarmentoSilva.pdf: 3795960 bytes, checksum: 63d12d2765cdb654dc26657b9ec5bfd3 (MD5) / Made available in DSpace on 2011-06-28T13:01:49Z (GMT). No. of bitstreams: 1 2011_CarlosViníciusSarmentoSilva.pdf: 3795960 bytes, checksum: 63d12d2765cdb654dc26657b9ec5bfd3 (MD5) / O trabalho de auditoria governamental tem sido realizado no âmbito do Poder Executivo Federal pela Controladoria-Geral da União. Várias estratégias são utilizadas visando a prevenção e o combate à corrupção. No entanto, algumas atividades tais como detecção de cartéis em licitações são limitadas devido à complexidade de se correlacionar informa ções para geração de conhecimento útil para os auditores através da análise de bases de dados. A área de Mineração de Dados tem sido alvo de várias pesquisas tendo bons resultados no processo de descoberta de conhecimento em grandes bases de dados onde várias técnicas já foram de_nidas nesta área tais como classi_cação, clusterização e regras de associação. Sistema Multiagentes por sua vez, apresenta consideráveis vantagens no sentido de possibilitar a distribuição do processamento e fazer uso de autonomia de agentes de softwares para realização de tarefas complexas. Essas duas áreas de estudo, até recentemente separadas, são integradas neste trabalho através de AGent Mining Integration (AGMI), uma arquitetura que integra diferentes técnicas de mineração de dados utilizando uma abordagem multiagentes para automatização do processo de descoberta de conhecimento. AGMI é composta por agentes que operam em três diferentes camadas: estratégica, tática e operacional. Através da autonomia de agentes, AGMI é capaz de integrar técnicas de mineração de dados de forma distribuída e utilizar heurísticas para melhoramento do conhecimento encontrado. Neste trabalho é apresentado um protótipo do AGMI que foi testado com dados reais de licitações extraídas do Sistema ComprasNet. Vários experimentos foram realizados explorando os aspectos de distribuição do processamento e autonomia dos agentes. AGMI apresentou bons resultados quanto ao desempenho, capacidade autônoma de melhorar o conhecimento descoberto e quanto à qualidade do conhecimento apresentado. Comparando com a abordagem testada, utilizando apenas o algoritmo de Regras de Associação, os experimentos com AGMI mostraram um aumento de 170% na qualidade média das 10 melhores regras encontradas e de 350% na qualidade média das 100 melhores regras encontradas. Além disso, AGMI aumentou a qualidade de 193 regras, através de heurística aplicada autonomamente pelo agente Avaliador. As regras descobertas nos experimentos foram analisadas por especialistas da Controladoria- Geral da União e apresentaram fortes indícios de irregularidades em licitações tais como cartéis, simulação de concorrência e direcionamento de editais. _________________________________________________________________________________ ABSTRACT / In Brazil, government auditing is performed by the O_ce of the Comptroller General (CGU), where several approaches are being used to prevent and _ght corruption. However, some activities such as government purchasing fraud detection are limited by the di_culty in _nding e_ective ways to implement. The main problem focused by this research project is how to extract and generate useful knowledge from huge databases of Brazilian Federal procurement processes, in order to help the governmental auditing work. However, activities like detection of cartels are a complex problem in many senses. In terms of _nding useful auditing knowledge, because of the volume of data to correlate information, and also because of the dynamism and diversi_ed strategies used by companies to hide their fraudulent operations. In this research, we combine two originally separated areas and increasingly interrelated: distributed multi-agent systems and data mining. In our approach, we prove the interaction features in a bilateral and complementary way, by introducing AGMI - an AGent-MIning tool for automate knowledge discovery process in a distributed way. Considering the data mining perspective, we have used di_erent model functions, such as clusterization and link analysis with association rules. Autonomous agents are also used in the process in order to improve the discovered knowledge quality. To validate the usage of AGMI, we have performed several experiments using real data from ComprasNet, a government purchasing system of Brazil. Our approach resulted in expressive discovered knowledge. Considering a tested approach using only Association Rule algorithm, the AGMI's experiments have shown a rule quality improvement of 170% in the top 10 rules and 350% in the top 100 rules. Besides, AGMI also enhanced the quality of 193 rules through the autonomous heuristics of Evaluator Agent. According to the auditing experts, the discovered knowledge shall help the work of the CGU auditors in the detection, prevention and monitoring of cartels acting in public procurement processes.
19

Mineração de dados em redes de baixa tensão usando algoritmos genéticos

Anciutti, Isabela January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2013-07-15T22:58:28Z (GMT). No. of bitstreams: 1 229397.pdf: 2902816 bytes, checksum: 2395a52490b681064ffa164391da96a1 (MD5) / Diversos problemas atingem as redes de distribuição de energia elétrica no
20

Mineração de dados para previsão de renda de clientes com contas-correntes digitais

Mourão, Roberto Nunes 29 June 2018 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2018. / Um banco brasileiro disponibilizou a abertura de conta bancária por meio de um aplicativo móvel, o que geralmente exige muito pouca informação do usuário. Essa falta de dados prejudica os atuais modelos preditivos aplicados na seleção de clientes para campanhas de marketing. Com o intuito de atenuar isso, este trabalho investiga o uso da Mineração de Dados a fim de criar um modelo preditivo capaz de identificar a renda desses clientes. Para tanto, como treinamento, usa os dados de um grupo de clientes, os quais, de forma semelhante, utilizam o aplicativo móvel do banco. Todavia, abriram suas contas indo às agências, local onde comprovaram suas rendas. Os dados utilizados incluem informações cadastrais, demográficas e características dos smartphones dos clientes. O processo CRISP-DM foi aplicado para comparar várias abordagens, tais como: Regressão Logística, Random Forest, Redes Neurais Artificiais, Gradient Boosting Machine e Hillclimbing Ensemble Selection with Bootstrap Sampling. Os resultados mostraram que o Gradient Boosting Machine obteve o melhor resultado com Acurácia de 92 % e F-Measure de 62 %. / Digital bank accounts require little information from customers to enable simple banking services, and the absence of income data hampers a focused targeting of customers for additional products/services. This study presents a comparison of predictive models to identify a customer’s income bracket, by mining digital account data. The information available to build the models includes customers’ registered data, demographics, house prices, and smartphone features. The models are applied to a set of customers with regular accounts, who have income data and features similar to those with digital accounts. The models’ performances are compared to the model currently in use in a private bank. Several approaches were used, in a CRISP-DM process: Logistic Regression, Random Forest, Artificial Neural Networks, Gradient Boosting Machine, and Hill-Climbing Ensemble with Bootstrap Sampling. Experimental results indicate the Gradient Boosting Machine model achieved the best results, with a 92% Accuracy and a 62% F-Measure.

Page generated in 0.4923 seconds