Spelling suggestions: "subject:"mineração dde dados"" "subject:"mineração dee dados""
31 |
Sistema de identificação espacial em ambientes de consumo utilizando mineração de dadosPerizzolo, Cesar B. January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T01:22:42Z (GMT). No. of bitstreams: 1
223147.pdf: 996474 bytes, checksum: fc573984fac3b0d8ecae75798e4ccd8d (MD5) / A busca pelo conhecimento a partir da Mineração de Dados é um campo de pesquisa que tem crescido muito rapidamente e seu desenvolvimento tem sido dirigido, muitas vezes, em benefício de necessidades práticas.
Em um grande volume de dados podem estar muitas informações, tendências e padrões úteis para melhorar os critérios adotados durante o processo da tomada de decisões.
Neste trabalho propõe-se a transformação dos dados envolvidos durante uma venda, aliada à conversão dos espaços físicos ocupados pelos produtos em pequenas unidades amostrais, na tentativa de descrever o trajeto percorrido pelo potencial consumidor.
O desenvolvimento de processos de análise automática desses grandes volumes de dados é o desafio confiado aos algoritmos da Mineração de Dados.
O acúmulo da representação dos prováveis trajetos descritos por um determinado conjunto de consumidores será atribuído a uma matriz dinâmica de múltiplos atributos, que será apresentada através de gráficos de superfície.
Conclui-se que as técnicas e ferramentas para a Visualização de Dados estimulam naturalmente a percepção e a associação de novos padrões e podem melhorar, em muito, o processo de Mineração de Dados.
|
32 |
DeepECSouza, Augusto Ferreira de January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:11:02Z (GMT). No. of bitstreams: 1
323922.pdf: 1684516 bytes, checksum: 286dc1d7d327ccbebe91891a7d64681d (MD5)
Previous issue date: 2013 / Esta dissertação apresenta uma solução chamada DeepEC (DeepWeb Extraction and Cataloguing Process) para realizar a extração e catalogação de dados relevantes em bancos de dados presentes na Deep Web, também denominados de bancos de dados escondidos. Essas informações são extraídas a partir de um conjunto de páginas HTML geradas a partir de consultas definidas sobre formulários Web. A intenção é adquirir conhecimento sobre esses bancos de dados e, consequentemente, permitir buscas estruturadas sobre esse conteúdo escondido. Experimentos comprovaram a eficácia da abordagem proposta. Comparado com trabalhos relacionados, as contribuições desta dissertação são a realização conjunta e sequencial de um processo de extração e catalogação dos dados de bancos de dados escondidos, um processo de extração automático com suporte de uma base de conhecimento e um processo de catalogação que gera registros estruturados e é capaz de realizar a detecção de atributos cujos valores não estão presentes nos dados extraídos. <br> / Abstract : This work presents an approach called DeepEC (Deep Web Extraction and Cataloguing Process) that performs the extraction and cataloging of relevant data presented in Deep Web databases, also called hidden databases. This information is extracted from a set of HTML pages generated by queries posed on web forms. The intention is to obtain knowledge about these databases and thus enable structured queries over this hidden content. Experiments have shown the effectiveness of the proposed approach. Compared to related work, the contributions of this paper are the simultaneous process of data extraction and cataloging of hidden databases, an automatic extraction process with a knowledge base support, and a cataloging process that generates structured records and it is able to detect attribute values that are missing in the extracted data.
|
33 |
Estudo comparativo entre algoritmos de análise de agrupamentos em data miningPrass, Fernando Sarturi January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-21T17:23:51Z (GMT). No. of bitstreams: 1
210022.pdf: 600027 bytes, checksum: 593cdf81a2de56eda1d99061c8a08743 (MD5) / O objetivo é apresentar um estudo comparativo dos principais modelos de algoritmos de Análise de Agrupamento (Cluster Analysis) existentes na literatura e implementados em softwares, visando o seu uso no processo de descoberta de conhecimentos em grandes bancos de dados (Knowledge Discovery in Databases - KDD). Os algoritmos de Agrupamento são diferenciados de acordo com o seu método de formação (Hierárquico, Partição, Baseado em Modelo, Baseado em Grade e Baseado em Densidade) e também pela medida de distância que expressa a similaridade ou dissimilaridade entre os objetos. Mostram-se também critérios de mensuração para que se possam avaliar quais os melhores algoritmos para grandes bases de dados. Os algoritmos foram avaliados com dados reais e simulados utilizando a Linguagem R, que apontou o algoritmo k-medoid como o mais preciso e rápido. O trabalho mostra que o uso de Análise de Agrupamentos (AA) pode ser feito através de software gratuito e com máquina de baixo custo, mas para se obtenham bons resultados são necessários sólidos conhecimentos teóricos sobre AA.
|
34 |
Uma aplicação de mineração de dados em periodontiaGesser, Hubert Chamone January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-18T12:59:20Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T20:29:16Z : No. of bitstreams: 1
184964.pdf: 3192365 bytes, checksum: c69ce62ae638420296e64f34ce761279 (MD5) / O presente estudo tem como propósito conhecer a prevalência da doença periodontal e sua associação com questões socioeconômicas e com o hábito de fumar. Análises estatísticas e técnicas de regras de classificação pelo processo KDD (Knowledge Discovery in Databases) foram empregadas em um banco de dados dos alistandos do Exército em Florianópolis, Santa Catarina, Brasil, em 1999. O banco de dados contém informações obtidas através da aplicação de um questionário socioeconômico e realização um exame clínico para coleta de dados como: o sangramento gengival, a presença de cálculo e componentes do índice CPI (Community Periodontal Index). Os testes de associação estatística (Teste do Qui-quadrado e o Teste Exato de Fisher) mostram que as variáveis socioeconômicas como a escolaridade e a renda familiar, bem como o hábito de fumar cigarro, têm associação com as doenças periodontais. A mineração de dados do processo KDD mostra que os fatores socioeconômicos e o tabagismo estão presentes em muitas das regras de classificação geradas. Com a baixa ocorrência de problemas periodontais avançados nesta faixa etária (18 anos de idade), conclui-se que a doença periodontal mais severa não é um problema de saúde pública nesta amostra, apesar da mesma estar associada com questões socioeconômicas. Relata-se ainda que, devido à inexistência de outros estudos com esta população, faz-se necessária a confirmação destes achados com trabalhos posteriores
|
35 |
Mineração de dados educacionais para geração de alertas em ambientes virtuais de aprendizagem como apoio à prática docenteKampff, Adriana Justin Cerveira January 2009 (has links)
A Educação a Distância (EAD) no país apresenta-se em franca expansão. Cresce, a cada dia, o número de alunos que estudam por meio dessa modalidade. Gerenciar seus processos de aprendizagem em Ambientes Virtuais de Aprendizagem (AVA), com qualidade de interação e de acompanhamento, exige cada vez mais do professor. Esta tese descreve uma pesquisa que identifica, por meio de Mineração de Dados (MD) gerados pela interação em AVA, comportamentos e características de alunos com risco de evasão ou reprovação e, então, alerta o professor. Tais alertas são gerados a partir de agrupamentos de alunos com características similares, para que o professor possa estabelecer comunicação personalizada e contextualizada com esses sujeitos. O trabalho propõe uma arquitetura para sistemas de alertas em AVA, com alertas pré-definidos e outros gerados a partir da mineração de dados. Para validação da arquitetura, foram utilizados dados de 1564 alunos, de edições anteriores de uma mesma disciplina a distância, para mineração e extração de regras de classificação. As regras foram aplicadas para gerar os alertas durante o acompanhamento de 230 alunos em turmas em andamento. De cada aluno, cerca de 230 atributos foram analisados. Ao final, foi possível comprovar que as intervenções realizadas pelo professor, a partir dos alertas, direcionadas a grupos que compartilhavam necessidades específicas, contribuíram para a melhoria dos índices de aprovação e para redução dos índices de evasão dos alunos na disciplina acompanhada. / Distance Education is increasing very fast in Brazil. It grows every day the number of students engaged in this educacional mode. The professor must manage the teaching and the learning processes in Learning Management System (LMS), with quality of monitoring and interaction. This thesis describes a study that identifies, by Data Mining (DM) of educacional data generated by the interaction at LMS, profiles of students in risk of dropout or fail, and then alerts the professor. These alerts are based on groups of students with similar characteristics, so the professor can communicate with them in a personalized and contextualized way. The research proposes an architecture for warning systems in LMS, with pre-defined alerts and other generated from data mining. To validate the architecture, it was used data from 1564 students from previous editions of the same distance course, for data mining and extraction of classification rules. The rules were applied to generate alerts during the monitoring of 230 students in classes in progress. From each student, about 230 attributes were analyzed. In the end, it was possible to demonstrate that the interventions by the professor, based on the alerts, to groups that shared needs, contribute to higher rates of sucess and to reduce the dropout rates of students in the course.
|
36 |
Predição da recuperação da inadimplência em operações de créditoLopes, Rogério Gomes 31 July 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-11-01T16:45:32Z
No. of bitstreams: 1
2017_RogérioGomesLopes.pdf: 1328248 bytes, checksum: 51169d7c0b756520f1bc9e754d297d79 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-01-04T20:36:56Z (GMT) No. of bitstreams: 1
2017_RogérioGomesLopes.pdf: 1328248 bytes, checksum: 51169d7c0b756520f1bc9e754d297d79 (MD5) / Made available in DSpace on 2018-01-04T20:36:56Z (GMT). No. of bitstreams: 1
2017_RogérioGomesLopes.pdf: 1328248 bytes, checksum: 51169d7c0b756520f1bc9e754d297d79 (MD5)
Previous issue date: 2018-01-04 / Este trabalho propôs a indução de classificadores, a partir da aplicação de técnicas de mineração de dados,para identificar clientes inadimplentes com potencial de regularização da dívida visando auxiliar uma instituição financeira a reduzir a Provisão para Créditos de Liquidação Duvidosa (PCLD). Estes modelos poderão contribuir para reversão de despesas da instituição financeira. Foram utilizados as técnicas Generalized Linear Models (GLM), Distributed Random Forest (DRF), Deep Learning (DL) e Gradient Boosting Methods (GBM), implementados na plataforma H2O.ai. Alguns aspectos que afetam o comportamento do cliente inadimplente foram identificados, como o perfil de sua renda e a época do ano. Estratégias de recuperação de crédito foram propostas e simulações identificaram possibilidades de redução de despesas operacionais. / This works proposes the induction of classifiers, from the application of data mining techniques, to identify defaulting clients with debt settlement potential to assist a financial institution in reducing its provision for doubtful debits. These models may contribute to the reversal of expenses of the financial institution. The techniques Generalized Linear Models (GLM), Distributed Random Forest (DRF), Deep Learning (DL) and Gradient Boosting Methods (GBM) algorithms implemented in the H2O.ai platform were used. Some aspects that affect the behavior of the defaulting customer, such as the profile of their income and the period of the year, have been identified. Strategies of credit recovery strategies were proposed and simulations identified possibilities of reducing operating expenses.
|
37 |
Integrating data mining into contextual goal modeling to tackle context uncertaintiesat design timeFarias, Arthur José Rodrigues 24 November 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2018-04-10T19:57:59Z
No. of bitstreams: 1
2017_ArthurJoséRodriguesFarias.pdf: 1641526 bytes, checksum: 2e82f2f022d3f87b6463903dccc2d8da (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-04-11T18:23:36Z (GMT) No. of bitstreams: 1
2017_ArthurJoséRodriguesFarias.pdf: 1641526 bytes, checksum: 2e82f2f022d3f87b6463903dccc2d8da (MD5) / Made available in DSpace on 2018-04-11T18:23:36Z (GMT). No. of bitstreams: 1
2017_ArthurJoséRodriguesFarias.pdf: 1641526 bytes, checksum: 2e82f2f022d3f87b6463903dccc2d8da (MD5)
Previous issue date: 2018-04-11 / Understanding and predicting all context conditions the self-adaptive systems will be exposed to during its life time and implementing a ppropriate adaptation techniques is avery challenging mission. If thesys tem cannot recognize and adapt to unexpected contexts, this can be the cause of failures in self-adaptive systems, with possible implications of not being able to fulfill user requirements or even resulting in undesired behaviors. Especially for dependability attributes, this would have fatal implications. The earlier the broad range of high level context conditions can be specified, the better adaptation strategies can be implemented and validated into the self adaptive systems. The objective of this work is to provide (automated) support to unveil context sets at early stages of the software development life cycle and verify how the contexts impact the system’s dependability attributes. This task will increase the amount of potential issues identified that might thre atenthedependability of self-adaptivesystems. This work provide san approach for the automated detection and analysis of context conditions and their correlations at design time. Our approach employs a data mining process to suitably elicit context sets and is relying on the constructs of a contextual goal model (CGM) for the mapping of contexts to the system’s behavior from a design perspective. We experimentally evaluated our proposal on a Body Sensor Network system(BSN), by simulating amyriadofresourcesthatcouldleadtoa variability space of 4096 possible context conditions. Our results show that our approach is able to elicit contexts that would significantly affect a high percentage of BSN assisted patients with high health risk profile inful filling their goals with in the required reliability level. Additionally, we explored the scalability of the mining process in the BSN context, showing it is able to perform under a minute even for simulated data at the size of over five orders of magnitude. This research supports the development of self-adaptive systems by anticipating at design time contexts that might restrain the achievability of system goals by means of a sound and efficient data mining process.
|
38 |
Data Mining no Varejo: estudo de caso para loja de materiais de construçãoSchaeffer, André Gustavo January 2003 (has links)
Este trabalho apresenta um estudo de caso de mineração de dados no varejo. O negócio em questão é a comercialização de móveis e materiais de construção. A mineração foi realizada sobre informações geradas das transações de vendas por um período de 8 meses. Informações cadastrais de clientes também foram usadas e cruzadas com informações de venda, visando obter resultados que possam ser convertidos em ações que, por conseqüência, gerem lucro para a empresa. Toda a modelagem, preparação e transformação dos dados, foi feita visando facilitar a aplicação das técnicas de mineração que as ferramentas de mineração de dados proporcionam para a descoberta de conhecimento. O processo foi detalhado para uma melhor compreensão dos resultados obtidos. A metodologia CRISP usada no trabalho também é discutida, levando-se em conta as dificuldades e facilidades que se apresentaram durante as fases do processo de obtenção dos resultados. Também são analisados os pontos positivos e negativos das ferramentas de mineração utilizadas, o IBM Intelligent Miner e o WEKA - Waikato Environment for Knowledge Analysis, bem como de todos os outros softwares necessários para a realização do trabalho. Ao final, os resultados obtidos são apresentados e discutidos, sendo também apresentada a opinião dos proprietários da empresa sobre tais resultados e qual valor cada um deles poderá agregar ao negócio.
|
39 |
Método de mineração de processos para auxílio à tomada de decisão : um estudo de caso no controle de fériasGandulfo, Pablo Ignacio 21 July 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2016-09-01T19:47:04Z
No. of bitstreams: 1
2016_PabloIgnácioGandulfo.pdf: 5521073 bytes, checksum: 55a29dfb170f7b470c29b4d44fe55f21 (MD5) / Rejected by Raquel Viana(raquelviana@bce.unb.br), reason: Bom dia,
Há erros na descrição da citação bibliográfica e o campo de Informações adicionais não foi preenchido.
Atenciosamente,
on 2016-11-04T10:41:14Z (GMT) / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2016-12-05T14:12:37Z
No. of bitstreams: 1
2016_PabloIgnácioGandulfo.pdf: 5521073 bytes, checksum: 55a29dfb170f7b470c29b4d44fe55f21 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-01-04T19:01:46Z (GMT) No. of bitstreams: 1
2016_PabloIgnácioGandulfo.pdf: 5521073 bytes, checksum: 55a29dfb170f7b470c29b4d44fe55f21 (MD5) / Made available in DSpace on 2017-01-04T19:01:46Z (GMT). No. of bitstreams: 1
2016_PabloIgnácioGandulfo.pdf: 5521073 bytes, checksum: 55a29dfb170f7b470c29b4d44fe55f21 (MD5) / A prática de mineração de processos tem sido impulsionada pela necessidade das organizações conhecerem cada vez mais os seus processos de negócio. No entanto, ainda existem alguns desafios e obstáculos a serem superados. Pode-se citar a escassez de modelos e métodos que efetivamente ajudem as organizações a reduzir custos e otimizar o uso de recursos nos fluxos de trabalho organizacionais. Neste cenário, o objetivo geral desta pesquisa é descrever um modelo de mineração de processos para o apoio à tomada de decisões nas organizações, aplicando-o no âmbito do processo de gestão de pessoas nas organizações públicas. O método de mineração desenvolvido foi definido através da junção dos métodos de Bozkaya et al. (2009) e van der Ham (2015), e ilustrado através de uma descrição detalhada dos passos envolvidos. O método foi aplicado em um estudo de caso real numa organização judicial. Foi descoberto um retrabalho de 4,3 vezes na tarefa "Alterar Homologação de Férias". Além disso, o papel "Analista de RH" está consideravelmente sobrecarregado, pois, atua em 47,05% das atividades realizadas, apesar de representar apenas 3,45% dos recursos envolvidos. Esses indicadores de desperdício permitem uma tomada de decisão do gestor para melhoria no processo de controle de férias da organização estudada. ______________________________________________________________________________________________________ ABSTRACT / The increase of process mining's practice has been driven by the need from organizations to better understand their processes. On the other hand, there are still some challenges and obstacles to be overcome. One could mention the lack of models and methods that effectively help government organizations to reduce costs and optimize the use of resources on their personnel management's workflows. In that respect, the objective of this research is to describe a model for process mining to support decisionmaking in organizations, applying it in the personnel management's processes at government organizations. The mining method developed was defined by a combination of the methods of Bozkaya et al. (2009) and van der Ham (2015), with a detailed description of the several steps involved. The method was applied in a real case study at a government organization from the judicial area. A 4.3 times rework was discovered on "Change Vacation approval" task. Besides that, the role "HR Analist" is considerably overloaded because it acts in 47.05% of all activities in spite of representing 3.45% of all resources involved. This waste indicators allow for the decision-making of the manager to improve the vacation control process of the organization analyzed.
|
40 |
Modelos preditivos para avaliação de risco de corrupção de servidores públicos federaisCarvalho, Ricardo Silva 21 September 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas
Departamento de Ciência da Computação, Mestrado Profissional em Computação Aplicada, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-01-26T12:19:36Z
No. of bitstreams: 1
2015_RicardoSilvaCarvalho.pdf: 12764754 bytes, checksum: 6912c187f6b4d6ea2b4520b7651675e7 (MD5) / Approved for entry into archive by Patrícia Nunes da Silva(patricia@bce.unb.br) on 2016-01-26T15:13:56Z (GMT) No. of bitstreams: 1
2015_RicardoSilvaCarvalho.pdf: 12764754 bytes, checksum: 6912c187f6b4d6ea2b4520b7651675e7 (MD5) / Made available in DSpace on 2016-01-26T15:13:56Z (GMT). No. of bitstreams: 1
2015_RicardoSilvaCarvalho.pdf: 12764754 bytes, checksum: 6912c187f6b4d6ea2b4520b7651675e7 (MD5) / A Controladoria-Geral da União (CGU), por meio da Diretoria de Pesquisas e Informa ções Estratégicas (DIE), articula ações de produção de informações estratégicas, investigando possíveis irregularidades cometidas por servidores públicos federais. Com quantitativo reduzido de analistas e inúmeras responsabilidades, a DIE necessita de métodos automatizados aplicáveis a grande volume de dados para aferir corruptibilidade de servidores, buscando assim priorização de trabalho e atuação e caz baseando-se em aspectos
de corrupção. Este trabalho apresenta a aplicação de mineração de dados para gerar modelos preditivos para avaliar risco de corrupção de servidores públicos federais, usando várias bases de dados a que a CGU tem acesso. O processo CRISP-DM é a referência para as fases da mineração de dados. Inicialmente, o conhecimento dos analistas especialistas em combate à corrupção da DIE é aplicado nas diversas bases de dados disponíveis para extração de informações possivelmente úteis na indicação de corruptibilidade. Os dados levantados são analisados e preparados com o uso de diversas técnicas, como discretização e análise de correlação, para, em seguida, passarem por um processo de seleção. Métodos de regressão como Adaptive Lasso e Regressão Ridge são aplicados objetivando a criação de modelos preditivos. O modelo de avaliação de risco de corrupção de servidores públicos federais construído ao nal do trabalho obteve resultados satisfatórios de aproximadamente 85% de sensibilidade, 81% de precisão e 83% de acurácia assim como resultados positivos em testes estatísticos corroborando a validade do modelo com nível de con ança de 95%. Em seguida, as regras geradas pelo modelo nal foram analisadas, adicionando-se o estudo de casos pontuais, de modo a subsidiar a descoberta do conhecimento obtido com o processo de mineração de dados. Com a avaliação de risco de corrupção a partir de modelos preditivos, possibilitouse: uso mais e ciente e e caz de recursos e pessoal da CGU; um impacto nacional; e fortalecimento do controle prévio. O direcionamento de esforços de auditoria e scalização a partir de índices de corruptibilidade sustenta a priorização efetiva de trabalho da CGU. Atinge-se todos os estados do país analisando em larga escala o nível de corrupção dos mais de um milhão de servidores públicos federais, gerando impacto em âmbito nacional. Finalmente, todos os pólos regionais da CGU são apoiados com uma atuação de controle prévio, fortalecendo o combate à corrupção. / The Brazilian O ce of the Comptroller General (CGU), through the Department of
Research and Strategic Information (DIE), articulates activities of strategic information production, investigating possible irregularities by federal civil servants. With a reduced quantitative of analysts and numerous responsibilities, DIE needs automated methods applicable to large volumes of data to assess civil servants' corruptibility, seeking then
work prioritization and e ective action based on aspects of corruption. This work presents a data mining application to generate predictive models to assess
risk of corruption of federal civil servants, using various databases that CGU has access to. The CRISP-DM process is the reference to the phases of the data mining. Initially, the knowledge of DIE's analysts with expertise in ghting corruption is applied in the various databases available to extract potentially useful information in corruptibility
indication. The data collected is analyzed and prepared using various techniques,
such as correlation analysis and discretization, to then pass through a selection process. Regression methods like Adaptive Lasso and Ridge Regression are applied towards the creation of predictive models. The model to assess risk of corruption of civil servants built at the end of the work obtained satisfactory results of approximately 85% sensitivity, 81% precision and 83%
accuracy as well as positive results in statistical tests con rming the relevance of the model with a con dence level of 95%. Then, the rules generated by the nal model were analyzed, aside with the study of individual cases, in order to support the knowledge discovery through the data mining process. The assessment of risk of corruption with predictive models allows: more e cient and e ective use of CGU's resources; a national impact; and strengthening of previous control.
The targeting of audit and control e orts from corruptibility indicators sustains e ective prioritization of the work of CGU. Every state in the country is reached by analyzing in large scale the level of corruption of the more than one million federal civil servants, generating impact nationwide. Finally, all regional centers of CGU are backed with prior control activities, strengthening the ght against corruption.
|
Page generated in 0.0933 seconds