• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 591
  • 18
  • 18
  • 13
  • 13
  • 12
  • 12
  • 9
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 629
  • 629
  • 376
  • 373
  • 243
  • 110
  • 104
  • 104
  • 103
  • 102
  • 90
  • 89
  • 87
  • 81
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Verificação das relações espaciais entre a distribuição de dados sócio-econômicos e a localização de escolas

Tagliatti, Clarissa 27 November 2009 (has links)
Made available in DSpace on 2016-06-02T20:00:32Z (GMT). No. of bitstreams: 1 2862.pdf: 3040505 bytes, checksum: 2bd6dab4d5a521b44585650d2bd54cf0 (MD5) Previous issue date: 2009-11-27 / The process of urban progress, cause the disordered regions growth with some or without structure. In case of school's location, this process can generate excess of school places in some regions while in others there is a de_cit, thus subjecting the students, in some cases, the displacement of several hours. Trying to solve these problems, governments have been investing in programs such as _nancing school transportation, for the conduct of students from more remote regions. This study examined the spatial distribution of public schools comparing with the level of income, education and age of the population, using GIS techniques associated with Knowledge Extraction from Databases (Data Mining). This practice allows for the discovery of hidden information in large databases that may be considered interesting, as you con_rm, extend, or challenges the existing knowledge on the subject. Additionally, it allows a more elaborated on the educational services provided, given the existing demands, contributing to a critical analysis of the situation of these towns, in educational point of view, searching the assignment of a better quality of life for people. The city of Araraquara-SP, is a medium size city, and considering the availability of data and the importance for future applications of the results extracted, was chosen as the object of study. This study used techniques of Spatial Data Mining, allowing the discovery of important information, such as the fact that poor people reside far away from public schools. Besides, the analysis of the data presented de_cit and bad distribution of high schools in the city of Araraquara. These evidences indicated the feasibility of the methodology used also for large databases. / Do processo de crescimento urbano, ocorre o inchaço desordenado de regiões dotadas de pouca ou nenhuma estrutura. No caso de localização de escolas públicas esse processo pode gerar situações inusitadas, nas quais ocorre excesso de vagas escolares, em algumas regiões, enquanto em outras tem-se d_e_cit, sujeitando assim os alunos, em alguns casos, a deslocamentos de várias horas. A fim de sanar tais problemas os governos têm investido em programas como o de financiamento ao transporte escolar, para a condução de alunos oriundos de regiões mais afastadas. Este estudo foi realizado com intuito de verificar a distribuição espacial de escolas públicas frente ao nível de renda, escolaridade e idade da população, utilizando Sistemas de Informação Geográfica associado a técnicas de Extração de Conhecimento a partir de Bases de Dados (Mineração de Dados). Esta prática possibilita a descoberta de informações ocultas dentro de grandes bases de dados, que podem ser consideradas interessantes, a medida que conforme, amplie ou conteste o conhecimento já existente sobre o assunto. Adicionalmente, viabiliza uma avaliação mais elaborada sobre o atendimento educacional, face às demandas existentes, contribuindo assim para uma análise crítica da situação destas cidades, do ponto de vista educacional, na busca da atribuição de melhor qualidade de vida à população. A cidade de Araraquara-SP, por ser de médio porte, e considerando a disponibilidade dos dados e a importância para aplicações futuras dos resultados extra__dos, foi escolhida como objeto de estudo. Este estudo utilizou técnicas de Mineração de Dados Espaciais, possibilitando a descoberta de informações importantes, como por exemplo o fato de pessoas de baixa renda habitarem áreas periféricas distantes de escolas públicas. Além disso, a análise dos dados apresentou deficit e má distribuição de escolas de ensino médio no município de Araraquara. Estas evidências demonstram a viabilidade da metodologia empregada também para grandes bases de dados.
222

Framework para prospecção de dados espaciais baseado em semântica apoiado por ontologias

Guimarães, Diogo Lemos [UNESP] 14 January 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:24:58Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-01-14. Added 1 bitstream(s) on 2015-09-17T15:46:54Z : No. of bitstreams: 1 000844461.pdf: 2343781 bytes, checksum: 8681cf73adb75087200b650dc39d2dba (MD5) / Com a popularização de dispositivos que permitem a obtenção de dados espaciais, como pontos geográficos, velocidade e direção, aumentou-se consideravelmente o interesse pela captura, armazenamento e interpretação desses dados. Com isto, cada vez mais, um número maior de aplicações demostram interesse nesse tipo de dado e necessitam de bases de dados próprias para armazenar as informações. Estas bases são conhecidas como bases de dados espaciais. Com o objetivo de obter informações relevantes destes dados, algoritmos de prospecção de dados espaciais foram desenvolvidos e vem avançando com o intuito de, por exemplo, melhorar a qualidade dos resultados obtidos. Todavia, os algoritmos atuais desconsideram que os pontos geográficos estão em determinadas regiões, que por si só, fornecem informações semânticas relevantes. Com o objetivo de aprimorar os resultados de algoritmos, o uso de ontologias permite adicionar semântica e expressar o conhecimento sobre um domínio específico. O trabalho desenvolvido apresenta uma abordagem que permite, por meio do uso de ontologia, estender algoritmos espaciais para utilizarem um novo atributo durante o processo de criação de agrupamentos, o coeficiente semântico do ponto. Através do framework desenvolvido é possível adaptar algoritmos para utilizarem essa abordagem possibilitando gerar resultados mais relevantes / With the popularity of devices it became possible to easily obtain spatial data, such as geographic points, speed and direction, and because of that it also increased considerably the interest in obtaining, storing and analyzing such data. Therefore, a larger number of applications demonstrate interest in this type of data requiring it's own databases for storing this kind of information. These bases are known as spatial databases. In order to obtain relevant information from these data, spatial data algorithms were developed and has been advancing in order to, for example, improve the quality of the results. However, current algorithms disregard that geographical points are in certain regions, which in itself, provide relevant semantic information. In order to improve the results of algorithms, the use of ontologies allows to express semantics and knowledge about a particular domain. This work presents an approach that allows, through the use of ontology, extend spatial algorithms to use a new attribute in the process of creating groups, the semantic coefficient point. Through the developed framework it is possible to adapted algorithms to use this approach enabling generate more relevant results
223

Detecção de outliers espaciais: refinamento de similaridade e desempenho

Kawabata, Thatiane [UNESP] 06 March 2015 (has links) (PDF)
Made available in DSpace on 2015-09-17T15:25:36Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-03-06. Added 1 bitstream(s) on 2015-09-17T15:48:34Z : No. of bitstreams: 1 000846509.pdf: 1580186 bytes, checksum: d89c082f46e712aad17c33f71c4143c3 (MD5) / O avanço e desenvolvimento de tecnologias utilizadas na coleta de informações georreferenciáveis proporcionou um aumento na quantidade de dados espaciais armazenados nas bases de dados. Isso também acarretou muitos problemas, comuns em grandes bases de dados, tais como: redundância de dados, dados incompletos, valores desconhecidos e outliers. Com o objetivo de obter informações relevantes dos dados espaciais, a aplicação de algoritmos de prospecção de dados espaciais, principalmente os algoritmos de agrupamentos espaciais, tornou-se uma prática bastante recorrente em todo cenário mundial. Por outro lado, muitos algoritmos atuais desconsideram a presença de outliers locais em dados espaciais, ou apenas consideram a sua localidade em relação aos demais dados da base, o que pode gerar resultados inconsistentes e dificultar a extração de conhecimento. Dessa forma, com o propósito de contribuir nesse sentido, o trabalho visa elaborar um levantamento de informações relacionadas a prospecção de dados espaciais, detecção de outliers convencionais e espaciais, assim como, apresentar os principais trabalhos no estado da arte. Por fim, propõe-se disponibilizar uma abordagem configurável e portável aos resultados dos algoritmos de agrupamento espaciais, na qual inclui-se uma melhoria em um algoritmo de detecção de outliers espaciais, que visa a prospecção de informações no conjunto de dados / The progress and development of technologies used to collect spatial information resulted in an increase in the amount of spatial data stored in databases. This also caused many problems, common in large databases, such as data redundancy, incomplete data, unknown values and outliers. Aiming to obtain relevant information from spatial data, the application of algorithms for exploration of spatial data, especially spatial clusters of algorithms, has become a fairly common practice across the world scene. Moreover, many current algorithms ignore the presence of local outliers in spatial data, or just consider your location in relation to other data in base, which can cause inconsistent results and complicate the extraction of knowledge. Thus, in order to contribute to this, the work aims to develop a survey of information related to exploration of spatial data, detection of conventional and spatial outliers, as well as, present the main work in state of the art. Finally, we propose to provide a portable and configurable algorithms to the results of spatial clustering approach, which includes an improvement on an algorithm to detect spatial outliers, aimed at prospecting for information in the dataset
224

Uma abordagem usando visualização de software como apoio à refatoração para aspectos

Delfim, Fernanda Madeiral [UNESP] 06 August 2013 (has links) (PDF)
Made available in DSpace on 2014-11-10T11:09:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-08-06Bitstream added on 2014-11-10T11:58:47Z : No. of bitstreams: 1 000786875.pdf: 3157101 bytes, checksum: 8d7cc7e4bd3ac445b9569b6dcfbdc90f (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A evolução de sistemas de software existentes para a tecnologia orientada a aspectos tem como primeiro passo a mineração de aspectos, que visa a identificar interesses transversais em código fonte, para serem encapsulados em aspectos. Diversas técnicas têm sido propostas para a mineração de aspectos, mas ainda com deficiências. Uma das causas dessas deficiências apontada na literatura é a apresentação inadequada dos resultados obtidos por tais técnicas. A Visualização de Software pode ser utilizada para analisar, interpretar e combinar resultados de técnicas de mineração de aspectos, sendo os resultados apresentados juntamente com características de programa. Neste trabalho é apresentada uma abordagem visual de múltiplas visões coordenadas com o propósito de prover um ambiente para a apresentação dos resultados gerados por técnicas de mineração de aspectos, para melhorar a compreensão do usuário ao analisá-los para futura refatoração para aspectos. As múltiplas visões coordenadas são utilizadas para permitir a análise: das associações baseadas em chamadas de métodos, em nível de classe e de método, permitindo a visualização da frequência de chamadas das unidades baseada na métrica fan-in; das dependências de controle e de dados entre instruções de programa; da estrutura de programa; de como conjuntos de instruções (fatias) são compostos em diversas classes; e do bytecode. O foco é investigar se a visualização contribui na compreensão de programas por meio dos resultados gerados usando as técnicas fatiamento de programa e análise de fan-in, propostas para minerar aspectos, de maneira complementar. Uma ferramenta de visualização de software, nomeada SoftV is4CA (Software Visualization for Code Analysis), foi desenvolvida para apoiar a abordagem visual proposta. O estudo preliminar mostrou que o modelo de coordenação proposto apoia a análise pela exploração de diferentes níveis de ... / The evolution of existing software systems to aspect-oriented technology has as first step the aspect mining, which aims to identify crosscutting concerns in source code to be encapsulated into aspects. Several techniques have been proposed for aspect mining, but still with shortcomings. One cause of these shortcomings pointed out in the literature is inadequate presentation of the results obtained by these techniques. Software Visualization can be used to analyze, interpret and combine results of aspect mining techniques, being the results presented with program characteristics. This work presents a visual approach of multiple coordinated views in order to provide an environment for the presentation of the results generated by aspect mining techniques, as well as to improve the understanding of the user to analyze them for future refactoring to aspects. The multiple coordinated views are used to allow the analysis: of associations based on method calls, at class and method levels, allowing visualization of the units call frequency based on fan-in metric; of the control and data dependencies between program instructions; of the program structure; of how instruction sets (slices) are composed in several classes; and of bytecode. The focus is to investigate whether visualization helps in program comprehension by the results generated using program slicing and fan-in analysis techniques, proposals for mining aspects in a complementary way. A software visualization tool, named SoftV is4CA (Software Visualization for Code Analysis), was developed to support the proposed visual approach. The preliminary study showed that the proposed coordination model supports the analysis by exploration of different levels of details
225

Análise de logs de interação em ambiente educacional corporativo via mineração de dados educacionais

Coelho, Vinícius Coutinho Guimarães 26 June 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-07-19T12:53:21Z No. of bitstreams: 1 2017_ViniciusCoutinhoGuimaraesCoelho.pdf: 3055767 bytes, checksum: b5e5c1ad4931705eb6af54774f0aec8e (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-15T16:04:19Z (GMT) No. of bitstreams: 1 2017_ViniciusCoutinhoGuimaraesCoelho.pdf: 3055767 bytes, checksum: b5e5c1ad4931705eb6af54774f0aec8e (MD5) / Made available in DSpace on 2017-09-15T16:04:19Z (GMT). No. of bitstreams: 1 2017_ViniciusCoutinhoGuimaraesCoelho.pdf: 3055767 bytes, checksum: b5e5c1ad4931705eb6af54774f0aec8e (MD5) Previous issue date: 2017-09-15 / A Mineração de Dados Educacionais (do inglês, Educational Data Mining - EDM) tem sido uma ferramenta crucial para a melhora da Educação a Distância (EAD), permitindo, por exemplo, a identificação de características de participantes, a análise preditiva de desempenho bem como o reconhecimento dos tipos e padrões de aprendizado. A literatura científica apresenta uma vasta quantidade de trabalhos relacionados a ambientes educacionais de Instituições de Ensino Superior. Entretanto, tais ambientes possuem um modelo pedagógico com características específicas comuns a cursos de graduação e pós-graduação. Neste trabalho de mestrado, é proposto um modelo de aplicação de técnicas de EDM para um Ambiente Virtual de Aprendizagem (AVA) corporativo, de âmbito governamental. Foram gerados dados referentes aos logs de interação de cerca de 70 mil alunos em 45 turmas de 7 cursos na modalidade a distância da Escola Nacional de Administração Pública (Enap), entre 2015 e 2016. Por meio de técnicas de classificação usando árvores de decisão, verifica-se o relacionamento entre as interações realizadas pelos alunos ao longo do curso e as notas finais obtidas. Foi utilizada uma metodologia de agrupamento dos dados de interação divididos em semanas, com o intuito de viabilizar possíveis intervenções antes do término dos cursos. Foi possível concluir que o modelo proposto alcançou bons resultados quando comparados à literatura específica e que foi capaz de gerar indicadores relacionados aos perfis de interação dos alunos, que são passíveis de utilização para o combate às taxas de evasão e reprovação, nos cursos a distância ofertados por uma instituição corporativa governamental de ensino. / Educational Data Mining has been a crucial tool for the improvement of Distance Education, allowing, for example, the identification of characteristics of participants, predictive performance analysis as well as the recognition of learning types and patterns. The scientific literature shows a vast amount of work related to educational environments of Higher Education Institutions. However, such environments have a pedagogical model with specific characteristics common to undergraduate and postgraduate courses. In this master's work, a model of application of EDM techniques for a corporate Virtual Learning Environment (VLE) is proposed, , of governmental scope. Data were generated for interaction logs of about 70 thousand students in 45 classes of 7 courses in the distance modality of the National School of Public Administration (Enap) between 2015 and 2016. Through classification techniques using decision trees, relationship between the interactions carried out by the students along the course and the final grades obtained is verified. A methodology was used to group the interaction data divided into weeks, in order to enable possible interventions before the end of the courses. It was possible to conclude that the proposed model achieved good results when compared to the specific literature and it was able to generate indicators related to the students interaction profiles, which can be used to combat dropout and failure rates in distance courses offered in governmental educational institution.
226

Mineração de dados como suporte à detecção de lavagem de dinheiro

Paula, Ebberth Lopes de 15 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2017-01-25T14:49:59Z No. of bitstreams: 1 2016_EbberthLopesdePaula.pdf: 3248212 bytes, checksum: 8a9dd24ed5ebc93ba3f6fc1b9bba4411 (MD5) / Approved for entry into archive by Thayse Natália Cantanhede Santos(thaysesantos@bce.unb.br) on 2017-02-15T20:28:24Z (GMT) No. of bitstreams: 1 2016_EbberthLopesdePaula.pdf: 3248212 bytes, checksum: 8a9dd24ed5ebc93ba3f6fc1b9bba4411 (MD5) / Made available in DSpace on 2017-02-15T20:28:24Z (GMT). No. of bitstreams: 1 2016_EbberthLopesdePaula.pdf: 3248212 bytes, checksum: 8a9dd24ed5ebc93ba3f6fc1b9bba4411 (MD5) / Este trabalho apresenta o uso de técnicas de mineração de dados para detecção de empresas exportadoras brasileiras suspeitas de operarem exportações fictícias e conseqüente incorrência no crime de lavagem de dinheiro. A partir de estudos de aprendizagem de máquina com algoritmos supervisionados, foi desenvolvido um modelo capaz de classificar empresas suspeitas de operarem exportações fictícias. Em paralelo, foram desenvolvidos ainda estudos não supervisionados com Deep Learning Autoencoder e identificado um padrão de relacionamento entre os atributos numéricos representativos dos dados econômicos, mercantis, tributários e sociais das empresas que permitem a identificação de anomalias em dados de outras empresas. As empresas identificadas a partir do modelo supervisionado proposto neste trabalho foram submetidas à área específica de fiscalização aduaneira dentro da RFB e julgadas aptas a integrarem a programação de seleção para fiscalizações no ano de 2017. A metodologia desenvolvida, seus resultados e sua aplicabilidade foram divulgadas a todos escritórios de pesquisa e investigação da RFB por meio de Informação de Pesquisa e Investigação (IPEI). Um estudo de caso apresentando a metodologia aqui desenvolvida está previsto para ocorrer no 1o Encontro Nacional da RedeLab de 2017. Melhorias futuras a este trabalho incluem a detecção de anomalias e classificação de suspeição na exportação com maior granularidade dos dados, permitindo a sua identificação independente da empresa: por exemplo, a partir de transações, por rotas de produtos ou por tipo de mercadoria. / This research presents the use of data mining techniques to detect brazilian exporting companies suspected of operating dummy exports and consequently incurring the crime of money laundering. Based on studies involving supervised analyzes, a model was developed capable of classifying companies suspected of operating dummy exports. Based on studies with Deep Learning Autoencoder, a pattern of relationship was identified between the numerical attributes representative of the economic and tax data of the companies. From this pattern, is possible to identify anomalies in data of another companies. The companies identified in this study were submitted to the specific area of customs supervision and found fit to integrate the selection schedule for inspections in the year 2017. The technique developed was disclosed to all investigation offices of the RFB through a document called IPEI. A case study presenting the methodology developed is expected to take place at the first national meeting of RedeLab 2017. Future improvements to this work include detection of anomalies and classification of export suspicious with greater granularity of the data, allowing them to be identified independently of the company: for example from transactions, product routes and by commodity type.
227

Técnicas baseadas em grafos para priorização de investigações policiais de fraudes bancárias eletrônicas / Techniques based on graph for prioritisation investigations fraud cops banking electronic

Patrocínio, Álex Moreira do 09 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016. / Submitted by Camila Duarte (camiladias@bce.unb.br) on 2017-02-08T14:03:25Z No. of bitstreams: 1 2016_AlexMoreiradoPatrocínio.pdf: 12525561 bytes, checksum: 54fc7d3d4f41b7c4c4e02ca6f0e392fd (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-04-19T21:22:19Z (GMT) No. of bitstreams: 1 2016_AlexMoreiradoPatrocínio.pdf: 12525561 bytes, checksum: 54fc7d3d4f41b7c4c4e02ca6f0e392fd (MD5) / Made available in DSpace on 2017-04-19T21:22:19Z (GMT). No. of bitstreams: 1 2016_AlexMoreiradoPatrocínio.pdf: 12525561 bytes, checksum: 54fc7d3d4f41b7c4c4e02ca6f0e392fd (MD5) / Ao longo dos últimos anos, a Polícia Federal do Brasil (PF) vem concentrando esforços para elucidar crimes de fraudes bancárias praticados contra a empresa pública e instituição financeira da Caixa Econômica Federal (CAIXA). A elucidação desses crimes é uma atribuição da PF, prevista na Constituição Federal do Brasil em seu artigo 144 § 1º. A abordagem proposta neste trabalho, denominada Kraken, é aprimorar o modelo de investigação existente utilizando-se de grafos e da análise de vínculos para auxiliar às técnicas de investigação da PF. O Kraken trata, em específico, de investigações contra fraudes eletrônicas relativas a transferência de valores entre contas bancárias. Para aplicar a abordagem do Kraken, foi necessária a criação de um ferramental que processe toda a informação contida na Base Nacional de Fraudes Bancárias Eletrônicas (BNFBE) e a transforme em grafos conexos, que representem os atores e seus relacionamentos (vínculos) na ação delitiva desse tipo de fraude. Para a realização desse trabalho tivemos acesso a um conjunto dos dados da BNFBE. O objetivo desse ferramental é servir como uma Interface Gráfica (IG) para que o investigador Policial Federal possa verificar os resultados do processamento da abordagem do Kraken em um formato de tabela, onde cada registro represente um grafo referente a um conjunto de atores e vínculos envolvidos na ação delitiva. É na IG do Kraken que o Policial Federal consegue reordenar a tabela que contém as investigações/grafos em ordem decrescente de métricas objetivas, como: quantidade de vítimas, pessoas beneficiadas e valor total das fraudes existentes em cada grafo gerado pelo Kraken. A principal hipótese é que com o reordenamento dos grafos, baseado nessas métricas objetivas, possa-se priorizar as investigações criminais a serem analisadas pela PF. A IG permite selecionar um grafo específico da tabela para ser exportado e visualizado no Analyst´s Notebook da IBM. Com a abordagem do Kraken e sua IG, espera-se diminuir a necessidade de interferência humana (investigador policial) nos relatórios de análise dos crimes e, consequentemente, acelerar as investigações da PF. / Over the last few years the Federal Police of Brazil (PF) has concentrated efforts to elucidate crimes of bank fraud committed against Caixa Econômica Federal (CAIXA) a public company and financial institution. The elucidation of these crimes is an attribution of the PF, provided for in the Federal Constitution of Brazil in its article 144 § 1º. The approach presented in this work, denominated Kraken, proposes to improve the existing research model, using graphs and link analysis, to assist in the investigation techniques of the PF. Kraken deals in particular with investigations into electronic fraud involving transfer of securities between bank accounts. In order to apply Kraken's approach it was necessary to create a tool to process all the information contained in the National Electronic Banking Fraud Database (BNFBE) and to transform it into related graphs that represent the actors and their relationships (links) in the criminal act of this type of fraud. For this work we had access to a set of BNFBE data. The objective of this tool is to serve as a Graphic Interface (IG) so that the Federal Police investigator can verify the results of the processing of the Kraken approach in a table format, where each record represents a graph referring to a set of actors and movements involved in the crime scene. In Kraken's IG the Federal Police officer can rearrange the table containing the investigations / graphs in descending order of objective metrics such as: number of victims, persons who have profited from crime and total value of frauds in each graph generated by Kraken. The main hypothesis is that with the rearrangement of the graphs, based on these objective metrics, it is possible to prioritize the criminal investigations to be analyzed by the PF. The IG allows to select a specific graph of the table to be exported and viewed on IBM's Analyst's Notebook. With the approach of Kraken and its IG, it is hoped that the need for human interference (police investigator) will be reduced in the crime analysis reports and, consequently, further accelerate investigations in the PF.
228

Magister - Metodologia de análise de programas de educação à distância baseada em Learning Analytics

Lacerda, Ivan Max Freire de 02 March 2018 (has links)
Submitted by Automação e Estatística (sst@bczm.ufrn.br) on 2018-07-26T17:05:20Z No. of bitstreams: 1 IvanMaxFreireDeLacerda_TESE.pdf: 3236688 bytes, checksum: f8269c0c3bdbd5a0b84b45f9f4181c93 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2018-07-26T19:49:52Z (GMT) No. of bitstreams: 1 IvanMaxFreireDeLacerda_TESE.pdf: 3236688 bytes, checksum: f8269c0c3bdbd5a0b84b45f9f4181c93 (MD5) / Made available in DSpace on 2018-07-26T19:49:52Z (GMT). No. of bitstreams: 1 IvanMaxFreireDeLacerda_TESE.pdf: 3236688 bytes, checksum: f8269c0c3bdbd5a0b84b45f9f4181c93 (MD5) Previous issue date: 2018-03-02 / O crescente aumento dos dados registrados em cursos ofertados na modalidade a distância proporciona a utilização de métodos computacionais adaptados a pesquisa e agrupamento de dados educacionais, visando a descoberta de comportamentos de aprendizado. Essa área de pesquisa possibilita o desenvolvimento de ferramentas automatizadas de acompanhamento, predição e intervenção visando o aprimoramento dos índices educacionais. Em virtude disso, este trabalho propõe uma metodologia para a análise de programas de ensino a distância com base na tecnologia Learning Analytics, utilizando os dados de acesso dos alunos ao Ambiente Virtual de Aprendizagem (AVA), identificando os padrões sequenciais de uso mais frequentes e classificando-os de acordo com as categorias de aprendizagem autorregulada. Para a mineração sequencial de dados sequenciais os algoritmos SPAM e VGEN foram aplicados aos bancos de dados de duas instituições educacionais. Além do desenvolvimento da metodologia, como resultado desse processamento, uma grande incidência de um comportamento não previsto pela teoria da aprendizagem autorregulada foi identificado, e para classifica-lo foi criado um padrão chamado baixa participação. / The increasing of the data registered in courses offered in the distance modality boost the use of computational methods adapted to the research and the grouping of educational data, aiming to discover learning behaviors patterns. This research area allows the development of automated monitoring, prediction and intervention tools aiming at improving the educational indexes. As a result, this work proposes a methodology for analyzing distance learning programs based on the Learning Analytics technology, using the students’ access data to the Learning Management System (LMS), identifying the most frequent sequential patterns of use and classifying them as according to the self-regulated learning categories. For a sequential mining of sequential data the SPAM and VGEN algorithms were applied to the databases of two educational institutions. In addition to the development of the methodology, as a result of processing, a high incidence of behavior not predicted in the self-regulated learning theory was identified, and to classify it was created a pattern called low participation.
229

Inteligência artificial aplicada à melhoria da acurácia do mapeamento de redes de drenagem

Bueno, Luis Fernando January 2016 (has links)
Orientador : Prof. Dr. Tony Vinicius Moreira Sampaio / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências da Terra, Programa de Pós-Graduação em Geografia. Defesa: Curitiba, 11/08/2016 / Inclui referências : fls. 133-148 / Área de concentração / Resumo: Mapeamentos das redes de drenagens vem sendo conduzidos, inicialmente a partir de interpretação visual de imagens, depois com auxilio de algoritmos para extração automática. Em detrimento da melhora na resolução espacial das imagens e na variedade dos algoritmos disponíveis, cada um deles com estratégia diferente para a geração dos canais de drenagem, a acurácia dos mapeamentos ainda e um problema recorrente. Nesta pesquisa avaliou-se o potencial de aplicação de técnicas de inteligência artificial no processo de extração automática de redes de drenagem, visando melhorar acurácia do mapeamento. Um banco de dados espaciais foi construído, e reuniu dados oriundos do Modelo Digital de Elevação - MDE, parâmetros morfométricos, imagens SAR e SPOT 5, geologia, geomorfologia, hidrogeologia e solo. Uma Rede Neural Artificial - RNA foi criada para classificar amostras nas classes drenagem e não drenagem. A RNA, do tipo perceptron multicamadas com algoritmo de retropropagação de erros (backpropagation), foi definida com uma camada de entrada com 42 neurônios (quando usadas todas as variáveis possíveis), três camadas escondidas com 119 neurônios e uma camada de saída. A rede foi treinada a partir de quatro conjuntos de dados, e os testes realizados a partir de outros 16 conjuntos distintos de testes contendo amostras diferentes daquelas usadas no treinamento. Percebeu-se que a RNA foi mais eficiente na classificação dos conjuntos de dados com pixel de 2,5 metros, quando foram usadas na camada de entrada da rede todas as variáveis disponíveis e a camada de saída continha apenas duas classes (drenagem e não drenagem). Neste caso, a acurácia total ficou sempre acima de 68%. Foram identificados canais de primeira ordem que não constavam na base cartográfica de referencia. A melhoria da acurácia temática e da completude foi observada, atestando que mineração de dados e RNA podem efetivamente contribuir na melhoria dos mapeamentos. Palavras-chave: Mineração de dados. Redes Neurais Artificiais. Hidrologia. Cartografia. Qualidade de Dados Geoespaciais. / Abstract: Mapping of drainage networks have been performed using visual interpretation of images, at first, then with the assist of automatic extraction algorithms. The limitation of spatial resolution of the available images and the diversity of available algorithms with different approaches in generating drainage channels, the accuracy level of this kind of mapping is still a frequent problem. This research evaluated the potential application of artificial intelligence techniques in auto-extracting process of drainage networks, in order to improve the mapping accuracy. A spatial database was built using data from: the Digital Elevation Model - DEM, morphometric parameters, SAR and SPOT 5 images, geology, geomorphology, hydrogeology and soil. An Artificial Neural Network - ANN was created to classify samples in classes of drainage and non-drainage. The multilayer perceptron ANN, with error back propagation algorithm, was set with one input layer with 42 neurons (when all possible variables were used), three hidden layers of 119 neurons and an output layer. The network was trained from four datasets, and tests from 16 other distinct sets of tests with different samples from those used in training. The ANN was more efficient in classification of datasets with 2.5 meters pixels when all available variables were used in the network's input layer and the output layer had only two classes (drainage and non-drainage). Following this scenario, the overall accuracy has been always above 68%. First order draining channels were identified where nothing was described in the base map reference. The improvement of thematic accuracy was observed, confirming data mining and RNA as an effective way to contribute to the improvement of this sort of mapping. Key-words: Data Mining. Artificial Neural Networks. Mapping. Hidrology. Cartography. Geoespatial Data Quality.
230

Mineração multi-relacional: o algoritmo GFP-growth.

Pizzi, Luciene Cristina 25 May 2006 (has links)
Made available in DSpace on 2016-06-02T19:05:21Z (GMT). No. of bitstreams: 1 DissLCP.pdf: 1200368 bytes, checksum: 728208bb18c724a37e9c9e51c0521b56 (MD5) Previous issue date: 2006-05-25 / Financiadora de Estudos e Projetos / Data mining is the phase of the knowledge discovery in database process where an algorithm is applied to the available data, in order to prove a hypothesis or discover a still unknown pattern. The traditional data mining techniques can deal only with single tables; however it is interesting to look for patterns involving several related tables, aiming to analyze the existing relation between the entities present in one table and the data of the same entities present in another table. Depending on the relationship existing between these tables, applying a traditional algorithm to the joint table is not sufficient, as the joint table may contain duplicated attribute values which interfere in the analysis process of the generated rules. In order to solve this problem, this project adopts an approach which consists on looking for association rules mining the joint table. The adopted process considers the groups of tuples, where each group is formed by tuples of the same entity. Following this approach the GFP-Growth algorithm was developed, which is presented in this monograph along with its results and comparisons with other multi-relational algorithms. / A mineração de dados é a etapa do processo de descoberta de conhecimento na qual um algoritmo é aplicado sobre os dados disponíveis, com o intuito de provar uma hipótese ou descobrir algum padrão até então desconhecido. As técnicas tradicionais de mineração de dados tratam uma única tabela, no entanto é interessante buscar padrões que envolvam múltiplas tabelas relacionadas, com o intuito de analisar a relação existente entre os dados de uma entidade presentes em uma tabela e os dados dessa mesma entidade presentes em uma outra tabela. Dependendo do tipo de relacionamento existente entre essas tabelas, não basta realizar a junção das mesmas para aplicar um algoritmo tradicional de mineração de dados na tabela resultante, pois essa tabela pode conter duplicação de valores de atributos que interferem no processo de análise das regras geradas. Para resolver esse problema, este trabalho adota uma abordagem que consiste na busca por regras de associação, realizando a mineração na tabela resultante da junção. O processo adotado considera agrupamentos de tuplas, sendo que cada agrupamento é formado pelas tuplas de uma mesma entidade. Seguindo essa abordagem foi desenvolvido o algoritmo GFP-Growth, o qual é apresentado nesta monografia juntamente com seus resultados e comparações com outros algoritmos multi-relacionais.

Page generated in 0.0771 seconds