Spelling suggestions: "subject:"pósprocessamento"" "subject:"pósprocessamento""
11 |
Construção semi-automática de taxonomias para generalização de regras de associação / Semi-automatic construction of taxonomies for association rules generationCamila Delefrate Martins 14 July 2006 (has links)
Para o sucesso do processo de mineração de dados é importante que o conhecimento extraí?do seja compreensível e interessante para que o usuário final possa utilizá-lo em um sistema inteligente ou em processos de tomada de decisão. Um grande problema, porém, é identificado quando a tarefa de mineração de dados denominada associação é utilizada: a geração de um grande volume de regras. Taxonomias podem ser utilizadas para facilitar a análise e interpretação das regras de associação, uma vez que as mesmas provêm uma visão de como os itens podem ser hierarquicamente classificados. Em função dessa hierarquia é possível obter regras mais gerais que representem um conjunto de itens. Dentro desse contexto, neste trabalho é apresentada uma metodologia para construção semi-automática de taxonomias, que inclui procedimentos automáticos e interativos para a realização dessa tarefa. Essa combinação possibilita a utilização do conhecimento do especialista e também o auxilia na identificação de grupos. Entre os principais resultados deste trabalho, pode-se destacar a proposta e implementação do algoritmo SACT (Semi-automatic Construction of Taxonomies - Construção Semi-automática de Taxonomias), que provê a utilização da metodologia proposta. Para viabilizar a utilização do algoritmo, foi desenvolvido o módulo computacional RulEESACT. Com o objetivo de viabilizar e analisar a qualidade da metodologia proposta e do módulo desenvolvido, foi realizado um estudo de caso no qual foram construída taxonomias para duas bases de dados utilizando o RulEE-SACT. Uma das taxonomias foi analisada e validada por uma especialista do domínio. Posteriormente, as taxonomias e as bases de transações foram fornecidas para dois algoritmos de generalização de regras de associação a fim de analisar a aplicação das taxonomias geradas / I n the data mining process it is important that the extracted knowledge is understandable and interesting to the final user, so it can be used to support in the decision making. However, the data mining task named association has one problem: it generates a big volume of rules. Taxonomies can be used to facilitate the analysis and interpretation of association rules, because they provide an hierarchical vision of the items. This hierarchy enables the obtainment of more general rules, which represent a set of items. In this context, a methodology to semi-automatically construct taxonomies is proposed in this work. This methodology includes automatic and interactives procedures in order to construct the taxonomies, using the specialist?s knowledge and also assisting in the identification of groups. One of the main results of this work is the proposal and implementation of the SACT (Semi-automatic Construction of Taxonomies) algorithm, which provides the use of the proposed methodology. In order to facilitate the use of this algorithm, a computational module named RulEE-SACT was developed. Aiming to analyze the viability and quality of the proposed methodology and the developed module, a case study was done. In this case study, taxonomies of two databases were constructed using the RulEE-SACT. One of them was analyzed and validated by a domain specialist. Then the taxonomies and the databases were supplied to two algorithms which generalize association rules, aiming to analyze the use of the generated taxonomies
|
12 |
"Pós-processamento de regras de associação" / Post-processing of association rulesEdson Augusto Melanda 30 November 2004 (has links)
A demanda por métodos de análise e descoberta de conhecimento em grandes bases de dados tem fortalecido a pesquisa em Mineração de Dados. Dentre as tarefas associadas a essa área, tem-se Regras de Associação. Vários algoritmos foram propostos para tratamento de Regras de Associação, que geralmente tem como resultado um elevado número de regras, tornando o Pós-processamento do conhecimento uma etapa bastante complexa e desafiadora. Existem medidas para auxiliar essa etapa de avaliação de regras, porém existem lacunas referentes a inexistência de um método intuitivo para priorizar e selecionar regras. Além disso, não é possível encontrar metodologias específicas para seleção de regras considerando mais de uma medida simultaneamente. Esta tese tem como objetivo a proposição, desenvolvimento e implementação de uma metodologia para o Pós-processamento de Regras de Associação. Na metodologia proposta, pequenos grupos de regras identificados como potencialmente interessantes são apresentados ao usuário especialista para avaliação. Para tanto, foram analisados métodos e técnicas utilizadas em Pós-processamento de conhecimento, medidas objetivas para avaliação de Regras de Associação e algoritmos que geram regras. Dessa perspectiva foram realizados experimentos para identificar o potencial das medidas a serem empregadas como filtros de Regras de Associação. Uma avaliação gráfica apoiou o estudo das medidas e a especificação da metodologia proposta. Aspecto inovador da metodologia proposta é a utilização do método de Pareto e a combinação de medidas para selecionar as Regras de Associação. Por fim foi implementado um ambiente para avaliação de Regras de Associação, denominado ARInE, viabilizando o uso da metodologia proposta. / The large demand of methods for knowledge discovery and analysis in large databases has continously increased the research in data mining area. Among the tasks associated to this area, one can find Association Rules. Several algorithms have been proposed for treating Association Rules. However, these algorithms give as results a huge amount of rules, making the knowledge post-processing phase very complex and challeging. There are several measures that can be used in this evaluation phase, but there are also some limitations regarding to the ausence of an intuitive method to rank and select rules. Moreover, it is not possible to find especific methodologies for selecting rules, considering more than one measure simultaneously. This thesis has as objective the proposal, development and implementation of a postprocessing methodology for Association Rules. In the proposed methodology, small groups of rules, which have been identified as potentialy interesting, are presented to the expert for evaluation. In this sense, methods and techniques for knowledge post-processing, objective measures for rules evaluation, and Association Rules algorithms have been analized. From this point of view, several experiments have been realized for identifying the potential of such measures to be used to filter Association Rules. The study of measures and the specification of the proposed methodology have been supported by a graphical evaluation. The novel aspect of the proposed methodology consists on using the Paretos method and combining measures for selecting Association Rules. Finally, an enviroment for evaluating Association Rules, named as ARInE, has been implemented according to the proposed methodology.
|
13 |
Recuperação de aproximações de alta ordem para o problema de Helmholtz / Recovery of higher order approximations for the Helmholtz problemAmad, Alan Alves Santana 05 April 2012 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2017-08-15T12:41:18Z
No. of bitstreams: 1
Dissertacao-AlanAmad.pdf: 1027916 bytes, checksum: 93213f6249bbd63baedc4a55d7c431b1 (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2017-08-15T12:52:01Z (GMT) No. of bitstreams: 1
Dissertacao-AlanAmad.pdf: 1027916 bytes, checksum: 93213f6249bbd63baedc4a55d7c431b1 (MD5) / Made available in DSpace on 2017-08-15T12:52:12Z (GMT). No. of bitstreams: 1
Dissertacao-AlanAmad.pdf: 1027916 bytes, checksum: 93213f6249bbd63baedc4a55d7c431b1 (MD5)
Previous issue date: 2012-04-05 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) / Numerical methods to solve the Helmholtz equation have to deal with the so-called numerical pollution effect generated by the phase error in the approximation solution. The Quasi Optimal Petrov-Galerkin method (QOPG) proposed by Loula and Fernandes (2009) and the Quasi Optimal Finite Difference method (QOFD) proposed by Fernandes and Loula (2010) present optimal rates of convergence and reduced pollution effects when applied to Helmholtz problems with large wave numbers. Both QOPG and QOFD stencils are obtained numerically by minimizing a least squares functional of the local truncation error for plane wave solutions at any direction. In one dimension this formulations leads to a nodally exact stencil, with no truncation error, for uniform or non-uniform meshes. In two dimensions, when applied to a uniform cartesian grid, a 9-point sixth order stencil is derived with the same truncation error of the Quasi Stabilized Finite Element Method (QSFEM) introduced by Babu\v ska et al. (1995). In the present work a post-processing method is proposed to recover higher-order approximations based on QOPG/QOFD formulations for Helmholtz problem on nested meshes. This approach is interesting because the pollution effects are reduced by QOPG/QOFD formulations and highly accurate approximations are obtained by the proposed post-processing technique with low computational cost. It is also presented a technique for exactly impose Robin boundary conditions in order to preserve the sixth order of the truncation error in incomplete stencils of QOFD at the boundary. We presented numerical simulations, of the results obtained for the proposed post-processing using Dirichlet and Robin boundary conditions for the formulations QOPG/QOFD. / Os métodos numéricos para resolver a equação de Helmholtz têm de lidar com o assim chamado efeito de poluição numérica, gerado pelo erro de fase na solução aproximada. Para reduzir o efeito de poluição do problema de Helmholtz, foram desenvolvidos métodos de poluição mínima, tais como o método Quasi Optimal Petrov-Galerkin (QOPG), proposto por Loula e Fernandes (2009), e o método Quasi Optimal Finite Difference (QOFD) proposto por Fernandes e Loula (2010). Os stencils do QOFD e do QOPG são obtidos numericamente pela minimização do funcional de mínimos quadrados do erro de truncamento local para soluções de ondas planas em qualquer direção. Em uma dimensão, os métodos QOFD e QOPG geram um stencil nodalmente exato, sem erro de truncamento, para malhas uniformes e não uniformes. Em duas dimensões, quando aplicados a uma malha uniforme, um stencil de nove pontos de sexta ordem é derivado com o mesmo erro de truncamento do Quasi Stabilized Finite Element Method (QSFEM), introduzido por Babuska et al. (1995). Neste trabalho é proposto um método de pós-processamento para recuperar aproximações de alta ordem baseado nas formulações QOPG/QOFD para o problema de Helmholtz utilizando malhas aninhadas. Esta abordagem é interessante porque os efeitos de poluição são reduzidos pelas formulações QOPG/QOFD e aproximações altamente precisas são obtidas pela técnica de pós-processamento proposta, com baixo custo computacional. Também é apresentada uma técnica para imposição de condições de contorno de Robin exatas, visando preservar a sexta ordem do erro de truncamento em stencils incompletos do QOFD vizinhos à fronteira. Apresentamos simulações numéricas dos resultados obtidos para o pós-processamento proposto com condições de contorno de Dirichlet e de Robin para as formulações QOPG/QOFD.
|
14 |
Metodologia de análise estrutural e pós-processamento a partir de simulações do comportamento de sistemas oceânicos. / Methodology of structural analysis and post-processing from offshore system simulations.Gaspar, Henrique Murilo 28 June 2007 (has links)
Este trabalho apresenta uma metodologia capaz de unir a análise hidrodinâmica de um sistema oceânico com sua análise estrutural, assim como o pós-processamento acoplado dos resultados. Foram criadas rotinas e códigos para que a série temporal de forças das linhas de risers e amarração de uma plataforma pudessem tornar-se dados passíveis de entrada num pré- processador de elementos finitos. Com a aplicação destas no modelo, e sua conseqüente análise no domínio do tempo, foi criada uma interface para os resultados do solver, para que pudesse ser importados no pós-processador hidrodinâmico, e visualizados com os mesmos movimentos que os obtidos na resposta da análise hidrodinâmica. O TPNView, atual pós-processador do laboratório Tanque de Provas Numérico(TPN), foi quem recebeu por fim as rotinas e interfaces criadas a partir das idéias apresentadas nesta dissertação. Com isso é possível ver em uma única ferramenta de visualização tanto o comportamento hidrodinâmico quanto o estrutural de uma estrutura do sistema de uma só vez.. / This work presents a methodology developed to treat the hydrodynamic analysis of an offshore system conjointly with its structural analysis; the same methodology also allows for combined post-processing of data. Programming routines were created so as to enable the use of the time series of the forces present at the risers and mooring lines as input data for a finite element analysis solver software. Applying this forces in to the finite element model, and its subsequent analysis in time domain, it was possible to create an interface between the solver output, so that structural analysis could be imported into the hydrodynamic post-processor and visualised with the same movements obtained in the hydrodynamic analysis response. TPNView, the post-processor developed at the Tanque de Provas Numérico laboratory, was benefited from the programming routines and interfaces developed for this thesis. Using the aforedescribed visualisation tools, it became possible to monitor at once both the hydrodynamic and the structural behaviour of a system component.
|
15 |
Metodologia de análise estrutural e pós-processamento a partir de simulações do comportamento de sistemas oceânicos. / Methodology of structural analysis and post-processing from offshore system simulations.Henrique Murilo Gaspar 28 June 2007 (has links)
Este trabalho apresenta uma metodologia capaz de unir a análise hidrodinâmica de um sistema oceânico com sua análise estrutural, assim como o pós-processamento acoplado dos resultados. Foram criadas rotinas e códigos para que a série temporal de forças das linhas de risers e amarração de uma plataforma pudessem tornar-se dados passíveis de entrada num pré- processador de elementos finitos. Com a aplicação destas no modelo, e sua conseqüente análise no domínio do tempo, foi criada uma interface para os resultados do solver, para que pudesse ser importados no pós-processador hidrodinâmico, e visualizados com os mesmos movimentos que os obtidos na resposta da análise hidrodinâmica. O TPNView, atual pós-processador do laboratório Tanque de Provas Numérico(TPN), foi quem recebeu por fim as rotinas e interfaces criadas a partir das idéias apresentadas nesta dissertação. Com isso é possível ver em uma única ferramenta de visualização tanto o comportamento hidrodinâmico quanto o estrutural de uma estrutura do sistema de uma só vez.. / This work presents a methodology developed to treat the hydrodynamic analysis of an offshore system conjointly with its structural analysis; the same methodology also allows for combined post-processing of data. Programming routines were created so as to enable the use of the time series of the forces present at the risers and mooring lines as input data for a finite element analysis solver software. Applying this forces in to the finite element model, and its subsequent analysis in time domain, it was possible to create an interface between the solver output, so that structural analysis could be imported into the hydrodynamic post-processor and visualised with the same movements obtained in the hydrodynamic analysis response. TPNView, the post-processor developed at the Tanque de Provas Numérico laboratory, was benefited from the programming routines and interfaces developed for this thesis. Using the aforedescribed visualisation tools, it became possible to monitor at once both the hydrodynamic and the structural behaviour of a system component.
|
16 |
Uma metodologia para exploração de regras de associação generalizadas integrando técnicas de visualização de informação com medidas de avaliação do conhecimento / A methodology for exploration of generalized association rules integrating information visualization techniques with knowledge evaluation measuresFujimoto, Magaly Lika 04 August 2008 (has links)
O processo de mineração de dados tem como objetivo encontrar o conhecimento implícito em um conjunto de dados para auxiliar a tomada de decisão. Do ponto de vista do usuário, vários problemas podem ser encontrados durante a etapa de pós-processamento e disponibilização do conhecimento extraído, como a enorme quantidade de padrões gerados por alguns algoritmos de extração e a dificuldade na compreensão dos modelos extraídos dos dados. Além do problema da quantidade de regras, os algoritmos tradicionais de regras de associação podem levar à descoberta de conhecimento muito específico. Assim, pode ser realizada a generalização das regras de associação com o intuito de obter um conhecimento mais geral. Neste projeto é proposta uma metodologia interativa que auxilie na avaliação de regras de associação generalizadas, visando melhorar a compreensibilidade e facilitar a identificação de conhecimento interessante. Este auxílio é realizado por meio do uso de técnicas de visualização em conjunto com a aplicação medidas de avaliação objetivas e subjetivas, que estão implementadas no módulo de visualização de regras de associação generalizados denominado RulEE-GARVis, que está integrado ao ambiente de exploração de regras RulEE (Rule Exploration Environment). O ambiente RulEE está sendo desenvolvido no LABIC-ICMC-USP e auxilia a etapa de pós-processamento e disponibilização de conhecimento. Neste contexto, também foi objetivo deste projeto de pesquisa desenvolver o Módulo de Gerenciamento do ambiente de exploração de regras RulEE. Com a realização do estudo dirigido, foi possível verificar que a metodologia proposta realmente facilita a compreensão e a identificação de regras de associação generalizadas interessantes / The data mining process aims at finding implicit knowledge in a data set to aid in a decision-making process. From the users point of view, several problems can be found at the stage of post-processing and provision of the extracted knowledge, such as the huge number of patterns generated by some of the extraction algorithms and the difficulty in understanding the types of the extracted data. Besides the problem of the number of rules, the traditional algorithms of association rules may lead to the discovery of very specific knowledge. Thus, the generalization of association rules can be realized to obtain a more general knowledge. In this project an interactive methodology is proposed to aid in the evaluation of generalized association rules in order to improve the understanding and to facilitate the identification of interesting knowledge. This aid is accomplished through the use of visualization techniques along with the application of objective and subjective evaluation measures, which are implemented in the visualization module of generalized association rules called RulEE-GARVis, which is integrated with the Rule Exploration Environment RulEE. The RulEE environment is being developed at LABIC-ICMC-USP and aids in the post-processing and provision of knowledge. In this context, it was also the objective of this research project to develop the Module Management of the rule exploration environment RulEE. Through this directed study, it was verified that the proposed methodology really facilitates the understanding and identification of interesting generalized association rules
|
17 |
ANÁLISE DA QUALIDADE DE RESULTADOS GPS EM PROGRAMAS COMERCIAIS / QUALITY ANALISYS OF GPS RESULTS IN THE COMMERCIAL SOFTWAREMoraes, Alarico Valls de 24 November 2005 (has links)
The Brazilian technician-scientific community that dedicates to the surveying is living a new time with the normatization of the technical parameters for reference of the geodesic surveys to Cadastro Nacional de Imóveis Rurais according to Brazilian Law 10.267/2001. The objective of this work is to analyse by means of the statistical parameters the quality of the survey data with GPS-receivers and post-processed in the softwares present in the market. Amongst the analysed parameters, the most important is the standard deviation of the coordinates, because it is the measure for the precision and it is an composition element of the accuracy, that indicate the result quality. The results presented by commercial softwares are compared with the official data of the State Landmark GPS network that are information supplied for the Instituto Brasileiro de Geografia e Estatística (IBGE). Also this work contribute for the relation user-manufacturer approaching them thus first when manipulating the programs get greater information availability how much to the applied methodology to give the processing results. By means of the fundamental univariate and multivariate Statistic concepts, this work give an analysis of as the commercial softwares are processing GPS data and also inform which the necessary minimum data that the softwares must supply to the user in order to give the estimated statistical parameters that are an indication the quality of each geodetic survey. / A comunidade técnico-científica brasileira que se dedica à mensuração está vivendo uma nova época com a normatização de parâmetros técnicos para levantamentos geodésicos destinados ao Cadastro Nacional de Imóveis Rurais de acordo com a Lei 10.267/2001. O objetivo desta dissertação é analisar por meio de parâmetros estatísticos estimados a qualidade dos dados oriundos de levantamentos com receptores GPS e pós-processados em programas computacionais presentes no mercado. Dentre os parâmetros estatísticos analisados, o mais importante é o desvio padrão das coordenadas, porque ele é a medida da precisão e compõe a medida da acurácia que exprimem a qualidade dos resultados. Os resultados apresentados pelos programas comerciais são comparados com dados oficiais da Rede Estadual de Marcos GPS que são informações fornecidas pelo Instituto Brasileiro de Geografia e Estatística (IBGE). Este trabalho também contribui para a relação usuário-fabricante aproximando-os, entre si, de maneira que o primeiro ao manipular os programas obtenha maior disponibilidade de informações quanto à metodologia aplicada para obter os resultados do processamento. Por meio dos conceitos fundamentais da Estatística univariada e multivariada, este trabalho fornece uma análise de como os programas comerciais estão processando os dados GPS e informa, também, quais os dados mínimos necessários que os programas computacionais devem fornecer ao usuário para que este obtenha os parâmetros estatísticos estimados indicadores da qualidade para cada levantamento geodésico.
|
18 |
Uso de medidas de desempenho e de grau de interesse para análise de regras descobertas nos classificadoresRocha, Mauricio Rêgo Mota da 20 August 2008 (has links)
Made available in DSpace on 2016-03-15T19:38:11Z (GMT). No. of bitstreams: 1
Mauricio Rego Mota da Rocha.pdf: 914988 bytes, checksum: d8751dcc6d37e161867d8941bc8f7d64 (MD5)
Previous issue date: 2008-08-20 / Fundo Mackenzie de Pesquisa / The process of knowledge discovery in databases has become necessary because of the large amount of data currently stored in databases of companies. They operated properly can help the managers in decision-making in organizations. This process is composed of several steps, among them there is a data mining, stage where they are applied techniques for obtaining knowledge that can not be obtained through traditional methods of analysis. In addition to the technical, in step of data mining is also chosen the task of data mining that will be used. The data mining usually produces large amount of rules that often are not important, relevant or interesting to the end user. This makes it necessary to review the knowledge discovered in post-processing of data. In the stage of post-processing is used both measures of performance but also of degree of interest in order to sharpen
the rules more interesting, useful and relevant. In this work, using a tool called WEKA (Waikato Environment for Knowledge
Analysis), were applied techniques of mining, decision trees and rules of classification by the classification algorithms J48.J48 and J48.PART respectively. In the post-processing data was implemented a package with functions and procedures for calculation of both measures of performance but also of the degree of interest rules. At this stage consultations have also been developed (querys) to select the
most important rules in accordance with measures of performance and degree of interest. / O processo de descoberta de conhecimento em banco de dados tem se tornado necessário devido à grande quantidade de dados atualmente armazenados nas bases de dados das empresas. Esses dados devidamente explorados podem auxiliar os gestores na tomada de decisões nas organizações. Este processo é composto de várias etapas, dentre elas destaca-se a mineração de dados, etapa onde são aplicadas técnicas para obtenção de conhecimento que não podem ser obtidas através de métodos tradicionais de análise. Além das técnicas, na etapa demineração de dados também é escolhida a tarefa de mineração que será utilizada. A mineração de dados geralmente produz grande quantidade de regras que muitas vezes não são importantes, relevantes ou interessantes para o usuário final. Isto torna necessária a análise do conhecimento descoberto no pós-processamento dos dados. Na etapa de pós-processamento são utilizadas medidas tanto de desempenho como também de grau de interesse com a finalidade de apontar as regras mais interessante, úteis e relevantes. Neste trabalho, utilizando-se de uma ferramenta chamada WEKA (Waikato Environment for Knowledge Analysis), foram aplicadas as técnicas de mineração de Árvore de Decisão e de Regras de Classificação através dos algoritmos de classificação J48.J48 e J48.PART
respectivamente. No pós-processamento de dados foi implementado um pacote com funções e procedimentos para cálculo das medidas tanto de desempenho como também de grau de interesse de regras. Nesta etapa também foram desenvolvidas consultas (querys) para selecionar as regras mais importantes de acordo com as medidas de desempenho e de grau de interesse.
|
19 |
Uma metodologia para exploração de regras de associação generalizadas integrando técnicas de visualização de informação com medidas de avaliação do conhecimento / A methodology for exploration of generalized association rules integrating information visualization techniques with knowledge evaluation measuresMagaly Lika Fujimoto 04 August 2008 (has links)
O processo de mineração de dados tem como objetivo encontrar o conhecimento implícito em um conjunto de dados para auxiliar a tomada de decisão. Do ponto de vista do usuário, vários problemas podem ser encontrados durante a etapa de pós-processamento e disponibilização do conhecimento extraído, como a enorme quantidade de padrões gerados por alguns algoritmos de extração e a dificuldade na compreensão dos modelos extraídos dos dados. Além do problema da quantidade de regras, os algoritmos tradicionais de regras de associação podem levar à descoberta de conhecimento muito específico. Assim, pode ser realizada a generalização das regras de associação com o intuito de obter um conhecimento mais geral. Neste projeto é proposta uma metodologia interativa que auxilie na avaliação de regras de associação generalizadas, visando melhorar a compreensibilidade e facilitar a identificação de conhecimento interessante. Este auxílio é realizado por meio do uso de técnicas de visualização em conjunto com a aplicação medidas de avaliação objetivas e subjetivas, que estão implementadas no módulo de visualização de regras de associação generalizados denominado RulEE-GARVis, que está integrado ao ambiente de exploração de regras RulEE (Rule Exploration Environment). O ambiente RulEE está sendo desenvolvido no LABIC-ICMC-USP e auxilia a etapa de pós-processamento e disponibilização de conhecimento. Neste contexto, também foi objetivo deste projeto de pesquisa desenvolver o Módulo de Gerenciamento do ambiente de exploração de regras RulEE. Com a realização do estudo dirigido, foi possível verificar que a metodologia proposta realmente facilita a compreensão e a identificação de regras de associação generalizadas interessantes / The data mining process aims at finding implicit knowledge in a data set to aid in a decision-making process. From the users point of view, several problems can be found at the stage of post-processing and provision of the extracted knowledge, such as the huge number of patterns generated by some of the extraction algorithms and the difficulty in understanding the types of the extracted data. Besides the problem of the number of rules, the traditional algorithms of association rules may lead to the discovery of very specific knowledge. Thus, the generalization of association rules can be realized to obtain a more general knowledge. In this project an interactive methodology is proposed to aid in the evaluation of generalized association rules in order to improve the understanding and to facilitate the identification of interesting knowledge. This aid is accomplished through the use of visualization techniques along with the application of objective and subjective evaluation measures, which are implemented in the visualization module of generalized association rules called RulEE-GARVis, which is integrated with the Rule Exploration Environment RulEE. The RulEE environment is being developed at LABIC-ICMC-USP and aids in the post-processing and provision of knowledge. In this context, it was also the objective of this research project to develop the Module Management of the rule exploration environment RulEE. Through this directed study, it was verified that the proposed methodology really facilitates the understanding and identification of interesting generalized association rules
|
20 |
Sincronização por pós-processamento de um Sistema de Varredura a LASER embarcado em VANT / Post-processing synchronization of a LASER Scanning System onboard UAVMachado, Marcela do Valle [UNESP] 23 February 2018 (has links)
Submitted by MARCELA DO VALLE MACHADO (marcelavmachado@gmail.com) on 2018-04-22T02:22:02Z
No. of bitstreams: 1
machado_mv_me_prud.pdf: 3915564 bytes, checksum: a8e42c5376b44043a216b005b6c1615a (MD5) / Approved for entry into archive by Claudia Adriana Spindola null (claudia@fct.unesp.br) on 2018-04-23T11:50:28Z (GMT) No. of bitstreams: 1
machado_mv_me_prud.pdf: 3915564 bytes, checksum: a8e42c5376b44043a216b005b6c1615a (MD5) / Made available in DSpace on 2018-04-23T11:50:28Z (GMT). No. of bitstreams: 1
machado_mv_me_prud.pdf: 3915564 bytes, checksum: a8e42c5376b44043a216b005b6c1615a (MD5)
Previous issue date: 2018-02-23 / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Devido ao elevado custo de Sistemas de Varredura a LASER Aerotransportados (SVLA) e a miniaturização de sensores, sistemas de varredura a LASER (SVL) de menor peso e custo têm sido uma alternativa para estudos florestais. Aliado a estes sistemas, a crescente utilização de Veículos Aéreos Não Tripulados (VANT) possibilita a aquisição de dados com maior flexibilidade e rapidez, o que permite a utilização de SVL mais leves neste tipo de plataforma. Todavia, a integração e sincronização dos dispositivos do sistema demanda árduo trabalho de conexão eletrônica e computacional. Em casos que não seja possível realizar a sincronização eletrônica entre os dispositivos do sistema, uma alternativa é a sincronização por pósprocessamento, estabelecida por meio da relação entre os dados temporais obtidos com o LIDAR (Light Detection and Ranging) e com o GNSS (Global Navigation Sattelite Systems), durante a trajetória de voo do SVL embarcado em VANT. Para relacionar estes dados, são realizadas manobras de voo na forma senoidal durante a decolagem e pouso com o sistema, a fim de gerar pontos de máximos e mínimos. Com isso, os dados LASER e as posições da plataforma, coletados pelos dispositivos LASER e GNSS/IMU em sistemas de tempo diferentes, são relacionados por meio da diferença de distância e altura em função do tempo. Posteriormente, o tempo dos dados LASER é corrigido para tempo GPS, caracterizando a sincronização por pós-processamento, e refinado pelo Método dos Mínimos Quadrado. Desse modo, a nuvem de pontos pode então ser gerada. O controle de qualidade altimétrico utilizando pontos de apoio coletados em campo, apresentou uma acurácia de 11,6 cm. Para o controle planimétrico foi verificada uma acurácia de 45 cm para a componente E e 62 cm para a componente N. A partir das acurácias encontradas para a nuvem de pontos, conclui-se que a técnica de sincronização empregada é uma alternativa viável para relacionar dispositivos desacoplados de um SVL e que a acurácia centimétrica do sistema permite que este seja empregado em diversas aplicações, dentre as quais estão estimativa de altura de árvores. / Due to the high cost of Airborne LASER Scanning (ALS) and the miniaturization of sensors, low-cost and low-weight LASER systems have been an alternative for forestry studies. Together with these systems, the increasing use of Unmanned Aerial Vehicles (UAV) platforms, also low cost, enables the acquisition of data with greater flexibility and speed, which allows the use of low-weight SVL in this type of platform. However, the integration and synchronization of the devices of the system demands specialised work for electronic and computational connections. In cases where it is not possible to perform electronic synchronization between the devices of the system, an alternative is the post-processing synchronization, established through the relationship between the signals obtained with LIDAR (Light Detection and Ranging) and GNSS (Global Navigation Sattelite Systems), during the flight path of the SVL boarded in UAV. To relate these signals, flight maneuvers are performed in the a sinusoidal form shape during takeoff and landing with the system in order to obtain peaks of maximum and minimum. Thus, the LASER data and platform positions collected by the LASER and GNSS / IMU devices in different time systems are related by distance and height as a function of time. Subsequently, the LASER data time is corrected to match GPS time, characterizing the post-processing synchronization, and latter refined by the Least Square Method. In this way, the point cloud can then be generated. The quality control for altimetry, using control points collected in the field, achieved an obtained accuracy of 11.6 cm. The planimetric quality control achieve an accuracy of 45 cm the E component and 62 cm for the N component. From the accuracy achieved for the point cloud, it was concluded that the synchronization technique used is a viable alternative to relate decoupled devices of an ALS and that the centimetric accuracy of the system allows it to be used in several applications, such as tree height estimation. / FAPESP Proc. nº 2013/50426-4
|
Page generated in 0.0848 seconds