161 |
Checagem de conformidade arquitetural na modernização orientada a arquiteturaChagas, Fernando Bezerra 03 March 2016 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-01-06T12:32:32Z
No. of bitstreams: 1
DissFBC.pdf: 2063843 bytes, checksum: 152295a2a8dcd2c521f4aad29a6fba78 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-16T12:01:27Z (GMT) No. of bitstreams: 1
DissFBC.pdf: 2063843 bytes, checksum: 152295a2a8dcd2c521f4aad29a6fba78 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2017-01-16T12:01:35Z (GMT) No. of bitstreams: 1
DissFBC.pdf: 2063843 bytes, checksum: 152295a2a8dcd2c521f4aad29a6fba78 (MD5) / Made available in DSpace on 2017-01-16T12:01:44Z (GMT). No. of bitstreams: 1
DissFBC.pdf: 2063843 bytes, checksum: 152295a2a8dcd2c521f4aad29a6fba78 (MD5)
Previous issue date: 2016-03-03 / Não recebi financiamento / Architecture-Driven Modernization (ADM) is a model-based initiative for standardizing
reengineering processes. Its most important meta-model is KDM (Knowledge Discovery
Metamodel), which is a platform and language-independent ISO standard. A important
step in an Architecture-Driven Modernization is the Architectural Conformance Checking
(ACC), whose goal is to identify the violations between the Planned (PA) and Current Architectures (CA) of a system. Although there are ACC approaches that act on source-code
or proprietary models, there is none for hystems represented as KDM. This absence hinders the dissemination of ADM and increases the interest for research that investigates the suitability of KDM in this context. Therefore, in this paper, we present ArchKDM, a KDMbased ACC approach that relies exclusively on the KDM meta-model for representing i) the legacy system under analysis; ii) the PA; iii) the CA; and iv) the violations between them. ArchKDM is composed of three tool-supported steps: 1) Specifying the Planned Architecture;
2) Extracting the Current Architecture; and 3) Performing the Checking. Our goal is to
investigate the suitability of KDM as the main representation in all ACC steps as well as to
deliver an ACC approach in the ADM context. We evaluated steps 2 and 3 of the approach
using two real-world systems and the results showed no false positives and negatives. / Modernização Dirigida por Modelos (ADM) é uma iniciativa para a padronização dos processos de reengenharia. Dentre os metamodelos criados pela ADM, o mais importante é chamado de KDM (Metamodelo de Descoberta de Conhecimento), que é independente de plataforma e linguagem, além de ser padrão ISO. Uma importante etapa em uma Modernização Dirigida por Modelos é a Checagem de Conformidade Arquitetural (ACC), cujo objetivo é identificar violações entre as representações das arquiteturas planejada e atual de um sistema. Embora existam abordagens para ACC que atuam sobre código-fonte e modelos proprietários, não foram encontrados indícios desse tipo de abordagem para sistemas representados em KDM. Essa ausência de pesquisas na área dificulta a disseminação da ADM e aumenta o interesse em investigar a adequabilidade do KDM nesse contexto. Portanto, neste trabalho é apresentado o ArchKDM, uma abordagem para ACC baseado em KDM que depende exclusivamente do metamodelo KDM para representação i) do sistema legado a ser analisado; ii) da arquitetura planejada; iii) da arquitetura atual; e iv) das violações
encontradas entre eles. ArchKDM é composta por três etapas: 1) Especificação da
Arquitetura Planejada; 2) Extração da Arquitetura Atual; e 3) Checagem de Conformidade Arquitetural. O objetivo deste trabalho é investigar a adequabilidade do KDM como principal representação em todas as etapas da ACC, bem como fornecer uma abordagem para ACC no contexto da ADM. A abordagem foi avaliada utilizando dois sistemas reais e os resultados mostraram que não foram encontrados falsos positivos e negativos.
|
162 |
A (re)descoberta da sombra: experiência realizada com educadores na cidade de ImbitubaNascimento, Emerson Cardoso 19 September 2011 (has links)
Made available in DSpace on 2016-12-08T16:52:09Z (GMT). No. of bitstreams: 1
emerson.pdf: 14836315 bytes, checksum: 79412546c77261d1e9cce7b1fc8d0482 (MD5)
Previous issue date: 2011-09-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This study describes and analyzes the activities developed with Shadow Theatre in two workshops carried with educators in the city of Imbituba - SC, in the period between May and July, 2010. Ideas on (re)discovery of shadow and experience are debated throughout three phases of the research. In the first phase, the bibliographical survey subsidizes studies on historical and technical elements about the art of the Shadow Theater, emphasizing the work of the puppeteer, the screens, the luminous fountains and the silhouettes. The second and third phases are dedicated to the description and analysis of the workshops, in which the profile of the participants, the developed activities and theatrical games are presented, in addition to the materials used for the scenes. Part of the pedagogical procedures carried out in the workshops was based on the methodology proposed by Viola Spolin. Texts by scholars such as John Dewey, Walter Benjamin and Jorge Larrosa Bondía provided the theoretical support for the analyses of the experience. The study still stresses the procedures of scene creation and the final work presented to the public. It also highlights the presentation of the participants impressions and the workshop photos / O estudo descreve e analisa as atividades desenvolvidas com Teatro de Sombras em duas oficinas realizadas com educadores na cidade de Imbituba SC, no período de 04 de maio a 28 de julho de 2010. Ideias sobre (re)descoberta da sombra e experiência são debatidas ao longo das três etapas da pesquisa. Na primeira etapa, o levantamento bibliográfico subsidia estudos sobre elementos históricos e técnicos sobre a arte do Teatro de Sombras, enfatizando o trabalho do ator-animador, as telas, as fontes luminosas e as silhuetas. A segunda e a terceira etapa são dedicadas à descrição e análise das oficinas, nas quais são apresentados o perfil dos participantes, as atividades e os jogos teatrais desenvolvidos, além dos materiais utilizados na realização das cenas. Parte dos procedimentos pedagógicos realizados nas oficinas se apoiou na metodologia proposta por Viola Spolin. Textos de autores, como John Dewey, Walter Benjamin e Jorge Larrosa Bondía, subsidiaram teoricamente a realização das análises da experiência. O estudo destaca ainda os procedimentos de criação das cenas e o trabalho final apresentado ao público. O texto privilegia a apresentação das impressões dos participantes e fotos das oficinas
|
163 |
Aplicação de técnicas de Data Mining para auxiliar no processo de fiscalização no âmbito do Tribunal de Contas do Estado da ParaíbaGrilo Júnior, Tarcísio Ferreira 03 September 2010 (has links)
Made available in DSpace on 2015-05-08T14:53:30Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 2082485 bytes, checksum: 0c5cd714d0a43bac80888cfc1dd4e7cb (MD5)
Previous issue date: 2010-09-03 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This search has as goal to validate the hypothesis of the applicability of data mining techniques in Bidding and Contracts database managed by the Account Court of Paraiba State, enabling the generation of rules and discovery of hidden knowledge or implicit, contributing to the process of decision making, supervision and celerity in this Court of Auditors. To the best comprehension of this work, It was made a literature revision bringing at first place a historic vision about the decision process, as well as this theme evolution studies and the relation between the tender processes sent to Account Court of Paraiba State and the fraud indication discovery process and irregularities through the data mining process using. We will bring to light the concept of Business Intelligence (BI) and for it`s main components, as well as the concepts of knowledge discovery in database, and a comparing between the using of the instruments of data mining. We expect from this implant of the data mining an increase in the productivity and also an increase in speed of lawsuit process from the public accounts analysis and public money fiscal control. / Esta pesquisa tem como objetivo validar a hipótese da aplicabilidade das técnicas de mineração de dados na base de dados de Licitação e Contratos gerenciada pelo Tribunal de Contas do Estado da Paraíba (TCE-PB), possibilitando a geração de regras e descoberta de conhecimento oculto ou implícito, contribuindo desta forma com o processo de tomada de decisão, fiscalização e celeridade processual no âmbito desta Corte de Contas. Para melhor compreensão desse trabalho foi realizada uma revisão de literatura abordando primeiramente um histórico sobre o processo de decisão, bem como a evolução dos estudos deste tema e da relação entre os processos licitatórios enviados ao TCE-PB e o processo de descoberta de indícios de fraudes e irregularidades através do uso de mineração de dados. São abordados os conceitos sobre a tecnologia de Business Intelligence (BI) e dos seus principais componentes, bem como os conceitos de Descoberta de Conhecimentos em Bases de Dados (Knowledge Discorevy in Databases), e uma comparação das funcionalidades presentes nas ferramentas de mineração de dados. Espera-se com a implantação desta ferramenta de mineração de dados, um ganho de produtividade e um aumento na celeridade do tramite processual decorrentes da análise das contas públicas e na fiscalização do erário.
|
164 |
GeoMiningVisualQL: uma linguagem de consulta visual para mineração de dados geográficosPedrosa, Klebber de Araújo 10 August 2010 (has links)
Made available in DSpace on 2015-05-14T12:36:56Z (GMT). No. of bitstreams: 1
parte1.pdf: 1854774 bytes, checksum: 9564eb94b101d580f9879bf9c9422f98 (MD5)
Previous issue date: 2010-08-10 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Several areas of knowledge domain, such as remote sensing systems, transportation, telecommunication, digital mapping, among others, make use of large amounts of geographic data. Typically, these data are stored in Management Systems Geographic Database (SGBDGeo), through which can be often manipulated by Geographic Information Systems (GIS). However, these systems are not able to extract new information, previously unknown to users, which may be embedded within the database field analysed and that, somehow, represent new and userful knowledge, for example, for decision making. In this case, it is necessary to make use of specific techniques of Knowledge Discovery in Databases (KDD). Moreover, spatial data present inherently visual characteristics that, often, can be associated with geometric and pictographic visual representations. In this context, there are few visual query languages for spatial data. However, few of this treat mining methods among the spatial data. Thus, this paper proposes the construction of an environment for data mining tasks performed under certain geographical areas, beyond the formal specification of a visual query language to be used in this environment. These queries are formulated through pictorial representations of geographic features, operators, and spatial relationships between these data. To this end, we use metaphorical abstractions on the metadata of the geographical environment, and the approach defined as "flowing stream" in which the user focuses attention on certain stages of the mining process, facilitating the construction of these consultations a number of them. Thus, the proposed environment aims to simplify the tasks of consultations on mining spatial data, making them more user friendly, providing more efficiency and speed when compared to textual queries scripts. / Diversas áreas de domínio de conhecimento, tais como os sistemas de sensoriamente remoto, transportes, telecomunicações, cartografia digital, entre outras, fazem uso de uma grande quantidade de dados geográficos. Normalmente, esses dados são armazenados em Sistemas Gerenciadores de Banco de Dados Geográficos (SGBDGeo), através dos quais, muitas vezes, podem ser manipulados por Sistemas de Informações Geográficas (SIG). Entretanto, esses sistemas não são capazes de extrair novas informações, previamente desconhecidas pelos usuários, as quais podem estar embutidas dentro da base de dados do domínio analisado e que, de certo modo, representam algum conhecimento novo e de grande utilidade, por exemplo, para tomadas de decisões. Neste caso, é necessário fazer uso de técnicas específicas de Descoberta de Conhecimento em Banco de Dados (DCBD ou KDD, Knowledge Discovery in Database). Além disso, os dados geográficos apresentam características inerentemente visuais que, muitas vezes, podem ser associados a representações visuais geométricas ou pictográficas. Nesse contexto, existem algumas linguagens de consultas visuais para dados geográficos. Todavia, poucas delas tratam métodos de mineração espacial entre os dados. Desta forma, este trabalho propõe a construção de um ambiente para as tarefas de mineração de dados realizada sob certos domínios geográficos, além da especificação formal de uma linguagem de consulta visual a ser usada neste ambiente. Estas consultas são formuladas através de representações pictóricas de feições geográficas, operadores e relacionamentos espaciais existentes entre estes dados. Para tal, utilizam-se abstrações metafóricas sobre os metadados do ambiente geográfico, além da abordagem definida como fluxo corrente na qual o usuário foca a sua atenção em determinadas etapas do processo de mineração, facilitando a construção destas consultas por parte dos mesmos. Desta forma, o ambiente proposto tem como objetivo simplificar as consultas sobre tarefas de mineração de dados geográficos, tornando-as mais amigáveis aos usuários, concedendo mais eficiência e rapidez quando se comparado aos scripts textuais de consultas.
|
165 |
Um servi?o de descoberta ciente de contexto para internet das coisas / A context-aware discovery service for internet of thingsGomes, Porf?rio Dantas 04 April 2016 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-01-12T13:24:40Z
No. of bitstreams: 1
PorfirioDantasGomes_DISSERT.pdf: 7295529 bytes, checksum: e59eed8fb988f2607cf908db21416196 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-01-16T15:14:08Z (GMT) No. of bitstreams: 1
PorfirioDantasGomes_DISSERT.pdf: 7295529 bytes, checksum: e59eed8fb988f2607cf908db21416196 (MD5) / Made available in DSpace on 2017-01-16T15:14:08Z (GMT). No. of bitstreams: 1
PorfirioDantasGomes_DISSERT.pdf: 7295529 bytes, checksum: e59eed8fb988f2607cf908db21416196 (MD5)
Previous issue date: 2016-04-04 / A Internet das Coisas (do ingl?s Internet of Things - IoT) ? um paradigma emergente caracterizado por uma mir?ade de dispositivos heterog?neos conectados ? Internet. Por?m, a alta heterogeneidade e a larga distribui??o dos dispositivos dispon?veis em IoT dificultam a implanta??o desse paradigma, fazendo com que m?quinas e usu?rios enfrentem desafios para encontrar, selecionar, e usar recursos de forma r?pida, confi?vel, e amig?vel. Nesse contexto, servi?os de descoberta desempenham um papel chave, permitindo que clientes (e.g., plataformas de middleware, usu?rios finais, e aplica??es) recuperem recursos atrav?s da especifica??o de crit?rios de busca contendo uma s?rie de atributos, tais como o tipo do recurso, capacidades, localiza??o, par?metros de qualidade de contexto (Quality of Context - QoC), etc. Esta disserta??o introduz o QoDisco, um servi?o de descoberta distribu?do que permite buscas por m?ltiplos atributos, buscas em intervalos, e opera??es de busca s?ncrona e ass?ncrona. Al?m disso, o QoDisco inclui um modelo baseado em ontologias para a descri??o sem?ntica de recursos (i.e., sensores e atuadores), servi?os, e dados capturados por sensores. Esta disserta??o apresenta, em detalhes, (i) a arquitetura do QoDisco, (ii) seu modelo de informa??o, (iii) a implementa??o de um prot?tipo, (iv) e a integra??o do QoDisco com uma plataforma de middleware para IoT, a EcoDiF. Por fim, este trabalho apresenta uma prova de conceito em um cen?rio de polui??o urbana e uma avalia??o qualitativa do desempenho do procedimento de busca do QoDisco. / The Internet of Things (IoT) is an emergent paradigm characterized by a plethora of
heterogeneous devices connected to the Internet. However, the high heterogeneity and the
wide distribution of the available devices in IoT make difficult the adoption of this paradigm,
with users facing challenges to find, select, and use resources in a fast, reliable, and
user-friendly way. In this context, discovery services perform a key role, allowing clients
(e.g., middleware platforms, end-users, and applications) to retrieve resources through the
specification of search criteria containing attributes, such as the resource type, capabilities,
location, quality of context (QoC) parameters, and etc. This dissertation introduces
the QoDisco, a distributed discovery service to search resources by multiple attributes,
range queries, and synchronous and asynchronous operations. Furthermore, QoDisco includes
an ontology-based model for semantic description of resources (i.e., sensors and
actuators), services, and data captured by sensors. This dissertation presents, in details,
(i) the QoDisco architecture, (ii) its information model, (iii) a propotype implementation,
(iv) and the integration of QoDisco with a middleware platform for IoT, EcoDiF. Lastly,
this work presents a proof of concept in an urban pollution scenario and a qualitative
avaliation of the QoDisco?s search procedure performance.
|
166 |
Regras de associação aplicadas aos filtros de mensagens e canais de informação do projeto direto / Association rules applied to messages filters and information channel in the direto environmentFrighetto, Michele January 2003 (has links)
Neste trabalho é apresentado um breve estudo sobre o processo de descoberta de conhecimento em banco de dados, com enfoque na etapa de mineração de dados através de regras de associação. Propostas por Agrawal em 1993, num estudo chamado análise de cesta de mercado, as regras de associação representam que com um certo grau de suporte e confiança um conjunto de itens pode estar presente numa transação visto que outro conjunto está presente. A necessidade de análise semelhante às realizadas por Agrawal surgiu em outros campos e estas foram estendidas a outras aplicações. Neste, são apresentadas as principais variações sobre o tema regras de associação encontradas na literatura. É proposta a mineração de dados através de regras de associação sobre filtros de mensagens e canais de informação do software de catálogo, agenda e correio eletrônico Direto. Para as pesquisas são utilizadas três ferramentas: Intelligent Miner, CBA e Magnus Opus. Elas foram aplicadas sobre uma lista de discussão da Linguagem Java, pois o projeto Direto ainda não possui mensagens públicas. As ferramentas possuem características distintas: o Intelligent Miner permite a definição de hierarquias sobre os dados que serão minerados; o Magnus Opus trabalha com diversos filtros e com a definição de intervalos para o tratamento de campos numéricos; o CBA permite que sejam especificados suportes múltiplos para os itens. / This work presents a brief review about knowledge discovery in database having association rules as the data mining process. Association rules were proposed by Agrawal in 1993 in a basket data analysis. Association rules have been extended to other applications because there is a necessity for similar Agrawal’s analysis in different domains. Here are presented some variations proposed in the literature about association rules along with the main algorithms. This work proposes the use of association rules over message filters and information channels from the Direto, which is a catalog, schedule and e-mail software. Three data mining tools were used: Intelligent Miner, CBA and Magnus Opus. They were applied over a Java discussion list because Direto project does not have public messages. Each tool has distinct features: Intelligent Miner allows to define a hierarchy over the data that will be mined; Magnus Opus works with many filters over the data and permits to define ranges over numeric fields and CBA allows to specify multiple minimum support over the items.
|
167 |
Aplicação do processo de descoberta de conhecimento em dados do poder judiciário do estado do Rio Grande do Sul / Applying the Knowledge Discovery in Database (KDD) Process to Data of the Judiciary Power of Rio Grande do SulSchneider, Luís Felipe January 2003 (has links)
Para explorar as relações existentes entre os dados abriu-se espaço para a procura de conhecimento e informações úteis não conhecidas, a partir de grandes conjuntos de dados armazenados. A este campo deu-se o nome de Descoberta de Conhecimento em Base de Dados (DCBD), o qual foi formalizado em 1989. O DCBD é composto por um processo de etapas ou fases, de natureza iterativa e interativa. Este trabalho baseou-se na metodologia CRISP-DM . Independente da metodologia empregada, este processo tem uma fase que pode ser considerada o núcleo da DCBD, a “mineração de dados” (ou modelagem conforme CRISP-DM), a qual está associado o conceito “classe de tipo de problema”, bem como as técnicas e algoritmos que podem ser empregados em uma aplicação de DCBD. Destacaremos as classes associação e agrupamento, as técnicas associadas a estas classes, e os algoritmos Apriori e K-médias. Toda esta contextualização estará compreendida na ferramenta de mineração de dados escolhida, Weka (Waikato Environment for Knowledge Analysis). O plano de pesquisa está centrado em aplicar o processo de DCBD no Poder Judiciário no que se refere a sua atividade fim, julgamentos de processos, procurando por descobertas a partir da influência da classificação processual em relação à incidência de processos, ao tempo de tramitação, aos tipos de sentenças proferidas e a presença da audiência. Também, será explorada a procura por perfis de réus, nos processos criminais, segundo características como sexo, estado civil, grau de instrução, profissão e raça. O trabalho apresenta nos capítulos 2 e 3 o embasamento teórico de DCBC, detalhando a metodologia CRISP-DM. No capítulo 4 explora-se toda a aplicação realizada nos dados do Poder Judiciário e por fim, no capítulo 5, são apresentadas as conclusões. / With the purpose of exploring existing connections among data, a space has been created for the search of Knowledge an useful unknown information based on large sets of stored data. This field was dubbed Knowledge Discovery in Databases (KDD) and it was formalized in 1989. The KDD consists of a process made up of iterative and interactive stages or phases. This work was based on the CRISP-DM methodology. Regardless of the methodology used, this process features a phase that may be considered as the nucleus of KDD, the “data mining” (or modeling according to CRISP-DM) which is associated with the task, as well as the techniques and algorithms that may be employed in an application of KDD. What will be highlighted in this study is affinity grouping and clustering, techniques associated with these tasks and Apriori and K-means algorithms. All this contextualization will be embodied in the selected data mining tool, Weka (Waikato Environment for Knowledge Analysis). The research plan focuses on the application of the KDD process in the Judiciary Power regarding its related activity, court proceedings, seeking findings based on the influence of the procedural classification concerning the incidence of proceedings, the proceduring time, the kind of sentences pronounced and hearing attendance. Also, the search for defendants’ profiles in criminal proceedings such as sex, marital status, education background, professional and race. In chapters 2 and 3, the study presents the theoretical grounds of KDD, explaining the CRISP-DM methodology. Chapter 4 explores all the application preformed in the data of the Judiciary Power, and lastly, in Chapter conclusions are drawn
|
168 |
Análise de grandezas cinemáticas e dinâmicas inerentes à hemiparesia através da descoberta de conhecimento em bases de dados / Analysis of kinematic and dynamic data inherent to hemiparesis through knowledge discovery in databasesCaio Benatti Moretti 31 March 2016 (has links)
Em virtude de uma elevada expectativa de vida mundial, faz-se crescente a probabilidade de ocorrer acidentes naturais e traumas físicos no cotidiano, o que ocasiona um aumento na demanda por reabilitação. A terapia física, sob o paradigma da reabilitação robótica com serious games, oferece maior motivação e engajamento do paciente ao tratamento, cujo emprego foi recomendado pela American Heart Association (AHA), apontando a mais alta avaliação (Level A) para pacientes internados e ambulatoriais. No entanto, o potencial de análise dos dados coletados pelos dispositivos robóticos envolvidos é pouco explorado, deixando de extrair informações que podem ser de grande valia para os tratamentos. O foco deste trabalho consiste na aplicação de técnicas para descoberta de conhecimento, classificando o desempenho de pacientes diagnosticados com hemiparesia crônica. Os pacientes foram inseridos em um ambiente de reabilitação robótica, fazendo uso do InMotion ARM, um dispositivo robótico para reabilitação de membros superiores e coleta dos dados de desempenho. Foi aplicado sobre os dados um roteiro para descoberta de conhecimento em bases de dados, desempenhando pré-processamento, transformação (extração de características) e então a mineração de dados a partir de algoritmos de aprendizado de máquina. A estratégia do presente trabalho culminou em uma classificação de padrões com a capacidade de distinguir lados hemiparéticos sob uma precisão de 94%, havendo oito atributos alimentando a entrada do mecanismo obtido. Interpretando esta coleção de atributos, foi observado que dados de força são mais significativos, os quais abrangem metade da composição de uma amostra. / As a result of a higher life expectancy, the high probability of natural accidents and traumas occurences entails an increasing need for rehabilitation. Physical therapy, under the robotic rehabilitation paradigm with serious games, offers the patient better motivation and engagement to the treatment, being a method recommended by American Heart Association (AHA), pointing the highest assessment (Level A) for inpatients and outpatients. However, the rich potential of the data analysis provided by robotic devices is poorly exploited, discarding the opportunity to aggregate valuable information to treatments. The aim of this work consists of applying knowledge discovery techniques by classifying the performance of patients diagnosed with chronic hemiparesis. The patients, inserted into a robotic rehabilitation environment, exercised with the InMotion ARM, a robotic device for upper-limb rehabilitation which also does the collection of performance data. A Knowledge Discovery roadmap was applied over collected data in order to preprocess, transform and perform data mining through machine learning methods. The strategy of this work culminated in a pattern classification with the abilty to distinguish hemiparetic sides with an accuracy rate of 94%, having eight attributes feeding the input of the obtained mechanism. The interpretation of these attributes has shown that force-related data are more significant, comprising half of the composition of a sample.
|
169 |
Detecção de outliers baseada em caminhada determinística do turista / Outlier detection based on deterministic tourist walkRafael Delalibera Rodrigues 03 April 2018 (has links)
Detecção de outliers é uma tarefa fundamental para descoberta de conhecimento em mineração de dados. Cujo objetivo é identificar as amostras de dados que desviam acentuadamente dos padrões apresentados num conjunto de dados. Neste trabalho, apresentamos uma nova técnica de detecção de outliers baseada em caminhada determinística do turista. Especificamente um caminhante é iniciado para cada exemplar de dado, variando-se o tamanho da memória, assim, um exemplar recebe uma alta pontuação de outlier ao participar em poucos atratores, enquanto que receberá uma baixa pontuação no caso de participar numa grande quantidade de atratores. Os resultados experimentais em cenários artificiais e reais evidenciaram um bom desempenho do método proposto. Em comparação com os métodos clássicos, o método proposto apresenta as seguintes características salientes: 1) Identifica os outliers através da determinação de estruturas no espaço de dados ao invés de considerar apenas características físicas, como distância, similaridade e densidade. 2) É capaz de detectar outliers internos, situados em regiões entre dois ou mais agrupamentos. 3) Com a variação do valor de memória, os caminhantes conseguem extrair tanto características locais, quanto globais do conjunto de dados. 4) O método proposto é determinístico, não exigindo diversas execuções (em contraste às técnicas estocásticas). Além disso, neste trabalho caracterizamos, pela primeira vez, que as dinâmicas exibidas pela caminhada do turista podem gerar atratores complexos, com diversos cruzamentos. Sendo que estes podem revelar estruturas ainda mais detalhadas e consequentemente melhorar a detecção dos outliers. / Outlier detection is a fundamental task for knowledge discovery in data mining. It aims to detect data items that deviate from the general pattern of a given data set. In this work, we present a new outlier detection technique using tourist walks. Specifically, starting from each data sample and varying the memory size, a data sample gets a higher outlier score if it participates in few tourist walk attractors, while it gets a low score if it participates in a large number of attractors. Experimental results on artificial and real data sets show good performance of the proposed method. In comparison to classical methods, the proposed one shows the following salient features: 1) It finds out outliers by identifying the structure of the input data set instead of considering only physical features, such as distance, similarity or density. 2) It can detect not only external outliers as classical methods do, but also internal outliers staying among various normal data groups. 3) By varying the memory size, the tourist walks can characterize both local and global structures of the data set. 4) The proposed method is a deterministic technique. Therefore, only one run is sufficient, in contrast to stochastic techniques, which require many runs. Moreover, in this work, we find, for the first time, that tourist walks can generate complex attractors in various crossing shapes. Such complex attractors reveal data structures in more details. Consequently, it can improve the outlier detection.
|
170 |
Aplicação do processo de descoberta de conhecimento em dados do poder judiciário do estado do Rio Grande do Sul / Applying the Knowledge Discovery in Database (KDD) Process to Data of the Judiciary Power of Rio Grande do SulSchneider, Luís Felipe January 2003 (has links)
Para explorar as relações existentes entre os dados abriu-se espaço para a procura de conhecimento e informações úteis não conhecidas, a partir de grandes conjuntos de dados armazenados. A este campo deu-se o nome de Descoberta de Conhecimento em Base de Dados (DCBD), o qual foi formalizado em 1989. O DCBD é composto por um processo de etapas ou fases, de natureza iterativa e interativa. Este trabalho baseou-se na metodologia CRISP-DM . Independente da metodologia empregada, este processo tem uma fase que pode ser considerada o núcleo da DCBD, a “mineração de dados” (ou modelagem conforme CRISP-DM), a qual está associado o conceito “classe de tipo de problema”, bem como as técnicas e algoritmos que podem ser empregados em uma aplicação de DCBD. Destacaremos as classes associação e agrupamento, as técnicas associadas a estas classes, e os algoritmos Apriori e K-médias. Toda esta contextualização estará compreendida na ferramenta de mineração de dados escolhida, Weka (Waikato Environment for Knowledge Analysis). O plano de pesquisa está centrado em aplicar o processo de DCBD no Poder Judiciário no que se refere a sua atividade fim, julgamentos de processos, procurando por descobertas a partir da influência da classificação processual em relação à incidência de processos, ao tempo de tramitação, aos tipos de sentenças proferidas e a presença da audiência. Também, será explorada a procura por perfis de réus, nos processos criminais, segundo características como sexo, estado civil, grau de instrução, profissão e raça. O trabalho apresenta nos capítulos 2 e 3 o embasamento teórico de DCBC, detalhando a metodologia CRISP-DM. No capítulo 4 explora-se toda a aplicação realizada nos dados do Poder Judiciário e por fim, no capítulo 5, são apresentadas as conclusões. / With the purpose of exploring existing connections among data, a space has been created for the search of Knowledge an useful unknown information based on large sets of stored data. This field was dubbed Knowledge Discovery in Databases (KDD) and it was formalized in 1989. The KDD consists of a process made up of iterative and interactive stages or phases. This work was based on the CRISP-DM methodology. Regardless of the methodology used, this process features a phase that may be considered as the nucleus of KDD, the “data mining” (or modeling according to CRISP-DM) which is associated with the task, as well as the techniques and algorithms that may be employed in an application of KDD. What will be highlighted in this study is affinity grouping and clustering, techniques associated with these tasks and Apriori and K-means algorithms. All this contextualization will be embodied in the selected data mining tool, Weka (Waikato Environment for Knowledge Analysis). The research plan focuses on the application of the KDD process in the Judiciary Power regarding its related activity, court proceedings, seeking findings based on the influence of the procedural classification concerning the incidence of proceedings, the proceduring time, the kind of sentences pronounced and hearing attendance. Also, the search for defendants’ profiles in criminal proceedings such as sex, marital status, education background, professional and race. In chapters 2 and 3, the study presents the theoretical grounds of KDD, explaining the CRISP-DM methodology. Chapter 4 explores all the application preformed in the data of the Judiciary Power, and lastly, in Chapter conclusions are drawn
|
Page generated in 0.0693 seconds