• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3419
  • 60
  • 40
  • Tagged with
  • 3522
  • 2662
  • 2542
  • 2362
  • 1102
  • 774
  • 648
  • 629
  • 588
  • 583
  • 566
  • 527
  • 496
  • 492
  • 456
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Toler?ncia a falhas com um modelo de agentes

Antunes, Juliana Fonseca 17 December 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:29Z (GMT). No. of bitstreams: 1 430145.pdf: 1689253 bytes, checksum: 95ce19fe718b20a4573cd392edd2c72a (MD5) Previous issue date: 2009-12-17 / Anualmente, os computadores s?o utilizados nas mais diversas ?reas do conhecimento humano e s?o imprescind?veis em v?rias atividades fundamentais na sociedade. Particularmente em aplica??es industriais, o sistema computacional t?m que ser confi?vel e tolerante ? falhas, ou seja permitir que o sistema permane?a operando mesmo na presen?a de falhas. Desta forma, esta disserta??o tem como objetivo descrever um modelo de agentes tolerantes a falhas. A fim de atingir tal objetivo foi feito um estudo de conceitos fundamentais de arquiteturas de agentes deliberativos baseados em estados mentais, esses descritos por cren?as, desejos e inten??es (modeio Belief Desire Intention), que podem ser implemenados utilizando a linguagem de programa??o orientada a agentes AgentSpeak e o mecanismo de toler?ncia a falhas de intera??o multiparticipante confi?vel (Dependable Multiparty Interaction). Atrav?s destes conceitos ? implementado um sistema composto por v?rios elementos computacionais interativos, denominados agentes, que interagem com outros agentes, formando um sistema multiagentes que s?o implementadas util?zando o interpretador Jason de linguagem AgentSpeak. Esse interpretador se comunica com o simulador da C?lula de Produ??o FZI, escalonando o trabalho da c?lula de produ??o atrav?s das cren?as e desejos, re-escalonando o trabalho se ocorrer alguma mudan?a do estado do sistema. A implementa??o de um agente tolerante a falhas permite que o sistema execute a??es concorrentemente mesmo na presen?a de falhas, pois o mecanismo DMI gera uma intera??o multiparticipante entre diversos dispositivos que permite o tratamento de falhas concorrentes. A intera??o multiparticipante ? criada pelos agentes conforme as percep??es adquiridas no simulador da c?lula de produ??o, gerando a??es que s?o enviadas ao simulador, conseq?entemente, alterando o estado dos dispositivos.
142

Uma abordagem paralela para o algoritmo Split

Franciosi, Felipe Mainieri 28 February 2008 (has links)
Made available in DSpace on 2015-04-14T14:49:31Z (GMT). No. of bitstreams: 1 431851.pdf: 926379 bytes, checksum: 41dde88f7d4f933186ff71b29831c0c2 (MD5) Previous issue date: 2008-02-28 / A an?lise comportamental de um processo permite a detec??o de defici?ncias, assim como avaliar o impacto no desempenho do mesmo causado por mudan?as no ambiente. O uso de modelos anal?ticos para descrever o processo em observa??o fornece estes dados atrav?s da resolu??o de sistemas de equa??es. No caso de modelagens feitas com a utiliza??o de formalismos como Rede de Aut?matos Estoc?sticos, a resolu??o destes sistemas depende da multiplica??o de vetores por estruturas definidas atrav?s da ?lgebra tensorial. Por ter um alto custo computacional, diversos algoritmos foram propostos para resolver esta multiplica??o. Recentemente a solu??o iterativa Split foi proposta, e o objetivo deste trabalho ? apresentar alternativas paralelas e otimiza??es para a mesma, buscando um melhor desempenho da solu??o
143

Um estudo sobre a predi??o da estrutura 3D aproximada de prote?nas utilizando o m?todo CReF com refinamento

Dall"agno, Karina Cristina da Motta 22 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:45Z (GMT). No. of bitstreams: 1 438289.pdf: 4232980 bytes, checksum: 881bd64c55df7a95a458dac98379df88 (MD5) Previous issue date: 2012-03-22 / One of the most important problems in Structural Bioinformatics is to understand how the information coded in linear sequence amino acids, or primary structure, is translated into the three-dimensional structure of a protein. Many algorithms proposed solutions to this complex problem of NP-complete class. One of them is the CReF method (Central Residue Fragment-based) which makes prediction of approximate 3-D structure of proteins and polypeptides. The method uses data mining techniques to group data structures, showing good secondary structure prediction, good performance at low machine cost, but has problems in the prediction of turns and loops regions and usability. Valuing the different characteristics of CReF and seeking to evolve it, this work proposes improvements to CReF. After the initial stage of understanding the tool and making changes to turn it executable on the current state of data banks and support tools, two categories of improvements to make were identified. The technical improvements aimed to automate CReF, adapting it to the environment and emphasizing usability. In the method‟s improvements variations on the amount of groups were tested for data mining with the Expectation Maximization algorithm in Weka. Tests indicated that the best results for the initial conformation were for four and six groups, hence we decided to allow the user to select the amount of groups. A new mapping of the data in the Ramachandran plot indicated some problems that had to be fixed. In the analysis of data mining results, we decided that groups in regions not allowed would be discarded. The new version of CReF generated by the implementation of these improvements standardized the method of secondary structure prediction to use Porter. As a consequence, the rules of selection of data mining groups to represent each amino acids have been changed and extended. The new version has the same initial performance of CReF in prediction and execution, however, the problem of correct predictions of turns and loops remained. This problem was addressed through a refinement protocol, based on simulations by the molecular dynamics method, which presented a significant result for the target protein 1ZDD. / Um dos principais desafios da Bioinform?tica Estrutural ? entender como a informa??o decodificada em uma sequ?ncia linear de amino?cidos, ou estrutura prim?ria de uma prote?na, possibilita a forma??o de sua estrutura tridimensional. Muitos algoritmos buscam propor solu??es para o problema complexo da classe NP-completo. Dentre eles, est? o m?todo CReF (Central Residue Fragment-based method) que realiza a predi??o da estrutura 3D aproximada de prote?nas ou polipept?dios. O m?todo usa t?cnicas de minera??o de dados para agrupar dados de estruturas, apresentando boa predi??o de estruturas secund?rias, bom desempenho em m?quina de baixo custo, mas enfrenta problemas na predi??o das regi?es de voltas e al?as e na usabilidade. Valorizando as caracter?sticas diferenciadas do m?todo e buscando sua evolu??o, este trabalho prop?s-se a realizar melhorias no CReF. Ap?s uma etapa inicial de entendimento e adapta??es para tornar a ferramenta execut?vel na situa??o atual dos bancos de dados e ferramentas de apoio, foram identificadas duas categorias de melhorias. As melhorias t?cnicas tiveram por objetivo automatizar a ferramenta, adapt?-la ao ambiente e ao usu?rio enfatizando usabilidade. Para melhorias no m?todo realizaram-se testes com varia??o na quantidade de grupos identificados na etapa de minera??o de dados com o algoritmo Expectation Maximization (EM) no Weka. Os testes indicaram que as melhores conforma??es iniciais eram obtidas com quatro e seis grupos, assim, optou-se por permitir ao usu?rio a escolha dos grupos a considerar. Um novo mapeamento do mapa de Ramachandran indicou ajustes que foram corrigidos e decidiu-se descartar grupos identificados nas regi?es n?o permitidas na an?lise do resultado da minera??o de dados. A nova vers?o do CReF, gerada pela implementa??o dessas melhorias, tamb?m padronizou o m?todo de predi??o de estrutura secund?ria, passando a utilizar o m?todo Porter. Como consequ?ncia, as regras para escolha do grupo resultante da minera??o a representar cada amino?cido foram adaptadas e ampliadas para atender novas situa??es. A nova vers?o manteve o desempenho de predi??o e execu??o iniciais do CReF, entretanto, manteve o problema das voltas e al?as. Este problema de otimiza??o das regi?es de voltas e al?as foi endere?ado por meio do desenho e aplica??o de um protocolo de refinamento, baseado em simula??es pelo m?todo da din?mica molecular, o qual apresentou um resultado expressivo para a prote?na alvo de c?digo PDB 1ZDD.
144

Um processo de aquisi??o e mapeamento de dados para as bacias sedimentares marginais brasileiras

Assun??o, Joaquim Vinicius Carvalho 27 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:46Z (GMT). No. of bitstreams: 1 438673.pdf: 13692914 bytes, checksum: 3eac0c3d5df974b8965fd601f06ddf20 (MD5) Previous issue date: 2012-03-27 / Finding oil is a hard task that requires large amounts of information and resources. Along decades of research, geoscientists from Petrobras have accumulated great amout of data. Therefore, in petroleum geology other sources of important data are generally dispersed and have many forms of representation. This Master Thesis reports the creation of a database that stored various geophysical, paleogeographic and paleoclimatic data from the South Atlantic. Great part of these data were extracted from stratigraphic charts, converted, and stored as a numeric model. This model is the result of an aggregation of data from the Brazilian Sedimentary Basins and the creation of an algorithm solution able to map collected data at the designated geographical area. These data cover the past 140 millions years. The 140 millions of years correspond to a drift period of the South American Plate from the African west coast to the present location. During this drift several natural changes happened in the Ocean Sedimentary Basins until they reached the actual state. The grouping of these data enhances the potential to knowledge discovery on the factors necessary for the deposit of organic matter and oil generation, in consequence, these new factors may improve the chances of finding oil. / Encontrar petr?leo ? uma tarefa dif?cil que requer grandes quantidades de informa??es e recursos. Ao longo de d?cadas de pesquisa, os ge?logos da Petrobras acumularam grandes quantidades de dados. Al?m disso, na geologia do petr?leo outras fontes de dados s?o importantes, fontes estas, que em geral est?o dispersas e possuem v?rias formas de represen??o. Esta disserta??o relata a cria??o de um banco de dados que agrega diversos dados de origem paleoclim?tica e paleogeogr?fica provenientes do Atl?ntico Sul. Grande parte destes dados foram extra?dos de cartas estratigr?ficas, convertidos e armazenados em forma de um modelo num?rico. Modelo este, que ? resultado de agrega??es de dados provenientes das bacias sedimentares brasileiras e da cria??o de uma solu??o algor?tmica capaz de mapear os dados coletados ao longo da ?rea designada. Estes dados s?o relativos a um per?odo de tempo entre a idade geol?gica atual at? 140 milh?es de anos atr?s. Os 140 milh?es de anos correspondem ao per?odo de deslocamento do continente Sul-Americano desde a costa da ?frica at? a posi??o atual. Durante esse deslocamento houveram diversas mudan?as naturais nas bacias sedimentares oce?nicas at? chegarem ao estado atual. O grupamento destes dados potencializa a descoberta de conhecimento relativo aos fatores necess?rios para a deposi??o de mat?ria org?nica e gera??o de petr?leo no fundo do mar, assim, estes novos fatores podem vir a melhorar as probabilidades de descoberta de petr?leo.
145

Uma abordagem para minera??o de dados e visualiza??o de resultados em imagens batim?tricas

Gonzalez, Luis Fernando Planella 27 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:49Z (GMT). No. of bitstreams: 1 439096.pdf: 7558590 bytes, checksum: 4fb2b1caf2e02f0f7ee3d5ffb4741bb7 (MD5) Previous issue date: 2012-03-27 / Bathymetry is the measurement of the depth at various places in a body of water, as well as information derived from such measurements. It has several important applications, and has been attracting increasing interest over the last years. Bathymetry maps may cover the entire extent of the Earth globe. However, the analysis of such maps by visual inspection solely is difficult, due to subtle variations on the seafloor conformation. Thus, it would be interesting to have available computational tools capable of assisting a domain expert in problems related to bathymetry images, by analyzing them automatically or semi-automatically. The contribution of this work is an approach to use data mining for such analysis, and an iconography for results visualization, as well as map characteristics. We propose techniques to process input images, in order to extract records and their features, which can be processed by classic data mining algorithms. We also propose an iconography for visualization of knowledge discovery process results, as well as characteristics of areas in the processed map. Finally, the proposed approach is tested by applying it on a real database, under a domain expert supervision. / A batimetria ? a medida da profundidade em distintos lugares de uma massa de ?gua, e tamb?m a informa??o derivada de tais medi??es. Possui diversas aplica??es importantes e tem atra?do cada vez mais interesse nos ?ltimos anos. Mapas batim?tricos podem cobrir toda a extens?o do globo terrestre. Entretanto, a an?lise apenas por inspe??o visual destes mapas pode ser dif?cil, devido a varia??es sutis na conforma??o do solo oce?nico. Assim, seria interessante a disponibiliza??o de ferramentas computacionais capazes de auxiliar ao especialista de dom?nio nos mais diversos problemas relativos a imagens batim?tricas, analisando-as de forma autom?tica ou semi-autom?tica. A contribui??o deste trabalho ? uma abordagem para a utiliza??o da minera??o de dados para tal an?lise, e de uma iconografia para a visualiza??o dos resultados da minera??o e de caracter?sticas do pr?prio mapa. S?o propostas t?cnicas para o processamento da imagem de entrada, a fim de extrair da mesma registros e atributos que possam ser processados por algoritmos cl?ssicos da minera??o de dados. Tamb?m ? proposta uma iconografia para a visualiza??o dos resultados do processo de descoberta de conhecimento e das caracter?sticas de ?reas processadas do mapa. Finalmente a abordagem proposta ? testada, aplicando-a sobre uma base de dados real, com supervis?o de um especialista de dom?nio.
146

Colabora??o entre pares para melhor compreens?o da mensagem do designer via sistemas de ajuda

Leite, Leticia Lopes 27 March 2012 (has links)
Made available in DSpace on 2015-04-14T14:49:52Z (GMT). No. of bitstreams: 1 441922.pdf: 2826793 bytes, checksum: 09ee76ea9c16cd15b09c462ecd55cee5 (MD5) Previous issue date: 2012-03-27 / A dissemina??o da computa??o tem gerado uma demanda por sistemas que sejam facilmente utilizados por seus usu?rios. Os sistemas de ajuda apresentam-se como uma forma de prover aux?lio aos usu?rios em momentos de d?vidas. Entretanto, com o passar dos tempos e a evolu??o da computa??o, tem-se observado um desuso destes sistemas. Observou-se, ent?o, que ? importante oferecer formas que possibilitem aos usu?rios se apropriar dos sistemas computacionais, e que eles sintam-se motivados a utiliz?-las. Acredita-se que a colabora??o entre usu?rios pode auxiliar na motiva??o destes usu?rios, assim como pode proporcionar o compartilhamento de experi?ncias e informa??es entre os mesmos acerca dos sistemas computacionais que utilizam. Torna-se necess?rio, ent?o, proporcionar um ambiente que propicie um esclarecimento de d?vidas efetivo em que as mensagens sejam entendidas pelos envolvidos no processo de comunica??o. Neste sentido, a presente tese objetiva investigar formas de facilitar e motivar o esclarecimento de d?vidas em sistemas de ajuda em pares para sistemas colaborativos de ensino. Ela est? alicer?ada em tr?s pilares: Engenharia Semi?tica, pois se prop?e que o uso de express?es de comunicabilidade auxilie na identifica??o e, consequentemente, na solu??o das d?vidas dos usu?rios; sistemas de ajuda, pois se considera que estes recursos s?o a melhor forma de se explicar ao usu?rio um sistema computacional; e sistemas colaborativos de ensino, pois eles proporcionam um ambiente que ap?ia o processo de ensino e de aprendizagem, favorecendo e estimulando a colabora??o entre seus usu?rios. O resultado desta pesquisa ? a proposta de uma arquitetura de sistemas de ajuda em pares que baseia sua comunica??o no uso de express?es de comunicabilidade. A arquitetura foi implementada em um prot?tipo que possibilitou a realiza??o de testes, permitindo verificar e analisar o uso de express?es de comunicabilidade pelos usu?rios destes sistemas, assim como obter informa??es acerca da efetividade de seu uso.
147

Proposta de integra??o RUP + PMBOK na ger?ncia de escopo no processo de desenvolvimento de software

Gomes, Andr? Lu?s Sanson 18 December 2009 (has links)
Made available in DSpace on 2015-04-14T14:49:56Z (GMT). No. of bitstreams: 1 444180.pdf: 9406851 bytes, checksum: a31a0ed68333730c028c25e41a222310 (MD5) Previous issue date: 2009-12-18 / Software organizations of development are always searching to increase the product quality of software, for that is necessary that the processes well are defined and can be controlled. However, some difficulties are found as: processes directed total toward the productive activity and with little or no management activity, bad the management of projects or absence of management, not attendance the expectation of the involved ones. These processes must allow a methodology of management of projects that describes the activities important to all to assure the quality of the project with one, including the product and the process. In this context, this research considers an integrated process using a methodology of management of projects and a process of development of software in the area of target management. Contributing so that management and productive activities are executed of integrated form and using the area of target management to determine correctly as these activities they must be developed in the project in order to produce the foreseen deliveries. Like this, the process is presented and a use example, so that it can assist the managers in the taking of decision and planning, execution and control of the projects / As organiza??es de desenvolvimento de software est?o sempre buscando aumentar a qualidade dos produtos de software, para isto ? necess?rio que os processos sejam bem definidos e possam ser controlados. Entretanto, algumas dificuldades s?o encontradas como: processos voltados totalmente para a atividade produtiva e com pouco ou nenhuma atividade gerencial, m? ger?ncia de projetos ou aus?ncia de ger?ncia, n?o atendimento a expectativa dos envolvidos. Estes processos devem permitir uma metodologia de ger?ncia de projetos, que descreva as atividades importantes para garantir a qualidade do projeto com um todo, incluindo o produto e o processo. Neste contexto, esta pesquisa prop?e um processo integrado utilizando uma metodologia de ger?ncia de projetos e um processo de desenvolvimento de software na ?rea de gerenciamento de escopo. Contribuindo para que atividades gerenciais e produtivas sejam executadas de forma integrada e utilizando a ?rea de gerenciamento de escopo para determinar corretamente como estas atividades devem ser desenvolvidas no projeto de modo a se produzir as entregas previstas. Assim, apresenta-se o processo e um exemplo de uso, para que possa auxiliar os gestores na tomada de decis?o e planejamento, execu??o e controle dos projetos
148

Extra??o de contextos definit?rios a partir de textos em l?ngua portuguesa

Wendt, Igor da Silveira 15 March 2011 (has links)
Made available in DSpace on 2015-04-14T14:49:58Z (GMT). No. of bitstreams: 1 445541.pdf: 1627180 bytes, checksum: 184a4b2054d700b987b074f0fcdf3122 (MD5) Previous issue date: 2011-03-15 / The definitory context is part of a text or utterance that provides information about a concept based on its use. The extraction of definitions from texts is an important task in various applications. Several papers present this feature as an aid in the construction of ontologies, in the development of material for aid in translation, in question answering systems, in creation of glossaries, dictionaries, among others. Thus, this study proposes set of heuristics to make the automatic extraction of potentially definitory contexts contained in Portuguese texts. The results of these heuristics were evaluated by terminologists and obtained 35.1 % F-measure when applied in a General Geology corpus and 51.7 % F-measure when applied in a General Chemistry corpus, reducing in both more than 50%of the amount of contexts to be examined by a specialist compared with the contexts extraction through a concordancer / O contexto definit?rio ? a parte de um texto ou de um enunciado que fornece informa??o sobre um conceito, com base em seu uso. A extra??o de contextos definit?rios a partir de textos ? uma tarefa importante em v?rias aplica??es. Diversos trabalhos usam este recurso como aux?lio na constru??o de ontologias, no desenvolvimento de material de aux?lio ? tradu??o, na elabora??o de sistemas de perguntas e respostas, na cria??o de gloss?rios, dicion?rios, entre outros. Nesse sentido, este trabalho prop?e um conjunto de heur?sticas para fazer a extra??o autom?tica de contextos potencialmente definit?rios em textos de l?ngua portuguesa. Os resultados dessas heur?sticas foram avaliados por termin?logos. Os resultados mostram 35,1% de F-measure quando o conjunto de heuristicas foi aplicado a um corpus de Geologia Geral e 51,7% de F-measure quando aplicado a um corpus de Qu?mica Geral. Isso proporcionou uma redu??o, em ambos os corpus, de mais de 50% da quantidade de contextos para serem analisados pelo especialista, comparando-se com a extra??o de contextos em um concordanciador
149

Random forests estoc?stico

G?mez, Silvio Normey 31 August 2012 (has links)
Made available in DSpace on 2015-04-14T14:50:03Z (GMT). No. of bitstreams: 1 449231.pdf: 1860025 bytes, checksum: 1ace09799e27fa64938e802d2d91d1af (MD5) Previous issue date: 2012-08-31 / In the Data Mining area experiments have been carried out using Ensemble Classifiers. We experimented Random Forests to evaluate the performance when randomness is applied. The results of this experiment showed us that the impact of randomness is much more relevant in Random Forests when compared with other algorithms, e.g., Bagging and Boosting. The main purpose of this work is to decrease the effect of randomness in Random Forests. To achieve the main purpose we implemented an extension of this method named Stochastic Random Forests and specified the strategy to increase the performance and stability combining the results. At the end of this work the improvements achieved are presented / Na ?rea de Minera??o de Dados, experimentos vem sendo realizados utilizando Conjuntos de Classificadores. Estes experimentos s?o baseados em compara??es emp?ricas que sofrem com a falta de cuidados no que diz respeito ? quest?es de aleatoriedade destes m?todos. Experimentamos o Random Forests para avaliar a efici?ncia do algoritmo quando submetido a estas quest?es. Estudos sobre os resultados mostram que a sensibilidade do Random Forests ? significativamente maior quando comparado com a de outros m?todos encontrados na literatura, como Bagging e Boosting. O proposito desta disserta??o ? diminuir a sensibilidade do Random Forests quando submetido a aleatoriedade. Para alcan?ar este objetivo, implementamos uma extens?o do m?todo, que chamamos de Random Forests Estoc?stico. Logo especificamos como podem ser alcan?adas melhorias no problema encontrado no algoritmo combinando seus resultados. Por ?ltimo, um estudo ? apresentado mostrando as melhorias atingidas no problema de sensibilidade
150

RSAPP, um algoritmo baseado em rough sets para aux?lio ao processo de descoberta de conhecimento em banco de dados

Silveira, Juliano Gomes da 14 March 2013 (has links)
Made available in DSpace on 2015-04-14T14:50:07Z (GMT). No. of bitstreams: 1 451416.pdf: 14714043 bytes, checksum: 81e6c7473cbbdc708a5b414e1b3ffc85 (MD5) Previous issue date: 2013-03-14 / Techniques of Business Intelligence (BI) became one of the main allies of organizations in tasks of transforming data into knowledge, supporting the middle and upper management levels in decision making. BI tools in their composition are based on techniques of knowledge management, such as Data Warehouse (DW), OLAP (Online Analytical Processing), Data Mining (DM), among others. In this context, it is observed that in many case, DM projects become unfeasible by some factors, such as project costs, duration and specially the uncertainty in obtaining results that return the investment spent on the project. This work seeks to minimize these factors through a diagnosis on data, by an algorithm based on Rough Sets Theory. The algorithm, named Rough Set App (RSAPP) aims to create a diagnosis on data persisted in DW, in order to map which attributes have the greatest potential for generating more accurate mining models and more interesting results. Thus, it is expected that the diagnosis generated by RSAPP can complement the KDD (Knowledge Discovery in Database) process, reducing the time spent on activities of understanding and reducing data dimensionality. This work presents a detailed description about the implemented algorithm, as well as the report of the executed tests. At the end there is an empirical analysis of the results, in order to estimate the effectiveness of the proposed algorithm. / As t?cnicas, business intelligence (BI) firmaram-se como grandes aliadas das organiza??es nas tarefas de transformar dados em conhecimento, apoiando a m?dia e alta gest?o na tomada de decis?es. As ferramentas de BI em sua, composi??o s?o fundadas em t?cnicas de gest?o do conhecimento, tais como Data Warehouse (DW), OLAP (Online Analytical Processing), minara??o de dados (MD), entre outras. Neste contexto, observa-se que em muitos casos, projatos de MD acabam sendo inviabilizados por alguns fatores, tais como, custo do projeto, dura??o e principalmente, a incerteza na obten??o de resultados que retornem o investimento despedindo no projeto. O presente trabalho busca minimizar os fatores acima por meio um diagn?stico sobre dados, atrav?s de um algoritmo baseado em Rough Sets Theory (Teoria dos Conjuntos Aproximados (TCA)). O algoritmo desenvolvido, nomeado Rough Set App (RSAPP) objetiva criar um diagn?stico sobre os dados persistidos no DW, a fim de mapear quais atributos possuem maior potencial de gerar modelos de minera??o mais preciosos e resultados mais interessantes. Desta forma, entende-se que o diagn?stico gerado por RSAPP pode complementar o processo de KDD (Knowledge Discovery in database), reduzindo o tempo gasto nas atividades de entendimento e redu??o da dimensionalidade dos dados. No trabalho se faz uma descri??o detalhada acerca do algoritmo implementado, bem como o relato dos, testes que foram executados. Ao final faz-se uma an?lise emp?rica sobre os resultados a fim de estimar a efic?cia do algoritmo quanto a sua proposta.

Page generated in 0.0613 seconds