• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 415
  • 41
  • Tagged with
  • 456
  • 456
  • 426
  • 372
  • 371
  • 371
  • 369
  • 368
  • 278
  • 116
  • 104
  • 82
  • 71
  • 68
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

An Inverse-Perspective-based Approach to Monocular Mobile Robot Navigation

Bonin Font, Francisco Jesus 18 May 2012 (has links)
No description available.
2

Alinhamento estrat?gico de programas de melhoria do processo de software em micro e pequenas empresas

Becker, Andr? Luiz 16 January 2008 (has links)
Made available in DSpace on 2015-04-14T14:48:59Z (GMT). No. of bitstreams: 1 401196.pdf: 2999351 bytes, checksum: f36a308913d0fb0196e64d9977480d08 (MD5) Previous issue date: 2008-01-16 / Considerando o elevado ?ndice de mortalidade das Micro e Pequenas Empresas (MPEs), a implanta??o de programas de melhoria do processo de software pode ser uma alternativa para aumentar a competitividade destas empresas. Entretanto, o investimento necess?rio ? a principal dificuldade das MPEs. Assim, estas empresas precisam realizar programas de melhoria que possam iniciar com pouco investimento, que produzam resultados r?pidos e que possam ser incrementados ? medida que o tempo e os recursos permitam. O alinhamento entre a estrat?gia de um programa de melhoria de processos e a estrat?gia de neg?cio das organiza??es ? uma alternativa para priorizar as melhorias de processo mais importantes para a organiza??o e implant?-las na organiza??o gradativamente. Neste sentido, esta disserta??o de mestrado tem como objetivo apresentar uma proposta para a condu??o de programas de melhoria de processo alinhado com os objetivos organizacionais em MPEs. O principal m?todo de pesquisa utilizado foi o estudo de caso e a base emp?rica envolveu uma empresa de desenvolvimento de software de pequeno porte. A pesquisa contribui no sentido de propor um modelo iterativo e incremental para a condu??o de programas de MPS, um processo de alinhamento estrat?gico de programas de MPS e uma ferramenta de apoio, al?m de apresentar dados emp?ricos e sistematizar parte da teoria recente da ?rea
3

Uma arquitetura para suporte ? minera??o de dados paralela e distribu?da em ambientes de computa??o de alto desempenho

Bernardi, ?lder Francisco Fontana 10 March 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:32Z (GMT). No. of bitstreams: 1 431852.pdf: 1120851 bytes, checksum: 164e0d72a540ab33502e807a748407b1 (MD5) Previous issue date: 2010-03-10 / Este trabalho apresenta uma arquitetura para suporte ? execu??o de tarefas de minera??o de dados em ambientes de computa??o de alto desempenho, tais como: clusters, m?quinas SMP e grades. Esta arquitetura automatiza o processo de dimensionamento da aplica??o paralela, criando ferramentas para a constru??o autom?tica de tarefas, mapeamento, ger?ncia e execu??o dessas aplica??es nos recursos computacionais dispon?veis. Os mecanismos criados para a execu??o de aplica??es de minera??o possibilitam a combina??o do paralelismo do fluxo de dados e de instru??es. Como contribui??o do trabalho, destaca-se a organiza??o da arquitetura proposta e a cria??o de um algoritmo para mapeamento de aplica??es de minera??o paralelas em ambientes computacionais heterog?neos. Enfatiza-se o suporte ao aproveitamento de recursos com m?ltiplos n?cleos de processamento (multi-cores). Al?m disso, apresenta-se a paraleliza??o de um algoritmo de minera??o de dados para regress?o
4

Hardware-based approach to support mixed-critical workload execution in multicore processors

Green, Bruno Naspolini 23 December 2015 (has links)
Submitted by Setor de Tratamento da Informa??o - BC/PUCRS (tede2@pucrs.br) on 2016-05-06T16:26:38Z No. of bitstreams: 1 DIS_BRUNO_NASPOLINI_GREEN_COMPLETO.pdf: 5399784 bytes, checksum: 68454c801dfde629ebad948323993992 (MD5) / Made available in DSpace on 2016-05-06T16:26:38Z (GMT). No. of bitstreams: 1 DIS_BRUNO_NASPOLINI_GREEN_COMPLETO.pdf: 5399784 bytes, checksum: 68454c801dfde629ebad948323993992 (MD5) Previous issue date: 2015-12-23 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / The use of multicore processors in general-purpose real-time embedded systems has experienced a huge increase in the recent years. Unfortunately, critical applications are not benefiting from this type of processors as one could expect. The major obstacle is that we may not predict and provide any guarantee on real-time properties of software running on such platforms. The shared memory bus is among the most critical resources, which severely degrades the timing predictability of multicore software due to the access contention between cores. To counteract this problem, we present in this work a new approach that supports mixed-criticality workload execution in a multicore processor-based embedded system. It allows any number of cores to run less-critical tasks concurrently with the critical core, which is running the critical task. The approach is based on the use of a dedicated Hard Deadline Enforcer (HDE) implemented in hardware, which allows the execution of any number of cores (running less-critical workloads) concurrently with the critical core (executing the critical workload). From the best of our knowledge, compared to existing techniques, the proposed approach allows the exploitation of the maximum performance offered by a multiprocessing system while guaranteeing critical task schedulability. Additionally, the proposed approach presents the same design complexity as any other approach devoted to perform timing analysis for single core processor, no matter the number of cores are used in the embedded system on the design. If current techniques were used, the design complexity to perform timing analysis would increase dramatically as long as the number of cores in the embedded system increases. A case-study based on a dual-core version of the LEON3 processor was implemented to demonstrate the applicability and assertiveness of the approach. Several critical application codes were compiled to this processor, which was mapped into a Xilinx Spartan 3E FPGA. Experimental results demonstrate that the proposed approach is very effective on combining system high-performance with critical task schedulability within timing deadline. / O uso de processadores multicore em sistemas embarcados em tempo real de prop?sito geral tem experimentado um enorme aumento nos ?ltimos anos. Infelizmente, aplica??es cr?ticas n?o se beneficiam deste tipo de processadores como se poderia esperar. O principal obst?culo ? que n?o podemos prever e fornecer qualquer garantia sobre as propriedades em tempo real do software em execu??o nessas plataformas. O barramento de mem?ria compartilhada est? entre os recursos mais cr?ticos, que degrada severamente a previsibilidade temporal do software multicore devido ? conten??o de acesso entre os n?cleos. Para combater este problema, apresentamos neste trabalho uma nova abordagem que suporta a execu??o de carga de trabalho de criticidade mista em um sistema embarcado baseado em processadores multicore. Permitindo que qualquer n?mero de n?cleos execute tarefas menos cr?ticas concorrentemente com o n?cleo cr?tico que executa a tarefa cr?tica. A abordagem baseia-se na utiliza??o de um Hard Deadline Enforcer (HDE) implementado em hardware, que permite a execu??o de qualquer n?mero de n?cleos (executando cargas de trabalho menos cr?ticas) simultaneamente com o n?cleo cr?tico (executando a carga cr?tica). A partir do melhor de nosso conhecimento, em compara??o com as t?cnicas existentes, a abordagem proposta permite a explora??o do desempenho m?ximo oferecido por um sistema multicore, garantindo a escalonabilidade da tarefa cr?tica. Al?m disso, a abordagem proposta apresenta a mesma complexidade de projeto, como qualquer outra abordagem dedicada a an?lise temporal para processadores de n?cleo ?nico, n?o importando o n?mero de n?cleos que s?o utilizados no sistema incorporado ao design. Caso t?cnicas atuais fossem utilizadas, a complexidade do projeto para an?lise temporal de sistemas de m?ltiplos n?cleos aumentaria dramaticamente conforme o aumento do n?mero de n?cleos do sistema embarcado. Foi implementado um estudo de caso baseado em uma vers?o dual-core do processador LEON3 para demonstrar a aplicabilidade e assertividade da abordagem. V?rios c?digos de aplica??es cr?ticas foram compilados para este processador, que foi mapeado na FPGA Spartan 3E da Xilinx. Resultados experimentais demonstram que a abordagem proposta ? muito eficaz na obten??o da alta performance do sistema respeitando o deadline da tarefa cr?tica.
5

A inclus?o digital e sua contribu??o no cotidiano de idosos : possibilidade para uma concep??o multidimensional de envelhecimento

Nunes, Vivian Patr?cia Caberlon 30 May 2006 (has links)
Made available in DSpace on 2015-04-14T13:53:41Z (GMT). No. of bitstreams: 1 386536.pdf: 338536 bytes, checksum: 672c8cc3fef17a38185e6fa52aa34a38 (MD5) Previous issue date: 2006-05-30 / A necessidade do uso dos recursos da Inform?tica vem crescendo diariamente de forma cont?nua e r?pida. A linguagem da inform?tica e o conhecimento sobre o computador passaram a ser s?mbolos da cultura contempor?nea, independentemente da ?rea de especializa??o e de faixa et?ria, influenciando na auto-valoriza??o e no desenvolvimento de uma nova cidadania - social e solid?ria -. A pesquisa realizada teve como objetivo analisar a percep??o de idosos sob a contribui??o da inclus?o digital em sua vida cotidiana e a mudan?a ocorrida em suas concep??es de envelhecimento, ap?s freq?entarem oficinas pedag?gicas de inclus?o digital, assumindo-se uma concep??o de cotidiano constru?da a partir da complementaridade das id?ias de Morin, (1998, 1999), Heller (1987), Stuart (2002) e Luckman e Berger (1987) em que fica evidente a import?ncia das rela??es de autonomia/depend?ncia na constru??o do sujeito/indiv?duo e de sua rela??o com o mundo e a tecnologia. Nos estudos de Kachar (2003), Azevedo e Souza et al (2002 e 2004), Garcia e Lentini (2002), Garcia, Lentini e Gennaro (2002) e Di?z (2001) encontrou-se argumentos que corroboram a presen?a de potencial de constante aprendizagem em idosos e conseq?ente inclus?o digital. O estudo foi desenvolvido numa abordagem qualitativa/dial?gica. Os dados foram coletados junto a 24 idosos que freq?entam h? 6 meses oficinas pedag?gicas de alfabetiza??o digital, realizadas duas vezes por semana, com dura??o de uma hora, sob a coordena??o do N?cleo de Estudos Interdisciplinares sobre Concep??o de Envelhecimento do Programa de P?s-Gradua??o em Gerontologia Biom?dica do Instituto de Geriatria e Gerontologia, da Pontif?cia Universidade Cat?lica do Rio Grande do Sul. Durante o desenvolvimento das oficinas os idosos participavam nas segundasfeiras de atividades de l?ngua espanhola e nas quartas-feiras de atividades que inclu?am a aprendizagem do Word, Powerpoint e WWW/Internet, que foram aplicadas na elabora??o de apresenta??es sobre envelhecimento em PowerPoint e na constru??o de homepage pelos idosos. Os dados foram coletados por observa??o participante e por entrevista coletiva, utilizando-se os princ?pios da dial?gica de Morin (recursivo, hologram?tico e dial?gico) na an?lise da realidade.A an?lise dos dados compreendeu: leitura explorat?ria global dos registros das observa??es participantes e das transcri??es das entrevistas; leitura detalhada de cada material coletado; organiza??o do material por unidades contextuais; identifica??o das unidades de significados e classifica??o em dimens?es. Como principais contribui??es da inclus?o digital foi identificado que a experi?ncia vivida nas oficinas pedag?gicas ? uma possibilidade de reconstru??o da identidade do idoso como cidad?o do mundo, como possuidor de capacidade para aprendizagem cont?nua e para lidar com situa??es e desafios di?rios relacionados ao uso da tecnologia, dando suporte para a reconstru??o do conhecimento e a comunica??o. Verificou-se que a inclus?o digital contribuiu na capacita??o de idosos para utiliza??o de recursos informatizados (Word, PowerPoint, WWW/Internet), na produ??o intelectual (constru??o de materiais instrucionais sobre envelhecimento); auxiliou na sua integra??o com a fam?lia; na atualiza??o da linguagem e na comunica??o com o mundo, principalmente pelo reconhecimento do potencial do idoso para a aprendizagem da tecnologia e de uma nova linguagem, at? ent?o concebidas como prerrogativas dos mais jovens. O envelhecimento, constituindo tema transversal dos materiais instrucionais elaborados pelos idosos nas oficinas pedag?gicas, possibilitou aos idosos perceberem que este processo ? constitu?do de diferentes dimens?es, indo al?m da biol?gica, o que possibilitou tecer e compreender a arquitetura complexa do fen?meno envelhecimento ao reconhecerem a presen?a das dimens?es psicol?gica, social, cultural e educacional.
6

Solu??o de aux?lio ao diagn?stico e ? pesquisa m?dica baseada em minera??o de dados utilizando interface android

Chimieski, Bruno Fernandes 12 November 2012 (has links)
Made available in DSpace on 2015-04-14T13:56:27Z (GMT). No. of bitstreams: 1 445055.pdf: 5786647 bytes, checksum: cdcdc51bf8f86cf0c8bce837ef82e984 (MD5) Previous issue date: 2012-11-12 / Since the primary studies on the applications of Information Technology aiming to add value to other areas of knowledge, the playing eld of medicine has always been seen as fertile ground for such. With the advent of Arti cial Intelligence techniques, computer programs have been given a power of learning more sophisticated and thus opening the possibility of its use beyond the hospital administrative processes, drawing ever closer to the provision of patient care. Therefore, this paper proposes to demonstrate the feasibility of an aid to medical diagnosis and obtaining implicit knowledge in databases of three diseases: breast cancer, dermatology and vertebral column problems. To do so, is applied the process of extracting knowledge from databases in order to achieve these goals. This process has Data Mining as its core, which in turn relies on machine learning algorithms to transform data, sometimes not analyzed, in useful information for business referred to, in this case about health care. Therefore, this work presents a study aided by the tool Weka, to determine which machine learning algorithms perform best when applied to target databases. With these algorithms in hand, is implemented a solution to aid the diagnosis and study of medical applications making use of Android as interface for healthcare professionals, with it, utilizing what is most modern in terms of mobile electronic devices in the world market. The results were quite satisfactory, given that the objectives for the study on the determination of Data Mining algorithms, preparation of databases for future research and implementation of the solution for the diagnosis have been met and, together, prove that you can apply tools of information technology to add value to medical practice. / Desde os estudos primordiais sobre as aplica??es da Tecnologia da Informa??o objetivando agregar valor a outras areas do conhecimento, o campo de atua??o da Medicina sempre foi visto como terreno f?rtil para tal. Com o advento das t?cnicas de Intelig?ncia Artificial, os programas de computador passaram a ter um poderio de aprendizagem mais sofisticado e, portanto, abrindo a possibilidade da sua utiliza??o al?m dos processos administrativos hospitalares, chegando cada vez mais pr?ximo da presta??o de cuidados aos pacientes. Por isso, a presente disserta??o prop?e-se a demonstrar a viabilidade de uma solu??o de aux?lio ao diagn?stico m?dico e a obten??o de conhecimento impl?cito em bases de dados de tr?s doen?as: tumor de mama, problemas dermatol?gicos e da coluna vertebral. Para tanto, aplica-se o processo de extra??o de conhecimento de bases de dados afim de atingir esses objetivos. Esse processo tem como cerne o uso da Minera??o de Dados, que por sua vez, apoia-se nos algoritmos de aprendizado de m?quina para transformar dados em informa??es ?teis para os neg?cios a que se referem. Por isso, esse trabalho apresenta um estudo, auxiliado pela ferramenta Weka, para a determina??o de quais os algoritmos de aprendizado de m?quina apresentam melhor desempenho quando aplicados as bases de dados alvo. Com esses algoritmos em m?os, implementou-se uma solu??o de auxilio ao diagn?stico e estudo m?dico fazendo uso de aplicativos Android como interface de utiliza??o para os profissionais de sa?de, com isso, utilizando o que h? de mais moderno em termos de dispositivos eletr?nicos m?veis no mercado mundial. Os resultados foram bastante satisfat?rios, dado que os objetivos tra?ados referentes ao estudo sobre a determina??o de algoritmos de Minera??o de Dados, a prepara??o das bases de dados para futuras pesquisas e a implementa??o da solu??o de aux?lio ao diagn?stico foram atingidos e, em conjunto, comprovam que e poss?vel aplicar ferramentas da Tecnologia da Informa??o para agregar valor a pr?tica m?dica.
7

Triagem virtual em banco de dados de ligantes considerando propriedades f?sico-qu?micas de um modelo de receptor totalmente flex?vel / Virtual screening in ligand databases considering phisical-chemical properties of a fully-flexible receptor model

Quevedo, Christian Vahl 27 January 2016 (has links)
Submitted by Caroline Xavier (caroline.xavier@pucrs.br) on 2017-03-20T14:28:36Z No. of bitstreams: 1 TES_CHRISTIAN_VAHL_QUEVEDO_COMPLETO.pdf: 4899891 bytes, checksum: d1bdebeb58af0b6576f8370b00023654 (MD5) / Made available in DSpace on 2017-03-20T14:28:36Z (GMT). No. of bitstreams: 1 TES_CHRISTIAN_VAHL_QUEVEDO_COMPLETO.pdf: 4899891 bytes, checksum: d1bdebeb58af0b6576f8370b00023654 (MD5) Previous issue date: 2016-01-27 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / Funda??o de Amparo ? Pesquisa do Estado do Rio Grande do Sul (FAPERGS) / Pharmacophore models have been widely used in the virtual screening, allowing to select ligands that containing the spatial arrangement of essential physico-chemical properties. These properties are obtained from the evaluation of similar interactions identified in known receptor-ligand complexes. Currently, these pharmacophore models based on ligands are dependent on the physicochemical characteristics present in the known receptorligand complex. Thus, the pharmacophore model generated can overlook the proteins that have no known ligands complexed and whose physical and chemical properties do not establish interaction in the evaluated complex. That is, regions in the cavity that do not interact with ligands that generate the pharmacophore model and that may allow the interaction of structurally diverse ligands are not included in the selective search. Furthermore, several authors have shown that not taking the protein?s flexibility into account during the selection of drug candidates limits the result?s accuracy significantly. Thus, this thesis presents a new method for performing a virtual screening of ligands based on the evaluation of the 3D physico-chemical properties of the substrate binding pocket, and without the presence of complexed ligands, of representative structures of a Fully-Flexible Receptor (FFR) model. This method allows identifying 3D pharmacophoric models of flexible regions, which cannot be obtained from 3D pharmacophore models developed only from crystal structures of the ligand-receptor complex. A list of pharmacophoric hypothesis is proposed to select a set of ligands ZINC DB. Tests of this method?s efficacy were based on cross-docking experiments with the FFR model of 19.5 ns of the InhA enzyme from Mycobacterium tuberculosis. Molecular docking experiments with selected ligands showed that 95.0% of this group were negative values FEB, with 20.6% of these values that the best values obtained with FEB docking experiments with the crystalline structure that generated the rated model. These promising results show that the developed method may be an important support tool for researchers in the search for new drug candidates, accelerating the selection of possible candidates to be tested with FFR models of target molecules. The method presented also provides a great way to evaluate FFR models, enabling the domain expert to identify whether the obtained regions are really accessible in the investigated protein. / Modelos farmacof?ricos t?m sido amplamente utilizados no processo de triagem virtual de ligantes, permitindo selecionar ligantes que contenham as propriedades f?sicoqu?micas essenciais em um arrranjo espacial adequado. Essas propriedades s?o obtidas a partir da avalia??o das intera??es similares identificadas de complexos receptor-ligante conhecidos. Atualmente, esses modelos farmacof?ricos baseados em ligantes s?o dependentes das caracter?sticas f?sico-qu?micas presentes nos complexos receptor-ligante conhecidos. Desta forma, o modelo farmacof?rico gerado pode negligenciar as prote?nas que n?o possuem ligantes complexados conhecidos e cujas propriedades f?sico-qu?micas n?o estabelecem intera??o nos complexos avaliados. Ou seja, regi?es dentro da cavidade que n?o interagem com o conjunto de ligantes geradores do modelo farmacof?rico e que podem permitir a intera??o de ligantes estruturalmente diferentes n?o est?o inclu?das nessa busca seletiva. Al?m disso, diversos autores t?m mostrado que n?o considerar a flexibilidade da prote?na no processo de sele??o de candidatos a f?rmacos acaba limitando significativamente a precis?o dos resultados. Assim, esta tese apresenta um novo m?todo para realizar uma triagem virtual de ligantes baseada na avalia??o das propriedades f?sico-qu?micas 3D da cavidade de liga??o do substrato, e sem a presen?a de ligantes complexados, de estruturas representativas de um modelo de Receptor Totalmente Flex?vel (FFR). O resultado desse m?todo permite identificar modelos farmacof?ricos 3D de regi?es flex?veis que podem n?o ser obtidos de modelos desenvolvidos apenas a partir de estruturas cristalinas de complexos receptor-ligante. Uma lista de hip?teses farmacof?ricas ? proposta para selecionar um conjunto de ligantes do banco de dados ZINC. Testes da efic?cia desse m?todo foram baseados em experimentos de cross docking com um modelo de FFR de 19,5 ns da enzima InhA de Mycobacterium tuberculosis. Os experimentos de docagem molecular com o conjunto de ligantes selecionado mostraram que 95,0% desse conjunto obtiveram valores negativos de FEB, sendo 20,6% desses valores melhores que os valores de FEB obtidos com experimentos de docagem com a estrutura cristalina que gerou o modelo avaliado. Esses resultados promissores comprovam que o m?todo desenvolvido tem condi??es de ser uma importante ferramenta de apoio aos pesquisadores na busca por novos candidatos a f?rmacos, acelerando o processo de sele??o dos poss?veis candidatos a serem testados com modelos FFR de mol?culas alvo. O m?todo apresentado tamb?m fornece uma ?tima forma de avaliar o modelo FFR empregado, possibilitando ao especialista de dom?nio identificar se as regi?es obtidas s?o realmente acess?veis na prote?na investigada.
8

Processo de KDD para aux?lio ? reconfigura??o de ambientes virtualizados

Winck, Ana Trindade 20 December 2007 (has links)
Made available in DSpace on 2015-04-14T14:48:55Z (GMT). No. of bitstreams: 1 397762.pdf: 1330898 bytes, checksum: 5d70750d721e0c762826c9afce7b0753 (MD5) Previous issue date: 2007-12-20 / Xen ? um paravirtualizador que permite a execu??o simult?nea de diversas m?quinas virtuais (VM), cada uma com seu pr?prio sistema operacional. O consumo dessas VMs se d? em diferentes n?veis de recursos. Com o objetivo de melhorar a performance do Xen, ? interessante verificar qual a melhor aloca??o de recursos para uma dada m?quina Xen, quando v?rias VMs s?o executadas, e quais s?o os respectivos par?metros. Para auxiliar a eventual reconfigura??o de par?metros, este trabalho prop?e um processo completo de descoberta de conhecimento em banco de dados (processo de KDD) para capturar dados de desempenho das VMs, organiz?-los em um modelo anal?tico e aplicar t?cnicas de minera??o para sugerir novos par?metros. Inicialmente s?o obtidos dados de desempenho de cada VM, onde a estrat?gia empregada ? a execu??o de benchmarks sobre cada sistema operacional. Esses dados s?o armazenados em um data warehouse propriamente modelado para armazenar registros de captura de m?tricas de benchmarks. Os dados armazenados s?o convenientemente preparados para serem utilizados por algoritmos de minera??o de dados. Os modelos preditivos gerados podem, ent?o, ser enriquecidos com instru??es em alto n?vel de reconfigura??es. Tais modelos buscam sugerir, dada uma configura??o vigente, qual o melhor conjunto de par?metros de configura??o para modificar o ambiente, e alcan?ar um ganho global de desempenho. O processo proposto foi implementado e testado com um conjunto significativo de execu??es de benchmarks, o que mostrou a qualidade e abrang?ncia da solu??o.
9

M?todos de clusteriza??o para apoio ? classifica??o est?tica de documentos

Primo, Tiago Thompsen 24 March 2008 (has links)
Made available in DSpace on 2015-04-14T14:49:01Z (GMT). No. of bitstreams: 1 406128.pdf: 16056423 bytes, checksum: d4b22e3a871de544238db5630e9a295f (MD5) Previous issue date: 2008-03-24 / Neste trabalho ser?o abordados estudos referentes ? classifica??o de grande quantidade de documentos de conte?do vari?vel. Em tal processo quando um grande n?mero de documentos ? gerado, existe a necessidade de um usu?rio verific?-los um a um com a inten??o de separ?-los em bons (com pouco ou nenhum problema estrutural) ou ruins (que possuem problemas estruturais), processo este considerado lento e oneroso. Considerando este problema, neste trabalho foi desenvolvida uma ferramenta de classifica??o est?tica de documentos que visa reduzir esta interven??o humana. A ferramenta desenvolvida ? baseada em m?tricas que avaliam o quanto um documento automaticamente gerado difere de seu template, criando para cada um destes documentos uma assinatura baseada nas t?cnicas de fingerprint, objetivando primeiramente distingui-los entre si para ent?o utilizar t?cnicas de clusteriza??o criando grupos de documentos com caracter?sticas semelhantes. O algoritmo K-Med?ides ? usado para fazer tal agrupamento, tal algoritmo funciona criando grupos de objetos considerando um destes como base para a cria??o de cada cluster. A id?ia deste trabalho ? reduzir a interven??o humana fazendo com que um usu?rio classifique em bom ou ruim apenas determinados documentos de cada grupo formado pelo algoritmo de clusteriza??o. S?o tamb?m apresentados resultados de quatro experimentos realizados com esta ferramenta avaliando as contribui??es para diminuir a interven??o humana no processo de classifica??o de documentos.
10

SPDW-Miner : um m?todo para a execu??o de processos de descoberta de conhecimento em bases de dados de projetos de software

Figueira, Fernanda Vieira 31 March 2008 (has links)
Made available in DSpace on 2015-04-14T14:49:12Z (GMT). No. of bitstreams: 1 417649.pdf: 1251849 bytes, checksum: ad607557163d02817ddb83aa46013681 (MD5) Previous issue date: 2008-03-31 / As organiza??es de software buscam, cada vez mais, aprimorar seu Processo de Desenvolvimento de Software (PDS), com o intuito de garantir a qualidade dos seus processos e produtos. Para tanto, elas adotam modelos de maturidade de software. Esses modelos estabelecem que a mensura??o da qualidade seja realizada atrav?s de um programa de m?tricas (PM). As m?tricas definidas devem ser coletadas e armazenadas, permitindo manter um hist?rico organizacional da qualidade. Contudo, apenas mensurar n?o ? o bastante. As informa??es armazenadas devem ser ?teis para apoiar na manuten??o da qualidade do PDS. Para tanto, os n?veis mais altos dos modelos de maturidade sugerem que t?cnicas estat?sticas e anal?ticas sejam utilizadas, com a finalidade de estabelecer o entendimento quantitativo sobre as m?tricas. As t?cnicas de minera??o de dados entram neste contexto como uma abordagem capaz de aumentar a capacidade anal?tica e preditiva sobre as estimativas e o desempenho quantitativo do PDS. Este trabalho prop?e um m?todo para a execu??o do processo de KDD (Knowledge Discovery in Database), denominado de SPDW-Miner, voltado para a predi??o de m?tricas de software. Para tanto, prop?e um processo de KDD que incorpora o ambiente de data warehousing, denominado SPDW+. O m?todo ? composto por uma s?rie de etapas que guiam os usu?rios para o desenvolvimento de todo o processo de KDD. Em especial, em vez de considerar o DW (data warehouse) como um passo intermedi?rio deste processo, o toma como ponto de refer?ncia para a sua execu??o. S?o especificadas todas as etapas que comp?em o processo de KDD, desde o estabelecimento do objetivo de minera??o; a extra??o e prepara??o dos dados; a minera??o at? a otimiza??o dos resultados. A contribui??o est? em estabelecer um processo de KDD em um n?vel de detalhamento bastante confort?vel, permitindo que os usu?rios organizacionais possam adot?-lo como um manual de refer?ncia para a descoberta de conhecimento.

Page generated in 0.0271 seconds