• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 486
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7624
  • 2223
  • 1814
  • 1759
  • 1276
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Tolerância a falhas em sistemas MPI com grupos dinâmicos de processos recomendados e registro de mensagens distribuído baseado em paxos

Camargo, Edson Tavares de January 2017 (has links)
Orientador : Prof. Dr. Elias P. Duarte Jr. / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 11/05/2017 / Inclui referências : f. 93-103 / Área de concentração : Ciência da computação / Resumo: Os sistemas HPC (High-Performance Computing) são geralmente empregados para executar aplicações de longa duração, incluindo, por exemplo, simulações científicas e industriais complexas. Construir sistemas HPC tolerante a falhas permanece um desafio à medida que o tamanho desses sistemas aumenta. Esta tese de doutorado apresenta duas estratégias de tolerância a falhas para sistemas HPC baseados em MPI. A primeira contribuição apresenta uma solução para lidar com a variabilidade de desempenho que afeta negativamente ou inviabiliza a execução das aplicações HPC. Este é o caso dos clusters compartilhados onde um nodo computacional pode se tornar muito lento e comprometer a execução de toda a aplicação. Esta tese propõe um novo modelo de diagnóstico em nível de sistema onde os processos executam testes entre si a fim de determinar se são recomendados ou não-recomendados. Os processos classificados como recomendados formam um grupo dinâmico, chamado de DGRP (Dynamic Group of Recommended Processes), e são responsáveis por executar a aplicação. Os processos testados como não-recomendados são removidos do DGRP. Um processo pode reingressar ao DGRP após uma rodada de consenso executada pelos processos do DGRP. O modelo foi implementado e empregado para monitorar os processos em um cluster compartilhado multiusuário. No estudo de caso apresentado, os processos do DGRP executam o algoritmo de ordenação paralela Hyperquicksort. O Hyperquicksort é implementado e adaptado para se reconfigurar em tempo de execução a fim de suportar até n ?? 1 processos não-recomendados (em um sistema com n processos). Os resultados obtidos demonstram a sua eficiência. A segunda contribuição desta tese se insere na técnica de rollback-recovery na sua variante chamada de registro de mensagens. O registro de mensagens não requer a sincronização dos processos para salvar o estado da aplicação e evita que todos os processos reiniciem a partir do último estado salvo. No entanto, a maioria dos protocolos de registro de mensagens conta com um componente centralizado e que não tolera falhas, chamado de event logger, para armazenar as informações de recuperação, isto é, os determinantes. Esta tese de doutorado propõe o primeiro event logger distribuído e tolerante a falhas para os protocolos de registro de mensagens. Duas implementações baseadas no algoritmo de consenso Paxos, chamadas de Paxos Clássico e Paxos Paralelo, foram realizadas para o event logger. Um protocolo pessimista de registro de mensagens é construído e implementado para interagir com o event logger proposto e realizar a recuperação automática das aplicações MPI. O desempenho dos event loggers é avaliado perante a aplicação AMG (Algebraic MultiGrid) e as aplicações do NAS Parallel benchmark. A recuperação é avaliada através do algoritmo paralelo de Gusfield e a aplicação AMG. Resultados demonstram que o event logger baseado em Paxos Paralelo tem desempenho comparável ou superior ao da abordagem centralizada e que o protocolo proposto realiza a recuperação da aplicação eficientemente. Palavras-chave: Tolerância a Falhas em MPI, DGRP, Registro de Mensagens, Paxos Paralelo. / Abstract: HPC systems are employed to execute long-running applications including, for example, complex industrial and scientific simulations. Building robust, fault-tolerant HPC systems remains a challenge as the size of the system grows. This doctoral thesis presents two faulttolerant strategies for HPC systems based on MPI. Our first contribution presents a solution to deal with the performance variation of HPC system processes that negatively a_ect or even prevent the execution of HPC applications. This is the case in shared clusters in which a single node can become too slow and can thus compromise the entire application execution. This thesis proposes a new system-level diagnosis model in which processes execute tests among themselves in order to determine whether they are recommended or non-recommended. Processes classified as recommended form a Dynamic Group of Recommended Processes (DGRP), which is responsible for running the application. A process can rejoin the DGRP after a round of consensus executed by the DGRP processes. The model was implemented and used to monitor processes in a shared multi-user cluster. In the case study presented, the DGRP processes execute the parallel sorting algorithm Hyperquicksort. Hyperquicksort is implemented and adapted to reconfigure itself at runtime in order to proceed even if up to N ?? 1 processes become non-recommended (N is the total number of processes). Results are presented showing that the strategy is e_cient. The second contribution of this thesis is in the field of the rollbackrecovery technique in its variant based on message logging. Message logging does not require all processes to coordinate in order to save their states during normal execution. Neither does it require to restart all processes from the last saved states after a single process fails. However, most existing message logging protocols rely on a centralized entity which does not tolerate failures, called event logger, which stores recovery information called determinants. This thesis proposes, to the best of our knowledge, the first distributed and fault-tolerant event logger. Two implementations are presented based on the Paxos consensus algorithm, called Classic Paxos and Parallel Paxos. A pessimistic message logging protocol is built and implemented based on the proposed event logger to perform automatic recovery of MPI applications after failures. We evaluate the performance of the event logger using both the AMG (Algebraic MultiGrid) application and NAS Parallel benchmark applications. Application recovery is evaluated in two case studies based on Gusfield's parallel cut tree algorithm and the AMG application. Results show that the event logger based on Parallel Paxos performs as well as or better than a centralized event logger and that the proposed recovery protocol is also e_cient. Keywords: Fault Tolerance in MPI, DGRP, Message Logging, Parallel Paxos.
422

Aplicação de técnicas de aprendizado de máquina na mensuração florestal

Rojas Montaño, Razer Anthom Nizer January 2016 (has links)
Orientador : Prof. Dr. Eduardo Todt / Coorientador : Prof. Dr. Carlos Sanquetta / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 25/11/2016 / Inclui referências : f. 76-84 / Área de concentração : Ciência da computação / Resumo: Vive-se em um mundo onde a escassez de recursos naturais leva a um uso cada vez mais racional destes, seja água, recursos minerais, biológicos, hídricos e energéticos. Especificamente quando se trata de madeira, o homem evoluiu muito no manejo de florestas plantadas, aplicando técnicas de cultivo e planejamento de corte para a exploração. Estas técnicas fazem uso da mensuração florestal para medição e estimação de valores dendrométricos importantes, como altura, volume e biomassa. A estimativa de valores dendrométricos é de extrema importância, pois não é viável o abate de toda uma população para que sejam observados os exatos valores. Assim, pesquisadores fazem uso de ferramentas estatísticas em mensuração florestal há anos, com bastante sucesso em suas estimações. Recentemente, com o avanço da área da inteligência artificial, técnicas de aprendizado de máquina têm se mostrado também capazes de competir com os métodos estatísticos de regressão, abrindo assim um leque de opções aos pesquisadores. Inserido neste contexto, o objetivo deste trabalho é aplicar técnicas de aprendizado de máquina para resolução de problemas de mensuração florestal, mostrando também que este se encaixa como um processo de descoberta de conhecimento, inserido na área da Ciência da Computação. Foram realizados experimentos com dados de árvores de Acácia-negra para avaliação de biomassa e relação hipsométrica, Pinus para estimativa de volumes e relação hipsométrica, e com uma amostra de árvores de florestas tropicais de várias regiões do mundo, para estimativa de biomassa. Compararam-se modelos alométricos clássicos com Redes Neurais Artificiais (RNA), Máquinas de Vetores de Suporte (SVM) e Random Forest (RF), e em todos os testes realizados o modelo que obteve melhor correlação é uma técnica de aprendizado de máquina. Para a predição de volumes de Pinus, o melhor modelo foi SVM com correlação de 99,19%. Para estimativa de biomassa da Acácia-negra, SVM obteve a melhor correlação com 98,6%. Para estimativa de biomassa de florestas tropicais, o melhor modelo foi RNA com correlação de 98,06%. Para relação hipsométrica da Acácia-negra, o modelo de SVM obteve a melhor correlação, de 97,73%. Já para relação hipsométrica de Pinus, o modelo de melhor predição foi RNA com correlação de 98,02%. O teste de Friedman mostrou a presença de diferença estatística entre os métodos e, embora o pós-teste de Nemenyi não tenha conseguido evidenciá-la, foi detectada uma tendência a uma separação entre os métodos. Os resultados obtidos mostram fortemente que os modelos de aprendizado de máquina são uma alternativa competitiva frente aos métodos clássicos, superando-os nos experimentos aqui realizados. Palavras chave: Inventário Florestal, Mensuração Florestal, Descoberta de Conhecimento em Bases de Dados, Aprendizado de Máquina, Redes Neurais, Máquinas de Vetores de Suporte, Árvores de Modelos, Florestas Aleatórias. / Abstract: We live in a world where scarcity of natural resources leads to an increasing rational use of these resources, like water, minerals, biological or energetical. Specifically wood, man evolved much in the management of planted forests by applying cultivation techniques and cutting planning for exploration. These techniques make use of forest measurement to estimation of important dendrometric values such as height, volume and biomass. The estimation of dendrometric values is extremely important because is not feasible to cut down the whole population to note the exact values. Thus, researchers make use of statistical tools for measuring forest for years with success in their estimates. Recently, with the advancement of artificial intelligence, machine learning techniques have been able to compete with the statistical regression methods, thereby opening a range of options to researchers. Within this context, the objective of this work is to use machine learning techniques to resolution of forest measurement problems, showing that this is a process of knowledge discovery, from the area of Computer Science. Experiments were performed with data of Acacia-negra trees for evaluation of biomass and hypsometric relation, Pinus to estimate volumes and hypsometric relation, and with a sample of tropical forest trees of various regions to estimate biomass. Classical allometric models were compared with Artificial Neural Networks (ANN), Support Vector Machines (SVM) and Random Forest (RF), and in all tests the model that obtained the best correlation was a machine learning technique. For the prediction of Pinus volumes, the best model was SVM with correlation of 99.19 %. To estimate Acacia-negra biomass, SVM showed the best correlation with 98.6 %. To estimate biomass of tropical forest trees, the best model was RNA with a correlation of 98.06 %. For hypsometric relation of Acacia-negra, the SVM model obtained the best correlation, of 97.73 %. As for the hypsometric relation of Pinus, the best prediction model was RNA with a correlation of 98.02The Friedman test showed the presence of statistical difference between the methods and, although the Nemenyi post-hoc test was not able to show it, it was detectecd a tendency towards a separation of methods. The results obtained strongly show that machine learning models are a competitive alternative in comparison to the classical methods, surpassing them in the experiments carried out here. Keywords: Forest Inventory, Forest Measuring, Knowledge Discovery in Databases Machine Learning, Neural Networks, Support Vector Machines, Model Trees, Random Forest.
423

Communication patterns abstractions for programming SDN to optimize high-performance computing applications

Trois, Celio January 2017 (has links)
Orientador : Luis Carlos Erpen de Bona / Coorientadores : Magnos Martinello; Marcos Didonet Del Fabro / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 04/09/2017 / Inclui referências : f. 95-113 / Resumo: A evolução da computação e das redes permitiu que múltiplos computadores fossem interconectados, agregando seus poderes de processamento para formar uma computação de alto desempenho (HPC). As aplicações que são executadas nesses ambientes processam enormes quantidades de informação, podendo levar várias horas ou até dias para completar suas execuções, motivando pesquisadores de varias áreas computacionais a estudar diferentes maneiras para acelerá-las. Durante o processamento, essas aplicações trocam grandes quantidades de dados entre os computadores, fazendo que a rede se torne um gargalo. A rede era considerada um recurso estático, não permitindo modificações dinâmicas para otimizar seus links ou dispositivos. Porém, as redes definidas por software (SDN) emergiram como um novo paradigma, permitindoa ser reprogramada de acordo com os requisitos dos usuários. SDN já foi usado para otimizar a rede para aplicações HPC específicas mas nenhum trabalho tira proveito dos padrões de comunicação expressos por elas. Então, o principal objetivo desta tese é pesquisar como esses padrões podem ser usados para ajustar a rede, criando novas abstrações para programá-la, visando acelerar as aplicações HPC. Para atingir esse objetivo, nós primeiramente pesquisamos todos os níveis de programabilidade do SDN. Este estudo resultou na nossa primeira contribuição, a criação de uma taxonomia para agrupar as abstrações de alto nível oferecidas pelas linguagens de programação SDN. Em seguida, nós investigamos os padrões de comunicação das aplicações HPC, observando seus comportamentos espaciais e temporais através da análise de suas matrizes de tráfego (TMs). Concluímos que as TMs podem representar as comunicações, além disso, percebemos que as aplicações tendem a transmitir as mesmas quantidades de dados entre os mesmos nós computacionais. A segunda contribuição desta tese é o desenvolvimento de um framework que permite evitar os fatores da rede que podem degradar o desempenho das aplicações, tais como, sobrecarga imposta pela topologia, o desbalanceamento na utilização dos links e problemas introduzidos pela programabilidade do SDN. O framework disponibiliza uma API e mantém uma base de dados de TMs, uma para cada padrão de comunicação, anotadas com restrições de largura de banda e latência. Essas informações são usadas para reprogramar os dispositivos da rede, alocando uniformemente as comunicações nos caminhos da rede. Essa abordagem reduziu o tempo de execução de benchmarks e aplicações reais em até 26.5%. Para evitar que o código da aplicação fosse modificado, como terceira contribuição, desenvolvemos um método para identificar automaticamente os padrões de comunicação. Esse método gera texturas visuais di_erentes para cada TM e, através de técnicas de aprendizagem de máquina (ML), identifica as aplicações que estão usando a rede. Em nossos experimentos, o método conseguiu uma taxa de acerto superior a 98%. Finalmente, nós incorporamos esse método ao framework, criando uma abstração que permite programar a rede sem a necessidade de alterar as aplicações HPC, diminuindo em média 15.8% seus tempos de execução. Palavras-chave: Redes Definidas por Software, Padrões de Comunicação, Aplicações HPC. / Abstract: The evolution of computing and networking allowed multiple computers to be interconnected, aggregating their processing powers to form a high-performance computing (HPC). Applications that run in these computational environments process huge amounts of information, taking several hours or even days to complete their executions, motivating researchers from various computational fields to study different ways for accelerating them. During the processing, these applications exchange large amounts of data among the computers, causing the network to become a bottleneck. The network was considered a static resource, not allowing dynamic adjustments for optimizing its links or devices. However, Software-Defined Networking (SDN) emerged as a new paradigm, allowing the network to be reprogrammed according to users' requirements. SDN has already been used to optimize the network for specific HPC applications, but no existing work takes advantage of the communication patterns expressed by those applications. So, the main objective of this thesis is to research how these patterns can be used for tuning the network, creating new abstractions for programming it, aiming to speed up HPC applications. To achieve this goal, we first surveyed all SDN programmability levels. This study resulted in our first contribution, the creation of a taxonomy for grouping the high-level abstractions offered by SDN programming languages. Next, we investigated the communication patterns of HPC applications, observing their spatial and temporal behaviors by analyzing their traffic matrices (TMs). We conclude that TMs can represent the communications, furthermore, we realize that the applications tend to transmit the same amount of data among the same computational nodes. The second contribution of this thesis is the development of a framework for avoiding the network factors that can degrade the performance of applications, such as topology overhead, unbalanced links, and issues introduced by the SDN programmability. The framework provides an API and maintains a database of TMs, one for each communication pattern, annotated with bandwidth and latency constraints. This information is used to reprogram network devices, evenly placing the communications on the network paths. This approach reduced the execution time of benchmarks and real applications up to 26.5%. To prevent the application's source code to be modified, as a third contribution of our work, we developed a method to automatically identify the communication patterns. This method generates different visual textures for each TM and, through machine learning (ML) techniques, identifies the applications using the network. In our experiments the method succeeded with an accuracy rate over 98%. Finally, we incorporate this method into the framework, creating an abstraction that allows programming the network without changing the HPC applications, reducing on average 15.8% their execution times. Keywords: Software-Defined Networking, Communication Patterns, HPC Applications.
424

Aplicando gestao de energia ao protocolo de roteamento para redes ad hoc móveis VRP

Bannack, Angelo January 2008 (has links)
Orientador: Luiz Carlos Pessoa Albini / Inclui apendice / Dissertaçao (mestrado) - Universidade Federal do Paraná, Setor de Ciencias Exatas, Programa de Pós-Graduaçao em Informática. Defesa: Curitiba, 25/08/2008 / Inclui bibliografia
425

Image-based appearance preservation

Carvalho, Beatriz Trinchão Andrade de January 2013 (has links)
Orientadora : Profª Drª Olga Regina Pereira Bellon / Coorientador : Prof.Dr. Luciano Silva / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciencias Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 11/10/2013 / Inclui bibliografia / Resumo: A preservação tridimensional digital de objetos reais compreende dois aspectos: a preservação da forma do objeto e a preservação de sua aparência. Esta tese tem como foco a preservação da aparência de objetos reais baseada em imagens e provê uma série de contribuições sobre o tema. A primeira contribuição consiste em dois grupos de experimentos, onde cada um trabalha uma abordagem diferente na preservação da aparência baseada em imagens. Esses experimentos são baseados em conceitos fundamentais relacionados ao comportamento da luz e em uma compilação de trabalhos que visam preservar a aparência de objetos reais usando diferentes tipos de imagens. O primeiro grupo de experimentos tenta desconsiderar ao máximo a inuência da luz. O segundo vai um passo além e considera uma única fonte de luz. Estes experimentos são a base e motivação para o desenvolvimento da principal contribuição desta tese, que é um novo método de preservação da aparência baseado em imagens que considera todo o ambiente como fonte de luz. Ele apresenta como novidade o fato de estimar a luz vinda de todo o ambiente para cada ponto em uma região na superfície de um objeto. Até onde foi pesquisado neste trabalho, nenhum método existente adota essa abordagem. Considerar todo o ambiente como fonte de luz permite configurações flexíveis durante a aquisição e, já que reproduz o que acontece na realidade, recupera informações potencialmente mais confiáveis sobre a iluminação incidente. Esta tese apresenta este método e sua aplicação em ambientes reais e sintéticos. Conclusões sobre este trabalho são apresentadas e direções. / Abstract: The three-dimensional digital preservation of real objects comprises two main aspects: the preservation of the shape of the object and the preservation of its appearance. This thesis focuses on the image-based appearance preservation of real objects and provides a set of contributions on the theme. The first contribution consists in two groups of experiments, where each one of them targets one different image-based appearance preservation approach. These experiments are based in fundamental concepts related to the behavior of light and in a compilation of works that aim to preserve the appearance of real objects using different types of images. The first group of experiments attempts to disregard as much as possible the inuence of the environment light. The second one goes one step further and considers a single light source. These experiments were the basis and motivation for the development of the main contribution of this thesis, which is a novel image-based appearance preservation method that considers the whole environment as a source of light. It presents as novelty the fact that it estimates the incoming light from the whole environment to each point in an object surface patch. At the best knowledge of this work, none of the current existing methods adopts this approach. Considering the whole environment as source of light allows exible acquisition setups and, as it reproduces what happens in reality, potentially retrieves more reliable information about the incident lighting. This thesis presents this method and its application on real and synthetic environments. Conclusions about this work are presented and future research directions are discussed.
426

Sistema de arquivos distribuído flexível e adaptável

Fernandes, Silas Evandro Nachif [UNESP] 13 April 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:01Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-04-13Bitstream added on 2014-06-13T20:51:10Z : No. of bitstreams: 1 fernandes_sen_me_sjrp.pdf: 941362 bytes, checksum: e0e07c896853141b27f27af08088487b (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Com o aumento do volume de dados e a incerteza dos recursos de hardware e software, a descentralização dos dados em sistema de arquivos surgiu com a finalidade de diminuir a probabilidade de perda total desses dados. Com isso, este trabalho propõe um modelo de sistema de arquivos distribuído que incorpora características de transparência, escalabilidade, tolerância a falhas, criptografia, suporte a hardware de baixo custo, facilidade na implantação e manipulação dos arquivos / With the increasing volume of data and uncertainty of hardware and software resources, the decentralization of data in file systems came up with the aim of reducing the likelihood of total loss of such data. Thus, this paper proposes a model of distributed file systems that integrates features of transparency, scalability, fault tolerance, encryption, support for low cost hardware, easy management and handling of files
427

Roteamento tolerante a falhas baseado em desvios de alta conectividade

Santini, Rogério 27 October 2010 (has links)
No description available.
428

Apoio à maturidade pessoal visando a melhoria dos projetos de software

Esteca, Antonio Marcos Neves [UNESP] 05 February 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-02-05Bitstream added on 2014-06-13T19:59:31Z : No. of bitstreams: 1 esteca_amn_me_sjrp.pdf: 2014918 bytes, checksum: 3bfceb7e0154b7322dffb5a913cafa9e (MD5) / Estudos revelam que os resultados dos projetos de software ainda estão muito aquém do esperado. Devido a isso, organizações produtoras de software bem sucedidas têm adotado uma abordagem mais completa em relação aos processos de desenvolvimento. Nos últimos anos, além de gerenciarem seus projetos, tais organizações estão investindo em um processo para capacitação individual e monitoramento rigoroso dos recursos humanos, denominado Personal Software Process – PSP. Tal processo tem levado à maior disciplina e controle sobre todas as fases do desenvolvimento e, consequentemente, ao aumento da taxa de sucesso dos projetos. Neste contexto, este trabalho apresenta a integração das técnicas propostas no modelo PSP a um sistema web previamente desenvolvido, denominado Sistema de Apoio à Gerência de Projetos - SAGP. A avaliação dos resultados foi realizada por meio de uma análise comparativa da nova versão do SAGP em relação a outras ferramentas disponíveis no mercado. Além disso, o sistema foi avaliado por desenvolvedores de software, que constituem o seu público-alvo. Os resultados obtidos permitem concluir que a integração realizada levou à obtenção de um sistema de qualidade capaz de facilitar o emprego do PSP e de gerar indicadores que auxiliam os gerentes de projetos em suas atividades / Studies show that the results of software projects are still much less than expected. Due to this, successful software-producing organizations have adopted a more complete approach towards development processes. Nowadays, besides managing their projects, such organizations are investing in a process of individual qualification and strict monitoring of team members called Personal Software Process - PSP. This process has led to maintenance of greater discipline and control throughout all development phases and, consequently, to the increase in the rate of successful projects. In this context, this work presents the integration of the techniques proposed in the PSP model with a previously developed web-based system, which is called System to Aid Project Management - SAPM. The evaluation of the results was carried out through comparative analysis of the new version of SAGP in relation to other tools commercially available. Furthermore, the system was evaluated by software developers, who are their target audience. The results indicate that the proposed integration led to obtaining of a system of quality able to facilitate the use of the PSP and generate indicators that aid project managers in their activities
429

Apoio à maturidade pessoal visando a melhoria dos projetos de software /

Esteca, Antonio Marcos Neves. January 2013 (has links)
Orientador: Rogéria Cristiane Gratão de Souza / Banca: Selma Shin Shimizu Melnikoff / Banca: Hilda Carvalho de Oliveira / Resumo: Estudos revelam que os resultados dos projetos de software ainda estão muito aquém do esperado. Devido a isso, organizações produtoras de software bem sucedidas têm adotado uma abordagem mais completa em relação aos processos de desenvolvimento. Nos últimos anos, além de gerenciarem seus projetos, tais organizações estão investindo em um processo para capacitação individual e monitoramento rigoroso dos recursos humanos, denominado Personal Software Process - PSP. Tal processo tem levado à maior disciplina e controle sobre todas as fases do desenvolvimento e, consequentemente, ao aumento da taxa de sucesso dos projetos. Neste contexto, este trabalho apresenta a integração das técnicas propostas no modelo PSP a um sistema web previamente desenvolvido, denominado Sistema de Apoio à Gerência de Projetos - SAGP. A avaliação dos resultados foi realizada por meio de uma análise comparativa da nova versão do SAGP em relação a outras ferramentas disponíveis no mercado. Além disso, o sistema foi avaliado por desenvolvedores de software, que constituem o seu público-alvo. Os resultados obtidos permitem concluir que a integração realizada levou à obtenção de um sistema de qualidade capaz de facilitar o emprego do PSP e de gerar indicadores que auxiliam os gerentes de projetos em suas atividades / Abstract: Studies show that the results of software projects are still much less than expected. Due to this, successful software-producing organizations have adopted a more complete approach towards development processes. Nowadays, besides managing their projects, such organizations are investing in a process of individual qualification and strict monitoring of team members called Personal Software Process - PSP. This process has led to maintenance of greater discipline and control throughout all development phases and, consequently, to the increase in the rate of successful projects. In this context, this work presents the integration of the techniques proposed in the PSP model with a previously developed web-based system, which is called System to Aid Project Management - SAPM. The evaluation of the results was carried out through comparative analysis of the new version of SAGP in relation to other tools commercially available. Furthermore, the system was evaluated by software developers, who are their target audience. The results indicate that the proposed integration led to obtaining of a system of quality able to facilitate the use of the PSP and generate indicators that aid project managers in their activities / Mestre
430

Uma técnica para compilar sistemas configuráveis com #ifdefs baseada no impacto da mudança.

BRASILEIRO, Larissa Nadja Braz. 18 May 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-05-18T12:28:38Z No. of bitstreams: 1 LARISSA NADJA BRAZ BRASILEIRO - DISSERTAÇÃO (PPGCC) 2016.pdf: 4032685 bytes, checksum: a8e913ea098aadcbf3418b4a1743ddc4 (MD5) / Made available in DSpace on 2018-05-18T12:28:38Z (GMT). No. of bitstreams: 1 LARISSA NADJA BRAZ BRASILEIRO - DISSERTAÇÃO (PPGCC) 2016.pdf: 4032685 bytes, checksum: a8e913ea098aadcbf3418b4a1743ddc4 (MD5) Previous issue date: 2016 / Capes / Sistemas configuráveis tipicamente usam #ifdefs para denotar variabilidade. Gerar e compilar todas as configurações de um sistema pode consumir tempo. Uma alternativa consiste em usar analisadores sintáticos conscientes de variabilidade, como TypeChef. Porém, eles podem não escalar. Na prática, desenvolvedores podem utilizar estratégias de amostragem (sampling) para compilar apenas um subconjunto das configurações. Este trabalho propõe uma técnica para compilar sistemas configuráveis com #ifdefs baseada no impacto da mudança através da análise apenas das configurações impactadas por uma mudança de código. A técnica foi implementada em uma ferramenta chamada CHECKCONFIGMX, que reporta os novos erros de compilação introduzidos pela transformação. Um estudo empírico foi realizado para avaliar 3,913 transformações aplicadas aos 14 maiores arquivos dos sistemas configuráveis BusyBox, Apache HTTPD, e Expat. CHECKCONFIGMX encontrou 595 erros de compilação de 20 tipos introduzidos por 41 desenvolvedores em 214 commits (5.46% das transformações analisadas). No estudo realizado, a ferramenta reduziu ao menos 50% (uma média de 99%) o número de configurações compiladas em comparação à abordagem exaustiva, sem considerar feature models. CHECKCONFIGMX pode ajudar os desenvolvedores a reduzir o esforço de avaliar transformações de granularidade fina aplicadas a sistemas configuráveis com #ifdefs. / Configurable systems typically use #ifdefs to denote variability. Generating and compiling all configurations may be time-consuming. An alternative consists of using variability aware parsers, such as TypeChef. However, they may not scale. In practice, developers can use sampling strategies to compile only a subset of the configurations. We propose a change-centric approach to compile configurable systems with #ifdefs by analyzing only configurations impacted by a code change. We implement it in a tool called CHECKCONFIGMX, which reports the new compilation errors introduced by the transformation. We perform an empirical study to evaluate 3,913 transformations applied to the 14 largest files of BusyBox, Apache HTTPD, and Expat configurable systems. CHECKCONFIGMX finds 595 compilation errors of 20 types introduced by 41 developers in 214 commits (5.46% of the analyzed transformations). In our study, it reduces at least 50% (an average of 99%) the number of compiled configurations by comparing with the exhaustive approach without considering a feature model. CHECKCONFIGMX may help developers to reduce compilation effort to evaluate fine-grained transformations applied to configurable systems with #ifdefs.

Page generated in 0.0777 seconds