Spelling suggestions: "subject:"deste dde regressão"" "subject:"deste dde egressão""
1 |
Test Case Selector: Uma Ferramenta para Seleção de TestesNereida Dantas Mafra, Juliana 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:48Z (GMT). No. of bitstreams: 2
arquivo2991_1.pdf: 6547364 bytes, checksum: 03ab81c7244ab7c419279c96b7250ff6 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Esta dissertação descreve a ferramenta Test Case Selector (TCS), desenvolvida para auxiliar o
usuário a selecionar casos de teste. O Test Case Selector foi desenvolvido no contexto de uma
cooperação industrial com a Motorola, onde seleção de testes de regressão não é uma tarefa
fácil. Em geral, uma suíte possui milhares de casos de testes e, em um ciclo de regressão,
apenas algumas centenas podem ser executados, de acordo com a capacidade dos times de
execução. Tal seleção é feita manualmente. O processo de seleção do TCS atribui pontos a
cada caso de teste de acordo com 4 critérios de seleção: número de execuções, taxa de falhas
por execução, número de defeitos novos encontrados e complexidade do teste. O usuário atribui
pesos a cada critério e o TCS calcula uma média ponderada para cada caso de teste. Os casos
de teste que mais pontuaram são mais relevantes para o ciclo de regressão.
Para avaliar a ferramenta TCS, desenvolvemos uma ferramenta auxiliar de cálculo de métricas
e executamos 3 estudos de caso. A métrica M1 calcula a intersecção existente entre as técnicas
manual e automática e as métricas M2:1 e M2:2 calculam a efetividade da seleção automática
baseado no percentual de casos de teste que acham defeitos e no percentual de defeitos encontrados,
respectivamente. O primeiro estudo de caso compara a seleção manual com a seleção
automática, o segundo avalia a efetividade da seleção automática realizada pelo TCS e o terceiro
ilustra um processo de extração de pesos a partir do histórico de execução. De acordo com
os resultados analisados, verificamos que no primeiro estudo de caso, não houve semelhança
significativa entre os casos de teste selecionados de forma manual e automática. No segundo
estudo de caso, observamos que a efetividade obtida ao considerar pequenos intervalos não
foi satisfatória e no terceiro, através do processo de melhoria contínua, conseguimos detectar
critérios que foram eficazes no passado e obtivemos resultados mais efetivos.
As principais contribuições deste trabalho são: a definição de 4 critérios para seleção de
casos de teste caixa-preta baseados em informações históricas e julgamento de especialistas; a
implementação de ferramentas para mecanizar a seleção de casos de teste e realizar o cálculo
automático das métricas; estudos de caso ilustrando o uso da ferramenta TCS em suítes reais e
um processo de seleção de casos de teste baseado em melhoria contínua
|
2 |
Avaliando suites automaticamente geradas para validação de refatoramentos.SILVA, Indy Paula Soares Cordeiro e. 30 August 2018 (has links)
Submitted by Lucienne Costa (lucienneferreira@ufcg.edu.br) on 2018-08-30T18:41:36Z
No. of bitstreams: 1
INDY PAULA SOARES CORDEIRO E SILVA – DISSERTAÇÃO (PPGCC) 2018.pdf: 1399246 bytes, checksum: ca2d8bfa9c9492d9d2d97a1485afad82 (MD5) / Made available in DSpace on 2018-08-30T18:41:36Z (GMT). No. of bitstreams: 1
INDY PAULA SOARES CORDEIRO E SILVA – DISSERTAÇÃO (PPGCC) 2018.pdf: 1399246 bytes, checksum: ca2d8bfa9c9492d9d2d97a1485afad82 (MD5)
Previous issue date: 2018-02-22 / Capes / Refatoramentos normalmente exigem testes de regress˜ao para verificar se as mudanc¸as aplicadas ao c´odigo, preservaram o comportamento original do mesmo. Geralmente, ´e dif´ıcil definir um conjunto de testes que seja efetivo para esta tarefa, uma vez que o refatoramento n˜ao ´e frequentemente aplicado em etapas isoladas. Al´em disso, as edic¸ ˜oes de refatoramento podem ser combinadas com outras edic¸ ˜oes no c´odigo. Nesse sentido, a gerac¸ ˜ao de casos de teste pode contribuir para essa tarefa, analisando sistematicamente o c´odigo e fornecendo uma ampla gama de casos de teste que abordam diferentes construc¸ ˜oes. No entanto, uma s´erie de estudos apresentados na literatura mostram que as ferramentas atuais ainda n˜ao s˜ao eficazes com relac¸ ˜ao `a detecc¸ ˜ao de faltas, particularmente faltas de refatoramento. Com base nisto, apresentamos dois estudos emp´ıricos que aplicaram as ferramentas Randoop e Evosuite
para gerar suites de testes de regress˜ao, com foco na edic¸ ˜ao de refatoramento do tipo
extract method. Com base nos resultados dos estudos, identificamos fatores que podem influenciar o desempenho das ferramentas para efetivamente testar a edic¸ ˜ao. Para validar nossos achados, apresentamos um conjunto de modelos de regress˜ao que associam a presenc¸a desses fatores `a capacidade do conjunto de testes, de detectar faltas relacionadas `a edic¸ ˜ao de refatoramento. E por fim, apresentamos a REFANALYZER, que ´e uma ferramenta que objetiva ajudar os desenvolvedores a decidir quando confiar em suites geradas automaticamente, para validar refatoramento do tipo extract method. / Refactoring typically require regression testers to verify that the changes applied to the code have preserved the original behavior of the code. Generally, it is difficult to define a set of tests that is effective for this task, since refactoring is not the weight applied in isolated steps. Also, since refactoring issues can be combined with other issues, without code. In this sense, a generation of test cases can contribute to this task by systematically analyzing the code and defining a wide range of test cases that address different constructs. However, a number of studies are not available but are not very effective in detecting faults, particularly refactorings. Based on this, we present two empirical studies that have applied as Randoop and Evosuite tools to generate regression test suites, focusing on the edition of refactoring of the extract method type. Based on the results of the studies, we identified factors that can influence the performance of the tools to effectively test the edition. To validate our findings, we present a set of control models that associate a solution with the ability of the set of tests, of spoken faults related to the refactoring edition. And finally, we present a REFANALYZER, which is a tool that is a solution to what needs to be solved when it is automatically managed, to validate refactoring of the extract method type.
|
3 |
Uma técnica de priorização de casos de teste para múltiplas mudanças agregadas.CAVALCANTE, Berg Élisson Sampaio. 21 May 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-05-21T11:28:18Z
No. of bitstreams: 1
BERG ÉLISSON SAMAPAIO CAVALCANTE - DISSERTAÇÃO (PPGCC) 2016.pdf: 1665807 bytes, checksum: 29f9430f322f8d4644a7bfeee7aaf497 (MD5) / Made available in DSpace on 2018-05-21T11:28:18Z (GMT). No. of bitstreams: 1
BERG ÉLISSON SAMAPAIO CAVALCANTE - DISSERTAÇÃO (PPGCC) 2016.pdf: 1665807 bytes, checksum: 29f9430f322f8d4644a7bfeee7aaf497 (MD5)
Previous issue date: 2016 / Capes / É evidente hoje o grande investimento em qualidade de software. Assim, para submeter um produto com qualidade aceitável, é necessário determinar a sua testabilidade, uma propriedade que indica a facilidade e precisão na avaliação dos resultados de um teste. Teste de Regressão é um processo custoso, que demanda esforço considerável para detectar defeitos introduzidos em um código testado anteriormente. A fim de aumentar a custo-efetividade deste processo, são aplicadas técnicas de priorização de casos de teste (CTs), que tem por objetivo reordenar o conjunto de testes seguindo algum critério de ordenação. Em particular, a técnica Changed Blocks realiza priorização baseada em mudanças. Segundo estudos realizados neste trabalho, essa técnica apresenta algumas limitações, como: i. os resultados não obtém cobertura máxima de defeitos no topo da lista ordenada; ii. CTs com mesmo número de mudanças cobertas são ordenados aleatoriamente, sem seguir uma regra de importância específica; iii. CTs que revelam mudanças inéditas, mas que apresentam baixa cobertura de mudanças são desfavorecidos. Este trabalho propõe a implementação de duas técnicas baseadas na Changed Blocks, para que mudanças múltiplas agregadas em uma mesma versão do sistema em teste sejam melhor consideradas, não resultando em perdas aos benefícios oferecidos pela técnica original. Várias métricas foram utilizadas na análise, são elas: APFD; F-measure; F-spreading; Group-measure; Group-spreading; e Tempo de Execução. Através de análise experimental, avaliou-se a eficácia das técnicas propostas utilizando uma variedade de versões mutantes de quatro projetos open sources. Os resultados indicam que não houve perda estatística significante na aplicação da melhoria e, na antecipação de CTs em cenários de múltiplas mudanças, em média, foi superior. / The investiment on software quality has grown. To ensure acceptable quality in a product, one needs to determine its testability, a property that indicates the feasibility and accuracy in test results evaluation. Regression testing is an expensive technique to detect faults introduced in a previously tested code. In order to increase its cost-effectiveness, test case prioritization techniques may be used. One of the proeminent techniques is based on changes, called Changed Blocks. According to previous studies, this technique presents limitations, such as: i. Test Cases (TCs) with significant impact on the final result end up in undesired positions in the queue; ii. TCs with same number of covered changes are randomly ordered, without following a specific rule; iii. TCs revealing undetected changes, with low coverage are disadvantaged. This work proposes techniques to improve Changed Blocks by grouping multiple changes in a version of the system under test, with no losses in technical benefits. Several metrics were used as follow: i. APFD ; ii. F-measure ; iii. F-spreading; iv. Group-measure; v. Group-spreading;and vi. Execution Time. We carried out an experimental study to evaluate the efficacy of the proposed techniques using a variety of mutant versions of four open sources Java projects. The results indicate the proposed techniques performed better in the contexts they intend to improve, while presenting no statistically significant loss in contexts common to the original Change Blocks technique.
|
4 |
Investigation of similarity-based test case selection for specification-based regression testing.OLIVEIRA NETO, Francisco Gomes de. 10 April 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-04-10T20:00:05Z
No. of bitstreams: 1
FRANCISCO GOMES DE OLIVEIRA NETO - TESE PPGCC 2014..pdf: 5163454 bytes, checksum: 228c1fc4f2dc9aad01698011238cfde1 (MD5) / Made available in DSpace on 2018-04-10T20:00:05Z (GMT). No. of bitstreams: 1
FRANCISCO GOMES DE OLIVEIRA NETO - TESE PPGCC 2014..pdf: 5163454 bytes, checksum: 228c1fc4f2dc9aad01698011238cfde1 (MD5)
Previous issue date: 2014-07-30 / uring software maintenance, several modifications can be performed in a specification
model in order to satisfy new requirements. Perform regression testing on modified software is known to be a costly and laborious task. Test case selection, test case prioritization, test suite minimisation,among other methods,aim to reduce these costs by selecting or prioritizing a subset of test cases so that less time, effort and thus money are involved in performing regression testing. In this doctorate research, we explore the general problem of automatically selecting test cases in a model-based testing (MBT) process where specification models were modified. Our technique, named Similarity Approach for Regression Testing (SART), selects subset of test cases traversing modified regions of a software system’s specification model. That strategy relies on similarity-based test case selection where similarities between test cases from different software versions are analysed to identify modified elements in a model. In addition, we propose an evaluation approach named Search Based Model Generation for Technology Evaluation (SBMTE) that is based on stochastic model generation and search-based techniques to generate large samples of realistic models to allow experiments with model-based techniques. Based on SBMTE,researchers are able to develop model generator
tools to create a space of models based on statistics from real industrial models, and
eventually generate samples from that space in order to perform experiments. Here we developed a generator to create instances of Annotated Labelled Transitions Systems (ALTS), to be used as input for our MBT process and then perform an experiment with SART.In this experiment, we were able to conclude that SART’s percentage of test suite size reduction is robust and able to select a sub set with an average of 92% less test cases, while ensuring coverage of all model modification and revealing defects linked to model modifications. Both SART and our experiment are executable through the LTS-BT tool, enabling researchers to use our selections trategy andr eproduce our experiment. / During software maintenance, several modifications can be performed in a specification model in order to satisfy new requirements. Perform regression testing on modified software is known to be a costly and laborious task. Test case selection, test case prioritization, test suite minimisation,among other methods,aim to reduce these costs by selecting or prioritizing a subset of test cases so that less time, effort and thus money are involved in performing regression testing. In this doctorate research, we explore the general problem of automatically selecting test cases in a model-based testing (MBT) process where specification models were modified. Our technique, named Similarity Approach for Regression Testing (SART), selects subset of test cases traversing modified regions of a software system’s specification model. That strategy relies on similarity-based test case selection where similarities between test cases from different software versions are analysed to identify modified elements in a model. In addition, we propose an evaluation approach named Search Based Model Generation for Technology Evaluation (SBMTE) that is based on stochastic model generation and search-based techniques to generate large samples of realistic models to allow experiments with model-based techniques. Based on SBMTE,researchers are able to develop model generator
tools to create a space of models based on statistics from real industrial models, and
eventually generate samples from that space in order to perform experiments. Here we developed a generator to create instances of Annotated Labelled Transitions Systems (ALTS), to be used as input for our MBT process and then perform an experiment with SART.In this experiment, we were able to conclude that SART’s percentage of test suite size reduction is robust and able to select a sub set with an average of 92% less test cases, while ensuring coverage of all model modification and revealing defects linked to model modifications. Both SART and our experiment are executable through the LTS-BT tool, enabling researchers to use our selections trategy andr eproduce our experiment.
|
5 |
MutShrink: um método de redução de banco de dados de teste baseado em mutação / MutShrink: a mutation-based test database shrinking methodToledo, Ludmila Irineu 11 August 2017 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2017-09-06T18:11:43Z
No. of bitstreams: 2
Dissertação - Ludmila Irineu Toledo - 2017.pdf: 1781052 bytes, checksum: 809a5a8972f14af9bc5bd3cc2eb37f80 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-09-15T15:34:25Z (GMT) No. of bitstreams: 2
Dissertação - Ludmila Irineu Toledo - 2017.pdf: 1781052 bytes, checksum: 809a5a8972f14af9bc5bd3cc2eb37f80 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-09-15T15:34:26Z (GMT). No. of bitstreams: 2
Dissertação - Ludmila Irineu Toledo - 2017.pdf: 1781052 bytes, checksum: 809a5a8972f14af9bc5bd3cc2eb37f80 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-08-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Regression testing for database applications can be a computationally costly task as it
often deals with databases with large volumes of data and complex SQL statements (for
example, nested queries, set comparisons, use of functions and operators). In this context,
some works only select a subset of the database for testing purposes, that is, select data
to create a test database and thus improve test efficiency. But usually, the selection of
test data is also a complex optimization problem. Thus, this work proposes a method of
selecting test data for regression testing on SQL statements based on mutation analysis,
called MutShrink. The goal is to minimize the cost of testing by reducing the size of the
database while maintaining the same effectiveness as the original database. MutShrink
consists of using the result of the generated mutants to evaluate the database and select
tuples using filters in these results, selecting reduced sets of test data. Experiments
were performed using a benchmark with complex SQLs and database with large data
volume. We compared our proposal with the QAShrink tool and the results revealed
that MutShrink overcame the QAShrink tool in 92.85 % of cases when evaluated by the
Mutation Score metric and 57.14 % of cases when evaluated by the metric Full Predicate
Coverage. / O teste de regressão para aplicações de banco de dados pode ser uma tarefa computacionalmente
custosa, pois frequentemente lida com bancos de dados com grandes volumes
de dados e instruções SQL com estruturas complexas (por exemplo, consultas aninhadas,
comparação de conjuntos, uso de funções e operadores). Neste contexto, alguns trabalhos
realizam seleção apenas de um subconjunto do banco de dados para fins de teste, ou seja,
selecionam dados para criar um banco de dados de teste e assim, melhorar a eficiência do
teste. Mas, normalmente, a seleção de dados de teste também é um problema complexo
de otimização. Assim, este trabalho propõe um método de seleção de dados de teste para
teste de regressão em instruções SQLs baseado em análise de mutação, chamado MutShrink.
O objetivo é minimizar o custo do teste reduzindo o tamanho do banco de dados,
mantendo a eficácia semelhante ao banco original. O MutShrink consiste em utilizar o resultado
dos mutantes gerados para avaliar o banco de dados e selecionar tuplas a partir de
filtros nestes resultados, selecionando conjuntos reduzidos de dados de teste. Foram realizados
experimentos usando um benchmark com SQLs de estruturas complexas e banco
de dados com grande volume de dados. Comparamos nossa proposta com a ferramenta
QAShrink e os resultados revelaram que o MutShrink superou a ferramenta QAShrink em
92,85% dos casos quando avaliada pela métrica Escore de Mutação e em 57,14% dos
casos quando avaliada pela métrica Full Predicate Coverage.
|
Page generated in 0.0771 seconds