Spelling suggestions: "subject:"tests dde software"" "subject:"tests dee software""
101 |
BTestBox: uma ferramenta de teste para implementações BOliveira, Diego de Azevedo 05 February 2018 (has links)
Submitted by Automação e Estatística (sst@bczm.ufrn.br) on 2018-07-02T18:48:21Z
No. of bitstreams: 1
DiegoDeAzevedoOliveira_DISSERT.pdf: 1039192 bytes, checksum: a387d372d3c8da2d66010f294542538a (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2018-07-04T13:18:52Z (GMT) No. of bitstreams: 1
DiegoDeAzevedoOliveira_DISSERT.pdf: 1039192 bytes, checksum: a387d372d3c8da2d66010f294542538a (MD5) / Made available in DSpace on 2018-07-04T13:18:53Z (GMT). No. of bitstreams: 1
DiegoDeAzevedoOliveira_DISSERT.pdf: 1039192 bytes, checksum: a387d372d3c8da2d66010f294542538a (MD5)
Previous issue date: 2018-02-05 / Softwares precisam ser seguros e corretos. Partindo desse pressuposto, novas tecnologias
e técnicas são desenvolvidas para comprovar as competências de um programa. Essa necessidade
de segurança se torna mais relevante ao tratar de softwares que atuam em sistemas críticos,
como os sistemas ferroviário e aeroviário. A utilização de métodos formais na construção de
software busca solucionar o problema. Ao utilizar o método formal B através da plataforma
Atelier-B, e após provar os componentes de um projeto é necessária a tradução para a linguagem
desejada. Essa tradução ocorre por meio de tradutores e compiladores B. Habitualmente,
o processo de compilação em compiladores maduros é seguro, porém não estão completamente
livres de falhas e eventualmente erros são encontrados. Ao expandir essa afirmação para
tradutores B é necessário cautela, uma vez que esses não são tão comuns e utilizados quanto
compiladores que circulam há mais tempo no mercado. Testes de software podem ser utilizados
para realizar a análise da tradução. Através de critérios de cobertura é possível inferir o nível
de qualidade do software e facilitar a detecção de falhas. Realizar a checagem da cobertura
e testes em software pode exigir bastante esforço e tempo, principalmente ao serem realizados
manualmente. Para sanar essa demanda, a ferramenta BTestBox visa analisar, de maneira
automática, a cobertura atingida por implementações B desenvolvidas através do Atelier-B.
BTestBox também testa automaticamente as traduções feitas a partir de implementações B.
Para isso, BTestBox utiliza os casos de teste gerados para a verificação de cobertura e compara
os valores esperados de saída com os encontrados após a tradução. O processo feito por BTestBox
é todo automático e pode ser utilizado a partir do Atelier-B via instalação de plugin com
uma interface simples. Essa dissertação apresenta a ferramenta BTestBox. BTestBox foi testado através de pequenas implementações B com os elementos gramaticais possíveis da linguagem B. BTestBox
apresenta funcionalidade e vantagens para programadores que utilizam o método formal B. / Software needs to be safe and run smoothly. From that assumption, new technologies and
techniques are developed to test the quality of a program. This is more relevant when developing
critical systems, such as railways and avionics control systems. Formal methods try
to adress this need. When using B in Atelier-B, after proving the components of a project is
necessary to translate to the desired language, a translation is made by using B translators and
compilers. Usually, the process of compilation is safe when perfomed by mature compilers
although they are not free of errors and bugs often crop up. The same reliability is not always
observed in B translators since they have been on the market for less time. Software testing
may solve and be used to perform the analyses of the translated code. From coverage criteria,
it is possible to infer quality of a piece of software and detect bugs. This process is hard and
time-consuming, mainly if it is perfomed manually. To address this problem, the BTestBox
tool aims to analyze automatically the coverage of B implementations built through Atelier-B.
BTestBox also automatically tests the translation from B implementations. For this, BTestBox
uses the same test case generated to verify the coverage and compare the output expected values
with the values found in the translation. This process is fully automatic and may be started
from Atelier-B with a plugin. This thesis presents the tool BTestBox. The tool is a solution to the problems exposed in
the previous paragraph. BTestBox was tested with small B implementations and all gramatical
elements from B language. It offers various functionalities and advantages to developers that
use the B-Method.
|
102 |
Abordagens para avaliação experimental de testes baseado em modelos de aplicações reativas. / Approaches for experimental evaluation of tests based on reactive application modelsNASCIMENTO, Laísa Helena Oliveira do. 27 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-27T18:21:34Z
No. of bitstreams: 1
LAÍSA HELENA OLIVEIRA DO NASCIMENTO - DISS PPGCC 2008..pdf: 1446971 bytes, checksum: 3622ab4c366ab0a686c4f32d688c13b6 (MD5) / Made available in DSpace on 2018-08-27T18:21:34Z (GMT). No. of bitstreams: 1
LAÍSA HELENA OLIVEIRA DO NASCIMENTO - DISS PPGCC 2008..pdf: 1446971 bytes, checksum: 3622ab4c366ab0a686c4f32d688c13b6 (MD5)
Previous issue date: 2008-02-28 / Processos de teste de software vêm ganhando cada vez mais espaço na indústria. Empresas têm investindo na definição e formalização dos seus processos e em meio a essa mudança de comportamento, Model-Based Testing (MBT) apresenta-se como uma técnica promissora de teste. No entanto, a utilização de MBT ainda é baixa e pesquisadores têm focado em maneiras de superar as barreiras para que se obtenha uma adoção maior por parte da indústria. O mundo empresarial é movido a processos e resultados. Dessa forma, o uso de MBT precisa se adaptar aos processos existentes, e estudos de caso que evidenciem as vantagens de sua utilização precisam ser conduzidos. Neste trabalho, o paradigma Goal Question Metric é utilizado na definição de modelos de medição que têm como foco principal a avaliação e o acompanhamento do desempenho de MBT sem causar impacto ao processo de teste já existente. Os modelos de medição consideram métricas como esforço, percentual de requisitos testáveis cobertos, percentual de casos de teste modificados, percentual de falhas,dentre outros. Os modelos não estão atrelados ao processo de MBT apresentado, podendo ser aplicados
em qualquer processo que permita a coleta dos dados necessários para o cálculo das
métricas. Para validar os modelos, estudos de caso foram conduzidos dentro do ambiente de testes da Motorola. / Software testing processes have become more common in industry. Companies are investing on the definition and the formalization of their test processes and, in this context,
Model-Based Testing (MBT) appears as an interesting testing technique. However, industrial adoption of MBT remains low and researchers are also focusing on how to beat the barriers to wide adoption. Processes and results move the business world so, MBT processes must be adaptable to actual testing processes. For this, experiments to evaluate the results achieved with its use must be conduct. In this work, measurement models based on the Goal Question Metric methodology are proposed. The purpose is evaluating the use of MBT without increasing actual testing process costs. The models focus on aspects as effort, testable requirements coverage, modified test cases, failures, among others. The models are not associated with the MBT process presented. They can be applied with any process that allows metrics collection. In order to validate the measurement models, case studies were conducted into Motorola testing environment.
|
103 |
Uma abordagem para avaliar refatoramentos baseada no impacto da mudança. / An approach to evaluate refactorings based on the impact of change.SABINO, Melina Mongiovi Cunha Lima. 31 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-31T23:21:36Z
No. of bitstreams: 1
MELINA MANGIOVI CUNHA LIMA SABINO - PPGCC DISSERTAÇÃO 2013..pdf: 29220438 bytes, checksum: 42486beccb60e73d444ba221ab430942 (MD5) / Made available in DSpace on 2018-08-31T23:21:36Z (GMT). No. of bitstreams: 1
MELINA MANGIOVI CUNHA LIMA SABINO - PPGCC DISSERTAÇÃO 2013..pdf: 29220438 bytes, checksum: 42486beccb60e73d444ba221ab430942 (MD5)
Previous issue date: 2013-03-11 / CNPq / Refatoramentos são transformações que melhoram a estrutura interna do programa preservando seu comportamento observável. Na prática, desenvolvedores utilizam testes de regressão e ferramentas para garantir que o refatoramento preservou o comportamento do programa. Entretanto, ferramentas de refatoramentos possuem bugs. Além disso, a coleção de testes pode ser modificada pela transformação aplicada manualmente ou pela ferramenta. Se a transformação não for aplicada corretamente, esta pode modificar a coleção de testes incapacitando-a de detectar a mudança comportamental. Por fim, a coleção pode não ser adequada para testar a transformação, pois os casos de testes podem não exercitar as entidades impactadas pela transformação. Este problema se torna maior se a coleção de testes for grande, tornando a execução de toda a coleção de testes custosa. Nós propomos uma abordagem para avaliar preservação de comportamento em refatoramentos baseada em geração
automática de testes e análise de impacto da mudança. A abordagem analisa o impacto
da mudança e gera automaticamente testes apenas para os métodos impactados pela transformação. Implementamos uma ferramenta chamada SafeRefactorlmpact para avaliar a preservação de comportamento. Esta utiliza Safira, ferramenta que implementamos para realizar a análise de impacto. Avaliamos SafeRefactorlmpact em um conjunto de 10 transformações aplicadas a um sistema real, e em uma técnica para testar implementações de refatoramentos. Além disso, comparamos SafeRefactorlmpact com SafeRefactor, uma ferramenta que também avalia preservação de comportamento em refatoramentos mas não utiliza análise de impacto. Nós comparamos com relação às mudanças comportamentais identificadas, quantidade de métodos identificados para geração de testes, tempo total da análise da transformação, quantidade de casos de testes gerados e cobertura da mudança dos testes gerados. O SafeRefactorlmpact conseguiu identificar mudanças comportamentais não identificadas pelo SafeRefactor, reduziu em torno de 60% o tempo para testar implementações de refatoramentos, mostrou-se menos sensível ao tempo limite passado para o gerador automático de
testes, além da análise de impacto permitir a diminuição de algumas limitações do gerador
automático de testes enfrentadas pelo SafeRefactor. / Refactorings are transformations that improve the internal structure of the program while
preserving its observable behavior. In practice, developers use regression tests and refactoring tools to ensure that the refactoring has preserved the behavior of the program. However, refactoring tools may have bugs. In addition, the test suite may be modified by the transformation applied manually or using a refactoring tool. If the transformation is applied incorrectly, it can change the test suite by disabling it to detect the behavioral change. Finally, the test suite may be inappropriate to test the transformation because the test cases may not exercise the change. This problem can get worse if the test suite is large. This way, it is time consuming executing the entire test suite. We propose an approach for evaluating whether a transformation is behavior preserving based on change impact analysis. This approach performs a change impact analysis and it automatically generates tests only to the methods impacted by the transformation. We implemented a tool called SafeRefactorlmpact to evaluate behavior preservation. It uses Safira, a tool that we implemented to identify the methods impacted by a change in the program. We evaluate SafeRefactorlmpact in a set of 10 transformations applied to a real system and to a technique to test refactoring implementations. Moreover, we compared the SafeRefactorlmpact with SafeRefactor, a tool that also evaluates whether a transformation preserves the program behavior. The difference is that SafeRefactor does not use the impact analysis. The SafeRefactorlmpact managed to identify behavioral changes not identified by SafeRefactor; it reduced in 60% the total time to analyze the refactoring implementations; it showed to be less sensitive to the time limit to generate the tests; and the impact analysis allows the reduction of some limitations of the automatic tests generator faced by the SafeRefactor.
|
104 |
[en] USING DECISION TABLES TO AUTOMATE THE GENERATION AND EXECUTION OF TEST CASES / [pt] O USO DE TABELAS DE DECISÃO PARA A AUTOMAÇÃO DA GERAÇÃO E DA EXECUÇÃO DE CASOS DE TESTELUANA LACHTERMACHER 31 August 2010 (has links)
[pt] Teste é uma etapa muito importante no desenvolvimento de software. No
entanto, essa área ainda carece de ferramentas mais eficazes e com um grau de
automação maior e mais abrangente do que o atualmente disponível. Uma boa
parte das técnicas de geração de casos de teste utiliza explicitamente ou
implicitamente tabelas de decisão como instrumento intermediário na geração dos
casos de teste específicos. Essa dissertação tem por objetivo desenvolver um
processo semi-automático de geração de suítes de teste e que inicia em tabelas de
decisão. As suítes geradas devem ser adequadas a ferramentas de execução dos
testes totalmente automáticas. Para atingir esse objetivo foram implementados: (i)
um editor de tabelas de decisão, (ii) um gerador automático de casos de teste e
(iii) um gerador de scripts de teste para o framework FEST. A seguir foram
avaliados os benefícios que esse conjunto de ferramentas pode trazer ao processo
de automação dos testes, tanto no planejamento (geração de casos de testes
valorados a partir dos casos de teste semânticos) quanto na execução dos casos de
teste. A avaliação foi baseada em uma série de exemplos envolvendo elementos
específicos de interfaces humanas, e, também, na aplicação a um software real. / [en] Testing is a very important area in the software development. However, this
area needs more effective tools with a higher level of automation with are more
comprehensive than the tools available today. A large part of the techniques that
do generation of test cases use explicity or implicitly decision tables as an
auxiliary tool. This dissertation aims to develop a semi-automatic process that has
as outputs tests suites that were generated using decision tables. These suites must
be appropriate for the test automation tools. To achieve these goals were
implemented: (i) an decision table editor, (ii) a automatic generator case test, and
(iii) an automatic test scripts generator of the FEST framework. After it was
necessary evaluate the benefits that these tools could bring for the test area, both
in the planning (generation of valued test cases from semantic test cases) and in
the execution of test cases. The evaluation was based on a series of examples
involving specific elements of human interfaces, and also in application to real
software.
|
105 |
Desenvolvimento de software guiado por testes de aceitação usando EasyAccept. / Development of software guided by acceptance tests using EasyAccept.ABATH NETO, Osório Lopes. 23 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-23T15:26:25Z
No. of bitstreams: 1
OSÓRIO LOPES ABATH NETO - DISSERTAÇÃO PPGCC 2007..pdf: 1322223 bytes, checksum: 3e204692131c02935d262bb71e470eaa (MD5) / Made available in DSpace on 2018-08-23T15:26:25Z (GMT). No. of bitstreams: 1
OSÓRIO LOPES ABATH NETO - DISSERTAÇÃO PPGCC 2007..pdf: 1322223 bytes, checksum: 3e204692131c02935d262bb71e470eaa (MD5)
Previous issue date: 2007-08-30 / O Desenvolvimento de Software Guiado por Testes de Aceitação – Acceptance Test Driven Development (ATDD) – é uma metodologia de desenvolvimento de software ágil que apresenta vários benefícios, que incluem confiança no software em desenvolvimento,
sincronização automática entre análise e código, redução de problemas de comunicação no projeto e foco dos desenvolvedores nos requisitos do cliente. É particularmente adequada para projetos terceirizados e para ensinar desenvolvimento de software a estudantes de Ciência da Computação. Entretanto, como é uma metodologia nova, ainda falta para ela uma cobertura adequada na literatura. Além disso, a área de padrões para ATDD ainda precisa ser iniciada. Esta dissertação envolve a realização de um estudo investigativo sobre melhores práticas e padrões para ATDD, a definição de como aplicar a metodologia sob o ponto de vista de um processo de desenvolvimento de software, e um resumo da experiência adquirida com ensino de desenvolvimento de software utilizando ATDD. Como resultado da realização destas atividades, foi escrito um texto introdutório sobre ATDD, que esperamos sirva não só para que novatos aproveitem o máximo da metodologia, mas também para divulgar seus benefícios. Os exemplos do texto usam EasyAccept, uma ferramenta de testes de aceitação com scripts, como meio de exposição da metodologia. / Acceptance Test Driven Development (ATDD) is an emerging agile methodology to develop software which has a number of advantages, including confidence in the software being developed, automated synchronization between analysis and code, reduction of project communication problems and developer focus on client requirements. It is particularly suited to outsource projects and to teach software development to Computer Science students. As it is new, however, there is still a lack of proper coverage of this methodology in the literature. Furthermore, the area of patterns for ATDD still needs to be started. This dissertation involves performing an investigative study on best practices and patterns for ATDD, defining the application of the methodology with a software development process point of view and summarizing gathered experience with ATDD as a means of teaching software development. The result of these activities was an introductory text on ATDD, which we hope will serve not only to help newcomers yield more from the methodology, but also to divulge its benefits. The examples in the text use EasyAccept, a scripted acceptance testing tool, as a means of exposing the methodology.
|
106 |
Um ambiente para geração de cenários de testes para linhas de produtos de software sensíveis ao contexto / An environment for the generation of test scenarios for software product lines context sensitiveSantos, Ismayle de Sousa January 2013 (has links)
SANTOS, Ismayle de Sousa. Um ambiente para geração de cenários de testes para linhas de produtos de software sensíveis ao contexto. 2013. 135 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2013. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-07-01T19:23:59Z
No. of bitstreams: 1
2013_dis_issantos.pdf: 3899116 bytes, checksum: 671b1907d9f723390441a5b8ed58142c (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-07-01T19:25:01Z (GMT) No. of bitstreams: 1
2013_dis_issantos.pdf: 3899116 bytes, checksum: 671b1907d9f723390441a5b8ed58142c (MD5) / Made available in DSpace on 2016-07-01T19:25:01Z (GMT). No. of bitstreams: 1
2013_dis_issantos.pdf: 3899116 bytes, checksum: 671b1907d9f723390441a5b8ed58142c (MD5)
Previous issue date: 2013 / A Context-Aware Software Product Line (CASPL) is a product line for developing context-aware applications, which dynamically change their behavior or provide services based on context information. With this kind of line, the productivity can be increased and the development costs of the context-aware application can be cut down. In this scenario, the testing activity needs to deal with the peculiarities of both context-aware applications and the product line development paradigm. Through the complexity involved in testing a CASPL is essential to have methods or tools for supporting this activity, especially with the goal of creating tests from requirements. The aim of this early testing generation is to identify and fix the defects in the early stages of development. Therefore, this work aims to propose an environment for generating test scenarios for a CASPL that takes into account the presence of context information and seeks to maximize the testing reuse. This environment consists of a testing scenario generation method, a template for textual use case specification and a support tool. The method uses as input textual use cases especifications with information about: funcionality, variability, and how the context afect the final products. The environment also has a use case template that supports the use of the method and a tool support, which allows the modeling of use cases according to this template and implements the proposed method. In order to verify the benefits of the environment as a way to testing generation for a Context-Aware Software Product Line, an assessment in the form of controlled experiment is conducted. Based on the collected results, it is observed that: the use of the template makes easy the understanding of a Context-Aware Software Product Line use case; the method favors the creation of a set of tests with higher coverage than a non-systematic testing generation; and the tool is the necessary support for the method / Uma Linha de Produto de Software Sensível ao Contexto (LPSSC) é uma linha de produto para o desenvolvimento de aplicações sensíveis ao contexto, que alteram dinamicamente o comportamento ou que proveem serviços com base em informações de contexto. Nesse cenário, a atividade de testes precisa lidar ao mesmo tempo com as peculiaridades das aplicações finais, que são sensíveis ao contexto, e com o paradigma de desenvolvimento em linha de produto. Mediante a complexidade envolvida nos testes de uma LPSSC, é fundamental a existência de métodos ou ferramentas de suporte a essa atividade, especialmente com a intenção de criar testes a partir dos requisitos da linha. O objetivo dessa geração precoce dos testes é permitir a identificação e correção dos defeitos nos estágios iniciais de desenvolvimento. Dessa forma, esta dissertação tem por objetivo propor um ambiente de geração de cenários de testes para uma LPSSC que utiliza especificações textuais de casos de uso com informações de contexto e que possibilita a reutilização dos testes. Este ambiente é constituído pela proposta de um método de geração de cenários de testes, de um template para especificação textual de casos de uso de uma LPSSC e de uma ferramenta de apoio. O método utiliza como base especificações textuais de casos de uso com informações sobre: funcionalidade, variabilidade da linha, e como o contexto afeta os produtos finais. O ambiente também contém o template para caso de uso que fornece suporte ao uso do método e a ferramenta de apoio, que permite a modelagem de casos de uso segundo esse template e implementa o método proposto. Com a intenção de verificar os benefícios do ambiente, proposto nesta dissertação, quanto a geração de cenários de testes para uma LPSSC, conduziu-se uma avaliação preliminar na forma de experimento controlado. Baseado nos resultados coletados nessa avaliação percebeu-se que: o template favorece o entendimento de um caso de uso de uma LPSSC; o método favorece a criação de um conjunto de testes com uma maior cobertura para uma LPSSC, se comparado a criação de testes de forma não sistemática; e a ferramenta representa um suporte necessário.
|
107 |
Avaliação de abordagens de gestão do conhecimento aplicadas a um processo de teste de software enxutoSilva, Ana Eliza Pedroso da 16 June 2015 (has links)
Submitted by Luciana Sebin (lusebin@ufscar.br) on 2016-10-10T18:55:46Z
No. of bitstreams: 1
DissAEPS.pdf: 9093309 bytes, checksum: 1d310c56dd7bbae26966b175642a9775 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-13T20:33:03Z (GMT) No. of bitstreams: 1
DissAEPS.pdf: 9093309 bytes, checksum: 1d310c56dd7bbae26966b175642a9775 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-10-13T20:33:13Z (GMT) No. of bitstreams: 1
DissAEPS.pdf: 9093309 bytes, checksum: 1d310c56dd7bbae26966b175642a9775 (MD5) / Made available in DSpace on 2016-10-13T20:33:23Z (GMT). No. of bitstreams: 1
DissAEPS.pdf: 9093309 bytes, checksum: 1d310c56dd7bbae26966b175642a9775 (MD5)
Previous issue date: 2015-06-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Context: A well-defined testing process is necessary to ensure that the required activities are conducted effectively, supported by maturity models such as TMMi. Even so, for this activities results have real impact on the quality and reliability of the produced artefacts, is fundamental manage the knowledge belonging to the involved individuals. In this context, Knowledge Management (KM) is essential to help software testing professionals acquire and disseminate individual and group expertise. However, existing KM approaches for software testing are still incipient and are driven by different key concepts, such as feedback, lessons learned and knowledge documents. Objective: This work investigates the applicability degree of KM approaches in a streamlined software testing process, from the point of view of professionals with experience in leadership and testing team management in Brazilian companies. Method: A literature search allowed us to identify three KM frameworks for software
testing processes. Based on them, we devised their underlying KM processes, upon which we performed two evaluations by means of a critical, in-depth analysis and a survey. An additional investigation explored the combination of the three KM key concepts in a single KM approach for software testing. All evaluations relied on the opinion of experienced software testing professionals.
Results: Our results indicate the most applicable KM process, among to the three addressed in our study, to support testing teams in their activities. Such process relies on the concept of feedback provided throughout the software testing lifecycle. Conclusion: Different key concepts applied in KM process leads to diverging opinions regarding their applicability, in the particular scenario of software testing. Combining such concepts into a single KM process may not yield a better solution, possibly due to the augmented complexity and required effort to manage knowledge within testing teams. / Contexto: Para que a atividade de teste seja conduzida de maneira eficaz, deve-se possuir processos bem definidos e apoiados por modelos de maturidade como, por exemplo, o TMMi. Entretanto, para que os resultados obtidos tenham real impacto na qualidade e confiabilidade dos artefatos produzidos, ´e fundamental que exista a administração do conhecimento pertencente aos indivíduos envolvidos. Neste contexto, a Gestão do Conhecimento ´e essencial para ajudar os profissionais de teste de software a adquirirem e compartilharem o conhecimento individual e de grupo. Contudo, ressalta-se que as abordagens de Gestão do Conhecimento para teste de software ainda são incipientes e movidas por diferentes conceitos-chave, tais como feedback, lições aprendidas e documentos de conhecimento. Objetivo: O objetivo deste trabalho é investigar o grau de aplicabilidade de abordagens de Gestão do Conhecimento aplicadas em um processo de teste de software enxuto, segundo o ponto de vista de profissionais com experiência em liderança e gestão de equipes de teste em empresas brasileiras. Metodologia: Por meio de uma pesquisa da literatura, foram identificados três frameworks de Gestão do Conhecimento aplicados em teste de software, e a partir destes foram elaborados três processos de Gestão do Conhecimento. Estes processos de Gestão do Conhecimento foram avaliados por dois métodos, uma Análise Crítica aprofundada e um Survey, tendo como referencial um processo de teste enxuto. Uma avaliação adicional analisou a viabilidade da combinação dos conceitos-chave dos três processos elaborados em um único processo de Gestão do Conhecimento. Todas as avaliações empreendidas contaram com a participação de profissionais com experiência em liderança e gestão de equipes de teste. Resultados: As avaliações realizadas indicam o processo de Gestão do Conhecimento mais aplicável, dentre os três investigados neste trabalho, para apoiar as atividades de uma equipe de teste. Tal processo ´e fundamentado na utilização de feedback ao longo de todo o ciclo de teste de software. Conclusão: A junção de diferentes conceitos-chave aplicados em um processo de Gestão do Conhecimento leva a opiniões divergentes, particularmente em um cenário de teste de software. Combinar estes conceitos em um único processo pode não produzir uma solução melhorada, possivelmente devido à maior complexidade e esforço necessários para gerenciar o conhecimento dentro das equipes de teste.
|
108 |
A family of coverage criteria based on patterns to the test of metaprogramsAntunes, Cleverton Hentz 15 December 2017 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2018-04-11T19:36:14Z
No. of bitstreams: 1
ClevertonHentzAntunes_TESE.pdf: 1017090 bytes, checksum: f067305182409e4dcfb731ca7b2c95ca (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2018-04-12T23:44:18Z (GMT) No. of bitstreams: 1
ClevertonHentzAntunes_TESE.pdf: 1017090 bytes, checksum: f067305182409e4dcfb731ca7b2c95ca (MD5) / Made available in DSpace on 2018-04-12T23:44:18Z (GMT). No. of bitstreams: 1
ClevertonHentzAntunes_TESE.pdf: 1017090 bytes, checksum: f067305182409e4dcfb731ca7b2c95ca (MD5)
Previous issue date: 2017-12-15 / O Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico - CNPq / Apesar da exist?ncia de v?rias t?cnicas para a gera??o autom?tica de dados
de teste baseados em gram?ticas, poucos trabalhos foram propostos no sentido de
melhorar os dados de teste gerados aplicando restri??es sem?nticas. Nesse sentido,
contribuimos neste trabalho, nesta dire??o para o caso particular do teste de metaprogramas,
um programa que tem como dado de entrada um outro programa.
Atualmente, a alternativa natural para o teste deste tipo de programa ? a t?cnica de
testes baseados em gram?ticas. Essa t?cnica de teste pode ser aplicada de maneira
relativamente simples, por?m com um custo de gera??o e execu??o do conjunto de
testes elevado e uma efetividade baixa. Por outro lado, diversas pesquisas e ferramentas
de grupos interessados no desenvolvimento de metaprogramas fazem
uso intenso do recurso de casamento de padr?es durante a sua implementa??o e
especifica??o. Neste caso, os padr?es oferecem uma fonte de informa??o interessante
para a cria??o de testes que s?o sintaticamente v?lidos e tamb?m satisfazem
restri??es sem?nticas. Dada a limita??o dos testes baseados em gram?ticas e considerando
a informa??o embutida nos padr?es existentes nos metaprogramas, temos
a oportunidade de contribuir para a melhoria do processo de teste para esses programas.
Logo, o objetivo deste trabalho ? avaliar o uso da informa??o de padr?es
para o teste de metaprogramas e com isso contribuir no seu processo de teste. No
intuito de sistematizar o processo de teste de software, o documento apresenta um
processo de design de teste e tamb?m uma fam?lia de crit?rios de cobertura baseados
em padr?es para o teste eficiente e sistematizado de metaprogramas baseados
em padr?es. S?o propostos quatro crit?rios de cobertura baseados em padr?es e
nos crit?rios de particionamento do espa?o de entrada. Tamb?m ? apresentada uma
hierarquia entre os crit?rios propostos. Com isso, diferentes n?veis de rigor podem
ser requeridos no processo atrav?s da escolha do crit?rio adequado. A valida??o
dessas contribui??es ? feita atrav?s de um estudo de caso e uma valida??o emp?rica.
O estudo de caso apresenta uma instancia??o de refer?ncia para o processo
de design de testes de um verificador de tipos implementado como metaprograma
baseado em padr?es. O verificador de tipos ? testado usando um conjunto de testes
gerados pelos crit?rios de cobertura baseados em padr?es. A qualidade desse
conjunto ? avaliada utilizando a t?cnica de muta??o e atrav?s da compara??o dos
resultados obtidos com testes gerados por crit?rios baseados em gram?ticas. Os
estudos experimentais indicam a efetividade da aplica??o dos crit?rios baseados
em padr?es e o ganho em custo-benef?cio em rela??o aos crit?rios baseados em
gram?ticas no contexto do teste de metaprogramas baseados em padr?es. / Although there are several techniques for the automatic generation of test
data based on grammars, few studies have been proposed to improve the test
data generated by applying semantic restrictions. In this sense, we intend to contribute
in this direction for the particular case of testing metaprograms, programs
that have other programs as input. Currently, the natural alternative to testing
this kind of program is using the grammar-based testing. That testing technique
can be applied relatively easily, but with high costs, related to the generation and
execution of the test set, and low effectiveness. Many researches and tools dedicated
to the development of metaprograms make heavy use of pattern matching
for their implementation and specification. In this case, the patterns offer an interesting
source of information for creating tests that are syntactically valid and also
satisfy semantic constraints. Given the limitation of grammar-based testing and
pattern information on the metaprograms, we identified an opportunity to contribute
to the improvement of the testing process for these programs. Therefore,
the goal of this work is to evaluate the use of pattern information for the testing of
pattern-based metaprograms and thus contribute to their testing process. In order
to systematize the software testing process, a family of coverage criteria based on
patterns is proposed to test pattern-based metaprograms efficiently and systematically.
Four pattern-based coverage criteria are proposed, they are based on classical
input space partitioning combination criteria. Furthermore, a hierarchical relationship
between the criteria is presented. Therefore, different levels of rigor can be
required by choosing the appropriate criterion. The validation of these contributions
is made using a case study and empirical validation. The case study presents
a reference instantiation for the test design process applied to a type checker implemented
as metaprogram based on patterns. The type checker is tested using a
test set generated by the pattern-based coverage criteria, and the quality of this
set is evaluated using the mutation technique. The results obtained are compared
with those produced by a test set generated by the grammar-based criteria. The
experimental studies indicate the effectiveness of the application of these patternbased
criteria and a gain of cost-return in relation to the grammar-based coverage
criteria.
|
109 |
Análise de cobertura de critérios de teste estruturais a partir de conjuntos derivados de especificações formais: um estudo comparativo no contexto de aplicações espaciais / Structural coverage analysis of test sets derived from formal specifications: a comparative study in the space applications contextPaula Fernanda Ramos Herculano 24 April 2007 (has links)
As técnicas de teste podem ser divididas, num primeiro nível, naquelas baseadas no código (caixa branca) e naquelas baseadas na especificação (caixa preta ou funcionais). Nenhuma delas é completa pois visam a identificar tipos diferentes de defeitos e a sua utilização em conjunto pode elevar o nível de confiabilidade das aplicações. Assim, tornam-se importantes estudos que contribuam para um melhor entendimento da relação existente entre técnicas funcionais e estruturais, como elas se complementam e como podem ser utilizadas em conjunto. Este trabalho está inserido no contexto do projeto PLAVIS (Plataforma para Validação e Integração de Software em Aplicações Espaciais), e tem como objetivo realizar um estudo comparativo entre as técnicas de geração de casos de teste funcionais (baseadas nas especificações formais) e os critérios estruturais baseados em fluxo de controle e fluxo de dados, aplicados nas implementações. Num contexto específico, esse estudo deve fornecer dados de como se relacionam essas duas técnicas (funcional e estrutural) gerando subsídios para sua utilização em conjunto. Num contexto mais amplo - o do projeto PLAVIS - visa a estabelecer uma estratégia de teste baseada em critérios funcionais e estruturais e que possam, juntamente com as ferramentas que dão suporte a eles, compor um ambiente de teste disponível à utilização em aplicações espaciais dentro do INPE / Testing techniques can be divided, in high level, in code-based ones (white box) and specification based ones (black box). None of them are complete as they intend to identify different kinds of faults. The use of them together can increase the application confidence level. Thus, it is important to investigate the relationship between structural testing techniques and functional testing techniques, how they complete themselves and how they can be used together. This paper was developed in the context of the Plavis (PLAtform of software Validation & Integration on Space systems) project. This project provides comparative studies between functional generation testing techniques (based on formal specifications) and structural generation testing techniques, such as control-flow and data-flow criteria, applied in the implementation. In a specific context, this study provides data about the relationship between these techniques and how they can be used together. In the context of the Plavis project, the goal is to provide a testing strategy, based on functional and structural criteria, and a set of tools, composing a testing environment to be used in Space Applications projects, at INPE
|
110 |
On test oracles for Simulink-like models / Oráculos de teste para modelos Simulink-likePaulo Augusto Nardi 12 December 2013 (has links)
Embedded systems are present in many fields of application where failure may be critical. Such systems often possess characteristics that hampers the testing activity, as large amount of produced data and temporal requirements which must be specified and evaluated. There are tools that support the development of models for analysis and simulation still in the design stage. After being evaluated, a model may be used as basis to the implementation. In this case, it is important to ensure that the model is consistent with the specification. Otherwise, a divergence will be propagated to the final code. Therefore, the model must be tested prior to the codification. Simulink is a standard development and simulation tool for models of embedded systems. Its wide application in the industry has promoted the creation of free-software alternatives, as XCos. In the literature, there are researches which seek to improve the testing activity for Simulink-like models. The proposed solutions usually focus on test case selection strategies. However, little efforts have been directed to the oracle problem, that is, the difficulty in evaluating if an execution agrees with the specification. The objective of this doctorate proposal is to provide an oracle generation approach for Simulink-like models which addresses the characteristics previously summarized. Specifically, it is proposed a process, methods, procedures and a tool that enable the partially-automated generation of oracles for such models. As a main contribution, it is expected an improvement in the evaluation process of embedded systems in terms of quality, cost and time / Sistemas embarcados estão presentes em diversas áreas de aplicação em que falhas podem ser críticas. Tais sistemas frequentemente possuem características que tornam a fase de teste particularmente desafiadora, como a produção de grande quantidade de dados e requisitos temporais que precisam ser validados de acordo com a especificação. Existem ferramentas que auxiliam no desenvolvimento de modelos para análise e simulação do comportamento de sistemas embarcados ainda na fase de design. Após ser avaliado, o modelo pode ser usado como base para a implementação. Neste caso, deve-se buscar garantir que um modelo esteja de acordo com a especificação. Do contrário, tal divergência será propagada para a implementação. Portanto, e importante que o modelo seja testado antes da fase de implementação. Simulink e uma ferramenta-padrão de desenvolvimento e simulação de modelos de sistemas embarcados. Sua ampla aplicação na indústria incentivou a criação de alternativas de software livres como XCos. Na literatura, existem pesquisas que visam a aprimorar a atividade de teste de modelos Simulink-like. As soluções propostas geralmente focam em estratégias de seleção de casos de teste. Mas pouco esforço tem sido direcionado ao problema do oráculo, isto e, na dificuldade em avaliar se a execução está de acordo com a especificação. O objetivo desta proposta de doutorado é prover uma abordagem de geração de oráculos de teste para modelos simulink-like que contemple as características previamente resumidas. Especificamente, é proposto um processo, métodos, procedimentos e uma ferramenta que viabilizem a geração parcialmente automatizada de oráculos de teste para modelos Simulink-like. Como contribuição principal, é esperada a melhora da qualidade, custo e tempo do processo de validação de sistemas embarcados suportados por modelagem em Simulink e ferramentas similares
|
Page generated in 0.1047 seconds