• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 183
  • 15
  • 4
  • Tagged with
  • 202
  • 202
  • 163
  • 49
  • 44
  • 35
  • 34
  • 30
  • 29
  • 28
  • 26
  • 25
  • 25
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Uma ferramenta de an?lise automatizada de t?cnicas de sele??o de testes de regress?o baseada em minera??o de reposit?rios de software

Cruz J?nior, Jo?o Maria Guedes da 29 April 2014 (has links)
Made available in DSpace on 2014-12-17T15:48:10Z (GMT). No. of bitstreams: 1 JoaoMGCJ_DISSERT.pdf: 2157600 bytes, checksum: e625012e4cd3f5e995b205310bff8592 (MD5) Previous issue date: 2014-04-29 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / The main goal of Regression Test (RT) is to reuse the test suite of the latest version of a software in its current version, in order to maximize the value of the tests already developed and ensure that old features continue working after the new changes. Even with reuse, it is common that not all tests need to be executed again. Because of that, it is encouraged to use Regression Tests Selection (RTS) techniques, which aims to select from all tests, only those that reveal faults, this reduces costs and makes this an interesting practice for the testing teams. Several recent research works evaluate the quality of the selections performed by RTS techniques, identifying which one presents the best results, measured by metrics such as inclusion and precision. The RTS techniques should seek in the System Under Test (SUT) for tests that reveal faults. However, because this is a problem without a viable solution, they alternatively seek for tests that reveal changes, where faults may occur. Nevertheless, these changes may modify the execution flow of the algorithm itself, leading some tests no longer exercise the same stretch. In this context, this dissertation investigates whether changes performed in a SUT would affect the quality of the selection of tests performed by an RTS, if so, which features the changes present which cause errors, leading the RTS to include or exclude tests wrongly. For this purpose, a tool was developed using the Java language to automate the measurement of inclusion and precision averages achieved by a regression test selection technique for a particular feature of change. In order to validate this tool, an empirical study was conducted to evaluate the RTS technique Pythia, based on textual differencing, on a large web information system, analyzing the feature of types of tasks performed to evolve the SUT / O objetivo dos testes de regress?o (RT) ? reutilizar o conjunto de testes da ?ltima vers?o de um software em sua vers?o atual, para maximizar o valor dos testes j? desenvolvidos e garantir que antigas funcionalidades continuem corretas ap?s as novas modifica??es. Mesmo com o reuso, ? comum que nem todos os testes precisem ser executados novamente e para evitar o desnecess?rio, ? estimulada a utiliza??o de t?cnicas de sele??o dos testes de regress?o (RTS), que buscam selecionar dentre todos os testes, apenas aqueles capazes de revelar faltas, isto reduz custos e torna a pr?tica realmente atrativa para as equipes de teste. Diversos estudos recentes avaliam a qualidade da sele??o realizadas por t?cnicas de RTS, identificando qual delas apresenta melhores resultados atrav?s de m?tricas como a inclus?o e a precis?o. As t?cnicas de RTS deveriam buscar no sistema sob teste (SUT) por testes que revelem faltas, entretanto, como este ? um problema sem solu??o vi?vel, a alternativa ? buscar por testes que revelem as modifica??es, onde as faltas podem ocorrer. Contudo, tais modifica??es podem alterar o pr?prio fluxo de execu??o dos algoritmos, fazendo com que alguns testes n?o exercitem mais os mesmos trechos. Neste contexto, esta disserta??o de mestrado busca investigar se as modifica??es realizadas no SUT poderiam afetar a qualidade da sele??o dos testes realizada por uma RTS, e se sim, quais caracter?sticas apresentam as modifica??es que provocaram os erros, levando a RTS a incluir ou excluir testes erroneamente. Para tanto, foi desenvolvida uma ferramenta na linguagem Java para automatizar o c?lculo da inclus?o e precis?o m?dias alcan?adas por uma t?cnica de RTS para uma dada caracter?stica da modifica??o. A fim de validar a ferramenta, foi conduzido um estudo emp?rico para avaliar a t?cnica de RTS Pythia, baseada em diferencia??o textual, sobre um sistema de informa??o web de larga escala, analisando a caracter?stica dos tipos das tarefas realizadas para evoluir o SUT
192

Uma abordagem dirigida por modelos para geração automática de casos de teste de integração usando padrões de teste. / A model-driven approach for automatically generating integration test cases using test patterns.

MACIEL, Camila de Luna. 16 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-16T14:52:23Z No. of bitstreams: 1 CAMILA DE LUNA MACIEL - DISSERTAÇÃO PPGCC 2010..pdf: 7464974 bytes, checksum: 6d1dbd48857a3fa1c75047b6ab0a2016 (MD5) / Made available in DSpace on 2018-08-16T14:52:23Z (GMT). No. of bitstreams: 1 CAMILA DE LUNA MACIEL - DISSERTAÇÃO PPGCC 2010..pdf: 7464974 bytes, checksum: 6d1dbd48857a3fa1c75047b6ab0a2016 (MD5) Previous issue date: 2010-08-06 / CNPq / Dentro da Engenharia de Software, novos paradigmas de desenvolvimento vêm surgindo no intuito de oferecer uma maior produtividade sem perda de qualidade aos softwares desenvolvidos. Um desses paradigmas é o MDD (Model-Driven Development), cuja principal finalidade é a introdução de modelos rigorosos durante todo o processo de desenvolvimento de software oferecendo, dentre outras vantagens, a geração automática de código a partir dos modelos. Contudo, mesmo em processos de desenvolvimento que seguem este paradigma, a atividade de teste de software ainda é fundamental, principalmente teste de integração, cujo objetivo é verificar que os componentes do software, implementados e testados individualmente, provêem a funcionalidade pretendida quando colocados para interagir uns com os outros. Embora classes individuais possam funcionar corretamente, várias novas faltas podem surgir quando os componentes são integrados. No entanto, em teste de integração, dependendo da complexidade do sistema, o número de casos de teste pode ser muito grande. Nesse contexto, o uso de padrões de teste, ou seja, estratégias que já foram utilizadas e se mostraram efetivas em teste de software, pode guiar a escolha de casos de teste mais efetivos e adequados dentre um número muito grande de possíveis casos de teste. Este trabalho tem como objetivo principal fornecer uma nova abordagem de teste de integração, definida dentro de um processo integrado de desenvolvimento e teste dirigidos por modelos (MDD/MDT - Model-Driven Testing), para a geração automática de casos de teste a partir de modelos, utilizando padrões de teste como base para o processo de geração. Para automatizar este processo, foi desenvolvida uma ferramenta baseada em transformações entre modelos segundo práticas da MDA (Model-DrivenArchitecture). Além disso, a abordagem proposta utiliza o perfil de teste da UML para a documentação de todos os artefatos de teste gerados. Adicionalmente, estudos experimentais preliminares foram realizados no intuito de avaliar a abordagem e, consequentemente, a ferramenta de suporte desenvolvida. / Within the Software Engineering, new development paradigms are emerging in order to offer greater productivity without sacrificing quality to the developed software. MDD (Model-Driven Development) is one of these paradigms, whose main purpose is to introduce rigorous models along all the software development process offering, among other advantages, automatic code generation from models. However, even in development processes that follow this paradigm, the software testing activity is still essential, especially integration testing, whose purpose is to verify that the software components, implemented and tested separately, provide the desired functionality when placed to interact with each other. While individual components may function correctly, several new faults can arise when the components are integrated. However, in integration testing, depending on the system complexity, the number of test cases can be very large. In this context, the use of test patterns, i. e., strategies that have been used and proved effective in software testing, can guide the user at choosing test cases more effective and appropriate among a very large number of possible cases test. The main objective of this work is to propose a new approach to integration testing, defined with in an integrated model driven development and test process (MDD/MDT - Model-Driven Testing) for automatically generating test case from models adopting test patterns as basis for the generation process. To automate this process, we have developed a tool based on model transformations according to MDA (Model-Driven Architecture) practices. Furthermore, the proposal approach uses the UML testing profile to document all generated test artifacts. Additionally, preliminary experimental case studies were performed in order to evaluate the proposed approach and hence the developed tool support.
193

Infraestrutura para o desenvolvimento de aplicações pervasivas com suporte ao chaveamento automático de tecnologia de comunicação. / Infrastructure for the development of pervasive applications with support for the automatic switching of communication technology.

FARIAS, Arthur Lúcio Meneses. 31 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-31T22:19:36Z No. of bitstreams: 1 ARTHUR LÚCIO MENESES FARIAS - DISSERTAÇÃO PPGCC 2012..pdf: 6632570 bytes, checksum: 9bad5d762a4985c8dbe890c7b6667f06 (MD5) / Made available in DSpace on 2018-08-31T22:19:36Z (GMT). No. of bitstreams: 1 ARTHUR LÚCIO MENESES FARIAS - DISSERTAÇÃO PPGCC 2012..pdf: 6632570 bytes, checksum: 9bad5d762a4985c8dbe890c7b6667f06 (MD5) Previous issue date: 2012-08-31 / CNPq / Conforme previsto por Weiser há aproximadamente vinte anos, a era da computação ubíqua na qual a tecnologia se integra a vida das pessoas de maneira tão presente que as mesmas nem percebem tem se tornado realidade. Este novo paradigma tem se tornado possível graças à popularização de dispositivos tais como smartphones e tablets que, aliados ao extraordinário avanço das tecnologias de comunicação sem fio de curto e longo alcance, têm viabilizado cenários para aplicações pervasivas. Porém, aplicações pervasivas requerem que o desenvolvedor lide com questões como: (i) extrair do ambiente em que estão inseridos informações de contexto como a presença do usuário no ambiente; (ii) lidar com a sucessiva necessidade de mudança de tecnologias de comunicação de longo e curto alcance devido à alta dinamicidade dos ambientes. Neste trabalho apresenta-se uma infraestrutura para auxiliar o desenvolvedor de aplicações pervasivas, fornecendo uma abstração para a complexidade relacionada à comunicação e ao chaveamento transparente e ciente de contexto entre as tecnologias de comunicação presentes nestes dispositivos. A validação é realizada através de um estudo de caso que utiliza as tecnologias NFC, Bluetooth e Wi-Fi, com gerenciamento da utilização destas tecnologias de acordo com a demanda da aplicação. / As predicted by Weiser about twenty years ago, the ubiquitous computing era in which technology integrates people's lives in such way that they do not even realize it has become reality. This new paradigm has become possible thanks to the popularization of devices such as smartphones and tablets that combined with the extraordinary progress of wireless technologies for short and long range, have made possible scenarios for pervasive applications. However, pervasive applications require the developer to deal with issues such as: (i) extract from the environment they are inserted context information as user's presence, (ii) handle the need for successive changing communication technologies for short and long range due to high dynamicity of the environments. This work presents an infrastructure for supporting pervasive applications developers, providing an abstraction for the complexity related to the communication and to the context-aware switching between communication technologies present in these devices. The validation is performed through a case study that utilizes NFC, Bluetooth and Wi-Fi technologies, with management of these technologies according to application needs.
194

Uma técnica para verificar não-conformidades em Programas Especificados com Contratos. / A technique for verifying nonconformities in Specified Programs with Contracts.

OLIVEIRA, Catuxe Varjão de Santana. 31 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-31T22:55:43Z No. of bitstreams: 1 CATUXE VARJÃO DE SANTANA OLIVEIRA - PPGCC DISSERTAÇÃO 2013..pdf: 11354934 bytes, checksum: 6a23f31ef43ba211aeaa89eb36061a43 (MD5) / Made available in DSpace on 2018-08-31T22:55:43Z (GMT). No. of bitstreams: 1 CATUXE VARJÃO DE SANTANA OLIVEIRA - PPGCC DISSERTAÇÃO 2013..pdf: 11354934 bytes, checksum: 6a23f31ef43ba211aeaa89eb36061a43 (MD5) Previous issue date: 2013-03-15 / A escrita de especificações formais por contratos é uma maneira confiável e prática de construir softwares, em que desenvolvedores e clientes mantêm um acordo contendo direitos e obrigações a serem cumpridos. Essas responsabilidades são expressas basicamente através de pré-condições, pós-condições, e invariantes. Como exemplo de linguagem de especificação por contrato tem-se Java Modeling Language (JML) específica para programas Java. Apesar de a especificação formal melhorar a confiabilidade do software, deve-se haver certificação de que a implementação está em conformidade com a especificação definida. Verificação de conformidade em programas com contratos é geralmente realizada através de análises manuais ou verificação dinâmica, e em fases tardias do processo de desenvolvimento do software, ou seja, quando o produto final encontra-se disponível para o cliente. Nesta situação, o tempo despendido para detectar não-conformidades pode ser muito longo, ocasionando, consequentemente, atrasos no cronograma e aumento nos custos. Neste trabalho, propomos uma abordagem para checar conformidade entre código fonte e especificação formal por contratos através da geração e execução de testes. Testes de unidade são gerados automaticamente, resultando em casos de testes com sequências de chamadas aos métodos e construtores. Os contratos são transformados em assertivas que funcionam como oráculo para os testes. Esta abordagem não garante corretude total do software, mas aumenta a confiança quando uma não-conformidade é encontrada e, além disso, encoraja o uso de especificação por contratos. Nós implementamos JMLOK, uma ferramenta que executa os passos desta abordagem automaticamente no contexto de programas Java especificados com Java Modeling Language (JML). JMLOK foi avaliada em grupos de programas Java/JML, incluindo um módulo do projeto JavaCard. Todas as unidades experimentais totalizam 18 KLOC e 5K de linhas de especificação JML. Todo o processo consumiu menos que 10 minutos de execução e gerou como resultado a detecção de 29 não-conformidades. As causas das ocorrências das não-conformidades foram analisadas manualmente e classificadas em categorias de falhas. / Writing formal specifications by contracts is a practical and reliable way to build softwares in which developers and clients keep an agreement with rights and obligations to be fulfilled. These responsibilities are expressed basically by pre-conditions, post-conditions and invariants. As example of specification language by contract there is Java Modeling Language (JML) that is specific to Java programs. Although formal specification improves software rehabihty, it should exist certification of conformance with defined specification. Verify conformance between programs and contracts is usually performed by manual analysis or dynamic verification, and in late stages of software development process, that is, when the final product is available to client. In this situation, the time required to detect nonconformances could be so long, causing, consequently, schedule delays and increased costs. In this work, we propose an approach to check conformance between source code and contract formal specification through testing generation and execution. Unit tests are generated automatically resulting in test cases with call sequences of methods and constructors. The contracts are translated in assertions that work like test oracle. We have implemented JMLOK, a tool performs the approach steps automatically in the context of Java programs specified with Java Modeling Language (JML). JMLOK was evaluated in Java/JML programs groups, including a module of the JavaCard project. All the experimental units totalize 18 KLOC and 5K lines of JML specification. All process took less than 10 minutes of running and generated as result 29 nonconformances. The causes of nonconformances occurring were analyzed manually and classified in categories of fails.
195

Geração de casos de teste de interação para aplicações de celulares. / Generation of interaction test cases for mobile applications.

ANDRADE, Wilkerson de Lucena. 22 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-22T22:35:08Z No. of bitstreams: 1 WILKERSON DE LUCENA ANDRADE - DISSERTAÇÃO PPGCC 2007..pdf: 2626609 bytes, checksum: 614195de1ab9a26c4b34ae95f67813d9 (MD5) / Made available in DSpace on 2018-08-22T22:35:08Z (GMT). No. of bitstreams: 1 WILKERSON DE LUCENA ANDRADE - DISSERTAÇÃO PPGCC 2007..pdf: 2626609 bytes, checksum: 614195de1ab9a26c4b34ae95f67813d9 (MD5) Previous issue date: 2007-03-02 / O mercado de telefonia celular tem se mostrado cada vez mais competitivo, demandando um padrão de qualidade cada vez maior. Neste contexto, aplicações são desenvolvidas como conjuntos de funcionalidades, chamados de features. Tais features são combinadas em cenários de uso das aplicações podendo, inclusive, haver interações entre elas. Interações entre features podem ocorrer em dois cenários diferentes: no primeiro caso uma feature pode solicitar um serviço ou dados de uma outra e no segundo caso, uma feature pode interromper a execução de outra feature. Devido ao fato de as features serem usualmente desenvolvidas e testadas de forma isolada, os testes de suas interações nos cenários de uso das aplicações ficam comprometidos. Dado que essas interações estejam especificadas, modelos contendo esses comportamentos podem ser obtidos, e assim, usando técnicas de teste baseado em modelo, casos de teste podem ser gerados para verificar tais interações. Neste trabalho, propomos uma estratégia para dar suporte ao teste de interação entre features em aplicações para celulares. Para isso, estendemos um formato usado para a especificação de requisitos de interação de features, desenvolvemos um procedimento para a geração do modelo comportamental a partir dessa especificação e uma estratégia de geração de casos de teste a partir desse modelo comportamental baseando-se em propósitos de teste, cujo objetivo é extrair cenários de interação entre features de forma que tais interações sejam testadas. A ferramenta LTSBT foi estendida para dar suporte a geração automática de casos de teste de interação e um estudo de caso foi realizado para demonstrar a aplicação da estratégia proposta. / The mobile phone market has become even more competitive, demanding high quality standards. In this context, applications are developed as sets of functionalities, called features. Such features are combined in use case scenarios of the application. They can also have interactions between them. Interactions between features can occur in two different scenarios: in the first case each feature can ask for a service or data of another feature and, in the second case, a feature can interrupt the execution of another feature. Due to the fact that the features are usually developed in an isolated way, the tests of their interactions in such scenarios are compromised. Given that the interactions are specified, models containing such behaviors can be obtained, and thus, using model-based techniques, test cases can be generated to verify these interactions. In this work, we propose a strategy to support the interaction test between features in mobile phone applications. For this, we extended a form used to specify the feature interaction requirements, we develop a procedure to generate the behavioral model from such specification and a test case generation strategy from this model based on test purposes, that aims to extract interaction between features such that the interactions are tested. The LTS-BT tool was extended to support the automatic generation of interaction test cases and a case study was conducted to demonstrate the application of the proposed strategy.
196

On the influence of test adequacy criteria on test suite reduction for model-based testing of real-time systems.

MORAES, Alan Kelon Oliveira de. 02 May 2018 (has links)
Submitted by Lucienne Costa (lucienneferreira@ufcg.edu.br) on 2018-05-02T20:48:28Z No. of bitstreams: 1 ALAN KELON OLIVEIRA DE MORAES – TESE (PPGCC) 2017.pdf: 2206784 bytes, checksum: 9e05994ae273d28b9871d8d16769dac8 (MD5) / Made available in DSpace on 2018-05-02T20:48:28Z (GMT). No. of bitstreams: 1 ALAN KELON OLIVEIRA DE MORAES – TESE (PPGCC) 2017.pdf: 2206784 bytes, checksum: 9e05994ae273d28b9871d8d16769dac8 (MD5) Previous issue date: 2017-08-31 / O teste baseado em modelos é uma abordagem de teste de software que usa modelos abstratos de uma aplicação para gerar, executar e avaliar os testes. A geração de casos de testes exerce um papel importante no teste baseado em modelos. Como essa geração consiste na busca sistemática por casos de testes que possam ser extraídos dos modelos, o teste baseado em modelos geralmente produz suítes de testes que são caras demais para serem executadas completamente. Técnicas de redução de suítes de testes têm sido propostas para abordar este problema. O objetivo dessas técnicas é obter suítes de testes reduzidas que são mais baratas de serem executadas e tão efetivas na detecção de faltas quanto as suítes completas, dado que as suítes reduzidas mantém o mesmo nível de cobertura, definido por um critério de adequação de testes, da suíte completa. Esses critérios definem que partes do sistema serão testados, com que frequência e sob quais circunstâncias. Entretanto, pouca atenção tem sido dada ao impacto que a escolha do critério tem na redução de suítes de testes. Por outro lado, sistemas de tempo-real são sistemas reativos cujos comportamentos são restringidos pelo tempo. Consequentemente, faltas relacionadas ao tempo são específicas desses sistemas. Para lidar com isso, modelos para sistemas de tempo real devem trabalhar com tempo e, consequentemente, há critérios de adequação de testes específicos para eles. Contudo, a pesquisa sobre redução de suítes de testes não tem focado em sistemas de tempo-real, portanto o impacto de critérios de adequação de testes na redução de suítes é desconhecido. Nesta pesquisa de doutorado objetivamos investigar a influência de critérios de adequação de testes nos resultados da redução de suítes de testes no contexto de teste baseado em modelos de sistemas de tempo-real. Em particular, nós estamos interessados no modelo Timed Input-Output Symbolic Transition Systems (TIOSTS), porque ele é um modelo de sistema de transições no qual dados e tempo são definidos simbolicamente, já que sistemas de transição são a base para o teste de conformidade de sistemas de tempo real. Para alcançar o objetivo da pesquisa, primeiramente, nós definimos 19 critérios de adequação de testes para o modelo TIOSTS. Os critérios definidos incluem critérios baseados em transições, fluxo de dados e tempo. Depois nós formalizamos uma hierarquia com esses critérios, onde eles estão parcialmente ordenados pela relação de inclusão estrita. Segundamente, nós avaliamos empiricamente o custo-benefício de doze dos critérios definidos e cinco técnicas de redução de suítes de testes. Nós avaliamos o tamanho, o tempo de execução e a detecção de faltas das suítes de testes reduzidas de cada uma das 60 combinações de critério e técnica. No experimento, nós usamos modelos de especificação, em TIOSTS, de uma máquina de recarga de cartão do metrô, de um sistema de alarme anti-roubo e de um limitador automático de velocidade de carros. Além disso, usamos simulações das implementações, que geram rastros corretos para os modelos. Por fim, o teste de mutação foi usado para gerar mutantes dos modelos de especificação, que, por sua vez, foram traduzidos para simulações com a finalidade de simular modelos de implementações defeituosas. As evidências empíricas sugerem que os critérios de adequação de testes mais próximos do topo da hierarquia produziram suítes reduzidas com melhor custo-benefício com relação à detecção de faltas e tempo de execução. Com relação às técnicas de redução, a técnica aleatória obteve melhor custo-benefício dentre as técnicas avaliadas. Os resultados apontam que os critérios explicam mais a variação nos resultados do que as técnicas. / Model-based testing is a testing approach that relies on the existence of abstract models of an application to generate, execute and evaluate tests. Test case generation plays an important role in model-based testing. Since it consists of a systematic search for test cases that can be extracted from models, model-based testing usually generates large test suites which are too expensive to execute in full. Test suite reduction techniques have been proposed to address this problem. The goal of the techniques is to obtain reduced test suites that are both cheaper to execute and as effective at detecting faults as the original suite, given that the reduced test suites maintain the same coverage level of the complete test suite required by a test adequacy criterion. These criteria define which parts of the system are going to be tested, how often and under what circumstances. Nevertheless, little attention has been paid to the impact of the criterion choice in test suite reduction research. On the other hand, real-time systems are reactive systems whose behavior is constrained by time. Consequently, time-related faults are specific to these systems. In order to cope with this issue, models for real-time systems must deal with time and, consequently, there are specific test adequacy criteria for them. However, test suite reduction research has not focused on real-time systems, therefore the impact of test adequacy criteria for models of real-time systems on test suite reduction is unknown. In this doctoral research, we aim at investigating the influence of test adequacy criteria on the outcomes of test suite reduction techniques in the context of model-based testing of real-time systems. In particular, we are interested in the Timed Input-Output Symbolic Transition Systems (TIOSTS) model because it is an expressive transition system in which data and time are symbolically defined, and transition systems are the basis for conformance testing of real-time systems. In order to achieve the research objective, first, we defined 19 test adequacy criteria for TIOSTS models. The defined criteria include transition-based criteria, data-flow-oriented criteria and real-time systems criteria. Next, we formalized a hierarchy with these criteria which is partially ordered by the strict inclusion relation. Second, we evaluated the cost-effectiveness of twelve criteria and five test suite reduction techniques in empirical studies of test suite reduction. We evaluated the size, execution time and fault detection of reduced test suites obtained from each combination of criterion and technique. In the experiment, we used TIOSTS specification models of a refilling machine for charging the subway card, a burglar alarm system, and an automated car speed limiter; simulations of the implementations, which generate correct traces for the models; and mutation testing to generate mutants of the specification models, which were also translated to simulations in order to simulate faulty model implementations. Empirical evidence suggests that test adequacy criteria closer to the top of the family obtained reduced test suites with better costeffectiveness regarding fault detection and execution time. With respect to the test suite reduction techniques, the Random technique obtained better cost-effectiveness among the evaluated criteria. Results also suggests that the criteria explain more the variation in fault detection and execution time of reduced test suites than the techniques.
197

Teste de integração contextual de programas orientados a objetos e a aspectos: critérios e automação / Contextual integration testing of object and aspect-oriented programs: criteria ans automation

Vânia de Oliveira Neves 25 January 2010 (has links)
Uma abordagem de teste estrutural de integração contextual para programas OO e OA escritos em Java e AspectJ é apresentada. A finalidade dessa abordagem é descobrir defeitos que possam existir nas interfaces entre uma determinada unidade (método ou adendo) e todas as outras que interagem diretamente com ela, bem como descobrir defeitos que possam ocorrer na hierarquia de chamadas dessas unidades. Para programas OO, esse tipo de teste envolve testar a interação entre métodos; já para programas OA, o teste estrutural de integração nível um (como também pode ser chamado) deve considerar as interações método-método, método-adendo, adendo-adendo e adendo-método. Para efetuar o teste estrutural de integração nível um deve-se considerar todo o fluxo de execução (fluxo de controle e de dados) que ocorre entre uma unidade chamadora e as unidades que interagem diretamente com ela. Para isso é definido o grafo Def-Uso IN1P, que é uma abstração formada pela integração dos grafos Def-Uso Orientado a Aspectos (AODU) da unidade chamadora e das unidades que ela chama ou que a afeta. Além disso, são propostos três critérios para derivar os requisitos de teste, dois baseados em fluxo de controle (todos-nós-integrados-N1 e todas-arestas-integradas-N1) e um baseado em fluxo de dados (todos-usos-integrados-N1). A ferramenta JaBUTi/AJ foi estendida para dar apoio à abordagem de teste de integração proposta. Exemplos são apresentados para ilustrar o uso da ferramenta para o teste de profundidade um e também seu uso no contexto de uma abordagem que leva em consideração também o teste de unidades e o teste baseado em conjuntos de junção / A Contextual structural integration testing for OO and OA programs written in Java and AspectJ is presented. The purpose of this approach is to discover faults that may exist in the interfaces between a particular unit (method or advice) and all others that interact directly with it, as well as to discover defects that may occur in the call hierarchy of these units. In OO programs, this type of test involves testing the interaction among methods. For OA programs, the structural integration testing at the depth of one (as it can also be called) should consider the method-method, method-advice, advice-advice and advice-method interactions. To perform structural integration testing at the depth of one level the whole execution flow (control and data flow) that occurs among a caller unit and the units that interact directly with it it must be considered. The IN1P Def-Use graph has been defined as an abstraction formed by the integration of the Aspect-Oriented Def-Use (AODU) graphs of the caller unit and of the units that it calls or affects it. Also, three criteria to derive test requirements are proposed, two of which are based on control flow all-integrated-nodes-N1 and all-integrated-edges-N1 and one is based on data flowall-integrated-uses-N1. The tool JaBUTi/AJ was extended to support the proposed integration testing approach. Examples are presented to illustrate the use of the tool for depth 1 testing as well as its use in the context of an approach that also takes into account unit testing and pointcut-based testing
198

Qualidade de conjuntos de teste de software de código aberto: uma análise baseada em critérios estruturais / The Quality of open soource software test sets:structural testing criteria-based analysis

RINCON, André Mesquita 19 April 2011 (has links)
Made available in DSpace on 2014-07-29T14:57:48Z (GMT). No. of bitstreams: 1 Dissertacao Andre Mesquita Rincon.pdf: 2371244 bytes, checksum: 7b92b62de0f555c3a97f1a973bcf5601 (MD5) Previous issue date: 2011-04-19 / The QualiPSo Project (Quality Platform for Open Source Software) has as goal to investigate Free/Libre/Open Source Software (FLOSS) products to define quality requirements that are important to set the products reliability. One of the QualiPSo Project activities is to evaluate the quality of the developed test sets by the FLOSS community. This work is part of the QualiPso Project and shows the results of the use of structural test criteria as a functional test sets quality measure to identify the state-of-the-practice of performed test activities by free software communities. Furthermore, this work contributes to establish an incremental test strategy to improve the test sets. / O projeto QualiPSo (Quality Platform for Open Source Software) tem por objetivo investigar produtos de software de código gratuito/livre/aberto (Free/Libre/Open Source Software FLOSS) para definir requisitos de qualidade que são importantes para se estabelecer a confiabilidade desses produtos. Uma das atividades do projeto QualiPSo visa avaliar a qualidade de conjuntos de teste desenvolvidos pelas comunidades de software livre. Esta dissertação de mestrado está inserida neste contexto e apresenta os resultados do emprego de critérios de teste estruturais como uma medida da qualidade de conjuntos de teste funcionais visando a identificar o estado-da-prática das atividades de teste desempenhadas pelas comunidades de software livre, bem como, a contribuir no estabelecimento de uma estratégia de teste incremental para evoluir os conjuntos de testes.
199

Melhoria do processo de teste para as micro e pequenas empresas brasileiras / Test process improvement for micro and small brazilian enterprises

Silva, Dianne Dias 25 May 2015 (has links)
Submitted by Cláudia Bueno (claudiamoura18@gmail.com) on 2015-10-27T15:54:55Z No. of bitstreams: 2 Dissertação - Dianne Dias Silva - 2015.pdf: 2508002 bytes, checksum: caf4c84566bed1bb6b673f295e99b317 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2015-10-28T14:09:40Z (GMT) No. of bitstreams: 2 Dissertação - Dianne Dias Silva - 2015.pdf: 2508002 bytes, checksum: caf4c84566bed1bb6b673f295e99b317 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) / Made available in DSpace on 2015-10-28T14:09:40Z (GMT). No. of bitstreams: 2 Dissertação - Dianne Dias Silva - 2015.pdf: 2508002 bytes, checksum: caf4c84566bed1bb6b673f295e99b317 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2015-05-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The software products developed by micro and small brazilian enterprises have stood out on the world IT market which mostly are dedicated to the development, the production, the software distribution and the provision of services. However, new software products available on the market fail because most of these micro and small enterprises are more focused on product quality rather than the processes used in its development. Despite these organizations realize the importance of improving their processes and their working techniques, lack resources and knowledge so that this practice is applied. In recent decades, increasing demand and complexity of software products made that micro and small software development enterprises worry and invest more in quality assurance to provide continuous improvement of the techniques, the criteria, the methods and the tools used in the construction of software products. Through some national initiatives maturity models and international standards such as the Freetest Method, the MPT.BR and the ISO/IEC/IEEE 29119-2 can satisfy the needs and expectations of users of these products. However, the implementation and institutionalization of structured testing process maturity in these models and this standard are costly and complex for micro and small software development enterprises. This work developed a maturity model considering the limitations of micro and small software development enterprises, and an approach to implement the test procedures defined in this model. / Os produtos de software desenvolvidos pelas micro e pequenas empresas brasileiras têm se destacado no mercado mundial de TI que em sua maioria estão dedicadas ao desenvolvimento, à produção, à distribuição de software e à prestação de serviços. No entanto, os novos produtos de software disponibilizados no mercado falham devido a maioria dessas micro e pequenas empresas estarem mais centradas na qualidade do produto em vez dos processos adotados no seu desenvolvimento. Apesar dessas organizações perceberem a relevância de melhorar os seus processos e suas técnicas de trabalho, faltam recursos e conhecimento para que essa prática seja aplicada. Nas últimas décadas, a crescente demanda e a complexidade dos produtos de software fizeram com que as micro e pequenas empresas de desenvolvimento de software se preocupassem e, investissem cada vez mais na garantia da qualidade para prover a melhoria contínua das técnicas, dos critérios, dos métodos e das ferramentas empregadas na construção dos produtos de software. Através de algumas iniciativas nacionais de modelos de maturidade e normas internacionais tais como, o Método Freetest, o MPT.BR e a ISO/IEC/IEEE 29119-2 é possível satisfazer as necessidades e expectativas dos usuários desses produtos. Porém, a implementação e a institucionalização do processo de teste estruturado nesses modelos de maturidade e, nessa norma são onerosas e complexas para as micro e pequenas empresas de desenvolvimento de software. Neste trabalho foi desenvolvido um modelo de maturidade considerando as limitações das micro e pequenas empresas de desenvolvimento de software, e uma abordagem para implementar os processos de teste definidos nesse modelo.
200

Avaliação de ferramentas de geração automática de dados de teste para programas java: um estudo exploratório / Automatic generation tools assessment test data for java programs: an exploratory study

Oliveira , Daniel Gomes de 29 September 2016 (has links)
Submitted by JÚLIO HEBER SILVA (julioheber@yahoo.com.br) on 2016-12-05T15:46:39Z No. of bitstreams: 2 Dissertação - Daniel Gomes de Oliveira - 2016.pdf: 1447085 bytes, checksum: f382ec268ae42480adeee8f03e5ccda2 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Jaqueline Silva (jtas29@gmail.com) on 2016-12-13T15:32:34Z (GMT) No. of bitstreams: 2 Dissertação - Daniel Gomes de Oliveira - 2016.pdf: 1447085 bytes, checksum: f382ec268ae42480adeee8f03e5ccda2 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-12-13T15:32:34Z (GMT). No. of bitstreams: 2 Dissertação - Daniel Gomes de Oliveira - 2016.pdf: 1447085 bytes, checksum: f382ec268ae42480adeee8f03e5ccda2 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2016-09-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Considering the high cost and large amount of time demanded by the activity generation tests in the software development process, the need a proposal to reduce both the time spent as the related costs testing activities is necessary. In this context, the use of tools or processes that make the activities of generation of more agile testing, less costly and meet demands for precision are key to companies operating in software development market can achieve their goals. Based on these information comes to questions regarding how to go about adopting a process that makes possible the achievement of objectives in order to meet the results mentioned previously, even with the difficulties of generating test data as a result of of programs input areas are infinite. There are different tools that use various strategies for generating test data, however, lacks evidence as the quality of these tools. In this context, the aim of this work is conducting an experimental evaluation of some automatic test data generators to identify which one offers the best cost / benefit in terms of effective in detecting defects number of generated test data, code coverage demanded by test data, and generation time of testing. At second step a third tool was included along manually generated tests. New test sets using three automatic generators and included the manually -generated sets project were generated. Finally, results were presented in terms of effectiveness and efficiency through the comparison between the four test sets . / Considerando o alto custo e a grande quantidade de tempo demandada pela atividade de criação de casos de testes dentro do processo de desenvolvimento de software. A utilização de ferramentas ou procedimentos que tornem o processo de geração de dados de testes mais ágil, menos oneroso e que atendam demandas por precisão se tornam fundamentais para que as empresas atuantes no mercado de desenvolvimento de software possam atingir seus objetivos. Com base nessas informações, surge a dúvida relacionada a como proceder para adotar um processo de desenvolvimento e teste de software que tornem possíveis o alcance dos objetivos de forma a atender os resultados mencionados anteriormente, mesmo com as dificuldades de gerar dados de teste em decorrência dos domínios de entrada dos programas serem em geral infinitos. O objetivo do presente trabalho é conduzir uma avaliação experimental de geradores automáticos de dados de teste visando identificar qual deles apresenta a melhor relação custo/benefício em termos de eficácia em detectar defeitos, número de dados de teste gerados e cobertura de código determinada pelos conjuntos de teste. A pesquisa foi dirigida em duas etapas: na primeira, dois geradores foram avaliados em relação a um conjunto de 32 programas Java e os resultados obtidos indicam que, de maneira geral, o gerador CodePro foi o que apresentou a melhor relação custo benefício frente ao Randoop; na segunda, foi inclusa uma terceira ferramenta, juntamente a testes gerados de forma manual. Foram gerados novos conjuntos de teste utilizando os três geradores automáticos e incluso ao projeto conjuntos gerados de forma manual. Ao final, foram apresentados os resultados em termos de eficácia e eficiência por meio dos comparativos entre os quatro conjuntos de teste.

Page generated in 0.0852 seconds