• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 5
  • 5
  • 5
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Ontologia para teste de desempenho de software

Freitas, Artur Luiz Silva da Cunha January 2013 (has links)
Made available in DSpace on 2013-08-07T18:42:33Z (GMT). No. of bitstreams: 1 000449315-Texto+Completo-0.pdf: 3149854 bytes, checksum: 99ac82d2ef949d0631b87f4593f0071a (MD5) Previous issue date: 2013 / Software testing is a technique used to provide information about the quality of a software operating in a specific context. The test responsible for assessing the performance and efficiency of a software in a usage scenario is known as performance testing. The development of a performance test is a task that requires testers with expertise related to the tools, activities and metrics of the domain. To represent this knowledge, this work proposes an ontology on the domain of performance testing. Ontology is a knowledge representation technique considered state of the art within the Artificial Intelligence. Moreover, one contribution of this research is to identify, based on the analysis of related works, what is known about the use of ontologies in software testing. Finally, the proposed ontology is evaluated by domain experts, compared with related ontologies and explored in applications designed to help testers regarding the planning and elaboration of performance tests. / O teste de software é uma técnica utilizada para fornecer informações sobre a qualidade de um software operando em um contexto específico. O tipo de teste responsável por avaliar o desempenho e a eficiência de um software em um cenário de uso é conhecido como teste de desempenho. A elaboração de um teste de desempenho é uma tarefa que exige testadores com conhecimentos especializados referentes às ferramentas, atividades e métricas do domínio. Para representar tais conhecimentos, este trabalho propõe uma ontologia sobre o domínio de teste de desempenho. Ontologia é uma técnica de representação do conhecimento considerada o estado da arte dentro da Inteligência Artificial. Além disso, uma das contribuições desta pesquisa é mapear, com base na análise de trabalhos relacionados, o que se sabe sobre a utilização de ontologias no teste de software. Por fim, a ontologia proposta é avaliada por especialistas do domínio, comparada com ontologias relacionadas e explorada em aplicações que têm por objetivo auxiliar os testadores quanto ao planejamento e à elaboração dos testes de desempenho.
2

Uma infraestrutura para consistência dos processos de software baseados no metamodelo SPEM 2.0

Pereira, Eliana Beatriz January 2011 (has links)
Made available in DSpace on 2013-08-07T18:42:24Z (GMT). No. of bitstreams: 1 000444969-Texto+Completo-0.pdf: 8863468 bytes, checksum: d6f97c49279c5546c9619f8479b0b679 (MD5) Previous issue date: 2011 / The use of software development processes in the IT organizations has become common. This happens because the quality product is related to the process quality. The main interest of the IT companies is to adopt one or more well-defined software development processes and tailor them when necessary to meet the projects specific needs. However, since the amount of elements and relationships of a software development process is huge, defining and tailoring a software development process are not trivial activities. Inconsistencies may easily be introduced into a software development process when certain precautions are not taken. As a consequence, an inadequate software development process may be created to a software project causing errors during its enactment. Considering the need to avoid inconsistencies in a software development process, this research proposes a consistence infrastructure that enables defining and tailoring consistent software development processes based on SPEM 2. 0 metamodel. The proposed infrastructure is composed by an extension to the SPEM 2. 0 metamodel, a set of well-formedness rules related to the consistency of the software development processes and a tool prototype that supports automatically the proposed metamodel and well-formedness rules. / O uso de processos de desenvolvimento de software nas organizações de TI tem se tornado cada vez mais comum. Um dos motivos é que a qualidade do produto de software está relacionada com a qualidade do processo utilizado na sua construção. Nesse contexto, o interesse das organizações é estabelecer um ou mais processos de desenvolvimento de software bem definidos; adaptando-os, quando necessário, para atender metas específicas dos projetos de software. Contudo, devido à grande quantidade de elementos e relacionamentos que um processo de desenvolvimento de software possui, as atividades de definição e adaptação de processos são tarefas não triviais. Quando alguns cuidados não são tomados, inconsistências podem ser facilmente introduzidas em um processo de desenvolvimento de software, fato que pode, muitas vezes, ocasionar a geração de um processo inadequado que acarretará em erros durante a execução de um projeto de software. Considerando a necessidade de evitar inconsistências em um processo de desenvolvimento de software, esta pesquisa propõe uma infraestrutura que viabiliza a definição e adaptação dos processos de desenvolvimento de software consistentes baseados no metamodelo SPEM 2. 0. A infraestrutura definida é composta por uma extensão ao metamodelo SPEM 2. 0, um conjunto de regras de boa-formação para consistência dos processos de desenvolvimento de software e um protótipo de ferramenta que auxilia o uso do metamodelo proposto e das regras de boa-formação.
3

Conjunto de características para teste de desempenho: uma visão a partir de ferramentas

Costa, Leandro Teodoro January 2012 (has links)
Made available in DSpace on 2013-08-07T18:43:14Z (GMT). No. of bitstreams: 1 000440236-Texto+Completo-0.pdf: 2914899 bytes, checksum: 0abd44c7d4fad22c016e1558238096b2 (MD5) Previous issue date: 2012 / Currently, the development of systems in the software industry has increased. As far as the need of customers in automate their processes grows, their demand to improve the quality of computational systems also increases. In this sense, software testing has a fundamental role. Despite of the benefits provided by testing, most of it is performed manually and without a theoretical basis, making the testing activity slow and inefficacious. An alternative for solving this problem is the use of test automation tools. In addition to accelerate the work of testers, these tools provide a higher quality and efficiency for the testing process. However, even though these tools can make the testing process faster, the test case generation for them is performed manually. The ideal is to also automate the generation and execution of test cases for these tools. In order to overcome this limitation, this work proposes a set of features which includes the information necessary for the generation and execution of real test cases for performance testing tools. Based on information from this set, we developed plugins for a product line of tools for model-based testing called PLeTs (Product Line Testing Tools). These plugins implement the automatic generation and execution of test scripts and test scenarios using two performance testing tools, HP LoadRunner e Microsoft Visual Studio. In order to show the feasibility of the proposal of this work, we performed a case study, which is based on the automated generation and execution of test cases using products generated by the product line PLETs. / Atualmente, o desenvolvimento de sistemas por parte da indústria de software tem aumentado. Assim como a necessidade dos clientes em automatizar seus processos, cresce também a exigência dos mesmos na melhoria da qualidade dos sistemas informatizados. Nesse sentido, o teste de software desempenha um papel fundamental. Apesar dos benefícios que os testes proporcionam, a maioria deles é realizada de forma manual e sem embasamento teórico e fundamentado, tornando a atividade de teste lenta e ineficaz. Uma alternativa para a solução deste problema é a utilização de ferramentas de automatização de teste. Essas ferramentas, além de agilizar o trabalho de uma equipe de testadores, provêem maior qualidade e eficácia para o processo de teste. Entretanto, ainda que essas ferramentas possam tornar o processo de teste mais rápido, a criação de casos de teste para elas é realizada manualmente. O ideal é automatizar também o processo de criação e execução de casos de teste para essas ferramentas. Com o intuito de superar esta limitação, este trabalho propõe um conjunto de características que contempla as informações necessárias para automatizar a geração e execução de casos de teste concretizados para ferramentas de automatização de teste de desempenho. A partir das informações deste conjunto, foi realizada a implementação de plugins para uma linha de produto de ferramentas para teste baseado em modelos (Model-Based Testing - MBT) denominada PLeTs (Product Line Testing Tools). Estes plugins implementam a geração e a execução automática de scripts e cenários de teste utilizando duas ferramentas de automatização de teste de desempenho, HP LoadRunner e Microsoft Visual Studio. Com o objetivo de demonstrar a viabilidade da proposta deste trabalho foi definido um exemplo de uso, o qual se baseia na geração e execução automatizada de casos de teste utilizando os produtos gerados pela linha de produto PLeTs.
4

Split-Tesge: um processo para adaptação de métodos de geração de sequências de testes para linha de produto de software

Zanin, Aline January 2016 (has links)
Made available in DSpace on 2016-02-05T01:03:13Z (GMT). No. of bitstreams: 1 000477173-Texto+Completo-0.pdf: 10489574 bytes, checksum: e347833fca1d18dfcc01a42c05686302 (MD5) Previous issue date: 2016 / The Software Product Line development has gained notoriety for being an ally to projects that seek to increase productivity through reuse of artifacts. This reuse, already used in the development process, has recently started to be adopted during the software testing phase, which is considered one of the most costly phases of the development process. In this work, we propose a process to adapt methods for generating test sequences, traditionally used in single systems, to be used in Software Product Lines. This process is called Software Product Line Test using Test Sequence Generation Method (SPLiT-TeSGe). The main idea is that test artifacts produced in the Domain Engineering are reused for products derived in the Application Engineering allowing, thus, to reduce the number of test case to test a software derived from a Software Product Line. / O desenvolvimento de software em linha de produto tem ganhado notoriedade por ser um aliado a projetos que buscam aumentar a produtividade através do reuso de artefatos. Este reaproveitamento, já utilizado no processo de desenvolvimento, recentemente passou a ser adotado também no processo de testes de software, visto que, a etapa de testes é considerada uma das etapas mais onerosas do processo de desenvolvimento. Neste trabalho buscamos propor um processo para a adaptação de métodos de geração de sequências de testes, tradicionalmente utilizados em sistemas únicos, para a utilização em Linha de Produto de Software. Este processo chama-se Software Product Line Testing using Test Sequence Generation Method (SPLiT-TSGe). Com isso, visamos reutilizar os artefatos de teste produzidos na Engenharia de Domínio para os produtos derivados na Engenharia de Aplicação, permitindo assim, reduzir o número de casos de teste necessários para testar produtos derivados de uma Linha de Produto de Software.
5

Plets: a product line of model-based testing tools

Rodrigues, Elder de Macedo January 2013 (has links)
Made available in DSpace on 2013-12-11T01:01:35Z (GMT). No. of bitstreams: 1 000452835-Texto+Completo-0.pdf: 8269470 bytes, checksum: ab1e0cb4a21fcf269f8e7ac4dc9418f2 (MD5) Previous issue date: 2013 / Software testing is recognized as a fundamental activity for assuring software quality. Furthermore, testing is also recognized as one of the most time consuming and expensive activities of software development process. A diversity of testing tools has been developed to support this activity, including tools for Model-based Testing (MBT). MBT is a testing technique to automate the generation of testing artifacts from the system model. This technique presents several advantages, such as, lower cost and less effort to generate test cases. Therefore, in the last years a diversity of commercial, academic, and open source tools to support MBT has been developed to better explore these advantages. In spite of the diversity of tools to support MBT, most of them have been individually and independently developed from scratch based on a single architecture. Thus, they face difficulties of integration, evolution, maintenance, and reuse. In another perspective, Software Product Lines (SPL) offers possibility of systematically generating software products at lower costs, in shorter time, and with higher quality. The main contribution of this Ph. D thesis is to present a SPL for testing tools that support MBT (PLeTs) and an automated environment to support the generation of these tools (PlugSPL). Furthermore, our strategy was initially applied to generate some MBT testing tools which were applied in two examples of use performed in collaboration of an IT company. Based on the feedback from the examples of use we can infer that SPL can be considered a relevant approach to improve productivity and reuse during generation of MBT testing tools. Moreover, we also performed an experimental study carried out to evaluate the effort to use an MBT tool derived from our SPL to generate test scripts and scenarios. Thus, the results point out that the effort to generate test scripts, when compared with a Capture and Replay based tool, was reduced considerably. / O teste de software é uma atividade fundamental para garantir a qualidade de software. Além disso, teste de software é uma das atividades mais caras e demoradas no processo de desenvolvimento de software. Por esta razão, diversas ferramentas de teste foram desenvolvidas para apoiar esta atividade, incluindo ferramentas para Teste Baseado em Modelos (TBM). TBM é uma técnica de teste para automatizar a geração de artefatos de teste a partir de modelos do sistema. Esta técnica apresenta diversas vantagens, tais como, menor custo e esforço para gerar casos de teste. Por este motivo, nos últimos anos, diversas ferramentas para TBM foram desenvolvidas para melhor explorar essas vantagens. Embora existam diversas ferramentas TBM, a maioria delas tem o seu desenvolvimento baseado em um esforço individual, sem a adoção de técnicas de reuso sistemático e com base em uma única arquitetura, dificultando a integração, evolução, manutenção e reutilização dessas ferramentas. Uma alternativa para mitigar estes problemas é adotar os conceitos de Linhas de Produto de Software (LPS) para desenvolver ferramentas de TBM. LPS possibilitam gerar sistematicamente produtos a custos mais baixos, em menor tempo e com maior qualidade. A principal contribuição desta tese de doutorado é apresentar uma LPS de ferramentas de teste que suportam TBM (PLeTs) e um ambiente automatizado para apoiar a geração dessas ferramentas (PlugSPL). Além disso, esta tese apresenta uma abordagem para gerar ferramentas para TBM, que foram aplicadas em dois exemplos de uso. Com base nos resultados obtidos nos exemplos de uso, podemos inferir que LPS pode ser considerada uma abordagem relevante para melhorar a produtividade e o reuso durante a geração de ferramentas de TBM. Além disso, também foi realizado um estudo experimental com o objetivo de avaliar o esforço para se utilizar uma ferramenta derivada da PLeTs para geração de scripts de teste. Os resultados apontaram que o esforço para gerar scripts de teste foi reduzido consideravelmente, quando comparado com a uma ferramenta de Capture and Replay.

Page generated in 0.0331 seconds