• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • Tagged with
  • 25
  • 25
  • 17
  • 10
  • 9
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Uso de riscos na validação de sistemas baseados em componentes

Moraes, Regina Lúcia de Oliveira, 1956- 15 December 2007 (has links)
Orientadores: Eliane Martins, Henrique Santos do Carmo Madeira / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-08T16:01:49Z (GMT). No. of bitstreams: 1 Moraes_ReginaLuciadeOliveira_D.pdf: 2145825 bytes, checksum: a59f9b52775255ca0dfc0c004c828da7 (MD5) Previous issue date: 2006 / Resumo: A sociedade moderna está cada vez mais dependente dos serviços prestados pelos computadores e, conseqüentemente, dependente do software que está sendo executado para prover estes serviços. Considerando a tendência crescente do desenvolvimento de produtos de software utilizando componentes reutilizáveis, a dependabilidade do software, ou seja, a segurança de que o software irá funcionar adequadamente, recai na dependabilidade dos componentes que são integrados. Os componentes são normalmente adquiridos de terceiros ou produzidos por outras equipes de desenvolvimento. Dessa forma, os critérios utilizados na fase de testes dos componentes dificilmente estão disponíveis. A falta desta informação aliada ao fato de se estar utilizando um componente que não foi produzido para o sistema e o ambiente computacional específico faz com que a reutilização de componentes apresente um risco para o sistema que os integra. Estudos tradicionais do risco de um componente de software definem dois fatores que caracteriza o risco, a probabilidade de existir uma falha no componente e o impacto que isso causa no sistema computacional. Este trabalho propõe o uso da análise do risco para selecionar pontos de injeção e monitoração para campanhas de injeção de falhas. Também propõe uma abordagem experimental para a avaliação do risco de um componente para um sistema. Para se estimar a probabilidade de existir uma falha no componente, métricas de software foram combinadas num modelo estatístico. O impacto da manifestação de uma falha no sistema foi estimado experimentalmente utilizando a injeção de falhas. Considerando esta abordagem, a avaliação do risco se torna genérica e repetível embasando-se em medidas bem definidas. Dessa forma, a metodologia pode ser utilizada como um benchmark de componentes quanto ao risco e pode ser utilizada quando é preciso escolher o melhor componente para um sistema computacional, entre os vários componentes que provêem a mesma funcionalidade. Os resultados obtidos na aplicação desta abordagem em estudos de casos nos permitiram escolher o melhor componente, considerando diversos objetivos e necessidades dos usuários / Abstract: Today's societies have become increasingly dependent on information services. A corollary is that we have also become increasingly dependent on computer software products that provide such services. The increasing tendency of software development to employ reusable components means that software dependability has become even more reliant on the dependability of integrated components. Components are usually acquired from third parties or developed by unknown development teams. In this way, the criteria employed in the testing phase of components-based systems are hardly ever been available. This lack of information, coupled with the use of components that are not specifically developed for a particular system and computational environment, makes components reutilization risky for the integrating system. Traditional studies on the risk of software components suggest that two aspects must be considered when risk assessment tests are performed, namely the probability of residual fault in software component, and the probability of such fault activation and impact on the computational system. The present work proposes the use of risk analysis to select the injection and monitoring points for fault injection campaigns. It also proposes an experimental approach to evaluate the risk a particular component may represent to a system. In order to determine the probability of a residual fault in the component, software metrics are combined in a statistical mode!. The impact of fault activation is estimated using fault injection. Through this experimental approach, risk evaluation becomes replicable and buttressed on well-defined measurements. In this way, the methodology can be used as a components' risk benchmark, and can be employed when it is necessary to choose the most suitable among several functionally-similar components for a particular computational system. The results obtained in the application of this approach to specific case studies allowed us to choose the best component in each case, without jeopardizing the diverse objectives and needs of their users / Doutorado / Doutor em Ciência da Computação
12

Interoperabilidade de metadados em aplicações distribuidas : desenvolvimento de ferramentas para validação de metamodelos

Damasceno, Luciano Lança 24 February 2005 (has links)
Orientador: Manuel de Jesus Mendes / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia eletrica e de Computação / Made available in DSpace on 2018-08-04T07:59:18Z (GMT). No. of bitstreams: 1 Damasceno_LucianoLanca_M.pdf: 3606058 bytes, checksum: 6c7876317b16dec5e767a2941f0c8211 (MD5) Previous issue date: 2005 / Resumo: A popularização da Internet criou expectativas e promessas quanto ao uso mais inteligente dos dados disponíveis, culminando na necessidade de interoperabilidade entre aplicações. O uso de padrões de metadados comuns, descrevendo a semântica dos sistemas e suas capacidades possibilitaram a interoperabilidade entre sistemas de informações distribuídos. No entanto, a incompatibilidade entre metamodelos exige uma arquitetura de metadados que suporte esta diversidade. Meta-Object Facility (MOF) é um padrão aberto, suportando e definindo diferentes tipos de metamodelos. Um formato comum de intercâmbio de metadados independente de middleware era necessário, XML Metadata Interchange (XMI) foi especificado como resposta a esta necessidade. Esta dissertação apresenta um sistema de repositório de metadados e metamodelos baseados em MOF, possuindo ferramentas de suporte para validação dos metadados intercambiados através de XMI e visualização de metadados e metamodelos MOF. Com o objetivo de validar o sistema, o resultado deste trabalho foi aplicado em uma iniciativa de governo eletrônico. Ambientes de tecnologia de informação governamentais se destacam pela heterogeneidade, complexidade e pela forte presença de soluções adaptadas para as diferentes unidades administrativas / Abstract: The increase of Internet popularity creates hopes and promises as the use of available data becomes more intelligent, culminating in the need of interoperability among applications. The use of common metadata standards, describing the semantics and capabilities of the systems, enables interoperability of distributed information systems. However, metamodels incompatibility demands a metadata architecture that supports this diversity. Meta Object Facility (MOF) is an open standard, supporting and defining different kinds of metamodels. Furthermore, it was necessary a common metadata interchange format independent of middleware. XMI was specified as an answer to this need. This dissertation presents a MOF metadata repository system, having support tools to validate the interchanged metadata and to visualize the stored metamodels and metadata. In order to validate the system; the result of this work was applied in an electronic government initiative. Information technology of governmental environments is cleared by the heterogeneity, complexity, and strong presence of the adjusted solutions to the different administrative units / Mestrado / Engenharia de Computação / Mestre em Engenharia Elétrica
13

Uma infra-estrutura de software para apoiar a construção de arquiteturas de software baseadas em componentes / A software infrastructure to support component based software architecture construction

Moronte, Tiago Cesar 23 February 2007 (has links)
Orientador: Cecilia Mary Fischer Rubira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-09T23:14:42Z (GMT). No. of bitstreams: 1 Moronte_TiagoCesar_M.pdf: 2563765 bytes, checksum: c66bedbad911b6e9fe990bc2f1748ec0 (MD5) Previous issue date: 2007 / Resumo: Os paradigmas de arquitetura de software e de desenvolvimento baseado em componentes (DBC) são abordagens complementares para o desenvolvimento de sistemas de software. O DBC se baseia na construção de sistemas através da integração de componentes de software reutilizáveis. A arquitetura de software auxilia na forma como estes componentes são integrados levando em consideração atributos de qualidade, tais como confiabilidade e distribuição. Entretanto, observa-se atualmente a falta de consenso entre os conceitos, termos e definições utilizados nas abordagens de arquitetura de software e de DBC, dificultando a integração das respectivas técnicas e ferramentas. As ferramentas e ambientes atuais para descrição de arquiteturas de software não apóiam todas as fases dos processos de DBC, normalmente não geram implementações das arquiteturas e não implementam conceitos importantes de DBC, tais como especificações de interfaces providas e requeridas. Por outro lado, ferramentas e ambientes DBC atuais, em geral, são baseados em modelagem UML e não englobam todos os conceitos presentes em arquitetura de software, tais como estilos arquiteturais e uso explícito de conectores. Este trabalho apresenta uma infra-estrutura de software para construção de arquiteturas de software baseadas em componentes, composta por um conjunto de ferramentas que estentem o ambiente integrado de desenvolvimento Eclipse. As ferramentas foram construídas sobre um metamodelo conceitual integrado para arquitetura de software e DBC, que define e relaciona os conceitos existentes nas duas abordagens. Esta infra- estrutura faz parte do ambiente Bellatrix, um ambiente integrado de desenvolvimento que oferece apoio ao DBC com ênfase na arquitetura de software. As ferramentas apóiam a construção de arquiteturas de software baseadas em componentes desde a sua especificação, passando pelo seu projeto até a sua materialização em forma de código. O modelo de componentes utilizado é o COSMOS, um modelo de implementação de componentes que materializa os conceitos de arquiteturas de software em uma linguagem de programação. No caso do ambiente Bellatrix, a linguagem de programação adotada é Java / Abstract: Component-based development (CBD) and architecture-centric development are two complementary approaches for developing software systems. CBD is based on the construction of systems using the integration of reusable software components. Software architecture centric development complements the CBD paradigm because it is responsible for the component integration, achieving the final system's desired quality requirements, such as dependability and distribution. However, there is a lack of consensus among the concepts, terms, and definitions used in the software architecture and CBD paradigms, hindering the integration of techniques and tools. Existing software architecture environments and tools do not support all the phases involved in CBD process, normally do not generate architecture implementations and do not implement the main CBD concepts, e.g. specification of provided and required interfaces. CBD tools and environments, in general, use UML modeling and do not cover the main software architecture concepts, e.g. architectural styles and architectural connectors. In this work, we propose a software infrastructure to construct component-based software architectures. It has been built as a set of tools that extend the Eclipse integrated development environment. These tools were constructed based on an integrated conceptual metamodel for software architectures and CBD. This metamodel defines and relates the main concepts of the two paradigms. The infrastructure is included in the Bellatix environment, an integrated development environment that supports CBD with emphasis on software architecture. The tools support the construction of component-based software architectures since the specification phase, through the design, until its materialization in code. The component model used is COSMOS, a component implementation model that materializes the elements of a software architecture using the concepts available in object-oriented programming languages. In Bellatix environment, the adopted programming language is Java / Mestrado / Sistemas de Informação / Mestre em Ciência da Computação
14

Proposta de metodologia para verificação e validação software de equipamentos eletromédicos / Proposed methodology for verification and validation of medical electrical equipment

Viviani, Carlos Alessandro Bassi 19 August 2018 (has links)
Orientador: Vera Lúcia da Silveira Nantes Button / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-19T17:47:06Z (GMT). No. of bitstreams: 1 Viviani_CarlosAlessandroBassi_M.pdf: 2757752 bytes, checksum: d214acf48f75ac539aed913dc8547646 (MD5) Previous issue date: 2011 / Resumo: Hoje boa parte dos equipamentos eletromedicos (EEM) possui algum tipo de controle realizado por software; esse controle pode ser restrito a um ou mais subsistemas do equipamento, ou ainda ser total. A partir do momento em que o software representa papel fundamental no controle de EEM ele deixa de ser um risco intrinseco do equipamento e deve ser analisado com o mesmo rigor e criterio da analise do hardware do equipamento. A analise rigorosa dos equipamentos e concentrada no funcionamento do hardware em si e nao esta associada aos sistemas de controle, que sao feitos por softwares de controle. Uma quantidade significativa de software critico e desenvolvida por pequenas empresas, principalmente na industria de dispositivos medicos. Esse trabalho teve como objetivo primario apresentar uma proposta de metodologia para organizar o processo de teste do software de controle dos EEM, bem como definir toda a documentacao necessaria para a gerencia desse processo de teste tomando como base a norma IEEE 829:2008. Essa metodologia, que prioriza a realizacao de testes sistematicos, podera ser empregada para a verificacao e validacao dos softwares de controle de qualquer tipo de EEM, e esta dividida em duas partes fundamentais: Processo de Teste e Geracao de Documentos. Essa metodologia foi aplicada em um monitor cardiaco hospitalar comercial a fim de valida-lo e, como isso, pode garantir que o equipamento atendeu os requisitos do fabricante e principalmente da norma ao qual ele esta sujeito, e dessa forma considerou o equipamento seguro para uso clinico do ponto de vista da seguranca do software. A obtencao de todo o conteudo necessario para o processo de teste foi feita atraves do manual de utilizacao do EEM, das especificacoes tecnicas apontadas pelo fabricante e das especificacoes definidas na norma especifica do EEM que estao sujeitos a certificacao compulsoria prevista na Resolucao no. 32 da ANVISA. Como resultado dessa pesquisa foi gerado um conjunto de documentos, baseados na IEEE 829:2008, que foram utilizados desde o planejamento dos testes ate o registro dos resultados. Esses documentos sao: 1) Plano de Teste, que e uma modelagem detalhada do fluxo de trabalho durante o processo de teste; 2) Especificacao do Projeto de Teste, que refina a abordagem apresentada no Plano de Teste e identifica as funcionalidades e caracteristicas que foram testadas pelo projeto e por seus testes associados; 3) Especificacao dos Casos de Teste, que definiu os casos de teste, incluindo dados de entrada, resultados esperados, acoes e condicoes gerais para a execucao do teste; 4)Especificacao do Procedimento de Teste, que especificou os passos para executar um conjunto de casos de teste; 5) Diario de Teste, apresentou os registros cronologicos dos detalhes relevantes relacionados a execucao dos testes; 6) Relatorio de Incidente de Teste, documentou os eventos que ocorreram durante a atividade de teste e que precisaram de uma analise posterior; e 7) Relatorio resumo de Teste, apresentou, de forma resumida, os resultados das atividades de teste associadas com uma ou mais especificacoes de projeto de teste e realizou as avaliacoes baseadas nesses resultados. Dessa forma, como objetivos secundarios, foram apresentados os processos e os agentes envolvidos na certificacao de EEM no Brasil e no mundo. Na literatura foram encontrados diversos problemas com os EEM devidos, principalmente, a erros encontrados em seu software de controle. A partir dessas observacoes foram apresentados os reguladores de EEM no Brasil e como e feito o processo de certificacao, comercializacao e vigilancia pos-venda destes produtos. Para apontar os problemas que sao encontrados e documentados referentes aos EEM foi apresentado o conceito de recall e tambem como esse processo ocorre no Brasil e no mundo. A partir desta problematica foram apresentadas as normas aplicadas ao desenvolvimento de software englobando desde o processo de qualidade ate o processo final de teste onde o software de fato sera validado a fim de garantir que novos problemas relacionados aos equipamentos nao voltem a ocorrer. Como resultado primario deste trabalho teve-se a geracao dos documentos que serviram como base para o processo de teste, desde seu planejamento ate a execucao e o registro das atividades de teste. Essa documentacao consistiu em um modelo macro que podera ser aplicado em qualquer EEM. A partir da documentacao proposta pode-se realizar sua aplicacao em um monitor cardiaco hospitalar para sua verificacao (estudo de caso). Os testes funcionais aplicados aos sistemas embarcados do monitor cardiaco puderam ser considerados eficazes em diversas condicoes de uso simuladas, normais e tambem criticas ou que poderiam apresentar algum risco aos usuarios dos equipamentos. Esse estudo resultou em uma importante contribuicao para a organizacao do processo de verificacao e validacao de software de controle de EEM. A aplicacao desta proposta no monitor cardiaco sob teste pode realizar sua verificacao e validacao do ponto de vista de qualidade do software de controle, uma vez que nao apresentou defeitos, apenas um tipo uma falha considerada leve o que qualifica tal monitor cardiaco como apto para utilizacao segura / Abstract: Today a great part of electromedical equipments (EME) have some kind of control performed by software. This control can be restrict to one or more subsystems of the equipment or yet be total. Since software became a key factor in the EME control it represents an intrinsic risk and must be analyzed with the same accuracy and criterion of the equipment's hardware analysis. The rigorous analysis of the equipments is concentrated in the functioning of the hardware itself and is not associated to the software control systems. A significant amount of critical software is developed by small enterprises mainly in the EME industry. This study had as main goal to present a methodology proposal to organize the process of EME control software test as well as to define all necessary documentation for the management of this test process using the standard IEEE 829:2008. As a secondary goal of this work, the processes and agents involved in the EME certification in Brazil and in the world were reported. Several EME malfunctioning problems especially due to mistakes found in their control software were found in literature. Brazilian EME regulators and how the process of certification, commercialization and post-market surveillance of the medical products are done, were also reported. To point the problems found and documented regarding EME, the concept of recall was presented and also how this process occurs in Brazil and in the world. The proposed methodology, which prioritizes the achievement of systematic tests, can be used for verification and validation of any kind of EME control software and was divided in two fundamental parts: test process and generation of documents. The methodology was applied to a commercial hospital heart monitor in order to validate it and therefore to guarantee that the equipment has complied with the manufacture's requirements and with the standard it is subjected to. This way the equipment can be considered safe for clinical use from the software's security point of view. Some characteristics data and technical specifications, necessary for the test process, were obtained through the EME user manual and pointed by the manufacturer and EME standard specification, which are subject to compulsory certification provided by the ANVISA Brazilian resolution number 32. As a result of this research a set of documents was produced, based on the IEEE 829:2008 standard and were used from the test planning until the results record. Those documents are: 1) Test plan - detailed modeling of workflow during the test process. 2) Specification of test project - refines the approach presented in the test plan and identifies the functionalities and characteristics tested by project and associated tests. 3) Specification of test cases - specified steps to execute a set of test cases. 5) Test board - presented the chronological records of relevant details related to test execution. 6) Test incident report - documents the events occurred during the test activity that needed later analysis and 7) Test summary report - resumes briefly the results of test activities associated to one or more test project specifications and performed evaluations based on these results. As a primary result of this work there was the production of documents that were the basis for the testing process, from planning to execution and recording of test activities. This documentation consisted of a macro model that can be applied to any EME and it was used to test a hospital heart monitor. The functional tests applied to the heart monitor embedded systems were considered effective in various simulated situations, normal and critical or that could represent a risk to users of the equipment. This study resulted in an important contribution to the organization of the process of verification and validation of EME control software. The implementation of the proposed methodology on the heart monitor test was able to perform verification and validation from the point of view of control software and it was considered safe to be used since only a light kind of failure was observed / Mestrado / Engenharia Biomedica / Mestre em Engenharia Elétrica e de Computação
15

Geração de dados de teste orientada à diversidade com o uso de meta-heurísticas / Diversity oriented test data generation using meta-heuristic techniques

Bueno, Paulo Marcos Siqueira 21 August 2018 (has links)
Orientador: Mario Jino / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-21T11:18:41Z (GMT). No. of bitstreams: 1 Bueno_PauloMarcosSiqueira_D.pdf: 3369612 bytes, checksum: e346274c745a489e77b074c57b0c1c78 (MD5) Previous issue date: 2012 / Resumo: Técnicas e critérios de teste de software estabelecem elementos requeridos a serem exercitados no teste. A geração de dados de teste visa selecionar dados de teste, do domínio multidimensional de entrada do software, para satisfazer um critério. Uma linha de trabalhos para a geração de dados de teste utiliza meta-heurísticas para buscar, no espaço de possíveis entradas do software, aquelas que satisfaçam um determinado critério, área referida como Teste de Software Baseado em Buscas. Esta tese propõe uma nova técnica, a Geração de Dados de Teste Orientada à Diversidade (Diversity Oriented Test Data Generation - DOTG). Esta técnica incorpora a intuição, encontrada em bons projetistas de teste, de que a variedade, ou diversidade, dos dados de teste tem um papel relevante para a completeza, ou qualidade, do teste realizado. São propostas diferentes perspectivas para a diversidade do teste; cada perspectiva leva em consideração um tipo de informação distinto para avaliar a diversidade. É definido também um meta-modelo para guiar o desenvolvimento das perspectivas da DOTG. É desenvolvida a perspectiva do domínio de entrada do software para a diversidade (DOTG-ID), que considera a posição dos dados de teste neste domínio para calcular a diversidade do conjunto de teste. São propostas uma medida de distância entre dados de teste e uma medida de diversidade de conjuntos de teste. São desenvolvidas três meta-heurísticas para a geração automática de dados de alta diversidade: a SA-DOTG, baseada em Recozimento Simulado; a GA-DOTG, baseada em Algoritmos Genéticos; e a SR-DOTG, baseada na dinâmica de sistemas de partículas eletricamente carregadas. A avaliação empírica da DOTG-ID inclui: uma simulação Monte Carlo, realizada com o objetivo de estudar a influência de fatores na eficácia da técnica; e um experimento com programas, realizado para avaliar o efeito da diversidade dos conjuntos de teste na cobertura alcançada, medida com respeito a critérios de teste baseados em análise de fluxos de dados e no critério baseado em defeitos Análise de Mutantes. Os resultados das avaliações, significativos estatisticamente, indicam que na maioria das situações os conjuntos de alta diversidade atingem eficácia e valores de cobertura maiores do que os alcançados pelos conjuntos gerados aleatoriamente, de mesmo tamanho / Abstract: Software testing techniques and criteria establish required elements to be exercised during testing. Test data generation aims at selecting test data from the multidimensional software's input domain to satisfy a given criterion. A set of works on test data generation apply metaheuristics to search in the space of possible inputs for the software for those inputs that satisfy a given criterion. This field is named Search Based Software Testing. This thesis proposes a new technique, the Diversity Oriented Test Data Generation - DOTG. This technique embodies the intuition, which can be found in good testers, that the variety, or diversity, of test data used to test a software has some relation with the completeness, or quality, of the testing performed. We propose different perspectives for the test diversity concept; each one takes into account a different kind of information to evaluate the diversity. A metamodel is also defined to guide de development of the DOTG perspectives. We developed the Input Domain perspective for diversity (DOTG-ID), which considers the positions of the test data in the software input domain to compute a diversity value for the test sets. We propose a measure of distance between test data and a measure of diversity of test sets. For the automatic generation of high diversity test sets three metaheuristics were developed: the SA-DOTG based on Simulated Annealing; the GADOTG based on Genetic Algorithms, and the SR-DOTG, based on the dynamics of particle systems electrically charged. The empirical evaluation of DOTG-ID includes: a Monte Carlo simulation performed to study the influence of factors on the technique's effectiveness, and an experiment with programs, carried out to evaluate the effect of the test sets diversity on the attained coverage values, measured with respect to data-flow coverage and to mutation coverage. The evaluation results statistically significant, pointing out that in most of cases the test sets with high diversity reach effectiveness and coverage values higher than the ones reached by randomly generated test sets of the same size / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
16

Instrumentação configuravel e incremental de programas

Carniello, Andreia 03 August 2018 (has links)
Orientadores : Mario Jino, Marcos Lordello Chaim / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T04:01:44Z (GMT). No. of bitstreams: 1 Carniello_Andreia_M.pdf: 318669 bytes, checksum: 79cdb4d9c99ea9254b12a1bda9ad3810 (MD5) Previous issue date: 2003 / Mestrado
17

Teste baseado na estrutura de casos de uso

Carniello, Adriana 03 August 2018 (has links)
Orientadores: Mario Jino, Marcos Lordello Chaim / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-03T06:19:35Z (GMT). No. of bitstreams: 1 Carniello_Adriana_M.pdf: 8740936 bytes, checksum: c2da88ff8d7b4fb70fb249b3c1c6f714 (MD5) Previous issue date: 2003 / Mestrado
18

Projeto e validação de software automotivo com o método de desenvolvimento baseado em modelos / Automotive software project and validation with model based design

Nunes, Lauro Roberto 07 July 2017 (has links)
Os veículos automotivos pesados possuem funcionalidades particulares e aplicação em ambiente agressivo. Para garantir melhores desempenho, segurança e confiabilidade aos equipamentos eletrônicos embarcados, é necessário o aperfeiçoamento dos métodos e processos de desenvolvimento de software embarcado automotivo. Considerando a metodologia de desenvolvimento baseada em modelos (MBD) como um método em ascensão na indústria automotiva, este trabalho pesquisa contribuições nas atividades de engenharia de requisitos, otimização e validação do software, de forma a comprovar a eficácia do método e ferramentas utilizadas na busca pela qualidade final do produto (veículo comercial pesado). A base do trabalho refere-se à aplicação dos conceitos de integração de requisitos à simulação (MIL - Model in the Loop), comparação da otimização do software gerado automaticamente entre ferramentas comuns (IDE’s) e as baseadas em modelo, validação e cobertura do software gerado e uma forma alternativa de aumento da cobertura do código testado. / The automotive heavy-duty vehicles have particular functionalities and aggressive environment application. To ensure better performance, safety and reliability to electronic embedded equipment, it is necessary to invest in methods and process improvements in automotive software development. Considering Model Based Design (MBD) as an ascending development method in automotive industry, this work looks towards contributions in requirements engineering, software optimization and validation, in order to prove the method and tools efficiency in the final product quality (heavy-duty vehicle). This work refers to the appliance of requirement engineering integration to the simulation (MIL - Model in the Loop), comparison between optimization in usual programming tools (IDE’s) and Model Based Design tools, validation and software code coverage, and an alternative way of increasing code coverage of a tested code.
19

Uma contribuição ao teste baseado em modelo no contexto de aplicações móveis / A contribution to the model-based testing in the context of mobile applications

Farto, Guilherme de Cleva 08 March 2016 (has links)
Devido ao crescente número e diversidade de usuários, novas abordagens de teste são necessárias para reduzir a ocorrência de defeitos e garantir uma melhor qualidade em aplicações móveis. As particularidades desse tipo de software exigem que as técnicas de teste tradicionais sejam revisitadas e novas abordagens propostas. A natureza direcionada a eventos e as funcionalidades de aplicações móveis demandam que os testes sejam executados de maneira automatizada. O Teste Baseado em Modelo (TBM) apresenta-se como uma abordagem válida e promissora que oportuniza o uso de um processo definido, bem como de mecanismos e técnicas formais para o teste de aplicações móveis. Esta dissertação de mestrado tem como objetivo investigar a adoção de TBM junto à técnica de modelagem Event Sequence Graph (ESG) no teste de aplicações móveis para a plataforma Android. Inicialmente, o TBM é avaliado com o apoio de ESG e da ferramenta Robotium. Com base nos resultados obtidos e desafios identificados, propõe-se uma abordagem específica que fundamenta o reuso de modelos de teste para (i) reduzir o esforço manual demandado na etapa de concretização de casos de teste e (ii) testar distintas características inerentes ao contexto de mobilidade. Uma ferramenta de apoio foi projetada e desenvolvida para automatizar a abordagem proposta. Um estudo experimental em ambiente industrial é conduzido para avaliar a abordagem e a ferramenta propostas quanto à efetividade na redução do esforço requisitado para a concretização, bem como à capacidade de detecção de defeitos em aplicações móveis desenvolvidas na plataforma Android. / Due to the increasing number and diversity of users, new testing approaches are necessary to reduce the presence of faults and ensure better quality in mobile applications. The particularities of this class of software require that traditional testing techniques are revisited and new approaches proposed. The event oriented nature and functionalities of mobile applications demand tests that can be performed automatically. Model-Based Testing (MBT) is a valid and promising approach that favors the use of a defined process, as well as mechanisms and formal techniques for the testing of mobile applications. This dissertation investigates the odoption of MBT along with the modeling technique Event Sequence Graph (ESG) to test Android applications. Initially, we evaluate TBM supported by ESG and the Robotium tool. Based on the results and challenges identified, we propose a specific approach underlying the reuse of test models to (i) reduce the manual effort to the concretization of test cases and to (ii) test different and inherited characteristics of the mobility context. A supporting tool was designed and implemented to automate the proposed approach. Finaly, we conducted an experimental study in an industrial environment to evaluate the proposed approach and tool regarding the effectiveness in reducing the concretization’s efforts, as well as the fault detection capability in Android mobile applications.
20

Processo para monitoramento de projetos distribuídos de software / Process for monitoring of software distributed projects

Souza, Vanessa Faria de 15 March 2016 (has links)
Contexto: É progressivo e significativo o número de empresas que estão distribuindo seus processos de produção de software ao redor do mundo visando ganhos de produtividade, redução de custos e melhorias na qualidade. Por isso, o Desenvolvimento Distribuído de Software (DDS) tem suscitado grande número de pesquisas na área de engenharia de software nos últimos anos e, os engenheiros, em reconhecimento à grande influência desta forma de trabalho, estão em busca de modelos e processos que facilitem produção de software, com equipes geograficamente dispersas. Além dos engenheiros, gerentes e executivos têm enfrentado desafios e dificuldades em diferentes níveis, envolvendo fatores gerenciais, em especial quanto ao monitoramento de projetos. O monitoramento de projetos de software é determinante para que se obtenha êxito em seu desenvolvimento. Quanto ao desenvolvimento de software, uma técnica que conquistou destaque é o Kanban, empregado junto à metodologias ágeis, neste sentido, é possível ressaltar também o uso de Business Process Model and Notation (BPMN) em modelos que presam pelo gerenciamento e monitoramento de projetos. Objetivo: Nesta perspectiva, o objetivo desta dissertação de mestrado é comprovar a seguinte hipótese: “Um projeto distribuído de software pode ter o cronograma de suas atividades monitoradas, por meio de um processo que aplique a técnica do Kanban e a modelagem BPMN”. Para tal, foi implementado um processo que aplica a técnica mencionada, junto à notação, como instrumento para a validação da hipótese. Métodos e Procedimentos: Com o propósito de comprovar a referida hipótese, foi utilizado o método experimental, o qual contou com 82 participantes, que trabalharam distribuidamente. Resultados: Após a realização do experimento, foram sistematizadas as informações; estes revelaram que a hipótese supracitada é válida, por conseguinte o processo proposto, que aplica as técnicas do Kanban e a modelagem BPMN, é efetivo no monitoramento do cronograma das atividades em um projeto distribuído. Espera-se que, com este resultado, a técnica Kanban, pouco explorada no DDS seja vista como vantajosa, por gerentes de projetos distribuídos, deste modo também melhorar o monitoramento das atividades em projetos desta natureza, e ampliar os materiais de pesquisa na área. / Context: It is progressive and significant number of companies that are distributing their software production processes around the world aiming gatasting productivity, reduced costs and improved quality. Therefore, the Development Distributed Software (DDS) has attracted large number of pesquisas in software engineering in recent years, and engineers, in recognition of the great influence of this form of work, they are looking for models and processes that facilitate production software, with geographically dispersed teams mind. In addition to engineers, managers and executives have faced challenges and difficulties, at different levels, involving managerial factors in spe cial as the project monitoring. Monitoring of software projects is crucial in order to obtain success in its development. As for the development of software, a technique that gained prominence is the Kanban inpreached by the agile methodologies, in this sense, it is also possible to emphasize the use of Business Process Model and Notation (BPMN) models that presam for managing and project monitoring. Objective: In this perspective, the objective of this master thesis is to prove the following hypothesis: "A software distributed design can have cronograma of their activities monitored through a process to apply the technique of Kanban and modeling BPMN. " To this end, it implemented a process that applies the aforementioned technique, with the notation as a tool to validate the hypothesis. Methods and Procedures: In order to prove that mortgage is, we used the experimental method, which was attended by 82 participants, who tra-balharam dis-tribuidamente. Results: After the experiment, were systematized intraining; These revealed that the above hypothesis is valid, therefore the proposed process, which applies the techniques of Kanban and BPMN modeling is efftive in monitoring the schedule of activities in a distributed project. Espear that, with this result, Kanban technique, little explored in DDS is seen as advantageous for project managers distributed thus also me lhorar monitoring activities in projects of this nature, and expand the materials research in the area.

Page generated in 0.053 seconds