• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3309
  • 86
  • 67
  • 64
  • 64
  • 50
  • 46
  • 16
  • 12
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • Tagged with
  • 3489
  • 1081
  • 439
  • 346
  • 342
  • 330
  • 314
  • 309
  • 280
  • 240
  • 211
  • 202
  • 196
  • 185
  • 179
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Neurotoxicidade e hepatotoxicidade induzidas pela exposição in vitro ao chorume de aterro sanitário em ratos e camundongos

Bertoldi, Karine January 2012 (has links)
Atualmente, ocorre um grande aumento na geração de resíduos sólidos como consequência do crescimento populacional, juntamente com a expansão da industria. O manejo inadequado dos resíduos sólidos gerados pode afetar a saúde pública e o meio ambiente. Neste contexto, os aterros sanitários são uma alternativa adequada de destinação destes resíduos, no entanto a confinação seguida pela decomposição dos resíduos gera um efluente líquido denominado chorume. O chorume é um líquido escuro de odor desagradável e com alta carga de compostos orgânicos o qual, sem tratamento correto pode causar a poluição das águas subterrâneas e adjacentes. Estudos prévios demonstram uma relação entre a exposição ao chorume e o aumento de radicais livres e índices de lipoperoxidação em diferentes órgãos, inclusive no cérebro e fígado de roedores. Portanto, o estresse oxidativo pode ser um mecanismo bioquímico relacionado à toxicidade de xenobióticos como o chorume de aterros sanitários. A partir dessas informações torna-se necessária a busca por formas de tratamento eficientes para os agentes potencialmente tóxicos presentes no chorume. Uma alternativa de tratamento são os Processos Oxidativos Avançados (POAs) como o tratamento fotoeletrooxidativo que possui elevada capacidade e velocidade de degradação. O objetivo deste trabalho foi avaliar a neurotoxicidade e hepatotoxicidade induzidas pela exposição in vitro ao chorume de aterro sanitário em roedores. Além disso, o chorume submetido ao tratamento fotoeletrooxidativo também foi testado em roedores para avaliar a eficiência do tratamento. Nossos resultados demonstraram que o chorume pode induzir estresse oxidativo em estruturas cerebrais e fígado tanto em camundongos quanto em ratos. Nós também observamos que o hipocampo é menos vulnerável ao dano oxidativo induzido pelo chorume do que o estriado e o cerebelo. No entanto, o estriado e o cerebelo, são mais suscetíveis ao dano quando comparados ao fígado. O chorume submetido ao tratamento fotoeletrooxidativo também induziu estresse oxidativo, principalmente, no estriado e no fígado e diminuiu a atividade da enzima glutationa S-transferase no estriado. Adicionalmente, nós podemos sugerir que a fotoeletrooxidação foi incapaz de alterar eficientemente os compostos tóxicos presentes no chorume. / In the last decades, the solid waste has been increasing by great amounts due to world’s population growth together with the expansion of the industrialization. The inadequate treatment of the solid waste constitutes an important environmental problem and can affect the public health. In this context, the landfills are an appropriate alternative for the destination of the waste; however, the confinement followed by decomposition of the solid waste produce a liquid efluent known as leachate. Leachate is a dark liquid formed within landfills with elevated concentrations of chemical compounds. The absense of its treatment may cause severe pollution to the groundwater aquifer and to the adjacent surface waters. Previous studies demonstrated a relationship between the leachate exposure and the increase of free radicals and lipid peroxidation in different organs of rodents, including the brain and liver. Therefore, oxidative stress may be a biochemistry mechanism related to toxicity of xenobiotics such as landfill leachate. In view of the toxicity induced by leachate, the development of new technologies of treatment becomes necessary. In this context, one of the alternatives are the Advanced Oxidation Processes such as the photoelectrooxidative process which is formed by combination of two methods and has a high capacity and speed of degradation. The aim of this study was to evaluate the neurotoxicity and hepatotoxicity induced by in vitro exposure to landfill leachate in rodents. Moreover, leachate submitted by the photoelectrooxidative process was tested in rodents to evaluate the efficiency of the treatment. Our results showed that the landfill leachate can induce oxidative stress in brain structures and liver in both rats and mice. Additionally, we observed that the hippocampus is less vulnerable to oxidative stress induced by leachate when compared to striatum and cerebellum. However, brain structures are more susceptible to oxidative damage compared to liver. Leachate submitted to photoelectrooxidative process also induced increase on oxidative parameters in different structures evaluated, and decreased the glutathione S-transferase activity in striatum. Finally, we can suggest that photoelectrooxidation was unable to alter efficiently the toxic compounds presents in leachate.
372

Comparação via simulação dos estimadores clássicos e bayesianos no modelo de coeficientes aleatórios para dados longitudinais

Leotti, Vanessa Bielefeldt January 2007 (has links)
Frequentemente em pesquisas médicas ou epidemiológicas, múltiplas medidas de um mesmo sujeito são tomadas ao longo do tempo, caracterizando um estudo com dados longitudinais. Nos últimos anos, a técnica estatística que tem sido mais utilizada para a análise desses estudos é o modelo misto, pois este permite incorporar a provável correlação das observações de um mesmo indivíduo e é flexível para lidar com situações de desbalanceamento e dados faltantes. Um modelo misto muito utilizado nesses casos é o modelo de coeficientes aleatórios, que permite que a relação da variável resposta com o tempo seja descrita através de uma função matemática. Há duas abordagens para se analisar o modelo misto: clássica e Bayesiana. Para se aplicar o método Bayesiano nesse caso, deve-se utilizar um dos métodos MCMC, já que a distribuição a posteriori não é analiticamente derivável. O método MCMC utilizado neste trabalho foi o Amostrador de Gibbs. As duas abordagens podem levar a resultados diferentes, deixando o pesquisador em dúvida sobre qual método utilizar. Poucos estudos compararam a abordagem clássica e a Bayesiana para a análise de dados longitudinais via modelos mistos. O objetivo deste trabalho é proceder a um estudo de simulação, para comparar estas abordagens em termos de vício e precisão. Compararam-se os estimadores Bayesianos média, moda (estimada não-parametricamente) e mediana a posteriori e o estimador clássico obtido pelo método REML. Simulou-se um modelo que envolve efeito de tempo e de uma covariável denominada tratamento, assumindo a estrutura Componentes de Variância para as duas matrizes de covariâncias do modelo misto. Diferentes configurações de tamanho de amostra e desbalanceamento foram adotadas, para avaliar o desempenho dos métodos frente a essas situações. Em cada uma das configurações, foram realizadas 1000 replicações no software R. As maiores diferenças encontradas foram em relação a alguns componentes de variância, sendo que pelo menos um dos estimadores Bayesianos apresentou erro quadrático médio menor do que o estimador clássico em todas as configurações. Não foi possível identificar um único estimador Bayesiano como sendo o melhor para todos os casos estudados. A moda mostrou-se um estimador com boas propriedades em algumas situações e por isso sugere-se que o mesmo seja implementado no software WinBUGS. / Frequently in medical or epidemiologic research, multiple measures of the same subject are observed over the time. This characterizes a study with longitudinal data. In the last years, the statistical technique that has been used in the analysis of these studies is the mixed model, because it permits to model the probable correlation between the observations of the same individual, and it handles well with situations of unbalanceament and missing data. A mixed model that has been used in these cases is the random coefficients model. It allows the relationship between the response variable and the time to be described through a mathematical function. There are two approaches to analyze mixed models: the classical and the Bayesian methods. In order to apply the Bayesian inference in this case, the MCMC methods have to be used, because the posterior distribution is not analytically derivable. The MCMC method used in this work was the Gibbs Sampler. The two approaches may produce different results, and because of that the researcher may be in doubt of what method to use. In the literature, there are few studies that compare the classical and the Bayesian approach in the analysis of longitudinal data using mixed models with an analytical way. So, the objective of this work is to proceed a simulation study to compare the Bayesian and classical inferences in terms of bias and precision. The Bayesian estimators posterior mean, (non-parametric) mode and median, and the classical estimator obtained by the REML method were compared. We simulated a model that involves the effects of time and a covariable named “treatment”, and that assumes a Variance Components structure for the two covariance matrices of the mixed model. Different configurations of sample size and unbalanced data were adopted, to see the performance of the methods with these situations. In each of these configurations, 1000 replications were proceeded in the R software. The main differences founded were in the estimation of the variance components of the random effects. For these parameters, one of the Bayesian estimators had lower mean square error than the classical in all of the configurations. It was not possible to identify one best Bayesian estimator in all the cases studied. The mode seems an estimator with good properties in some situations and because of that it should be implemented in the WinBUGS software.
373

EvolUniT: geração e evolução de testes de unidade em java utilizando algoritmos genéticos

SILVA, Davi Augusto Gadêlha 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:51:11Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Este trabalho apresenta a ferramenta EvolUniT (Evolutionary Unit Testing), uma ferramenta para automatização de testes de unidade de código orientado a objetos (classes Java). A EvolUniT recebe como entrada uma classe Java a ser testada; gera uma classe de teste usando o framework JUnit; gera dados (parâmetros de construtores e métodos) inicialmente aleatórios para compor os casos de teste; e utiliza um Algoritmo Genético (AG) para evoluir os dados, de acordo com uma função de aptidão criada com base nas coberturas de código capturadas. A evolução dos dados se dá através de sucessivas execuções da classe sendo testada, até que um número máximo de gerações do AG seja atingido ou que uma cobertura máxima pré-definida seja atingida. A ferramenta foi implementada em Java, em forma de plug-in do Eclipse. A ferramenta proporciona uma semi-automação de testes de unidade, ao invés de automação completa, pois em alguns casos, o engenheiro de software ou de testes precisará complementar manualmente as classes de teste geradas. A vantagem desta semiautomação é que o conhecimento do desenvolvedor ou testador será acrescido aos testes gerados pela ferramenta, possibilitando assim melhores resultados. Foram realizados três estudos para avaliar a EvolUniT, e os resultados alcançados foram satisfatórios. A EvolUniT traz contribuições para duas áreas diferentes. Para a Engenharia de Software, com a semi-automação do processo de testes de unidade, reduz-se significativamente o tempo e o esforço por parte dos desenvolvedores, já que estes passam a usar seus conhecimentos para configurar a ferramenta, ao invés de escrever as classes de teste. Para a área de Computação Inteligente, a contribuição é na utilização de uma técnica de otimização evolutiva, os Algoritmos Genéticos, para resolver o problema da escolha de bons dados para testes estruturais, que nem sempre é bem resolvido por algoritmos convencionais ou técnicas aleatórias
374

Balanced testing scorecard: um modelo para avaliação e melhoria de desempenho de equipes de testes de software

Oliveira Nóbrega, Rafael 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:54:14Z (GMT). No. of bitstreams: 2 arquivo1969_1.pdf: 2882917 bytes, checksum: 36ee907cc40f94325100a5c06710405e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / A realização de testes é uma atividade vital para o desenvolvimento de software com qualidade. Muitas empresas têm investido alto visando a melhoria do desempenho das equipes de testes. Para ajudar na satisfação deste objetivo, os modelos de maturidade de testes são ferramentas bastante utilizadas atualmente. Porém, segundo James Bach (1994), estes modelos não são populares entre empresas desenvolvedoras de software altamente competitivas e inovadoras porque, entre outros motivos, encorajam as organizações a utilizarem objetivos que realizam uma missão fictícia de "atingir um maior nível de maturidade", ao invés de realizar a missão definida pela própria organização. O que, segundo ele, geralmente impede que a empresa utilize seus recursos da melhor maneira possível. Desta forma, esta dissertação propõe o modelo Balanced Testing Scorecard (BTSC) para avaliação e melhoria do desempenho de equipes de testes, que usa como base o Balanced Scorecard (KAPLAN & NORTON, 2004) e modelos de maturidade de testes (ERICSON et al., 1998) (SOGETI, 2008) (BURNSTEIN et al., 1996a, 1996b). O BTSC é capaz de alinhar os objetivos da organização e dos seus clientes, com os objetivos dos modelos de maturidade de testes, a fim de melhorar seu desempenho. O modelo foi refinado por especialistas de testes e aplicado em uma equipe de testes. Os resultados mostraram resultados concretos para a avaliação do desempenho da equipe, além dos benefícios já conhecidos dos modelos de maturidade de testes
375

Um framework de conceitos autonômicos para o controle de testes de dispositivos móveis

LINO, Nancy de Lyra 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:56:32Z (GMT). No. of bitstreams: 2 arquivo2946_1.pdf: 2015038 bytes, checksum: dceddcf181710c3c1e503bb121a23eb0 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Diante do dinamismo do mercado de telefonia, fabricantes de dispositivos móveis junto com operadoras vêm buscando acelerar o processo de entrada de novas tecnologias que possibilitem ao usuário final explorar o melhor uso da infra-estrutura. Até bem pouco tempo atrás, um telefone celular tinha como propósito fim a realização apenas de chamadas de voz. Hoje, direcionado pela convergência digital, o próprio mercado visa à miniaturização e uma gama sem fim de novos serviços que podem ser oferecidos, possibilitando que a conexão com a rede esteja sempre online. No entanto, para que a rede e os serviços atendam satisfatoriamente às necessidades dos usuários finais, várias etapas de testes precisam ser feitas, desde a conformidade com a infra-estrutura da rede, interoperabilidade com outras operadoras, funcionamento adequado dos serviços oferecidos, até testes de usabilidade do sistema. Isto faz com que não seja mais viável adotar a prática de testar manualmente todos os casos de testes. Além de custosos, eles demandam tempo e estão vulneráveis a erros humanos. Nesta direção, centros de testes em todo o mundo vêm investindo em ferramentas para tornar o processo mais rápido, dinâmico e automático. Resultados recentes apontam para uma necessidade que possa potencializar a automação, conferindo-lhe algum processo inteligente e elevando-a a um nível de autonomia. Nesta linha, este trabalho de mestrado faz uso da Computação Autonômica (CA) para melhorar o processo de automação no Centro de Testes do CIn/Samsung. A CA foi definida pela IBM e afirma que um sistema capaz de funcionar sozinho ou com o mínimo de intervenção humana é dito autonômico. A Arquitetura Geral dos sistemas em CA proposta pelos seus idealizadores chamou, particularmente, a atenção dos pesquisadores em IA, dada à semelhança com a arquitetura de um Agente Autônomo. Neste sentido, este trabalho estuda a Computação Autonômica como forma de estender as técnicas atuais de automação. A necessidade usual do Centro de Testes CIn/Samsung foi levantada e a lista inicial de requisitos serviu como base para tornar real as propriedades autonômicas a partir de um Sistema Multi-Agentes, executando sem a interferência de um engenheiro e decidindo, por si só, o que fazer para manter a execução dos testes em conformidade com os casos de testes e otimizada. Os resultados obtidos mostraram que o framework proposto pode lidar com vários desafios em tempo real, dentro do domínio de testes de rede de celular, além de ser capaz de dar suporte ao desenvolvimento de processos cognitivos mais complexos. Todas estas vantagens podem ser traduzidas em benefícios reais, como: redução de custos, rápida entrega, qualidade do produto e outros
376

Test Case Selector: Uma Ferramenta para Seleção de Testes

Nereida Dantas Mafra, Juliana 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:48Z (GMT). No. of bitstreams: 2 arquivo2991_1.pdf: 6547364 bytes, checksum: 03ab81c7244ab7c419279c96b7250ff6 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Esta dissertação descreve a ferramenta Test Case Selector (TCS), desenvolvida para auxiliar o usuário a selecionar casos de teste. O Test Case Selector foi desenvolvido no contexto de uma cooperação industrial com a Motorola, onde seleção de testes de regressão não é uma tarefa fácil. Em geral, uma suíte possui milhares de casos de testes e, em um ciclo de regressão, apenas algumas centenas podem ser executados, de acordo com a capacidade dos times de execução. Tal seleção é feita manualmente. O processo de seleção do TCS atribui pontos a cada caso de teste de acordo com 4 critérios de seleção: número de execuções, taxa de falhas por execução, número de defeitos novos encontrados e complexidade do teste. O usuário atribui pesos a cada critério e o TCS calcula uma média ponderada para cada caso de teste. Os casos de teste que mais pontuaram são mais relevantes para o ciclo de regressão. Para avaliar a ferramenta TCS, desenvolvemos uma ferramenta auxiliar de cálculo de métricas e executamos 3 estudos de caso. A métrica M1 calcula a intersecção existente entre as técnicas manual e automática e as métricas M2:1 e M2:2 calculam a efetividade da seleção automática baseado no percentual de casos de teste que acham defeitos e no percentual de defeitos encontrados, respectivamente. O primeiro estudo de caso compara a seleção manual com a seleção automática, o segundo avalia a efetividade da seleção automática realizada pelo TCS e o terceiro ilustra um processo de extração de pesos a partir do histórico de execução. De acordo com os resultados analisados, verificamos que no primeiro estudo de caso, não houve semelhança significativa entre os casos de teste selecionados de forma manual e automática. No segundo estudo de caso, observamos que a efetividade obtida ao considerar pequenos intervalos não foi satisfatória e no terceiro, através do processo de melhoria contínua, conseguimos detectar critérios que foram eficazes no passado e obtivemos resultados mais efetivos. As principais contribuições deste trabalho são: a definição de 4 critérios para seleção de casos de teste caixa-preta baseados em informações históricas e julgamento de especialistas; a implementação de ferramentas para mecanizar a seleção de casos de teste e realizar o cálculo automático das métricas; estudos de caso ilustrando o uso da ferramenta TCS em suítes reais e um processo de seleção de casos de teste baseado em melhoria contínua
377

Verificando a corretude de geradores automáticos de código

SOUSA, Thiers Garretti Ramos 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T15:57:28Z (GMT). No. of bitstreams: 2 arquivo3199_1.pdf: 729356 bytes, checksum: 6c269a282f3e408a30566d12c64fac0e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Os contratos (modelos que descrevem mais detalhadamente a arquitetura e os componentes) podem ser utilizados para a construção de softwares corretos. Esta construção pode ser realizada através do (1) cálculo de refinamento, (2) refinamento da estratégia e (3) fazendo a geração automática de código. Embora (1) e (2) são soluções corretamente comprovadas, eles requerem bastante esforço. Por outro lado, (3) é uma solução mais simples para derivação do código. No entanto, esta solução não pode fornecer um código confiável em relação aos seus contratos (ao menos que se comprove que o gerador de código é correto). Este trabalho propõe uma estratégia de testes baseados em modelos para verificar se determinado gerador de código é correto. A estratégia inicia-se com JML (linguagem baseada em contrato utilizada no Java) usando como estudo de caso o JavaCard, JMLe (um gerador de código baseado em JML) e o Jartege (gerador de testes baseados em modelos). Além disso, através deste trabalho é realizado um experimento onde é investigado o número de erros encontrados no jmle variando os valores do parâmetros do Jartege no nosso estudo de caso
378

Um Modelo para Aferir a Eficiência de Projetos em Fábricas de Testes

ALCHORNE, Renata de Avelar 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:57:57Z (GMT). No. of bitstreams: 2 arquivo3238_1.pdf: 2468405 bytes, checksum: 275bf1943913312ed09987d51dd0b2e1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Em geral, gestores de projetos bem como organizações que prestam serviços na área de testes de software, não têm conhecimento do quão eficiente são seus times devido à escassez de informações para este tipo de atividade. No âmbito das fábricas de testes, algum conhecimento tem sido gerado ao longo dos anos dentro deste modelo de prestação de serviços a fim de verificar de que forma estas organizações podem aumentar sua competitividade através do aumento da sua eficiênca e demosntração de agregação de valor ao cliente dentro do mercado de testes. A real eficiência de um time, de um recurso ou de um projeto deve ser uma medida que contemple diversos fatores e esses devem estar devidamente alinhados aos objetivos estratégicos do cliente de forma a assegurar que o que está sendo medido é o que realmente agrega e que trará resultados concretos para o cliente. Apesar de alguns modelos de avaliação e melhoria de desempenho organizacional poderem ser aplicados neste cenário por se preocupar com o alinhamento estratégico e apresentar método de desdobramento de objetivos em indicadores, não há uma abordagem específica voltada para as necessidades inerentes ao modelo de fábricas de testes. Neste contexto, este trabalho propõe um modelo de aferição da eficiência de projetos em fábricas de testes, o qual se baseia em modelos de avaliação de desempenho organizacionais, porém com foco específico em testes. Ele parte dos objetivos estratégicos da organização até chegar em um índice de eficiência do projeto que englobe os aspectos de influência sobre ele. Para avaliar a aplicabilidade industrial do modelo proposto, foi realizado um estudo de campo com projetos de testes em uma organização real. A partir deste estudo, foram obtidos os índices de eficiência que permitiram a comparação entre os projetos bem como a análise sobre o desempenho dos projetos individualmente
379

Uma abordagem para validação de protocolos de comunicação em ambientes de simulação

Domingues, Marco Antonio de Oliveira January 2004 (has links)
Made available in DSpace on 2014-06-12T15:59:09Z (GMT). No. of bitstreams: 2 arquivo4916_1.pdf: 1434670 bytes, checksum: abaa8d06582fc44f7e90eb4168cc59c9 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Fundação de Amparo à Pesquisa do Estado do Amazonas / O uso de técnicas de simulação para implementar cenários de testes em protocolos de comunicação tem crescido bastante nos últimos anos. Centros de pesquisas acadêmicos e industriais têm dedicado especial interesse em simulação de ambientes com variados graus de complexidade, sobretudo pelo baixo custo e pela rapidez com que os experimentos podem ser implementados, corrigidos, aplicados e reproduzidos em comparação com um ambiente real de operação. Apesar disso, as técnicas de simulação inerentemente envolvem alto nível de abstração na modelagem e mapeamento dos cenários, o que pode comprometer a representatividade e confiabilidade dos resultados obtidos. O arcabouço de testes de conformidade proposto pela ITU-T/ISO através das recomendações OSI-9646 tem sido amplamente utilizado pela indústria de telecomunicações na certificação de seus produtos. Esse arcabouço abrange todas as fases do desenvolvimento dos testes de conformidade, desde planejamento, derivação e implementação do conjunto de testes até a fase de aplicação e análise dos resultados dos testes. O propósito fundamental dos testes de conformidade é verificar se uma implementação se comporta de modo consistente em relação às suas especificações, proporcionando dessa maneira um mecanismo para aumentar o grau de interoperabilidade entre produtos certificados de fabricantes distintos. Para a descrição dos testes, foi definida a linguagem TTCN – Testing and Test Control Notation, cuja característica abstrata permite que um conjunto de testes possa ser integrado a diversas implementações de um mesmo protocolo. Em sua terceira versão, essa linguagem também permite a descrição e implementação de testes de performance e de robustez. Este trabalho propõe adaptar o arcabouço de testes de conformidade como um método de validação de protocolos de comunicação em ambientes de simulação, considerando os aspectos relevantes da modelagem abstrata e permitindo o mapeamento de não-conformidade no cenário de simulação antes da realização dos experimentos, dessa forma, possibilitando aumentar a confiabilidade dos cenários utilizados em simulações de protocolos de comunicação
380

Geração e execução de testes de aceitação de sistemas Web

Henrique da Silva Aranha, Eduardo January 2002 (has links)
Made available in DSpace on 2014-06-12T15:59:19Z (GMT). No. of bitstreams: 2 arquivo5030_1.pdf: 2680874 bytes, checksum: e4a9926df270ffa311253fe6fe777efc (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2002 / A fim de tornar os sistemas Web mais robustos, a construção de testes de softwares Web e sua automação vêm sendo enfatizadas por metodologias de desenvolvimento. A metodologia Extreme Programming (XP), por exemplo, tem destacado a atividade de teste (em particular, os testes de aceitação e de unidade) como uma das práticas de programação chaves para o sucesso de sua implantação, sendo a construção destes testes realizada antes mesmo da implementação do código testado. Apesar de ter suas vantagens reconhecidas, a atividade de teste é na maioria das vezes ignorada ou apenas parcialmente realizada, principalmente quando deixado para o final do desenvolvimento. Sendo mais um esforço para o incentivo da realização de testes de sistemas Web, em particular os testes de aceitação, este trabalho tem como objetivo definir uma linguagem para descrição de casos de teste de aceitação com alto nível de abstração e reuso. Para dar suporte a utilização desta linguagem, objetivamos a criação de um ambiente de execução para a mesma. Além disto, este trabalho também estuda a criação de possíveis geradores de código que possam ser utilizados para amenizar o impacto negativo na produtividade, a curto prazo, causado pela realização dos testes de aceitação. Estes geradores dão suporte a criação destes testes antes da implementação do próprio sistema, prática apresentada pela metodologia

Page generated in 0.0375 seconds