• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 3
  • Tagged with
  • 25
  • 25
  • 25
  • 10
  • 10
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Lyra2: password hashing scheme with improved security against time-memory trade-offs. / LYRA2: um esquema de hash de senhas com maior segurança contra trade-offs entre processamento e memória.

Ewerton Rodrigues Andrade 07 June 2016 (has links)
To protect against brute force attacks, modern password-based authentication systems usually employ mechanisms known as Password Hashing Schemes (PHS). Basically, a PHS is a cryptographic algorithm that generates a sequence of pseudorandom bits from a user-defined password, allowing the user to configure the computational costs involved in the process aiming to raise the costs of attackers testing multiple passwords trying to guess the correct one. Traditional schemes such as PBKDF2 and bcrypt, for example, include a configurable parameter that controls the number of iterations performed, allowing the user to adjust the time required by the password hashing process. The more recent scrypt and Lyra algorithms, on the other hand, allow users to control both processing time and memory usage. Despite these advances, there is still considerable interest by the research community in the development of new (and better) alternatives. Indeed, this led to the creation of a competition with this specific purpose, the Password Hashing Competition (PHC). In this context, the goal of this research effort is to propose a superior PHS alternative. Specifically, the objective is to improve the Lyra algorithm, a PHS built upon cryptographic sponges whose project counted with the authors\' participation. The resulting solution, called Lyra2, preserves the security, efficiency and flexibility of Lyra, including: the ability to configure the desired amount of memory and processing time to be used by the algorithm; and (2) the capacity of providing a high memory usage with a processing time similar to that obtained with scrypt. In addition, it brings important improvements when compared to its predecessor: (1) it allows a higher security level against attack venues involving time-memory trade-offs; (2) it includes tweaks for increasing the costs involved in the construction of dedicated hardware to attack the algorithm; (3) it balances resistance against side-channel threats and attacks relying on cheaper (and, hence, slower) storage devices. Besides describing the algorithm\'s design rationale in detail, this work also includes a detailed analysis of its security and performance in different platforms. It is worth mentioning that Lyra2, as hereby described, received a special recognition in the aforementioned PHC competition. / Para proteger-se de ataques de força bruta, sistemas modernos de autenticação baseados em senhas geralmente empregam algum Esquema de Hash de Senhas (Password Hashing Scheme - PHS). Basicamente, um PHS é um algoritmo criptográfico que gera uma sequência de bits pseudo-aleatórios a partir de uma senha provida pelo usuário, permitindo a este último configurar o custo computacional envolvido no processo e, assim, potencialmente elevar os custos de atacantes testando múltiplas senhas em paralelo. Esquemas tradicionais utilizados para esse propósito são o PBKDF2 e bcrypt, por exemplo, que incluem um parâmetro configurável que controla o número de iterações realizadas pelo algoritmo, permitindo ajustar-se o seu tempo total de processamento. Já os algoritmos scrypt e Lyra, mais recentes, permitem que usuários não apenas controlem o tempo de processamento, mas também a quantidade de memória necessária para testar uma senha. Apesar desses avanços, ainda há um interesse considerável da comunidade de pesquisa no desenvolvimento e avaliação de novas (e melhores) alternativas. De fato, tal interesse levou recentemente à criação de uma competição com esta finalidade específica, a Password Hashing Competition (PHC). Neste contexto, o objetivo do presente trabalho é propor uma alternativa superior aos PHS existentes. Especificamente, tem-se como alvo melhorar o algoritmo Lyra, um PHS baseado em esponjas criptográficas cujo projeto contou com a participação dos autores do presente trabalho. O algoritmo resultante, denominado Lyra2, preserva a segurança, eficiência e flexibilidade do Lyra, incluindo a habilidade de configurar do uso de memória e tempo de processamento do algoritmo, e também a capacidade de prover um uso de memória superior ao do scrypt com um tempo de processamento similar. Entretanto, ele traz importantes melhorias quando comparado ao seu predecessor: (1) permite um maior nível de segurança contra estratégias de ataque envolvendo trade-offs entre tempo de processamento e memória; (2) inclui a possibilidade de elevar os custos envolvidos na construção de plataformas de hardware dedicado para ataques contra o algoritmo; (3) e provê um equilíbrio entre resistância contra ataques de canal colateral (\"side-channel\") e ataques que se baseiam no uso de dispositivos de memória mais baratos (e, portanto, mais lentos) do que os utilizados em computadores controlados por usuários legítimos. Além da descrição detalhada do projeto do algoritmo, o presente trabalho inclui também uma análise detalhada de sua segurança e de seu desempenho em diferentes plataformas. Cabe notar que o Lyra2, conforme aqui descrito, recebeu uma menção de reconhecimento especial ao final da competição PHC previamente mencionada.
12

Engenharia de sistema em redes eusociais. / Systems engineering in eusociais networks.

Fábio Leandro Lazo Sanches 14 September 2010 (has links)
Este trabalho apresenta a abordagem sistêmica, a complexidade e as propriedades emergentes de um sistema de atividades humanas utilizando métodos da Engenharia de Sistemas utilizando como referência para a prova de conceito a metáfora das redes eusociais da Biologia. A análise do sistema foi feita por meio de uma comparação entre as redes eusociais, e as redes de cooperação entre universidades, após esta comparação, que levantou características relevantes para uma comunidade de sucesso, foram aplicados os 7 estágios da metodologia Soft System Methodology para a proposta de um protótipo de uma Rede Temática, aqui analisada como um sistema sociotécnico, abordando a interação entre pessoas e a tecnologia. Nesta prova de conceito foram utilizadas as informações coletadas durante reuniões das partes interessadas. Estas informações foram utilizadas para a criação de um protótipo que foi comparado com a situação real e depois modificado e melhorado pelas partes interessadas. / This work presents a systemic approach, the complexity and emergent properties of a human activities system using systems engineering methods using as reference for the proof of concept, the metaphor of networks eusocial Biology. The analysis system was made through a comparison between the eusocial networks and networks of cooperation between universities, after this comparison, which raised relevant features to a success community, were applied 7 stages of Soft System Methodology for a Thematic Network prototype proposed, here regarded as a sociotechnical system, addressing the interaction between people and technology. In this proof of concept we used the information gathered during meetings with stakeholders. This information was used to create a prototype that was compared with the actual situation and then modified and improved by stakeholders.
13

Um arcabouço conceitual para diagnóstico organizacional a respeito da utilização da automação de testes de software

Rodrigues, Anderson Clayton Barreto, +55 92 988280034 27 February 2018 (has links)
Submitted by ANDERSON RODRIGUES (rodrigues.anderson@gmail.com) on 2018-06-26T16:44:32Z No. of bitstreams: 1 Tese Completa - ANDERSON RODRIGUES.pdf: 5422918 bytes, checksum: 1eaacb8bd2852d4ff7ea5c2c110d76a6 (MD5) / Approved for entry into archive by Secretaria PPGI (secretariappgi@icomp.ufam.edu.br) on 2018-06-26T18:32:13Z (GMT) No. of bitstreams: 1 Tese Completa - ANDERSON RODRIGUES.pdf: 5422918 bytes, checksum: 1eaacb8bd2852d4ff7ea5c2c110d76a6 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-06-26T18:54:36Z (GMT) No. of bitstreams: 1 Tese Completa - ANDERSON RODRIGUES.pdf: 5422918 bytes, checksum: 1eaacb8bd2852d4ff7ea5c2c110d76a6 (MD5) / Made available in DSpace on 2018-06-26T18:54:36Z (GMT). No. of bitstreams: 1 Tese Completa - ANDERSON RODRIGUES.pdf: 5422918 bytes, checksum: 1eaacb8bd2852d4ff7ea5c2c110d76a6 (MD5) Previous issue date: 2018-02-27 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / Software is present in all areas of contemporary life. From simple video games to complex air traffic monitoring systems, the risks involved in software failure have never been so serious. Testing is one of the most effective ways to increase the software quality. However, it is a laborious activity that may account for 20%-50% of the total cost of the software development project. The automation of software testing (AST) may represent a viable alternative for reducing this cost. The main benefits of AST are the decrease in test run time, increased quality, and decreased human error during the test process. However, just 20% of software organizations report having achieved the expected benefits from using AST. This dissertation presents a conceptual framework that aims to help organizations reach the objectives expected with the use of AST. The body of knowledge was constructed through two empirical studies: A systematic review of the literature, aiming to identify and characterize factors and practices that positively influence the use of AST and a survey with experts in software testing to assess relevance and impact identified. Finally, the viability of the proposed framework was evaluated through its application in two software organizations and from the perception of participants through interviews. From the studies conducted, 12 critical success factors (CSF) and 46 practices were identified and evaluated as relevant in the use of AST, among them are: the commitment and qualification of the automation team, the level of software testability and the feasibility of the automation project. Finally, a conceptual framework was developed using CSF assistance as a way to evaluate the knowledge of organizations about AST and therefore to suggest the adoption of practices to assist them in achieving the objectives expected with the use of AST. The results show that meeting critical success factors and adopting good practices contribute to the organizations achieving the expected benefits through the use of software testing automation and that the framework developed is feasible and can assist them in this purpose. / Software está presente em todas as áreas da vida contemporânea. De simples vídeo games a complexos sistemas de monitoramento de tráfego aéreo, os riscos envolvidos na falha de um software nunca foram tão sérios. Testar é uma das maneiras mais efetivas de aumentar a qualidade de um software. No entanto, teste é uma atividade laboriosa que pode ser responsável por 20%-50% do custo total do projeto de desenvolvimento de um software. A automação de testes de software (ATS) pode representar uma alternativa viável para a redução desse custo. Os principais benefícios da ATS são a diminuição no tempo de execução de testes, aumento da qualidade e diminuição de erros humanos durante o processo de teste. No entanto, apenas 20% das organizações relatam ter alcançado os benefícios esperados com a utilização da ATS. Este trabalho apresenta um arcabouço conceitual que visa auxiliar organizações a atingirem os objetivos esperados com a utilização da ATS. O corpo de conhecimento foi construído por meio de dois estudos experimentais: Uma revisão sistemática da literatura, com o objetivo de identificar e caracterizar fatores e práticas que influenciam positivamente na utilização da ATS e um survey com especialistas em testes de software visando avaliar a relevância e o impacto dos FCS identificados. Por fim, a viabilidade do arcabouço foi avaliada por meio da sua aplicação em 2 organizações produtoras de software e da coleta de percepção dos participantes por meio de entrevistas. A partir dos estudos conduzidos, 12 fatores críticos de sucesso (FCS) e 46 práticas foram identificados e avaliados como relevantes na utilização da ATS, entre eles estão: o comprometimento e qualificação da equipe de automação, o nível de testabilidade do software e a viabilidade do projeto de automação. Por fim, um arcabouço conceitual foi desenvolvido utilizando o atendimento de FSC como forma de avaliar o conhecimento de organizações a respeito da ATS e por conseguinte sugerir a adoção de práticas para auxilia-las no atingimento dos objetivos esperados com a utilização da ATS. Os resultados apontam que o atendimento de fatores críticos de sucesso e a adoção de boas práticas contribuem para que as organizações alcancem os benefícios esperados com a utilização da automação de teste de software e que o arcabouço desenvolvido é viável e pode auxilia-las nesse propósito.
14

Regiões de confiança para a localização do ponto estacionário em superfícies de resposta, usando o método "bootstrap" Bayesiano / Confidence region on the location of the stationary point in response surfaces, a Bayesian bootstrap approach

Miquelluti, David José 18 April 2008 (has links)
Experimentos nos quais uma ou mais variáveis respostas são influênciadas por diversos fatores quantitativos são bastante comuns nas áreas agrícola, química, biológica, dentre outras. Nesse caso, o problema de pesquisa consiste em se estudar essa relação, sendo de grande utilidade o uso da metodologia de superfícies de resposta (MSR). Nesse contexto, a determinação dos níveis dos fatores que otimizam a resposta consiste inicialmente na obtenção das coordenadas do ponto estacionário do modelo ajustado. No entanto, como o modelo verdadeiro é desconhecido, é interessante obter uma região de confiança das coordenadas verdadeiras de modo a avaliar a precisão da estimativa obtida. Foram abordados aqui os procedimentos para construção de regiões de confiança para as coordenadas do ponto estacionário em diferentes situações considerando-se a forma das superfícies analisadas e a distribuição e magnitude da variância dos erros do modelo. Foram utilizadas a metodologia de Box e Hunter (1954) (BH), "bootstrap" e "bootstrap" Bayesiano aliados ao cálculo da distância de Mahalanobis entre as coordenadas do ponto estacionários da amostra observada e aquelas obtidas por meio das estimativas "bootstrap"(BM e BBM), e métodos "bootstrap" e "bootstrap" Bayesiano aliados a métodos não paramétricos de estimação de funções densidade de probabilidade (BNP e BBNP). A avaliaçãoda metodologia foi realizada por meio de simulação e foi aplicada a um conjunto de dados de produção de amendoim. No estudo de simulação, a metodologia BH, baseada na distribuição normal dos erros, apresentou um bom desempenho em todas as situações analisadas, havendo concordância entre as regiões de confiança nominais e reais, mesmo naquelas em que essa distribuição é bastante assimétrica. Este mesmo comportamento foi observado para os métodos BM e BBM. No entanto, os métodos BNP e BBNP não apresentaram um desempenho satisfatório, resultando em um nível de significância real menor que o nominal para os autovalores com menor valor absoluto, gerando regiões de confiança maiores. No caso de autovalores com maior valor absoluto observou-se situação inversa. No caso da análise do conjunto de dados de amendoim os métodos BH, BM e BNP apresentaram regiões de confiança mais amplas comparativamente aos métodos BBM e BBNP. No entanto, os valores das estimativas do "bootstrap" Bayesiano são mais próximas das estimativas de mínimos quadrados e apresentam menor dispersão o que explica a menor área da região de confiança. / Experiments in which one or more response variables are influenced by several quantitative factors are very common in agricultural, chemistry, biology and other areas. In this case, the research question consists in studying this relation, being of great utility the use of response surface methodology (RSM). In this context determining the level of the factors that optimize the response consists finding the coordinates of the stationary point of the model. However, as the true model is unknown, it is of interest to obtain a confidence region of the true coordinates to analyze the precision of the obtained estimate. The procedures for the construction of confidence regions for the coordinates of the stationary point were studied in diferent situations, considering the shape of the surfaces analyzed and the distribution and magnitude of the variance errors. The methodology of Box and Hunter (1954) (BH), bootstrap and Bayesian bootstrap with Mahalanobis distance among the coordinates of the stationary point of the observed sample and those obtained using bootstrap estimates(BM and BBM) and bootstrap and Bayesian bootstrap with non-parametric methods for density estimation (BNP and BBNP) were compared. The methodology evaluation was realized by means of simulation and applied to a peanut yields data set. In simulation study the BH methodology, which is based in normal distribution of errors, presented a good performance in all of the analyzed situations, having concordance among the nominal and real confidence regions, even in those which this distribution is fairly asymmetric. This behavior was also observed in BM and BBM methods. The BNP and BBNP methods did not presented a satisfactory performance, resulting in a real significance level lower than the nominal for the eigenvalue with lower absolute value, generating bigger confidence regions. The inverse was observed using eigenvalue with higher absolute value. In the analysis of the peanut yields data set the BH, BM and BNP methods presented confidence regions larger than the BBM and BBNP methods. The Bayesian bootstrap estimate values are closer of the minimum square estimates and present less dispersion what explain the confidence region lower area.
15

Uma infraestrutura de comando e controle de data center para um conjunto de recursos computacionais. / A data center command and control infrastructure for a computing resource ensemble.

Silva, Marcio Augusto de Lima e 30 June 2009 (has links)
O crescimento das necessidades de recursos computacionais gerado por novas classes de aplicações comerciais e científicas apresenta um novo tipo de desafio para infraestruturas computacionais. O acelerado crescimento das demandas por recursos promove um acelerado crescimento no número absoluto de elementos computacionais nestas. Nesse cenário, o provisionamento e a operação de sistemas tornam-se tarefas progressivamente complexas, devido primariamente ao aumento em escala. Este trabalho propõe um modelo para uma infraestrutura computacional que opera como um repositório abstrato de recursos computacionais de tempo de execução com níveis variáveis de consumo. Desenhado para operar como um ensemble (i.e. um conjunto coordenado) de recursos computacionais, grandes números de elementos são agregados em conjuntos de servidores de recursos de processamento, armazenamento e comunicação. O ensemble é concebido e implementado com ampla utilização de tecnologias de virtualização e possui um mecanismo de provisionamento e operação organizado como uma estrutura distribuída de comando e controle (Command and Control, ou C²). A implementação de uma prova de conceito de tal infraestrutura computacional é apresentada, e a validação da proposta é realizada através de uma combinação de resultados experimentais e emulação. / The increase in computing resource needs posed by new classes of commercial and scientific applications presents a new kind of challenge for computing infrastructures. The accelerated growth in resource demand leads to an accelerated growth in the absolute number of computing elements on such infrastructures. In this scenario, the provisioning and systems operations of such elements becomes a progressively complex task, due mainly to the increase in scale. This work proposes a model for a computing infrastructure that operates as an abstract repository of run-time resources with variable levels of consumption. Designed to operate as a computing ensemble, large numbers of elements are aggregated in pools of processing, storage and communication resource servers. The Computing Resource Ensemble is designed with the heavy use of virtualization technologies and has a provisioning and systems operation engine organized as a distributed Command and Control (C2) framework. A Proof of Concept implementation of such computing infrastructure is presented, and the validation of the concept is carried out by a combination of experiments and emulation.
16

Uma infraestrutura de comando e controle de data center para um conjunto de recursos computacionais. / A data center command and control infrastructure for a computing resource ensemble.

Marcio Augusto de Lima e Silva 30 June 2009 (has links)
O crescimento das necessidades de recursos computacionais gerado por novas classes de aplicações comerciais e científicas apresenta um novo tipo de desafio para infraestruturas computacionais. O acelerado crescimento das demandas por recursos promove um acelerado crescimento no número absoluto de elementos computacionais nestas. Nesse cenário, o provisionamento e a operação de sistemas tornam-se tarefas progressivamente complexas, devido primariamente ao aumento em escala. Este trabalho propõe um modelo para uma infraestrutura computacional que opera como um repositório abstrato de recursos computacionais de tempo de execução com níveis variáveis de consumo. Desenhado para operar como um ensemble (i.e. um conjunto coordenado) de recursos computacionais, grandes números de elementos são agregados em conjuntos de servidores de recursos de processamento, armazenamento e comunicação. O ensemble é concebido e implementado com ampla utilização de tecnologias de virtualização e possui um mecanismo de provisionamento e operação organizado como uma estrutura distribuída de comando e controle (Command and Control, ou C²). A implementação de uma prova de conceito de tal infraestrutura computacional é apresentada, e a validação da proposta é realizada através de uma combinação de resultados experimentais e emulação. / The increase in computing resource needs posed by new classes of commercial and scientific applications presents a new kind of challenge for computing infrastructures. The accelerated growth in resource demand leads to an accelerated growth in the absolute number of computing elements on such infrastructures. In this scenario, the provisioning and systems operations of such elements becomes a progressively complex task, due mainly to the increase in scale. This work proposes a model for a computing infrastructure that operates as an abstract repository of run-time resources with variable levels of consumption. Designed to operate as a computing ensemble, large numbers of elements are aggregated in pools of processing, storage and communication resource servers. The Computing Resource Ensemble is designed with the heavy use of virtualization technologies and has a provisioning and systems operation engine organized as a distributed Command and Control (C2) framework. A Proof of Concept implementation of such computing infrastructure is presented, and the validation of the concept is carried out by a combination of experiments and emulation.
17

Agregação de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy

Pacheco, André Georghton Cardoso 15 July 2016 (has links)
Submitted by Patricia Barros (patricia.barros@ufes.br) on 2017-07-03T10:36:35Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andre Georghton Cardoso Pacheco Agregacao de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy.pdf: 2377890 bytes, checksum: a119a6b35273222d80df45cdde5602db (MD5) / Approved for entry into archive by Patricia Barros (patricia.barros@ufes.br) on 2017-07-19T09:37:39Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andre Georghton Cardoso Pacheco Agregacao de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy.pdf: 2377890 bytes, checksum: a119a6b35273222d80df45cdde5602db (MD5) / Made available in DSpace on 2017-07-19T09:37:39Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Andre Georghton Cardoso Pacheco Agregacao de classificadores neurais via integral de Choquet com respeito a uma medida fuzzy.pdf: 2377890 bytes, checksum: a119a6b35273222d80df45cdde5602db (MD5) / CAPES / Data classification appears in many real-world problems, e.g., recognition of image patterns, differentiation among species of plants, classifying between benign and malignant tumors, among others. Many of these problems present data patterns, which are difficult to be identified, thus requiring more advanced techniques to be solved. Over the last few years, various classification algorithms have been developed to address these problems, but there is no classifier able to be the best choice in all situations. So, the concept of ensemble systems arise, which more than one methodology is used together to solve a particular problem. As a simple and effective methodology, ensemble of classifiers have been applied in several classification problems, aiming to improve performance and increase reliability of the final result. However, in order to improve the classification accuracy, an affective aggregation of classifiers must be performed. In this work, we present two contributions: first, we describe three classifiers based on neural networks, a multilayer feedforward trained by Levenberg-Marquardt algorithm; an extreme learning machine (ELM); and a discriminative restricted Boltmann machine (DRBM). Furthermore, we use conventional classifier k-nearest neighbors (KNN). Next, we propose an aggregation methodology to ensemble of classifiers using Choquet integral with respect to a fuzzy measure obtained by principal component analysis (PCA). Then, we apply this methodology to aggregate the classifiers performed to conventional benchmarks, for large database and the results are promising. / Classificação de dados pode ser aplicada em diversos problemas reais, tais como: reconhecer padrões em imagens, diferenciar espécies de plantas, classificar tumores benignos e malignos, dentre outros. Muitos desses problemas possuem padrões de dados difíceis de serem identificados, o que requer, consequentemente, técnicas mais avançadas para sua resolução. Ao longo dos anos, diversos algoritmos de classificação foram desenvolvidos para abordar esses problemas, todavia, não existe um classificador capaz de ser a melhor opção em todas as situações. Baseado nisso, surge o conceito de sistema baseado em elenco, no qual, mais de uma metodologia é utilizada em conjunto para solucionar um determinado problema. Por ser uma metodologia simples e eficaz, elenco de classificadores vem sendo aplicado em diversos problemas de classificação com intuito de melhorar o desempenho e de aumentar confiabilidade do resultado final. Entretanto, para que o elenco seja capaz de promover melhorias, uma boa técnica de agregação deve ser aplicada. Neste trabalho, duas contribui- ções são apresentadas: primeiramente será apresentado o uso de três classificadores baseado em redes neurais artificiais, sendo uma rede neural multicamadas feedforward usando o algoritmo de treinamento de Levenberg-Marquardt, uma rede neural do tipo máquina de aprendizado extremo (ELM), e uma máquina de Boltzmann restrita discriminativa (DRBM), além de um classificador convencional do tipo K vizinhos mais próximos (KNN). A seguir é proposta uma metodologia de agregação de elenco de classificadores utilizando a integral de Choquet com respeito a uma medida fuzzy obtida através da técnica de Análise de Componentes Principais (PCA). Por fim, tal metodologia é aplicada para agregar os classificadores obtidos para benchmarks convencionais da literatura, para grande base de dados e os resultados são promissores
18

Uma abordagem para melhora a experiência do testador em projetos de software

Ekwoge, Oswald Mesumbe, 92-996132192 12 March 2018 (has links)
Submitted by Joyce Ribeiro (lucas.ribeiro.060496@gmail.com) on 2018-05-07T16:14:20Z No. of bitstreams: 2 Dissertação_OswaldEkwoge_vf.5.pdf: 2319636 bytes, checksum: 01ded37d937f89a4836d74082d8e3383 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-08T14:19:47Z (GMT) No. of bitstreams: 2 Dissertação_OswaldEkwoge_vf.5.pdf: 2319636 bytes, checksum: 01ded37d937f89a4836d74082d8e3383 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-05-08T14:54:21Z (GMT) No. of bitstreams: 2 Dissertação_OswaldEkwoge_vf.5.pdf: 2319636 bytes, checksum: 01ded37d937f89a4836d74082d8e3383 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-05-08T14:54:21Z (GMT). No. of bitstreams: 2 Dissertação_OswaldEkwoge_vf.5.pdf: 2319636 bytes, checksum: 01ded37d937f89a4836d74082d8e3383 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-03-12 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Testing is a very essential activity for software development. It is the act of executing a software product in order to validate whether it behaves as intended and identify possible malfunctions. Studies have shown that testing makes up more than 50% of the development cost. Besides, much effort and emphasis have now been placed on tasks related to automation with the purpose of reducing cost and the participation of the human element in software activities. Testing is a human-based activity. Therefore, efficient ways of testing software products for quality assurance will require a better and more comprehensive understanding of testers’ feelings, perceptions, and motivations, referred to as Tester Experience (TX). Thus, the better the TX of developers during testing, or anyone who takes up the role of a tester, the better the result. TX can be defined as a means of capturing how testers think and feel about their activities within the software testing environment, with the assumption that an improvement of the tester’s experience has a positive impact on quality assurance. This thesis motivates the importance of TX, proposes concepts, issues, definition and factors affecting TX. It also proposes an approach, namely, the Tester ExperienceBased Approach (TX-A), composed of guidelines and activities that developers (or testers) can follow in order to improve their TX in addition to the factors affecting TX. Moreover, this work presents the results of a survey carried out with software development practitioners in order to evaluate TX-A which evaluates the importance of the factors and the relevance of the guidelines in improving TX. The results obtained show that more than 95% of participants agree that the factors are important and the guidelines relevant for improving TX. / Teste é uma atividade essencial para o desenvolvimento de software. É o ato de executar um produto de software para validar se o mesmo se comporta como previsto e identificar possíveis falhas. Estudos demonstraram que os testes compõem mais de 50% do custo de desenvolvimento. Além disso, muito esforço e ênfase têm sido dedicados em tarefas relacionadas à automação com o objetivo de reduzir custos e a participação do elemento humano em atividades de teste de software. No entanto, teste é também uma atividade humana. Assim, formas eficientes de testar produtos de software para garantia de qualidade exigem uma compreensão melhor e mais abrangente dos sentimentos, percepções e motivações dos testadores, conhecido como Tester Experience (TX). Dessa forma, quanto melhor o TX dos desenvolvedores durante o teste, ou qualquer um que assumir o papel de testador, melhor será o resultado. O TX pode ser definido como um meio de capturar como os testadores pensam e sentem sobre suas atividades dentro do ambiente de teste de software, com o pressuposto de que a melhoria da experiência do testador tenha um impacto positivo na garantia de qualidade. Esta dissertação demonstra a importância do TX, propõe conceitos, definições e fatores que afetam o TX. Ela também propõe uma abordagem, denominada, Tester Experience-Based Approach (TX-A), composta por diretrizes e atividades que os desenvolvedores (ou testadores) devem seguir para melhorar seu TX, além dos fatores que afetam o TX. Além disso, este trabalho apresenta os resultados de um survey realizado com profissionais de desenvolvimento de software para avaliar a TX-A. O estudo avaliou a importância dos fatores e a relevância das diretrizes na melhoria do TX. Os resultados obtidos mostram que mais de 95% dos participantes concordam que os fatores são importantes e as diretrizes são relevantes para melhorar o TX.
19

SCoTUAM: uma abordagem para seleção de componentes para testes unitários em Aplicações Móveis / SCoTUAM: an approach for components selecting for unit testing in Mobile Applications

Lima, Josias Gomes, 92993822411 31 August 2018 (has links)
Submitted by Josias Lima (josias@icomp.ufam.edu.br) on 2018-10-01T22:10:08Z No. of bitstreams: 5 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) dissertação_josias-vfinal.pdf: 2426702 bytes, checksum: 608ad25d6314e5cbb942757762543ca1 (MD5) 313 ATA de Defesa - Josias Gomes Lima (Assinada).pdf: 621386 bytes, checksum: 7ecfd9469b78fb1425568cd0a2e5b066 (MD5) 313 Folha de Aprovação - Josias Lima (Assinada).pdf: 483409 bytes, checksum: 97c624af46d2aef955b7f2f2930fd1ad (MD5) CartaEncaminhamentoAutodepósito_Josias.pdf: 120108 bytes, checksum: fd11c4a58dfbac511b1e7e65ed95b59a (MD5) / Approved for entry into archive by Secretaria PPGI (secretariappgi@icomp.ufam.edu.br) on 2018-10-01T22:11:19Z (GMT) No. of bitstreams: 5 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) dissertação_josias-vfinal.pdf: 2426702 bytes, checksum: 608ad25d6314e5cbb942757762543ca1 (MD5) 313 ATA de Defesa - Josias Gomes Lima (Assinada).pdf: 621386 bytes, checksum: 7ecfd9469b78fb1425568cd0a2e5b066 (MD5) 313 Folha de Aprovação - Josias Lima (Assinada).pdf: 483409 bytes, checksum: 97c624af46d2aef955b7f2f2930fd1ad (MD5) CartaEncaminhamentoAutodepósito_Josias.pdf: 120108 bytes, checksum: fd11c4a58dfbac511b1e7e65ed95b59a (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-10-02T12:58:51Z (GMT) No. of bitstreams: 5 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) dissertação_josias-vfinal.pdf: 2426702 bytes, checksum: 608ad25d6314e5cbb942757762543ca1 (MD5) 313 ATA de Defesa - Josias Gomes Lima (Assinada).pdf: 621386 bytes, checksum: 7ecfd9469b78fb1425568cd0a2e5b066 (MD5) 313 Folha de Aprovação - Josias Lima (Assinada).pdf: 483409 bytes, checksum: 97c624af46d2aef955b7f2f2930fd1ad (MD5) CartaEncaminhamentoAutodepósito_Josias.pdf: 120108 bytes, checksum: fd11c4a58dfbac511b1e7e65ed95b59a (MD5) / Made available in DSpace on 2018-10-02T12:58:51Z (GMT). No. of bitstreams: 5 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) dissertação_josias-vfinal.pdf: 2426702 bytes, checksum: 608ad25d6314e5cbb942757762543ca1 (MD5) 313 ATA de Defesa - Josias Gomes Lima (Assinada).pdf: 621386 bytes, checksum: 7ecfd9469b78fb1425568cd0a2e5b066 (MD5) 313 Folha de Aprovação - Josias Lima (Assinada).pdf: 483409 bytes, checksum: 97c624af46d2aef955b7f2f2930fd1ad (MD5) CartaEncaminhamentoAutodepósito_Josias.pdf: 120108 bytes, checksum: fd11c4a58dfbac511b1e7e65ed95b59a (MD5) Previous issue date: 2018-08-31 / FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas / The unit test is the level of software testing by which individual parts of the source code are tested. Implementing this type of test brings some benefits such as reducing failures in existing resources, improving code structure, decrease side effects, and reducing fear of code change (Burke and Coyner, 2017). However, the test activity for mobile applications is time-consuming, causing some developers to choose not to create unit tests. Reduced time makes testing automation a necessity. In this context, this work proposes a plugin to assist developers in selecting components that have a greater value in relation to the cost x benefit of the unit test in mobile applications of the Android platform. To measure the value of cost and benefit of components, the following metrics were chosen: halstead effort (HE), future maintenance cost (FMC), code smells (CS), call frequency (CF), risk of failures (RF), market vulnerability (MV) and business value (BV). The proposed plugin has three main processes: (1) Extraction of static metrics; (2) Extraction of dynamic, market and business metrics; and (3) Execution of the genetic algorithm to select the components to be tested. The proposed plugin called SCoTUAM can be added to the development interface of the Android Studio IDE. In this work two empirical studies were carried out. In the first study, the purpose was to analyze the correlation of the metrics, where the result showed the possibility of using the combined FMC, CS, CF, RF, MV and BV metrics in a multiobjective solution. In the second study, the objective was to analyze the plugin’s effectiveness in selecting components with error compared to the manual selection performed by unit test specialists in Android mobile applications, where the result showed the feasibility of the proposal in assisting the developer in the selection of components for the unit test. / O teste de unidade é o nível de teste de software pelo qual partes individuais do código fonte são testadas. A realização deste tipo de teste traz alguns benefícios, tais como redução de falhas em recursos já existentes, melhoram a estrutura do código, diminuem os efeitos colaterais (side effects) e reduzem o medo da alteração do código (Burke e Coyner, 2017). No entanto, a atividade de teste para aplicações móveis tem o tempo reduzido, fazendo com que alguns desenvolvedores optem por não criar os testes de unidade. O tempo reduzido faz com que a automatização dos testes se torne uma necessidade. Nesse contexto, este trabalho propõe um plugin para auxiliar os desenvolvedores na seleção de componentes que tenham um maior valor em relação ao custo x benefício do teste de unidade em aplicações móveis da plataforma Android. Para medir o valor do custo e benefício dos componentes, foram escolhidas as seguintes métricas: halstead effort (HE), custo de manutenção futura (CMF), cheiros de código (CS), frequência de chamadas (FC), risco de falhas (RF), vulnerabilidade de mercado (VM) e valor de negócio VN. O plugin proposto possui três processos principais: (1) Extração de métricas estáticas, (2) Extração de métricas dinâmicas, de mercado e de negócio e (3) Execução do algoritmo genético para seleção dos componentes a serem testados. O plugin chamado SCoTUAM pode ser adicionado à interface de desenvolvimento da IDE Android Studio. Neste trabalho foram realizados dois estudos empíricos para avaliação do plugin proposto. No primeiro estudo, o propósito foi analisar a correlação das métricas, onde o resultado mostrou a possibilidade de usar as métricas CMF, CS, FC, RF, VM e VN combinadas em uma solução multiobjetivo. No segundo estudo, o objetivo foi analisar a eficácia do plugin em selecionar componentes com erro comparado com a seleção manual realizada por especialistas em teste de unidade em aplicações móveis Android, onde o resultado mostrou a viabilidade da proposta em auxiliar o desenvolvedor na seleção de componentes para o teste de unidade.
20

Regiões de confiança para a localização do ponto estacionário em superfícies de resposta, usando o método "bootstrap" Bayesiano / Confidence region on the location of the stationary point in response surfaces, a Bayesian bootstrap approach

David José Miquelluti 18 April 2008 (has links)
Experimentos nos quais uma ou mais variáveis respostas são influênciadas por diversos fatores quantitativos são bastante comuns nas áreas agrícola, química, biológica, dentre outras. Nesse caso, o problema de pesquisa consiste em se estudar essa relação, sendo de grande utilidade o uso da metodologia de superfícies de resposta (MSR). Nesse contexto, a determinação dos níveis dos fatores que otimizam a resposta consiste inicialmente na obtenção das coordenadas do ponto estacionário do modelo ajustado. No entanto, como o modelo verdadeiro é desconhecido, é interessante obter uma região de confiança das coordenadas verdadeiras de modo a avaliar a precisão da estimativa obtida. Foram abordados aqui os procedimentos para construção de regiões de confiança para as coordenadas do ponto estacionário em diferentes situações considerando-se a forma das superfícies analisadas e a distribuição e magnitude da variância dos erros do modelo. Foram utilizadas a metodologia de Box e Hunter (1954) (BH), "bootstrap" e "bootstrap" Bayesiano aliados ao cálculo da distância de Mahalanobis entre as coordenadas do ponto estacionários da amostra observada e aquelas obtidas por meio das estimativas "bootstrap"(BM e BBM), e métodos "bootstrap" e "bootstrap" Bayesiano aliados a métodos não paramétricos de estimação de funções densidade de probabilidade (BNP e BBNP). A avaliaçãoda metodologia foi realizada por meio de simulação e foi aplicada a um conjunto de dados de produção de amendoim. No estudo de simulação, a metodologia BH, baseada na distribuição normal dos erros, apresentou um bom desempenho em todas as situações analisadas, havendo concordância entre as regiões de confiança nominais e reais, mesmo naquelas em que essa distribuição é bastante assimétrica. Este mesmo comportamento foi observado para os métodos BM e BBM. No entanto, os métodos BNP e BBNP não apresentaram um desempenho satisfatório, resultando em um nível de significância real menor que o nominal para os autovalores com menor valor absoluto, gerando regiões de confiança maiores. No caso de autovalores com maior valor absoluto observou-se situação inversa. No caso da análise do conjunto de dados de amendoim os métodos BH, BM e BNP apresentaram regiões de confiança mais amplas comparativamente aos métodos BBM e BBNP. No entanto, os valores das estimativas do "bootstrap" Bayesiano são mais próximas das estimativas de mínimos quadrados e apresentam menor dispersão o que explica a menor área da região de confiança. / Experiments in which one or more response variables are influenced by several quantitative factors are very common in agricultural, chemistry, biology and other areas. In this case, the research question consists in studying this relation, being of great utility the use of response surface methodology (RSM). In this context determining the level of the factors that optimize the response consists finding the coordinates of the stationary point of the model. However, as the true model is unknown, it is of interest to obtain a confidence region of the true coordinates to analyze the precision of the obtained estimate. The procedures for the construction of confidence regions for the coordinates of the stationary point were studied in diferent situations, considering the shape of the surfaces analyzed and the distribution and magnitude of the variance errors. The methodology of Box and Hunter (1954) (BH), bootstrap and Bayesian bootstrap with Mahalanobis distance among the coordinates of the stationary point of the observed sample and those obtained using bootstrap estimates(BM and BBM) and bootstrap and Bayesian bootstrap with non-parametric methods for density estimation (BNP and BBNP) were compared. The methodology evaluation was realized by means of simulation and applied to a peanut yields data set. In simulation study the BH methodology, which is based in normal distribution of errors, presented a good performance in all of the analyzed situations, having concordance among the nominal and real confidence regions, even in those which this distribution is fairly asymmetric. This behavior was also observed in BM and BBM methods. The BNP and BBNP methods did not presented a satisfactory performance, resulting in a real significance level lower than the nominal for the eigenvalue with lower absolute value, generating bigger confidence regions. The inverse was observed using eigenvalue with higher absolute value. In the analysis of the peanut yields data set the BH, BM and BNP methods presented confidence regions larger than the BBM and BBNP methods. The Bayesian bootstrap estimate values are closer of the minimum square estimates and present less dispersion what explain the confidence region lower area.

Page generated in 0.1485 seconds