• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 1
  • Tagged with
  • 10
  • 10
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

NoSQLClusterAdmin: uma ferramenta para configuração, gerenciamento e monitoramento de SGBD NoSQL fragmentados e replicados

SOUZA JÚNIOR, João Bosco de 28 July 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-09-14T22:41:04Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO João Bosco de Souza Júnior.pdf: 3756560 bytes, checksum: 9a29c25c5b52eac5dc4f55e1fcacd104 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-09-18T16:07:35Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO João Bosco de Souza Júnior.pdf: 3756560 bytes, checksum: 9a29c25c5b52eac5dc4f55e1fcacd104 (MD5) / Made available in DSpace on 2018-09-18T16:07:35Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO João Bosco de Souza Júnior.pdf: 3756560 bytes, checksum: 9a29c25c5b52eac5dc4f55e1fcacd104 (MD5) Previous issue date: 2017-07-28 / Sistemas de gerenciamento de bancos de dados não relacionais, denominados SGBD NoSQL, geralmente apresentam uma arquitetura distribuída entre vários servidores, o que permite a fragmentação e replicação dos dados. Isso possibilita o processamento distribuído e, consequentemente, um melhor desempenho na manipulação de grandes volumes de dados. Para as tarefas de configuração, gerenciamento e monitoramento dessa arquitetura distribuída, os administradores de SGBD NoSQL necessitam de ferramentas para auxiliar nessas tarefas, pois na proporção que a quantidade de dados e servidores aumenta, tais tarefas se tornam mais dispendiosas, complexas e sujeitas a erros. Durante esta pesquisa foram identificadas ferramentas com o propósito de auxiliar os administradores nas tarefas de configuração, gerenciamento e monitoramento de SGBD NoSQL fragmentados e replicados. Contudo, as ferramentas estudadas são predominantemente restritas para uso em um único SGBD NoSQL, tendo em vista as distinções de arquitetura distribuída e procedimentos adotados para realização das tarefas de configuração, gerenciamento e monitoramento adotados por cada SGBD. Outra limitação observada diz respeito às funcionalidades disponíveis nessas ferramentas, que em muitos casos, se restringem a auxiliar na realização apenas de uma das três tarefas citadas. Assim, este trabalho apresenta a especificação, projeto, implementação e avaliação de uma ferramenta web e open source, denominada NoSQLClusterAdmin, cuja contribuição principal é auxiliar os administradores de bancos de dados nas tarefas de configuração, gerenciamento e monitoramento de SGBD NoSQL fragmentados e replicados, independentemente da solução de SGBD adotada. Outra contribuição é o fato da ferramenta uniformizar os procedimentos para configuração, gerenciamento e monitoramento dos SGBD, independentemente da solução NoSQL utilizada. A ferramenta desenvolvida para plataforma web foi avaliada por meio de testes de usabilidade aplicados com estudantes e profissionais com experiência no manuseio desse tipo de SGBD. Os resultados dessa avaliação mostraram que: (i) 70% dos usuários indicaram que a ferramenta NoSQLClusterAdmin pode ser utilizada em vários SGBD NoSQL distintos; (ii) a variedade de funcionalidades de configuração, gerenciamento e monitoramento disponíveis na ferramenta satisfez 80% dos usuários; e (iii) 85% concordou que a ferramenta padroniza a realização das tarefas de configuração, gerenciamento e monitoramento de SGBD NoSQL fragmentados e replicados, independentemente da solução de SGBD utilizada. / Not Only SQL database management systems, called NoSQL DBMSs, typically have a distributed architecture across multiple servers, which allows for the fragmentation and replication of data. This enables distributed processing and consequently better performance in handling large volumes of data. For the configuration, management, and monitoring tasks of this distributed architecture, NoSQL DBMS administrators need tools to assist in these tasks, as the amount of data and servers increases, such tasks become more costly, complex, and error prone. During this research, tools were identified to assist administrators in the tasks of configuration, management and monitoring of fragmented and replicated NoSQL DBMS. However, the tools studied are predominantly restricted for use in a single NoSQL DBMS, in view of the distributed architecture distinctions and procedures adopted to perform the configuration, management and monitoring tasks adopted by each DBMS. Another limitation observed relates to the functionalities available in these tools, which in many cases, are restricted to assist in performing only one of the three tasks mentioned. This work presents the specification, design, implementation and evaluation of a web and open source tool, called NoSQLClusterAdmin, whose main contribution is to assist database administrators in the tasks of configuration, management and monitoring of fragmented and replicated NoSQL DBMS, regardless of the adopted DBMS solution. Another contribution is the fact that the tool standardizes the procedures for configuration, management and monitoring of DBMS, regardless of the NoSQL solution used the tool was developed for web platform and was evaluated through usability tests applied with students and professionals with experience in the handling of this type of DBMS. The results of this evaluation showed that: (i) 70% of users indicated that the NoSQLCluster Admin tool can be used in several different NoSQL DBMS; (ii) the variety of configuration, management and monitoring functionalities available in the tool satisfied 80% of users; And (iii) 85% agreed that the tool standardizes the performance of the fragmented and replicated configuration, management and monitoring tasks of NoSQL DBMS, regardless of the DBMS solution used.
2

Avaliação experimental de detecção de colisão para jogos J2ME

MARIZ, Eric Bruno Perazzo January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:15Z (GMT). No. of bitstreams: 2 arquivo7276_1.pdf: 1974230 bytes, checksum: 9bd492e9e517e54c77888c221041b589 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / Apesar da avaliação experimental ser uma abordagem aceita e bem difundida para validação científica na maioria das disciplinas, apenas recentemente ela tem sido sistematicamente usada em Engenharia de Software, para com o intuito de examinar experimentalmente abordagens de desenvolvimento. Neste contexto, o crescente mercado de jogos para dispositivos móveis tem uma alta demanda por pesquisas na área de Engenharia de Software Empírica, devido à necessidade de utilização de técnicas de desenvolvimento adequadas às limitações de memória e processamento destes dispositivos. Infelizmente, muito pouco tem sido feito ou relatado na literatura a respeito de avaliações empíricas de técnicas de desenvolvimento de jogos móveis, que são o principal tipo de aplicação móvel hoje em dia. Assim, o objetivo desta dissertação é fornecer um estudo experimental comparativo entre diferentes técnicas de detecção de colisão, função recorrente e muito freqüente, para jogos móveis usando a linguagem J2ME, que é o padrão atual de desenvolvimento. São adotadas três métricas para servir de base na análise comparativa dos resultados: A performance em quadros (frames) por segundo; o percentual do tempo total gasto nos métodos mais relevantes; e o tamanho do código-fonte. Algumas técnicas de detecção de colisão em duas dimensões são implementadas em 2 jogos (O Breakout e o Space Invaders) como estudo de caso. As técnicas foram executadas tanto em emulador quanto em celulares. A análise dos resultados obtidos identifica, com base nas métricas de comparação, qual técnica de detecção melhor se aplica para cada um dos dois jogos escolhidos. Exemplificando, a partir dos resultados podemos confirmar que o jogo Breakout possui uma boa performance quando o mesmo é implementado com ladrilhos. Diferentemente, o jogo Space Invaders, que não possui características de um jogo baseado em ladrilhos, demonstrou um resultado bastante insatisfatório no uso desta técnica quando comparado com as outras
3

Um ambiente para avaliação de algoritmos de aprendizado de máquina simbólico utilizando exemplos. / An environment to evaluate machine learning algorithms.

Batista, Gustavo Enrique de Almeida Prado Alves 15 October 1997 (has links)
Um sistema de aprendizado supervisionado é um programa capaz de realizar decisões baseado na experiência contida em casos resolvidos com sucesso. As regras de classificação induzidas por um sistema de aprendizado podem ser analisadas segundo dois critérios: a complexidade dessas regras e o erro de classificação sobre um conjunto independente de exemplos. Sistemas de aprendizado têm sido desenvolvidos na prática utilizando diferentes paradigmas incluindo estatística, redes neurais, bem como sistemas de aprendizado simbólico proposicionais e relacionais. Diversos métodos de aprendizado podem ser aplicados à mesma amostra de dados e alguns deles podem desempenhar melhor que outros. Para uma dada aplicação, não existem garantias que qualquer um desses métodos é necessariamente o melhor. Em outras palavras, não existe uma análise matemática que possa determinar se um algoritmo de aprendizado irá desempenhar melhor que outro. Desta forma, estudos experimentais são necessários. Neste trabalho nos concentramos em uma tarefa de aprendizado conhecida como classificação ou predição, na qual o problema consiste na construção de um procedimento de classificação a partir de um conjunto de casos no qual as classes verdadeiras são conhecidas, chamado de aprendizado supervisionado. O maior objetivo de um classificador é ser capaz de predizer com sucesso a respeito de novos casos. A performance de um classificador é medida em termos da taxa de erro. Técnicas experimentais para estimar a taxa de erro verdadeira não somente provêem uma base para comparar objetivamente as performances de diversos algoritmos de aprendizado no mesmo conjunto de exemplos, mas também podem ser uma ferramenta poderosa para projetar um classificador. As técnicas para estimar a taxa de erro são baseadas na teoria estatística de resampling. Um ambiente chamado AMPSAM foi implementado para ajudar na aplicação dos métodos de resampling em conjuntos de exemplos do mundo real. AMPSAM foi projetado como uma coleção de programas independentes, os quais podem interagir entre si através de scripts pré-definidos ou de novos scripts criados pelo usuário. O ambiente utiliza um formato padrão para arquivos de exemplos o qual é independente da sintaxe de qualquer algoritmo. AMPSAM também inclui ferramentas para particionar conjuntos de exemplos em conjuntos de treinamento e teste utilizando diferentes métodos de resampling. Além do método holdout, que é o estimador de taxa de erro mais comum, AMPSAM suporta os métodos n-fold cross-validation --- incluindo o leaning-one-out --- e o método bootstrap. As matrizes de confusão produzidas em cada iteração utilizando conjuntos de treinamento e teste podem ser fornecidas a um outro sistema implementado chamado SMEC. Este sistema calcula e mostra graficamente algumas das medidas descritivas mais importantes relacionadas com tendência central e dispersão dos dados. Este trabalho também relata os resultados experimentais a respeito de medidas do erro de classificação de três classificadores proposicionais e relacionais bem conhecidos, utilizando ambos os sistemas implementados, em diversos conjuntos de exemplos freqüentemente utilizados em pesquisas de Aprendizado de Máquina. / A learning system is a computer program that makes decisions based on the accumulative experience contained in successfully solved cases. The classification rules induced by a learning system are judged by two criteria: their classification error on an independent test set and their complexity. Practical learning systems have been developed using different paradigms including statistics, neural nets, as well as propositional and relational symbolic machine learning. Several learning methods can be applied to the same sample data and some of them may do better than others. Still, for a given application, there is no guarantee that any of these methods will work or that any single method is necessarily the best one. In other words, there is not a mathematical analysis method that can determine whether a learning system algorithm will work well. Hence, experimental studies are required. In this work we confine our attention to the learning task known as classification or prediction, where the problem concerns the construction of a classification procedure from a set of data for which the true classes are known, and is termed supervised learning. The overall objective of a classifier is to be able to predict successfully on new data. Performance is measured in terms of the error rate. Error rate estimation techniques not only provide a basis for objectively comparing the error rate of several classifiers on the same data and then estimating their future performance on new data, but they can also be a powerful tool for designing a classifier. The techniques of error rate estimation are based on statistical resampling theory. In this work, rules induced complexity of propositional and relational learning systems as well as several resampling methods to estimate the true error rate are discussed. An environment called AMPSAM has been implemented to aid in the application of resampling methods to real world data sets. AMPSAM consists of a collection of interdependent programs that can be bound together either by already defined or by new user defined scripts. The environment uses a common file format for data sets which is independent of any specific classifier scheme. It also includes facilities for splitting data sets up into test and training sets using different methods. Besides holdout, which is the most common accuracy estimation method, AMPSAM supports n-fold cross-validation --- including leaving-one-out --- and bootstrap. The confusion matrices produced in each run using those test and training sets can be input to another system called SMEC. This system calculates and graphically displays some of the most important descriptive measures related to central tendency and dispersion of those data. This work also reports the results of experiments measuring the classification error of three well known propositional and relational classifiers, using the implemented systems, on several data sets commonly used in Machine Learning research.
4

Um sistema OLAP para data warehouses de dados criptografados, multivalorados e mantidos na nuvem

Lopes, Claudivan Cruz 31 January 2014 (has links)
Submitted by Nayara Passos (nayara.passos@ufpe.br) on 2015-03-11T19:18:09Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Claudivan Cruz Lopes.pdf: 3542669 bytes, checksum: c9164a67c8e93b4afd3e6ed8c1958786 (MD5) / Made available in DSpace on 2015-03-11T19:18:09Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Claudivan Cruz Lopes.pdf: 3542669 bytes, checksum: c9164a67c8e93b4afd3e6ed8c1958786 (MD5) Previous issue date: 2014 / CNPq / Um dos desafios da computação em nuvem é a dificuldade de garantir a confidencialidade de dados, especialmente em relação ao modelo de serviço DaaS (Banco de Dados como um Serviço). Uma solução para proteger a confidencialidade de dados é manter os dados criptografados na nuvem. Porém, consultar dados criptografados requer que eles sejam decodificados, fato que pode acarretar num alto custo de processamento se todos os dados precisarem ser decodificados antes da execução de uma consulta, ou pode comprometer a confidencialidade de dados se a decodificação for feita na própria nuvem. Neste sentido, a literatura reporta o uso de técnicas de criptografia que permitem que cálculos e comparações sejam computados diretamente sobre dados criptografados. Essas técnicas viabilizam o processamento de consultas sem a necessidade de decodificar dados na nuvem, protegendo a confidencialidade de dados e minimizando a sobrecarga ocasionada pela criptografia na execução de consultas. Contudo, uma questão em aberto na literatura se refere a como um Data Warehouse (DW) mantido na nuvem pode ser criptografado, de modo a balancear o custo-benefício entre a proteção da confidencialidade de dados e a redução do impacto da criptografia no processamento de consultas analíticas feitas sobre um DW criptografado. Esta tese apresenta uma solução para essa questão. Primeiro, é proposto um esquema de criptografia que produz dados criptografados e multivalorados (i.e., dados criptografados distintos entre si), e que permite que restrições de seleção, ordenação e agrupamento de dados sejam processadas sobre dados criptografados e multivalorados. Segundo, é proposta uma metodologia de criptografia para DW que determina como e quais atributos de um DW devem ser criptografados, e quais técnicas utilizar para criptografar os valores desses atributos. Terceiro, é proposto um sistema OLAP que habilita o processamento escalável de consultas analíticas sobre um DW criptografado e mantido na nuvem, o qual faz uso do esquema de criptografia e da metodologia propostos. Por fim, uma avaliação experimental foi conduzida, no intuito de investigar a viabilidade de se manter um DW criptografado na nuvem e a influência da escalabilidade no desempenho de consultas analíticas sobre DW criptografados e mantidos na nuvem. Os resultados dessa avaliação mostraram que: (i) a solução proposta obteve ganhos de desempenho quanto ao processamento de consultas analíticas sobre DW criptografados de até 53%, quando comparado com outras soluções; (ii) a seletividade de dados não afeta o desempenho da solução proposta; (iii) a maioria das operações definidas em consultas analíticas são executadas no servidor sobre os dados criptografados; (iv) a sobrecarga causada pela criptografia no desempenho de consultas analíticas diminui na medida em que o processamento de consultas é paralelizado entre vários hosts na nuvem; e (v) a sobrecarga ocasionada na execução de agrupamentos sobre dados criptografados e multivalorados diminui com a paralelização do processamento.
5

Um ambiente para avaliação de algoritmos de aprendizado de máquina simbólico utilizando exemplos. / An environment to evaluate machine learning algorithms.

Gustavo Enrique de Almeida Prado Alves Batista 15 October 1997 (has links)
Um sistema de aprendizado supervisionado é um programa capaz de realizar decisões baseado na experiência contida em casos resolvidos com sucesso. As regras de classificação induzidas por um sistema de aprendizado podem ser analisadas segundo dois critérios: a complexidade dessas regras e o erro de classificação sobre um conjunto independente de exemplos. Sistemas de aprendizado têm sido desenvolvidos na prática utilizando diferentes paradigmas incluindo estatística, redes neurais, bem como sistemas de aprendizado simbólico proposicionais e relacionais. Diversos métodos de aprendizado podem ser aplicados à mesma amostra de dados e alguns deles podem desempenhar melhor que outros. Para uma dada aplicação, não existem garantias que qualquer um desses métodos é necessariamente o melhor. Em outras palavras, não existe uma análise matemática que possa determinar se um algoritmo de aprendizado irá desempenhar melhor que outro. Desta forma, estudos experimentais são necessários. Neste trabalho nos concentramos em uma tarefa de aprendizado conhecida como classificação ou predição, na qual o problema consiste na construção de um procedimento de classificação a partir de um conjunto de casos no qual as classes verdadeiras são conhecidas, chamado de aprendizado supervisionado. O maior objetivo de um classificador é ser capaz de predizer com sucesso a respeito de novos casos. A performance de um classificador é medida em termos da taxa de erro. Técnicas experimentais para estimar a taxa de erro verdadeira não somente provêem uma base para comparar objetivamente as performances de diversos algoritmos de aprendizado no mesmo conjunto de exemplos, mas também podem ser uma ferramenta poderosa para projetar um classificador. As técnicas para estimar a taxa de erro são baseadas na teoria estatística de resampling. Um ambiente chamado AMPSAM foi implementado para ajudar na aplicação dos métodos de resampling em conjuntos de exemplos do mundo real. AMPSAM foi projetado como uma coleção de programas independentes, os quais podem interagir entre si através de scripts pré-definidos ou de novos scripts criados pelo usuário. O ambiente utiliza um formato padrão para arquivos de exemplos o qual é independente da sintaxe de qualquer algoritmo. AMPSAM também inclui ferramentas para particionar conjuntos de exemplos em conjuntos de treinamento e teste utilizando diferentes métodos de resampling. Além do método holdout, que é o estimador de taxa de erro mais comum, AMPSAM suporta os métodos n-fold cross-validation --- incluindo o leaning-one-out --- e o método bootstrap. As matrizes de confusão produzidas em cada iteração utilizando conjuntos de treinamento e teste podem ser fornecidas a um outro sistema implementado chamado SMEC. Este sistema calcula e mostra graficamente algumas das medidas descritivas mais importantes relacionadas com tendência central e dispersão dos dados. Este trabalho também relata os resultados experimentais a respeito de medidas do erro de classificação de três classificadores proposicionais e relacionais bem conhecidos, utilizando ambos os sistemas implementados, em diversos conjuntos de exemplos freqüentemente utilizados em pesquisas de Aprendizado de Máquina. / A learning system is a computer program that makes decisions based on the accumulative experience contained in successfully solved cases. The classification rules induced by a learning system are judged by two criteria: their classification error on an independent test set and their complexity. Practical learning systems have been developed using different paradigms including statistics, neural nets, as well as propositional and relational symbolic machine learning. Several learning methods can be applied to the same sample data and some of them may do better than others. Still, for a given application, there is no guarantee that any of these methods will work or that any single method is necessarily the best one. In other words, there is not a mathematical analysis method that can determine whether a learning system algorithm will work well. Hence, experimental studies are required. In this work we confine our attention to the learning task known as classification or prediction, where the problem concerns the construction of a classification procedure from a set of data for which the true classes are known, and is termed supervised learning. The overall objective of a classifier is to be able to predict successfully on new data. Performance is measured in terms of the error rate. Error rate estimation techniques not only provide a basis for objectively comparing the error rate of several classifiers on the same data and then estimating their future performance on new data, but they can also be a powerful tool for designing a classifier. The techniques of error rate estimation are based on statistical resampling theory. In this work, rules induced complexity of propositional and relational learning systems as well as several resampling methods to estimate the true error rate are discussed. An environment called AMPSAM has been implemented to aid in the application of resampling methods to real world data sets. AMPSAM consists of a collection of interdependent programs that can be bound together either by already defined or by new user defined scripts. The environment uses a common file format for data sets which is independent of any specific classifier scheme. It also includes facilities for splitting data sets up into test and training sets using different methods. Besides holdout, which is the most common accuracy estimation method, AMPSAM supports n-fold cross-validation --- including leaving-one-out --- and bootstrap. The confusion matrices produced in each run using those test and training sets can be input to another system called SMEC. This system calculates and graphically displays some of the most important descriptive measures related to central tendency and dispersion of those data. This work also reports the results of experiments measuring the classification error of three well known propositional and relational classifiers, using the implemented systems, on several data sets commonly used in Machine Learning research.
6

Estudo e definição de uma linha de produtos de software para o desenvolvimento de aplicações educacionais móveis / Study and definition of a software product line for the development of mobile learning applications

Falvo Júnior, Venilton 07 April 2015 (has links)
A popularização dos dispositivos móveis em todas as camadas sociais tem motivado o desenvolvimento de aplicações educacionais móveis, denominadas aplicações de m-learning. Neste cenário, as aplicações existentes, mesmo possuindo diversos benefícios e facilidades no que diz respeito ao ensino e aprendizagem, apresentam problemas e desafios relacionados, sobretudo no que se refere ao desenvolvimento, reuso e padronização arquitetural. Por outro lado, na vertente do reúso de software, percebe-se uma crescente adoção do conceito de Linha de Produtos de Software (LPS). Esse paradigma possibilita às organizações explorar as similaridades e variabilidades de seus produtos, aumentando a reutilização de artefatos e, como consequência, diminuindo custos e tempo de desenvolvimento. Neste trabalho é apresentada uma LPS voltada ao domínio das aplicações de m-learning, denominada M-SPLearning. A proposição da M-SPLearning envolveu desde o estudo inicial para a obtenção de uma análise de domínio efetiva, até a implementação dos componentes previamente analisados. A LPS concebida teve seus respectivos produtos avaliados experimentalmente no cenário industrial, fornecendo evidências de que sua utilização pode acelerar o time-to-market de produtos de m-learning, com um número reduzido de defeitos. / The popularity of mobile devices in all social classes has motivated the development of mobile educational applications, called m-learning applications. The existing applications, even having many benefits and facilities in relation to teaching and learning, also have problems and challenges, especially regarding the development, reuse and architectural standardization. Particularly, there is an increasing adoption of the concept of Software Product Line (SPL) in researches related to reuse. This paradigm enables organizations to explore the similarities and variabilities of their products, increasing the reuse of artifacts and, consequently, reducing costs and development time. This work presents an SPL focused on the domain of m-learning applications, named M-SPLearning. The development of M-SPLearning has comprised since the initial study for an effective domain analysis until the implementation of the components previously analyzed. Such SPL had its products experimentally evaluated in the industrial scenario, providing evidences that its use can accelerate the time-to-market of m-learning applications, with a reduced number of faults.
7

Abordagens para avaliação experimental de testes baseado em modelos de aplicações reativas. / Approaches for experimental evaluation of tests based on reactive application models

NASCIMENTO, Laísa Helena Oliveira do. 27 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-27T18:21:34Z No. of bitstreams: 1 LAÍSA HELENA OLIVEIRA DO NASCIMENTO - DISS PPGCC 2008..pdf: 1446971 bytes, checksum: 3622ab4c366ab0a686c4f32d688c13b6 (MD5) / Made available in DSpace on 2018-08-27T18:21:34Z (GMT). No. of bitstreams: 1 LAÍSA HELENA OLIVEIRA DO NASCIMENTO - DISS PPGCC 2008..pdf: 1446971 bytes, checksum: 3622ab4c366ab0a686c4f32d688c13b6 (MD5) Previous issue date: 2008-02-28 / Processos de teste de software vêm ganhando cada vez mais espaço na indústria. Empresas têm investindo na definição e formalização dos seus processos e em meio a essa mudança de comportamento, Model-Based Testing (MBT) apresenta-se como uma técnica promissora de teste. No entanto, a utilização de MBT ainda é baixa e pesquisadores têm focado em maneiras de superar as barreiras para que se obtenha uma adoção maior por parte da indústria. O mundo empresarial é movido a processos e resultados. Dessa forma, o uso de MBT precisa se adaptar aos processos existentes, e estudos de caso que evidenciem as vantagens de sua utilização precisam ser conduzidos. Neste trabalho, o paradigma Goal Question Metric é utilizado na definição de modelos de medição que têm como foco principal a avaliação e o acompanhamento do desempenho de MBT sem causar impacto ao processo de teste já existente. Os modelos de medição consideram métricas como esforço, percentual de requisitos testáveis cobertos, percentual de casos de teste modificados, percentual de falhas,dentre outros. Os modelos não estão atrelados ao processo de MBT apresentado, podendo ser aplicados em qualquer processo que permita a coleta dos dados necessários para o cálculo das métricas. Para validar os modelos, estudos de caso foram conduzidos dentro do ambiente de testes da Motorola. / Software testing processes have become more common in industry. Companies are investing on the definition and the formalization of their test processes and, in this context, Model-Based Testing (MBT) appears as an interesting testing technique. However, industrial adoption of MBT remains low and researchers are also focusing on how to beat the barriers to wide adoption. Processes and results move the business world so, MBT processes must be adaptable to actual testing processes. For this, experiments to evaluate the results achieved with its use must be conduct. In this work, measurement models based on the Goal Question Metric methodology are proposed. The purpose is evaluating the use of MBT without increasing actual testing process costs. The models focus on aspects as effort, testable requirements coverage, modified test cases, failures, among others. The models are not associated with the MBT process presented. They can be applied with any process that allows metrics collection. In order to validate the measurement models, case studies were conducted into Motorola testing environment.
8

Estudo e definição de uma linha de produtos de software para o desenvolvimento de aplicações educacionais móveis / Study and definition of a software product line for the development of mobile learning applications

Venilton Falvo Júnior 07 April 2015 (has links)
A popularização dos dispositivos móveis em todas as camadas sociais tem motivado o desenvolvimento de aplicações educacionais móveis, denominadas aplicações de m-learning. Neste cenário, as aplicações existentes, mesmo possuindo diversos benefícios e facilidades no que diz respeito ao ensino e aprendizagem, apresentam problemas e desafios relacionados, sobretudo no que se refere ao desenvolvimento, reuso e padronização arquitetural. Por outro lado, na vertente do reúso de software, percebe-se uma crescente adoção do conceito de Linha de Produtos de Software (LPS). Esse paradigma possibilita às organizações explorar as similaridades e variabilidades de seus produtos, aumentando a reutilização de artefatos e, como consequência, diminuindo custos e tempo de desenvolvimento. Neste trabalho é apresentada uma LPS voltada ao domínio das aplicações de m-learning, denominada M-SPLearning. A proposição da M-SPLearning envolveu desde o estudo inicial para a obtenção de uma análise de domínio efetiva, até a implementação dos componentes previamente analisados. A LPS concebida teve seus respectivos produtos avaliados experimentalmente no cenário industrial, fornecendo evidências de que sua utilização pode acelerar o time-to-market de produtos de m-learning, com um número reduzido de defeitos. / The popularity of mobile devices in all social classes has motivated the development of mobile educational applications, called m-learning applications. The existing applications, even having many benefits and facilities in relation to teaching and learning, also have problems and challenges, especially regarding the development, reuse and architectural standardization. Particularly, there is an increasing adoption of the concept of Software Product Line (SPL) in researches related to reuse. This paradigm enables organizations to explore the similarities and variabilities of their products, increasing the reuse of artifacts and, consequently, reducing costs and development time. This work presents an SPL focused on the domain of m-learning applications, named M-SPLearning. The development of M-SPLearning has comprised since the initial study for an effective domain analysis until the implementation of the components previously analyzed. Such SPL had its products experimentally evaluated in the industrial scenario, providing evidences that its use can accelerate the time-to-market of m-learning applications, with a reduced number of faults.
9

Evidências sobre o uso de técnicas de geração automática de dados de teste em programas concorrentes / Evidences about the use of automatic test data generation techniques in context of concurrent programs

Vilela, Ricardo Ferreira 01 August 2016 (has links)
Diversas pesquisas apoiam e investigam o teste de programas concorrentes, as quais objetivam, principalmente, a proposição de critérios de teste e mecanismos para execução das diferentes sincronizações entre processos ou threads. As características específicas dessas aplicações podem ocasionar diferentes tipos de defeitos, os quais, em sua maioria, não são facilmente identificados. Nesse contexto, a geração automática de dados de teste pode apoiar a atividade de teste atuando na seleção de entradas mais representativas, ou seja, aquelas com maior probabilidade de revelar defeitos. Apesar disso, poucas pesquisas abordam este tema no contexto de programas concorrentes, e as existentes não consideram aspectos importantes desse tipo de aplicação. A geração de dados de teste para programas sequenciais dispõe de uma variedade de técnicas que apoiam a seleção dos dados de teste. Essas técnicas têm sido estendidas para o contexto de programas concorrentes partindo da premissa que esses programas necessitam de abordagens mais complexas para seleção de entradas, em decorrência disso um maior custo é imposto ao teste. Considerando esse contexto, uma lacuna ainda em aberto é a avaliação das técnicas para o cenário de programas concorrentes. Neste trabalho a avaliação das técnicas foi explorada por meio da realização de estudos experimentais, os quais avaliaram diferentes técnicas de geração de dados de teste para o contexto de programas concorrentes, considerando a eficácia em revelar defeitos, cobertura de critérios e custo para atividade de teste. Os resultados obtidos demonstraram que as técnicas empregadas para programas sequenciais não atingem o mínimo esperado para este tipo aplicação. Apesar disso, as técnicas investigadas apresentaram características importantes que podem auxiliar a atividade de teste para programas concorrentes e a proposição de abordagens efetivas de geração de dados para esse contexto. / The concurrent program testing has been largely investigated with propositions of testing criteria and mechanisms, which aim mainly to testing criteria proposition and mechanisms for execution of different synchronizations. The specific characteristics of these applications can lead to the different types of faults, which, in most of cases, are not easily identified. In this context, the automatic test data generation can support the testing activity acting in selecting the most representative data tests, i.e. those most likely to reveal faults. Nevertheless, few studies address this issue in the context of concurrent programs, and the these studies do not consider important aspects of this type of application. In contrast, we can find several techniques proposed to support the test data generation for sequential programs. These techniques have been extended to the context of concurrent programs on the premise that these programs require more complex approaches for selection of test data. As a result, a greater cost for testing activity is enforced. Considering this context, a gap still open is the evaluation of techniques for the scenario of concurrent programs. In this work the evaluation of techniques was explored through experimental studies, which different techniques of test data generatoon were evaluated, considering effectiveness, testing coverage and application cost. The results showed that the generation techniques used for sequential programs used in the experimental study do not reach the minimum expected in terms of effectiveness and cost for concurrent programs. Nevertheless, the techniques investigated showed significant features that can help the proposition of effective approaches for test data generation applied to concurrent programs.
10

Evidências sobre o uso de técnicas de geração automática de dados de teste em programas concorrentes / Evidences about the use of automatic test data generation techniques in context of concurrent programs

Ricardo Ferreira Vilela 01 August 2016 (has links)
Diversas pesquisas apoiam e investigam o teste de programas concorrentes, as quais objetivam, principalmente, a proposição de critérios de teste e mecanismos para execução das diferentes sincronizações entre processos ou threads. As características específicas dessas aplicações podem ocasionar diferentes tipos de defeitos, os quais, em sua maioria, não são facilmente identificados. Nesse contexto, a geração automática de dados de teste pode apoiar a atividade de teste atuando na seleção de entradas mais representativas, ou seja, aquelas com maior probabilidade de revelar defeitos. Apesar disso, poucas pesquisas abordam este tema no contexto de programas concorrentes, e as existentes não consideram aspectos importantes desse tipo de aplicação. A geração de dados de teste para programas sequenciais dispõe de uma variedade de técnicas que apoiam a seleção dos dados de teste. Essas técnicas têm sido estendidas para o contexto de programas concorrentes partindo da premissa que esses programas necessitam de abordagens mais complexas para seleção de entradas, em decorrência disso um maior custo é imposto ao teste. Considerando esse contexto, uma lacuna ainda em aberto é a avaliação das técnicas para o cenário de programas concorrentes. Neste trabalho a avaliação das técnicas foi explorada por meio da realização de estudos experimentais, os quais avaliaram diferentes técnicas de geração de dados de teste para o contexto de programas concorrentes, considerando a eficácia em revelar defeitos, cobertura de critérios e custo para atividade de teste. Os resultados obtidos demonstraram que as técnicas empregadas para programas sequenciais não atingem o mínimo esperado para este tipo aplicação. Apesar disso, as técnicas investigadas apresentaram características importantes que podem auxiliar a atividade de teste para programas concorrentes e a proposição de abordagens efetivas de geração de dados para esse contexto. / The concurrent program testing has been largely investigated with propositions of testing criteria and mechanisms, which aim mainly to testing criteria proposition and mechanisms for execution of different synchronizations. The specific characteristics of these applications can lead to the different types of faults, which, in most of cases, are not easily identified. In this context, the automatic test data generation can support the testing activity acting in selecting the most representative data tests, i.e. those most likely to reveal faults. Nevertheless, few studies address this issue in the context of concurrent programs, and the these studies do not consider important aspects of this type of application. In contrast, we can find several techniques proposed to support the test data generation for sequential programs. These techniques have been extended to the context of concurrent programs on the premise that these programs require more complex approaches for selection of test data. As a result, a greater cost for testing activity is enforced. Considering this context, a gap still open is the evaluation of techniques for the scenario of concurrent programs. In this work the evaluation of techniques was explored through experimental studies, which different techniques of test data generatoon were evaluated, considering effectiveness, testing coverage and application cost. The results showed that the generation techniques used for sequential programs used in the experimental study do not reach the minimum expected in terms of effectiveness and cost for concurrent programs. Nevertheless, the techniques investigated showed significant features that can help the proposition of effective approaches for test data generation applied to concurrent programs.

Page generated in 0.4981 seconds