• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 7
  • 1
  • Tagged with
  • 27
  • 27
  • 27
  • 25
  • 11
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Avalia??o sistem?tica de abordagens de deriva??o de produto

Torres, M?rio S?rgio Scaramuzzi 17 February 2011 (has links)
Made available in DSpace on 2014-12-17T15:47:57Z (GMT). No. of bitstreams: 1 MarioSST_DISSERT.pdf: 2743049 bytes, checksum: da23e766aa49e7926f3ad6450145c626 (MD5) Previous issue date: 2011-02-17 / Conselho Nacional de Desenvolvimento Cient?fico e Tecnol?gico / Product derivation tools are responsible for automating the development process of software product lines. The configuration knowledge, which is responsible for mapping the problem space to the solution space, plays a fundamental role on product derivation approaches. Each product derivation approach adopts different strategies and techniques to manage the existing variabilities in code assets. There is a lack of empirical studies to analyze these different approaches. This dissertation has the aim of comparing systematically automatic product derivation approaches through of the development of two different empirical studies. The studies are analyzed under two perspectives: (i) qualitative that analyzes the characteristics of approaches using specific criteria; and (ii) quantitative that quantifies specific properties of product derivation artifacts produced for the different approaches. A set of criteria and metrics are also being proposed with the aim of providing support to the qualitative and quantitative analysis. Two software product lines from the web and mobile application domains are targets of our study / Abordagens de deriva??o de produto s?o respons?veis por automatizar o processo de engenharia de aplica??o de linhas de produto de software. O conhecimento de configura??o, que ? respons?vel por relacionar o espa?o do problema com o espa?o da solu??o, desempenha um papel fundamental nas abordagens de deriva??o de produto. Cada ferramenta adota estrat?gias e t?cnicas diferentes para gerenciar o processo de deriva??o de produto e h? uma car?ncia de estudos experimentais para avaliar as diferentes abordagens. Esta disserta??o de mestrado tem como objetivo comparar sistematicamente abordagens de deriva??o autom?tica de produtos, atrav?s do desenvolvimento de estudos emp?ricos. Os estudos s?o desenvolvidos sob duas perspectivas: (i) qualitativa atrav?s da an?lise de caracter?sticas das ferramentas; e (ii) quantitativa atrav?s da quantifica??o de propriedades espec?ficas de artefatos de deriva??o produzidos para as ferramentas. Um conjunto de crit?rios e m?tricas tamb?m ? proposto com o objetivo de oferecer suporte para as an?lises qualitativas e quantitativas. Duas linhas de produto, uma para o dom?nio de sistemas web e outra para o contexto de aplica??es de dispositivos m?veis, s?o alvos do nosso estudo
22

Insight : uma abordagem guiada pela informação para análise qualitativa com suporte de visualização e mineração de texto

Hernandes, Elis Cristina Montoro 25 August 2014 (has links)
Submitted by Alison Vanceto (alison-vanceto@hotmail.com) on 2017-02-10T11:21:07Z No. of bitstreams: 1 TeseECMH.pdf: 5016372 bytes, checksum: 1ae169c4a370a647c5616953817c07a6 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-13T18:33:05Z (GMT) No. of bitstreams: 1 TeseECMH.pdf: 5016372 bytes, checksum: 1ae169c4a370a647c5616953817c07a6 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-03-13T18:33:16Z (GMT) No. of bitstreams: 1 TeseECMH.pdf: 5016372 bytes, checksum: 1ae169c4a370a647c5616953817c07a6 (MD5) / Made available in DSpace on 2017-03-13T18:46:36Z (GMT). No. of bitstreams: 1 TeseECMH.pdf: 5016372 bytes, checksum: 1ae169c4a370a647c5616953817c07a6 (MD5) Previous issue date: 2014-08-25 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Instituto Nacional de Estudos e Pesquisas Educacionais (INEP) / Usually, experimental studies that are conducted to generate evidences on the different scientific fields produce many qualitative data to be analyzed by researchers. For instance, this is the case of defects lists generated from the software inspection activity, which defects consist of qualitative data that should be discussed and classified. This scenario was experienced during the Readers Project, where defects lists have token long time to be analyzed, sometimes hours or days, making the decisions about defects difficult. Moreover, feedback questionnaires deserved a careful analysis, since they carried relevant information about the experimental study. Aim: Driven by the described situation this research aimed to support the qualitative analysis conduction in an information-guided way, using visualization and text mining techniques to enable it. This approach allows software inspection defects described similarly be analyzed together, due to the use of these techniques, which may allow the homogeneity of the decisions about them. The same happens in the context of feedback questionnaires. Methodology: Based on the objective, the ways that visualization and text mining could contribute to become qualitative analysis more effective and efficient were investigated and designed. Considering it, the Insight tool was developed to enable the information-guided qualitative analysis. Experimental studies were conducted to validate and evaluate the approach on different contexts. Results: Four experimental studies were conducted: (i) a feasibility study conducted with text documents which gave evidences that the use of visualization and text mining met previous expectations and was feasible to be employed; (ii) a study in the context of software inspection which, although the quantitative data did not present statistical significance, the descriptive statistics and feedback questionnaires analysis gave evidences that visualization and text mining makes the qualitative analysis effective and efficient; (iii) a study in the context of questionnaires, which results were similar to the previous study; (iv) a case study in the context of qualitative analysis of long text documents which gave evidences about the utility and ease of use of the approach. Conclusion: Under the different contexts of evaluation, the Insight, an information-guided qualitative analysis approach that is based on visualization and text mining, gave evidences about the improvements on efficiency and effectiveness. Adding to its relevance in software engineering area, this research also contributes to other scientific fields, which often claim for technological support to conduct their research. / Em geral, os estudos experimentais, que são responsáveis pela construção de evidências nas várias áreas da ciência, geram grande volume de dados qualitativos que devem ser analisados. Esse é o caso, por exemplo, de listas de defeitos derivadas de atividades de inspeção, cujos defeitos correspondem a dados qualitativos que devem ser discutidos e analisados. Esse cenário ocorreu no Projeto Readers, em que as listas de defeitos consumiam horas e dias para serem analisadas, o que dificultava a decisão sobre eles. Além disso, os questionários de feedback também mereciam análise cuidadosa, pois traziam informações relevantes sobre o estudo experimental. Objetivo: Motivado pela situação descrita, esta pesquisa teve o objetivo de apoiar a condução da técnica Coding de forma que a análise dos dados seja feita guiada pela informação, utilizando para isso visualização e mineração de texto. Isso possibilita que, no contexto de inspeção de software, relatos de defeitos semelhantes sejam tratados em um mesmo momento, em decorrência do uso dessas técnicas, fazendo que as decisões sejam homogêneas. O mesmo acontece com informações do questionário de feedback. Metodologia: Com base no objetivo estabeleceram-se as formas com que a visualização e mineração de texto poderiam contribuir para tornar a análise dos dados mais efetiva e eficiente. Com base nessas definições a ferramenta Insight foi desenvolvida para tornar viável a codificação guiada pela informação. Estudos experimentais foram conduzidos para validar e avaliar a tese em diferentes contextos. Resultados: Foram realizados quatro estudos experimentais: (i) estudo de viabilidade conduzido com documentos textuais que evidenciou que o uso de visualização e mineração de texto atendia à expectativa e era viável de ser adotado; (ii) estudo realizado no contexto de reunião de inspeção que, embora não tenha apresentado significância estatística dos resultados, evidenciou por meio das análises descritivas e análise dos questionários de feedback que o uso de visualização e mineração de texto para esta atividade a torna mais efetiva e eficiente; (iii) estudo realizado no contexto de questionários, cujos resultados foram semelhantes ao anterior; (iv) estudo de caso feito no contexto de análise qualitativa que evidenciou a utilidade e facilidade de uso da abordagem para analisar documentos textuais extensos. Conclusão: Nos diferentes contextos em que foi avaliada, a abordagem de análise qualitativa guiada pela informação, baseada em visualização e mineração de texto, evidenciou melhorias na efetividade e eficiência da atividade. Além da relevância da pesquisa para a área de Engenharia de Software, ressalta-se que ela é uma contribuição para outras áreas do conhecimento, muitas vezes carentes de suporte tecnológicos para a condução de suas pesquisas.
23

Um framework de testes unitários para procedimentos de carga em ambientes de business intelligence

Santos, Igor Peterson Oliveira 30 August 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Business Intelligence (BI) relies on Data Warehouse (DW), a historical data repository designed to support the decision making process. Despite the potential benefits of a DW, data quality issues prevent users from realizing the benefits of a BI environment and Data Analytics. Problems related to data quality can arise in any stage of the ETL (Extract, Transform and Load) process, especially in the loading phase. This thesis presents an approach to automate the selection and execution of previously identified test cases for loading procedures in BI environments and Data Analytics based on DW. To verify and validate the approach, a unit test framework was developed. The overall goal is achieve data quality improvement. The specific aim is reduce test effort and, consequently, promote test activities in DW process. The experimental evaluation was performed by two controlled experiments in the industry. The first one was carried out to investigate the adequacy of the proposed method for DW procedures development. The Second one was carried out to investigate the adequacy of the proposed method against a generic framework for DW procedures development. Both results showed that our approach clearly reduces test effort and coding errors during the testing phase in decision support environments. / A qualidade de um produto de software está diretamente relacionada com os testes empregados durante o seu desenvolvimento. Embora os processos de testes para softwares aplicativos e sistemas transacionais já apresentem um alto grau de maturidade, estes devem ser investigados para os processos de testes em um ambiente de Business Intelligence (BI) e Data Analytics. As diferenças deste ambiente em relação aos demais tipos de sistemas fazem com que os processos e ferramentas de testes existentes precisem ser ajustados a uma nova realidade. Neste contexto, grande parte das aplicações de Business Intelligence (BI) efetivas depende de um Data Warehouse (DW), um repositório histórico de dados projetado para dar suporte a processos de tomada de decisão. São as cargas de dados para o DW que merecem atenção especial relativa aos testes, por englobar procedimentos críticos em relação à qualidade. Este trabalho propõe uma abordagem de testes, baseada em um framework de testes unitários, para procedimentos de carga em um ambiente de BI e Data Analytics. O framework proposto, com base em metadados sobre as rotinas de carga, realiza a execução automática de casos de testes, por meio da geração de estados iniciais e a análise dos estados finais, bem como seleciona os casos de testes a serem aplicados. O objetivo é melhorar a qualidade dos procedimentos de carga de dados e reduzir o tempo empregado no processo de testes. A avaliação experimental foi realizada através de dois experimentos controlados executados na indústria. O primeiro avaliou a utilização de casos de testes para as rotinas de carga, comparando a efetividade do framework com uma abordagem manual. O segundo experimento efetuou uma comparação com um framework genérico e similar do mercado. Os resultados indicaram que o framework pode contribuir para o aumento da produtividade e redução dos erros de codificação durante a fase de testes em ambientes de suporte à decisão.
24

Cross-project defect prediction with meta-Learning / Predição de defeitos cruzada entre projetos apoiado por meta-aprendizado

Faimison Rodrigues Porto 29 September 2017 (has links)
Defect prediction models assist tester practitioners on prioritizing the most defect-prone parts of the software. The approach called Cross-Project Defect Prediction (CPDP) refers to the use of known external projects to compose the training set. This approach is useful when the amount of historical defect data of a company to compose the training set is inappropriate or insufficient. Although the principle is attractive, the predictive performance is a limiting factor. In recent years, several methods were proposed aiming at improving the predictive performance of CPDP models. However, to the best of our knowledge, there is no evidence of which CPDP methods typically perform best. Moreover, there is no evidence on which CPDP methods perform better for a specific application domain. In fact, there is no machine learning algorithm suitable for all domains. The decision task of selecting an appropriate algorithm for a given application domain is investigated in the meta-learning literature. A meta-learning model is characterized by its capacity of learning from previous experiences and adapting its inductive bias dynamically according to the target domain. In this work, we investigate the feasibility of using meta-learning for the recommendation of CPDP methods. In this thesis, three main goals were pursued. First, we provide an experimental analysis to investigate the feasibility of using Feature Selection (FS) methods as an internal procedure to improve the performance of two specific CPDP methods. Second, we investigate which CPDP methods present typically best performances. We also investigate whether the typically best methods perform best for the same project datasets. The results reveal that the most suitable CPDP method for a project can vary according to the project characteristics, which leads to the third investigation of this work. We investigate the several particularities inherent to the CPDP context and propose a meta-learning solution able to learn from previous experiences and recommend a suitable CDPD method according to the characteristics of the project being predicted. We evaluate the learning capacity of the proposed solution and its performance in relation to the typically best CPDP methods. / Modelos de predição de defeitos auxiliam profissionais de teste na priorização de partes do software mais propensas a conter defeitos. A abordagem de predição de defeitos cruzada entre projetos (CPDP) refere-se à utilização de projetos externos já conhecidos para compor o conjunto de treinamento. Essa abordagem é útil quando a quantidade de dados históricos de defeitos é inapropriada ou insuficiente para compor o conjunto de treinamento. Embora o princípio seja atrativo, o desempenho de predição é um fator limitante nessa abordagem. Nos últimos anos, vários métodos foram propostos com o intuito de melhorar o desempenho de predição de modelos CPDP. Contudo, na literatura, existe uma carência de estudos comparativos que apontam quais métodos CPDP apresentam melhores desempenhos. Além disso, não há evidências sobre quais métodos CPDP apresentam melhor desempenho para um domínio de aplicação específico. De fato, não existe um algoritmo de aprendizado de máquina que seja apropriado para todos os domínios de aplicação. A tarefa de decisão sobre qual algoritmo é mais adequado a um determinado domínio de aplicação é investigado na literatura de meta-aprendizado. Um modelo de meta-aprendizado é caracterizado pela sua capacidade de aprender a partir de experiências anteriores e adaptar seu viés de indução dinamicamente de acordo com o domínio alvo. Neste trabalho, nós investigamos a viabilidade de usar meta-aprendizado para a recomendação de métodos CPDP. Nesta tese são almejados três principais objetivos. Primeiro, é conduzida uma análise experimental para investigar a viabilidade de usar métodos de seleção de atributos como procedimento interno de dois métodos CPDP, com o intuito de melhorar o desempenho de predição. Segundo, são investigados quais métodos CPDP apresentam um melhor desempenho em um contexto geral. Nesse contexto, também é investigado se os métodos com melhor desempenho geral apresentam melhor desempenho para os mesmos conjuntos de dados (ou projetos de software). Os resultados revelam que os métodos CPDP mais adequados para um projeto podem variar de acordo com as características do projeto sendo predito. Essa constatação conduz à terceira investigação realizada neste trabalho. Foram investigadas as várias particularidades inerentes ao contexto CPDP a fim de propor uma solução de meta-aprendizado capaz de aprender com experiências anteriores e recomendar métodos CPDP adequados, de acordo com as características do software. Foram avaliados a capacidade de meta-aprendizado da solução proposta e a sua performance em relação aos métodos base que apresentaram melhor desempenho geral.
25

Um framework de testes unitários para procedimentos de carga em ambientes de business intelligence

Santos, Igor Peterson Oliveira 30 August 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Business Intelligence (BI) relies on Data Warehouse (DW), a historical data repository designed to support the decision making process. Despite the potential benefits of a DW, data quality issues prevent users from realizing the benefits of a BI environment and Data Analytics. Problems related to data quality can arise in any stage of the ETL (Extract, Transform and Load) process, especially in the loading phase. This thesis presents an approach to automate the selection and execution of previously identified test cases for loading procedures in BI environments and Data Analytics based on DW. To verify and validate the approach, a unit test framework was developed. The overall goal is achieve data quality improvement. The specific aim is reduce test effort and, consequently, promote test activities in DW process. The experimental evaluation was performed by two controlled experiments in the industry. The first one was carried out to investigate the adequacy of the proposed method for DW procedures development. The Second one was carried out to investigate the adequacy of the proposed method against a generic framework for DW procedures development. Both results showed that our approach clearly reduces test effort and coding errors during the testing phase in decision support environments. / A qualidade de um produto de software está diretamente relacionada com os testes empregados durante o seu desenvolvimento. Embora os processos de testes para softwares aplicativos e sistemas transacionais já apresentem um alto grau de maturidade, estes devem ser investigados para os processos de testes em um ambiente de Business Intelligence (BI) e Data Analytics. As diferenças deste ambiente em relação aos demais tipos de sistemas fazem com que os processos e ferramentas de testes existentes precisem ser ajustados a uma nova realidade. Neste contexto, grande parte das aplicações de Business Intelligence (BI) efetivas depende de um Data Warehouse (DW), um repositório histórico de dados projetado para dar suporte a processos de tomada de decisão. São as cargas de dados para o DW que merecem atenção especial relativa aos testes, por englobar procedimentos críticos em relação à qualidade. Este trabalho propõe uma abordagem de testes, baseada em um framework de testes unitários, para procedimentos de carga em um ambiente de BI e Data Analytics. O framework proposto, com base em metadados sobre as rotinas de carga, realiza a execução automática de casos de testes, por meio da geração de estados iniciais e a análise dos estados finais, bem como seleciona os casos de testes a serem aplicados. O objetivo é melhorar a qualidade dos procedimentos de carga de dados e reduzir o tempo empregado no processo de testes. A avaliação experimental foi realizada através de dois experimentos controlados executados na indústria. O primeiro avaliou a utilização de casos de testes para as rotinas de carga, comparando a efetividade do framework com uma abordagem manual. O segundo experimento efetuou uma comparação com um framework genérico e similar do mercado. Os resultados indicaram que o framework pode contribuir para o aumento da produtividade e redução dos erros de codificação durante a fase de testes em ambientes de suporte à decisão.
26

Uma abordagem para automatizar a manutenção do código de procedimentos de carga para ambientes de business intelligence

Costa, Juli Kelle Góis 27 August 2015 (has links)
Business Intelligence (BI) relies on Data Warehouse (DW), a historical data repository designed to support the decision making process. Without an effective Data Warehouse, organizations cannot extract the data required for information analysis in time to enable more effective strategic, tactical, and operational insights. This thesis presents an approach and a Rapid Application Development (RAD) tool to increase efficiency and effectiveness of ETL (Extract, Transform and Load) programs creation and maintenance. Experiment evaluation of the approach is carried out in two controlled experiments that carefully evaluated the efficiency and effectiveness of the tool in an industrial setting. The results indicate that our approach can indeed be used as method aimed at improving creation and maintenance of ETL processes. / Grande parte das aplicações de Business Intelligence (BI) efetivas depende de um Data Warehouse (DW), um repositório histórico de dados projetado para dar suporte a processos de tomada de decisão. Sem um DW eficiente, as organizações tendem a não extrair, em um tempo aceitável, os dados que viabilizam ações estratégicas, táticas e operacionais mais eficazes. Muitos ambientes de BI possuem um processo de Engenharia de Software particular, baseado em dados, para desenvolver programas de Extração, Transformação e Carga (ETL) de dados para o DW. Este trabalho propõe o desenvolvimento e experimentação de uma abordagem de Desenvolvimento Rápido de Aplicações (RAD) para aumentar a eficácia e a eficiência da manutenção de procedimentos de carga SQL, utilizados em processos ETL, avaliando a relação existente entre a sua utilização e a qualidade dos dados que são movidos, gerados e atualizados durante o processo de povoamento de um Data Warehouse. Este é um ambiente ímpar que necessita de maior integração e interdisciplinaridade entre as áreas de Engenharia de Software (ES) e Banco de Dados. Foi feita uma avaliação da criação e manutenção automática de procedimentos em extensões da SQL, perfazendo dois experimentos controlados feitos na indústria, para analisar a efetividade de uma ferramenta que encapsula e automatiza parte da abordagem. Os resultados indicaram que a nossa abordagem pode ser usada como método para acelerar e melhorar o desenvolvimento e manutenção de processos ETL.
27

Identificação e análise de clones de códigos heterogêneos em um ambiente corporativo de desenvolvimento de software

Torres, José Jorge Barreto 31 August 2016 (has links)
The demand for speeding up software development inside corporations triggers a series of issues related to coding organization. Software development teams have to achieve business deadlines, so they adopt the bad practice to copy-and-paste code. In this way, clones populate software repositories and hinder the improvement or maintenance of systems. Programming languages with object-oriented paradigm characteristics tend to make easy coding abstraction and reuse processes. However, a question arises: the same team working with several kinds of programming languages are influenced by their paradigms regarding the decrease of cloning incidence? This work proposed an approach to identify, analyze and compare clones inside heterogeneous software repositories without consider the development team profile. The experimental evaluation of the approach was possible thru two controlled experiments which aimed to detect and evaluate clones, using and adapting tools available on market. This evaluation was executed inside an organizational environment, which owned several applications with closed-source code but available to analysis. The final results showed no relationship to the amount of application code lines. Procedural language systems had a lower clone incidence and, when conflicting open and closed source systems, both had similar results regarding to the manifestation of source-code clones. / A exigência por acelerar o desenvolvimento de software nas empresas desencadeia uma série de problemas relacionados à organização do código. As equipes de desenvolvimento, pressionadas a cumprir prazos ditados pela área de negócio, adotam a prática ruim de copiar e colar código. Assim, os clones são criados e povoam os repositórios de software dessas companhias, tornando o aprimoramento e manutenção dos sistemas cada vez mais dificultado. Linguagens de programação que possuem características do paradigma de orientação a objetos tendem a facilitar ainda mais o processo de abstração de código e de reaproveitamento. No entanto, uma questão pode ser feita: uma mesma equipe, trabalhando com diversos tipos de linguagens, sofre influência destes tipos, no que diz respeito à diminuição da incidência de clones? Este trabalho propôs uma abordagem para identificar, analisar e comparar clones em repositórios heterogêneos de software, com uma análise tênue do perfil da equipe envolvida. A avaliação experimental da abordagem foi realizada por meio de dois experimentos controlados, os quais visaram a detecção e a avaliação de clones, utilizando e adaptando o ferramental disponível no mercado. Esta avaliação foi executada in-vivo, em um ambiente organizacional real, o qual possuía uma grande quantidade de aplicações e linhas de código fechado disponíveis para análise. Os resultados finais não apresentaram relação direta com a quantidade de linhas de código das aplicações. Sistemas de linguagem procedural apresentaram menor incidência de clones e, no conflito entre sistemas de código aberto e fechado, ambos tiveram resultados similares no que diz respeito à manifestação de clones de código-fonte.

Page generated in 0.1749 seconds