• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 2
  • 1
  • Tagged with
  • 23
  • 23
  • 13
  • 7
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Detecção de módulos de software propensos a falhas através de técnicas de aprendizagem de máquina

BEZERRA, Miguel Eugênio Ramalho 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:52:09Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / O sucesso de um software depende diretamente de sua qualidade. Tradicionalmente, métodos formais e de inspeção manual de código são usados para assegurá-la. Tais métodos, geralmente, possuem um custo elevado e demandam bastante tempo. Dessa forma, as atividades de teste devem ser planejadas cuidadosamente para evitar o desperdício de recursos. Atualmente, as organizações estão buscando maneiras rápidas e baratas de detectar defeitos em softwares. Porém, mesmo com todos os avanços dos últimos anos, o desenvolvimento de software ainda é uma atividade que depende intensivamente do esforço e do conhecimento humano. Muitos pesquisadores e organizações estão interessados em criar um mecanismo capaz de prever automaticamente defeitos em softwares. Nos últimos anos, técnicas de aprendizagem de máquina vêm sendo utilizadas em diversas pesquisas com esse objetivo. Este trabalho investiga e apresenta um estudo da viabilidade da aplicação de métodos de aprendizagem de máquina na detecção de módulos de software propensos a falhas. Classificadores como redes neurais artificiais e técnicas de aprendizagem baseada em instâncias (instance-based learning) serão usadas nessa tarefa, tendo como fonte de informação as métricas de software retiradas do repositório do Metrics Data Program (MDP) da NASA. Também será apresentado um conjunto de melhorias, propostas durante este trabalho, para alguns desses classificadores. Como a detecção de módulos defeituosos é um problema sensível a custo, este trabalho também propõe um mecanismo capaz de medir analiticamente o custo de cada decisão tomada pelos classificadores
12

Definição e gerenciamento de métricas de teste no contexto de métodos ágeis / Definition and management of testing metrics in agile methods context

André Abe Vicente 22 April 2010 (has links)
Métodos ágeis são técnicas adequadas para o desenvolvimento de software sujeito a mudanças constantes. Essas mudanças não devem afetar o cronograma, orçamento do projeto e devem assegurar o atendimento às necessidades do cliente. Diversos valores, princípios e boas práticas de desenvolvimento e de condução de projeto são aplicados em projetos ágeis com esse objetivo. Algumas dessas práticas são relacionadas a atividade de teste de software. Este trabalho teve como objetivo caracterizar a atividade de teste de software aplicada dentro de métodos de desenvolvimento ágil, buscando eliminar aspectos de teste não produtivos, identificando boas práticas e, principalmente, criando formas de acompanhar e melhorar continuamente a condução da atividade de teste. A partir da caracterização da atividade foi proposta a adoção de um conjunto de métricas para facilitar o seu acompanhamento e melhoria constante da mesma. Algumas dessas métricas de acompanhamento de testes foram implementadas na ferramenta Agile Testing Metrics Management (ATMM). O objetivo principal da ferramenta é gerenciar as iterações de desenvolvimento do projeto ágil e, também, exibir a evolução das métricas relacionadas ao código que está sendo testado e aos casos de teste desenvolvidos utilizando a ferramenta JUnit. Para validar a ferramenta e as métricas foram conduzidos estudos de casos com dois projetos de software de domínios diferentes que utilizaram métodos ágeis e testes de unidade / Agile methods are appropriate techniques for software development subject to constant changes. These changes should not affect the project schedule, budget and must ensure meeting the clients needs. Several values, principles and practices of project development and driving are applied in agile projects with this goal. Some of these practices are related to software testing activity. This study aimed at characterizing the software testing activity applied to agile development methods, trying to eliminate unproductive testing aspects, identifying good practices and especially creating ways of tracking and continuously improve the test activity. From this activity characterization, it was proposed an adoption of metrics set to facilitate the monitoring and constant improvement of the activity. Some of these testing tracking metrics were implemented in the Agile Testing Metrics Management Tool (ATMM). The main goal of this tool is to manage the iterations of agile project development and, also show the metrics evolutions regarding the code that have been tested and the test cases developed using JUnit. The tool and metrics were validated by case studies that were conducted with two software projects of different domains which used agile methods and unit testing
13

Gestão de projetos: o monitoramento e controle nos processos de desenvolvimento de software

Ramos, Rommel Gabriel Gonçalves 07 March 2014 (has links)
Made available in DSpace on 2016-04-29T14:23:26Z (GMT). No. of bitstreams: 1 Rommel Gabriel Goncalves Ramos.pdf: 1268874 bytes, checksum: a50dd4bc0953f7bc2dc15b68d9594492 (MD5) Previous issue date: 2014-03-07 / The purpose of this research is to investigate the existing difficulty in applying the activity of monitoring and control in the processes of software development, presenting tools and indicators that can help to their constant use. Although the processes of software developments indicate activities related to monitoring and control in project management are still lacking in the effective use of these activities. In the case study will address the monitoring and control over the processes of software development, emphasizing the use of indicators of productivity of a company by performing a measurement on the performance of deliveries in software production activities / O propósito desta pesquisa é investigar a dificuldade existente na aplicação da atividade de monitoramento e controle nos processos de desenvolvimento de software, apresentando ferramentas e indicadores que podem auxiliar a sua utilização constante. Apesar dos processos de desenvolvimentos de software indicar atividades ligadas ao monitoramento e controle, na gestão de projetos ainda há uma carência no uso efetivo dessas atividades. No estudo de caso será abordado o monitoramento e controle sobre os processos de desenvolvimento de software, destacando a utilização de indicadores de produtividade de uma empresa, realizando uma mensuração quanto ao desempenho das atividades de entregas realizadas na produção de software
14

Uso de rastreamento do olhar na avaliação da experiência do tele-usuário de aplicações de TV interativa. / Using eye tracking to evaluate the user experience upon interactive television applications.

Eduardo Chimati Giannotto 16 March 2009 (has links)
A implantação da TV Digital Terrestre no Brasil permite que os usuários da TV aberta, principal fonte de informação e entretenimento do país, tenham acesso aos serviços oferecidos pela TV Interativa (TVi). Estes usuários, que constituem uma grande e heterogênea população composta por indivíduos de diversos graus de instrução, faixas etárias e índices de alfabetização digital, passam a adotar uma atitude muito mais ativa em relação a este meio de comunicação tradicionalmente coletivo e passivo, aumentando a possibilidade de escolha e a oferta de conteúdos personalizados. A TVi se torna possível na forma de aplicações interativas enviadas junto com o conteúdo audiovisual da TV. Neste cenário, o rastreamento do olhar, técnica usada para identificar as posições observadas pelo usuário, se apresenta como uma poderosa ferramenta de análise capaz de identificar comportamentos típicos dos usuários, enquanto produz evidências conclusivas, mensuráveis e repetíveis das atividades observadas durante a interação do usuário com a aplicação. Esta pesquisa explora a utilização da técnica de rastreamento do olhar na avaliação de usabilidade de aplicações de TVi e estuda como o rastreamento do olhar pode ser usado para obter dados sobre a interação com estas aplicações. Para tanto, a literatura sobre rastreamento do olhar é investigada, identificando as técnicas e métodos empregados para obter as posições observadas pelos usuários, assim como o uso destas técnicas em avaliações de usabilidade. Para estudar a utilização do rastreamento de olhar em avaliações de usabilidade no ambiente de uso das aplicações da TVi, são feitas adaptações nos sistemas para coleta de dados do rastreamento de olhar no ambiente de TVi. Em seguida, desenvolve-se um experimento em que as técnicas de rastreamento de olhar são usadas simultaneamente com as técnicas clássicas de avaliação de usabilidade, para avaliação de duas aplicações de TVi. Os procedimentos e o ambiente de teste utilizado são apresentados em detalhes. Os resultados obtidos da realização do experimento com 30 usuários, com ambas as técnicas, são comparados, mostrando as contribuições e limitações do rastreamento do olhar para explicar problemas de usabilidade e identificar comportamentos dos usuários. / The introduction of digital terrestrial TV in Brazil allows users of free TV, the main source of information and entertainment in the country, to have access to services offered by Interactive TV (TVi). These users, who constitute a large and heterogeneous population, composed of individuals of varying degrees of education, age and knowledge of computers, will adopt a more proactive attitude regarding this means of communication traditionally collective and passive, raising the possibility of choice and supply of personalized content. The TVi becomes possible in the form of interactive applications sent together with audiovisual content of TV. In this scenario, the eye tracking, technique used for identifying positions observed by the user, presents itself as a powerful analysis tool with the ability to identify typical behavior of users, while producing conclusive, measurable and repeatable evidence about the activities observed during the interaction of users with applications. This research explores the use of eye tracking technique in the usability evaluation of TVis applications and examines how eye tracking can be used to obtain data about users and applications interaction. Hence, the eye tracking literature is investigated; identifying techniques and methods used to obtain the observed positions by users, and how to use these techniques in the usability evaluation. To study the use of the eye tracking in usability evaluations that took place in the environment of use of TVi\'s applications, changes are made in the systems that collect the eye tracking data on this environment. Then, an experiment in which the eye tracking techniques are used together to the traditional usability evaluation techniques is developed to evaluate two TVi\'s applications. The test procedures and the test environment are presented in details. The experiment results, with 30 users, using traditional and eye tracking evaluation techniques are compared, showing the contributions and limitations of eye tracking to explain usability problems and to identify users behaviors.
15

Uso de rastreamento do olhar na avaliação da experiência do tele-usuário de aplicações de TV interativa. / Using eye tracking to evaluate the user experience upon interactive television applications.

Giannotto, Eduardo Chimati 16 March 2009 (has links)
A implantação da TV Digital Terrestre no Brasil permite que os usuários da TV aberta, principal fonte de informação e entretenimento do país, tenham acesso aos serviços oferecidos pela TV Interativa (TVi). Estes usuários, que constituem uma grande e heterogênea população composta por indivíduos de diversos graus de instrução, faixas etárias e índices de alfabetização digital, passam a adotar uma atitude muito mais ativa em relação a este meio de comunicação tradicionalmente coletivo e passivo, aumentando a possibilidade de escolha e a oferta de conteúdos personalizados. A TVi se torna possível na forma de aplicações interativas enviadas junto com o conteúdo audiovisual da TV. Neste cenário, o rastreamento do olhar, técnica usada para identificar as posições observadas pelo usuário, se apresenta como uma poderosa ferramenta de análise capaz de identificar comportamentos típicos dos usuários, enquanto produz evidências conclusivas, mensuráveis e repetíveis das atividades observadas durante a interação do usuário com a aplicação. Esta pesquisa explora a utilização da técnica de rastreamento do olhar na avaliação de usabilidade de aplicações de TVi e estuda como o rastreamento do olhar pode ser usado para obter dados sobre a interação com estas aplicações. Para tanto, a literatura sobre rastreamento do olhar é investigada, identificando as técnicas e métodos empregados para obter as posições observadas pelos usuários, assim como o uso destas técnicas em avaliações de usabilidade. Para estudar a utilização do rastreamento de olhar em avaliações de usabilidade no ambiente de uso das aplicações da TVi, são feitas adaptações nos sistemas para coleta de dados do rastreamento de olhar no ambiente de TVi. Em seguida, desenvolve-se um experimento em que as técnicas de rastreamento de olhar são usadas simultaneamente com as técnicas clássicas de avaliação de usabilidade, para avaliação de duas aplicações de TVi. Os procedimentos e o ambiente de teste utilizado são apresentados em detalhes. Os resultados obtidos da realização do experimento com 30 usuários, com ambas as técnicas, são comparados, mostrando as contribuições e limitações do rastreamento do olhar para explicar problemas de usabilidade e identificar comportamentos dos usuários. / The introduction of digital terrestrial TV in Brazil allows users of free TV, the main source of information and entertainment in the country, to have access to services offered by Interactive TV (TVi). These users, who constitute a large and heterogeneous population, composed of individuals of varying degrees of education, age and knowledge of computers, will adopt a more proactive attitude regarding this means of communication traditionally collective and passive, raising the possibility of choice and supply of personalized content. The TVi becomes possible in the form of interactive applications sent together with audiovisual content of TV. In this scenario, the eye tracking, technique used for identifying positions observed by the user, presents itself as a powerful analysis tool with the ability to identify typical behavior of users, while producing conclusive, measurable and repeatable evidence about the activities observed during the interaction of users with applications. This research explores the use of eye tracking technique in the usability evaluation of TVis applications and examines how eye tracking can be used to obtain data about users and applications interaction. Hence, the eye tracking literature is investigated; identifying techniques and methods used to obtain the observed positions by users, and how to use these techniques in the usability evaluation. To study the use of the eye tracking in usability evaluations that took place in the environment of use of TVi\'s applications, changes are made in the systems that collect the eye tracking data on this environment. Then, an experiment in which the eye tracking techniques are used together to the traditional usability evaluation techniques is developed to evaluate two TVi\'s applications. The test procedures and the test environment are presented in details. The experiment results, with 30 users, using traditional and eye tracking evaluation techniques are compared, showing the contributions and limitations of eye tracking to explain usability problems and to identify users behaviors.
16

Seleção automatizada de serviços web baseada em métricas funcionais e estruturais

Lima, Alysson Alves de 23 August 2016 (has links)
Submitted by Maike Costa (maiksebas@gmail.com) on 2017-06-29T15:06:59Z No. of bitstreams: 1 arquivototal.pdf: 2340814 bytes, checksum: bdce9ccd956442015a53d57f06a00741 (MD5) / Made available in DSpace on 2017-06-29T15:06:59Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2340814 bytes, checksum: bdce9ccd956442015a53d57f06a00741 (MD5) Previous issue date: 2016-08-23 / Software Engineering is a discipline that encompasses all aspects of the production of a software system, from the early stages of the system specification to maintenance, when the system is already being used. A very interesting area in Software Engineering is software reuse, which impacts positively on reducing time, costs and risks in software development processes. Therefore, it can be stated that software reuse improves not only the software development process, but also the product itself. One of the main approaches for software reuse is service oriented development, which adopts the Service-Oriented Architecture (SOA) paradigm. In SOA, services represent a natural evolution of component-based development, and therefore can be defined as loosely coupled, reusable software components, that encapsulate discrete functionality, can be distributed and remotely accessed through coding. It is important to highlight that while SOA is an architectural paradigm for developing software systems, Web Services represent the most widely existing technology adopted to implement SOA exploring protocols based on Internet standards and on XML. With the growth of the market and the use of web services, the tendency is always increase the number of services available for assembly applications in different contexts, making impractical the task of manually selecting the services required to compose a software system. Consequently, one can state that the effort needed to select the required services tends to increase more and more, creating a problem with a large and complex search space, making it necessary the automation of the selection process based on metaheuristic search techniques. In this context, the proposed work aims to automate the web services selection process using techniques of Search-Based Software Engineering, in which the selection strategy is guided by structural and functional metrics that have the purpose of evaluating the similarity between the specifications and respective implementations of candidate services as well as their dependencies, thus reducing the effort of adaptation and integration of web services developed by different suppliers. / Engenharia de Software é uma disciplina que engloba todos os aspectos da produção de um sistema de software, incluindo desde os estágios iniciais da especificação do sistema até sua manutenção, quando o sistema já está sendo utilizado. Uma área de estudo bastante interessante da Engenharia de Software é o reuso de software, que impacta positivamente na redução do tempo, dos custos e dos riscos provenientes de um processo de desenvolvimento de software. Portanto, é possível afirmar que o reuso de software melhora, não apenas o processo de desenvolvimento de software, mas também o próprio produto. Uma das principais abordagens de reuso de software é o desenvolvimento orientado a serviços, que adota o paradigma da Arquitetura Orientada a Serviços (SOA – Service-Oriented Architecture). No paradigma SOA, serviços representam uma evolução natural do desenvolvimento baseado em componentes, e, portanto, podem ser definidos como componentes de software de baixo acoplamento, reusáveis, que encapsulam funcionalidades discretas, que podem ser distribuídos e acessados remotamente de forma programática. É importante destacar que, enquanto SOA é um paradigma arquitetural para desenvolvimento de sistemas de software, serviços web (web services) representam a tecnologia existente mais amplamente adotada para implementar SOA explorando protocolos baseados em padrões da internet e em XML (eXtensible Markup Language). Com o crescimento do mercado e utilização dos serviços web, a tendência é sempre aumentar o número de serviços disponíveis para montagem de aplicações em diferentes contextos, tornando impraticável a tarefa de selecionar de forma manual os serviços requeridos para compor um sistema de software. Consequentemente, é possível afirmar que o esforço necessário para selecionar os serviços requeridos tende a aumentar cada vez mais, gerando um problema com um grande e complexo espaço de busca, tornando necessária a automatização do processo de seleção baseada em técnicas de busca metaheurística. Neste contexto, o trabalho proposto visa automatizar o processo de seleção de serviços web utilizando técnicas da Engenharia de Software Baseada em Buscas, cuja estratégia de seleção é orientada por métricas funcionais e estruturais, que têm o propósito de avaliar a similaridade entre as especificações e as respectivas implementações dos serviços candidatos, bem como as suas dependências, reduzindo assim o esforço de adaptação e integração de serviços web desenvolvidos por fornecedores distintos.
17

Análise de correlação entre métricas de evolução e qualidade de design de software. / Correlation analysis between evolution metrics and software design quality.

ASSIS, Pablo Oliveira Antonino de. 16 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-16T14:17:44Z No. of bitstreams: 1 PABLO OLIVEIRA ANTONINO DE ASSIS - DISSERTAÇÃO PPGCC 2009..pdf: 1244760 bytes, checksum: 30e75bebed5cedb9f7f2d0eb80097c6f (MD5) / Made available in DSpace on 2018-08-16T14:17:44Z (GMT). No. of bitstreams: 1 PABLO OLIVEIRA ANTONINO DE ASSIS - DISSERTAÇÃO PPGCC 2009..pdf: 1244760 bytes, checksum: 30e75bebed5cedb9f7f2d0eb80097c6f (MD5) Previous issue date: 2009-03-13 / Capes / Nós investigamos a evolução de oito softwares open source e cinco proprietários, a fim de verificar a existência de correlações estatísticas entre complexidade e medidas de qualidade em termos de bad smells e bugs. Em todos os projetos, encontramos fortes correlações estatísticas entre medidas de complexidade (WMC) e qualidade. Todos os softwares proprietários e cinco open source apresentaram índices de correlação muito forte (r > 0.9). Surpreendentemente, em três dos softwares open source, a correlação encontrada foi forte, porém negativa. Isto é atribuído ao fato de que, nestes projetos, os bad smells foram removidos intencionalmente. Este resultado sugere que, apesar da correlação, não existe necessariamente relação de causa-efeito entre métricas de complexidade e de qualidade. Dessa maneira, concluímos que apenas eliminar bad smells não é uma boa estratégia a ser seguida se o objetivo for reduzir a complexidade do design e melhorar a qualidade nos termos associados à redução da complexidade. / We have studied the evolution of eight open source projects and five proprietary ones, looking for statistical correlations between complexity and quality measures in terms of bad smells and bugs detected. In all projects, we found strong statistical correlations between complexity (WMC) and quality measures. In all the legacies softwares and five of open sources, the correlation can be considered very strong (r > 0.9). Surprisingly, in three of the open source, the correlation is strong, but negative. This has been attributed to the fact that, in these projects, designers have intentionally controlled the quality measures under study, by applying refactoring strategies. These results suggest that, despite the correlation, there is no necessary cause-effect relation between complexity and quality measures. We conclude that just eliminate bad smells is not a good strategy to be followed if the desired objective is to reduce software design complexity. Then also does not improve software quality in terms associated to software complexity reduction.
18

Uso de um método preditivo para inferir a zona de aprendizagem de alunos de programação em um ambiente de correção automática de código

Pereira, Filipe Dwan, 95-99119-6508 29 March 2018 (has links)
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-06-04T13:02:42Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Filipe Dwan.pdf: 3617202 bytes, checksum: 21261ba9c1db7a40af29004bd0bb6f52 (MD5) / Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2018-06-04T13:02:58Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Filipe Dwan.pdf: 3617202 bytes, checksum: 21261ba9c1db7a40af29004bd0bb6f52 (MD5) / Made available in DSpace on 2018-06-04T13:02:58Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Filipe Dwan.pdf: 3617202 bytes, checksum: 21261ba9c1db7a40af29004bd0bb6f52 (MD5) Previous issue date: 2018-03-29 / CS1 (first year programming) classes are known to have a high dropout and non-pass rate. Thus, there have been many studies attempting to predict and alleviate CS1 student performance. Knowing about student performance in advance can be useful for many reasons. For example, teachers can apply specific actions to help learners who are struggling, as well as provide more challenging activities to high-achievers. Initial studies used static factors, such as: high school grades, age, gender. However, student behavior is dynamic and, as such, a data-driven approach has been gaining more attention, since many universities are using web-based environments to support CS1 classes. Thereby, many researchers have started extracting student behavior by cleaning data collected from these environments and using them as features in machine learning (ML) models. Recently, the research community has proposed many predictive methods available, even though many of these studies would need to be replicated, to check if they are context-sensitive. Thus, we have collected a set of successful features correlated with the student grade used in related studies, compiling the best ML attributes, as well as adding new features, and applying them on a database representing 486 CS1 students. The set of features was used in ML pipelines which were optimized with two approaches: hyperparameter-tuning with random search and genetic programming. As a result, we achieved an accuracy of 74.44%, using data from the first two weeks to predict student final grade, which outperforms a state-of-the-art research applied to the same dataset. It is also worth noting that from the eighth week of class, the method achieved accuracy between 85% and 90.62%. / Em média, um terço dos alunos no mundo reprova em disciplinas de introdução à programação de computadores (IPC). Assim, muitos estudos vêm sendo conduzidos a fim de inferir o desempenho de estudantes de turmas de IPC. Inicialmente, pesquisadores investigavam a relação das notas dos alunos com fatores estáticos como: notas no ensino médio, gênero, idade e outros. Entretanto, o comportamento dos estudantes é dinâmico e, dessa forma, abordagens orientadas aos dados vêm ganhando atenção, uma vez que muitas universidades utilizam ambientes web para turmas de programação como juízes online. Com efeito, muitos pesquisadores vêm extraindo e tratando os dados dos estudantes a partir desses ambientes e usando-os como atributos de algoritmos de aprendizagem de máquina para a construção de modelos preditivos. No entanto, a comunidade científica sugere que tais estudos sejam reproduzidos a fim de investigar se eles são generalizáveis a outras bases de dados educacionais. Neste sentido, neste trabalho apresentou-se um método que emprega um conjunto de atributos correlacionados com as notas dos estudantes, sendo alguns baseados em trabalhos relacionados e outros propostos nesta pesquisa, a fim de realizar a predição do desempenho dos alunos nas avaliações intermediárias e nas médias finais. Tal método foi aplicado a uma base de dados com 486 alunos de IPC. O conjunto de atributos chamado de perfil de programação foi empregado em algoritmos de aprendizagem de máquina e otimizado utilizando duas abordagens: a) ajuste de hiperparâmetros com random search e b) construção do pipeline de aprendizagem de máquina utilizando algoritmos evolutivos. Como resultado, atingiu-se 74,44% de acurácia na tarefa de identificar se os alunos iriam ser reprovados ou aprovados usando os dados das duas semanas de aula em uma base de dados balanceada. Esse resultado foi estatisticamente superior ao baseline. Destaca-se ainda que a partir da oitava semana de aula, o método atingiu acurácias entre 85% e 90,62%.
19

Algoritmos para avaliação da qualidade de vídeo em sistemas de televisão digital. / Video quality assessment algorithms in digital television applications.

Roberto Nery da Fonseca 15 October 2008 (has links)
Nesta dissertação é abordado o tema da avaliação de qualidade em sinais de vídeo, especificamente da avaliação objetiva completamente referenciada de sinais de vídeo em definição padrão. A forma mais confiável de se medir a diferença de qualidade entre duas cenas de vídeo é utilizando um painel formado por telespectadores, resultando em uma medida subjetiva da diferença de qualidade. Esta metodologia demanda um longo período de tempo e um elevado custo operacional, o que a torna pouco prática para utilização. Neste trabalho são apresentados os aspectos relevantes do sistema visual humano, das metodologias para avaliação de vídeo em aplicações de televisão digital em definição padrão e também da validação destas metodologias. O objetivo desta dissertação é testar métricas de baixo custo computacional como a que avalia a relação sinal-ruído de pico (PSNR: Peak Signal-to-Noise Ratio), a que mede similaridade estrutural (SSIM: Structural SIMilarity) e a que mede diferenças em três componentes de cor definidas pela CIE (Commission Internationale de l\'Eclairage), representadas por L*, a* e b* em uma dada extensão espacial (S-CIELAB: Spatial-CIELAB). Uma metodologia de validação destas métricas é apresentada, tendo como base as cenas e resultados dos testes subjetivos efetuados pelo Grupo de Especialistas em Qualidade de Vídeo (VQEG: Video Quality Expert Group). A estas métricas é introduzida uma etapa de preparação das cenas, na qual são efetuadas equalização de brilho, suavização de detalhes e detecção de contornos. Controlando-se a intensidade destes filtros, um novo conjunto de medidas é obtido. Comparações de desempenho são realizadas entre estes novos conjuntos de medidas e o conjunto de medidas obtido pelo VQEG. Os resultados mostram que para aplicações em televisão digital de definição padrão, a avaliação utilizando componentes de cor pouco influencia na correlação com as medidas obtidas nos testes subjetivos. Por outro lado, foi verificado que a aplicação adequada de técnicas para suavização de imagens, combinadas com métricas de fácil implementação como a SSIM, elevam seu grau de correlação com medidas subjetivas. Também foi demonstrado que técnicas para extração de contornos, combinadas com a métrica PSNR, podem aumentar significativamente seu desempenho em termos de correlação com os testes efetuados pelo VQEG. À luz destes resultados, foi concluído que medidas objetivas de fácil implementação do ponto de vista computacional podem ser usadas para comparação da qualidade de sinais de vídeo SDTV, desde que devidamente combinadas com técnicas para adequação ao sistema visual humano como a suavização e extração de contornos. / This research is about the video signal quality comparison issue, focusing at full reference metrics using standard definition television. The most reliable way to predict the differences in terms of quality between two video scenes is using a panel of television viewers, under controlled psychometric experimental conditions, resulting in statistical meaningful Differences in Mean Opinion Score (DMOS). The Subjective assessment is both time consuming and costly, therefore with practical limitations. The ideal substitute are objective quality assessment algorithms, whose scores have been shown to correlate highly with the results of DMOS. The goal for this research is to optimize the performance of simple metrics combining it with digital image processing. First this work presents many relevant aspects of the human visual system, methodologies for video evaluation in digital television applications using standard definition (SDTV) and also a validation methodology of these methods. After that, the main goal is to test three very simple metrics in terms of computational cost: PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural SIMilarity) and S-CIELAB (Spatial-CIELAB). original metrics were modified in order to improve their correlations against subjective assessment data. Several experiments combining the advantages of digital image filters for softness and edge extraction have been accomplished within this work. The results show that such simple metrics combined with digital image processing for edge extraction, for example, do improve their correlations with subjective assessment.
20

Predição de mudanças conjuntas de artefatos de software com base em informações contextuais / Predicting co-changes of software artifacts based on contextual information

Igor Scaliante Wiese 18 March 2016 (has links)
O uso de abordagens de predição de mudanças conjuntas auxilia os desenvolvedores a encontrar artefatos que mudam conjuntamente em uma tarefa. No passado, pesquisadores utilizaram análise estrutural para construir modelos de predição. Mais recentemente, têm sido propostas abordagens que utilizam informações históricas e análise textual do código fonte. Apesar dos avanços obtidos, os desenvolvedores de software ainda não usam essas abordagens amplamente, presumidamente por conta do número de falsos positivos. A hipótese desta tese é que informações contextuais obtidas das tarefas, da comunicação dos desenvolvedores e das mudanças dos artefatos descrevem as circunstâncias e condições em que as mudanças conjuntas ocorrem e podem ser utilizadas para realizar a predição de mudanças conjuntas. O objetivo desta tese consiste em avaliar se o uso de informações contextuais melhora a predição de mudanças conjuntas entre dois arquivos em relação às regras de associação, que é uma estratégia frequentemente usada na literatura. Foram construídos modelos de predição específicos para cada par de arquivos, utilizando as informações contextuais em conjunto com o algoritmo de aprendizagem de máquina random forest. Os modelos de predição foram avaliados em 129 versões de 10 projetos de código aberto da Apache Software Foundation. Os resultados obtidos foram comparados com um modelo baseado em regras de associação. Além de avaliar o desempenho dos modelos de predição também foram investigadas a influência do modo de agrupamento dos dados para construção dos conjuntos de treinamento e teste e a relevância das informações contextuais. Os resultados indicam que os modelos baseados em informações contextuais predizem 88% das mudanças corretamente, contra 19% do modelo de regras de associação, indicando uma precisão 3 vezes maior. Os modelos criados com informações contextuais coletadas em cada versão do software apresentaram maior precisão que modelos construídos a partir de um conjunto arbitrário de tarefas. As informações contextuais mais relevantes foram: o número de linhas adicionadas ou modificadas, número de linhas removidas, code churn, que representa a soma das linhas adicionadas, modificadas e removidas durante um commit, número de palavras na descrição da tarefa, número de comentários e papel dos desenvolvedores na discussão, medido pelo valor do índice de intermediação (betweenness) da rede social de comunicação. Os desenvolvedores dos projetos foram consultados para avaliar a importância dos modelos de predição baseados em informações contextuais. Segundo esses desenvolvedores, os resultados obtidos ajudam desenvolvedores novatos no projeto, pois não têm conhecimento da arquitetura e normalmente não estão familiarizados com as mudanças dos artefatos durante a evolução do projeto. Modelos de predição baseados em informações contextuais a partir de mudanças de software são relativamente precisos e, consequentemente, podem ser usados para apoiar os desenvolvedores durante a realização de atividades de manutenção e evolução de software / Co-change prediction aims to make developers aware of which artifacts may change together with the artifact they are working on. In the past, researchers relied on structural analysis to build prediction models. More recently, hybrid approaches relying on historical information and textual analysis have been proposed. Despite the advances in the area, software developers still do not use these approaches widely, presumably because of the number of false recommendations. The hypothesis of this thesis is that contextual information of software changes collected from issues, developers\' communication, and commit metadata describe the circumstances and conditions under which a co-change occurs and this is useful to predict co-changes. The aim of this thesis is to use contextual information to build co-change prediction models improving the overall accuracy, especially decreasing the amount of false recommendations. We built predictive models specific for each pair of files using contextual information and the Random Forest machine learning algorithm. The approach was evaluated in 129 versions of 10 open source projects from the Apache Software Foundation. We compared our approach to a baseline model based on association rules, which is often used in the literature. We evaluated the performance of the prediction models, investigating the influence of data aggregation to build training and test sets, as well as the identification of the most relevant contextual information. The results indicate that models based on contextual information can correctly predict 88% of co-change instances, against 19% achieved by the association rules model. This indicates that models based on contextual information can be 3 times more accurate. Models created with contextual information collected in each software version were more accurate than models built from an arbitrary amount of contextual information collected from more than one version. The most important pieces of contextual information to build the prediction models were: number of lines of code added or modified, number of lines of code removed, code churn, number of words in the discussion and description of a task, number of comments, and role of developers in the discussion (measured by the closeness value obtained from the communication social network). We asked project developers about the relevance of the results obtained by the prediction models based on contextual information. According to them, the results can help new developers to the project, since these developers have no knowledge about the architecture and are usually not familiar with the artifacts history. Thus, our results indicate that prediction models based on the contextual information are useful to support developers during the maintenance and evolution activities

Page generated in 0.1426 seconds