• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 241
  • 20
  • 17
  • 8
  • 1
  • 1
  • Tagged with
  • 291
  • 174
  • 70
  • 50
  • 37
  • 28
  • 28
  • 27
  • 27
  • 27
  • 25
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Relações entre características espaciais de cidades e a resiliência na mobilidade urbana /

Matiolli, João Antonio Camargo January 2020 (has links)
Orientador: Gustavo Garcia Manzato / Resumo: O trabalho apresentado teve como objetivo principal avaliar as relações entre características espaciais das cidades e a resiliência em relação à mobilidade urbana, considerando os diferentes portes de municípios, em um estudo aplicado para o estado de São Paulo. Para atingir tal objetivo, foi proposto o desenvolvimento de um método de avaliação da resiliência na mobilidade urbana considerando viagens não motorizadas (caminhada e bicicleta), utilizando como inovação a Grade Estatística do IBGE. Em geral, para o modo a pé foi observado que cerca de 46% dos municípios analisados seriam totalmente resilientes, sendo que esta proporção é composta pelos munícipios de menor porte. Já os municípios que apresentaram uma baixa resiliência compreendem aproximadamente 11% do total de municípios e são caracterizados por aqueles de maior porte e mais populosos do estado. Para o modo bicicleta a situação é diferente, nota-se que apenas os municípios de São Paulo e Ilhabela apresentam baixa resiliência. Além disso, é observado que 91% dos municípios são totalmente resilientes em relação a esse modo de deslocamento. A partir dos resultados do método, buscou-se relacionar essa resiliência com métricas espaciais das cidades por meio de índices de forma urbana, a saber: Densidade, Concentração, Agrupamento e Centralidade. Dessa maneira, concluiu-se que a Densidade Domiciliar é o parâmetro que mais se destaca, uma vez que quanto maior o porte do município, maior foi o valor observado para essa mé... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The objective of this work was to evaluate the relationship between spatial characteristics of cities and the resilience in urban mobility, considering the different sizes of the municipalities, in a study applied to the state of São Paulo. To achieve this objective, we proposed the development of a method for assessing the resilience in urban mobility considering non-motorized trips (walking and cycling), using the Statistical Grid of the Brazilian Institute of Geography and Statistics as an innovation. In general, for walking, we observed that around 46% of the municipalities would be totally resilient, and this proportion corresponds to the smaller municipalities. On the other hand, the municipalities that show a lower resilience comprise approximately 11% of the total and are characterized by the largest and most populous municipalities in the state. For cycling the situation is different. We noted that only the municipalities of São Paulo and Ilhabela present a low resilience rate. In addition, we observed that 91% of the municipalities are totally resilient to this travel mode. In turn, we sought to establish a relationship between this resilience with spatial metrics of the cities through urban form indexes: Density, Concentration, Clustering and Centrality. Thus, we concluded that the household density is the parameter that stands out the most, since the larger the size of the municipality, the higher the value for this metric. For the other metrics (Concentration, Cl... (Complete abstract click electronic access below) / Mestre
252

Métricas fuzzy. Aplicaciones al filtrado de imágenes en color

López Crevillén, Andrés 12 March 2010 (has links)
Uno de los problemas más importantes en Topología Fuzzy es obtener un concepto apropiado de espacio métrico fuzzy. Este problema ha sido abordado por muchos autores desde diferentes puntos de vista. En particular, es de gran interés la noción de métrica fuzzy sobre un conjunto que, con la ayuda de t-normas continuas, introdujeron y estudiaron George y Veeramani. En el presente trabajo hemos continuado con el estudio de estos espacios métricos fuzzy, hemos aportado nuevos ejemplos que nos ayudarán a desarrollar la teoría y hemos tratado otras cuestiones relacionadas con la convergencia, la continuidad y dos tipos de métricas fuzzy llamadas principales y fuertes. En la presente tesis, aportamos nuevos ejemplos de métricas fuzzy y en algunos casos obtenemos que las métricas fuzzy más habituales en la literatura sobre el tema, son casos particulares de las que aquí damos. Tratamos también la extensión de dos métricas fuzzy estacionarias cuando coinciden en la intersección de dos conjuntos. También hemos continuado con el estudio del concepto de p-convergencia en espacios métricos fuzzy introducido por D. Mihet, estudiando algunos aspectos relativos a él y damos una caracterización de aquellos espacios métricos fuzzy, que llamamos principales, en los que la familia de las sucesiones p-convergentes coincide con la familia de las sucesiones convergentes. Además damos un ejemplo de espacio métrico fuzzy no completable y no principal. Definimos el concepto de aplicación t-continua entre espacios métricos fuzzy, que es más fuerte que el de continuidad y revisamos algunas cuestiones referentes a este tipo de aplicaciones, obteniendo como resultado que si el espacio métrico fuzzy de partida es principal entonces las aplicaciones t-continuas coinciden con las aplicaciones continuas. En lo que respecta al capítulo de métricas fuertes, estudiamos una clase de métricas fuzzy estacionarias que incluye la clase de las ultramétricas fuzzy estacionarias. / López Crevillén, A. (2010). Métricas fuzzy. Aplicaciones al filtrado de imágenes en color [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7351
253

SystEM-PLA: um método sistemático para avaliação de arquitetura de linha de produto de software baseada em UML / SystEM-PLA: a systematic evaluation method for UML-based software product line architecture

Oliveira Junior, Edson Alves de 03 September 2010 (has links)
A abordagem de linha de produto de software (LP) tem como objetivo principal promover a geração de produtos específicos de um determinado domínio com base na reutilização de uma infraestrutura central, chamada núcleo de artefatos. Um dos principais artefatos do núcleo de uma LP é a Arquitetura de LP (ALP), que representa a abstração de todas as arquiteturas de sistemas únicos que podem ser gerados, para um domínio específico. Avaliações de ALP são importantes, pois permitem aumentar a produtividade e a qualidade dos produtos da LP, bem como, seus resultados permitem a análise de metas de negócio e de retorno de investimento. Este trabalho propõe um método sistemático para avaliação de ALP, o SystEM-PLA (a Systematic Evaluation Method for Software Product Line Architectures). Tal método considera modelos de ALP em UML, por ser uma notação amplamente conhecida e consolidada. SystEM-PLA é composto por um metaprocesso de avaliação, diretrizes que guiam o usuário em como avaliar uma ALP e métricas básicas para modelos UML e atributos de qualidade. O método utiliza a abordagem SMarty (Stereotype-based Management of Variability), para gerenciar variabilidades em LP baseadas em UML. Análises de trade-off com o objetivo de priorizar atributos de qualidade para o desenvolvimento e evolução dos produtos de uma LP são realizadas com base na aplicação e coleta das métricas do SystEM-PLA em configurações de uma ALP. As métricas propostas para os atributos de qualidade complexidade e extensibilidade foram validadas por meio de um estudo experimental. Evidências indicaram a viabilidade de aplicação do método SystEM-PLA na indústria com base em um estudo experimental realizado com profissionais de uma empresa de grande porte no setor de desenvolvimento de software / The software product line (PL) approach aims at promoting the generation of specific products from a particular domain based on the reuse of a central infra-structure, so-called core assets. One of the main assets of a PL is the PL Architecture (PLA) that represents the abstraction of all possible single-product architectures that can be generated for a particular domain. PLA evaluations are important due to allow the increasing of the productivity and the quality of PL products, as well as their results allow business drivers and return on investment analyzes. This work proposes a Systematic Evaluation Method for Software Product Line Architectures, the SystEM-PLA. This method takes into account UML models with PLA variability explicitly represented, since UML is a widely known and consolidated notation. SystEM-PLA is composed of an evaluation meta-process, guidelines that drive the user on how to evaluate a PLA, and basic and quality attribute metrics. This method uses the proposed approach Stereotype-based Management of Variability (SMarty) to manage variabilities in UML-based PLs. Trade-off analyses to prioritize quality attributes for the development and evolution of PL products are carried out based on the application and collection of the SystEM-PLA metrics from PLA configurations. The quality attribute metrics were validated trough an experimental study. Evidences indicated the SystEM-PLA application feasibility in industry based on an experimental study, planned and conducted with professionals from a large software development organization
254

SystEM-PLA: um método sistemático para avaliação de arquitetura de linha de produto de software baseada em UML / SystEM-PLA: a systematic evaluation method for UML-based software product line architecture

Edson Alves de Oliveira Junior 03 September 2010 (has links)
A abordagem de linha de produto de software (LP) tem como objetivo principal promover a geração de produtos específicos de um determinado domínio com base na reutilização de uma infraestrutura central, chamada núcleo de artefatos. Um dos principais artefatos do núcleo de uma LP é a Arquitetura de LP (ALP), que representa a abstração de todas as arquiteturas de sistemas únicos que podem ser gerados, para um domínio específico. Avaliações de ALP são importantes, pois permitem aumentar a produtividade e a qualidade dos produtos da LP, bem como, seus resultados permitem a análise de metas de negócio e de retorno de investimento. Este trabalho propõe um método sistemático para avaliação de ALP, o SystEM-PLA (a Systematic Evaluation Method for Software Product Line Architectures). Tal método considera modelos de ALP em UML, por ser uma notação amplamente conhecida e consolidada. SystEM-PLA é composto por um metaprocesso de avaliação, diretrizes que guiam o usuário em como avaliar uma ALP e métricas básicas para modelos UML e atributos de qualidade. O método utiliza a abordagem SMarty (Stereotype-based Management of Variability), para gerenciar variabilidades em LP baseadas em UML. Análises de trade-off com o objetivo de priorizar atributos de qualidade para o desenvolvimento e evolução dos produtos de uma LP são realizadas com base na aplicação e coleta das métricas do SystEM-PLA em configurações de uma ALP. As métricas propostas para os atributos de qualidade complexidade e extensibilidade foram validadas por meio de um estudo experimental. Evidências indicaram a viabilidade de aplicação do método SystEM-PLA na indústria com base em um estudo experimental realizado com profissionais de uma empresa de grande porte no setor de desenvolvimento de software / The software product line (PL) approach aims at promoting the generation of specific products from a particular domain based on the reuse of a central infra-structure, so-called core assets. One of the main assets of a PL is the PL Architecture (PLA) that represents the abstraction of all possible single-product architectures that can be generated for a particular domain. PLA evaluations are important due to allow the increasing of the productivity and the quality of PL products, as well as their results allow business drivers and return on investment analyzes. This work proposes a Systematic Evaluation Method for Software Product Line Architectures, the SystEM-PLA. This method takes into account UML models with PLA variability explicitly represented, since UML is a widely known and consolidated notation. SystEM-PLA is composed of an evaluation meta-process, guidelines that drive the user on how to evaluate a PLA, and basic and quality attribute metrics. This method uses the proposed approach Stereotype-based Management of Variability (SMarty) to manage variabilities in UML-based PLs. Trade-off analyses to prioritize quality attributes for the development and evolution of PL products are carried out based on the application and collection of the SystEM-PLA metrics from PLA configurations. The quality attribute metrics were validated trough an experimental study. Evidences indicated the SystEM-PLA application feasibility in industry based on an experimental study, planned and conducted with professionals from a large software development organization
255

Algoritmos para avaliação da qualidade de vídeo em sistemas de televisão digital. / Video quality assessment algorithms in digital television applications.

Fonseca, Roberto Nery da 15 October 2008 (has links)
Nesta dissertação é abordado o tema da avaliação de qualidade em sinais de vídeo, especificamente da avaliação objetiva completamente referenciada de sinais de vídeo em definição padrão. A forma mais confiável de se medir a diferença de qualidade entre duas cenas de vídeo é utilizando um painel formado por telespectadores, resultando em uma medida subjetiva da diferença de qualidade. Esta metodologia demanda um longo período de tempo e um elevado custo operacional, o que a torna pouco prática para utilização. Neste trabalho são apresentados os aspectos relevantes do sistema visual humano, das metodologias para avaliação de vídeo em aplicações de televisão digital em definição padrão e também da validação destas metodologias. O objetivo desta dissertação é testar métricas de baixo custo computacional como a que avalia a relação sinal-ruído de pico (PSNR: Peak Signal-to-Noise Ratio), a que mede similaridade estrutural (SSIM: Structural SIMilarity) e a que mede diferenças em três componentes de cor definidas pela CIE (Commission Internationale de l\'Eclairage), representadas por L*, a* e b* em uma dada extensão espacial (S-CIELAB: Spatial-CIELAB). Uma metodologia de validação destas métricas é apresentada, tendo como base as cenas e resultados dos testes subjetivos efetuados pelo Grupo de Especialistas em Qualidade de Vídeo (VQEG: Video Quality Expert Group). A estas métricas é introduzida uma etapa de preparação das cenas, na qual são efetuadas equalização de brilho, suavização de detalhes e detecção de contornos. Controlando-se a intensidade destes filtros, um novo conjunto de medidas é obtido. Comparações de desempenho são realizadas entre estes novos conjuntos de medidas e o conjunto de medidas obtido pelo VQEG. Os resultados mostram que para aplicações em televisão digital de definição padrão, a avaliação utilizando componentes de cor pouco influencia na correlação com as medidas obtidas nos testes subjetivos. Por outro lado, foi verificado que a aplicação adequada de técnicas para suavização de imagens, combinadas com métricas de fácil implementação como a SSIM, elevam seu grau de correlação com medidas subjetivas. Também foi demonstrado que técnicas para extração de contornos, combinadas com a métrica PSNR, podem aumentar significativamente seu desempenho em termos de correlação com os testes efetuados pelo VQEG. À luz destes resultados, foi concluído que medidas objetivas de fácil implementação do ponto de vista computacional podem ser usadas para comparação da qualidade de sinais de vídeo SDTV, desde que devidamente combinadas com técnicas para adequação ao sistema visual humano como a suavização e extração de contornos. / This research is about the video signal quality comparison issue, focusing at full reference metrics using standard definition television. The most reliable way to predict the differences in terms of quality between two video scenes is using a panel of television viewers, under controlled psychometric experimental conditions, resulting in statistical meaningful Differences in Mean Opinion Score (DMOS). The Subjective assessment is both time consuming and costly, therefore with practical limitations. The ideal substitute are objective quality assessment algorithms, whose scores have been shown to correlate highly with the results of DMOS. The goal for this research is to optimize the performance of simple metrics combining it with digital image processing. First this work presents many relevant aspects of the human visual system, methodologies for video evaluation in digital television applications using standard definition (SDTV) and also a validation methodology of these methods. After that, the main goal is to test three very simple metrics in terms of computational cost: PSNR (Peak Signal-to-Noise Ratio), SSIM (Structural SIMilarity) and S-CIELAB (Spatial-CIELAB). original metrics were modified in order to improve their correlations against subjective assessment data. Several experiments combining the advantages of digital image filters for softness and edge extraction have been accomplished within this work. The results show that such simple metrics combined with digital image processing for edge extraction, for example, do improve their correlations with subjective assessment.
256

Context-based code quality assessment / Avaliação de qualidade de código baseada em contexto

Aniche, Mauricio Finavaro 15 July 2016 (has links)
Two tasks that software engineers constantly perform are writing code that is easy to evolve and maintain, and detecting poorly written pieces of code. For the former, software engineers commonly rely on well-known software architecture styles, such as Model-View-Controller (MVC). To the latter, they rely on code metrics and code smell detection approaches. However, up to now, these code metrics and code smell approaches do not take into account underlying architectureall classes are assessed as if they were the same. In practice, software developers know that classes differ in terms of responsibilities and implementation, and thus, we expect these classes to present different levels of coupling, cohesion, and complexity. As an example, in an MVC system, Controllers are responsible for the flow between the Model and the View, and Models are responsible for representing the systems business concepts. Thus, in this thesis, we evaluate the impact of architectural roles within a system architecture on code metrics and code smells. We performed an empirical analysis in 120 open source systems, and interviewed and surveyed more than 50 software developers. Our findings show that each architectural role has a different code metric values distribution, which is a likely consequence of their specific responsibilities. Thus, we propose SATT, an approach that provides specific thresholds for architectural roles that are significantly different from others in terms of code smells. We also show that classes that play a specific architectural role contain specific code smells, which developers perceive as problems, and can impact class\' change- and defect-proneness. Based on our findings, we suggest that developers understand the responsibilities of each architectural role in their system architecture, so that code metrics and code smells techniques can provide more accurate feedback. / Duas tarefas que desenvolvedores de software constantemente fazem são escrever código fácil de ser mantido e evoluído, e detectar pedaços de código problemáticos. Para a primeira tarefa, desenvolvedores comumente fazem uso de conhecidos padrões arquiteturais, como Model-View-Controller (MVC). Para a segunda tarefa, desenvolvedores fazem uso de métricas de código e estratégias de detecção de maus cheiros de código (code smells). No entanto, até o momento, métricas de código e estratégias de detecção de maus cheiros de código não levam em conta a arquitetura do software em análise. Isso significa que todas classes são avaliadas como se umas fossem iguais às outras. Na prática, sabemos que classes são diferentes em suas responsibilidades e implementação, e portanto, esperamos que elas variem em termos de acoplamento, coesão e complexidade. Por exemplo, em um sistema MVC, Controladores são responsáveis pelo fluxo entre a camada de Modelo e a camada de Visão, e Modelos representam a visão de negócios do sistema. Nesta tese, nós avaliamos o impacto dos papéis arquiteturais em técnicas de medição de métricas de código e de detecção de maus cheiros de código. Nós realizamos um estudo empírico em 120 sistemas de código aberto, e entrevistamos e realizamos questionários com mais de 50 desenvolvedores. Nossos resultados mostram que cada papel arquitetural possui distribuições diferentes de valores de métrica de código, consequência das diferentes responsabilidades de cada papel. Como consequência, propomos SATT, uma abordagem que provê thresholds específicos para papéis arquiteturais que são significantemente diferentes de outros em termos de métricas de código. Mostramos também que classes que cumprem um papel arquitetural específico também contêm maus cheiros de código específicos. Esses maus cheiros são percebidos por desenvolvedores como problemas reais e podem fazer com que essas classes sejam mais modificadas e apresentem mais defeitos do que classes limpas. Sugerimos então que desenvolvedores entendam a arquitetura dos seus sistemas, bem como as responsabilidades de cada papel arquitetural que as classes desempenham, para que tanto métricas de código quanto estratégias de detecção de maus cheiros de código possam prover um melhor retorno.
257

Indexação de dados em domínios métricos generalizáveis / Indexing complex data in Generic Metric Domains.

Pola, Ives Renê Venturini 10 June 2005 (has links)
Os sistemas Gerenciadores de Bases de Dados (SGBDs) foram desenvolvidos para manipular domínios de dados numéricos e/ou pequenas seqüencias de caracteres (palavras) e não foram projetados prevendo a manipulação de dados complexos, como por exemplo dados multimídia. Os operadores em domínios de dados que requisitam a relação de ordem têm pouca utilidade para manipular operações que envolvem dados complexos. Uma classe de operadores que se adequa melhor para manipular esses dados são os operadores por similaridade: consulta por abrangência (``range queries') e consulta de vizinhos mais próximos (``k-nearest neighbor queries'). Embora muitos resultados já tenham sido obtidos na elaboração de algoritmos de busca por similaridade, todos eles consideram uma única função para a medida de similaridade, que deve ser universalmente aplicável a todos os pares de elementos do conjunto de dados. Este projeto propõe explorar a possibilidade de trabalhar com estruturas de dados concebidas dentro dos conceitos de dados em domínios métricos, mas que admitam o uso de uma função de distância adaptável, ou seja, que mude para determinados grupos de objetos, dependendo de algumas características universais, e assim permitindo acomodar características que sejam particulares a algumas classes de imagens e não de todo o conjunto delas, classificando as imagens em uma hierarquia de tipos, onde cada tipo está associado a uma função de distância diferente e vetores de características diferentes, todos indexados numa mesma árvore. / The DBMS were developed to manipulate data in numeric domains and short strings, not considering the manipulation of complex data, like multimidia data. The operators em data domain which requests for the total order property have no use to handle complex data. An operator class that fit well to handle this type of data are the similarity operators: range query and nearest neighbor query. Although many results have been shown in research to answer similarity queries, all use only one distance function to measure the similarity, which must be applicable to all pairs of elements of the set. The goal of this work is to explore the possibility of deal with complex data in metric domains, that uses a suitable distance function, that changes its behavior for certain groups of data, depending of some universal features, allowing them to use specific features of some classes of data, not shared for the entire set. This flexibility will allow to reduce the set of useful features of each element in the set individually, relying in the values obtainded for one or few features extracted in first place. This values will guide the others important features to extract from data.
258

Métricas e estratégias de bloqueio de uso político nas empresas do setor elétrico brasileiro / Metrics and Strategies for Blockage of Political Use in the Brazilian Electricity Sector Companies

Monteiro, Eduardo Muller Rocha 19 December 2011 (has links)
Esta tese analisa o impacto de interferências políticas sobre o valor das empresas do Setor Elétrico Brasileiro (SEB) e propõe estratégias e métricas para interromper a destruição de valor econômico e bloquear o uso político. A observação de manifestações de interferência política ao longo de oito anos e o acúmulo de farta documentação possibilitaram o estudo empírico de duas empresas estatais submetidas ao uso político nas formas de populismo tarifário e loteamento político-partidário. A aplicação de uma metodologia concebida para avaliar hipóteses de manifestação de interferência política permitiu concluir que os dois tipos de uso político são explicados pela Teoria de Grupos de Pressão de Gary Becker. Além disso, a destruição de valor econômico devido aos usos políticos foi bilionária em ambas as empresas e os grupos de pressão beneficiados e prejudicados foram identificados. As estratégias propostas para bloquear tais usos políticos nas empresas do SEB envolvem a implementação de quatro etapas: imposição de critérios meritocráticos no recrutamento de gestores de empresas estatais; divulgação transparente de resultados econômico-financeiros; definição de indicadores e metas gerenciais objetivos; e implantação de mecanismos de incentivos e penalidades baseados em desempenho. O percurso metodológico adotado pode ser extrapolado para outros setores e países e oferece contribuições a gestores públicos, administradores privados e demais stakeholders. A primeira contribuição consiste na metodologia de teste de hipóteses de uso político de empresas e/ou setores econômicos com base em referenciais conceituais sólidos. A segunda contribuição é a oferta de alternativas de quantificação dos efeitos de usos políticos sobre o valor de empresas. E a terceira contribuição se concentra na exploração de indicadores e estratégias que minimizem ou bloqueiem usos políticos e maximizem a geração de valor em empresas vitimizadas por interferências políticas. / This thesis analyzes the impact of political interference on the value of companies in the Brazilian Electricity Sector (BES) and proposes strategies and indicators to interrupt economic value destruction and block political use. The observation of political interference manifestations over an eight-year period and the accumulation of vast documentation were the basis for the empirical study of two state-owned companies that were submitted to political use in the forms of tariff populism and distribution of managerial positions to allied political parties. One can conclude, via the application of a methodology conceived to evaluate hypotheses of political interference, that both types of political use can be explained by the Pressure Groups Theory developed by Gary Becker. Furthermore, the economic value destruction due to political use can be measured in billions of dollars in both companies and the pressure groups that were benefited and jeopardized were identified. The strategies aimed at blocking political use in the companies of the BES involve the implementation of four stages: the imposition of meritocratic criteria in the recruiting process of state-owned companies executives; the transparent divulging of economic-financial results; the definition of objective indicators and their respective goals; and the institution of incentives and penalties based on performance. The methodological approach of this thesis can be extended to other sectors and countries and offers several contributions to public and private officers and other stakeholders. The first contribution consists of a methodology for testing hypotheses of political use of companies and/or sectors based on solid conceptual references. The second contribution is the offer of alternatives to quantify the effects of political use on the value of companies. The third contribution is related to the exploration of metrics and strategies to block political use and maximize value generation in companies victimized by political interference.
259

Predição de mudanças conjuntas de artefatos de software com base em informações contextuais / Predicting co-changes of software artifacts based on contextual information

Wiese, Igor Scaliante 18 March 2016 (has links)
O uso de abordagens de predição de mudanças conjuntas auxilia os desenvolvedores a encontrar artefatos que mudam conjuntamente em uma tarefa. No passado, pesquisadores utilizaram análise estrutural para construir modelos de predição. Mais recentemente, têm sido propostas abordagens que utilizam informações históricas e análise textual do código fonte. Apesar dos avanços obtidos, os desenvolvedores de software ainda não usam essas abordagens amplamente, presumidamente por conta do número de falsos positivos. A hipótese desta tese é que informações contextuais obtidas das tarefas, da comunicação dos desenvolvedores e das mudanças dos artefatos descrevem as circunstâncias e condições em que as mudanças conjuntas ocorrem e podem ser utilizadas para realizar a predição de mudanças conjuntas. O objetivo desta tese consiste em avaliar se o uso de informações contextuais melhora a predição de mudanças conjuntas entre dois arquivos em relação às regras de associação, que é uma estratégia frequentemente usada na literatura. Foram construídos modelos de predição específicos para cada par de arquivos, utilizando as informações contextuais em conjunto com o algoritmo de aprendizagem de máquina random forest. Os modelos de predição foram avaliados em 129 versões de 10 projetos de código aberto da Apache Software Foundation. Os resultados obtidos foram comparados com um modelo baseado em regras de associação. Além de avaliar o desempenho dos modelos de predição também foram investigadas a influência do modo de agrupamento dos dados para construção dos conjuntos de treinamento e teste e a relevância das informações contextuais. Os resultados indicam que os modelos baseados em informações contextuais predizem 88% das mudanças corretamente, contra 19% do modelo de regras de associação, indicando uma precisão 3 vezes maior. Os modelos criados com informações contextuais coletadas em cada versão do software apresentaram maior precisão que modelos construídos a partir de um conjunto arbitrário de tarefas. As informações contextuais mais relevantes foram: o número de linhas adicionadas ou modificadas, número de linhas removidas, code churn, que representa a soma das linhas adicionadas, modificadas e removidas durante um commit, número de palavras na descrição da tarefa, número de comentários e papel dos desenvolvedores na discussão, medido pelo valor do índice de intermediação (betweenness) da rede social de comunicação. Os desenvolvedores dos projetos foram consultados para avaliar a importância dos modelos de predição baseados em informações contextuais. Segundo esses desenvolvedores, os resultados obtidos ajudam desenvolvedores novatos no projeto, pois não têm conhecimento da arquitetura e normalmente não estão familiarizados com as mudanças dos artefatos durante a evolução do projeto. Modelos de predição baseados em informações contextuais a partir de mudanças de software são relativamente precisos e, consequentemente, podem ser usados para apoiar os desenvolvedores durante a realização de atividades de manutenção e evolução de software / Co-change prediction aims to make developers aware of which artifacts may change together with the artifact they are working on. In the past, researchers relied on structural analysis to build prediction models. More recently, hybrid approaches relying on historical information and textual analysis have been proposed. Despite the advances in the area, software developers still do not use these approaches widely, presumably because of the number of false recommendations. The hypothesis of this thesis is that contextual information of software changes collected from issues, developers\' communication, and commit metadata describe the circumstances and conditions under which a co-change occurs and this is useful to predict co-changes. The aim of this thesis is to use contextual information to build co-change prediction models improving the overall accuracy, especially decreasing the amount of false recommendations. We built predictive models specific for each pair of files using contextual information and the Random Forest machine learning algorithm. The approach was evaluated in 129 versions of 10 open source projects from the Apache Software Foundation. We compared our approach to a baseline model based on association rules, which is often used in the literature. We evaluated the performance of the prediction models, investigating the influence of data aggregation to build training and test sets, as well as the identification of the most relevant contextual information. The results indicate that models based on contextual information can correctly predict 88% of co-change instances, against 19% achieved by the association rules model. This indicates that models based on contextual information can be 3 times more accurate. Models created with contextual information collected in each software version were more accurate than models built from an arbitrary amount of contextual information collected from more than one version. The most important pieces of contextual information to build the prediction models were: number of lines of code added or modified, number of lines of code removed, code churn, number of words in the discussion and description of a task, number of comments, and role of developers in the discussion (measured by the closeness value obtained from the communication social network). We asked project developers about the relevance of the results obtained by the prediction models based on contextual information. According to them, the results can help new developers to the project, since these developers have no knowledge about the architecture and are usually not familiar with the artifacts history. Thus, our results indicate that prediction models based on the contextual information are useful to support developers during the maintenance and evolution activities
260

Dinâmica de uso das terras nos municípios de Bonito, Jardim e Bodoquena (MS) e o estado e conservação dos recursos biológicos do Parque Nacional da Serra da Bodoquena e de sua zona de amortecimento / Spatial and temporal dynamics of land use in Bonito, Jardim and Bodoquena (MS) Municipalities, and the conservation state of the biological resources in the Serra da Bodoquena National Park buffer zone

Silva, Normandes Matos da 31 March 2008 (has links)
A pesquisa abordou o processo de uso e ocupação das terras nos municípios de Bodoquena, Bonito e Jardim, situados na borda leste do Parque Nacional da Serra da Bodoquena (PNSB), região sudoeste de Mato Grosso do Sul. Além disso, foi estudado o estado de conservação, em termos de estrutura e configuração da paisagem, dos remanescentes de cerrado e floresta contidos no interior do PNSB e em sua zona de amortecimento. O objetivo foi o de analisar a dinâmica de ocupaçao das terras nos municípios mencionados nos últimos 18 anos, com vistas à subsidiar estratégias de planejamento do uso e ocupação das terras ideal para a região. Objetivou-se também analisar a dinâmica espacial e temporal da paisagem que compõe o PNSB e sua zona de amortecimento, visando à conservação da biodiversidade local. Para isso, foi utilizado um sistema de informação geográfica (SIG) para elaboração de mapas temáticos e de um banco de dados georreferenciado. A determinação do grau de conservação do PNSB e da sua zona de amortecimento se deu mediante a utilização de métricas de paisagem, e da adoção dos preceitos da Teoria dos Grafos. O capítulo 1 demonstrou, por meio dos mapas gerados para os municípios de Bodoquena, Jardim e Bonito, dos anos de 1986 e 2004, que ocorreu uma perda de área nativa e um conseqüente crescimento da matriz antrópica composta por pastagens (principalmente) e culturas agrícolas. Apenas em Bodoquena os remanescentes vegetais tiveram maior porcentual que as áreas de pastagens e lavouras. Pode-se observar que a região estudada, passa por um processo de conversão de habitats naturais, outrora contínuos, para uma paisagem composta por fragmentos de cerrados, campos e florestas. O capítulo 2 mostrou que as fisionomias florestais e de cerrado, apresentaram-se em melhor estado de conservação em 1986 que em 2004. Além disso, foi possível observar que os remanescentes das formações vegetais acima citadas, apresentaram-se em melhor estado de conservação no interior do PNSB, que em sua zona de amortecimento. O mapa de relevância dos remanescentes de floresta, considerando as notas combinadas das métricas de forma e área das manchas indicou, quais são as áreas prioritárias para serem protegidas, por possuírem características adequadas para a persistência da biodiversidade florestal presente no PNSB e em sua zona de amortecimento. O setor norte se destacou por apresentar remanescentes com valores alto e extremamente alto com relação à relevância. O mesmo setor norte possui um maior número de pontos de sensibilidade à quebra de conectividade entre as manchas de floresta. Nesta região pode-se observar que a maior parte dos pontos com alta sensibilidade, merece alguma estratégia que retarde ou mesmo cesse o processo de conversão da floresta para pastagem ou agricultura. Com relação ao padrão de fragmentação dos remanescentes vegetais, conclui-se o seguinte: os remanescentes de cerrado e floresta, no intervalo de dezoito anos, ficaram menores, mais irregulares, mais distantes e mais numerosos, indicando uma piora no estado de conservação da paisagem entre 1986 e 2004. Isso compromete a manutenção da biodiversidade, a persistência de espécies, diminuindo suas populações mínimas viáveis. A diversificação das formas de uso das terras na matriz é recomendada, com a introdução da silvicultura (principalmente composta por espécies nativas), por exemplo, também poderá auxiliar na manutenção/surgimento da heterogeneidade espacial e da complexidade estrutural da paisagem. A Teoria dos Grafos, avaliada neste trabalho, apresentou-se como ferramenta eficiente para se calcular a conectividade em paisagens heterogêneas. / The research approached the process of use and occupation of lands in the cities of Bonito, Bodoquena and Jardim, situated in the edge east of the National Park of the Serra da Bodoquena (NPSB), southwestern region of Mato Grosso do Sul, Brazil. Moreover, the conservation state was studied, in terms of structure and configuration of the landscape, of the contained remainders of cerrado and forest in the interior of the NPSB and its buffer zone. The objective was to analyze the dynamics of occupation of lands in the cities mentioned in last the 18 years, with sights to subsidizing strategies of planning of the use and ideal occupation for the region. Also, it was objectified to analyze the space-temporal dynamics of the landscape that composes the PNSB and its buffer zone, aiming at to the conservation of local biodiversity. For this, geographic information system (GIS) for the classification of images of satellite and elaboration of thematic maps was used. The determination of the NPSB conservation degree and its buffer zone occurred by means of the use and of metrics of landscape ecology and the adoption of Graph Theory. Chapter 1 demonstrated, by the maps generated for the cities of Bonito, Bodoquena and Jardim, of the years of 1986 and 2004, that it occurred a loss of native area and a consequent growth of the composed matrix for pastures (mainly) and agriculture. Only in Bodoquena the vegetal remainders had percentual had been bigger than the areas of pastures and agriculture. It can be observed that the studied region passes for a process of conversion of natural habitats, long ago continuous, for a composed landscape for patches of cerrado and forests in a matrix predominantly represented by planted pasture and agriculture. Chapter 2 showed that the forest and cerrado physiognomy, had been presented in better conservation in 1986 that in 2004. Moreover, it was possible to observe that the remainders of the vegetal formations above cited, had been presented in better conservation in the interior of the NPSB, that in its buffer zone. The map of relevance of the remainders of forest, considering the agreed area and shape notes metric of the spots, had indicated which the priority areas to be protecting, for possessing characteristics adjusted for the persistence of present forest biodiversity in the NPSB and its buffer zone. The north sector had detached for presenting remainders with high and extremely high values to the relevance. The same north sector posses a bigger number of points of sensitivity to the break of connectivity between the forest spots. In this region it can be observed that most of the points with high sensitivity deserves some strategy that delays or stop the conversion process of the forest for pasture or agriculture. Regard the standard of spelling of the vegetal remainders, had been concluded that: the remainders of cerrado and forest, in the interval of eighteen years, had been lesser, more irregular, more distant and more numerous, indicating a worsening in the state of conservation of the landscape between 1986 and 2004. This compromises the maintenance of biodiversity, the species persistence, diminishing its viable minimum populations. The diversification of the forms of use of lands in the matrix is recommended, with the introduction of forestry (mainly composed for native species), for example, also it will be able to assist in the maintenance/sprouting of the space heterogeneity and the structural complexity of the landscape. The Graph Theory, evaluated in this work, was presented as efficient tool to calculate the connectivity in heterogeneous landscapes.

Page generated in 0.089 seconds