• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 241
  • 20
  • 17
  • 8
  • 1
  • 1
  • Tagged with
  • 291
  • 174
  • 70
  • 50
  • 37
  • 28
  • 28
  • 27
  • 27
  • 27
  • 25
  • 25
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Indexação de dados em domínios métricos generalizáveis / Indexing complex data in Generic Metric Domains.

Ives Renê Venturini Pola 10 June 2005 (has links)
Os sistemas Gerenciadores de Bases de Dados (SGBDs) foram desenvolvidos para manipular domínios de dados numéricos e/ou pequenas seqüencias de caracteres (palavras) e não foram projetados prevendo a manipulação de dados complexos, como por exemplo dados multimídia. Os operadores em domínios de dados que requisitam a relação de ordem têm pouca utilidade para manipular operações que envolvem dados complexos. Uma classe de operadores que se adequa melhor para manipular esses dados são os operadores por similaridade: consulta por abrangência (``range queries') e consulta de vizinhos mais próximos (``k-nearest neighbor queries'). Embora muitos resultados já tenham sido obtidos na elaboração de algoritmos de busca por similaridade, todos eles consideram uma única função para a medida de similaridade, que deve ser universalmente aplicável a todos os pares de elementos do conjunto de dados. Este projeto propõe explorar a possibilidade de trabalhar com estruturas de dados concebidas dentro dos conceitos de dados em domínios métricos, mas que admitam o uso de uma função de distância adaptável, ou seja, que mude para determinados grupos de objetos, dependendo de algumas características universais, e assim permitindo acomodar características que sejam particulares a algumas classes de imagens e não de todo o conjunto delas, classificando as imagens em uma hierarquia de tipos, onde cada tipo está associado a uma função de distância diferente e vetores de características diferentes, todos indexados numa mesma árvore. / The DBMS were developed to manipulate data in numeric domains and short strings, not considering the manipulation of complex data, like multimidia data. The operators em data domain which requests for the total order property have no use to handle complex data. An operator class that fit well to handle this type of data are the similarity operators: range query and nearest neighbor query. Although many results have been shown in research to answer similarity queries, all use only one distance function to measure the similarity, which must be applicable to all pairs of elements of the set. The goal of this work is to explore the possibility of deal with complex data in metric domains, that uses a suitable distance function, that changes its behavior for certain groups of data, depending of some universal features, allowing them to use specific features of some classes of data, not shared for the entire set. This flexibility will allow to reduce the set of useful features of each element in the set individually, relying in the values obtainded for one or few features extracted in first place. This values will guide the others important features to extract from data.
282

Difeomorfismos conformes que preservam o tensor de Ricci em variedades semi-riemannianas / Conformal diffeomorphism that preserving the Ricci tensor in semi-riemannian manifolds

CARVALHO, Fernando Soares de 28 January 2011 (has links)
Made available in DSpace on 2014-07-29T16:02:18Z (GMT). No. of bitstreams: 1 Dissertacao Fernando Soares de Carvalho.pdf: 3468325 bytes, checksum: 30df6cf936483cf5aec035b1bdd9d208 (MD5) Previous issue date: 2011-01-28 / NOTE: Because some programs do not copy symbols, formulas, etc... to view the summary and the contents of the file, click on PDF - dissertation on the bottom of the screen. / OBS: Como programas não copiam certos símbolos, fórmulas... etc, para visualizar o resumo e o todo o arquivo, click em PDF - dissertação na parte de baixo da tela.
283

Comparação entre desenvolvedores de software a partir de dados obtidos em repositório de controle de versão / Comparison of software developers from data obtained from version control systems

Moura, Marcello Henrique Dias de 22 March 2013 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2017-11-06T19:48:59Z No. of bitstreams: 2 Dissertação - Marcello Henrique Dias de Moura - 2013.pdf: 3325482 bytes, checksum: 45be62e46fd5fda90d1d0561482a3d85 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2017-11-06T19:49:14Z (GMT) No. of bitstreams: 2 Dissertação - Marcello Henrique Dias de Moura - 2013.pdf: 3325482 bytes, checksum: 45be62e46fd5fda90d1d0561482a3d85 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-11-06T19:49:14Z (GMT). No. of bitstreams: 2 Dissertação - Marcello Henrique Dias de Moura - 2013.pdf: 3325482 bytes, checksum: 45be62e46fd5fda90d1d0561482a3d85 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2013-03-22 / Version Control Systems are repositories that store source code changes done by software developers. Research that extracts data from these repositories for analysis can be classified into two groups: those that focus on the development process and the ones that focus on the developers. The present dissertation investigates the second case and contributes to the field by providing: (a) the definition of a history file that summarizes changes made to software in line and file levels, (b) a set of metrics to evaluate the work of the developers; and (c) two approaches for comparing the developers based on their metrics. A computational system that implements these metrics and approaches was built and applied to two case studies of real software development projects. The results obtained in the studies were positive. They were consistent with the general perception of project managers about the work done by the developers. They also leaded to new ideas for improving the research.We believe that these contributions are a step towards a better understanding and characterization of the way about how software developers work. / Repositórios de Controle de Versão são sistemas que armazenam mudanças no código fonte realizadas por desenvolvedores de software. As pesquisas que extraem dados desses repositórios para análise podem ser classificadas em dois grupos: as que focam no processo de desenvolvimento e as que focam no desenvolvedor. O presente trabalho investiga o segundo aspecto contribuindo para o assunto com: (a) a definição de um histórico de arquivos que sumariza as mudanças realizadas no software em nível de linha e de arquivo; (b) um conjunto de métricas visando avaliar o trabalho dos desenvolvedores; e (c) duas propostas de abordagem para comparar os desenvolvedores. Um sistema computacional que implementa essas métricas e as abordagens foi construído, tendo sido aplicado em dois estudos de casos envolvendo projetos reais de desenvolvimento de software. Os resultados obtidos nos estudos foram positivos, coincidindo, em geral, com a percepção de gerentes de projetos sobre o trabalho dos desenvolvedores e apontando para novas ideias de evolução da pesquisa. Consideramos que este é um passo no sentido de entender e caracterizar melhor a forma de trabalho dos desenvolvedores.
284

Métricas e estratégias de bloqueio de uso político nas empresas do setor elétrico brasileiro / Metrics and Strategies for Blockage of Political Use in the Brazilian Electricity Sector Companies

Eduardo Muller Rocha Monteiro 19 December 2011 (has links)
Esta tese analisa o impacto de interferências políticas sobre o valor das empresas do Setor Elétrico Brasileiro (SEB) e propõe estratégias e métricas para interromper a destruição de valor econômico e bloquear o uso político. A observação de manifestações de interferência política ao longo de oito anos e o acúmulo de farta documentação possibilitaram o estudo empírico de duas empresas estatais submetidas ao uso político nas formas de populismo tarifário e loteamento político-partidário. A aplicação de uma metodologia concebida para avaliar hipóteses de manifestação de interferência política permitiu concluir que os dois tipos de uso político são explicados pela Teoria de Grupos de Pressão de Gary Becker. Além disso, a destruição de valor econômico devido aos usos políticos foi bilionária em ambas as empresas e os grupos de pressão beneficiados e prejudicados foram identificados. As estratégias propostas para bloquear tais usos políticos nas empresas do SEB envolvem a implementação de quatro etapas: imposição de critérios meritocráticos no recrutamento de gestores de empresas estatais; divulgação transparente de resultados econômico-financeiros; definição de indicadores e metas gerenciais objetivos; e implantação de mecanismos de incentivos e penalidades baseados em desempenho. O percurso metodológico adotado pode ser extrapolado para outros setores e países e oferece contribuições a gestores públicos, administradores privados e demais stakeholders. A primeira contribuição consiste na metodologia de teste de hipóteses de uso político de empresas e/ou setores econômicos com base em referenciais conceituais sólidos. A segunda contribuição é a oferta de alternativas de quantificação dos efeitos de usos políticos sobre o valor de empresas. E a terceira contribuição se concentra na exploração de indicadores e estratégias que minimizem ou bloqueiem usos políticos e maximizem a geração de valor em empresas vitimizadas por interferências políticas. / This thesis analyzes the impact of political interference on the value of companies in the Brazilian Electricity Sector (BES) and proposes strategies and indicators to interrupt economic value destruction and block political use. The observation of political interference manifestations over an eight-year period and the accumulation of vast documentation were the basis for the empirical study of two state-owned companies that were submitted to political use in the forms of tariff populism and distribution of managerial positions to allied political parties. One can conclude, via the application of a methodology conceived to evaluate hypotheses of political interference, that both types of political use can be explained by the Pressure Groups Theory developed by Gary Becker. Furthermore, the economic value destruction due to political use can be measured in billions of dollars in both companies and the pressure groups that were benefited and jeopardized were identified. The strategies aimed at blocking political use in the companies of the BES involve the implementation of four stages: the imposition of meritocratic criteria in the recruiting process of state-owned companies executives; the transparent divulging of economic-financial results; the definition of objective indicators and their respective goals; and the institution of incentives and penalties based on performance. The methodological approach of this thesis can be extended to other sectors and countries and offers several contributions to public and private officers and other stakeholders. The first contribution consists of a methodology for testing hypotheses of political use of companies and/or sectors based on solid conceptual references. The second contribution is the offer of alternatives to quantify the effects of political use on the value of companies. The third contribution is related to the exploration of metrics and strategies to block political use and maximize value generation in companies victimized by political interference.
285

Predição de mudanças conjuntas de artefatos de software com base em informações contextuais / Predicting co-changes of software artifacts based on contextual information

Igor Scaliante Wiese 18 March 2016 (has links)
O uso de abordagens de predição de mudanças conjuntas auxilia os desenvolvedores a encontrar artefatos que mudam conjuntamente em uma tarefa. No passado, pesquisadores utilizaram análise estrutural para construir modelos de predição. Mais recentemente, têm sido propostas abordagens que utilizam informações históricas e análise textual do código fonte. Apesar dos avanços obtidos, os desenvolvedores de software ainda não usam essas abordagens amplamente, presumidamente por conta do número de falsos positivos. A hipótese desta tese é que informações contextuais obtidas das tarefas, da comunicação dos desenvolvedores e das mudanças dos artefatos descrevem as circunstâncias e condições em que as mudanças conjuntas ocorrem e podem ser utilizadas para realizar a predição de mudanças conjuntas. O objetivo desta tese consiste em avaliar se o uso de informações contextuais melhora a predição de mudanças conjuntas entre dois arquivos em relação às regras de associação, que é uma estratégia frequentemente usada na literatura. Foram construídos modelos de predição específicos para cada par de arquivos, utilizando as informações contextuais em conjunto com o algoritmo de aprendizagem de máquina random forest. Os modelos de predição foram avaliados em 129 versões de 10 projetos de código aberto da Apache Software Foundation. Os resultados obtidos foram comparados com um modelo baseado em regras de associação. Além de avaliar o desempenho dos modelos de predição também foram investigadas a influência do modo de agrupamento dos dados para construção dos conjuntos de treinamento e teste e a relevância das informações contextuais. Os resultados indicam que os modelos baseados em informações contextuais predizem 88% das mudanças corretamente, contra 19% do modelo de regras de associação, indicando uma precisão 3 vezes maior. Os modelos criados com informações contextuais coletadas em cada versão do software apresentaram maior precisão que modelos construídos a partir de um conjunto arbitrário de tarefas. As informações contextuais mais relevantes foram: o número de linhas adicionadas ou modificadas, número de linhas removidas, code churn, que representa a soma das linhas adicionadas, modificadas e removidas durante um commit, número de palavras na descrição da tarefa, número de comentários e papel dos desenvolvedores na discussão, medido pelo valor do índice de intermediação (betweenness) da rede social de comunicação. Os desenvolvedores dos projetos foram consultados para avaliar a importância dos modelos de predição baseados em informações contextuais. Segundo esses desenvolvedores, os resultados obtidos ajudam desenvolvedores novatos no projeto, pois não têm conhecimento da arquitetura e normalmente não estão familiarizados com as mudanças dos artefatos durante a evolução do projeto. Modelos de predição baseados em informações contextuais a partir de mudanças de software são relativamente precisos e, consequentemente, podem ser usados para apoiar os desenvolvedores durante a realização de atividades de manutenção e evolução de software / Co-change prediction aims to make developers aware of which artifacts may change together with the artifact they are working on. In the past, researchers relied on structural analysis to build prediction models. More recently, hybrid approaches relying on historical information and textual analysis have been proposed. Despite the advances in the area, software developers still do not use these approaches widely, presumably because of the number of false recommendations. The hypothesis of this thesis is that contextual information of software changes collected from issues, developers\' communication, and commit metadata describe the circumstances and conditions under which a co-change occurs and this is useful to predict co-changes. The aim of this thesis is to use contextual information to build co-change prediction models improving the overall accuracy, especially decreasing the amount of false recommendations. We built predictive models specific for each pair of files using contextual information and the Random Forest machine learning algorithm. The approach was evaluated in 129 versions of 10 open source projects from the Apache Software Foundation. We compared our approach to a baseline model based on association rules, which is often used in the literature. We evaluated the performance of the prediction models, investigating the influence of data aggregation to build training and test sets, as well as the identification of the most relevant contextual information. The results indicate that models based on contextual information can correctly predict 88% of co-change instances, against 19% achieved by the association rules model. This indicates that models based on contextual information can be 3 times more accurate. Models created with contextual information collected in each software version were more accurate than models built from an arbitrary amount of contextual information collected from more than one version. The most important pieces of contextual information to build the prediction models were: number of lines of code added or modified, number of lines of code removed, code churn, number of words in the discussion and description of a task, number of comments, and role of developers in the discussion (measured by the closeness value obtained from the communication social network). We asked project developers about the relevance of the results obtained by the prediction models based on contextual information. According to them, the results can help new developers to the project, since these developers have no knowledge about the architecture and are usually not familiar with the artifacts history. Thus, our results indicate that prediction models based on the contextual information are useful to support developers during the maintenance and evolution activities
286

Context-based code quality assessment / Avaliação de qualidade de código baseada em contexto

Mauricio Finavaro Aniche 15 July 2016 (has links)
Two tasks that software engineers constantly perform are writing code that is easy to evolve and maintain, and detecting poorly written pieces of code. For the former, software engineers commonly rely on well-known software architecture styles, such as Model-View-Controller (MVC). To the latter, they rely on code metrics and code smell detection approaches. However, up to now, these code metrics and code smell approaches do not take into account underlying architectureall classes are assessed as if they were the same. In practice, software developers know that classes differ in terms of responsibilities and implementation, and thus, we expect these classes to present different levels of coupling, cohesion, and complexity. As an example, in an MVC system, Controllers are responsible for the flow between the Model and the View, and Models are responsible for representing the systems business concepts. Thus, in this thesis, we evaluate the impact of architectural roles within a system architecture on code metrics and code smells. We performed an empirical analysis in 120 open source systems, and interviewed and surveyed more than 50 software developers. Our findings show that each architectural role has a different code metric values distribution, which is a likely consequence of their specific responsibilities. Thus, we propose SATT, an approach that provides specific thresholds for architectural roles that are significantly different from others in terms of code smells. We also show that classes that play a specific architectural role contain specific code smells, which developers perceive as problems, and can impact class\' change- and defect-proneness. Based on our findings, we suggest that developers understand the responsibilities of each architectural role in their system architecture, so that code metrics and code smells techniques can provide more accurate feedback. / Duas tarefas que desenvolvedores de software constantemente fazem são escrever código fácil de ser mantido e evoluído, e detectar pedaços de código problemáticos. Para a primeira tarefa, desenvolvedores comumente fazem uso de conhecidos padrões arquiteturais, como Model-View-Controller (MVC). Para a segunda tarefa, desenvolvedores fazem uso de métricas de código e estratégias de detecção de maus cheiros de código (code smells). No entanto, até o momento, métricas de código e estratégias de detecção de maus cheiros de código não levam em conta a arquitetura do software em análise. Isso significa que todas classes são avaliadas como se umas fossem iguais às outras. Na prática, sabemos que classes são diferentes em suas responsibilidades e implementação, e portanto, esperamos que elas variem em termos de acoplamento, coesão e complexidade. Por exemplo, em um sistema MVC, Controladores são responsáveis pelo fluxo entre a camada de Modelo e a camada de Visão, e Modelos representam a visão de negócios do sistema. Nesta tese, nós avaliamos o impacto dos papéis arquiteturais em técnicas de medição de métricas de código e de detecção de maus cheiros de código. Nós realizamos um estudo empírico em 120 sistemas de código aberto, e entrevistamos e realizamos questionários com mais de 50 desenvolvedores. Nossos resultados mostram que cada papel arquitetural possui distribuições diferentes de valores de métrica de código, consequência das diferentes responsabilidades de cada papel. Como consequência, propomos SATT, uma abordagem que provê thresholds específicos para papéis arquiteturais que são significantemente diferentes de outros em termos de métricas de código. Mostramos também que classes que cumprem um papel arquitetural específico também contêm maus cheiros de código específicos. Esses maus cheiros são percebidos por desenvolvedores como problemas reais e podem fazer com que essas classes sejam mais modificadas e apresentem mais defeitos do que classes limpas. Sugerimos então que desenvolvedores entendam a arquitetura dos seus sistemas, bem como as responsabilidades de cada papel arquitetural que as classes desempenham, para que tanto métricas de código quanto estratégias de detecção de maus cheiros de código possam prover um melhor retorno.
287

Mapeamento e análise crítica do processo de avaliação de investimentos: um estudo de caso

Montini, Mario José 03 August 2015 (has links)
Made available in DSpace on 2016-04-25T16:44:44Z (GMT). No. of bitstreams: 1 Mario Jose Montini.pdf: 1228889 bytes, checksum: 8ecf9e824f548c285293119b8ca60f3a (MD5) Previous issue date: 2015-08-03 / The complex nature of investment decisions, which involves a wide range of factors, results that the decision maker rarely dominates all aspects that determine the quality of his/her decision. Decisions are made by individuals and their personal preferences may influence the outcome of their decision. Investment evaluation processes of an organization should help to ensure the manager that investment projects are analyzed according to a welldefined evaluation guide, in the same way and with due impartiality, in order to avoid that such personal preferences outweigh the "canons" of the organization. There are within the theory the necessary and sufficient tools for the investment evaluation, however, with regard to guides for investment evaluation, these are developed by the own organizations to meet their specific needs. In this study, an exploratory research seeks to conceptualize investment project and investment evaluation. Discounted cash flow methodology, capital asset pricing model and traditional metrics of investment evaluation are studied, as well as the aspects related to risk, uncertainty and irreversibility of real projects. Then, having as objective to extract from the theory an investment evaluation guide based on discounted cash flow methodology, several guides for evaluating investments were analyzed, looking for a systematization of procedures able to gather the essential steps of an evaluation, to ensure that these are carried out systematically. Afterwards, based on a case study, the resulting investment evaluation guide has been tested in a real case - previously assessed by a renowned consulting firm - and it has been confirmed that the said evaluation guide could have been successfully employed to evaluate the real case / A natureza complexa das decisões de investimento, por envolver um largo espectro de fatores, resulta em que raramente o gestor domina todos os aspectos determinantes da qualidade de sua decisão. As decisões são tomadas por indivíduos e suas preferências pessoais podem influenciar o resultado de sua decisão. Os processos de avaliação de investimento de uma organização deveriam contribuir para assegurar ao gestor que os projetos de investimento fossem analisados segundo um roteiro de avaliação bem definido, da mesma maneira e com a devida imparcialidade, de forma a evitar que tais preferências pessoais pudessem sobrepujar os cânones da organização. Encontram-se na teoria as ferramentas necessárias e suficientes para a avaliação de investimento, entretanto, no que concerne aos roteiros para avaliação de investimento, estes são desenvolvidos pelas próprias organizações para atender às suas necessidades específicas. Nesse estudo, por meio de uma pesquisa exploratória, procurou-se conceituar projeto de investimento e avaliação de investimento, estudou-se metodologia de fluxo de caixa descontado, metodologia de precificação de capitais, as métricas tradicionais de avaliação de investimento, e os aspectos relativos ao risco, incerteza e irreversibilidade dos projetos reais. Em seguida, tendo como objetivo extrair da teoria um roteiro para avaliação de investimentos com base na metodologia de fluxo de caixa descontado, vários guias de avaliação de investimentos foram analisados, em busca de uma sistematização de procedimentos capaz de reunir as etapas essenciais de uma avaliação, de forma a assegurar que essas sejam levadas a cabo, sistematicamente. Depois, com base em um estudo de caso, o guia de avaliação de investimento resultante do estudo foi testado em um caso real previamente avaliado por uma empresa de consultoria de renome e confirmou-se que o referido guia de avaliação poderia ter sido empregado com sucesso para avaliar o caso real
288

Metodologia para guiar o desenvolvimento e implementação industrial de novas tecnologias unindo engenharia econômica e Engenharia de (bio)processos e sistemas : aplicação à produção de etanol de segunda geração

Furlan, Felipe Fernando 18 March 2016 (has links)
Submitted by Caroline Periotto (carol@ufscar.br) on 2016-09-21T20:12:40Z No. of bitstreams: 1 TeseFFF.pdf: 5653411 bytes, checksum: 875bb8d2ed23313c792c9c246e285a85 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-23T18:31:05Z (GMT) No. of bitstreams: 1 TeseFFF.pdf: 5653411 bytes, checksum: 875bb8d2ed23313c792c9c246e285a85 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-23T18:31:11Z (GMT) No. of bitstreams: 1 TeseFFF.pdf: 5653411 bytes, checksum: 875bb8d2ed23313c792c9c246e285a85 (MD5) / Made available in DSpace on 2016-09-23T18:31:20Z (GMT). No. of bitstreams: 1 TeseFFF.pdf: 5653411 bytes, checksum: 875bb8d2ed23313c792c9c246e285a85 (MD5) Previous issue date: 2016-03-18 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Lignocellulosic ethanol, also called second generation ethanol, is a promising alternative for decreasing fossil fuel dependency globally. Nevertheless, its production process still needs further improvements in order to achieve industrial feasibility. Despite the massive experimental effort in this area, threshold values to be pursued in order to attain an economically feasible process are still missing. In this context, this study focused on constructing a methodology for economic evaluation of early-stage developing processes, such as second generation ethanol, aiming to show the R&D area directions to be followed for a successful industrial implementation of the process. The systematic procedure integrates bioprocess systems engineering (PSE) and economic engineering tools to perform a “retro” tecno-economic analysis. This analysis is able to identify the main process variables that influence the economic feasibility of the process and their target values. Initially, the methodology was tested on a case study involving the production of succinic acid from sucrose by fermentation. The methodology was able to eliminate one of the variables initially considered (sucrose conversion), due to its low influence on the process feasibility. Additionally, target values were obtained for the succinic acid concentration in the fermenter as a function of the selectivity and the specific productivity (the process variables chosen). Finally, the integrated production of ethanol from sugarcane juice and bagasse (first and second generation ethanol, respectively) was assessed. The three variables with the highest effect on the economic feasibility of the process were: the biocatalyst yield, the sucrose conversion and the solid mass fraction, both in the hydrolysis reactor. The reactor productivity, on the other hand, had little impact on the process feasibility. Besides, the experimental results already achieved the values needed for this variable. In general, the methodology was able to yield important information about both case studies required improvements for achieving economic feasibility. Although used in biochemical processes, the methodology is general, applying to all types of chemical processes. / A produção de etanol lignocelulósico, o chamado etanol de segunda geração, é uma alternativa promissora para diminuir a dependência energética global dos combustíveis fósseis. Entretanto, um desenvolvimento maior de seu processo de produção ainda é necessário para sua efetiva implementação industrial. Apesar do grande esforço experimental na área, ainda não existem informações claras sobre os valores limites a serem alcançados nas diversas etapas de processo para que esse se torne economicamente viável. Nesse contexto, o objetivo deste trabalho foi construir uma metodologia para avaliação econômica de processos em estágio inicial de desenvolvimento, como é o caso do etanol de segunda geração, indicando à área de P&D direções a serem seguidas para sua viável implementação industrial. Tal procedimento sistemático integra ferramentas de engenharia de bioprocessos e sistemas e engenharia econômica para realizar uma análise tecno-econômica “reversa”, que permite obter as variáveis que mais influenciam a viabilidade do processo, bem como seus valores limites para que tal viabilidade seja alcançada. Inicialmente, a metodologia proposta foi testada em um estudo de caso envolvendo o processo de produção de ácido succínico a partir da sacarose por rota fermentativa. Nesse processo, a metodologia conseguiu eliminar uma das variáveis inicialmente consideradas (a conversão da sacarose), devido a sua baixa influência. Além disso, foram obtidos valores mínimos para a concentração de ácido succínico no fermentador em função da seletividade e da produtividade específica (as variáveis de processo escolhidas). Em seguida, considerou-se a produção integrada de etanol a partir do caldo e do bagaço de cana-de-açúcar, etanol de primeira e segunda geração, respectivamente. As três variáveis com maior impacto na viabilidade econômica do processo foram: o rendimento do biocatalisador, a conversão da celulose no reator de hidrólise e a fração de sólidos nesse reator. A produtividade do reator, por outro lado apresentou baixo impacto na viabilidade, além de os resultados experimentais já estarem no patamar necessário para essa variável. De modo geral, a metodologia foi aplicada com sucesso aos estudos de caso escolhidos, produzindo dados importantes quanto às melhorias necessárias para que os processos alcancem a viabilidade econômica. Apesar de ter sido aplicada a bioprocessos, a metodologia é geral, sendo adequada ao estudo econômico de qualquer processo químico.
289

Caracterização física, estrutural e da diversidade floristica de fragmentos florestais na alta bacia do Rio Araguaia / Physical, structural and floristic diversity of forest fragments in the upper basin of the Rio Araguaia

CABACINHA, Christian Dias 25 March 2008 (has links)
Made available in DSpace on 2014-07-29T12:05:35Z (GMT). No. of bitstreams: 1 christian dias cabacinha.pdf: 7448650 bytes, checksum: 0286d0fd9ddc8fb807323c8fae9580d8 (MD5) Previous issue date: 2008-03-25 / The upper Araguaia river basin region has been transformed by rapid and intensive human occupation processes that began in the 1970s, and now the landscape is highly fragmented. Remnant forests are surrounded by cotton and soybean plantations and pasture. They continue to be subjected to degradation and little is known about their ecological integrity. The objective of this research is increase knowledge of the remnant forest flora and provide support for public conservation and recovery policies for these remnant forests. This research consists of four chapters. The first chapter assessed fragmentation patterns under the assumption that intensive land occupation and agriculture compromised landscape structure and forest conservation in the basin. The second chapter assessed whether remnant forest tree size class structure differed from undegraded forests. The third chapter investigated whether forest remnants situated in close proximity to Emas National Park and incorporated into The Emas-Pantanal Biodiversity Corridor had higher species diversity than other remnants. The fourth chapter showed that species diversity was correlated with and vegetation indices obtained from satellite images, due to the indices sensitivity to changes in vegetation structure. These indices could be used in the future to highlight priority areas for conservation and in devising recovery policies. The major conclusions of this research are that the ecological integrity of remnant forests in the Upper Araguaia River Basin is compromised, predominantly due to lack of connectivity between the fragments and continuing exposure to degradation processes including tree felling and cattle grazing. Tree species diversity is high in these fragments, however, and species composition is dominated by small diameter early successional species. This research also established that vegetation indices obtained from satellite images, is a powerful tool in remnant forest species diversity modelling and can be used as a tool for environmental planning in areas under strong antropic pressure. This information is relevant to other degraded river basins in the Cerrado region. This research contributes to improved knowledge of the rich diversity of Brazilian forests and recognition that this diversity is threatened, particularly in the Upper Araguaia River basin, southwest of Goias State. / A região da alta bacia do rio Araguaia vem sendo objeto de profundas transformações relacionadas ao processo de ocupação rápida e intensa das terras a partir do final dos anos 70. Atualmente a paisagem nesta região, encontra-se completamente fragmenta. As ilhas de vegetação remanescentes, em sua maioria estão isoladas, cercadas por culturas agrícolas (soja e algodão) e por pastos, expostas diariamente a vários agentes de degradação e nada se sabe sobre a integridade destes remanescentes. A presente tese intitulada Caracterização física, estrutural e da diversidade florística de fragmentos florestais na alta bacia do rio Araguaia visa preencher uma lacuna sobre o conhecimento da flora e assim subsidiar políticas que busquem a conservação e a recuperação dos atuais fragmentos florestais desta região. Foi estruturada em quatro artigos. No primeiro, buscou-se analisar a estrutura da paisagem da área de estudo para avaliar seu padrão de fragmentação. Partiu-se do princípio de que, devido ao intenso processo de ocupação das terras na região e o uso atual do solo, a estrutura da paisagem e a conservação da vegetação na bacia estavam comprometidas. No segundo, a hipótese básica é que, uma vez que a estrutura da paisagem está comprometida e que os remanescentes estão expostos a vários agentes de degradação, as comunidades florestais estariam perturbadas e apresentariam estrutura diamétrica desequilibrada. No terceiro a hipótese é que embora muitos fragmentos tivessem tamanho reduzido e estivessem desconectados a outras áreas fora da bacia e cercados por culturas agrícolas, a diversidade de espécies na área de estudo era grande por estar próxima a duas unidade de conservação, o Parque Nacional das Emas e o Parque Estadual das Nascentes do Taquari, e por estar inserida no corredor de biodiversidade Emas-Pantanal. No quarto a hipótese é que, os índices de vegetação, obtidos de imagens orbitais, por serem sensíveis às mudanças da estrutura da vegetação são correlacionados com a diversidade de espécies e, portanto podem ser utilizados como indicadores de áreas prioritárias para ações de recuperação e conservação. As hipóteses foram confirmadas, demonstrando que a integridade dos fragmentos na alta bacia do rio Araguaia está comprometida, principalmente, pela falta de conectividade entre os fragmentos e pela exposição diária dos remanescentes aos agentes de degradação como corte seletivo de lenha e a presença de gado. Entretanto ainda existe uma grande diversidade de espécies, embora a comunidade vegetal seja composta por indivíduos de pequenos diâmetros e pertencentes a estágios sucessionais iniciais. Este estudo ainda revelou que os índices de vegetação obtidos de imagens de satélite, são poderosos parâmetros para a modelagem da diversidade de fragmentos florestais e, portanto podem ser usados como uma ferramenta no planejamento ambiental em áreas sob forte pressão antrópica. Estas informações são relevantes devido à realidade atual de muitas bacias em outras regiões do Cerrado onde a vegetação natural foi reduzida a pequenos fragmentos e confinadas em locais onde as condições edáficas são desfavoráveis à agricultura. Espera-se, com o presente estudo, colaborar para o enriquecimento do conhecimento sobre a valiosa diversidade florestal brasileira e sobre os fatores que comprometem a integridade desta diversidade, em particular na região da alta bacia do rio Araguaia, no sudoeste do estado de Goiás.
290

Software quality studies using analytical metric analysis

Rodríguez Martínez, Cecilia January 2013 (has links)
Today engineering companies expend a large amount of resources on the detection and correction of the bugs (defects) in their software. These bugs are usually due to errors and mistakes made by programmers while writing the code or writing the specifications. No tool is able to detect all of these bugs. Some of these bugs remain undetected despite testing of the code. For these reasons, many researchers have tried to find indicators in the software’s source codes that can be used to predict the presence of bugs. Every bug in the source code is a potentially failure of the program to perform as expected. Therefore, programs are tested with many different cases in an attempt to cover all the possible paths through the program to detect all of these bugs. Early prediction of bugs informs the programmers about the location of the bugs in the code. Thus, programmers can more carefully test the more error prone files, and thus save a lot of time by not testing error free files. This thesis project created a tool that is able to predict error prone source code written in C++. In order to achieve this, we have utilized one predictor which has been extremely well studied: software metrics. Many studies have demonstrated that there is a relationship between software metrics and the presence of bugs. In this project a Neuro-Fuzzy hybrid model based on Fuzzy c-means and Radial Basis Neural Network has been used. The efficiency of the model has been tested in a software project at Ericsson. Testing of this model proved that the program does not achieve high accuracy due to the lack of independent samples in the data set. However, experiments did show that classification models provide better predictions than regression models. The thesis concluded by suggesting future work that could improve the performance of this program. / Idag spenderar ingenjörsföretag en stor mängd resurser på att upptäcka och korrigera buggar (fel) i sin mjukvara. Det är oftast programmerare som inför dessa buggar på grund av fel och misstag som uppkommer när de skriver koden eller specifikationerna. Inget verktyg kan detektera alla dessa buggar. Några av buggarna förblir oupptäckta trots testning av koden. Av dessa skäl har många forskare försökt hitta indikatorer i programvarans källkod som kan användas för att förutsäga förekomsten av buggar. Varje fel i källkoden är ett potentiellt misslyckande som gör att applikationen inte fungerar som förväntat. För att hitta buggarna testas koden med många olika testfall för att försöka täcka alla möjliga kombinationer och fall. Förutsägelse av buggar informerar programmerarna om var i koden buggarna finns. Således kan programmerarna mer noggrant testa felbenägna filer och därmed spara mycket tid genom att inte behöva testa felfria filer. Detta examensarbete har skapat ett verktyg som kan förutsäga felbenägen källkod skriven i C ++. För att uppnå detta har vi utnyttjat en välkänd metod som heter Software Metrics. Många studier har visat att det finns ett samband mellan Software Metrics och förekomsten av buggar. I detta projekt har en Neuro-Fuzzy hybridmodell baserad på Fuzzy c-means och Radial Basis Neural Network använts. Effektiviteten av modellen har testats i ett mjukvaruprojekt på Ericsson. Testning av denna modell visade att programmet inte Uppnå hög noggrannhet på grund av bristen av oberoende urval i datauppsättningen. Men gjordt experiment visade att klassificering modeller ger bättre förutsägelser än regressionsmodeller. Exjobbet avslutade genom att föreslå framtida arbetet som skulle kunna förbättra detta program. / Actualmente las empresas de ingeniería derivan una gran cantidad de recursos a la detección y corrección de errores en sus códigos software. Estos errores se deben generalmente a los errores cometidos por los desarrolladores cuando escriben el código o sus especificaciones.  No hay ninguna herramienta capaz de detectar todos estos errores y algunos de ellos pasan desapercibidos tras el proceso de pruebas. Por esta razón, numerosas investigaciones han intentado encontrar indicadores en los códigos fuente del software que puedan ser utilizados para detectar la presencia de errores. Cada error en un código fuente es un error potencial en el funcionamiento del programa, por ello los programas son sometidos a exhaustivas pruebas que cubren (o intentan cubrir) todos los posibles caminos del programa para detectar todos sus errores. La temprana localización de errores informa a los programadores dedicados a la realización de estas pruebas sobre la ubicación de estos errores en el código. Así, los programadores pueden probar con más cuidado los archivos más propensos a tener errores dejando a un lado los archivos libres de error. En este proyecto se ha creado una herramienta capaz de predecir código software propenso a errores escrito en C++. Para ello, en este proyecto se ha utilizado un indicador que ha sido cuidadosamente estudiado y ha demostrado su relación con la presencia de errores: las métricas del software. En este proyecto un modelo híbrido neuro-disfuso basado en Fuzzy c-means y en redes neuronales de función de base radial ha sido utilizado. La eficacia de este modelo ha sido probada en un proyecto software de Ericsson. Como resultado se ha comprobado que el modelo no alcanza una alta precisión debido a la falta de muestras independientes en el conjunto de datos y los experimentos han mostrado que los modelos de clasificación proporcionan mejores predicciones que los modelos de regresión. El proyecto concluye sugiriendo trabajo que mejoraría el funcionamiento del programa en el futuro.

Page generated in 0.0643 seconds