• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 8
  • Tagged with
  • 106
  • 106
  • 70
  • 68
  • 26
  • 20
  • 20
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 16
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Planejamento da expansão da capacidade de sistemas elétricos sob incertezas políticas e climáticas : estudo de caso subsistema sul do Brasil

Samaniego, Ada Liz Arancibia January 2017 (has links)
O planejamento da expansão da capacidade de sistemas elétricos visa garantir o fornecimento futuro de energia elétrica. A busca por esse objetivo deve ser feita tendo em vista critérios como custos, tecnologias disponíveis, confiabilidade e impactos ambientais. No presente trabalho, o foco são os objetivos de mínimos custos e mínimas emissões de gases de efeito estufa, da geração elétrica. No contexto global atual, esse planejamento representa um grande desafio. Sendo uma atividade de grande importância para o desenvolvimento dos países, envolve, além das incertezas próprias da atividade, também as incertezas das políticas energéticas, as quais dependem de outras agendas políticas da administração em turno. Além disso, uma vez que a geração de energia é baseada em muitos casos em recursos naturais sensíveis às condições climáticas, o processo de planejamento também deve lidar com a incerteza da mudança climática. Dessa forma, são necessários planos flexíveis capazes de antecipar possíveis mudanças (resultado das incertezas mencionadas) e evitar o desvio dos objetivos iniciais, que levariam em diferentes resultados. O primeiro passo é conhecer o impacto que possíveis mudanças podem gerar nas metas iniciais. Algumas metodologias e ferramentas exploradas nesta área, normalmente consideram apenas os efeitos da mudança climática, enquanto que outras mais gerais consideram as políticas de energia ou climáticas, mas não a possibilidade de mudança nessas políticas nem a sua combinação. Ou seja, são consideradas estáticas para o período de planejamento. O presente trabalho traz como contribuição original para a área a inclusão da incerteza inerente às políticas energéticas, combinada à incerteza climática, e a avaliação o desempenho dos caminhos possíveis, identificando os mais robustos. O objetivo deste trabalho é determinar o impacto e a influência das incertezas das políticas energéticas e das mudanças climática, de forma combinada, sobre os resultados finais no planejamento da expansão da capacidade de sistemas elétricos, em termos de custos e emissões de CO2. Outros objetivos secundários incluem a identificação de políticas robustas com boa performance para qualquer cenário climático e desenvolvimento de uma abordagem de análises das mudanças climáticas e políticas. São aplicadas técnicas de otimização de expansão de capacidade para elaborar uma metodologia híbrida que combina programação dinâmica com programação linear multiobjectivo para a geração dos diferentes cenários de mudança da política energética, bem como os trade-offs. A metodologia é aplicada em uma região estudo de caso envolvendo a expansão de capacidade do subsistema elétrico sul do brasil. Resultados mostram que: (i) é possível determinar os impactos das mudanças de políticas energéticas para diferentes cenários de mudança climática a través dos trade-off de custos e emissões de CO2; (ii) é possível identificar políticas energéticas robustas; (iii) é possível identificar a influência da mudança climática no desempenho (em termos de custos e emissões de CO2) das políticas energéticas. Os resultados e métodos aqui produzidos são úteis para países em desenvolvimento e emergentes, como o Brasil, ao oferecer um marco metodológico capaz de auxiliar na programação de seus investimentos em expansão da geração de energia em ambientes com grandes incertezas, além de fornecer de uma ferramenta para o desenho de políticas energéticas e climáticas. / The planning of Power systems capacity expansion aims to guarantee the future supply of electrical energy. The pursuit of this objective should be made considering criteria such as costs, available technologies, reliability and environmental impacts. In the present work, the focus is the objectives of minimum costs and minimum emissions of greenhouse gases in the power generation. In the current global context, such planning is a major challenge. As an activity of great importance for the development of countries, it involves, in addition to the inherent uncertainties of the activity, energy policies uncertainties, which depend on other political agendas of the administration in turn. Also, since energy generation relies in many cases on climate-sensitive natural resources, the planning process must also deal with the climate change uncertainty. Hence, flexible plans are necessary to anticipate possible changes (that come up of the mentioned uncertainties) and avoid the deviation from the initial objectives, which would lead to different results. The first step is knowing the impact that possible changes can generate on the initial goals. Some methodologies and tools explored in this area consider only the effects of climate change, while others more general consider energy or climate policies, but not the possibility of change in these policies or their combination. That is, they are considered static for the planning period. The present work has as an original contribution to the area by the inclusion of the inherent uncertainty of energy policies, combined with the climatic uncertainty, and the evaluation of the possible paths, identifying the most robust ones. The objective of this work is to determine the impact and influence of energy policy and climate change uncertainties, combined, on the final results in the planning of the power systems capacity expansion regarding costs and CO2 emissions. Other secondary objectives include identifying robust policies with good performance for any climate scenario and developing a climate change and policy analysis approach. Capacity-optimization techniques are applied to develop a hybrid methodology that combines dynamic programming with multi-objective linear programming to generate different scenarios for energy policy change, as well as trade-offs. The methodology is applied in a region case study involving the capacity expansion of the Brazilian southern power subsystem. Results show that: (i) it is possible to determine the impacts of energy policy changes for different scenarios of climate change through the trade-off of costs and CO2 emissions; (ii) robust energy policies can be identified; (iii) it is possible to identify the influence of climate change on the performance (regarding costs and CO2 emissions) of energy policies. The results and methods produced here are useful for developing and emerging countries, such as Brazil, by offering a methodological framework capable of assisting in scheduling their investments in expanding energy generation in environments with significant uncertainties, as well as providing a tool for the design of energy and climate policies.
32

Socratext : busca aproximada de cadeias em imagens usando matrizes de substituição / Socratext : approximate string search in images using substitution matrix

Polastro, Mateus de Castro 09 December 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2011. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-09-12T15:24:40Z No. of bitstreams: 1 2011_MateusdeCastroPolastro.pdf: 1716533 bytes, checksum: b92d102e804b048afaec7bfeb5cccac8 (MD5) / Approved for entry into archive by Leandro Silva Borges(leandroborges@bce.unb.br) on 2012-09-18T18:12:22Z (GMT) No. of bitstreams: 1 2011_MateusdeCastroPolastro.pdf: 1716533 bytes, checksum: b92d102e804b048afaec7bfeb5cccac8 (MD5) / Made available in DSpace on 2012-09-18T18:12:22Z (GMT). No. of bitstreams: 1 2011_MateusdeCastroPolastro.pdf: 1716533 bytes, checksum: b92d102e804b048afaec7bfeb5cccac8 (MD5) / A facilidade de armazenamento e troca de documentos no formato digital, juntamente com a redução dos custos de equipamentos de impressão e digitalização de documentos, vem aumentando a necessidade de utilização na Informática Forense de programas para busca aproximada de palavras-chaves em textos originados por reconhecimento ótico de caracteres (OCR – Optical Character Recognition). Porém, as ferramentas que levam em conta os erros de OCR ainda não são totalmente satisfatórias, principalmente devido aos vários tipos de degradação comumente encontradas em documentos digitalizados. Neste trabalho, um algoritmo para busca de palavras-chaves em textos gerados a partir de OCR, baseado em programação dinâmica e na utilização de matrizes de substituição de aminoácidos, é descrito e implementado. Os resultados mostraram que o algoritmo proposto superou, principalmente em textos contendo maior número de erros, o algoritmo de distância de edição de Levenshtein, utilizado nas principais ferramentas para esse fim. Além disso, um estudo detalhado de como os erros de OCR afetam a recuperação da informação, a partir de degradações em imagem, é proposto. _______________________________________________________________________________________ ABSTRACT / The ease of storing and exchanging documents in digital format, along with cost reduction of printing and scanning equipments, has increased the need for use in Computer Forensics of programs to conduct approximate keyword search in texts generated by optical character recognition (OCR). However, tools that take into account the OCR errors are not yet fully satisfactory, mainly due to the various types of degradation commonly found in scanned documents. In this work, an algorithm to search for keywords in text generated by OCR, based on dynamic programming and on the use of amino acid substitution matrices, is described and implemented. The results showed that the proposed algorithm outperformed, especially in texts containing more errors, the Levenshtein edit distance algorithm, the most widely used by the tools for this purpose. In addition, a detailed study of how OCR errors affect the information retrieval, under several image degradations, is proposed.
33

Desenvolvimento de hardware reconfigurável dedicado para suporte ao alinhamento de seqüencias

Silva, Fábio Vinícius Pinto e 17 September 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2007. / Submitted by Rosane Cossich Furtado (rosanecossich@gmail.com) on 2010-01-04T21:40:52Z No. of bitstreams: 1 2007_FabioViniciusPintoSilva.pdf: 1375531 bytes, checksum: 2272e318dce7e1284d2d2eb04367db52 (MD5) / Approved for entry into archive by Carolina Campos(carolinacamposmaia@gmail.com) on 2010-01-05T17:08:01Z (GMT) No. of bitstreams: 1 2007_FabioViniciusPintoSilva.pdf: 1375531 bytes, checksum: 2272e318dce7e1284d2d2eb04367db52 (MD5) / Made available in DSpace on 2010-01-05T17:08:01Z (GMT). No. of bitstreams: 1 2007_FabioViniciusPintoSilva.pdf: 1375531 bytes, checksum: 2272e318dce7e1284d2d2eb04367db52 (MD5) Previous issue date: 2007-09-17 / Encontrar e visualizar semelhanças entre seqüências de DNA permite aprofundar o conhecimento sobre genomas de organismos em Biologia Molecular. Com o número de seqüências disponíveis para consulta em alguns bancos de dados crescendo exponencialmente, surge um desafio para a ciência da computação. É o de construir sistemas de informática com desempenho suficiente para permitir comparar seqüências genômicas em tempo hábil para a pesquisa e com um custo viável. Freqüentemente são usadas soluções heurísticas, devido ao grande tempo computacional necessário para o uso de soluções exatas. Soluções exatas atualmente apresentam complexidade de tempo quadrática em computadores convencionais, dificultando seu uso prático para seqüências de comprimento como as de aplicações reais. O principal objetivo deste trabalho é viabilizar o uso de algoritmos exatos para comparação de seqüências genômicas, acelerando a obtenção de seus resultados. É proposto um arranjo sistólico de elementos de processamento em hardware reconfigurável. Assim, é explorado o paralelismo potencial do algoritmo de programação dinâmica de Smith-Waterman, reduzindo sua complexidade de tempo de quadrática para linear. É proposta uma solução para minimizar o problema de gargalo de comunicação, esperado por uma implementação "ingênua" da solução. Além do sistema proposto, a prototipação realizada em FPGA é descrita, incluindo uma análise do desempenho obtido. _______________________________________________________________________________ ABSTRACT / To find and to visualize similarities between DNA sequences allow to deepen the knowledgement on genomas of organisms in Molecular Biology. With the number of available sequences for consultation in some data bases growing exponentially , a challenge for the computer science appears. It is to construct computing systems with enough performance to allow to compare genomics sequences in skillful time for the research and at a viable cost. Frequently heuristical solutions are used, due to the great computational time necessary to the use of exact solutions. Exact solutions currently presents quadratic time complexity in conventionals computers, making difficult its practical use for sequences of length as of real applications. The main objective of this work is to make possible the use of exact algorithms for comparison of genomics sequences, by speeding up the attainment of its results. A systolic arrangement of elements of processing in reconfigurable hardware is proposed. This way, the potential parallelism of the algorithm of dynamic programming of Smith-Waterman is explored, reducing its time complexity from quadratic to linear. Is also proposed a solution to minimize the problem of communication bottleneck, waited in a “naive” implementation. Besides the proposed system, the prototipation made in FPGA is described, including an analysis of the performance gotten.
34

Service restoration and switch allocation in power distribution networks : bounds and algorithms

Benavides Rojas, Alexander Javier January 2010 (has links)
A melhora da confiabilidade em redes de distribuição de energia elétrica é um tema importante para as indústrias de fornecimento de eletricidade, devido aos regulamentos estritos em muitos países. Depois de uma falha na rede, algumas chaves são usadas para isolar a falha, enquanto outras restauram a energia a alguns consumidores. A ótima seleção das chaves que serão abertas ou fechadas para restaurar a energia é conhecido como o problema de restauração de serviço. A instalação de chaves em posições estratégicas pode reduzir o tempo de parada, e assim melhorar a confiabilidade da rede. A seleção ótima de posições para instalar chaves é conhecido como o problema de alocação de chaves. Estes dois problemas estão relacionados estreitamente. Esta dissertação estuda o problema de alocação de chaves, considerando o problema de restauração de serviço como um subproblema. Dois métodos são propostos para estimar a confiabilidade de uma rede de distribuição com um conjunto dado de chaves instaladas. O foco principal está nas heurísticas para resolver o problema composto. Propõe-se aqui métodos como busca tabu, procedimento de busca gulosa adaptativa aleatória (sigla em inglês: GRASP), e procedimento iterativo de construção por amostras com reconexão de caminhos. Também estuda-se o benefício dos métodos de construção gulosa, semigulosa, aleatória e por amostras, e estuda-se o desempenho das estratégias de busca local por amostras, primeira melhoria e melhor melhoria. Os diferentes métodos são comparados e analisados. Os resultados mostram que os métodos por amostras são baratos e levam a soluções de boa qualidade. O procedimento iterativo de construção por amostras com reconexão de caminhos é o melhor método proposto para resolver o problema composto que é proposto nesta dissertação. / The improvement of reliability in electrical power distribution networks is an important issue for electricity supply industries, due to strict regulations in many countries. After a failure in the network, some switches are used to isolate the failure, while others restore the energy to some consumers. The optimal selection of the switches to open or close to restore energy is called the service restoration problem. The installation of switches in strategic places may reduce the outage time in case of blackouts, and thus improve the reliability of the network. The optimal selection of places to install switches is called the switch allocation problem. These two problems are closely related. This dissertation studies the switch allocation problem, considering the service restoration problem as a sub-problem. Two methods are proposed to estimate the reliability of a distribution network with a given set of installed switches. The main focus is in heuristics to solve the joint problem. It proposes methods like tabu search, greedy randomized adaptive search procedure, and iterated sample construction with path relinking. It also studies the benefit of greedy, semigreedy, random, and sample construction methods, and studies the performance of sample, first improvement and best improvement local search strategies. The different methods are compared and analyzed. The results show that sample approaches are inexpensive and lead to solutions of good quality. Iterated sample construction with path relinking is the best method to solve the joint problem that is proposed in this dissertation.
35

Modelo para avaliação da vida útil econômica de máquinas e equipamentos utilizando a programação dinâmica e o método de Monte Carlo

Plizzari, Ricardo 13 July 2017 (has links)
O estudo da substituição de bens de capital proporciona a empresa uma visão sobre a vida útil dos seus bens e oportuniza o planejamento para efetuar, dentro de um tempo ótimo, a troca do bem atual por um substituto que possa oferecer vantagens no que diz respeito a custos de operação e manutenção, sendo possível obter com isso a maximização das receitas. Esta dissertação propõe um modelo para a avaliação da vida útil econômica de máquinas e equipamentos fazendo uso da programação dinâmica (PD) com a geração de números aleatórios por meio do método de Monte Carlo (MMC). O modelo contempla a definição das variáveis que serão utilizadas, a aplicação do método de Monte Carlo às variáveis, o cálculo dos valores presentes, os cálculos da programação dinâmica com o objetivo de definir a máxima receita, o desenvolvimento da programação com o uso do software MatLab e a validação do modelo. As simulações foram realizadas utilizando as taxas de desconto baseadas no IPCA, CDI, IGP-M, Selic e meta Selic. A utilização do método de Monte Carlo possibilitou a geração de uma série de políticas para cada simulação, sendo estas analisadas estatisticamente como forma de verificar aquela que melhor representaria a política de substituição e consequentemente definisse a vida útil econômica do bem. O modelo foi aplicado a um centro de usinagem vertical e demonstrou flexibilidade na informação dos dados de entrada ao se utilizar a programação no software MatLab. Observou-se que além de gerar uma gama de possibilidades o modelo PD+MMC pode auxiliar o tomador de decisão quanto a estratégia a ser utilizada na substituição da máquina. Os cálculos efetuados por meio do modelo PD+MMC, para um horizonte de planejamento de 15 anos, utilizando as cinco taxas de desconto, forneceram políticas de substituição com estimativas de vida útil econômica de 3 anos para as taxas CDI, Selic e meta Selic e vida útil superior a 15 anos para as taxas IPCA e IGP-M. Por meio das análises estatísticas foi possível definir que a política de substituição que apresentou maior confiabilidade foi a que utilizou o IPCA/IBGE, a qual gerou a maior receita e a maior vida útil da máquina, superior a 16 anos, apresentando significância de 77,56% para a frequência de políticas. / The replacement study of capital goods provides to the company an overview about the useful life of its assets and provides planning for effecting, within an optimal time, the exchange of the present good by a substitute that may offer advantages with respect to Costs of operation and maintenance, being possible to obtain the maximization of revenues. This dissertation proposes a model for evaluation of economic useful life of machines and equipment making use of dynamic programming (PD) with the generation of random numbers by the Monte Carlo method (MMC). The model includes variables definition that will be used, the application of the Monte Carlo method to the variables, calculation of the present values, dynamic programming calculations with the objective of defining the maximum revenues, the programming development using MatLab software and validation of model. The simulations were performed using the discount rates based on the IPCA, CDI, IGP-M, Selic and Selic targets. The use of Monte Carlo method allowed the generation of a series of policies for each simulation, being analysed statistically as a way to verify the one that would best represent the replacement policy and consequently defined the economic useful life of the good. The model was applied to a vertical milling centre and showed flexibility in the information of the input data when using the programming in the software MatLab. It was observed that in addition to generating a range of possibilities the PD+MMC model can assist the decision maker regarding the strategy to be used in the replacement of machine. The PD + MMC calculations, for a 15-year planning horizon, using the five discount rates, provided replacement policies with economic life estimated 3-year economic life for the CDI, Selic and Selic and Useful life over 15 years for the IPCA and IGP-M rates. The PD+MMC calculations for a planning horizon of 15 years, using the five discount rates, provided replacement policies with three years useful life estimate for CDI, Selic and target Selic rates and for the IPCA and plus than fifteen years useful life for IPCA and IGP-M rates. By means of the statistical analyzes it was possible to define that the substitution policy that presented the highest reliability was the one that used the IPCA / IBGE, which generated the highest revenue and the longest useful life of the machine, over 16 years, presenting a significance of 77, 56% for policy frequency.
36

Paradigma de programação dinamica discreta em problemas estocasticos de investimento e produção / The paradigm of discrete dynamic programming in stochastic investment and production problems

Arruda, Edilson Fernandes de 31 May 2006 (has links)
Orientador: João Bosco Ribeiro do Val / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-07T09:08:47Z (GMT). No. of bitstreams: 1 Arruda_EdilsonFernandesde_D.pdf: 7031418 bytes, checksum: 5dc90e2d3823b0e6bcf659159d183007 (MD5) Previous issue date: 2006 / Resumo: Apresenta-se um modelo de controle por intervenções para o problema de produção e estoque de vários itens, com diversos estágios de produção. Este problema pode ser solucionado via programação dinâmica discreta (PD) por um operador de custo descontado. Para contornar a dificuldade de obtenção da solução ótima via PD ao se considerar um número razoável de classes de itens e suas etapas de produção, esta tese desenvolve-se em duas linhas. A primeira delas consiste em tomar uma noção de estabilidade estocástica no sentido Foster-Lyapunov para caracterizar a família de soluções candidatas a ótima, originando uma classe de políticas que geram um subconjunto de estados que são recorrentes positivos. Dessa forma, é possível propor políticas sub-ótimas que sejam estáveis, e cuja consideração de otimalidade possa ser desenvolvida apenas no subconjunto de estados recorrentes, simplificando a tarefa da PD e focando nos estados mais freqüentados no longo prazo. A segunda linha de abordagem consiste em desenvolver técnicas de PD aproximada para o problema, através de uma arquitetura de aproximação fixa aplicada a um subconjunto amostra do espaço de estados. Um avanço analítico é alcançado por observar como uma arquitetura de aproximação pode capturar adequadamente a função valor do problema, vista como uma projeção da função valor na arquitetura. Condições para que um algoritmo de PD aproximada convirja para essa projeção são obtidas. Essas condições são independentes da arquitetura utilizada. Um algoritmo derivado dessa análise é proposto, a partir do monitoramento da variação de passos sucessivos / Abstract: We propose an intervention control model for a multi-product, multi-stage, single machine production and storage problem. The optimal policy is obtained by means of discrete dynamic programming (DP), through a discounted cost contraction mapping. In order to overcome the difficulty of obtaining the optimal solution for problems with a reasonable number of products and production stages, we take two different approaches. The first one consists in using a notion of stochastic stability in the Foster-Lyapunov sense to characterize the candidate policies, thus originating a class of policies that induce a subset of positive recurrent states. Therefore, one can propose suboptimal policies that are stable and seek optimality only in the subset of recurrent states, in such a way that simplifies the DP task and focuses on the states which are visited more frequently in the long run. The second approach consists in developing approximate dynamic programming techniques for the problem, by means of a fixed approximation architecture applied to a sample subset of the state space. A novel result is obtained by observing how an approximation architecture can adequately capture the value function of the problem, which is viewed as a projection of the value function into the architecture. We obtain conditions for an approximate DP algorithm to converge to this projection. These conditions are architecture independent. An algorithm derived from this analysis is proposed that monitors the variation between successive iterates / Doutorado / Automação e Controle / Doutor em Engenharia Elétrica
37

Comparação entre diferentes abordagens de programação dinamica no planejamento da operação energentica de sistemas hidrotermicos de potencia / Comparison among different dynamic programming approaches in medium term hydropower scheduling

Siqueira, Thais Gama de 15 August 2018 (has links)
Orientadores: Secundino Soares Filho, Marinho Gomes de Andrade Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-15T04:56:04Z (GMT). No. of bitstreams: 1 Siqueira_ThaisGamade_D.pdf: 1878251 bytes, checksum: c4c0b7a2af163305b181cf917f725354 (MD5) Previous issue date: 2009 / Resumo: O planejamento da operação energética (POE) tem como objetivo determinar metas de geração para cada usina do sistema elétrico a cada estágio (mês) do período de planejamento (anos) que minimizam o custo total de operação, atendendo a demanda e respeitando as restrições operativas das usinas. A Programação Dinâmica (PD) é a ferramenta mais utilizada na resolução do POE devido, entre outras coisas, a sua capacidade de representar a natureza estocástica das vazões afluentes futuras. Entretanto, a PD é restrita pela "maldição da dimensionalidade", pois o esforço computacional cresce exponencialmente com o aumento do número de usinas consideradas. Para poder utilizar a PD no POE de sistemas de grande porte, como o brasileiro, com centenas de usinas, uma abordagem adotada baseia-se na agregação do sistema hidrelétrico em reservatórios equivalentes, reduzindo a dimensão do sistema - quatro reservatórios equivalentes no caso do sistema brasileiro. Este trabalho visa elaborar uma análise comparativa detalhada de diversas políticas operativas para o POE baseadas em PD com o objetivo de estimar o benefício do seu uso em sistemas equivalentes. Para melhor comparar as diferentes políticas são considerados somente sistemas formados por uma única usina, evitando-se assim o efeito das simplificações e limitações dos modelos equivalentes. Alem disso, são comparadas diferentes modelagens para as distribuições de probabilidades das vazões na PD. Os desempenhos das diferentes políticas são avaliados por simulação no histórico de vazões e os resultados, considerando usinas hidrelétricas localizadas em diferentes bacias do sistema brasileiro, indicam que as diferenças não são expressivas / Abstract: The medium term hydrothermal scheduling problem aims to determine, for each stage (month) of the planning period (years), the amount of generation at each hydro and thermal plant that attends the load demand and minimizes the expected operation cost in the planning period. Dynamic programming has been the most applied technique to solve the long term hydrothermal scheduling problem because it adequately copes with the uncertainty of inflows. Although efficient in the treatment of river inflows as random variables described by probability distributions, the dynamic programming technique is limited by the so-called "curse of dimensionality" since its computational burden increases exponentially with the number of hydro plants. In order to overcome this difficulty, allowing the use of dynamic programming in medium term hydrothermal scheduling, one common manipulation adopted is to represent the hydro system by an aggregate model, as it is the case in the Brazilian power system. This work evaluates the influence of inflow modeling in the performance of dynamic programming for medium term hydrothermal scheduling. Different models have been progressively considered in order to evaluate the benefits of increasing sophistication of inflow modelling. Features and sensitivities of different models are discussed. Numerical results for hydrothermal test systems composed by a single hydro plant located in several Brazilian rivers were obtained by simulation and indicated that the differences among the policies are not significant / Doutorado / Energia Eletrica / Doutor em Engenharia Elétrica
38

Processos de difusão controlada = um estudo sobre sistemas em que a variação do controle aumenta a incerteza / Controlled diffusion processes : a suvey about systems in which the control variation increases the uncertainty

Souto, Rafael Fontes, 1984- 16 August 2018 (has links)
Orientador: João Bosco Ribeiro do Val / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-16T02:55:02Z (GMT). No. of bitstreams: 1 Souto_RafaelFontes_M.pdf: 470367 bytes, checksum: 516cc5b88625a7d2e5142b69233188f5 (MD5) Previous issue date: 2010 / Resumo: Esta dissertação apresenta uma caracterização para sistemas estocásticos em tempo contínuo em que a variação da ação de controle aumenta a incerteza sobre o estado. Este tipo de sistema pode ser aplicado em diversas áreas da ciência e da engenharia, haja vista sua capacidade de modelar sistemas estocásticos complexos, cujas dinâmicas não são completamente conhecidas. Processos de difusão controlada de Itô são usados para descrever a trajetória do estado, e a otimização é realizada por meio do método da programação dinâmica, sendo, portanto, necessária a resolução da equação de Hamilton-Jacobi-Bellman. Adicionalmente, a utilização de ferramentas da análise de funções não suaves indicou a existência de uma região no espaço de estados onde a ação ótima de controle consiste na manutenção do controle que tem sido aplicado ao sistema, seja ele qual for. Intuitivamente, este resultado está de acordo com a natureza cautelosa do controle de sistemas subdeterminados. Finalmente, estudou-se analiticamente o caso particular de um sistema com custo quadrático. Este estudo revelou que a técnica desenvolvida permite o cálculo da solução ótima de maneira simples e eficaz para comportamentos assintóticos do sistema. Essa peculiaridade da solução vem de auxílio à obtenção da solução completa do problema via aproximações numéricas / Abstract: This dissertation presents a framework for continuous-time stochastic systems in which the control variations increase the state uncertainty. This type of system can be applied in several areas of science and engineering, due to its hability of modelling complex stochastic systems, for which the dynamics are not completely known. Controlled Itô diffusion processes are used in order to describe the state path, and the optimization was achieved by the dynamic programming method, so it was necessary to solve the Hamilton-Jacobi-Bellman equation. In addition, tools from nonsmooth analysis indicated the existence of a region in the state space in which the optimal control action is characterized by no variation, no matter the previous control were. Intuitively, this result is expected from the cautionary nature of controlling underdetermined systems. Finally, it was analytically studied the particular case of a system with quadratic running costs. This study revealed that the technique developed allows the computation of the optimal solution in a simple and effective way for asymptotic behavior of the system. This feature of the solution comes in hand to obtain the complete solution of the problem by means of numerical approximations / Mestrado / Automação / Mestre em Engenharia Elétrica
39

Performances comparativas de regras simples de política monetária otimizadas para minimizar a volatilidade de uma economia

Matni, Gibran Moniz 07 April 2015 (has links)
Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2016-08-10T13:08:32Z No. of bitstreams: 1 gibranmonizmatni.pdf: 1024011 bytes, checksum: 453fcc70af9c04950fab6e2c934df0ac (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-08-15T12:58:01Z (GMT) No. of bitstreams: 1 gibranmonizmatni.pdf: 1024011 bytes, checksum: 453fcc70af9c04950fab6e2c934df0ac (MD5) / Made available in DSpace on 2016-08-15T12:58:01Z (GMT). No. of bitstreams: 1 gibranmonizmatni.pdf: 1024011 bytes, checksum: 453fcc70af9c04950fab6e2c934df0ac (MD5) Previous issue date: 2015-04-07 / Este trabalho visa o objetivo normativo de definir regras relativamente simples de política monetária otimizadas para minimizar as volatilidades do produto, da inflação e das variações dos juros, de modo a tornar o horizonte de planejamento mais estável para que os agentes possam tomar suas melhores decisões. Para tanto é utilizado um modelo de equilíbrio geral, dinâmico, estocástico, com expectativas racionais, estimado para a economia brasileira por Minella et al. (2008), micro-fundamentado considerando entre outras características rigidez de preços no nível dos produtores, famílias com restrição ao crédito e um governo que persegue uma meta de superávit primário como proporção do PIB. Sete distintas regras relativamente simples de política monetária são otimizadas minimizando as variâncias incondicionais das respostas ótimas do produto, da inflação e das variações da taxa básica de juros, obtidas a partir de uma simulação estocástica correspondente a um período de 10 anos. Variações das funções objetivo são computadas e as propagações econômicas do produto, da inflação e da taxa básica de juros, em resposta a nove choques exógenos estocásticos, são mostradas sob cada uma das regras otimizadas e sob a regra original empiricamente estimada. Dentro do ambiente considerado, regras relativamente mais simples – que não consideram variáveis forward-looking, que possuem elevado grau de inércia, que respondem relativamente alto à inflação corrente e que respondem à taxa de crescimento do gap do produto corrente ao invés de seu nível – são mais eficazes em estabilizar o produto e a inflação frente a choques exógenos estocásticos, tornando a economia considerada mais estável e proporcionando um horizonte de planejamento mais previsível para que seus agentes possam tomar suas decisões ótimas. / This paper shows interesting results for monetary policy in a rational expectations dynamic stochastic general equilibrium model with structural parameters representing the Brazilian economy. Using a constructed algorithm, basic interest rate adjustments' coefficients are optimized in order to stabilize aggregate output and inflation in face of exogenous stochastic shocks. Optimized rules' stabilizations performances are compared in a ten years simulations of several, real, nominal, and financial, exogenous shocks. Results show if monetary policy objective is to stabilize the economy, it must be adopted interest rate’s rules with chained and smoothed adjustments on basic interest rate, with high responses to current inflation, responses to output gap growth rate instead of levels, and no responses to any forward-looking variable.
40

Qual o melhor momento para a abertura de capital? analisando o timing dos IPOs das empresas brasileiras de energia a partir da teoria de opções reais

Soares, Taiany Abreu 07 February 2011 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-09-12T20:15:40Z No. of bitstreams: 1 taianyabreusoares.pdf: 2853882 bytes, checksum: 995c5563db2de673ae46d3577d5bc5a5 (MD5) / Approved for entry into archive by Diamantino Mayra (mayra.diamantino@ufjf.edu.br) on 2016-09-13T12:32:05Z (GMT) No. of bitstreams: 1 taianyabreusoares.pdf: 2853882 bytes, checksum: 995c5563db2de673ae46d3577d5bc5a5 (MD5) / Made available in DSpace on 2016-09-13T12:32:05Z (GMT). No. of bitstreams: 1 taianyabreusoares.pdf: 2853882 bytes, checksum: 995c5563db2de673ae46d3577d5bc5a5 (MD5) Previous issue date: 2011-02-07 / As principais razões para realizar uma abertura de capital são que as ofertas de ações são uma opção de financiamento mais barata para algumas empresas (dados seus atributos), a governança corporativa trazida pela estrutruta de propriedade pública minimiza os conflitos de agência, a transparência e a boa imagem da empresa (comportamento estratégico) aumentam o valor da empresa no mercado e a reestruturação societária pode gerar mais liquidez para a empresa. Entretanto, para algumas empresas de capital fechado, a questão não é se ela deve abrir ou não o capital, mas sim quando, ou seja, qual o momento mais apropriado (timing) para realizar o IPO. Nesse contexto, o presente trabalho teve por objetivo adaptar, para o caso brasileiro, o modelo de timing de IPO desenvolvido por Draho (2000), que utiliza a teoria das opções reais como metodologia para se determinar o timing ótimo da abertura de capitais. Para tanto, foram analisadas oito empresas do setor de energia (CPFL, EDP, Cosan, Brasil Ecodiesel, São Martinho, Açúcar Guarani, MPX e OGX) que, durante o período 2000-2009, realizaram a sua oferta pública primária. Como resultado, encontrou-se que todas as empresas estudadas anteciparam o timing da sua oferta e, assim, foi realizada uma análise sobre as características das ofertas públicas primárias das empresas com o objetivo de identificar potenciais determinantes de tal antecipação. Observou-se, como característica comum, a presença de capital de risco na estrutura de capital de todas as empresas e de muitos investidores otimistas (investidores externos à empresa, segundo o modelo de Bouis, 2003) interessados nos IPOs das empresas. Adicionalmente, tem-se que o período da amostra (anos de valorização da bolsa de valores brasileira, que antecederam a crise subprime deflagrada em 2008) pode ter também contribuído para tal resultado. / The main reasons addressed to warrant the opening of capital are the initial public offerings (IPO) are cheaper financing option for some companies (according to their attributes), the corporate governance brought by public-owned minimizing agency conflicts, transparency and good image of the company (strategic behavior) increases the value of their market and corporate restructuring can generate more liquidity for the company. However, for some private companies it is not a question of why go public, but rather what the most appropriate time to conduct the IPO. In this context, this study aimed to adapt to the Brazilian case, the model of the IPO timing developed by Draho (2000), which uses the real options theory as a method to determine the optimal timing for an IPO. For this, were analyzed eight Brazilian energy companies (CPFL, EDP, Cosan, Brazil Ecodiesel, St. Martin, Açúcar Guarani, MPX and OGX) that held their primary offering during the period 2000-2009. As a result, we found that all the companies studied had anticipated their timing of IPO and thus, an analysis over characteristics of primary public offerings of companies was performed with the aim of identifying the main reasons for the anticipation. It was observed as common feature the presence of venture capital in the capital structure of all companies and many optimistic investors (investors outside the company, according to the model Bouis, 2003) interested in IPOs of companies. Additionally, the sample period (year of valuation of the Brazilian stock exchange, which preceded the subprime crisis erupted in 2008) may have also contributed to this result.

Page generated in 0.3796 seconds