• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 331
  • 24
  • 12
  • 7
  • 3
  • 2
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 379
  • 220
  • 92
  • 67
  • 47
  • 46
  • 45
  • 43
  • 43
  • 41
  • 39
  • 33
  • 32
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

ANÁLISE PROBABILÍSTICA DO GERENCIAMENTO DA CONGESTÃO EM MERCADOS DE ENERGIA ELÉTRICA / PROBABILIST ANALYSIS OF THE MANAGEMENT OF THE CONGESTION IN MARKETS OF ELECTRIC ENERGY

Rodrigues, Anselmo Barbosa 15 August 2003 (has links)
Made available in DSpace on 2016-08-17T14:52:47Z (GMT). No. of bitstreams: 1 Anselmo Rodrigues.pdf: 589170 bytes, checksum: 7eda1a9d5bbe5a0ef8355bc4c4d26ca8 (MD5) Previous issue date: 2003-08-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The restructuring of the electricity industry has caused an increase in the number of commercial transactions carried out in energy markets. These transactions are defined by market forces without considering the operational constraints of the transmission system. As a consequence, there are transactions that cause congestion in the transmission network, that means, violations of operational limits in one or more circuits of the transmission system. In this way, the congestion in the transmission system must be eliminated by using corrective actions, such as redispatch of generation/transactions and operation of control flow devices, to avoid cascading outages with uncontrolled loss of load. Currently, the majority of methodologies used in congestion management are based on deterministic models. It has been justified because of the complexity associated with the application of probabilistic models in generation/transmission systems. Nevertheless, some models have been developed to carry out probabilistic analysis of the congestion management. Usually, they are based on the Monte Carlo Method with nonsequential simulation and they only include bilateral transactions. However, multilateral transactions are also essential for the existence of the energy markets. The multilateral transactions reduce the financial risks associated with commercial transactions and allow the customers to have access to the energy providers. Additionally by ignoring multilateral transactions, the existing probabilistic models for the congestion management include only not-free-cost corrective actions, such as generation redispatch and transaction curtailments. On the other hand, free-cost corrective actions, such as phase shifting transformers and FACTS devices, can provide low cost solutions to eliminate congestion in interconnections of the transmission system. This condition is caused by the delay in carrying out reinforcements in the transmission systems due to financial and environmental constraints. Finally, it must be noted that only probabilistic indices based in expected values are evaluated by the probabilistic models of congestion management. However, system operators have difficulty in interpreting probabilistic indices based only in expected values. Therefore, it is necessary to develop new indices to carry out probabilistic analysis of congestion management. These new indices must consider traditionally accepted operational criteria and they must be easily interpreted by the system operators. This research has as its objective the development of models and techniques to carry out the probabilistic analysis of congestion management. The proposed models and techniques consider the following aspects associated with congestion management: the modeling of multilateral transactions, phase shifting transformers and the definition of Well-Being Indices to assess the reliability of the commercial transactions. These indices, allow the establishment of a link between the operational criteria traditionally used and the stochastic model of the electrical network. The models and indices, proposed in this research, have been based on the Monte Carlo Method with non-sequential simulation and in the linearized optimal power flow. The optimal power flow problems associated with the congestion management have been solved using the Primal-Dual Interior-Point Method. The practical application and the validation of the models and indices proposed in this research have been carried out in two systems: the IEEE System, proposed in 1996, for Reliability Studies. The main conclusions obtained with the application of the proposed models and techniques in the IEEE system are: multilateral congestion management can improve the reliability of commercial transactions, load profiles have significant effects on the Well-Being indices of the transactions, the base case condition has great impact in the Well-Being indices associated with a set of transactions and the operation of phase-shifting transformers and can decrease significantly the curtailments in the commercial transactions. / A reestruturação da indústria de eletricidade causou um aumento no número de transações comerciais efetuadas em mercados de energia. Estas transações são definidas por forças de mercado sem considerar restrições operacionais do sistema de transmissão. Consequentemente existem transações comerciais que causam congestão no sistema de transmissão, ou seja, resultam em violações de limites operacionais em um ou mais circuitos do sistema de transmissão. Desta forma, a congestão no sistema de transmissão deve ser eliminada usando-se ações corretivas, tais como redespacho de geração/transações e operação de dispositivos de controle de fluxo, para evitar contingências em cascata com perda de carga descontrolada. Atualmente, a maioria das metodologias usadas no gerenciamento da congestão se baseia em métodos determinísticos. Isto tem sido justificado devido a complexidade associada com a aplicação de modelos probabilísiticos em sistemas de geração/transmissão. Apesar disto, alguns modelos foram desenvolvidos para realizar uma análise probabilística do gerenciamento da congestão. Estes modelos geralmente se baseiam no método de Monte Carlo com Simulação Não-Sequencial e somente incluem transações bilaterais. Entretanto, transações multilaterais são também de grande importância para a existência dos mercados de energia. Os contratos multilaterais reduzem os riscos financeiros associados com transações comerciais e permitem que os consumidores tenham acesso aos fornecedores de energia. Além de não considerarem transações multilaterais, os modelos probabilísticos existentes para o gerenciamento da congestão somente incluem ações corretivas não-livres de custo, tais como redespacho da geração e cortes nas transações. Por outro lado, ações corretivas livres de custo, tais como transformadores defasadores e dispositivos FACTS, podem fornecer soluções de baixo custo para eliminar a congestão nas interligações do sistema de transmissão. Esta condição é causada pelo atraso na realização de reforços no sistema de transmissão devido a restrições financeiras e ambientais. Finalmente, observa-se que apenas índices probabilísticos que se baseiam em valores esperados são calculados pelos modelos probabilísticos de gerenciamento da congestão. Entretanto, operadores do sistema tem dificuldade em interpretar índices probabilísticos que se baseiam em valores esperados. Devido a isto, é necessário desenvolver novos índices para realizar uma análise probabilística do gerenciamento da congestão. Estes novos índices devem considerar critérios de avaliação tradicionalmente aceitos e serem facilmente interpretados pelos operadores do sistema. Este trabalho de pesquisa tem como objetivo desenvolver modelos e técnicas para realizar a análise probabilística do gerenciamento da congestão. Os modelos e técnicas propostos neste trabalho consideraram os seguintes aspectos associados com o gerenciamento da congestão: modelagem de transações multilaterais e transformadores defasadores no gerenciamento da congestão e a definição de índices de robustez para analisar a confiabilidade das transações comerciais. Estes índices permitem estabelecer um elo entre critérios de operação tradicionalmente usados e a modelagem probabilística da rede elétrica. Os modelos e índices propostos neste trabalho de pesquisa se baseiam no Método de Monte Carlo com simulação não-sequencial e no fluxo de potência ótimo linearizado. Os problemas de fluxo de potência ótimo associados com o gerenciamento da congestão foram resolvidos usando-se o Método de Pontos-Interiores Primal-Dual. A aplicação prática e validação dos modelos e índices propostos nesta pesquisa foi realizada através de diversos testes no sistema IEEE, proposto em 1996, para estudos de confiabilidade. As principais conclusões obtidas com a aplicação dos modelos e técnicas propostos no sistema IEEE são: o gerenciamento da congestão multilateral pode aumentar a confiabilidade das transações comerciais, perfis de carga tem efeitos significativos nos índices de robustez das transações comerciais, a condição do caso base tem grande impacto nos índices de robustez associados com um conjunto de transações e a operação de transfotmadores defasadores pode diminuir significativamente as interrupções nas transações comerciais.
312

Métodos de simulação-otimização e análise de decisão multi-critério aplicados ao dimensionamento de sistemas logísticos complexos. / Simulation-optimization and multi-criteria decision analysis applied to complex logistics systems.

Edson Felipe Capovilla Trevisan 16 September 2013 (has links)
O estudo de sistemas logísticos envolve a concatenação de elementos estratégicos e operacionais, comumente compondo sistemas com múltiplas facetas, objetivos antagônicos e grande número de alternativas. Nesse contexto, o presente trabalho discute a utilização de análise de decisão multicritério (MCDA), simulação de eventos discretos (SED) e otimização para simulação. A metodologia MCDA captura, mensura e pondera os objetivos e valores dos tomadores de decisão. Por sua vez, a SED representa o sistema estudado com alto nível de detalhamento, permitindo a avaliação de diversas configurações do sistema. Por fim, métodos de otimização para simulação possibilitam a busca e comparação de alternativas mais eficientes. As três metodologias são avaliadas, identificando suas vantagens, desvantagens e complementaridades quando aplicadas a sistemas logísticos. Através da aplicação de um estudo de caso sobre o dimensionamento de um sistema de transporte, constatou-se que: a) a SED incorporou detalhes importantes para a avaliação mais precisa de vários indicadores de desempenho b) a metodologia MCDA possibilitou a captura de vários objetivos e valores, propiciando a realização de tradeoffs robustos; c) um método de busca exaustiva e técnicas de redução de variância permitiram a comparação das alternativas em tempos computacionais reduzidos. Por fim, conclui-se que a metodologia híbrida apresentada expande o potencial de aplicação da SED em sistemas logísticos complexos. / A logistic system study involves strategic and operational elements, commonly composing multi-faceted systems with antagonistic goals and large number of alternatives. In this context, this thesis discusses the use of multi-criteria decision analysis (MCDA), discrete event simulation (DES) and optimization for simulation. The MCDA methodology captures, measures and weighs the goals and values of decision makers. DES is useful for representing systems with high level of detail, allowing the evaluation of several system configurations. Finally, optimization for simulation procedures are useful for searching and comparing more efficient alternatives. These three methodologies are assessed and their advantages, disadvantages, and complementarities are identified for logistics systems applications. Through a case study of a transportation system, we conclude that: a) the SED incorporated important details for more precise evaluation of various performance indicators b) the MCDA methodology was useful to capture several goals and values, so that robust tradeoffs could be carried out c) an exhaustive search routine and variance reduction techniques allowed the comparison of several alternatives in feasible computational times. Finally, we conclude that the presented hybrid methodology expands the application of DES to complex logistics systems.
313

Efeitos dos ganhos de produtividade total dos fatores da agropecuária sobre os preços agrícolas no Brasil: 1970-2006 / The effects of total factor productivity over the food prices in Brazil

Giovanna Miranda Mendes 11 September 2015 (has links)
A agropecuária brasileira tem crescido nas últimas décadas e os ganhos de produtividade tem sido importante neste bom desempenho do setor. O presente trabalho tem dois objetivos principais. O primeiro deles foi mensurar o crescimento desta produtividade total dos fatores na agropecuária brasileira estadual, decompondo o crescimento da PTF em progresso tecnológico e eficiência técnica. O segundo objetivo foi analisar o efeito do crescimento da PTF da agropecuária brasileira sobre os preços agrícolas, no Brasil, de 1970 a 2006. O crescimento desta produtividade foi mensurado a partir dos insumos terra, trabalho e capital na função de produção translog sob orientação do produto, a partir do método de Fronteira Estocástica de Produção e do índice de produtividade de Malmquist. Para avaliar o efeito do crescimento da PTF sobre os preços agrícolas foi construído o índice de preços agrícolas utilizando-se o Índice de preços de Laspeyres para estimar o vetor autoregressivo em painel (panel- VAR), acrescentando as variáveis produtividade total dos fatores (PTF), salário rural, financiamento agrícola e renda per capita domiciliar. Além disso, foi aplicado o teste de causalidade, no sentido de Granger, e estimada a função impulso resposta. A base de dados utilizada foi, obtida do Censo Agropecuário, a nível estadual, para os anos de 1970, 1975, 1980, 1985, 1995 e 2006. Os resultados indicaram que a taxa de crescimento da PTF foi crescente no Brasil e nos estados, sendo que, na maior parte das vezes, é explicada pelo progresso tecnológico, positivo e crescente para todos os estados. A eficiência técnica variou ao longo dos anos, apresentado taxas de crescimento médias positivas para a maioria dos estados. Em média, os estados estiveram situados abaixo da fronteira de produção da agropecuária brasileira. São Paulo foi o estado com maior nível de eficiência técnica. Embora a taxa de crescimento médio anual tenha sido positiva ao longo do período analisado, a eficiência reduziu para todos os estados analisados em 2006. Da análise dos efeitos do crescimento da PTF sobre os preços agrícolas, a PTF tem causalidade, no sentido de Granger, sobre os preços agrícolas. Na função impulso resposta, o choque inicial na variável PTF reduziu os preços nos primeiros anos. Assim, o crescimento da PTF do setor agropecuário contribuiu para o aumento da oferta de produtos, reduzindo os preços agrícolas. A maior disponibilidade de alimentos e, com a redução dos preços dos alimentos, os consumidores, principalmente os de renda mais baixa puderam ter maior acesso aos alimentos. / The Brazilian agriculture has grown in recent decades and productivity gains have been important in this good performance of the sector. This work had two main objectives. The first one was measure the growth of this total factor productivity in agriculture by the Brazilian\'s states, decomposing TFP growth by technological progress, technical efficiency and economies of scale. The second objective was to analyze the effect of TFP growth of Brazilian agriculture on agricultural prices. The growth in productivity was measured from the inputs like labor, gross and capital in the translog production function, from the Stochastic Frontier Analysis and of the outputoriented Malmquist productivity index. To analyze the effect of TFP growth on agricultural prices was constructed an index of agricultural prices through the Laspeyres price index to estimate the vector autoregressive panel (panel-VAR) and establish the relationships between TFP, rural wages, agricultural finance and income per capita household. The Granger causality test and the impulse response function were used to the data panel. The database used obtained from the Agricultural Census, at the state level for the years 1970, 1975, 1980, 1985, 1995 and 2006. The results showed that the growth rate of TFP has been growing in Brazil and in the states, and technological progress explained most of the growth being positive and growing for all states. Technical efficiency varied over the years, presented positive average growth rates for most states. The states were located below the production frontier of Brazilian agriculture and São Paulo was the state with the highest level of technical efficiency. Although the average annual growth rate has been increasing over the period analyzed, the efficiency decreased to all state analyzed in 2006. The results also showed that TFP growth has causality in the sense of Granger, on agricultural prices. In the impulse response function, the initial shock in TFP decreased prices in the early years. Thus, TFP growth of the agricultural sector contributed to the increased supply of agricultural products, reducing agricultural prices. The greater availability of food and with reducing food prices, consumers, especially those from lower income might had greater access to food.
314

Planejamento energético da operação de médio prazo conjugando as técnicas de PDDE, PAR(p) e Bootstrap

Castro, Cristina Márcia Barros de 27 December 2012 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-06-22T12:09:45Z No. of bitstreams: 1 cristinamarciabarrosdecastro.pdf: 9219339 bytes, checksum: 92fbbaf80500b5c629a4e62bcd9aa49d (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-13T15:29:14Z (GMT) No. of bitstreams: 1 cristinamarciabarrosdecastro.pdf: 9219339 bytes, checksum: 92fbbaf80500b5c629a4e62bcd9aa49d (MD5) / Made available in DSpace on 2016-07-13T15:29:14Z (GMT). No. of bitstreams: 1 cristinamarciabarrosdecastro.pdf: 9219339 bytes, checksum: 92fbbaf80500b5c629a4e62bcd9aa49d (MD5) Previous issue date: 2012-12-27 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Com o objetivo de atendimento à demanda de energia elétrica, buscando um baixo custo na geração de energia, é imprescindível o desenvolvimento do planejamento da operação do setor elétrico brasileiro. O planejamento da operação no horizonte de médio prazo leva em consideração a alta estocasticidade das afluências e é avaliado através da série histórica de Energia Natural Afluente (ENA). No modelo homologado pelo setor, o estudo da ENA tem sido feito por meio da metodologia Box e Jenkins, para determinar os modelos autorregressivos periódicos (PAR(p)), bem como sua ordem . Aos resíduos gerados na modelagem do PAR(p), são aplicados uma distribuição lognormal três parâmetros, como forma de gerar séries sintéticas hidrológicas semelhantes à série histórica original. Contudo, a transformação lognormal incorpora não linearidades que afetam o processo de convergência da Programação Dinâmica Dual Estocástica (PDDE). Este trabalho incorpora a técnica de bootstrap para a geração de cenários sintéticos que servirão de base para a aplicação da PDDE. A técnica estatística Bootstrap é um método alternativo a ser empregado ao problema de planejamento e que permite tanto determinar a ordem ( ) do modelo PAR(p), quanto gerar novas séries sintéticas hidrológicas. Assim, o objetivo do trabalho é analisar os impactos existentes com o uso do Bootstrap no planejamento da operação dos sistemas hidrotérmicos e, em seguida estabelecer uma comparação com a metodologia que tem sido aplicada no setor. Diante dos resultados foi possível concluir que a técnica bootstrap permite a obtenção de séries hidrológicas bem ajustadas e geram resultados confiáveis quanto ao planejamento da operação de sistemas hidrotérmicos, podendo ser usada como uma técnica alternativa ao problema em questão. / Aiming to match the long term load demand with a low cost in power generation, it is very important to improve more and more the operation planning of the Brazilian electric sector. The operation planning of medium/long term takes into account the water inflows, which are strongly stochastic, and it must be evaluated using the series of Natural Energy Inflows (NEI). In the current computational model applied to Brazilian operation planning of medium/long term, the study of ENA has been done by Box and Jenkins methodology, which determines the periodic autoregressive model (PAR (p)), as well as its order p. A lognormal distribution with three parameters is applied on the residues that are created by the PAR (p) model, as a way to generate synthetic hydrologic series similar to the original series. However, this lognormal transformation brings nonlinearities which can disturb the stability and convergence of Stochastic Dual Dynamic Programming (SDDP). This thesis incorporates the bootstrap technique to create synthetic scenarios which will be taken into account as a basis for the SDDP implementation. This statistical technique, called bootstrap, is an alternative method used to determine both the order (p) of the model PAR (p), and, after that, to produce synthetic hydrological series. Thus, the objective of this thesis is to analyze the impact of the Bootstrap technique compared to the current methodology. The results showed that the bootstrap technique is suitable to obtain adherent hydrological series. So, it was created reliable scenarios regarding the planning of the operation of hydrothermal systems. Finally, this new methodology can be used as an alternative technique to long term hydrothermal planning problems.
315

Processo iterativo de construção da função de custo futuro na metodologia PDE-ConvexHull

Brandi, Rafael Bruno da Silva 30 March 2011 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-07-20T13:53:44Z No. of bitstreams: 1 rafaelbrunodasilvabrandi.pdf: 3504861 bytes, checksum: 82d36b1bf645c59e92876390b55e996b (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-22T15:19:11Z (GMT) No. of bitstreams: 1 rafaelbrunodasilvabrandi.pdf: 3504861 bytes, checksum: 82d36b1bf645c59e92876390b55e996b (MD5) / Made available in DSpace on 2016-07-22T15:19:11Z (GMT). No. of bitstreams: 1 rafaelbrunodasilvabrandi.pdf: 3504861 bytes, checksum: 82d36b1bf645c59e92876390b55e996b (MD5) Previous issue date: 2011-03-30 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O Sistema Elétrico Brasileiro (SEB) apresenta características peculiares devido às grandes dimensões do país e pelo fato da geração elétrica ser proveniente predominantemente de usinashidráulicasqueproporcionamaosistemaacapacidadedeumaregularizaçãoplurianualdos seusreservatórios. Asafluênciasnestasusinassãoestocásticasemuitasvezesapresentamcomportamentos complementares entre as diversas regiões do país, o que incentiva a existência de grandes intercâmbios energéticos entre os subsistemas através do Sistema Interligado Nacional (SIN). O planejamento da operação no horizonte de médio/longo prazo no país (que compreende a um período de 5 a 10 anos à frente com discretização mensal) é realizado por uma cadeia de modelos computacionais validados pelos principais agentes que atuam no SEB (comercialização, geração, transmissão e distribuição de energia). O principal modelo desta cadeia, a qual é desenvolvida pelo Centro de Pesquisas de Energia Elétrica/ELETROBRÁS, é o modelo NEWAVE que baseia-se na técnica de Programação Dinâmica Dual Estocástica (PDDE) para a determinação da política eletroenergética de médio prazo. O objetivo deste trabalho é implementar um modelo computacional para o planejamento da operação de médio prazo utilizando a metodologia de Programação Dinâmica Estocástica conjuntamente ao algoritmo de fechos convexos (PDE-ConvexHull) de uma forma computacionalmente eficiente (Fast-PDE-ConvexHull). Isto porque observou-se que quando utiliza-se a técnicadaPDE-ConvexHull,umnúmeroelevadodehiperplanossãoobtidosnacomposiçãodas funçõesdecustofuturoe,comisto,osdiversosproblemasdeprogramaçãolinearaseremresolvidos durante o processo iterativo podem tornar-se maiores, aumentando consideravelmente o tempodaexecuçãodocálculodapolíticaoperativa. Sendoassim,aprincipalcontribuiçãodeste trabalho é apresentar uma nova metodologia para a representação da função de custo futuro no problema de programação linear na qual o tempo computacional se torne menos sensível ao númerodehiperplanosobtidospeloalgoritmodefechosconvexos. Ressalta-sequetambémsão utilizadas técnicas de computação paralela com o objetivo de tornar o processo mais eficiente. A metodologia foi utilizada para o cálculo do planejamento de médio prazo do SEB, baseando-se em subsistemas equivalentes de energia. A metodologia Fast-PDE-ConvexHull foi incorporada a uma plataforma computacional, desenvolvida em C++/Java, capaz de considerar o mesmo conjunto de dados utilizado pelos modelos oficiais do SEB, compondo assim um modelo robusto para a resolução do problema. Primeiramente, para fins de validação da metodologia proposta, comparou-se os resultados obtidos pela metodologia da Fast-PDE-ConvexHull com os resultados obtidos pela utilização da técnica da PDE-ConvexHull com o objetivo verificar o ganho computacional e a aderência dos resultados. Por fim, como a plataforma computacional desenvolvida é capaz de utilizar o conjunto de dados oficiais disponibilizados para o SIN, fez-se o uso do Programa Mensal de Operação (PMO) de janeiro de 2011, disponibilizado pelo Operador Nacional do Sistema (ONS), como caso de estudo para comparação dos resultados obtidos pela metodologia proposta com os resultados obtidos pelo modelo NEWAVE. / The Brazilian National Grid (BNG) presents peculiar characteristics due to the huge territory dimensions and by the fact that the electricity generation is predominantly originated from hydraulic plants that provide for the system the capacity of a pluriannual regularization of the reservoirs. The water inflows to these plants are stochastic and often present complementary behavior among the regions of the country, stimulating the existence of big amounts of energy exchanges between the subsystems through the national grid. The long term operation planning problem (that includes a period of 5 to 10 years ahead with monthly discretization) is made by a chain of computational models that are validated by the main agents that act on BNG (commercialization, generation, transmition and distribution of energy). The primary model of this chain, which is developed by Electric Energy Research Center/ELETROBRÁS, is the NEWAVE model, which is based on the Stochastic Dual Dynamic Programming (SDDP) for electroenergetic policy determination on a long term horizon. Thisworkhastheobjectiveofimplementacomputationalmodelforthemid/longtermoperation planning using the Stochastic Dynamic Programming (SDP) together with the Convex Hull algorithm (PDE-ConvexHull) in a computationally efficient way (Fast-PDE-ConvexHull). This is because it was observed that when utilizing the PDE-ConvexHull technique, an elevated amount of hyperplanes are obtained for the composition of the cost-to-go function. So, the different linear programming problems to be solved during the iterative process can be turned larger, increasing the execution time for the operational policy calculus in a considerably manner. Thus, the main contribution of this work is to present a new methodology (FastPDE-ConvexHull) for the representation of the cost-to-go function on the linear programming problems where the computational time become less sensible to the number of hyperplanes obtained from the Convex Hull algorithm. It is highlighted that techniques of parallel computing was employed in order to turn the process more efficient. The methodology was utilized for the BNG’s long term planning calculus, based on the equivalent subsystems of energy. The methodology Fast-PDE-ConvexHull was incorporated to a computational platform, developed in C++/Java programming language, that is able to consider the same data set used by the official models acting on the BNG, compounding a robust model for the resolution of the problem. Firstly, in order to validate the proposed methodology, the results obtained from the FastPDE-ConvexHullarecomparedwiththoseobtainedfromtheutilizationofthePDE-ConvexHull technique aiming to verify the computational gain and the adherence between both results. Finally, as the elaborated computational platform is capable to use the official data set availablefortheNG,itwaspossibletheutilizationoftheMonthlyOperationalProgram(MOP) of January 2011, released by the Independent System Operator (ISO), as the study case for comparingtheresultsobtainedbytheproposedmethodologywiththeresultsobtainedfromthe NEWAVE model.
316

Relação entre o volume da célula e dinâmica do ciclo celular em mamíferos

Magno, Alessandra Cristina Gomes 22 March 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-31T15:25:44Z No. of bitstreams: 1 alessandracristinagomesmagno.pdf: 3807060 bytes, checksum: a3775aee860af7ea06cde6b9d587ab80 (MD5) / Rejected by Adriana Oliveira (adriana.oliveira@ufjf.edu.br), reason: on 2017-06-01T11:41:14Z (GMT) / Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-06-01T11:44:40Z No. of bitstreams: 1 alessandracristinagomesmagno.pdf: 3807060 bytes, checksum: a3775aee860af7ea06cde6b9d587ab80 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-01T11:47:06Z (GMT) No. of bitstreams: 1 alessandracristinagomesmagno.pdf: 3807060 bytes, checksum: a3775aee860af7ea06cde6b9d587ab80 (MD5) / Made available in DSpace on 2017-06-01T11:47:06Z (GMT). No. of bitstreams: 1 alessandracristinagomesmagno.pdf: 3807060 bytes, checksum: a3775aee860af7ea06cde6b9d587ab80 (MD5) Previous issue date: 2016-03-22 / O objetivo principal deste trabalho é adicionar e analisar uma equação que repre senta o volume no modelo dinâmico do ciclo celular de mamíferos proposto por Gérard e Goldbeter (2011). A divisão celular ocorre quando o complexo ciclinaB/Cdk1(quínase dependente de ciclina) é totalmente degradado atingindo um valor mínimo. Neste ponto, a célula é divida em duas novas células filhas e cada uma irá conter a metade do conteúdo citoplasmático da célula mãe. As equações do modelo de base são válidas apenas se o volume celular, onde as reações ocorrem, é constante. Quando o volume celular não é constante, isto é, a taxa de variação do volume em relação ao tempo é explicitamente levada em consideração no modelo matemático, então as equações do modelo original não são mais válidas. Portanto, todas as equações foram modificadas a partir do princípio de conservação das massas para considerar um volume que varia ao longo do tempo. Por meio desta abordagem, o volume celular afeta todas as variáveis do modelo. Dois méto dos diferentes de simulação foram efetuados: determinista e estocástico. Na simulação estocástica, o volume afeta todos os parâmetros do modelo que possuem de alguma forma unidade molar, enquanto que no determinista, ele é incorporado nas equações diferen ciais. Na simulação determinista, as espécies bioquímicas podem estar em unidades de concentração, enquanto na simulação estocástica tais espécies devem ser convertidas para número de moléculas que são diretamente proporcional ao volume celular. Em um esforço para entender a influência da nova equação sobre o modelo uma análise de estabilidade foi feita. Isso esclarece como o novo parâmetro µ, fator de crescimento do volume celular, impacta na estabilidade do ciclo limite do modelo. Para encontrar a solução aproximada do modelo determinista, o método Runge Kutta de quarta ordem foi implementado. Já para o modelo estocástico, o método direto de Gillespie foi usado. Para concluir, um modelo mais preciso, em comparação ao modelo de base, foi desenvolvido ao levar em consideração a influência da taxa de variação do volume celular sobre o ciclo celular. / The main goal of this work is to add and analyse an equation that represents the volume in a dynamical model of the mammalian cell cycle proposed by Gérard and Gold beter (2011). The cell division occurs when the cyclinB/Cdk1 (cyclin-dependent kinase) complex is totally degraded and it reaches a minimum value. At this point, the cell is divided into two newborn daughter cells and each one will contain the half of the cyto plasmic content of the mother cell. The equations of our base model are valid only if the cell volume, where the reactions occur, is constant. Whether the cell volume is not constant, that is, the rate of change of its volume with respect to time is explicitly taken into account in the mathematical model, then the equations of the original model are no longer valid. Therefore, every equations were modified from the mass conservation prin ciple for considering a volume that changes with time. Through this approach, the cell volume affects all model variables. Two different dynamic simulation methods were ac complished: deterministic and stochastic. In the stochastic simulation, the volume affects every model’s parameters which have molar unit, whereas in the deterministic one, it is incorporated into the differential equations. In deterministic simulation, the biochemical species may be in concentration units, while in stochastic simulation such species must be converted to number of molecules which are directly proportional to the cell volume. In an effort to understand the influence of the new equation over the model an stability analysis was performed. This elucidates how the new parameter µ, cell volume growth factor, impacts the stability of the model’s limit cycle. In order to find the approximated solution of the deterministic model, the fourth order Runge Kutta method was implemen ted. As for the stochastic model, the Gillespie’s Direct Method was used. In conclusion, a more precise model, in comparison to the base model, was created for the cell cycle as it now takes into consideration the rate of change of the cell volume.
317

Novos algoritmos de simulação estocástica com atraso para redes gênicas

Silva, Camillo de Lellis Falcão da 22 May 2014 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-06-06T13:42:32Z No. of bitstreams: 1 camillodelellisfalcaodasilva.pdf: 1420414 bytes, checksum: f38c14f74131ea594b1e105fbfdb1619 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-06T14:07:56Z (GMT) No. of bitstreams: 1 camillodelellisfalcaodasilva.pdf: 1420414 bytes, checksum: f38c14f74131ea594b1e105fbfdb1619 (MD5) / Made available in DSpace on 2017-06-06T14:07:56Z (GMT). No. of bitstreams: 1 camillodelellisfalcaodasilva.pdf: 1420414 bytes, checksum: f38c14f74131ea594b1e105fbfdb1619 (MD5) Previous issue date: 2014-05-22 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Atualmente, a eficiência dos algoritmos de simulação estocástica para a simulação de redes de regulação gênica (RRG) tem motivado diversos trabalhos científicos. O interesse por tais algoritmos deve-se ao fato de as novas tecnologias em biologia celular — às vezes chamadas de tecnologias de alto rendimento (high throughput technology cell biology) — te-rem mostrado que a expressão gênica é um processo estocástico. Em RRG com atrasos, os algoritmos para simulação estocástica existentes possuem problemas — como crescimento linear da complexidade assintótica, descarte excessivo de números aleatórios durante a si-mulação e grande complexidade de codificação em linguagens de programação — que podem resultar em um baixo desempenho em relação ao tempo de processamento de simulação de uma RRG. Este trabalho apresenta um algoritmo para simulação estocástica que foi chamado de método da próxima reação simplificado (SNRM). Esse algoritmo mostrou-se mais eficiente que as outras abordagens existentes para simulações estocásticas realizadas com as RRGs com atrasos. Além do SNRM, um novo grafo de dependências para reações com atrasos também é apresentado. A utilização desse novo grafo, que foi nomeado de delayed dependency graph (DDG), aumentou consideravelmente a eficiência de todas as versões dos algoritmos de simulação estocástica com atrasos apresentados nesse trabalho. Finalmente, uma estrutura de dados que recebeu o nome de lista ordenada por hashing é utilizada para tratar a lista de produtos em espera em simulações de RRGs com atrasos. Essa estrutura de dados também se mostrou mais eficiente que uma heap em todas as simulações testadas. Com todas as melhorias mencionadas, este trabalho apresenta um conjunto de estratégias que contribui de forma efetiva para o desempenho dos algoritmos de simulação estocástica com atrasos de redes de regulação gênica. / Recently, the time efficiency of stochastic simulation algorithms for gene regulatory networks (GRN) has motivated several scientific works. Interest in such algorithms is because the new technologies in cell biology — called high-throughput technologies cell biology — have shown that gene expression is a stochastic process. In GRN with delays, the existing algorithms for stochastic simulation have some drawbacks — such as linear growth of complexity, excessive discard of random numbers, and the coding in a programming language can be hard — that result in poor performance during the simulation of very large GRN. This work presents an algorithm for stochastic simulation of GRN. We called it simplified next reaction method (SNRM). This algorithm was more efficient than other existing algorithms for stochastically simulation of GRN with delays. Besides SNRM, a new dependency graph for delayed reactions is also presented. The use of this new graph, which we named it delayed dependency graph (DDG), greatly increased the efficiency of all versions of the algorithms for stochastic simulation with delays presented in this work. Finally, a data structure that we named hashing sorted list is used to handle the waiting list of products in simulations of GRN with delays. This data structure was also more efficient than a heap in all tested simulations. With all the improvements mentioned, this work presents a set of strategies that contribute effectively to increasing performance of stochastic simulation algorithms with delays for gene regulatory networks.
318

Análise dos modelos baseados em lower partial moments: um estudo empírico para o Ibovespa e Dow Jones através da distância Hansen-Jagannathan

Herrera, Christian Jonnatan Jacobsen Soto 01 March 2017 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-06-28T19:37:30Z No. of bitstreams: 1 christianjonnatanjacobsensotoherrera.pdf: 883027 bytes, checksum: 3ee1cf348a7392e28d4ef150125ad72c (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-08-07T21:48:11Z (GMT) No. of bitstreams: 1 christianjonnatanjacobsensotoherrera.pdf: 883027 bytes, checksum: 3ee1cf348a7392e28d4ef150125ad72c (MD5) / Made available in DSpace on 2017-08-07T21:48:11Z (GMT). No. of bitstreams: 1 christianjonnatanjacobsensotoherrera.pdf: 883027 bytes, checksum: 3ee1cf348a7392e28d4ef150125ad72c (MD5) Previous issue date: 2017-03-01 / Esta dissertação propõe testar empiricamente, através de otimizações in sample, os modelos de downside risk, Sortino, Upside Pontential Ratio, Omega e Kappa, comparado-os com o tradicional CAPM, derivado a partir da fronteira de média e variância, utilizando as ações listadas no Ibovespa e Dow Jones (DJIA) para construção de carteiras de mercado para cada um dos modelos. Estas duas classes de modelos distinguem-se quanto aos pressupostos e à mensuração do risco. Enquanto o CAPM considera apenas os dois primeiros momentos da distribuição de retornos, as outras medidas levam em conta os momentos superiores. Através da distância Hansen-Jagannathan, que mede o erro de mensuração do Stochastic Discount Factor (SDF) gerado pelos modelos, observou-se grande distinção dos modelos nos dois mercados. Enquanto o CAPM performou melhor no Dow Jones, os modelos de downside risk apresentaram melhores resultados para o Ibovespa, sugerindo vantagem na utilização destes modelos em mercados com menor liquidez e maior assimetria. / This dissertation proposes empirically test the downside risk models, Sortino, Upside Pontential Ratio, Omega and Kappa, by comparing them with the traditional CAPM, derived from the mean and variance boundary, using the listed shares in the Ibovespa and Dow Jones (DJIA) for the construction of market portfolios for each of the models. These two classes of models are distinguished in terms of assumptions and risk measurement. While the CAPM considers only the first two moments of the returns distribution, the other measures take into account the higher moments of such distributions. The Hansen-Jagannathan distance, which measures the Stochastic Discount Factor (SDF) measurement error generated by the models, showed a great distinction of the models in the two markets. While the CAPM performed better in the Dow Jones, the downside risk models presented better results for the Ibovespa, suggesting an advantage in the use of such models in markets with lower liquidity and greater asymmetry.
319

Estrutura de capital por fronteira estocástica e mensuração da velocidade de ajuste do capital

Raimundo Júnior, Gerson de Souza 16 March 2018 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-06-14T12:28:34Z No. of bitstreams: 1 gersondesouzaraimundojunior.pdf: 1995824 bytes, checksum: 0f180adcbdae44844892dfe58ddd7296 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-06-14T12:45:32Z (GMT) No. of bitstreams: 1 gersondesouzaraimundojunior.pdf: 1995824 bytes, checksum: 0f180adcbdae44844892dfe58ddd7296 (MD5) / Made available in DSpace on 2018-06-14T12:45:32Z (GMT). No. of bitstreams: 1 gersondesouzaraimundojunior.pdf: 1995824 bytes, checksum: 0f180adcbdae44844892dfe58ddd7296 (MD5) Previous issue date: 2018-03-16 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Talvez nenhum outro tema tenha ocupado tanto a atenção dos pesquisadores em Corporate Finance quanto a escolha da estrutura de capitais (decisão de financiamento) pelas firmas. Considerando as diversas teorias existentes sobre o assunto desenvolvidas desde o trabalho pioneiro de Modigliani e Miller (1958), que deu origem à teoria do Trade-off estático, em que se destacam a Pecking order Theory, cuja criação é atribuída a Myers e Majluf (1984), a teria de Takeover postulada por Harris e Ravis(1988), a teoria do ciclo de vida atribuída a Berger e Udell (1998), a teoria de Market Timing atribuída a Baker e Wurgler (2002) e o Trade-off dinâmico de Flannery e Rangan (2004), este trabalho se propõe a avaliar as proposições teóricas mais relevantes para empresas de capital aberto brasileiras observadas entre 1999 e 2016, calculando a velocidade de ajuste de capital e identificando os determinantes da estrutura de capital à luz das principais teorias vigentes na literatura de estrutura de capital e dos recorrentes problemas de endogeneidade e truncagem em Finanças Corporativas. A técnica de fronteira estocástica apresentou que as empresas mais maduras são as mais eficientes em termos de obtenção de alavancagem. As teorias de Trade-off e Pecking order podem coexistir. E que a dinâmica dos fatores macroeconômicos influencia o comportamento das empresas ao escolherem sua estrutura de capital. O Tobit apresentou velocidade de 44% indicando as empresas levariam cerca de dois anos para se mover ao nível ótimo de capital. Convergindo à técnica da fronteira estocástica, o modelo de Tobit apresentou que as duas principais teorias podem coexistir. / Perhaps no other topic has occupied both the attention of researchers in Corporate Finance and the choice of capital structure (financing decision) by firms. Considering the various existing theories developed since the pioneering work of Modigliani and Miller (1958), which gave rise to the theory of static Trade-off, in which the Pecking order Theory, whose creation is attributed to Myers and Majluf (1984) the theory of the life cycle attributed to Berger and Udell (1998), the theory of Market Timing attributed to Baker and Wurgler (2002) and the dynamic Trade-off of Flannery and This paper proposes to evaluate the most relevant theoretical propositions for Brazilian public companies observed between 1999 and 2016, calculating the speed of capital adjustment and identifying the determinants of the capital structure in light of the main theories in the literature of capital structure and recurring problems of endogeneity and truncation in Corporate Finance. The stochastic frontier technique showed that the more mature companies the most efficient in terms of getting leverage. Trade-off and pecking-order theories can coexist. And that the dynamics of macroeconomic factors influence the behavior of companies when choosing their capital structure. Tobit showed a 44% speed indicating that companies would take about two years to move to the optimal level of capital. Converging to the stochastic frontier technique, Tobit's model showed that the two main theories can coexist.
320

Modelos computacionais para avalanches, fragmentação e séries temporais

Chianca, Cinthya Valeska 15 February 2017 (has links)
Submitted by Biblioteca do Instituto de Física (bif@ndc.uff.br) on 2017-02-15T18:53:58Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_Cinthya Valeska Chianca da Silva.pdf: 2780664 bytes, checksum: 6254459484571e92eca2c9372931a17e (MD5) / Made available in DSpace on 2017-02-15T18:53:58Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_Cinthya Valeska Chianca da Silva.pdf: 2780664 bytes, checksum: 6254459484571e92eca2c9372931a17e (MD5) / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Neste trabalho, estudamos sistemas com características diferentes mas que apresentam comportamento crítico. Na primeira parte, a partir de modelos que estudam avalanches usando blocos e molas e utilizando cadeias de bits simulamos estes sistemas de maneira simples e conseguimos obter resultados que são compatíveis com os já mostrados na literatura. A seguir, descrevemos um método para analisar séries temporais com tendências que serve para retirar tendências de baixas frequências da mesma. Finalmente, descrevemos a realização de uma experiência de fragmentação em gotas de mercúrio que repetimos para tentar obter melhores resultados. / In this work we study critical behaviour in systems with different characteristics. In the first part, beginning with block and spring models for avalanches, we use bit chains for simple simulations of these models and obtain results compatible with those published in the literature. Next, we describe a new method to analyse temporal series which is useful to extract the low frequency tendencies. Finally, we describe the realisation of an experiment using mercury drops, which we repeated to obtain bettes results.

Page generated in 0.4585 seconds