• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 92
  • 48
  • 22
  • 16
  • 12
  • 1
  • 1
  • Tagged with
  • 213
  • 213
  • 36
  • 36
  • 36
  • 36
  • 35
  • 32
  • 30
  • 26
  • 25
  • 23
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Modeling spatial and temporal variabilities in hyperspectral image unmixing / Modélisation de la variabilité spectrale pour le démélange d’images hyperspectral

Thouvenin, Pierre-Antoine 17 October 2017 (has links)
Acquises dans plusieurs centaines de bandes spectrales contiguës, les images hyperspectrales permettent d'analyser finement la composition d'une scène observée. En raison de la résolution spatiale limitée des capteurs utilisés, le spectre d'un pixel d'une image hyperspectrale résulte de la composition de plusieurs signatures associées à des matériaux distincts. À ce titre, le démélange d'images hyperspectrales vise à estimer les signatures des différents matériaux observés ainsi que leur proportion dans chacun des pixels de l'image. Pour cette analyse, il est d'usage de considérer qu'une signature spectrale unique permet de décrire un matériau donné, ce qui est généralement intrinsèque au modèle de mélange choisi. Toutefois, la signature d'un matériau présente en pratique une variabilité spectrale qui peut être significative d'une image à une autre, voire au sein d'une même image. De nombreux paramètres peuvent en être cause, tels que les conditions d'acquisitions (e.g., conditions d'illumination locales), la déclivité de la scène observée ou des interactions complexes entre la lumière incidente et les éléments observés. À défaut d'être prises en compte, ces sources de variabilité perturbent fortement les signatures extraites, tant en termes d'amplitude que de forme. De ce fait, des erreurs d'estimation peuvent apparaître, qui sont d'autant plus importantes dans le cas de procédures de démélange non-supervisées. Le but de cette thèse consiste ainsi à proposer de nouvelles méthodes de démélange pour prendre en compte efficacement ce phénomène. Nous introduisons dans un premier temps un modèle de démélange original visant à prendre explicitement en compte la variabilité spatiale des spectres purs. Les paramètres de ce modèle sont estimés à l'aide d'un algorithme d'optimisation sous contraintes. Toutefois, ce modèle s'avère sensible à la présence de variations spectrales abruptes, telles que causées par la présence de données aberrantes ou l'apparition d'un nouveau matériau lors de l'analyse d'images hyperspectrales multi-temporelles. Pour pallier ce problème, nous introduisons une procédure de démélange robuste adaptée à l'analyse d'images multi-temporelles de taille modérée. Compte tenu de la dimension importante des données étudiées, notamment dans le cas d'images multi-temporelles, nous avons par ailleurs étudié une stratégie d'estimation en ligne des différents paramètres du modèle de mélange proposé. Enfin, ce travail se conclut par l'étude d'une procédure d'estimation distribuée asynchrone, adaptée au démélange d'un grand nombre d'images hyperspectrales acquises sur une même scène à différents instants. / Acquired in hundreds of contiguous spectral bands, hyperspectral (HS) images have received an increasing interest due to the significant spectral information they convey about the materials present in a given scene. However, the limited spatial resolution of hyperspectral sensors implies that the observations are mixtures of multiple signatures corresponding to distinct materials. Hyperspectral unmixing is aimed at identifying the reference spectral signatures composing the data -- referred to as endmembers -- and their relative proportion in each pixel according to a predefined mixture model. In this context, a given material is commonly assumed to be represented by a single spectral signature. This assumption shows a first limitation, since endmembers may vary locally within a single image, or from an image to another due to varying acquisition conditions, such as declivity and possibly complex interactions between the incident light and the observed materials. Unless properly accounted for, spectral variability can have a significant impact on the shape and the amplitude of the acquired signatures, thus inducing possibly significant estimation errors during the unmixing process. A second limitation results from the significant size of HS data, which may preclude the use of batch estimation procedures commonly used in the literature, i.e., techniques exploiting all the available data at once. Such computational considerations notably become prominent to characterize endmember variability in multi-temporal HS (MTHS) images, i.e., sequences of HS images acquired over the same area at different time instants. The main objective of this thesis consists in introducing new models and unmixing procedures to account for spatial and temporal endmember variability. Endmember variability is addressed by considering an explicit variability model reminiscent of the total least squares problem, and later extended to account for time-varying signatures. The variability is first estimated using an unsupervised deterministic optimization procedure based on the Alternating Direction Method of Multipliers (ADMM). Given the sensitivity of this approach to abrupt spectral variations, a robust model formulated within a Bayesian framework is introduced. This formulation enables smooth spectral variations to be described in terms of spectral variability, and abrupt changes in terms of outliers. Finally, the computational restrictions induced by the size of the data is tackled by an online estimation algorithm. This work further investigates an asynchronous distributed estimation procedure to estimate the parameters of the proposed models.
182

Estimação do espectro de relaxação de polímeros através do algoritmo Simulated Annealing / Determination of polymer relaxation spectrum through Simulated Annealing algorithm

Gabriel Caetano da Silva 30 August 2006 (has links)
A determinação do espectro de relaxação de polímeros utilizando dados de tensão oscilatória de baixa amplitude pode ser calculada assumindo-se que existe uma única função contínua H(λ) capaz de descrever o comportamento viscoelástico linear. O objetivo deste trabalho é determinar esta função ou uma aproximação da mesma utilizando um algoritmo estocástico denominado Simulated Annealing. A estratégia proposta é similar a proposta por Jensen (2002), entretanto, a lista de resfriamento do algoritmo foi modificada, objetivando-se uma maior robustez do referido algoritmo. A ferramenta computacional foi calibrada de forma a estimar com acurácia o espectro de relaxação discreto de outros polímeros. Os métodos de interpolação lagrangeana e de regressão não-linear foram aplicados para obter a função contínua do espectro de relaxação, a partir de um conjunto discreto de dados. Os resultados obtidos para o polietileno linear de baixa densidade (PELBD) comprovaram a eficiência da ferramenta computacional de otimização, sendo extremamente próximos aos fornecidos pelo reômetro AR 2000 (CENPES/PETROBRAS). / The determination of the relaxation spectrum using data from small amplitude oscillatory shear rate was accomplished by assuming that exists a unique continuous function H(λ) which describes linear viscoelasticity. The aim of this work is to determine this function or a close approximation using a computer stochastic algorithm called Simulated Annealing (SA). The strategy is the same proposed by Jensen, but the cooling schedule of SA algorithm was modified, in order to enhance the robustness of the referred algorithm. Besides, a calibration procedure was conducted for estimate accurate relaxation spectrum for other polymers. Lagrangean interpolation and nonlinear regression techniques were applied in order to obtain the continuous function that represent relaxation spectrum, using discrete data. The results generated for low linear density polyethylene (LLDPE) indicate the efficiency of the optimization computational tool, being extremely close to that produced by AR 2000 rheometer (CENPES/PETROBRAS).
183

Um novo método híbrido aplicado à solução de sistemas não-lineares com raízes múltiplas / A new hybrid method applied to the solution of nonlinear systems with multiple roots

Maurício Rodrigues Silva 22 June 2009 (has links)
Este trabalho tem como objetivo apresentar soluções de sistemas não-lineares com raízes múltiplas, através de um algoritmo híbrido. Para esta finalidade foi desenvolvido e implementado um algoritmo de busca aleatória baseado no método proposto por Luus e Jaakola (1973) como etapa de busca aleatória dos pontos iniciais, que são refinados através do algoritmo de Hooke e Jeeves. O diferencial deste trabalho foi propor um algoritmo híbrido, utilizando as características dos algoritmos Luus-Jaakola e Hooke e Jeeves como etapas de busca e refinamento respectivamente. Para isso, os algoritmos acima são encapsulados em funções no algoritmo híbrido. Além destas duas etapas, o algoritmo híbrido possui duas outras características importantes, que é a execução repetida até que se alcance um número suficiente de soluções distintas, que são então submetidas a um processo de classificação de soluções por intervalo, onde cada intervalo gera um conjunto de soluções próximas, que por sua vez, são submetidas à etapa final de minimização, resultando em apenas um valor de solução por classe. Desta forma cada classe produz uma única solução, que faz parte do conjunto final de soluções do problema, pois este algoritmo é aplicado a problemas com múltiplas soluções. Então, o algoritmo híbrido desenvolvido foi testado, tendo como padrão, vários problemas clássicos de programação não-linear, em especial os problemas irrestritos com múltiplas soluções. Após os testes, os resultados foram comparados com o algoritmo Luus-Jaakola, e o Método de Newton Intervalar / Bisseção Generalizada (IN/GB - Interval Newton/Generalized Bisection), com a finalidade de se obter uma análise quantitativa e qualitativa de seu desempenho. Por fim comprovou-se que o algortimo Híbrido obteve resultados superiores quando comparados com os demais. / This paper aims to present solutions for nonlinear systems with multiple roots, using a hybrid algorithm. For this purpose was developed and implemented an algorithm based on random search method proposed by Luus and Jaakola (1973) as a step in search of random starting points, which will be refined through the algorithm of Hooke and Jeeves. The differential of this work is to propose a hybrid algorithm, using the characteristics of the Luus-Jaakola algorithm and Hooke and Jeeves as a search and refinement stages respectively. For this, the above algorithms are encapsulated in functions in the hybrid algorithm. Besides these two steps, the hybrid algorithm has two other important characteristics, which is the execution repeated until to reach a sufficient number of distinct solutions, which is then undergo a process of classification of solutions by interval, where each interval generates a set solutions to close, which in turn is subject to the final stage of minimization, resulting in only one value per class of solution. Thus each class provides a unique solution, which is part of the final set of solutions of the problem, because this algorithm is applied to problems with multiple solutions. So, the hybrid algorithm developed was tested, with the standard, several problems of classical non-linear programming, in particular the unrestricted problems with multiple solutions. After the tests, the results were compared with algorithm Luus-Jaakola, and the Interval Newton/Generalized Bisection method (IN/GB), in order to obtain a quantitative and qualitative analysis of their performance. Finally it was found that the hybrid algortimo achieved higher when compared to the others.
184

[en] EFFECTIVE RESOURCE ALLOCATION FOR PLANNING AND CONTROL PROJECT PORTFOLIOS UNDER UNCERTAINTY: A ROBUST OPTIMIZATION APPROACH / [pt] ALOCAÇÃO EFETIVA DE RECURSOS PARA PLANEJAMENTO E CONTROLE DE PORTFOLIOS DE PROJETOS SOB INCERTEZA: UMA ABORDAGEM DE OTIMIZAÇÃO ROBUSTA

CARLOS RAONI DE ALENCAR MENDES 18 January 2018 (has links)
[pt] O planejamento e controle de portfolios de projeto é uma tarefa desafiadora. Eles estão sujeitos a múltiplos riscos, restrições de recursos, relações de precedências e penalidades por atrasos de projetos. É fundamental desenvolver estratégias efetivas de alocação dos recursos disponíveis de forma a garantir que estes projetos sejam concluídos dentro dos limites de tempo e custo. Um fator crucial que deve ser levado em consideração ao tomar estas decisões é o gerenciamento das incertezas associadas a execução dos projetos. Neste contexto, este trabalho propõe uma metodologia baseada em otimização robusta para planejamento e controle de portfolios de projeto sob incerteza. Este método combina modelos e algoritmos desenvolvidos para diferentes problemas de alocação de recursos para os quais foi aplicada a mesma abordagem de otimização robusta. Nela, a incerteza é modelada como um adversário capaz de materializar a combinação de riscos de pior caso que maximiza o impacto no(s) projeto(s) para qualquer plano de alocação de recursos. Nos problemas estudados o tomador de decisão tem então que determinar a alocação ótima de recursos que minimiza um objetivo particular assumindo que a combinação de riscos de pior caso irá se materializar. A abordagem também provê um mecanismo para controle do grau de conservadorismo das soluções robustas. Para cada problema modelado, uma estratégia de solução é desenvolvida através de um esquema de reformulação que parte de uma formulação Min-Max compacta e termina em um algoritmo de geração de cortes. Diversos experimentos computacionais foram executados, provendo importantes conclusões que direcionaram o desenvolvimento da metodologia de controle e planejamento de portfolios. A importância de se desenvolver planos de alocação de recursos de forma integrada no contexto de tomada de decisão em portfolios de projetos e a falta de efetividade do método tradicional de análise de caminhos críticos no contexto de cenários de pior caso para as durações das atividades, são importantes exemplos das conclusões obtidas pelos experimentos. A aplicação da metodologia foi demonstrada em um caso de estudo que contempla um portfolio para construção de duas refinarias. O referido exemplo demonstrou o potencial do uso prático dos métodos propostos neste trabalho. / [en] Planning and controlling complex project portfolios is a challenging task. These portfolios are subject to a number of potential risk sources coupled with resource constraints, intricate precedence relationships, and penalties for project delays. For this reason, it is fundamental that optimal strategies for the allocation of the available resources are constantly adopted by the decision makers to ensure that their projects are completed within limits of time and cost. Moreover, the uncertainty that affects these projects has to be taken into account for effective resource allocation decisions. Within this context, this work proposes a robust optimization-based methodology for planning and controlling project portfolios under uncertainty. The method combines models and algorithms for multiple resource allocation problems under the same robust optimization framework. In this approach, the uncertainty environment is modeled as an adversary that selects the worst-case combination of risks for any decision maker s actions. Subsequently, the main goal of the decision maker is to determine optimal resource allocation plans for minimizing a particular objective subject to the assumption that the adversary s worst-combination of risks will materialize. The approach also provides a way to control the degree of conservatism of the solutions. For each studied problem, a solution strategy is developed through a reformulation scheme from a compact min-max formulation to a cut-generation algorithm. Several computational experiments are conducted, providing key insights that drive the design of the referred portfolio planning and control methodology. The ineffectiveness of traditional critical path analysis under worst-case realizations of uncertain activities durations and the importance of taking integrated resource allocation decisions in the context of project portfolios, are examples of the key findings of the experiments. The application of the methodology is demonstrated in a case study of a portfolio aimed at the construction of two refineries. This example presents the capabilities of the developed techniques in a practical context.
185

Abordagens de fluxos em redes utilizando otimização robusta e programação estocástica na gestão financeira do caixa de empresas de material escolar

Righetto, Giovanni Margarido 16 December 2015 (has links)
Made available in DSpace on 2016-06-02T19:50:26Z (GMT). No. of bitstreams: 1 6825.pdf: 8500191 bytes, checksum: 6105a0900d48c9c1c58657efd7bc22ac (MD5) Previous issue date: 2015-12-16 / The tactical management of cash flow is critical in financial management of a company or organization. Several mathematical models for planning cash flow have been proposed in recent decades. Most of the models are deterministic and initially treated as an extension of the economic order quantity. This thesis addresses the cash management problem from the perspective of optimization models present in the Operations Research literature. The aim is to study, develop and apply formulations based on mathematical programming and network flows, considering uncertainties in parameters, to support the decisions involved in managing the cash flow. A case study was developed in a typical company of the stationery sector to analyze the suitability and potential of the proposed approaches for companies of this sector. For that, this thesis implement robust optimization and stochastic programming to address the parameters uncertainties in the problem of maximizing the available financial resources at the end of a multi-period and finite planning horizon of the company's cash flow. The proposed approaches are based on a deterministic model which uses a network flow to maximize the cash flow return at the end of the period. For the treatment of uncertainties in the parameters that define the flow of financial resources in time are used the robust optimization approach of worst case interval and the stochastic programming approach risk neutral, minimax with regret and conditional value-at-risk. There were no other studies in the literature following this line of research. As shown in this thesis the proposed approaches can generated promising results for the management of cash flow in companies of the stationery sector and others, with significant contributions in financial decision-making department, particularly for the treatment of uncertainties in the parameters of the cash flow. / O gerenciamento do fluxo de caixa tático é fundamental na gestão financeira de uma empresa ou organização. Vários modelos matemáticos para planejar o fluxo de caixa foram propostos nas últimas décadas. Na sua maioria, os modelos são determinísticos e, inicialmente, tratados como uma extensão da fórmula do lote econômico de compra. Esta tese aborda o problema da gestão do caixa sob a ótica de modelos de otimização presentes na literatura da Pesquisa Operacional. O objetivo é estudar, desenvolver e aplicar formulações baseadas em programação matemática e fluxos em rede, considerando incertezas nos parâmetros, para apoiar as decisões envolvidas no gerenciamento do fluxo de caixa. Um estudo de caso é desenvolvido numa empresa típica do setor de material escolar, para analisar a adequação e o potencial das abordagens propostas em empresas deste setor. Para tal, são utilizados métodos de otimização robusta e programação estocástica para tratar as incertezas nos parâmetros do problema de maximização dos recursos financeiros disponíveis no final de um horizonte de planejamento multi-período e finito do caixa da empresa. As abordagens propostas são baseadas num modelo determinístico, que utiliza uma rede de fluxos para maximizar o retorno do caixa no final do período considerado. Para o tratamento das incertezas presentes nos parâmetros que definem os fluxos de recursos no tempo, são utilizadas a abordagem de otimização robusta de análise de pior caso intervalar e a abordagem de programação estocástica de dois estágios com recurso neutra ao risco e de aversão ao risco minimax com arrependimento e valor em risco condicional. Não foram encontrados outros estudos na literatura seguindo esta linha de pesquisa. Conforme mostrado nesta tese, as abordagens propostas podem gerar resultados promissores para a gestão do fluxo de caixa de empresas de material escolar e outros, com contribuições significativas nas tomadas de decisões de um gestor financeiro, principalmente quanto ao tratamento das incertezas nos parâmetros do fluxo de caixa.
186

Optimization Algorithms for Deterministic, Stochastic and Reinforcement Learning Settings

Joseph, Ajin George January 2017 (has links) (PDF)
Optimization is a very important field with diverse applications in physical, social and biological sciences and in various areas of engineering. It appears widely in ma-chine learning, information retrieval, regression, estimation, operations research and a wide variety of computing domains. The subject is being deeply studied both theoretically and experimentally and several algorithms are available in the literature. These algorithms which can be executed (sequentially or concurrently) on a computing machine explore the space of input parameters to seek high quality solutions to the optimization problem with the search mostly guided by certain structural properties of the objective function. In certain situations, the setting might additionally demand for “absolute optimum” or solutions close to it, which makes the task even more challenging. In this thesis, we propose an optimization algorithm which is “gradient-free”, i.e., does not employ any knowledge of the gradient or higher order derivatives of the objective function, rather utilizes objective function values themselves to steer the search. The proposed algorithm is particularly effective in a black-box setting, where a closed-form expression of the objective function is unavailable and gradient or higher-order derivatives are hard to compute or estimate. Our algorithm is inspired by the well known cross entropy (CE) method. The CE method is a model based search method to solve continuous/discrete multi-extremal optimization problems, where the objective function has minimal structure. The proposed method seeks, in the statistical manifold of the parameters which identify the probability distribution/model defined over the input space to find the degenerate distribution concentrated on the global optima (assumed to be finite in quantity). In the early part of the thesis, we propose a novel stochastic approximation version of the CE method to the unconstrained optimization problem, where the objective function is real-valued and deterministic. The basis of the algorithm is a stochastic process of model parameters which is probabilistically dependent on the past history, where we reuse all the previous samples obtained in the process till the current instant based on discounted averaging. This approach can save the overall computational and storage cost. Our algorithm is incremental in nature and possesses attractive features such as stability, computational and storage efficiency and better accuracy. We further investigate, both theoretically and empirically, the asymptotic behaviour of the algorithm and find that the proposed algorithm exhibits global optimum convergence for a particular class of objective functions. Further, we extend the algorithm to solve the simulation/stochastic optimization problem. In stochastic optimization, the objective function possesses a stochastic characteristic, where the underlying probability distribution in most cases is hard to comprehend and quantify. This begets a more challenging optimization problem, where the ostentatious nature is primarily due to the hardness in computing the objective function values for various input parameters with absolute certainty. In this case, one can only hope to obtain noise corrupted objective function values for various input parameters. Settings of this kind can be found in scenarios where the objective function is evaluated using a continuously evolving dynamical system or through a simulation. We propose a multi-timescale stochastic approximation algorithm, where we integrate an additional timescale to accommodate the noisy measurements and decimate the effects of the gratuitous noise asymptotically. We found that if the objective function and the noise involved in the measurements are well behaved and the timescales are compatible, then our algorithm can generate high quality solutions. In the later part of the thesis, we propose algorithms for reinforcement learning/Markov decision processes using the optimization techniques we developed in the early stage. MDP can be considered as a generalized framework for modelling planning under uncertainty. We provide a novel algorithm for the problem of prediction in reinforcement learning, i.e., estimating the value function of a given stationary policy of a model free MDP (with large state and action spaces) using the linear function approximation architecture. Here, the value function is defined as the long-run average of the discounted transition costs. The resource requirement of the proposed method in terms of computational and storage cost scales quadratically in the size of the feature set. The algorithm is an adaptation of the multi-timescale variant of the CE method proposed in the earlier part of the thesis for simulation optimization. We also provide both theoretical and empirical evidence to corroborate the credibility and effectiveness of the approach. In the final part of the thesis, we consider a modified version of the control problem in a model free MDP with large state and action spaces. The control problem most commonly addressed in the literature is to find an optimal policy which maximizes the value function, i.e., the long-run average of the discounted transition payoffs. The contemporary methods also presume access to a generative model/simulator of the MDP with the hidden premise that observations of the system behaviour in the form of sample trajectories can be obtained with ease from the model. In this thesis, we consider a modified version, where the cost function to be optimized is a real-valued performance function (possibly non-convex) of the value function. Additionally, one has to seek the optimal policy without presuming access to the generative model. In this thesis, we propose a stochastic approximation algorithm for this peculiar control problem. The only information, we presuppose, available to the algorithm is the sample trajectory generated using a priori chosen behaviour policy. The algorithm is data (sample trajectory) efficient, stable, robust as well as computationally and storage efficient. We provide a proof of convergence of our algorithm to a high performing policy relative to the behaviour policy.
187

Estimação do espectro de relaxação de polímeros através do algoritmo Simulated Annealing / Determination of polymer relaxation spectrum through Simulated Annealing algorithm

Gabriel Caetano da Silva 30 August 2006 (has links)
A determinação do espectro de relaxação de polímeros utilizando dados de tensão oscilatória de baixa amplitude pode ser calculada assumindo-se que existe uma única função contínua H(λ) capaz de descrever o comportamento viscoelástico linear. O objetivo deste trabalho é determinar esta função ou uma aproximação da mesma utilizando um algoritmo estocástico denominado Simulated Annealing. A estratégia proposta é similar a proposta por Jensen (2002), entretanto, a lista de resfriamento do algoritmo foi modificada, objetivando-se uma maior robustez do referido algoritmo. A ferramenta computacional foi calibrada de forma a estimar com acurácia o espectro de relaxação discreto de outros polímeros. Os métodos de interpolação lagrangeana e de regressão não-linear foram aplicados para obter a função contínua do espectro de relaxação, a partir de um conjunto discreto de dados. Os resultados obtidos para o polietileno linear de baixa densidade (PELBD) comprovaram a eficiência da ferramenta computacional de otimização, sendo extremamente próximos aos fornecidos pelo reômetro AR 2000 (CENPES/PETROBRAS). / The determination of the relaxation spectrum using data from small amplitude oscillatory shear rate was accomplished by assuming that exists a unique continuous function H(λ) which describes linear viscoelasticity. The aim of this work is to determine this function or a close approximation using a computer stochastic algorithm called Simulated Annealing (SA). The strategy is the same proposed by Jensen, but the cooling schedule of SA algorithm was modified, in order to enhance the robustness of the referred algorithm. Besides, a calibration procedure was conducted for estimate accurate relaxation spectrum for other polymers. Lagrangean interpolation and nonlinear regression techniques were applied in order to obtain the continuous function that represent relaxation spectrum, using discrete data. The results generated for low linear density polyethylene (LLDPE) indicate the efficiency of the optimization computational tool, being extremely close to that produced by AR 2000 rheometer (CENPES/PETROBRAS).
188

Um novo método híbrido aplicado à solução de sistemas não-lineares com raízes múltiplas / A new hybrid method applied to the solution of nonlinear systems with multiple roots

Maurício Rodrigues Silva 22 June 2009 (has links)
Este trabalho tem como objetivo apresentar soluções de sistemas não-lineares com raízes múltiplas, através de um algoritmo híbrido. Para esta finalidade foi desenvolvido e implementado um algoritmo de busca aleatória baseado no método proposto por Luus e Jaakola (1973) como etapa de busca aleatória dos pontos iniciais, que são refinados através do algoritmo de Hooke e Jeeves. O diferencial deste trabalho foi propor um algoritmo híbrido, utilizando as características dos algoritmos Luus-Jaakola e Hooke e Jeeves como etapas de busca e refinamento respectivamente. Para isso, os algoritmos acima são encapsulados em funções no algoritmo híbrido. Além destas duas etapas, o algoritmo híbrido possui duas outras características importantes, que é a execução repetida até que se alcance um número suficiente de soluções distintas, que são então submetidas a um processo de classificação de soluções por intervalo, onde cada intervalo gera um conjunto de soluções próximas, que por sua vez, são submetidas à etapa final de minimização, resultando em apenas um valor de solução por classe. Desta forma cada classe produz uma única solução, que faz parte do conjunto final de soluções do problema, pois este algoritmo é aplicado a problemas com múltiplas soluções. Então, o algoritmo híbrido desenvolvido foi testado, tendo como padrão, vários problemas clássicos de programação não-linear, em especial os problemas irrestritos com múltiplas soluções. Após os testes, os resultados foram comparados com o algoritmo Luus-Jaakola, e o Método de Newton Intervalar / Bisseção Generalizada (IN/GB - Interval Newton/Generalized Bisection), com a finalidade de se obter uma análise quantitativa e qualitativa de seu desempenho. Por fim comprovou-se que o algortimo Híbrido obteve resultados superiores quando comparados com os demais. / This paper aims to present solutions for nonlinear systems with multiple roots, using a hybrid algorithm. For this purpose was developed and implemented an algorithm based on random search method proposed by Luus and Jaakola (1973) as a step in search of random starting points, which will be refined through the algorithm of Hooke and Jeeves. The differential of this work is to propose a hybrid algorithm, using the characteristics of the Luus-Jaakola algorithm and Hooke and Jeeves as a search and refinement stages respectively. For this, the above algorithms are encapsulated in functions in the hybrid algorithm. Besides these two steps, the hybrid algorithm has two other important characteristics, which is the execution repeated until to reach a sufficient number of distinct solutions, which is then undergo a process of classification of solutions by interval, where each interval generates a set solutions to close, which in turn is subject to the final stage of minimization, resulting in only one value per class of solution. Thus each class provides a unique solution, which is part of the final set of solutions of the problem, because this algorithm is applied to problems with multiple solutions. So, the hybrid algorithm developed was tested, with the standard, several problems of classical non-linear programming, in particular the unrestricted problems with multiple solutions. After the tests, the results were compared with algorithm Luus-Jaakola, and the Interval Newton/Generalized Bisection method (IN/GB), in order to obtain a quantitative and qualitative analysis of their performance. Finally it was found that the hybrid algortimo achieved higher when compared to the others.
189

[en] METHODOLOGY FOR INCORPORATING THE DEFAULT RISK ON THE RENEWABLE GENERATOR CONTRACTING MODEL IN THE BRAZILIAN ENERGY MARKET / [pt] METODOLOGIA PARA A INCORPORAÇÃO DO RISCO DE INADIMPLÊNCIA NO MODELO DE CONTRATAÇÃO DE GERADORES RENOVÁVEIS NO MERCADO BRASILEIRO DE ENERGIA

ANDREA MICHELI ALZUGUIR 29 June 2015 (has links)
[pt] Nesta dissertação será proposta uma metodologia que contabiliza o risco de inadimplência no mercado, decorrentes de débitos não pagos à câmara de comercialização de energia elétrica (CCEE) nas estratégias de contratação de geradores renováveis. As incertezas relacionadas à geração e ao preço de curto prazo são consideradas através da simulação de cenários exógenos ao modelo como habitual em otimização estocástica. A otimização robusta é empregada através de conjuntos de incerteza poliédricos a fim de modelar a inadimplência do mercado. Dessa maneira, a metodologia proposta se baseia em um modelo matemático híbrido, robusto e estocástico. De forma mais objetiva, um modelo de dois níveis é proposto com tantos problemas de segundo nível quanto o número de cenários considerados para a produção renovável. No primeiro nível, as decisões de contratação são feitas. Em seguida, para cada cenário de geração, o problema de segundo nível encontra a pior inadimplência com base na carteira de contratos encontrados pelo primeiro nível. Para resolver o problema, o modelo de dois níveis é reescrito como um problema linear equivalente de um único nível. O perfil de risco do agente é definido por meio do conhecido valor condicional em risco (conditional value-a-risk), uma medida coerente de risco. Para ilustrar a eficácia do modelo de contratação, são realizados estudos de casos com dados realistas do sistema de energia brasileiro. / [en] In this dissertation we propose a new methodology to account for the market default risk, arising from debts not paid to the market clearing house, in the renewable generators contracting strategy. Renewable generation and spot price uncertainties are considered through exogenous simulated scenarios as customary in stochastic optimization. Robust optimization with polyhedral uncertainty sets is employed to account for the market default. Thus, the proposed methodology is based on a hybrid robust and stochastic mathematical program. More objectively, a bi-level model is proposed with as many second-level problems as the number of scenarios considered for the renewable production. In the first level, contracting decisions are made. Then, for each generation scenario, a second-level problem finds the worst-case default based on the portfolio of contracts found by the first level. To solve the problem, the bi-level model is rewritten as a single-level equivalent linear problem. The agent s risk profile is defined by means of the well-known conditional value-at-risk coherent risk measure. To illustrate the effectiveness of the contracting model, case studies are performed with realistic data from the Brazilian power system.
190

Alocação de potencia em sistemas de comunicações sem fio : abordagens estocastica via o CVaR e robusta / Power allocation in wireless communication systems : stochastic via CVaR and robust approaches

Caceres Zuniga, Yusef Rafael 28 November 2007 (has links)
Orientador: Michel Daoud Yacoub / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-10T01:21:53Z (GMT). No. of bitstreams: 1 CaceresZuniga_YusefRafael_D.pdf: 1196886 bytes, checksum: b589961266e398a3fd22bfd7b30719e4 (MD5) Previous issue date: 2007 / Resumo: Nesta tese, estuda-se o problema da alocação de potência através de duas abordagens: estocástica e robusta, sendo os ganhos do canal, que descrevem o estado do sistema de comunicações sem fio, parcialmente observados pelo decisor. Na abordagem estocástica, considera-se que os ganhos do canal são variáveis aleatórias, que representam a variação rápida do sinal de rádio. Nesse contexto, reformula-se o índice de desempenho do sistema através do CVaR (Conditional. Value-at-Risk). Na abordagem robusta, considera-se que os ganhos do canal e o ruído pertencem a um determinado conjunto convexo. Em ambas as abordagens, a solução ótima é obtida em termos de um problema de otimização convexa. Adicionalmente, na abordagem estocástica, apresenta-se um algoritmo recursivo e distribuído, que converge para uma solução subótima, quando o ruído é nulo e a potência transmitida é limitada tanto superior como inferiormente. Também mostra-se que, em um sistema onde os ganhos do canal coincidem com o seu valor esperado, esse algoritmo converge para a soluçãã ótima quando a qualidade do enlace é muito maior que a mínima requerida / Abstract: This thesis deals with the power allocation problem under the stochastic and robust approaches, where the channel gains describe the wireless communication system state and are partially known by the controller. The stochastic approach considers the channel gains as random variables which represent the fast fading of the radio signal. Under these settings, the system performance index is reformulated using CVaR (Conditional Value-at-Risk). The robust approach considers that the channels gains and noise belong to a determined convex set. ln both approaches, the optimal solution is determined in terms of a convex optimization problem. Additionally, under the stochastic approach, a recursive and distributed algorithm is presented which converges to its suboptimal solution when noise is null and the transmitted power is upper and lower bounded. It is also show that this algorithm converges to its optimal solution when the link quality is much greater than the minimum required quality in a system where the channels gains match its expected value / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica

Page generated in 0.107 seconds