• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 826
  • 72
  • 33
  • 30
  • 30
  • 30
  • 28
  • 19
  • 18
  • 18
  • 18
  • 11
  • 5
  • 1
  • 1
  • Tagged with
  • 942
  • 942
  • 454
  • 347
  • 226
  • 215
  • 198
  • 159
  • 129
  • 117
  • 110
  • 103
  • 100
  • 96
  • 95
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Determinação do parâmetro de suavização ótimo na regressão geograficamente ponderada

Mendes, Felipe Franco 12 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-03-03T18:16:43Z No. of bitstreams: 1 2016_FelipeFrancoMendes.pdf: 3885571 bytes, checksum: 7fc776589a1c64d9a64ac4e0808e8863 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-03-27T14:26:38Z (GMT) No. of bitstreams: 1 2016_FelipeFrancoMendes.pdf: 3885571 bytes, checksum: 7fc776589a1c64d9a64ac4e0808e8863 (MD5) / Made available in DSpace on 2017-03-27T14:26:38Z (GMT). No. of bitstreams: 1 2016_FelipeFrancoMendes.pdf: 3885571 bytes, checksum: 7fc776589a1c64d9a64ac4e0808e8863 (MD5) / Os modelos da Regressão Geograficamente Ponderada são muito sensíveis à escolha do parâmetro de suavização. E essa escolha é tradicionalmente feita através do algoritmo Otimização por Seção Áurea, ou do inglês Golden Section Search. Esse algoritmo é aplicado com uma função que quantifica a eficiência do modelo, procurando, portanto, o parâmetro ótimo que resulta no melhor modelo. Neste trabalho, estudou-se o comportamento da função de validação cruzada e verificou-se que ela não é estritamente convexa, o que faz com que o algoritmo Otimização por Seção Áurea possa convergir para mínimos locais. Três algoritmos foram propostos para encontrar o parâmetro de suavização ótimo, sendo eles o algoritmo Relâmpago, o algoritmo Harmônico e uma adaptação do algoritmo Otimização por Seção Áurea. Além disso, foram feitas comparações entre os algoritmos, e fora apresentado a influência da escolha do parâmetro de suavização nos modelos da Regressão Geograficamente Ponderada. Constatou-se que o algoritmo Otimização por Seção Áurea não é o mais adequado nesta situação, pois em mais de um exemplo ele resultou em um parâmetro muito distante do parâmetro de suavização ótimo. Também verificou-se que os modelos com o parâmetro de suavização encontrado incorretamente possuem estimadores com significância muito diferente em relação aos modelos com o parâmetro ótimo. Outro ponto observado foi o tempo demasiado grande que os algoritmos Relâmpago e Harmônico gastam no processamento para encontrar o parâmetro ótimo. / The GeographicallyWeighted Regression models are very sensitive to the choice of the bandwidh. And this choice is traditionally made through the Golden Section Search algorithm. This algorithm is applied with a function that quantifies the efficiency of the model, therefore, looking for the optimal parameter that results in the best model. In this work, the behavior of the Cross-Validation function was studied and it was verified that it is not strictly convex, which makes the Golden Section Search algorithm converges to local minimums. Three algorithms were proposed to find the optimal bandwidth: the Lightning algorithm, the Harmonic algorithm and an adaptation of the Golden Section Search algorithm. In addition, comparisons were made between the algorithms, and a set of influence of the choice of the bandwidth in the Geographically Weighted Regression models. It was found that the Golden Section Search algorithm is not the most adequate in this situation, because in more than one example it resulted in a value too far from the optimal bandwidth. It was also verified that the models with the bandwidth found incorrectly have estimators with very different significance in relation to the models with the optimal parameter. Another point observed was the large processing time that the Lightning and Harmonic algorithms spend to find the optimal bandwidth.
182

Desenvolvimento de programa de ajuste multiparamétrico de curvas de titulação potenciométrica de coloides magnéticos aquosos

Silva, Cristiano Pereira da 27 July 2015 (has links)
Dissertação (mestrado)–Universidade de Brasília, Universidade UnB de Planaltina, Programa de Pós-Graduação em Ciência de Materiais, 2015. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2015-12-03T17:15:01Z No. of bitstreams: 1 2015_CristianoPereiradaSilva.pdf: 2625367 bytes, checksum: d9eeaa5701dae9563d02a2ceba1c5402 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-05-19T17:38:23Z (GMT) No. of bitstreams: 1 2015_CristianoPereiradaSilva.pdf: 2625367 bytes, checksum: d9eeaa5701dae9563d02a2ceba1c5402 (MD5) / Made available in DSpace on 2016-05-19T17:38:23Z (GMT). No. of bitstreams: 1 2015_CristianoPereiradaSilva.pdf: 2625367 bytes, checksum: d9eeaa5701dae9563d02a2ceba1c5402 (MD5) / Analisando-se os dois principais métodos para determinação da densidade superficial de carga, o Método Potenciométrico Indireto (MPI) e o Método Potenciométrico-Condutimétrico (MPC), observa-se que a curva potenciométrica é um fator comum entre ambos e de fundamental importância. Infelizmente, a incerteza associada à determinação dos pontos de inflexão desta curva não permite localizar os volumes e correspondentes pH’s de forma direta, tornando obrigatória a utilização da curva condutimétrica, no caso do MPC, e de uma análise muito apurada de pontos de carga nula para nanopartículas de ferrofluido, no caso do MPI. Frente às dificuldades e inoperâncias da aplicação dos métodos indiretos e do fato de que distintos analistas podem tirar diferentes conclusões ao utilizar o modelo Two-pK (MPC), traçando retas com diferentes angulações e obtendo valores díspares de volumes e pH’s, propôs-se, no presente trabalho, o desenvolvimento de um programa de computador que utilizando-se de diversos métodos e rotinas numéricas realizasse um ajuste multiparamétrico de curvas de titulação potenciométrica. Com o intuito de verificar toda a metodologia envolvida na determinação da densidade de carga desde o preparo da amostra até a titulação e análise dos dados realizou-se a caracterização química e estrutural de uma amostra de ferrita de cobalto. Para efeito de cálculos e comparações foram utilizados outros dados extraídos da literatura de diferentes amostras de ferrofluidos. Ao final foram propostas e avaliadas três possibilidades de processos para análise dos dados extraídos da titulação potenciométrica. Primeiramente, estudou-se uma possível “automação” do processo correspondente ao modelo Two-pK, trabalhando-se as curvas condutimétricas e potenciométricas como indicado no modelo, mas sem a interferência do pesquisador no momento dos cálculos. As outras duas possibilidades visaram eliminar a necessidade do uso da curva condutimétrica. O primeiro método utilizou-se do maior número de curvas/polinômios com coeficientes de correlação mais altos para gerar uma população de pontos, que dentro de cada faixa, observando-se as médias e a variância dos dados inclusos, foi capaz de retornar valores para os volumes e, consequentemente, pH’s mais próximos dos valores descritos na literatura. No segundo método foram utilizados os Algoritmos Genéticos (GA) para otimizar a busca pelos pontos de equivalência sobre um modelo baseado no princípio da eletroneutralidade de misturas de ácido forte monoprótico, ácido fraco diprótico e hidróxido de sódio. Verificou-se ainda, o uso da aproximação polinomial em conjunto com os Algoritmos Genéticos, obtendo-se resultados animadores. Por fim, os três métodos apresentaram bons resultados e comparando-os pôde-se verificar a possibilidade de uso apenas da curva potenciométrica na maioria dos casos analisados. _______________________________________________________________________________________________ ABSTRACT / Analyzing the two main methods for determination of surface charge density, the Indirect Potentiometric Method (IPM) and the Potentio-conductimetric method (PCM), it is observed that the potentiometric curve is a common factor between them and of fundamental importance. Unfortunately, the uncertainty associated with the determination of the points of inflection of this curve does not allow us to locate the volumes and corresponding pH's directly, making mandatory the mounting of the conductometric curve in the case of the PCM, and a very detailed analysis of isoelectric points for ferrite nanoparticle fluids, in the case of the IPM. In the face of difficulties and ineffectiveness of the application of indirect methods and the fact that different analysts can draw different conclusions when using the Two-pK model, tracing straight lines with different angles and getting disparate values of volumes and pH's, it was proposed, in this study, the development of a computer program that uses a variety of methods and numerical routines to conduct a multi-parameter adjustment of potentiometric titration curves. In order to verify all the methodology involved in determining the charge density from sample preparation to titration and data analysis, a chemical and structural characterization of a sample of cobalt ferrite was carried out. For the purpose of calculations and comparisons other data obtained from the literature of different samples of ferrite nanoparticle fluids were used. At the end it has been proposed and evaluated three possible processes to analyze the data extracted from the potentiometric titration. First, we have studied a possible "automation" of the process corresponding to the Two-pK model, working up the conductimetric and potentiometric titration curves as indicated in the model, but without the interference of the researcher at the time of the calculations. The other two possibilities aimed at eliminating the need for using the conductimetric titration curve. The first method used a greater number of curves/polynomials with the highest correlation coefficients to generate a population of points, that within each track, observing the averages and the variance of the data included was able to return values for the volumes and consequently pH's closer to the values described in the literature. In the second method, Genetic Algorithms (GA) have been used to optimize the search for points of equivalence on a model based on the principle of the electro neutrality of strong monoprotic acid mixtures, diprotic weak acid and sodium hydroxide. We have also verified the use of the polynomial approximation along with Genetic Algorithms, obtaining encouraging results. Finally, the three methods presented good results and by comparing them it could be verified the possibility of using only the potentiometric titration curve in most of the analyzed cases.
183

Ordenação por translocação de genomas sem sinal utilizando algoritmos genéticos

Silveira, Lucas Ângelo da 29 February 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graducação em Informática, 2016. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-04-20T13:39:42Z No. of bitstreams: 1 2016_LucasAngeloSilveira.pdf: 3262689 bytes, checksum: 37ca4daf6eff5634ec889a6a015bbd81 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-05-30T17:25:56Z (GMT) No. of bitstreams: 1 2016_LucasAngeloSilveira.pdf: 3262689 bytes, checksum: 37ca4daf6eff5634ec889a6a015bbd81 (MD5) / Made available in DSpace on 2016-05-30T17:25:56Z (GMT). No. of bitstreams: 1 2016_LucasAngeloSilveira.pdf: 3262689 bytes, checksum: 37ca4daf6eff5634ec889a6a015bbd81 (MD5) / Translocações são usadas para mensurar a distância evolutiva entre espécies. Do ponto de vista biológico dois tipos de genomas tem recebido atenção: genomas com e sem sinal. Ao considerar genomas com sinal, computar a distância mínima de translocações é linear enquanto que o caso sem sinal é NP-difícil. Propõem-se algoritmos genéticos (AGs) para resolver o problema de distância de translocação entre genomas sem sinal. A abordagem, consiste em utilizar uma população composta por indivíduos representando genomas com sinal obtidos de um genoma sem sinal provido como entrada. A solução de cada indivíduo é também uma solução admissível para o genoma dado. A função de aptidão utilizada, que é a distância para genomas com sinal, é computada linearmente com um algoritmo proposto por Bergeron et al. O AG baseado nessa abordagem foi aprimorado com duas técnicas de otimização: memética e aprendizagem baseada em oposição. Além disso, foram propostas paralelizações do AG memético buscando diminuir o tempo de processamento assim como melhorar a precisão. A qualidade dos resultados foi validada utilizando uma implementação de um algoritmo de raio de aproximação 1.5+" recentemente proposto por Cui et al. Experimentos foram realizados tomando como entrada genomas sintéticos e gerados a partir de dados biológicos. Os AGs forneceram melhores resultados que o algoritmo de controle de qualidade. As paralelizações apresentaram melhoras tanto no tempo de execução quanto na precisão dos resultados. Utilizou-se o teste de hipóteses de Wilcoxon a fim de verificar a significância estatística das melhorias fornecidas pelos AGs aprimorados em relação àquelas fornecidas pelo AG básico. Desta análise foi possível identificar que o AG memético provê resultados diferentes (melhores) que o AG básico, e que este último e o AG com aprendizagem baseada em oposição não apresentam nenhuma diferença significativa. O teste foi também aplicado para comparar as soluções das paralelizações confirmando que existem aprimoramentos dos resultados comparados com o AG memético. _______________________________________________________________________________________________ ABSTRACT / Translocations are used to measure the evolutionary distance between species. From a biological point of view two types of genomes have received attention: signed and unsigned genomes. When considering signed genomes, the problem can be solved in linear time, while, in the case of unsigned genomes the problem was shown to be NP-hard. Genetic algorithms (GAs) are proposed to solve the translocation distance problem between unsigned genomes. The approach consists in using a population composed of individuals representing signed genomes obtained from a given unsigned genome provided as input. The solution of each individual is also an admissible solution to the given genome. The fitness function used, which is the distance for signed genome, is computed linearly with an algorithm proposed by Bergeron et al. The GA based on this approach has been enhanced with two optimization techniques: memetic and opposition based learning. Also, parallelizations of the GA embedded with memetic were proposed seeking to improve both running time as the accuracy of results. The quality of the results was verified using an implementation of a 1.5+"-approximation algorithm recently proposed by Cui et al. Experiments were performed taking as input synthetic genomes and genomes generated from biological data. The GAs provided better results than the quality control algorithm. The parallelizations showed improvements both regarding runtime as well as accuracy. A statistical analysis based on the Wilcoxon test was performed to check if the improvements in the solutions provided by enhanced GAs compared to those provided by the basic GA have some significance. This analysis can identify that the GA embedded with the technical memetic provides different (better) results than GA and that the results provided by the GA embedded with opposition based learning presents no significant difference. The test was also performed to compare the solutions of the parallelizations confirming that there are improvements of the results regarding the GA embedded memetic.
184

Planejamento de redes de distribuição de energia elétrica de média e baixa tensão /

Cossi, Antonio Marcos. January 2008 (has links)
Orientador: José Roberto Sanches Mantovani / Banca: Rubén Augusto Romero Lázaro / Banca: Antonio Padilha Feltrin / Banca: Paulo Morelato França / Banca: Ariovaldo Verandio Garcia / Resumo: Neste trabalho apresentam-se os conceitos teóricos, modelos matemáticos, técnicas de solução e resultados de pesquisas desenvolvidas envolvendo o planejamento de redes de distribuição de energia elétrica de MT e planejamento e projeto de circuitos secundários de BT. O problema de planejamento de redes de MT e planejamento e projetos de circuitos de BT, é abordado através de uma modelagem completa e as propostas de solução são através de "meta heurísticas" mono e multi-objetivos. As restrições consideradas nestes modelos referem-se à radialidade dos sistemas planejados, suprimento da demanda nas barras de consumo em cada estágio do programa de planejamento, limites máximos de queda de tensão permitidos nos alimentadores restrições físicas de operação de equipamentos, condutores e restrições de natureza financeira. O modelo de planejamento de redes de MT é abordado como um problema de programação não linear inteiro misto (PNLIM) multi-objetivo. Os objetivos referem-se aos custos de investimentos e de confiabilidade da rede. Para solução do problema utiliza-se um algoritmo Tabu Search (TS) reativo em que os múltiplos objetivos são considerados através dos conceitos de fronteira ótima de Pareto. Para avaliar as propostas de soluções é utilizado como ferramenta auxiliar um algoritmo de fluxo de potência monofásico. No modelo que trata do problema de planejamento e projetos de circuitos secundários, são considerados tanto ações de planejamentos como de projetos. Para tal é proposta uma metodologia em três etapas seqüenciais: a primeira refere-se ao balanceamento de cargas nas fases abc do circuito, a segunda à localização (Geralmente no centro de cargas), capacidade e quantidade de transformadores abaixadores na rede e a terceira define as rotas e o tipo de cabo dos alimentadores secundários. O modelo é formulado como um problema... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: This work presents the theory, the mathematical model, the solution techniques and the results of the developed research dealing with MV (medium voltage) electrical energy distribution network planning and the secondary circuit project of LV (low voltage). The problem of planning MV networks and planning and project LV circuits is approached by a complete modeling and the solution proposals are effectuated by mono and multi objective meta heuristics. The restrictions considered in these models are referred to the radial form of the planned systems, demand supplying on the busses in each stage of the planning program, maximum limits of voltage drops allowed on the feeders, physical restrictions of operation on the equipments and financial restrictions. The planning model of MV network is approached as a multi objective nonlinear integer mist programming problem (NLIMPP). The objectives are referred to the investment costs, and reliability costs. To solve the problem a reactive Tabu Search (TS) algorithm is used where the multiple objectives are considered by the optimal frontier Pareto concept. To evaluate the solution proposals a monophasic power flow algorithm is used as an auxiliary tool. The secondary circuit planning and project models consider as much as planning and project actions. For this a three stage methodology is proposed: the first is referred to load balancing on abc phases of the circuit; the second to the location (generally on the load center) capacity and quantity of lower transformers on the network, and the third defines the directions and the type of the secondary feeders. The model is formulated as a nonlinear integer mist programming problem (NLIMPP), and for the solution is proposed a TS algorithm. To evaluate the solution proposals a three phase power flow with four conductors (three phases and one neutral) is used as an auxiliary algorithm. The integrated... (Complete abstract click electronic access below) / Doutor
185

Metaheurística particle swarm utilizada para alocação ótima de bancos de capacitores em sistemas de distribuição radial /

Brandini, Pedro Aleixo Ferreira. January 2007 (has links)
Orientador: Rubén Augusto Romero Lázaro / Banca: Antonio Padilha Feltrin / Banca: Eduardo Nobuhiro Asada / Resumo: O Problema de Alocação Ótima de Bancos de Capacitores em sistema de distribuição radial consiste em determinar os tipos, tamanhos, localizações e esquema de controle dos bancos alocados nos alimentadores primários dos sistemas de distribuição. Para a solução deste problema são consideradas restrições de tensão e tamanho de bancos de capacitores alocados nas barras do sistema de modo a se minimizar as perdas de potência e energia, ao longo de um período de planejamento considerado, e manter o perfil de tensão das barras do sistema dentro da faixa adequada, exigida pela legislação do setor elétrico nacional. Por se tratar de um problema de difícil solução, uma vez que ele é tratado como sendo um problema de programação não-linear inteiro misto, e por apresentar explosão combinatorial à medida que a dimensão do problema cresce, propõe-se, neste trabalho, a utilização da metaheurística Particle Swarm como método de solução para o problema analisado. Além disso, é realizada uma análise da influência dos parâmetros e da topologia de vizinhança do algoritmo Particle Swarm sobre o processo de convergência do problema estudado para soluções de boa qualidade. Um algoritmo híbrido, composto pelo algoritmo Particle Swarm e pelo operador de mutação, que é freqüentemente usado em algoritmos genéticos... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The Optimal Capacitor Placement Problem for radial distribution networks aims to determine capacitor types, locations and control scheme on primary distribution feeders. To the solution of this problem are considered voltage constraint and size constraint of placement capacitor on primary distribution network in a manner to minimize the power and energy losses along of period of planning considered and maintain the voltage profile of distribution network is inside of adequate range of according to the requirement of the national electrical sector legislation. The problem is of difficult solution, because the problem is formulated as a mixed integer nonlinear program, and presents combinatorial explosion when the dimension of the problem grow up. It proposes in this work to use the Particle Swarm meta-heuristic to solve the problem. Moreover, it is done an analysis of influence of the parameters and of the neighborhood topology of Particle Swarm algorithm over the convergence process to good solutions. A hybrid algorithm, composed for Particle Swarm algorithm and mutation process often used in genetic algorithm, is used to solve the problem above. Another important thing relative to this work is about the maintenance of profile voltage inside adequate range voltage although it is considered a high peak load level, being... (Complete abstract click electronic access below) / Mestre
186

Controle semi-ativo de vibrações com fluido magnetoreológico utilizando LMis e lógica nebulosa otimizada por algoritmo genético

Gagg Filho, Luiz Arthur [UNESP] 25 April 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:27:14Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-04-25Bitstream added on 2014-06-13T19:55:33Z : No. of bitstreams: 1 gaggfilho_la_me_ilha.pdf: 3131916 bytes, checksum: 6bc40667bc0804d4b0e78df38c549d5b (MD5) / Este trabalho estuda diversas estratégias de controle semi-ativo para a redução de vibração em suspensões veiculares empregando amortecedores magnetoreológicos (MR). A modelagem do amortecedor MR é feita utilizando o modelo de Bouc-Wen modificado. A fim de entender o princípio de funcionamento de um amortecedor MR, uma análise dinâmica é conduzida. Nesta análise o comportamento não linear do amortecedor MR é caracterizado através de laços histeréticos. Quando incorporado ao modelo da suspensão de ¼ de carro, outros efeitos não lineares são evidenciados. Compreendido o comportamento de todo o modelo da suspensão semi-ativa, diversos controladores são estudados e projetados. Este trabalho pode ser dividido em duas frentes. A primeira é o projeto de controladores via LMIs, que possuem uma formulação sólida e permitem o projeto de controladores com altos índices de desempenho. A segunda é o projeto de controladores nebulosos, cuja formulação teórica sobre estabilidade ainda encontra dificuldades, entretanto, é muito utilizada e tem experimentado grandes avanços devido a sua fácil implementação. O controlador nebuloso utilizado neste trabalho foi projetado por um processo automático através da otimização por algoritmo genético. Todos os controladores projetados neste trabalho são comparados com as estratégias de controle passivo. Outras comparações também foram realizadas com o controle semi-ativo utilizando um controlador LQR e um controlador nebuloso do tipo Mamdani sem otimização. Simulações numéricas com diversas excitações de entrada foram conduzidas. O trabalho termina demonstrando a superioridade do controle nebuloso via algoritmo genético e sua potencialidade para o futuro. Houve destaque também para o controlador que reduz a norma H2 via LMI. / This work studies several semi-active control strategies for vibration attenuation in vehicle suspensions employing magnetorheological dampers (MR). The modeling of MR damper is made using the Bouc-Wen modified model. In order to understand the principle of operation of an MR damper, a dynamic analysis is conducted. In this analysis the nonlinear behavior of the MR damper is characterized by hysteretic loops. When it is incorporated into the ¼ car suspension model, other nonlinear effects are evident. After this study, different controllers are designed. This work can be divided into two phases. The first one applies controllers projected via by LMIs, which has a solid formulation and allows high performances to the controllers. The second one uses a fuzzy controller, whose theoretical formulation on stability still faces difficulties. However, it is widely used and has been demonstrating great advances due to its easy implementation. The fuzzy controller used in this work was designed by an automatic process through optimization by genetic algorithm. All controllers projected are compared with passive control strategies. Other comparisons were also performed with semi-active control using a LQR controller and a Mamdani fuzzy controller without optimization. Numerical simulations with different input excitations were conducted. The work ends up demonstrating the superiority of the fuzzy controller with genetic algorithm and its potential for the future. There was also a highlight for the controller that reduces the H2 norm by LMIs.
187

Um modelo de unit commitment hidrotérmico para o ambiente de mercados de energia

Luciano, Edson José Rezende [UNESP] 27 August 2010 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:34Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-08-27Bitstream added on 2014-06-13T19:26:23Z : No. of bitstreams: 1 luciano_ejr_me_bauru.pdf: 912610 bytes, checksum: 8374c6e06cc40c16b0d99dbb004d73c7 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Este projeto tem como objetivo descrever, implementar e avaliar um modelo de Unit Commitment (UC) hidrotérmico para o ambiente de mercados de energia. O modelo deve considerar aspectos que têm sido negligenciados na abordagem atualmente vigente no Brasil, ou seja, o modelo deve apresentar as seguintes contribuições: i) a discretização do problema deve ser feita em base horária e não semanal, de modo a permitir o estabelecimento de um mercado de curtíssimo prazo efetivo; ii) o modelo deve levar em conta os custos de partida/parada de máquinas, comparando a solução do modelo proposta com o modelo em que essses custos não são considerados; iii) as inter-relações entre os mercados pool e bilateral são descritas de forma explícita em um único problema de otimização de UC; iv) a inserção dos custos de oportunidade hidráulica propostos no âmbito desse trabalho na função de custos / This project aims to describe, implement and evaluate a model of Unit Commitment (UC) for the hydrothermal environment of energy markets. The model takes into account aspects that have been neglected in the approach currently used in Brazil, and present the following contributions: i) discretization of the problem is performed in an hourly basis, instead of the weekly-based approach currently used, to allow the establishment of an effective market for short term generation planning; ii) the model takes into account unit start-up and shut down costs; the outcomes of the proposed model are compared with those of a model in which these costs are not considered; iii) the interrelationships between pool and bilateral markets are described explicity within a single optimization problem in the proposed UC model; iv) the inclusion of opportunity costs associated with hydraulic utility, proposed in the context of this research
188

Planejamento da expansão de sistemas de transmissão considerando a retirada de linhas de transmissão

Santos, Hélio Clementino dos [UNESP] January 2007 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:35Z (GMT). No. of bitstreams: 0 Previous issue date: 2007Bitstream added on 2014-06-13T18:08:34Z : No. of bitstreams: 1 santos_hc_me_ilha.pdf: 781493 bytes, checksum: ca344bf56e7a08c02a7ee4bdc3e13a6a (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Neste trabalho é apresentada uma nova maneira de formular e resolver o problema de planejamento da expansão a longo prazo de sistemas de transmissão de energia elétrica. Tradicionalmente, o problema de planejamento da expansão de sistemas de transmissão consiste em encontrar o plano ótimo de expansão que permite que o sistema opere de forma adequada para a demanda futura de um horizonte especificado. Assim, deve-se indicar o número de linhas de transmissão que deve ser construída em cada caminho de expansão. Entretanto, existem linhas na topologia base que não ajudam no adequado funcionamento do sistema e que podem exigir a adição de novas linhas de transmissão produzindo investimentos inadequados. Esse comportamento atípico de um sistema de transmissão acontece devido à Lei de Tensões de Kirchhoff (LTK). Assim, aparecem laços em que uma linha que está no limite de sua capacidade de transmissão impede que outras linhas que se encontram no mesmo laço possam incrementar a transmissão através delas ficando subutilizadas. Sendo assim, a retirada da linha que está operando no limite pode melhorar a capacidade de transmissão do sistema. Este trabalho analisa esse problema e, portanto, apresenta a proposta de resolver o problema de planejamento de forma que seja possível adicionar linhas de transmissão com custos especificados e também que seja possível retirar linhas de transmissão da topologia base com custo zero. Dessa forma, linhas irrelevantes e que dificultam na operação do sistema elétrico e que se encontram na topologia base podem ser retiradas. O problema formulado dessa forma é resolvido usando um algoritmo genético especializado. / This work is a new way to formulate and solve the problem of planning for the long-term expansion of transmission systems of power. Traditionally, the problem of transmission expansion planning systems is to find the optimal plan for expansion that allows the operating system adequately to the demands of a future horizon specified. Thus, one should indicate the number of transmission lines that should be built in each path of expansion. Meanwhile, there are lines of the basic topology not help in the proper functioning of the system and may require the addition of new transmission lines producing inadequate investments. This atypical behavior of a system of transmission due to the Kirchhoff’s Law for Voltages (LTK). Thus, ties appear in a line that is at the limit of their ability to prevent transmission to other lines that are in the same loop can increase the power flow through getting underutilized. Therefore, the withdrawal of the line that this limit can improve operating in the capacity of the transmission system. This work examines this issue and, therefore, presents a proposal to solve the problem of planning so that we can add lines with transmission costs and also specified that it is possible to draw lines of transmission of topology database with cost. Thus, lines irrelevant and hindering the operation of the electrical system and that are in the topology database can be withdrawn. The problem is formulated thus solved using a specialist genetic algorithm.
189

O uso de rede neural artificial MLP na predição de estruturas secundárias de proteínas

Ferreira, Fausto Roberto [UNESP] 23 June 2004 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:22:54Z (GMT). No. of bitstreams: 0 Previous issue date: 2004-06-23Bitstream added on 2014-06-13T18:49:49Z : No. of bitstreams: 1 ferreira_fr_me_sjrp.pdf: 884938 bytes, checksum: cb71cfbd072d7a80c82fa5ec84776eea (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A predição de estruturas secundárias e terciárias pode contribuir para elucidar o problema de enovelamento de proteínas. Para isso, métodos de Redes Neurais Artificiais (RNAs) e Algoritmos Genéticos são utilizados a fim de predizê-las, a partir de determinadas seqüências primárias de aminoácidos. Neste sentido, esta pesquisa visa à utilização de três níveis de RNAs. O primeiro nível é composto por um vetor de entrada representando a seqüência primaria dos aminoácidos, com uma dimensão de 22.n, onde n é o tamanho da janela compreendida entre 7 a 23. O segundo nível possui a implementação dos resultados da primeira rede. Por fim o terceiro nível é composto por um júri de decisão. As RNAs são treinadas no Simulador MATLAB 5.0, um software composto de vários recursos para a sua implementação (Neural Network Toolbox). As RNAs implementadas são do tipo Multi Layer Perceptron (MLP), que utilizam o algoritmo backpropagation (RPROP) e a função de treinamento trainrp. Os dados obtidos são comparados com os preditores 'The Predict Protein Server Default' (www.emblheidelberg.de/predictprotein/submit_def.html), 'The PSA Protein Structure Prediction Server' (http//bmerc-www.bu.edu/psa/request.html) e 'The PSIPRED Protein Structure Prediction Server' (http://bioinf.cs.ucl.ac.uk/psipred/), a fim de se obter um modelo de predição. / The prediction of (secondaray and tertiary) structures of proteins can contribute to elucidadate the protein-folding problem. In oder to predict these structures we used methods of Artificial Neural Network (ANN) and genetic algorithms starting from the primary sequences of amino acids. The present work is composed of 3 networks levels. The first level is composed of ANNs of an input vector representing a segment of primary amino acid sequence. Since the encoding scheme uses a local window into the sequence, the input vector is a 22.n dimensional vector where n is the number of positions in the window (between 7 and 23). The outputs of level 1 are the inputs of the second level ANNs. The third level is the jury decision. The ANNs were trained with the Simulator MATLAB 5.0, software with several tools for its implementation (Neural Network Toolbox). The implemented ANNs are Multi Layer Perceptron (MLP) kind, which use the backpropagation algorithms (RPROP) together with training function trainrp. The obtained date are compared with the predictors 'The Predict Protein Server Default' (www.emblheidelberg.de/predictprotein/submit_def.html), 'The PSA Protein Structure Prediction Server' (http//bmerc-www.bu.edu/psa/request.html) e 'The PSIPRED Protein Structure Prediction Server' (http://bioinf.cs.ucl.ac.uk/psipred/) in order to heve an idea of the quality of the prediction.
190

Otimização do fresamento de topo esférico de planos inclinados aplicando o método de algoritmos genéticos

Vacaro, Tiago 01 August 2013 (has links)
Esta dissertação apresenta uma aplicação de algoritmos genéticos na otimização de parâmetros de corte em uma operação de fresamento de topo esférico de planos inclinados, considerando quatro estratégias de usinagem e dois diferentes materiais dos corpos de prova (ABNT P20 e ABNT H13). O objetivo da otimização foi minimizar o tempo de usinagem, e a principal restrição técnica foi a rugosidade das superfícies usinadas. A aplicação proposta apresentou resultados satisfatórios na otimização dos parâmetros de corte, mas houve diferenças significativas nos resultados de rugosidade obtidos no modelo matemático e nos ensaios experimentais de validação. Uma análise das superfícies usinadas demonstrou que a formação das mesmas não ocorreu de forma regular e homogênea, e não foram observadas tendências claras de comportamento com relação às diferentes estratégias e materiais. Também foi observada a significativa influência de instabilidades dinâmicas durante a usinagem, cujos efeitos não são considerados no modelo matemático aplicado no problema de otimização, o que explica as diferenças observadas entre os resultados de rugosidade computacionais e experimentais. / Submitted by Marcelo Teixeira (mvteixeira@ucs.br) on 2014-07-10T12:41:21Z No. of bitstreams: 1 Dissertacao Tiago Vacaro.pdf: 4017619 bytes, checksum: 195b1efb500e0a9e990e86751db2f759 (MD5) / Made available in DSpace on 2014-07-10T12:41:21Z (GMT). No. of bitstreams: 1 Dissertacao Tiago Vacaro.pdf: 4017619 bytes, checksum: 195b1efb500e0a9e990e86751db2f759 (MD5) / This dissertation presents an application of genetic algorithms in the optimization of cutting parameters on a ball end milling operation of inclined planes, considering four machining strategies and two different materials of the workpieces (ABNT P20 and ABNT H13). The objective of the optimization was to minimize the machining time, and the main technical restriction was the roughness of the machined surfaces. The proposed application presented satisfactory results in the optimization of cutting parameters, but significant differences occurred between the roughness results obtained with the mathematical model and in the experimental validation. An analysis of the machined surfaces has shown that the formation of the surfaces did not occur on a regular and homogeneous way, and no clear trends with respect to different strategies and materials were observed. The significant influence of dynamic instabilities during machining was also observed, whose effects are not considered in the mathematical model applied to the optimization problem, which explains the differences observed between the results of computational and experimental roughness.

Page generated in 0.0206 seconds