• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3250
  • 100
  • 70
  • 63
  • 63
  • 62
  • 44
  • 40
  • 23
  • 13
  • 13
  • 13
  • 2
  • 1
  • 1
  • Tagged with
  • 3466
  • 1971
  • 826
  • 683
  • 525
  • 456
  • 424
  • 350
  • 342
  • 315
  • 308
  • 304
  • 284
  • 270
  • 269
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Otimização da distribuição de vapor e energia elétrica de uma indústria petroquímica

Magalhães, Eduardo Guimarães de January 2006 (has links)
O uso racional de utilidades (energia elétrica, vapor e água) representa atualmente o grande desefaio para garantir a competitividade e sustentabilidade das indústrias. O custo da energia e os limites ambientais associados à atividade são estratégicos para perpetuar o negócio industrial, ainda mais se depender da vida do setor de refino de petróleo. O trabalho proposto apresenta a minimização do custo da geração de energia em uma empresa petroquímica, que possui produção de energia elétrica e vapor através de um sistema de cogeração. Neste caso, há um equilíbrio a ser buscado entre suprimento de energia de potência e térmica e isto não pode ser rapidamente definido a partir de procedimentos ou malhas de controle localizadas. A aplicação de um modelo de otimização é proposto, baseando-se nas demandas de energia e flexibilidades existentes e rapidamente expondo a configuração que minimiza o custo de produção de vapor e energia elétrica (custo da central termoelétrica). Esta meta foi obtida aplicando duas ferramentas: uma planilha para resgatar, reconciliar, tratar, organizar dados e em seguida exportar informações para a segunda ferramenta, o modelo de otimização no qual o problema da central termoelétrica é construído e solucionado através de algoritmos adequados. Após, o trabalho também envolveu o estudo de 14 casos. O resultado obtido consolida o potencial para otimização: é possível reduzir em cerca de 7% (pelo menos) o custom da unidade termoelétrica, com pequenas intervenções de manutenção e ajustes operacionais. Estes dados são associados com a possibilidade de redução da geração de vapor e demandas de energia elétrica e também com a redução do uso de válvulas redutoras de pressão, na maioria dos casos. / The rational use of utilities (electric energy, steam, and water) represents nowadays the great challenge to assure the competitiveness and sustainability of industries. The energy cost and the associated environmental limits are strategic to perpetuate the industrial business, even more if it depends upon the oil sector life. The proposed work presents the minimization of the cost of steam and power generation in a petrochemical company, which has production of electric energy and steam by cogeneration system. In this case, there is a balance to achieve between work and heat supply and this cannot be readily defined by heuristics or localized control loops. The application of an optimization model is proposed based on needs of energy demands and existing flexibilities, and readily exposing the scenario that minimizes the power and high pressure steam level production. This goal was obtained applying two tools: one flow sheet for rescue, reconciliate, treat, organize data and then export information for the second, the optimization model in which the thermoelectric problem is constructed and then solved by proper algorithms. After, this work also develop and study of 14 cases. The results obtained consolidate the potential for optimization: it is possible to reduce in about 7% (at least) the cost of the thermoelectric unity, with little maintenance and operational adjustments. These figures are associated with the possibility of reducing the steam generating and power needs and also reducing the use of letdown stations, in most cases.
162

Melhoria de processos de fabricação de anéis de centragem de alto-falantes

Bombarda, João Luis January 2004 (has links)
O tema deste trabalho versa sobre a produção de anéis de centragem de alto-falantes de uma empresa de alto-falantes do Rio Grande do Sul. O objetivo geral é melhorar o processo de fabricação de anéis de centragem de alto-falantes.Como objetivo específico, quer-se conhecer melhor, através de estudos de Desdobramento da Função Qualidade (QFD), Projeto deExperimentos e Análise de Regressão, os parâmetros de processo que afetam a qualidade dos mesmos,e apontar soluções para amelhoria do processo, reduzindo refugos e retrabalhos. Em função dos resultados, foi elaborado um plano de ação demelhorias do processo, partindodas conclusões do experimento e visando-se melhorar a situaçãoatual do processo na empresa.Na apresntação dos resultados, testa-se o trabalho no intuito de melhorar o processo na empresa em questão.
163

Otimização da distribuição de vapor e energia elétrica de uma indústria petroquímica

Magalhães, Eduardo Guimarães de January 2006 (has links)
O uso racional de utilidades (energia elétrica, vapor e água) representa atualmente o grande desefaio para garantir a competitividade e sustentabilidade das indústrias. O custo da energia e os limites ambientais associados à atividade são estratégicos para perpetuar o negócio industrial, ainda mais se depender da vida do setor de refino de petróleo. O trabalho proposto apresenta a minimização do custo da geração de energia em uma empresa petroquímica, que possui produção de energia elétrica e vapor através de um sistema de cogeração. Neste caso, há um equilíbrio a ser buscado entre suprimento de energia de potência e térmica e isto não pode ser rapidamente definido a partir de procedimentos ou malhas de controle localizadas. A aplicação de um modelo de otimização é proposto, baseando-se nas demandas de energia e flexibilidades existentes e rapidamente expondo a configuração que minimiza o custo de produção de vapor e energia elétrica (custo da central termoelétrica). Esta meta foi obtida aplicando duas ferramentas: uma planilha para resgatar, reconciliar, tratar, organizar dados e em seguida exportar informações para a segunda ferramenta, o modelo de otimização no qual o problema da central termoelétrica é construído e solucionado através de algoritmos adequados. Após, o trabalho também envolveu o estudo de 14 casos. O resultado obtido consolida o potencial para otimização: é possível reduzir em cerca de 7% (pelo menos) o custom da unidade termoelétrica, com pequenas intervenções de manutenção e ajustes operacionais. Estes dados são associados com a possibilidade de redução da geração de vapor e demandas de energia elétrica e também com a redução do uso de válvulas redutoras de pressão, na maioria dos casos. / The rational use of utilities (electric energy, steam, and water) represents nowadays the great challenge to assure the competitiveness and sustainability of industries. The energy cost and the associated environmental limits are strategic to perpetuate the industrial business, even more if it depends upon the oil sector life. The proposed work presents the minimization of the cost of steam and power generation in a petrochemical company, which has production of electric energy and steam by cogeneration system. In this case, there is a balance to achieve between work and heat supply and this cannot be readily defined by heuristics or localized control loops. The application of an optimization model is proposed based on needs of energy demands and existing flexibilities, and readily exposing the scenario that minimizes the power and high pressure steam level production. This goal was obtained applying two tools: one flow sheet for rescue, reconciliate, treat, organize data and then export information for the second, the optimization model in which the thermoelectric problem is constructed and then solved by proper algorithms. After, this work also develop and study of 14 cases. The results obtained consolidate the potential for optimization: it is possible to reduce in about 7% (at least) the cost of the thermoelectric unity, with little maintenance and operational adjustments. These figures are associated with the possibility of reducing the steam generating and power needs and also reducing the use of letdown stations, in most cases.
164

Uma abordagem numérico-experimental para a identificação de dano estrutural utilizando o método Simulated Annealing

Ferreira, Franklin de Souza January 2008 (has links)
A detecção de dano estrutural é um assunto muito estudado em virtude do grau de responsabilidade envolvido na manutenção de certas estruturas por diversas décadas, tais como pontes, torres de transmissão de energia, ou mesmo em falhas mecânicas de componentes automotivos, navais, de aviação, etc. A identificação do dano em estruturas por meio de ensaios dinâmicos não destrutivos tem se tornado uma técnica atrativa, devido principalmente a redução de incertezas e queda nos preços dos equipamentos utilizados, tais como acelerômetros, placas de aquisição de sinais, computadores, etc. Simulated Annealing (Recozimento Simulado) é uma técnica baseada em algoritmos heurísticos utilizada para otimização (minimização ou maximização) de problemas de larga escala, sem necessidade de cálculos de gradientes, que contenham diversos ótimos locais, onde é necessário encontrar um ótimo global. No caso de detecção de danos, esta otimização pode ser usada para sintonizar o comportamento dinâmico de um modelo paramétrico com resultados experimentais modais, como por exemplo: freqüências naturais, amortecimento modal, modos, etc. Neste trabalho é avaliado o desempenho do emprego deste método na localização e quantificação de danos em estruturas simples. Alguns dos resultados foram comparados com uma outra técnica heurística de Algoritmos Genéticos. A avaliação das incertezas envolvidas na determinação dos parâmetros experimentais foi realizada de modo a se ter idéia da ordem de exatidão do sistema assim como limitações das previsões feitas por esta metodologia. Esta abordagem é de extrema importância, pois o sistema pode indicar falsos danos em virtude de falta de exatidão nas medições das freqüências naturais da estrutura estudada. Uma abordagem teórica nos casos da viga bi apoiada e engastada livre foi feita através da equação diferencial da viga. Esta abordagem demonstrou regiões onde certas freqüências não são alteradas independentemente da condição de dano. Esta é uma das maiores contribuições deste trabalho. O mesmo estudo foi feito de forma experimental, onde se verificou a confirmação dos lugares sugeridos pelos dois estudos anteriores, ou seja, determinadas freqüências não se alteram quando determinadas regiões da estrutura são danificadas. Concluiu-se que o método de simulated annealing tem eficiência equivalente aos algoritmos genéticos, pois em termos da eficiência em detectar corretamente danos, ele apresentou desempenho semelhante, o que foi comprovado pelas simulações numéricas e ensaios experimentais. As dificuldades de identificação de danos, como danos próximos as condições de contorno e danos menores de 10%, foram sentidos de forma parecida, sendo que para estes casos, o algoritmo não convergiu completamente. Os tempos de processamento em ambos os métodos de otimização foram similares, para todos os casos estudados. / The detection of structural damage has received an increasing interest on both academic research and industry application for several decades, including structures such as bridges, transmission lines towers, or even in automotive mechanical fault detection and naval and aviation components. The damage identification in structures by means of dynamic non-destructive tests became an attractive technique, since there was and increase in the measurement accuracy and cost decrease of devices used to perform this task, like accelerometers, data acquisition boards, computers, etc. Simulated Annealing is a technique that belongs to a class of the so called Heuristic Algorithms used in optimizations (maximizations or minimizations) of large scale problems. This technique does not use gradient evaluations and can be used with functions with several local optima, where it is desired to reach the global optimum. In damage detection, this technique can be used to tune the dynamic behavior of a parametric model with experimental modal results, such as: natural frequencies, modal damping, mode shapes, etc. In this work, the performance of this method in finding and quantificating damage in simple structures is evaluated. Some of the results were compared with another Heuristic technique: the Genetic Algorithm. The importance of uncertainties in the involved experimental parameters was investigated in order to estimate the system accuracy and limitations of the methodology. This approach is important, since the methodology could indicate false damages by virtue of lack of accuracy in the measurements. A theoretical approach for simple beams was accomplished by the differential equation of motion and a simple model for the crack. This study shows points where damage will not affect some frequencies, regardless of their extent. This is one of the main contributions of this work. The same study was carried experimentally, where there was a perfect agreement with the predicted sites for null interference suggested by the two previous studies, i.e., certain frequencies did not change when those sites where damaged. Finally it is concluded that the Simulated Annealing Technique has equivalent efficiency as the genetic algorithm, since the performance in detecting damage was similar, checked by the numerical simulations and experimental tests. The difficulties on damage identification lied in damage close to support conditions and damage about 10%, and for these cases, the algorithms did not converge completely. The processing times on both techniques used were similar, for all the studied cases.
165

Modelo matemático de otimização para apoio à decisão na operação dos reservatórios de Três Marias e Sobradinho

Lopes Lôbo Leite, Louise 05 July 2013 (has links)
Submitted by Romulus Lima (romulus.lima@ufpe.br) on 2015-03-10T14:41:31Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Louise Lopes Lobo.pdf: 2651442 bytes, checksum: 50c48b2888e0d1cd79c9b70fb906dd40 (MD5) / Made available in DSpace on 2015-03-10T14:41:31Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Louise Lopes Lobo.pdf: 2651442 bytes, checksum: 50c48b2888e0d1cd79c9b70fb906dd40 (MD5) Previous issue date: 2013-07-05 / O sistema elétrico brasileiro é composto predominantemente por usinas hidrelétricas. Essa predominância hídrica, se por um lado eleva o país a um padrão de geração limpa e barata, por outro exige maior desafio em sua operação. A variabilidade espacial e temporal das condições hidrológicas torna o planejamento da geração uma atividade mais complexa. Com o intuito de superar esse desafio e complexidade, foi instituído o Operador Nacional do Sistema Elétrico (ONS), que tem como responsabilidades o planejamento e operação do Sistema Interligado Nacional (SIN) a fim de garantir o suprimento de energia, segurança e minimizar os custos na operação. Para a realização do planejamento energético do SIN, são utilizados os modelos matemáticos de otimização Newave e Decomp. Estes modelos consideram todos os recursos e requisitos existentes no sistema e distribui a geração por subsistemas e usinas de forma a minimizar o custo da operação. A análise do histórico de dados da operação mostra que para alguns anos a diferença entre os armazenamentos dos reservatórios de Três Marias e Sobradinho no final do período seco foi elevada, o que não é desejado para a operação, uma vez que a operação dos reservatórios se dá de forma integrada. Visando minimizar essa diferença e identificar padrões de operação que possam ser associadas a essa minimização, foi criado com a ferramenta GAMS um modelo de apoio à decisão. Este modelo utilizou Programação Não-Linear e o solver CONOPT 3. Foram consideradas diferentes estratégias de operação e a determinação da melhor delas se deu através da análise de índices de desempenho. Os resultados apontaram que os índices de desempenho do modelo apresentaram melhores resultados que os do histórico. Foram identificados os padrões de operação para os reservatórios de Três Marias e Sobradinho que levaram a este melhor desempenho.
166

Ajuste de Histórico e Gerenciamento Ótimo de Reservatórios de Petróleo: Estudo de Um Caso Real

Gustavo Amaral Wanderley, Luis 30 August 2013 (has links)
Submitted by Romulus Lima (romulus.lima@ufpe.br) on 2015-03-10T14:47:11Z No. of bitstreams: 2 DISSERTAÇÃO Luis Gustavo Amaral Wanderley.pdf: 8496793 bytes, checksum: 00a7f8eabf7af5e9c8d0641aafcdd221 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-10T14:47:11Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Luis Gustavo Amaral Wanderley.pdf: 8496793 bytes, checksum: 00a7f8eabf7af5e9c8d0641aafcdd221 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-08-30 / A simulação numérica de reservatórios é ferramenta valiosa de suporte à decisão em projetos de desenvolvimento e gerenciamento da produção de petróleo. Depois de elaborados, os modelos de simulação são submetidos ao ajuste de histórico, etapa onde são validadas as propriedades de rocha e fluido que, de acordo com a formulação matemática, descrevem o fluxo no meio poroso. Os modelos ajustados são utilizados para prever o comportamento do reservatório em diferentes condições de operação, na busca de estratégias de explotação que maximizem a produção e a recuperação de petróleo. O ajuste de histórico pode ser tratado como um problema inverso de minimização da discrepância entre os dados observados e os resultados da simulação, cujas incógnitas são os parâmetros descritivos do reservatório. Neste trabalho, o modelo de simulação de um campo com onze poços e um ano e meio de histórico foi ajustado satisfatoriamente, utilizando técnicas de otimização não baseadas em gradientes, do CMOST, e de mínimos quadrados não lineares, do DAKOTA. Em campos submetidos a injeção de água, a otimização dos controles dos poços tem grande potencial de aumentar a recuperação de hidrocarboneto, retardando o avanço da frente de água e propiciando melhor eficiência de varrido. A partir da utilização do método híbrido de otimização do CMOST, e mediante definição dos controles de vazão dos poços e do número de ciclos de controle, foi resolvido um problema de maximização que aumentou em 3,5% o VPL do campo.
167

Análise e Otimização da Produção de Hidrocarbonetos Líquidos Via a Reação de Fischer Tropsch Por Meio da Tecnologia Gas To Liquid (GTL).

Lira, Rodrigo Lucas Tenorio Calazans de 31 May 2012 (has links)
Submitted by Eduarda Figueiredo (eduarda.ffigueiredo@ufpe.br) on 2015-03-11T14:35:25Z No. of bitstreams: 2 Dissertação Completa_Rodrigo.pdf: 2042384 bytes, checksum: adeaba5f9e93bef7dcc818744781565e (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-11T14:35:25Z (GMT). No. of bitstreams: 2 Dissertação Completa_Rodrigo.pdf: 2042384 bytes, checksum: adeaba5f9e93bef7dcc818744781565e (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2012-05-31 / A tecnologia de produção de combustíveis sintéticos iniciou seu desenvolvimento a partir de 1919, na Alemanha, tendo o carvão mineral como insumo para a gaseificação. Com o passar dos anos novos insumos foram utilizados, como a biomassa e o gás natural, cada um com rotas tecnológicas próprias. Com o uso do gás natural esta rota tecnológica é conhecida como Gas-To- Liquids (GTL) sendo uma transformação química que gera faixas de hidrocarbonetos líquidos e estáveis à temperatura e pressão ambientes. Este processo tem como etapa principal etapa à reação de Fischer Tropsch (FT), pois transforma gás síntese resultante da reforma do gás natural em hidrocarbonetos líquidos que ao serem refinados tornamse importantes produtos para indústria petroquímica, de transporte e áreas afins. Essa transformação pode ser realizada no próprio local de produção do gás, evitando investimentos e problemas ambientais na construção de gasodutos. No Brasil, o gás natural apresenta crescente incremento da sua produção, e forte aumento das suas reservas, como por exemplo, a descoberta do pré-sal e o gás natural presente pode estar tanto associado quanto não-associado ao petróleo. Devido às estruturas de plataformas normalmente se localizarem em áreas remotas, torna-se custoso o aproveitamento desse gás que é liberado pela produção do óleo, sendo o mesmo queimado ou ventado. Devido às restrições estabelecidas pela legislação ambiental, a queima do gás natural nas plataformas de produção passa a ser problemática e crítica. Este trabalho teve como objetivo desenvolver e avaliar por meio de simulação computacional uma planta de GTL na produção de hidrocarbonetos líquidos via a reação de FT e utilizá-lo na otimização do processo, na busca por um processo com maior capacidade produtiva e com menores gastos energéticos, gerando um melhor aproveitamento do gás natural, produzindo materiais com maior valor agregado. Foram utilizados os softwares de simulação MATLAB® e HYSYS®, que permitiram a analise de resultados satisfatórios para a conversão e distribuição de hidrocarbonetos gerados em comparação com o descrito pela literatura. A qualidade dos hidrocarbonetos gerados foi analisada pela avaliação do diesel obtido.
168

Desenvolvimento e análise de algorítmos probabilísticos de otimização global

Marques Cavalcanti, André January 2004 (has links)
Made available in DSpace on 2014-06-12T17:35:39Z (GMT). No. of bitstreams: 2 arquivo6983_1.pdf: 1862837 bytes, checksum: e0fcb825b04d3b7f64bcee6a89be5f0c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / O desenvolvimento de algoritmos de otimização global irrestrita tem sido pesquisado na tentativa de obter algoritmos gerais que apresentem um bom desempenho em classes abrangentes de problemas de otimização. Os métodos que utilizam derivadas apresentam um bom desempenho mas, na grande maioria dos problemas esta informação não está disponível ou é de grande dificuldade a sua obtenção. Existe uma grande dificuldade de se estabelecer algoritmos eficientes sem a informação da derivada. Os métodos de busca direta se apoiam em heurísticas para determinar a direção de busca com certa eficiência, porém sem garantia de convergência. Este trabalho realiza uma avaliação do problema da convergência dos algoritmos de busca direta, desenvolve um modelo geral, estratégias de abordagem e melhorias, analisa e implementa um algoritmo que é capaz de determinar a direção de busca do ótimo de forma eficiente, sem o uso de derivadas. O software desenvolvido utiliza nuvens probabilísticas que fornecem o conhecimento da performance da distribuição de probabilidade da nuvem de pontos. Essa distribuição através dos seus momentos fornece a direção de aproximação do ponto de ótimo. Na presente pesquisa o algoritmo melhorado proposto apresentou uma excelente performance em relação às listas de Benchmark existentes e aceitas pela comunidade de otimização global. O aspecto mais relevante é a abrangência de classes de problemas possíveis de resolver com este algoritmo sem perda de performance em reconhecer a classe de problemas a ele submetido
169

Uma abordagem baseada em metaheurísticas para exploração do espaço de projeto de memórias cache multinível em plataformas multi-cores para aplicação específica

SANTOS, Marcus Vinicius Duarte dos 09 March 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-01T20:38:49Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Marcus Vinicius Duarte dos Santos.pdf: 4382049 bytes, checksum: 3f5d38da8538c0c62f2dc97e4b66c9aa (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-03T19:36:47Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Marcus Vinicius Duarte dos Santos.pdf: 4382049 bytes, checksum: 3f5d38da8538c0c62f2dc97e4b66c9aa (MD5) / Made available in DSpace on 2018-08-03T19:36:47Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Marcus Vinicius Duarte dos Santos.pdf: 4382049 bytes, checksum: 3f5d38da8538c0c62f2dc97e4b66c9aa (MD5) Previous issue date: 2017-03-09 / A evolução dos computadores tem nos mostrado que, com o passar dos anos, esses equipamentos têm evoluído em diversas características, como novas tecnologias em uso, redução de tamanho, redução de custo, aumento do desempenho, e redução do consumo de energia. Entre essas melhorias destacamos como fundamentais para projetos de sistemas embarcados as melhorias em desempenho de aplicação específica e a melhoria em consumo. Em um sistema microprocessado, um dos principais responsáveis pelo consumo de energia é a hierarquia de memória cache, que pode ser responsável por até 50% da energia consumida pelo sistema completo. Nesse trabalho é apresentada uma abordagem para exploração do espaço de projeto de memórias cache em plataformas MPSoCs de aplicação específica que utiliza como base o algoritmo ABCs (Colônia Artificial de Abelhas) adaptado para multi-objetivo (melhoria de desempenho e de consumo de energia) e utilizando técnicas de DoE (Design of Experiments) para tornar a busca global do algoritmo mais eficiente, reduzindo seu tempo total de execução. O algoritmo ABC modificado foi denominado de algoritmo AbcDE. Nos experimentos avaliamos a abordagem AbcDE executando algumas aplicações dos benchmark Splash2 (fft, radix e matrix) e o ParMibench (Djikstra) para um nível de cache (L1) e foi obtido um conjunto de configurações da cache L1 dentro do Pareto front reduzindo o tempo de exploração em uma média de 42,3%. O número de simulações da plataforma MPSoC foi reduzida em 40,4% quando comparado com o uso do algoritmo ABC original em multi-objetivo. Os resultados foram obtidos para uma plataforma MPSoC baseada em NoC com 4 processadores. Também avaliamos a abordagem AbcDE executando as aplicações dos benchmarks previamente citados em conjunto com as aplicações do benchmark ParMibench (Sha, Stringsearch e Basicmath) para hierarquia de cache em multinível (L1 e L2). Foram obtidas configurações de cache dentro do Pareto Front apresentando uma quantidade média de execuções da plataforma MPSoC em cerca de 37,14% menor que o algoritmo ABCMOP, e em cerca de 37,10 % menor que o algoritmo MOPSO (considerando todas as aplicações dos experimentos). Mesmo obtendo uma melhoria significativa em termos eficiência, comparado aos algoritmos ABCMOP e MOPSO, o algoritmo AbcDE não degradou sua precisão. O algoritmo AbcDE, em termos de hipervolume, foi em média inferior ao algoritmo ABCMOP em apenas 0,91%, e foi em média superior ao algoritmo MOPSO em apenas 0,66%. Verificamos que o algoritmo AbcDE conseguiu obter resultados ótimos para configurações de cache multi-nível com eficiência e sem degradar sua precisão, simulando apenas cerca de 0,13% do espaço do projeto total da hierarquia de cache. / The computer’s evolution has shown over the years these devices have evolved in several features such as new technologies in use, size reduction, cost reduction, increased performance, and reduced energy consumption. Among these improvements we highlight as fundamental to embedded system design, the improvements in performance and energy consumption. In a microprocessor-based system, the major contributor to the energy consumption is the cache hierarchy, which can account for up to 50% of the energy consumed by the entire system. This work introduces the AbcDE, a cache design space exploration approach to applicationspecific MPSoC platforms. The AbcDE uses the algorithm ABC (Artificial Bee Colony) in multi-objective mode (improvement of performance and energy consumption simultaneuosly) and using DoE (Design of Experiments) techniques to improve the efficiency of algorithm global search, reducing the execution time. In the experiments we evaluated the AbcDE approach to some applications of Splash2 benchmark (fft, radix and matrix multiplication) and ParMiBench benchmark (Djikstra) and was obtained a L1 cache configurations set into the Pareto front with a reduction of 42.3% in the exploration time. The mean number of platform executions is 40.4% lower when compared with the original multi-objective ABC algorithm. All results were obtained for a NoC-based MPSoC platform using four processors. We also evaluated the AbcDE approach by executing the previously cited benchmark applications in conjunction with the benchmark applications Sha, Stringsearch and Basicmath (ParMibench benchmark) for multilevel cache hierarchy (L1 and L2). Cache configurations within Pareto Front were obtained and it was obtained a mean number of MPSoC platform simulations at about 37,14 % smaller than the ABCMOP algorithm, and about 37,10 % smaller than the MOPSO algorithm (Considering all applications of the experiments). Although obtaining a significant improvement in efficiency terms, compared to the ABCMOP and MOPSO algorithms, the AbcDE algorithm did not degrade its accuracy. The AbcDE algorithm, in terms of hypervolume metric, obtained on average less than the ABCMOP algorithm by only 0.91%, and obtained on average superior to the MOPSO algorithm by only 0.66%. The AbcDE algorithm was able to achieve optimal results for multi-level cache configurations efficiently and without degrading its accuracy, simulating only about 0.13 % of the total design space of the cache hierarchy.
170

Uma nova abordagem baseada em enxames de partículas para otimização de muitos objetivos

FIGUEIREDO, Elliackin Messias do Nascimento 17 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-14T18:55:09Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-16T19:59:21Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) / Made available in DSpace on 2018-08-16T19:59:21Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) Previous issue date: 2017-02-17 / CNPq / Many-Objective Optimization Problems (MaOPs) são uma classe especial de problemas multiobjetivos que apresentam quatro ou mais objetivos. Algoritmos evolucionários ou de enxame de partículas tradicionais falham ao tentarem resolver MaOPs pois eles se tornam ineficazes ou ineficientes nestes problemas. Em virtude disso, alguns pesquisadores propuseram diferentes estratégias para contornar as dificuldades impostas por MaOPs, sobretudo para Multiobjective Evolutionary Algorithms (MOEAs) tradicionais para esses problemas. Em contrapartida, muito pouco tem sido feito no sentido de adaptar algoritmos de Multiobjective Particle Swarm Optimizations (MOPSOs) para MaOPs. Não obstante, algoritmos baseados em enxames de partículas no geral são reconhecidos pela rápida velocidade de convergência em problemas com um único objetivo e por isso parecem ser também adequados para problemas multiobjetivos e com muitos objetivos. Desta forma, existe a necessidade de se desenvolver MOPSOs para lidar com MaOPs. Sendo assim, o objetivo desta tese foi desenvolver um MOPSO para resolver MaOPs no sentido de promover um maior balanceamento entre convergência para Frente de Pareto e diversidade de soluções nesses problemas. Para isso, o algoritmo proposto nesta tese usa um conjunto de pontos de referência para impor uma pressão de convergência para a Frente de Pareto enquanto permite um maior gerenciamento da diversidade. Além disso, a abordagem proposta usa um arquivo externo em que são armazenadas soluções não-dominadas e do qual são retirados os líderes sociais das partículas de acordo com duas medidas que foram propostas nesta tese, a saber, a medida de convergência e a medida de densidade. O objetivo dessas medidas é promover a convergência para a Frente de Pareto e promover a diversidade ao longo dela simultaneamente. A proposta foi avaliada usando seis problemas da família DTLZ com dois, três, cinco, sete e dez objetivos e usando métricas bem estabelecidas na literatura (distância geracional, distância geracional invertida e hipervolume) para medir a convergência e diversidade do conjunto solução obtido pelo algoritmo; e ele foi comparado com duas abordagens baseadas em enxames (SMPSO e CDAS-SMPSO) e três abordagens evolucionárias (CEGA, MDFA, e NSGA-III) afim de mostrar suas vantagens e pontos de melhorias frente a outros algoritmos bem estabelecidos na literatura. Os resultados mostraram que o algoritmo proposto foi bem sucedido em equilibrar convergência e diversidade nos problemas testados apresentando resultados equivalentes ou superiores ao NSGA-III que é uma das propostas mais bem sucedidas até o momento para lidar com problemas com muitos objetivos. Além disso, o algoritmo proposto foi aplicado em um problema real de projeto de redes ópticas de alta capacidade com o intuito de avaliar sua utilidade prática. / Many-Objective Optimization Problems (MaOPs) are an especial class of multiobjective problems in which four or more objectives are optimized simultaneously. Currently, these problems have attracted attention of the researchers due the two reasons: (i) many real-world applications are naturally many-objective problems and (ii) population-based heuristics presents great difficulties for solving these problems. For example, Paretodominance based algorithms such as Multiobjective Evolutionary Algorithms (MOEAs) and Multiobjective Particle Swarm Optimization (MOPSO) algorithms are ineffective in these problems because almost all solutions in the population become non-dominated solutions, resulting in loss of convergence pressure for the Pareto front. Because of this, researchers have proposed new strategies for dealing with this problems, mainly for MOEAs. However, very little has been done to make the MOPSOs effective in these scenarios. Regardless of this, Particle Swarm Optimization (PSO) algorithms are known by fast speed of convergence in single-objective problems and they seem be suitable for MaOPs. Moreover, to create algorithms that are capable of balancing both convergence and diversity is a research challange. Therefore, there are a necessity to develop PSO-based algorithms for dealing with MaOPs. Thus, this thesis proposes a new algorithm based on PSO whose aim is to promote a better balancing between convergence toward the Pareto front and diversity of solutions. To achieve this aim, the proposed algorithm uses a set of reference points to impose a selection pressure to Pareto front while it allows a better control of the diversity. Furthermore, our algorithm use an external archive where it maintains non-dominated solutions and from which the social leaders are picked in according to two measures proposed for us, namely, the convergence measure and the density measure. The objective of these measures is to promote the convergence toward Pareto Front and to promote the diversity along it simultaneously. To evaluate our algorithm we used three well-known metrics in the literature, namely, generational distance, inverted generational distance, and hypervolume; and six benchmark problems of the DTLZ family with two, three, five, seven and ten objectives. Moreover, the algorithm was compared to two PSObased algorithms (SMPSO and CDAS-SMPSO) and three evolutionary algorithms (MDFA, CEGA and NSGA-III). The results showed that our algorithm was sucessful in balancing the requirements of convergence and diversity in the test problems compared to other algorithms in the literature. Besides, our algorithm was applied in a real-world problem involving the physical topology design of optical network in which it obtained good results.

Page generated in 0.0549 seconds