• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3250
  • 100
  • 70
  • 63
  • 63
  • 62
  • 44
  • 40
  • 23
  • 13
  • 13
  • 13
  • 2
  • 1
  • 1
  • Tagged with
  • 3466
  • 1971
  • 826
  • 683
  • 525
  • 456
  • 424
  • 350
  • 342
  • 315
  • 308
  • 304
  • 284
  • 270
  • 269
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Reconstrução tomográfica utilizando o FPSIRT (Fast Article System Interative Reconstruction Technique)

MOREIRA, Ícaro Valgueiro Malta 04 March 2015 (has links)
Submitted by Luiza Maria Pereira de Oliveira (luiza.oliveira@ufpe.br) on 2015-05-18T12:07:21Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação ivmm versão final.pdf: 5845365 bytes, checksum: 59b97eea615b9e0bea49e3c6eeb45a38 (MD5) / Made available in DSpace on 2015-05-18T12:07:21Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação ivmm versão final.pdf: 5845365 bytes, checksum: 59b97eea615b9e0bea49e3c6eeb45a38 (MD5) Previous issue date: 2015-03-04 / O PSIRT - Particle System Iterative Reconstruction Technique – é um método de reconstrução tomográfica de imagens primariamente desenvolvido para configurações compatíveis com aplicações industriais. Sistema de partícula é uma técnica de otimização inspirada em características da real física de sistemas que associa ao material reconstruído um conjunto de partículas com certas características físicas, sujeitas a um campo de força, que pode produzir movimento. O sistema constantemente atualiza a rede de partículas reposicionando-as numa forma que elas se aproximam do equilíbrio. A potencial elástica ao longo de um raio é uma função da diferença do coeficiente de atenuação de uma determinada configuração e a entrada correspondente. O PSIRT tem sido usado com sucesso para reconstruir objetos simulados e reais para configurações paralelas e fanbeam em diferentes ângulos, representando os arranjos comuns de tomografia de raios gama. Uma das limitações do PSIRT era o seu desempenho muito aquém da reconstrução em tempo real, e assim, neste trabalho a sua modelagem computacional foi inteiramente reformulada, dando origem ao FPSIRT - Fast System Iterative Reconstruction Technique, capaz de aumentar sua velocidade por um fator de até 200 vezes em alguns experimentos mantendo a mesma qualidade de reconstrução. / The PSIRT – Particle System Iterative Reconstruction Technique– is a method of tomographic image reconstruction primarily designed to work with configurations suitable for industrial applications. A particle system is an optimization technique inspired in real physical systems that associates to the reconstructing material a set of particles with certain physical features, subject to a force field, which can produce movement. The system constantly updates the set of particles by repositioning them in such a way as to approach the equilibrium. The elastic potential along a trajectory is a function of the difference between the attenuation coefficient in the current configuration and the corresponding input data. PSIRT has been successfully used to reconstruct simulated and real objects subject to sets of parallel and fanbeam lines in different angles, representing typical gamma-ray tomographic arrangements. One of the limitations was that its performance performance is very slow when compared to real time. In this dissertation, PSIRT is totally redesigned, giving origin to FPSIRT – Fast System Iterative Reconstruction Technique. The FPSIRT can reconstruct until 200 times faster than PSIRT in some experiments.
382

Otimização baseada em colônia de formigas aplicada ao problema de cobertura de conjuntos

Martins de Abreu Silva, Ricardo January 2003 (has links)
Made available in DSpace on 2014-06-12T15:52:55Z (GMT). No. of bitstreams: 2 arquivo4789_1.pdf: 837778 bytes, checksum: 2aadfef7452c9a1089fd78c8e6bb91dc (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / O presente trabalho avalia o desempenho e o funcionamento da meta-heurística Ant Colony Optimization ACO em instâncias de grande porte do problema de cobertura de conjuntos (Set Covering Problem - SCP). A meta-heurística ACO é um método de otimização baseado no comportamento de colônias de formigas reais e que vem obtendo resultados promissores em vários problemas combinatoriais. Entretanto, nós constatamos que, na maior parte dos artigos publicados pela comunidade ACO, a análise efetuada sobre as heurísticas não seguia um método de avaliação rigoroso, principalmente no que se refere à carência de estudos da influência dos parâmetros destas heurísticas sobre a qualidade dos resultados alcançados. Uma vez que eventuais descuidos ocorridos na etapa de avaliação de um algoritmo podem levar a conclusões equivocadas a respeito de seu desempenho, resolvemos utilizar um método de análise experimental para avaliar a adaptação da meta-heurística ACO em algum problema de otimização combinatorial previamente abordado pela comunidade ACO. O interesse em torno das instâncias de grande porte do problema de cobertura de conjuntos surgiu de sua complexidade (NPCompleto), e de sua capacidade de atender uma grande quantidade de problemas reais, os quais geralmente não possuem escala reduzidas na prática. A principal contribuição deste trabalho, sobretudo com relação à surpresa do seu resultado em vista da literatura vigente, encontra-se na revelação da pouca importância do feromônio no método ACO em instâncias SCP de grande porte, assim como na exposição de teorias, baseadas no conceito da correlação da distância de adaptação, capazes de explanar não somente as causas responsáveis pela atuação do feromônio, mas também a melhoria oriunda das hibridizações (via busca local) do método ACO em SCP, a ponto deste último ser prescindível. Ou seja, chegamos à conclusão de que não se justifica a utilização do método ACO em instâncias SCP de grande porte, uma vez que existem técnicas mais simples e eficientes capazes de tratar este mesmo problema, como por exemplo, a busca local desenvolvida por Jacobs e Brusco (1995)
383

Um estudo sobre a sinergia de múltiplos operadores de cruzamento no SPEA aplicado à otimização de redes de computadores

SOARES, José Henrique de Paula 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:18Z (GMT). No. of bitstreams: 2 arquivo2839_1.pdf: 6993291 bytes, checksum: 09ffd9fa6a055cf66ddb65d681cdf1c2 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / No âmbito das redes de computadores destaca-se o problema encontrado na criação, ampliação ou manutenção das redes de longa distância (Wide Area Network - WAN), onde muitas vezes os especialistas designados a essas tarefas não conseguem levar em consideração a combinação de algumas métricas de qualidade de serviço (quality of service - QoS). Isto se deve a complexidade dessas combinações juntamente com um número elevado de equipamentos existentes em redes dessa magnitude, logo, muitas redes WAN não são conectadas de forma ótima. O presente trabalho tem como objetivo combinar métricas de QoS (atraso de um enlace, largura de banda, tamanho do caminho e probabilidade de falha) para que seja possível encontrar soluções ótimas, utilizando algoritmos evolucionários multiobjetivo (AEMO), mas especificamente o algoritmo evolucionário de força de Pareto (Strength Pareto Evolutionary Algorithm - SPEA). O SPEA determina o Pareto ótimo para atendimento de cada demanda na rede. Além disto, foi realizado um estudo sobre a sinergia dos operadores de cruzamento (de um ponto com conhecimento heurístico, de ciclo, de ordenamento, de aresta e parcialmente mapeado) para problemas de permutação, como é o caso da otimização das redes de longa distância
384

Fluxo de Potência Ótimo globalmente convergente utilizando métodos de pontos interiores com estratégias de região de confiança

SOUSA, Andréa Araújo 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T17:35:21Z (GMT). No. of bitstreams: 2 arquivo6842_1.pdf: 922667 bytes, checksum: 5f337dabdc89ed3296a471f98e3ebb0e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / O problema de Fluxo de Potência Ótimo (FPO) vem sendo estudado desde a década de 1960 e vários métodos de resolução são encontrados na literatura. Em particular, os métodos de Pontos-Interiores (PI) vêm tendo um grande destaque devido a sua robustez e eficiência, alcançando convergência com reduzido número de iteraçoes mesmo em problemas com um grande número de variáveis. Apesar do seu bom desempenho computacional no que se refere a número de iterações e tempo de processamento, os métodos de PI não possuem convergência global, que consiste em encontrar uma solução independente da escolha do ponto inicial. Um dos objetivos desta pesquisa é o desenvolvimento de um algoritmo de FPO globalmente convergente, ou seja, capaz de encontrar uma solução sempre que uma existir. Para atingir esse objetivo, o algoritmo proposto associa métodos de Região de Confiança com os eficientes métodos de PI. Algoritmos globalmente convergentes são invariavelmente computacionalmente intensivos, de forma que três abordagens distintas para a resolução dos subproblemas de região de confiança foram estudadas. Quanto à formulação do problema de FPO, foram desenvolvidos modelos que consideram dispositivos FACTS, como o UPFC (Unified Power Flow Controller), e restrições de estabilidade de tensão. Algumas opções de função objetivo, como minimização de perdas, minimização de corte de carga e maximização de carregamento, foram testadas e o desempenho do algoritmo proposto foi avaliado comparando-o ao desempenho de algoritmos de PI já conhecidos.O problema de Fluxo de Potência Ótimo (FPO) vem sendo estudado desde a década de 1960 e vários métodos de resolução são encontrados na literatura. Em particular, os métodos de Pontos-Interiores (PI) vêm tendo um grande destaque devido a sua robustez e eficiência, alcançando convergência com reduzido número de iteraçoes mesmo em problemas com um grande número de variáveis. Apesar do seu bom desempenho computacional no que se refere a número de iterações e tempo de processamento, os métodos de PI não possuem convergência global, que consiste em encontrar uma solução independente da escolha do ponto inicial. Um dos objetivos desta pesquisa é o desenvolvimento de um algoritmo de FPO globalmente convergente, ou seja, capaz de encontrar uma solução sempre que uma existir. Para atingir esse objetivo, o algoritmo proposto associa métodos de Região de Confiança com os eficientes métodos de PI. Algoritmos globalmente convergentes são invariavelmente computacionalmente intensivos, de forma que três abordagens distintas para a resolução dos subproblemas de região de confiança foram estudadas. Quanto à formulação do problema de FPO, foram desenvolvidos modelos que consideram dispositivos FACTS, como o UPFC (Unified Power Flow Controller), e restrições de estabilidade de tensão. Algumas opções de função objetivo, como minimização de perdas, minimização de corte de carga e maximização de carregamento, foram testadas e o desempenho do algoritmo proposto foi avaliado comparando-o ao desempenho de algoritmos de PI já conhecidos.O problema de Fluxo de Potência Ótimo (FPO) vem sendo estudado desde a década de 1960 e vários métodos de resolução são encontrados na literatura. Em particular, os métodos de Pontos-Interiores (PI) vêm tendo um grande destaque devido a sua robustez e eficiência, alcançando convergência com reduzido número de iteraçoes mesmo em problemas com um grande número de variáveis. Apesar do seu bom desempenho computacional no que se refere a número de iterações e tempo de processamento, os métodos de PI não possuem convergência global, que consiste em encontrar uma solução independente da escolha do ponto inicial. Um dos objetivos desta pesquisa é o desenvolvimento de um algoritmo de FPO globalmente convergente, ou seja, capaz de encontrar uma solução sempre que uma existir. Para atingir esse objetivo, o algoritmo proposto associa métodos de Região de Confiança com os eficientes métodos de PI. Algoritmos globalmente convergentes são invariavelmente computacionalmente intensivos, de forma que três abordagens distintas para a resolução dos subproblemas de região de confiança foram estudadas. Quanto à formulação do problema de FPO, foram desenvolvidos modelos que consideram dispositivos FACTS, como o UPFC (Unified Power Flow Controller), e restrições de estabilidade de tensão. Algumas opções de função objetivo, como minimização de perdas, minimização de corte de carga e maximização de carregamento, foram testadas e o desempenho do algoritmo proposto foi avaliado comparando-o ao desempenho de algoritmos de PI já conhecidos
385

ANÁLISE DA ESTABILIDADE DE INDICADORES DE DESEMPENHO EM MODELO DE SIMULAÇÃO DE UMA CADEIA DE SUPRIMENTOS UTILIZANDO APLICATIVO OTIMIZADOR

NASCIMENTO, R. M. 31 August 2016 (has links)
Made available in DSpace on 2018-08-01T23:58:44Z (GMT). No. of bitstreams: 1 tese_10367_Dissertação - ANÁLISE DA ESTABILIDADE DE INDICADORES DE DESEMPENHO EM MODELO DE SIMULAÇÃO DE UMA CADEIA DE SUPRIMENTOS UTILIZANDO APLICATIVO OTIMIZADOR.pdf: 4732366 bytes, checksum: 6b58a0aa7f266ea1a737454a39a41ce5 (MD5) Previous issue date: 2016-08-31 / Frente aos efeitos da sazonalidade do mercado mundial de minerais metálicos, associado ao seu relevante custo logístico e de produção e à variação dos preços de aquisição de insumos para a indústria siderúrgica, empresas produtoras de minério de ferro e de seus derivados se vêem na necessidade de tomada de decisões, muitas vezes em sentido oposto ao do crescimento. Surgem como soluções dessas dificuldades, os desinvestimentos, o corte de custos, a priorização de atividades e a maximização da utilização de ativos, que podem ser implementadas com mudanças nas instalações e nos processos. Nesta pesquisa, foi empregada uma abordagem de otimização em modelo de simulação de cadeia de suprimentos para obter as melhores respostas para suporte na tomada de decisões operacionais e estratégicas. Especificamente, investigaram-se os níveis de trabalho de estoques ao longo da cadeia a partir dos quais se obtém, após alterações nos recursos e nos processos, o máximo de consumo do insumo carvão por ano para a produção de pelotas de minério de ferro pelas usinas de pelotização de uma mineradora. Um modelo de simulação de uma empresa real de mineração, já desenvolvida e validada no software Arena® em estudo anterior capta a natureza complexa do sistema e um otimizador criado no add-in OptQuest® for Arena® realiza a busca de melhores soluções. O simulador também é utilizado para gerar resultados de desempenho da cadeia nas situações ótimas obtidas. A experimentação sugere que alterações das capacidades instaladas, mudanças nas práticas de estocagem e variações nas capacidades dos processos da cadeia impactam, em alguns casos e em maior ou menor grau, no consumo de insumo. Demonstra-se também a sensibilidade dos resultados de desempenho na cadeia de suprimentos em função de mudanças aplicadas. Indicadores de desempenho apresentam a evolução entre os resultados dos casos experimentados.
386

Dimensionamento ótimo de bloco sobre estacas

TOMAZ, A. G. S. 18 October 2016 (has links)
Made available in DSpace on 2018-08-01T23:58:46Z (GMT). No. of bitstreams: 1 tese_10447_Dissertacao_Acley_Gabriel_da_Silva_Tomaz.pdf: 5106085 bytes, checksum: 21d12fc2a30b138ad7d0fd1110cbcf61 (MD5) Previous issue date: 2016-10-18 / O projeto dos elementos de fundação tem um papel fundamental no projeto estrutural completo de uma edificação. A partir de uma sondagem determina-se, em função da capacidade de carga do terreno, o tipo ideal para aquele empreendimento podendo ser uma fundação direta ou uma fundação indireta. O projeto de fundação indireta pode ser feito em tubulão ou blocos sobre estacas. A escolha do tipo é feita em função da carga do projeto estrutural e das características do terreno. O presente trabalho apresentará a formulação para o problema de otimização de blocos sobre estacas com exemplos de aplicação. Como restrições serão impostos os parâmetros definidos pela ABNT NBR 6118:2014 e pelo CEB FIP (1970), espaçamento entre as estacas e resistência à compressão do concreto (fck). Uma plataforma foi desenvolvida no Matlab para a formulação do problema de otimização e sua resolução será obtida pelo Método dos Pontos Interiores. Exemplos numéricos comparativos mostram que quando não existe limitação de geometria, uma solução ótima pode ser obtida reduzindo ou aumentando a quantidade de estacas e mudando a geometria do bloco.
387

Dimensionamento Otimizado de Pilares de Concreto Armado de Acordo Com a NBR 6118:2014

SOUZA, P. M. S. 15 December 2017 (has links)
Made available in DSpace on 2018-08-01T23:58:58Z (GMT). No. of bitstreams: 1 tese_11662_Dissertação.pdf: 4592435 bytes, checksum: 8bb187a2ea729685dde6dd647eb1612f (MD5) Previous issue date: 2017-12-15 / Esta dissertação trata do dimensionamento otimizado de pilares de concreto armado. Apresenta as formulações adotadas para o dimensionamento de seções retangulares, circulares, hexagonais e em U moderadamente esbeltas. Aborda, também, seções retangulares esbeltas em apenas uma das direções. Os cálculos são baseados na norma que define o procedimento para o projeto de estruturas de concreto, NBR 6118:2014. Assim, compreende concretos de resistência característica à compressão entre 20 e 90 MPa. O programa computacional desenvolvido foi implementado na plataforma Matlab, e utiliza o Método dos Pontos Interiores como algoritmo de otimização. Reúne exemplos que atestam a validade do programa computacional desenvolvido, bem como verificam as influências de determinadas características no dimensionamento. O estudo indica que o maior número de parâmetros liberados para a otimização permite uma redução considerável do custo total dos pilares. Palavras Chave: Dimensionamento. Pilares. Otimização. Concreto de alta resistência. Esbeltez.
388

Otimização Operacional de um Sistema de Trigeração para Atender Demandas Variáveis

LOVATI, C. V. 01 October 2015 (has links)
Made available in DSpace on 2018-08-02T00:03:14Z (GMT). No. of bitstreams: 1 tese_9330_Claudio Vill Lovati.pdf: 2829948 bytes, checksum: b192881a620455c211fc1e5eae182534 (MD5) Previous issue date: 2015-10-01 / Este trabalho visa apresentar e discutir os procedimentos e resultados da otimização das estratégias operacionais de um sistema de trigeração de um centro de pesquisa para atender a demanda horosazonal de eletricidade, vapor e água gelada de modo que, minimize o custo de operação da planta. Nos dias atuais cada vez mais os sistemas térmicos estão mais complexos. Com isso, busca-se o melhor aproveitamento, com o objetivo de ter uma melhor produção e minimização dos custos produtivos. O centro de pesquisa em questão é composto de um sistema de cogeração que produz eletricidade e também calor (na forma de vapor e água quente) para acionar dois chillers por absorção (um a vapor e outro a água quente). Este centro ainda conta com outros grupos geradores e chillers complementares. Além destes equipamentos também tem a opção de usar uma demanda elétrica adicional contratada com a concessionária. O principal objetivo da otimização é determinar como operar o sistema de trigeração do centro e quando ou como usar a demanda contratada. Para se chegar a este resultado, todos os dados dos equipamentos e custos da central, e também os dados da demanda do centro, foram levantados e o modelo matemático foi desenvolvido. Nessa visão de otimização existe muitos métodos que podem ser empregados. Neste trabalho é usada a otimização matemática através do método do gradiente reduzido generalizado (GRG), com o auxílio do Solver no Microssoft Excel. Os resultados mostram que o método de otimização é muito eficaz dando resultados favoráveis a sua utilização.
389

COLHEITA SEMIMECANIZADA DE EUCALIPTO EM ÁREAS DECLIVOSAS

BRINATE, I. B. 29 February 2016 (has links)
Made available in DSpace on 2018-08-01T22:35:54Z (GMT). No. of bitstreams: 1 tese_9391_Igor Brinate201620160614-110341.pdf: 1079793 bytes, checksum: 96c2febe3521a7b1f5108ae89b94bd4f (MD5) Previous issue date: 2016-02-29 / BRINATE, Igor Batista. Colheita semimecanizada de Eucalipto em áreas declivosas. 2016.Dissertação (Mestrado em Ciências Florestais) Universidade Federal do Espírito Santo, Jerônimo Monteiro, ES. Orientador: Prof. Dr. Nilton César Fiedler. Coorientadora: Profa. Dra.Mayra Luiza Marques da Silva Binoti. Há no mundo uma demanda crescente por madeira, que leva a uma tendência de aumento das áreas plantadas. A mecanização tem maximizado o rendimentodas atividades florestais, porém nem todas as áreas são passíveis de mecanização. A elevada declividade do terreno torna inviável o tráfego de máquinas nos talhões, fazendo com que os produtores adotem métodos manuais e semimecanizados. Objetivou-se neste estudoanalisar tecnicamente duas técnicas de colheita florestal semimecanizada em áreas declivosas. Especificamente, analisou-se tecnicamente a colheita semimecanizada em áreas declivosas extraído por tombamento manual (técnica tradicional) e por guincho arrastador (técnica do guincho de arraste), em condições de elevada declividade, sem variação no relevo, denominadas condição normal e em áreas com relevo côncavo (grotas), denominadasáreas críticas. Foi realizado estudo de tempos e movimentos, calculado a produtividade, eficiência operacional e a disponibilidade mecânica. O estudo da técnica tradicional foi realizado nas áreas operacionais de colheita florestal pertencente a produtores rurais fomentados de uma empresa florestal, localizadas na região central serrana e sul do estado do Espírito Santo, enquanto o estudo da técnica do guincho de arrastefoi realizado em uma fazenda arrendada pela mesma empresa, na região do Vale do Paraíba no estado de São Paulo. Foram avaliados quatro equipes na técnica tradicional e seis equipes na técnica do guincho de arraste. Os resultados referentes às fases operacionais foram comparados pelo teste t de student ao nível de 5% de probabilidade. De acordo com os resultados do estudo de tempos e movimentos, a atividade de extração é a que mais demanda tempo operacional, e, devido à complexidade das áreas críticas, elas se destacam demandando mais tempo que em condições normais. A produtividade obtida no corte na técnica do guincho de arraste se destaca por ser menos desgastante e mais produtiva com 55,48 m³.HE-1 em condição normal e 49,53 m³.HE-1 em áreas críticas, em comparação aos 10,12 m³.HE-1 e 5,48 m³.HE-1 da técnica tradicional. O tombamento manual em condições normais se destacou apresentando melhor produtividade, com 6,68 m³.HE-1, e a pior produtividade em áreas críticas, com 1,2 m³.HE-1. As produtividades do arraste apresentaram pequena variação de produtividade entre as condições, com 1,98 m³.HE-1 em condição normal e 2,28 m³.HE-1 em áreas críticas. A disponibilidade mecânica apresentou valores inferiores em áreas críticas (84,17%), devido ao maior desgaste dos equipamentos. Conclui-se que em condições normais é mais viável utilizar o corte semimecanizado extraído por tombamento manual (técnica tradicional), porém, em condições de áreas críticas e sem estradas na parte inferior, o corte semimecanizado extraído por guincho (guincho de arraste) é o mais indicado.
390

Produção, purificação e caracterização da lipase de Geotrichum candidum obtida a partir de meios industriais

Maldonado, Rafael Resende, 1981- 08 July 2006 (has links)
Orientador: Maria Isabel Rodrigues / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia de Alimentos / Made available in DSpace on 2018-08-06T19:12:26Z (GMT). No. of bitstreams: 1 Maldonado_RafaelResende_M.pdf: 1875683 bytes, checksum: 3c696cbfa231b172b2aec2339aa46426 (MD5) Previous issue date: 2006 / Mestrado / Mestre em Engenharia de Alimentos

Page generated in 0.0538 seconds