Spelling suggestions: "subject:"algoritmo"" "subject:"lgoritmo""
61 |
Fickett-CUDAlign : comparação paralela de sequências biológicas com estratégia multi-bloco de faixas ajustáveisSilva, Gabriel Heleno Gonçalves da 22 March 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, Programa de Pós-Graducação em Informática, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-05-06T16:17:35Z
No. of bitstreams: 1
2016_GabrielHelenoGonçalvesdaSilva.pdf: 2295730 bytes, checksum: c2d410a25e9d24795e425e4c29970712 (MD5) / Rejected by Raquel Viana(raquelviana@bce.unb.br), reason: A pedido do cliente. on 2016-05-12T17:27:55Z (GMT) / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-05-12T17:33:17Z
No. of bitstreams: 1
2016_GabrielHelenoGonçalvesdaSilva.pdf: 2295730 bytes, checksum: c2d410a25e9d24795e425e4c29970712 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-05-16T17:20:02Z (GMT) No. of bitstreams: 1
2016_GabrielHelenoGonçalvesdaSilva.pdf: 2295730 bytes, checksum: c2d410a25e9d24795e425e4c29970712 (MD5) / Made available in DSpace on 2016-05-16T17:20:02Z (GMT). No. of bitstreams: 1
2016_GabrielHelenoGonçalvesdaSilva.pdf: 2295730 bytes, checksum: c2d410a25e9d24795e425e4c29970712 (MD5) / A comparação de sequências biológicas é uma operação importante na Bioinformática, que é realizada frequentemente. Os algoritmos exatos para comparação de sequências obtêm o resultado ótimo calculando uma ou mais matrizes de programação dinâmica.Estes algoritmos têm complexidade de tempo O(mn), onde m e n são os tamanhos das sequências. Fickettpropôs um algoritmo que é capaz de reduzir a complexidade paraO(kn), onde k é a faixa decomputação e representa a quantidade de diagonais da matrizefetivamente calculadas. Nessa dissertação de mestrado, propomos e avaliamos oFickett-CUDAlign, uma estratégia paralela que divide a comparação de sequências emmúltiplas comparações de subsequências e calcula uma faixa de Fickett apropriada paracada comparação de sequência (bloco). Com estaabordagem, nós reduzimos potencialmenteo número de células calculadas, quando comparada ao Fickett, que usa uma únicafaixa para toda a comparação. Nossa estratégia multi-bloco ajustável foi programada emC/C++ e pthreadse foi integrada ao estágio 4 do CUDAlign, uma ferramenta do estadoda arte para comparações ótimas de sequências biológicas. O Fickett-CUDAlign foi usadopara comparar sequências reais de DNA cujo tamanho variou de 10KBP (Milhares dePares de Base) a 47MBP (Milhões de Pares de Base),alcançando um speedup de 59,60xna comparação 10MBP x 10MBP, quando comparado aoestágio 4 do CUDAlign. Nestecaso, o tempo de execução foi reduzido de 53,56 segundos para 0,90 segundo. ________________________________________________________________________________________________ ABSTRACT / Biological sequence comparison is an important task in Bioinformatics, which is frequently performed. The exact algorithms for sequence comparison obtain the optimal result by calculating one or more dynamic programming matrices. These algorithms have O(mn) time complexity, where m and n are the sizes of the sequences. Fickett proposed an algorithm which is able to reduce time complexity to O(kn), where k is the computation band and represents the amount of matrix diagonals actually calculated. In this MSc Dissertation, we propose and evaluate Fickett-CUDAlign, a parallel strategy that splits a pairwise sequence comparison in multiple comparisons of subsequences and calculates an appropriate Fickett band to each subsequence comparison (block). With this approach, we potentially reduce the number of cells calculated, when compared to Fickett, which uses a unique band to the whole comparison. Our adjustable multi-block strategy was programmed in C/C++ and pthreads and was integrated to the stage 4 of CUDAlign, a state-of-the-art tool for optimal biological sequence comparison. Fickett-CUDAlign was used to compare real DNA sequences whose sizes ranged from 10KBP (Thousands of Base Pairs) to 47MBP (Millions of Base Pairs), reaching a speedup of 59.60x in the 10MBP x 10MBP comparison, when compared to CUDAlign’s stage 4. In this case, the execution time was reduced from 53.56 seconds to 0.90 second.
|
62 |
Abordagem adaptativa de monitoramento para escalonamento de grafos dirigidos acíclicos em ambientes distribuídosSchtoltz, Jorge 21 September 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2007. / Submitted by Luis Felipe Souza (luis_felas@globo.com) on 2009-01-09T13:17:21Z
No. of bitstreams: 1
Dissertacao_2007_JorgeSchtoltz.pdf: 2102171 bytes, checksum: a4bba0ce43d48ec2f9d4854022bc8eb4 (MD5) / Approved for entry into archive by Georgia Fernandes(georgia@bce.unb.br) on 2009-03-04T14:38:24Z (GMT) No. of bitstreams: 1
Dissertacao_2007_JorgeSchtoltz.pdf: 2102171 bytes, checksum: a4bba0ce43d48ec2f9d4854022bc8eb4 (MD5) / Made available in DSpace on 2009-03-04T14:38:24Z (GMT). No. of bitstreams: 1
Dissertacao_2007_JorgeSchtoltz.pdf: 2102171 bytes, checksum: a4bba0ce43d48ec2f9d4854022bc8eb4 (MD5) / O escalonamento estático de um programa, representado por um grafo dirigido acíclico de tarefas, em um ambiente multiprocessado, tem o objetivo de minimizar o tempo de conclusão do programa. Apesar das pesquisas nesta área terem obtido heurísticas eficientes, encontrar um escalonamento ótimo é um problema NP - Completo. Clusters de workstations podem ser utilizados no processamento paralelo de
programas e devido à complexidade de integração entre os programas, o monitoramento e a simulação são efetuados através de ferramentas que gerenciam o cluster e a execução dos programas paralelos. Dentre as ferramentas analisadas, o PM2P, será utilizado como base de estudo devido ao conhecimento da ferramenta. O objetivo deste trabalho é o desenvolvimento
e implementação na ferramenta citada um monitoramento periódico para verificar a disponibilidade das máquinas do cluster e re-escalonar os programas se houver necessidade ou ganho de desempenho. Para testar este monitoramento foram implementados, devido à carência de algoritmos na ferramenta, três algoritmos estáticos voltados para o escalonamento
de tarefas que possam ser representados por um GDA (Grafo Dirigido Acíclico). Estes
algoritmos funcionam de forma similar, gerando uma lista em ordem topológica das tarefas e àquelas pertencentes ao mesmo nível, portanto, concorrentes entre si, são ordenadas pelo maior ou menor tempo de execução. As tarefas são distribuídas de acordo com a disponibilidade das máquinas no cluster e o objetivo do algoritmo de escalonamento é manter o makespan gerado igual ao tempo do caminho crítico do grafo.
Os resultados dos testes, as conclusões sobre o monitoramento e re-escalonamento
serão demonstradas através de tabelas e mapas de Gantt para facilitar a visualização e o entendimento. Foram testados conjuntos de tarefas distintas que representam aplicações
exemplo. Foi observado que aplicações rápidas, que finalizam sua execução concomitante ou logo após o tempo gasto para verificar a disponibilidade das máquinas no cluster, o monitoramento e o reescalonamento não são necessários e neste caso é recomendável o reinício da aplicação. Ao contrário, aplicações que demandam mais tempo para sua execução,
o monitoramento e o re-início de algum programa no caso de indisponibilidade de uma
máquina são importantes, uma vez que a aplicação continua sua execução com a nova
arquitetura de máquinas, a partir do ponto de detecção da falha. Apesar do custo adicional
para execução da atividade, conclui-se que há vantagens em se ter um cluster monitorado
quando da execução dos programas paralelos utilizando a biblioteca MPI.
______________________________________________________________________________________________________ ABSTRACT / Static scheduling of a program represented by a directed acyclic graph task on a multiprocessor environment to minimize the program completion time is the goal. It is a wellknown problem of concurrent processing. Although the researches in this area already have reached heuristic efficient to find an optimal scheduling is a NP-Complete problem. The Cluster of Workstations can be used to the parallel processing of programs
and due to the program interaction complexity, the monitoring and the simulation are made through frameworks that manage the cluster and the parallel program execution. Among the frameworks analyzed, the framework PM2P, will be used as the base study. The objective of this work is the development and implements a periodic monitoring to verify the machines availability at the cluster and rescheduling the programs whether is necessary or to improve the performance. It has been implemented, to test this periodic monitoring due to the framework algorithms lack new three static algorithms toward the scheduling of programs of tasks that could be represented by DAG (Directed Acyclic Graph). These three algorithms working in a similar way, each one create a topological order list of the tasks and they
scheduling the tasks that belongs at the same level of the graph and ordering these tasks by the bigger or smaller execution time criteria. The tasks are sorted and distributed through the cluster machines in accordance with the availability of them. The scheduling goal is getting the graph makespan like the critical path time. The tests results, monitoring conclusions and the scheduling algorithms proposals will be demonstrated with tables and Gantt charts to a best exhibition and comprehension. The tests were over sets of different tasks that representing some real application. It was observed that applications with small execution time finish their at the same time or as soon as the framework check the cluster machines availability. In these cases are not necessary to rescheduling the applications and is recommended restart them. By the other hand, applications with big execution time, the programs monitoring and the restart of some program is important if any machine become unavailability. So, the application continues this execution at the restart point using the other workstations. Nevertheless the additional monitoring overhead, the conclusions show that exist advantages of monitoring the cluster when are executing a parallel programs using the MPI library with a big execution time.
|
63 |
[en] RESTRICTED SEARCH DECODING OF SEVERE FILTERED CONTINUOUS PHASE MODULATION / [pt] DECODIFICAÇÃO COM BUSCA RESTRITA DE CPM COM FILTRAGEM SEVERACARLOS ALBERTO FERREIRA SANTIAGO 09 November 2006 (has links)
[pt] No presente trabalho é examinada a decodificação de
esquemas CPM (Continuous Phase Modulation) filtrados
severamente (filtragem com resposta impulsional infinita)
utilizando-se algoritmo M, um algoritmo de busca limitada.
A estrutura formada pelo modulador CPM seguido do filtro é
tratada como um esquema que realiza modulação codificada
com utilização eficiente de faixa. A caracterização da
modulação através de estados requer um número infinito de
estados.
O esquema é analisado através de simulação de
sistema modulado em tempo discreto com processamento
digital. A utilização de filtro digital permite uma
caracterização de estados simplificada em relação a
trabalhos anteriores.
Uma versão simplificada do algoritmo M é analisada
neste trabalho. Através de simulação realiza-se a análise
do desempenho do sistema assim como do comportamento do
algoritmo M na sua versão simplificada. / [en] Decoding of severely filtered CPM schemes with infinite
impulse response filters using a limited search algorith
(M-Algorithm ) is examined in this thesis. The structure
composed by the CPM modulator followed by the filter is
treated as a bandwidth efficient coded modulation scheme.
The modulation requires a infinite state description.
Analysis of the system is done by computer
simulation. The analysed system is discret time modeled
and uses digital signal processing techniques. This allows
a simplified state description of the modulation scheme.
A simplified version of the M-algorithm is
analysed in the thesis. Analysis of the system performance
as well as the M-algorithm (simplified version) behavior
is done by simulation.
|
64 |
[en] LOSSY LEMPEL-ZIV ALGORITHM AND ITS APPLICATION TO IMAGE COMPRESSION / [pt] ALGORITMO DE LEMPEL-ZIV COM PERDAS E APLICAÇÃO À COMPRESSÃO DE IMAGENSMURILO BRESCIANI DE CARVALHO 17 August 2006 (has links)
[pt] Neste trabalho, um método de compressão de dados com
perdas, baseado no algoritmo de compressão sem perdas de
Lempel-Ziv é proposto. Simulações são usadas para
caracterizar o desempenho do método, chamado LLZ. É também
aplicado à compressão de imagens e os resultados obtidos
são analisados. / [en] In this work, a lossy data compression method, base don
the Lempel-Ziv lossles compression scheme is proposed.
Simulations are used to study the performance of the
method, called LLZ. The lLZ is also used to compress
digital image data and the results obtained is analized.
|
65 |
[en] A UNIVERSAL ENCODEN FOR CONTINUOUS ALPHABET SOURCE COMPRESSION / [pt] UM ALGORITMO UNIVERSAL PARA COMPRESSÃO DE FONTES COM ALFABETO CONTÍNUOMARCELO DE ALCANTARA LEISTER 04 September 2006 (has links)
[pt] A tese de mestrado, aqui resumida, tem a meta de propor
novos algoritmos para a compressão de dados, em especial
imagens, apresentando aplicações e resultados teóricos.
Como o título sugere, estes dados serão originados de
fontes com alfabeto contínuo, podendo ser particularizado
para os casos discretos.
O algoritmo a ser proposto (LLZ para o caso contínuo) é
baseado no codificador universal Lempel-Ziv, apresentando
a característica de admitir a introdução de perdas, mas
que conduza a um maior aproveitamento do poder de
compressão deste algoritmo. Desta forma, o LLZ se mostra
vantajoso em dois pontos: integrar compactador e
quantizador, e ser um quantizador universal. / [en] This dissertation introduces new data compression
algorithms, specially for images, and presents some
applications and theoretical results related to these
algorithms. The data to be compressed will be originated
from sources with continuos alphabet, and can be stated
for discrete sources.
The proposed algorithms (LLZ for continuos case), which is
based on the universal Lempel-Ziv coder (LZ), accepts
losses, taking advantage of LZ s compression power. As
such, the LIZ is an innovating proposal in two ways:
first, it couples compaction and quantization in one step;
and second, it can be seeing as an universal quantizer.
|
66 |
Análise de equilíbrio geral com agentes heterogêneos utilizando o algoritmo de Fair-TaylorSantos, Italo Morais January 2016 (has links)
SANTOS, Italo Morais. Análise de equilíbrio geral com agentes heterogêneos utilizando o algoritmo de Fair-Taylor / Italo Morais Santos. - 2016. 34f. Dissertação (mestrado) - Universidade Federal do Ceará, Programa de Pós Graduação em Economia, CAEN, Fortaleza, 2016. / Submitted by Mônica Correia Aquino (monicacorreiaaquino@gmail.com) on 2016-09-14T20:59:12Z
No. of bitstreams: 1
2016_dis_imsantos.pdf: 1037280 bytes, checksum: 6eb57589447f89d346a1ff96f154b9f8 (MD5) / Approved for entry into archive by Mônica Correia Aquino (monicacorreiaaquino@gmail.com) on 2016-09-14T20:59:31Z (GMT) No. of bitstreams: 1
2016_dis_imsantos.pdf: 1037280 bytes, checksum: 6eb57589447f89d346a1ff96f154b9f8 (MD5) / Made available in DSpace on 2016-09-14T20:59:31Z (GMT). No. of bitstreams: 1
2016_dis_imsantos.pdf: 1037280 bytes, checksum: 6eb57589447f89d346a1ff96f154b9f8 (MD5)
Previous issue date: 2016 / In this dissertation we discuss the Fair-Taylor algorithm, a numerical method for solving
systems of difference equation which is usually used for solving non-linear systems.
Difference equations have several applications in economics and are especially common
in dynamic general equilibrium models. A few simulation exercises were done in order
to demonstrate the functioning of the algorithm. First, we implement iterations of this
algorithm to propose a alternative technique to find the steady state of a simple general
equilibrium model with only two heterogeneous consumers and one representative firm.
After we utilize the Fair-Taylor algorithm to find the solution of a more ample general
equilibrium model, were the consumer’s heterogeneity are added by differences in
productivity, by the fashion they are taxed e how they benefit from income transference
policies. We conclude that under certain conditions, at the absence of market flaws that
stops consumers from borrowing or landing capital freely and at any level, there is a
equalization of consumption levels across households. / Nesta dissertação discutimos o algoritmo de Fair-Taylor, um método numérico de solução
de sistemas de equações em diferença que geralmente é utilizado para solução de sistemas
não-lineares. As equações em diferenças possuem diversas aplicações em economia e são
comuns principalmente nos modelos de equilíbrio geral dinâmico. Foram realizados
alguns exercícios de simulação a titulo de demonstração do funcionamento do algoritmo.
Primeiramente implementamos iterações deste algoritmo para propor uma técnica
alternativa que utilizamos para encontrarmos o estado estacionário de um modelo de
equilíbrio geral simples com apenas dois consumidores heterogêneos e uma firma
representativa. Logo após utilizamos o algoritmo de Fair-Taylor para encontrar solução
de um modelo de equilíbrio geral mais amplo, cuja a heterogeneidade entre os
consumidores é adicionada tanto por diferenças de produtividade, quanto pela forma
como os consumidores são taxados e como eles se beneficiam de políticas de transferência
de renda. Concluímos que sob algumas condições, na ausência de falhas de mercado que
impensam os consumidores de tomar ou emprestar capital livremente e em qualquer nível,
ocorre uma equalização dos níveis de consumo das famílias.
|
67 |
Uma variação do algoritmo de busca harmônica aplicada na determinação das matrizes de ponderação do regulador linear quadrático / A variation of harmony search algorithm applied to determine the weighting matrices of the linear quadratic regulatorNascimento, Luis Bruno Pereira do January 2016 (has links)
Submitted by Programa de Pós-Graduação Engenharia Elétrica e de Computação (secretaria_ppgeec@sobral.ufc.br) on 2016-12-23T13:03:34Z
No. of bitstreams: 1
2016_dis_lbpdonascimento.pdf: 2804155 bytes, checksum: e94b961aa76d92b8a24289772e7158c7 (MD5) / Approved for entry into archive by Ana Márcia Sousa (marciasousa@ufc.br) on 2017-01-05T13:40:22Z (GMT) No. of bitstreams: 1
2016_dis_lbpdonascimento.pdf: 2804155 bytes, checksum: e94b961aa76d92b8a24289772e7158c7 (MD5) / Made available in DSpace on 2017-01-05T13:40:22Z (GMT). No. of bitstreams: 1
2016_dis_lbpdonascimento.pdf: 2804155 bytes, checksum: e94b961aa76d92b8a24289772e7158c7 (MD5)
Previous issue date: 2016 / Funcap / Linear Quadratic Regulator (LQR) is an important modern control technique with excellent properties associated to robust stability, as it can be applied to complex control systems in order to ensure stability against small perturbations. However, the controller design presents some difficulty regarding the definition of weighting matrices Q and R, which are responsible for ensuring the design specifications, although they require a large search space. Thus, the application of a computational intelligence technique is necessary to perform the optimized search for the aforementioned matrices automatically. For this purpose, the Harmony Search (HS) algorithm has been applied to define the matrices for the LQR controller. HS is a metaheuristic algorithm inspired by musical improvisation as a tool to create new harmonies, which has been widely used by scientific community in recent years and can be applied to this problem. However, some parameters must be defined by empirical means to ensure good convergence. Within this context, this work proposes a novel HS Algorithm that ensures the automatic adjustment of parameters. By adopting the CH-47 helicopter and an inverted pendulum system, several tests involving search and simulation have been performed with three HS algorithms i.e. standard HS and the modified methods known as Improved Harmony Search (IHS) and Statistical Dispersion Harmony Search (DHS). The latter one can be seen as the main contribution of this work, which also compares the results obtained from the HS algorithms. It can be stated that all approaches present satisfactory results when analyzing the system response, although the one introduced in this work presents superior performance in terms of convergence if compared with the consolidated techniques. Keywords: Linear Quadratic Regulator. Search and Optmization. Weighing matrices. Harmony Search Algorithm. / O Regulador Linear Quadrático (LQR) é uma importante técnica do controle moderno com excelentes propriedades de estabilidade robusta, podendo ser aplicado em sistemas de controle complexos, garantindo a estabilidade do sistema frente a pequenas perturbações. O projeto deste controlador possui uma dificuldade na definição das matrizes de ponderação Q e R, as quais fazem com que o sistema atenda as especificações do projeto, entretanto, possuem um grande espaço de busca. Dessa maneira, se fez necessário a aplicação de uma técnica de Inteligência Computacional para realizar, de maneira automática, a busca otimizada dessas matrizes. Visando tal intento, o Algoritmo de Harmônica (HS) foi aplicado na definição das matrizes para o projeto LQR. O HS é uma meta-heurística inspirada na improvisação de músicos na composição de novas harmonias e que tem sido bastante utilizada pela comunidade científica nos últimos anos, inclusive aplicado nesse problema, todavia, ela possui parâmetros que necessitam ser definidos por meios empíricos para garantir uma boa convergência. Dessa forma, é proposto neste trabalho um novo algoritmo de Busca Harmônica que garanta um ajuste automático para seus parâmetros. Através das plantas de um Helicóptero CH-47 e de um Pêndulo Invertido, foram, portanto, realizadas séries de buscas e simulações com três vertentes do HS: o HS padrão, a variação Improved Harmony Search (IHS) e a Busca Harmônica com Dispersão Estatística (DHS), a inovação proposta neste trabalho, e, por conseguinte, foram comparados os resultados obtidos. Os três algoritmos apresentaram resultados satisfatórios quando analisado a resposta transitória dos sistemas, mas em questões de performance e poder de convergência, a metodologia proposta se sobressaiu em relação às técnicas já consolidadas.
|
68 |
O problema do caixeiro viajante, teoria e aplicações / The traveling salespersor problem theory and applicationsConte, Nelson January 2002 (has links)
O objetivo principal deste trabalho é apresentar uma. descrição detalhada sobre as diversas abordagens do Problema do Caixeiro Viajante, a complexidade na sua resolução e as aplicações nas diversas áreas do conhecimento. O Problema do Caixeiro Viajante é um dos mais conhecidos e estudados problemas da Teoria dos Grafos e sua importância é tanta teórica quanto prática. O resultado teórico mais importante que apresentamos neste trabalho é a prova de que o PCV é -P-Completo, usando (e provando) o Teorema de Cook, como ponto de partida e a Máquina de Turing como o modelo computacional para as provas da complexidade dos problemas envolvidos. O PCV é equivalente ao problema de encontrar um circuito Hamiltoniano de peso mínimo em um grafo ponderado. Uma das questões principais envolvidas neste problema, e na verdade uma das principais indagações da Ciência da Comput ação, é saber se existe um algoritmo eficiente de tempo polinomial para calcular tal circuito, ou se tal algoritmo não existe, caracterizando-o, assim, como um problema impossível de ser resolvido. Quando não se pode encontrar uma solução eficiente para um dado problema e também não pode ser demonstrado que tal solução existe, deve-se usar técnicas que permitam construir um algoritmo que forneça soluções aproximadas. Neste trabalho, apresentamos um algoritmo de tempo polinomial que nos fornece soluções aproximadas para o PCV. / The main objective of this work is to present a detailed description on the various approaches to the Traveling Salesperson Problem (TSP), the complexity of its solution and its applications to the various knowledge area.s. The Traveling Salesperson Problem is one of the most known and studied problems in graph theory and its importance is theoretical as well as practical. The theory result more important who we will introduce in this work is the proof of the TSP is NP-complete, using (and proving) of Cook's Theorem like point of departure and the Turing Machine like the model computational for the tests of complexity of problems involved. The TSP is equivalent to the problem of finding a Hamiltonian circuit of minimal weight in a weighted graph. One of the main questions involved in this problem, and actually one of the main questions of the whole Computing Science, is to know if there exists an polynomial-time efficient algorithm to compute such a circuit, or if such an algorithm can not exist, then characterizing it as an impossible problem. When one can not find an efficient solution for a given problem and also can not show that such a solution exists, we must use techniques that aid us to construct an algorithm providing approximate solutions. In this work, we will present a polynomial-time algorithm that gives approximate solutions for the solution of the Traveling Salesperson Problem.
|
69 |
Um Estudo Sobre Aplicação do Algoritmo de Euclides.SILVA, Alecio Soares. 09 November 2018 (has links)
Submitted by Emanuel Varela Cardoso (emanuel.varela@ufcg.edu.br) on 2018-11-09T17:51:39Z
No. of bitstreams: 1
ALECIO SOARES SILVA – DISSERTAÇÃO (PPGMat) 2014.pdf: 873139 bytes, checksum: 9a35db2563d66eb36f4dabfe6e5cd45e (MD5) / Made available in DSpace on 2018-11-09T17:51:39Z (GMT). No. of bitstreams: 1
ALECIO SOARES SILVA – DISSERTAÇÃO (PPGMat) 2014.pdf: 873139 bytes, checksum: 9a35db2563d66eb36f4dabfe6e5cd45e (MD5)
Previous issue date: 2014-08 / Capes / Neste trabalho consideramos o uso de algoritmo de Euclides com o intuito de aplicá-lo de
uma forma interdisciplinar. Para atingir este objetivo construimos o conjunto dos números
naturais, com base nos quatro axiomas de Peano e o conjunto dos inteiros por uma relação de equivalência específica. Além disto, fizemos um estudo de algumas propriedades aritméticas dos números inteiros, bem como do magnífico algoritmo de Euclides. Em seguida utilizamos este algoritmo como uma ferramenta para calcular o maximo divisor comum (MDC) de números inteiros e a partir do MDC estudamos a resolução de equações lineares diofantinas, as quais foram empregadas para fazer o balanceamento de Reações Quimicas. / In this work we consider the use of the Euclid’s algorithm in order to apply it in an interdisciplinary way. To achieve this we constructed the set of the natural numbers based on the four Peano axioms and the set of integers by a specific equivalence relation. Moreover, we have studied some arithmetic properties of integers, as well as the magnificent Euclidean algorithm. We then use this algorithm as a tool to calculate the Greatest Common Divisor (GCD) of integers and from this study the resolution of Diophantine linear equations, which were employed to do the balance of Chemical Reactions.
|
70 |
Dimensionamento econômico de redes de distribuição de água aplicando algoritmo genético / Least cost design of water distribution network using genetic algorithmsMota, Henrique Jorge Souza da 29 September 2007 (has links)
MOTA, H. J. S. Dimensionamento econômico de redes de distribuição de água aplicando algoritmo genético. 2007. 267 f. Dissertação (Mestrado em Engenharia Civil: Recursos Hídricos) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2007. / Submitted by João silva (jpauloqxb@gmail.com) on 2016-05-11T18:44:09Z
No. of bitstreams: 1
2007_dis_hjsmota.pdf: 5063429 bytes, checksum: 1374abe63f42b05a34faa0e0f82a0a61 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2016-05-13T14:01:16Z (GMT) No. of bitstreams: 1
2007_dis_hjsmota.pdf: 5063429 bytes, checksum: 1374abe63f42b05a34faa0e0f82a0a61 (MD5) / Made available in DSpace on 2016-05-13T14:01:16Z (GMT). No. of bitstreams: 1
2007_dis_hjsmota.pdf: 5063429 bytes, checksum: 1374abe63f42b05a34faa0e0f82a0a61 (MD5)
Previous issue date: 2007-09-29 / A computer model for least-cost design of water distribution network was developed in two modules: hydraulic simulation by EPANET-2 and multi-objective optimization through Genetic algorithm GA. Sensitivity analyses were done trying individually each parameter getting values that improve the algorithm performance in convergence, quality of solutions and computer effort. Using these parameters values, were done longer simulations to find the best solution to the first objective function that approaches the section pipes efficiency. Its result is compared to the nonlinear programming one, got for the same water network, presenting a more efficient network hydraulically and so cheaper than the last. It was implemented the second objective function, now approaching the total least-cost, of network construction plus pumping costs, comparing to the first objective function results. The second objective function utilization is much more advantageous. Although it is not assured the best solution found is the global optimum, the GA method for least-cost design of water network performs perfectly feasible face conventional optimization techniques, and the hybridization of such methods must provide convergence velocity and accurate results. / Desenvolveu-se um modelo computacional para o dimensionamento econômico de redes de distribuição de água, sendo concebido em dois módulos: de simulação hidráulica EPANET2 e de otimização multiobjetivo através do Algoritmo Genético-AG. São realizadas simulações de análises de sensibilidade variando individualmente cada parâmetro para encontrar seus valores que fazem o desempenho do algoritmo melhorar em termos de convergência, qualidade final das soluções e esforço computacional. Realizada a calibração dos parâmetros são processadas simulações mais longas em busca da melhor solução para a primeira função objetivo com enfoque na eficiência das seções da tubulação. Seu resultado é comparado ao obtido para a mesma rede através da Programação Não Linear-PNL, apresentando uma rede mais eficiente hidraulicamente e conseqüentemente mais econômica do que esta última. Implementa-se uma segunda função objetivo, desta vez minimizando o custo total, de implantação mais o de bombeamento, e compara-se com o resultado obtido com a primeira função objetivo. Mostrando-se muito mais vantajoso a utilização da segunda função objetivo. Apesar de não se poder garantir que a melhor solução encontrada é a ótima global, a utilização do AG no dimensionamento econômico de sistemas de distribuição de água mostrou-se de plena viabilidade frente a técnicas convencionais de otimização, devendo a hibridização destas técnicas propiciar aumento na velocidade de convergência e refino de resultados.
|
Page generated in 1.9078 seconds