• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 3
  • Tagged with
  • 33
  • 33
  • 27
  • 26
  • 14
  • 13
  • 12
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Desenvolvimento de um algoritmo computacional para verificação de seções de concreto armado submetidas à flexão composta oblíqua em situação de incêndio / Development of a computation algorithm for verification of sections of reinforced concrete subjected to oblique composite flexion in fire

Padre, Elder Pita Garcia 31 August 2017 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2017-11-07T11:07:47Z No. of bitstreams: 1 texto completo.pdf: 3794049 bytes, checksum: 5081b5c3f39e11625b7d228d0098d36b (MD5) / Made available in DSpace on 2017-11-07T11:07:47Z (GMT). No. of bitstreams: 1 texto completo.pdf: 3794049 bytes, checksum: 5081b5c3f39e11625b7d228d0098d36b (MD5) Previous issue date: 2017-08-31 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A estrutura de concreto armado, em elevadas temperaturas, pode ter sua capacidade resistente reduzida devido à degradação de suas propriedades mecânicas: o módulo de elasticidade, a resistência à tração e à compressão e as relações tensão-deformação. Com a redução da resistência e da rigidez, há uma grande probabilidade de ocorrer uma ruptura localizada ou até mesmo um colapso progressivo da estrutura. Por esse motivo, para evitar perdas de materiais e principalmente de vidas, exige-se que, durante o dimensionamento de uma edificação, além de se considerar a estrutura em temperatura ambiente, seja feita a verificação da mesma em situação de incêndio de acordo com o Tempo Requerido de Resistência ao Fogo (TRRF) indicado pela ABNT NBR 14432:2001. Neste trabalho apresenta-se a implementação de um algoritmo computacional capaz de verificar a resistência de um pilar com seção qualquer de concreto armado quando submetido à flexão composta oblíqua em situação de incêndio. Para isso, foi implementado um algoritmo integrador de tensões em situação de incêndio com o gerador de malhas EasyMesh e com o algoritmo de análise térmica do Thersys. O programa desenvolvido, denominado Pisafo, foi validado por apresentar resultados satisfatórios quando comparados com os apresentados na literatura técnica, obtidos em experimentos, e com softwares consagrados. / The reinforced concrete structure, at high temperatures, may have its strength reduced due to the reduction of its mechanical properties: the modulus of elasticity, the tensile and compressive strength and the stress-strain relationships. With the reduction of strength and stiffness, there is a high probability of localized rupture or even progressive collapse of the structure. For this reason, to avoid material and mainly lives losses, is required that, during the design of a building, in addition to considering the structure at ambient temperature, it is verified in a fire situation according to the Required Fire Resistance Time (TRRF in Portuguese) indicated by ABNT NBR 14432: 2001. This work presents an implementation of a computational algorithm capable to verify the resistance of a column with any section of reinforced concrete when submitted to compound flexure in a fire situation. For this, an algorithm of stress integrator in fire situation was implemented with mesh generator EasyMesh and the thermal analysis algorithm of Thersys. The developed program, denominated Pisafo, was validated by presenting satisfactory results when compared to those presented in the technical literature, obtained in experiments, and with established programs.
2

Abordagens heurísticas para tratar o problema do Caixeiro Viajante Preto e Branco / Heuristics approaches for the Black and White Traveling Salesman problem

Cazetta, Paôla Pinto 08 December 2015 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-04-26T17:01:30Z No. of bitstreams: 1 texto completo.pdf: 6402016 bytes, checksum: 2ad43c5bb42a77cb19379857a960b47d (MD5) / Made available in DSpace on 2016-04-26T17:01:30Z (GMT). No. of bitstreams: 1 texto completo.pdf: 6402016 bytes, checksum: 2ad43c5bb42a77cb19379857a960b47d (MD5) Previous issue date: 2015-12-08 / Fundação de Amparo à Pesquisa do Estado de Minas Gerais / O Problema do Caixeiro Viajante Preto e Branco (PCV-PB) é uma generalização do Problema do Caixeiro Viajante (PCV), definido sobre um grafo onde os vértices são classificados como pretos ou brancos. Assim como o clássico PCV, o objetivo do PCV-PB é encontrar um ciclo hamiltoniano de custo mínimo, entretanto, duas restrições adicionais são consideradas. Enquanto que a restrição de cardinalidade restringe o número de vértices brancos entre dois vértices pretos consecutivos, a restrição de comprimento restringe a distância máxima entre os mesmos. Apli- cações do PCV-PB podem ser observadas no escalonamento de aeronaves e em configurações de redes de telecomunicações. A proposta deste estudo é analisar diferentes estratégias heurísticas aplicadas para o PCV-PB. Heurísticas construtivas da literatura foram aperfeiçoadas e uma nova estratégia para a construção da solução foi apresentada. Neste contexto foi utilizado métodos como Lin kernighan e Inserção Específica de Brancos. Além disso, foram propostas abordagens heurísticas baseadas nas metaheurísticas GRASP, VND, ILS e SA. Diversos experimentos computacionais foram realizados para comparar a eficácia das abordagens. Os resultados garantem a aplicabilidade dos algoritmos propostos para o problema. / The Black and White Traveling Salesman Problem (TSP-BW) is a generalization of the Travelling Salesman Problem (TSP), set on a graph where the vertices are classified as black or white. As in the classical PCV, a solution of the TSP-BW is a Hamiltonian cycle of minimal cost. However, two additional constraints are considered. While the cardinality constraint limits the number of white vertices between two consecutive black vertices, the length constraint restricts the maximum distance therebetween. Applications of TSP-BW can be observed in aircraft scheduling and telecommunications network settings. The purpose of this study is to analyze different heuristic strategies applied to TSP-BW. Literature constructive heuristics have been improved and a new strategy for building the solution was presented. In this context it used methods such as Lin Kernighan and Inserção Específica de Brancos. Also, it has been proposed heuristic approaches based on metaheuristics GRASP, VND, ILS and SA. Several computational experiments were performed to compare effectiveness of approa- ches. The results ensure the applicability of the proposed algorithms to the problem.
3

Complexidade e algoritmos de jogos de blocos / Complexity and blocks games algorithms

Ramos, André Castro January 2014 (has links)
RAMOS, André Castro Ramos. Complexidade e algoritmos de jogos de blocos. 2014. 52 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2014. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-08T18:23:46Z No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-13T12:37:09Z (GMT) No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Made available in DSpace on 2016-07-13T12:37:09Z (GMT). No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) Previous issue date: 2014 / The electronic game concept refers to reserved entertainment to spare time , but in addition to a billion dollar industry , is also potential source of several research topics , both directed to their respective areas of interest as own gaming industry . In this context, in recent decades, work has been done to deal with this type of product based on for problems to be addressed by the theory of algorithms. In this work we bring complexity results and algorithms related to three games with common characteristics , Bloxorz , On The Edge and Bobbin 3D. / A noção de jogo eletrônico remete a entretenimento reservado às horas vagas, mas, além de uma indústria bilionária, também é origem potencial de diversos temas de pesquisa, tanto voltados a suas respectivas áreas quanto de interesse da própria indústria de jogos. Nesse contexto, nas últimas décadas, foram produzidos trabalhos que lidam com esse tipo de produto como base para problemas a serem tratados pela teoria dos algoritmos. Neste trabalho trazemos resultados de complexidade e algoritmos relacionados a 3 jogos com características em comum, Bloxorz, On The Edge e Bobbin 3D.
4

Um algoritmos distribuído para escalonamento de sensores em RSSF / A distributed algorithms for scheduling sensors in RSSF

Matos, Daniel Ribeiro January 2013 (has links)
MATOS, D. R. Um algoritmos distribuído para escalonamento de sensores em RSSF. 2013. 59 f. Dissertação (Mestrado em Ciência da Computação) - Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2013. / Submitted by Daniel Eduardo Alencar da Silva (dealencar.silva@gmail.com) on 2015-01-23T18:29:56Z No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) / Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-09-23T16:27:30Z (GMT) No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) / Made available in DSpace on 2015-09-23T16:27:30Z (GMT). No. of bitstreams: 1 2013_dis_drmatos.pdf: 2537544 bytes, checksum: 870eae75ce068b1ef961e23307dda2a9 (MD5) Previous issue date: 2013 / Wireless Sensor Networks (WSNs) are used in a lot of applications: from smart homes to military enviromnets. In general, WSNs has severe energy restrictions - a sensor usualy has a limited batery and it’s not replaceable. Distributing the sensor in a random mander can lead to a redundancy of some areas and this is desirable to support fail of some sensors. In this work, we propose an distributed algorithm to schedule active sensors to reduce the redundancy of data obtainned by the network and prolong the network lifetime. / Redes de Sensores Sem Fio (RSSF) são utilizadas em diversos tipos de aplicações: desde casas inteligentes a aplicações militares. RSSF possuem, em geral, severas restrições energéticas - um sensor geralmente possui uma quantidade limitada de bateria e este não é substituível. Os sensores podem possuir uma certa redundância de uma área sensoreada, uma vez que, quando os sensores são distribuídos de forma aleatória, alguns sensores acabam ficando muito próximos, ou mesmo quando são depositados de maneira determinística, uma certa redundância é necessária para prever a falha de alguns destes sensores. Neste trabalho, propomos um algoritmo distribuído que faz um escalonamento de sensores ativos, de forma a reduzir a redundância dos dados coletados e aumentar o tempo de vida da rede de sensores.
5

Complexidade e algoritmos de jogos de blocos / Complexity and blocks games algorithms

Ramos, André Castro January 2014 (has links)
RAMOS, André Castro. Complexidade e algoritmos de jogos de blocos. 2014. 51 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2014. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-05-27T20:03:26Z No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-05-27T20:03:57Z (GMT) No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) / Made available in DSpace on 2016-05-27T20:03:57Z (GMT). No. of bitstreams: 1 2014_dis_acramos.pdf: 3052850 bytes, checksum: 1e69aab4f7c65fe5b1dee291b5fa129d (MD5) Previous issue date: 2014 / The electronic game concept refers to reserved entertainment to spare time , but in addition to a billion dollar industry , is also potential source of several research topics , both directed to their respective areas of interest as own gaming industry . In this context, in recent decades, work has been done to deal with this type of product based on for problems to be addressed by the theory of algorithms. In this work we bring complexity results and algorithms related to three games with common characteristics , Bloxorz , On The Edge and Bobbin 3D. / A noção de jogo eletrônico remete a entretenimento reservado às horas vagas, mas, além de uma indústria bilionária, também é origem potencial de diversos temas de pesquisa, tanto voltados a suas respectivas áreas quanto de interesse da própria indústria de jogos. Nesse contexto, nas últimas décadas, foram produzidos trabalhos que lidam com esse tipo de produto como base para problemas a serem tratados pela teoria dos algoritmos. Neste trabalho trazemos resultados de complexidade e algoritmos relacionados a 3 jogos com características em comum, Bloxorz, On The Edge e Bobbin 3D.
6

Um algoritmo de diagnóstico distribuído para redes particionáveis de topologia arbitrária

Weber, Andrea 2010 October 1914 (has links)
Este trabalho apresenta um novo algoritmo de diagnóstico distribuído em nível de sistema, Distributed Network Reachability (DNR). O algoritmo permite que cada nodo de uma rede particionável de topologia arbitrária determine quais porções da rede estão alcançáveis e inalcançáveis. DNR é o primeiro algoritmo de diagnóstico distribuído que permite a ocorrência de eventos dinâmicos de falha e recuperação de nodos e enlaces, inclusive com partições e healings da rede. O estado diagnosticado de um nodo é ou sem-falha ou inatingível; o estado diagnosticado de um enlace é ou sem-falha ou não-respondendo ou inatingível. O algoritmo consiste de três fases: teste, disseminação e cálculo de alcançabilidade. Durante a fase de testes cada enlace é testado por um de seus nodos adjacentes em intervalos de teste alternados. Após a detecção de um novo evento, o testador inicia a fase de disseminação, na qual a nova informação de diagnóstico é transmitida para os nodos alcançáveis. A cada vez que um novo evento é detectado ou informado, a terceira fase é executada, na qual um algoritmo de conectividade em grafos é empregado para calcular a alcançabilidade da rede. O algoritmo DNR utiliza o número mínimo de testes por enlace por rodada de testes e tem a menor latência possível de diagnóstico, assegurada pela disseminação paralela de eventos. A correção do algoritmo é provada formalmente. Uma prova de correção no arcabouço bounded correctness também foi elaborada, incluindo latência delimitada de diagnóstico, latência delimitada de inicialização e acuidade. Um simulador do algoritmo foi implementado. Experimentos foram executados em diversas topologias incluindo grafos aleatórios (k-vertex connected e Power-Law) bem como grafos regulares (meshes e hipercubos). Extensivos resultados de simulação de eventos dinâmicos de falha e recuperação em nodos e enlaces são apresentados. / This thesis introduces the new Distributed Network Reachability (DNR) algorithm, a distributed system-level diagnosis algorithm that allows every node of a partitionable general topology network to determine which portions of the network are reachable and unreachable. DNR is the first distributed diagnosis algorithm that works in the presence of network partitions and healings caused by dynamic fault and repair events. A node is diagnosed as either working or unreachable and a link is diagnosed either as working or unresponsive or unreachable. The algorithm is formally specified and consists of three phases: test, dissemination, and reachability computation. During the testing phase each link is tested by one of the adjacent nodes at alternating testing intervals. Upon the detection of a new event, the tester starts the dissemination phase, in which the new diagnostic information is received by every reachable node in the network. New events can occur before the dissemination completes. After a new event is detected or informed, a working node runs the third phase, in which a graph connectivity algorithm is employed to compute the network reachability. The algorithm employs the optimal number of tests per link per testing interval and the best possible diagnosis latency, assured by the parallel dissemination of event information. The correctness of the algorithm is proved, including the bounded diagnostic latency, bounded start-up and accuracy. Experimental results obtained from simulation are presented. Simulated topologies include random graphs (k-vertex connected and Power-Law) as well as regular graphs (meshes and hypercubes). Extensive simulation results of dynamic fault and repair events on nodes and links are presented.
7

Um algoritmo de diagnóstico distribuído para redes particionáveis de topologia arbitrária

Weber, Andrea 2010 October 1914 (has links)
Este trabalho apresenta um novo algoritmo de diagnóstico distribuído em nível de sistema, Distributed Network Reachability (DNR). O algoritmo permite que cada nodo de uma rede particionável de topologia arbitrária determine quais porções da rede estão alcançáveis e inalcançáveis. DNR é o primeiro algoritmo de diagnóstico distribuído que permite a ocorrência de eventos dinâmicos de falha e recuperação de nodos e enlaces, inclusive com partições e healings da rede. O estado diagnosticado de um nodo é ou sem-falha ou inatingível; o estado diagnosticado de um enlace é ou sem-falha ou não-respondendo ou inatingível. O algoritmo consiste de três fases: teste, disseminação e cálculo de alcançabilidade. Durante a fase de testes cada enlace é testado por um de seus nodos adjacentes em intervalos de teste alternados. Após a detecção de um novo evento, o testador inicia a fase de disseminação, na qual a nova informação de diagnóstico é transmitida para os nodos alcançáveis. A cada vez que um novo evento é detectado ou informado, a terceira fase é executada, na qual um algoritmo de conectividade em grafos é empregado para calcular a alcançabilidade da rede. O algoritmo DNR utiliza o número mínimo de testes por enlace por rodada de testes e tem a menor latência possível de diagnóstico, assegurada pela disseminação paralela de eventos. A correção do algoritmo é provada formalmente. Uma prova de correção no arcabouço bounded correctness também foi elaborada, incluindo latência delimitada de diagnóstico, latência delimitada de inicialização e acuidade. Um simulador do algoritmo foi implementado. Experimentos foram executados em diversas topologias incluindo grafos aleatórios (k-vertex connected e Power-Law) bem como grafos regulares (meshes e hipercubos). Extensivos resultados de simulação de eventos dinâmicos de falha e recuperação em nodos e enlaces são apresentados. / This thesis introduces the new Distributed Network Reachability (DNR) algorithm, a distributed system-level diagnosis algorithm that allows every node of a partitionable general topology network to determine which portions of the network are reachable and unreachable. DNR is the first distributed diagnosis algorithm that works in the presence of network partitions and healings caused by dynamic fault and repair events. A node is diagnosed as either working or unreachable and a link is diagnosed either as working or unresponsive or unreachable. The algorithm is formally specified and consists of three phases: test, dissemination, and reachability computation. During the testing phase each link is tested by one of the adjacent nodes at alternating testing intervals. Upon the detection of a new event, the tester starts the dissemination phase, in which the new diagnostic information is received by every reachable node in the network. New events can occur before the dissemination completes. After a new event is detected or informed, a working node runs the third phase, in which a graph connectivity algorithm is employed to compute the network reachability. The algorithm employs the optimal number of tests per link per testing interval and the best possible diagnosis latency, assured by the parallel dissemination of event information. The correctness of the algorithm is proved, including the bounded diagnostic latency, bounded start-up and accuracy. Experimental results obtained from simulation are presented. Simulated topologies include random graphs (k-vertex connected and Power-Law) as well as regular graphs (meshes and hypercubes). Extensive simulation results of dynamic fault and repair events on nodes and links are presented.
8

Propagação de epidemias em redes danificadas / Epidemic spreading on damaged networks

Costa, Guilherme Henrique da Silva 22 February 2018 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2018-09-13T17:11:28Z No. of bitstreams: 1 texto completo.pdf: 2362432 bytes, checksum: b178db47eb7f33a8f9592f074db75e42 (MD5) / Made available in DSpace on 2018-09-13T17:11:28Z (GMT). No. of bitstreams: 1 texto completo.pdf: 2362432 bytes, checksum: b178db47eb7f33a8f9592f074db75e42 (MD5) Previous issue date: 2018-02-22 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A sociedade moderna é altamente dependente de estruturas funcionais em rede, como redes de comunicação ou de transporte. Assim, o estudo de ataques em redes e o entendi- mento de sua robustez/fragilidade são fundamentais na procura de redes mais eficientes. Muitos estudos envolvendo ataques em redes subestimam a importância de processos di- nâmicos evoluindo nessas redes atacadas para prevenir danos futuros. A maioria dos estudos em redes atacadas foca na caracterização da estrutura das componentes não da- nificadas da rede. No entanto, muito menos atenção tem sido dedicada para analisar a influência desses ataques na propagação de epidemias ou informação. Nesse traba- lho, investigamos a propagação de epidemias nos modelos suscetível-infectado-suscetível e suscetível-infectado-recuperado em redes após os ataques com diferentes estratégias, enfa- tizando o estudo dos limiares epidêmicos dos modelos. Nós estudamos duas intensidades de ataques: um brando no qual a componente gigante da rede possui tamanho comparável a rede original e outro mais destrutivo mas ainda apresentando uma componente gigante grande. Ataques aleatórios, que não modificam a distribuição de grau de redes sem es- cala, não alteram o comportamento do limiar epidêmico em relação às redes intactas e continua indo para zero com o aumento do tamanho da rede. Investigamos outras duas estratégias de ataque de contatos: uma em que um primeiro vizinho de um vértice esco- lhido ao acaso é removido com probabilidade 1 e outra em que se remove o vizinho com uma probabilidade que protege os vértices de graus mais elevados de serem removidos. Observamos que a dependência do limiar epidêmico com o tamanho da rede se altera dra- maticamente, saturando em um valor constante no limite de redes grandes, ou diminuindo mais lentamente do que uma lei de potência ou até mesmo aumentando com o tamanho da rede em alguns casos, a depender da estratégia e da intensidade do ataque. Também concluímos que ambos ataques são mais efetivos quando aumentada a heterogeneidade da rede. Mostramos que mesmo os ataques de contato abaixo do limiar de percolação, que não fragmentam a rede, são capazes de tornar a rede inoperante para a propagação da epidemia no modelo SIS. Além disso, comparamos os resultados das simulações com a teoria de campo médio heterogêneo, conhecida como HMF (do inglês heterogeneous mean field), que leva em conta apenas o grau do vértice, e a teoria de campo médio que leva em conta toda a estrutura da rede por meio da matriz de adjacência, conhecida como QMF (do inglês quenched mean field) e observamos que a primeira captura as mudanças no limiar epidêmico com maior precisão do que a segunda. / The modern society is highly dependent of functioning networked structures such as com- munication and transportation networks. Thus, the study of attacks in networks and the understanding of their robustnesses/fragilities are imperative for the search of more efficient networks. Many studies involving network attacks underestimate the importance of dynamic processes evolving on these attacked networks to prevent further damage. Most of the studies on network attack is held on the characterization of the structure of the undamaged components of the networks. However, much less attention has been devoted to the influence of these attacks on the epidemic and information spreading. In this work, we investigate the epidemic spreading of susceptible-infected-susceptible and susceptible-infected-recovered models on networks after the attack according diffe- rent strategies aiming at the study of the epidemic thresholds. We investigate two attack intensities: a mild one with a giant component with size comparable to the original and other more destructive but still presenting a large giant component. Random attacks, which don’t alter the degree distribution on scale free networks, don’t change the epide- mic threshold behavior in relation to the undamaged network that goes to zero as the network size increases. We investigate other two acquaitance attack strategies: one where a nearest neighbor of a randomly chosen vertex is deleted with probability 1 and other that remove the neighbor with a probability that protect the vertices of higher degree from being deleted. We observe that the threshold scaling changes dramatically, reaching a constant value for the limit of large networks, or decreasing slower than a power law, or even increasing with the size of the network, depending on the model and intensity of the attacks. We also conclude that both attacks are more effective as the heterogeneity of the networks increases. We show that even acquaitance attacks below the percolation threshold, which are not sufficient to fragment the network, are able to make the network ineffective for the epidemic spreading in the SIS model. Furthermore, we compare the results from the simulations with the heterogeneous mean field (HMF) theory, which con- siders that the vertex degree is the only relevant quantity and the quenched mean field (QMF) theory, which include the whole structure of network through the adjacency ma- trix. We observed that the HMF theory captures the changes in the epidemic threshold more accurately than the QMF theory.
9

Uma nova abordagem baseada em algoritmos evolutivos multiobjetivo aplicado ao problema do caixeiro viajante biobjetivo / A new approach based on a multiobjective evolutionary algorithm applied to the biobjective traveling salesman problem

Moraes, Deyvid Heric de 02 August 2017 (has links)
Neste trabalho é apresentada uma nova abordagem de algoritmo evolutivo multiobjetivo, denominado MOEA/NSM (do inglês, Multiobjective Evolutionary Algorithm integrating NSGA-II, SPEA2 and MOEA/D features). O algoritmo preserva em geral, características de um algoritmo evolutivo, concentrando qualidades de outras abordagens de sucesso na literatura em uma única abordagem, para que elas trabalhem em conjunto, por meio de subpopulações. O objetivo do estudo foi combinar as principais características dos algoritmos NSGA-II, SPEA2 e MOEA/D, e incluir ainda uma técnica de busca local para melhorar a busca no espaço de objetivos. O algoritmo MOEA/NSM foi comparado às demais abordagens clássicas utilizando 9 datasets para o problema do caixeiro viajante biobjetivo. Além disso, foram realizados experimentos aplicando também a busca local nas abordagens clássicas, resultando em considerável melhora nos resultados para esses algoritmos. A partir das fronteiras de Pareto resultantes dos experimentos, foram aplicadas as métricas de avaliação por Hipervolume, Epsilon (ε), R2, EAF, além do teste de hipótese estatístico Shapiro-Wilk. Os resultados apontaram um melhor desempenho do MOEA/NSM em relação aos demais, mesmo aplicando a busca local nas outras abordagens. Nesse sentido, o MOEA/NSM pode ser considerado um algoritmo que consegue encontrar soluções não denominadas de qualidade, tanto quanto os algoritmos clássicos da literatura. / This work presents a new approach to the multiobjective evolutionary algorithm, called MOEA/NSM (Multiobjective Evolutionary Algorithm integrating NSGA-II, SPEA2 and MOEA/D features). The algorithm preserves, in general, the characteristics of an evolutionary algorithm, concentrating qualities of other approaches of success in the literature in a single approach, so that they work together, through subpopulations. The objective of the study was to combine the main characteristics of the NSGA-II, SPEA2 and MOEA/D algorithms, and also to include a local search technique to improve the objective space search. The MOEA/NSM algorithm was compared to the other classical approaches using 9 datasets for the biobjective traveling salesman problem. In addition, experiments were carried out also applying the local search in the classical approaches, resulting in a considerable improvement in the results for these algorithms. From the Pareto frontiers resulting from experiments, we applied the evaluation metrics by Hypervolume, Epsilon (ε), R2, EAF, in addition to the Shapiro-Wilk statistical hypothesis test. The results showed a better performance of the MOEA/NSM in relation to the others, even applying the local search in the others approaches. In this sense, the MOEA/NSM can be considered an algorithm that is able to find solutions not dominated of quality, as much as the classic algorithms of the literature.
10

Meta-heurísticas aplicadas ao problema de projeção do preço de ações na bolsa de valores

Cordeiro, Jelson Andre 28 November 2013 (has links)
A projeção do preço de ações na bolsa de valores é um campo atraente para a investigação devido às suas aplicações comerciais e os benefícios financeiros oferecidos. O objetivo deste trabalho é analisar o desempenho de dois algoritmos meta-heurísticos, o Algoritmo do Morcego e o Algoritmo Genético, para o problema de projeção do preço de ações. Os indivíduos da população dos algoritmos foram modelados utilizando os parâmetros de 7 indicadores técnicos. O lucro final ao fim de um período é maximizado através da escolha do momento adequado para compra e venda de ações. Para avaliar a metodologia proposta foram realizados experimentos utilizando dados históricos reais (2006-2012) de 92 ações listadas na bolsa de valores do Brasil. A validação cruzada foi aplicada nos experimentos para evitar o overfiting, utilizando 3 períodos para treinamento e 4 para teste. Os resultados dos algoritmos foram comparados entre si e com o indicador de desempenho Buy and Hold (B&H). Para 91,30% das ações os algoritmos obtiveram lucro superior ao B&H, sendo que em 79,35% delas o Algoritmo do Morcego teve o melhor desempenho, enquanto que para 11,95% das ações o Algoritmo Genético foi melhor. Os resultados alcançados indicam que é promissora a aplicação de meta-heurísticas com a modelagem proposta para o problema de projeção do preço de ações na bolsa de valores. / The stock prices prediction in the stock exchange is an attractive field for research due to its commercial applications and financial benefits offered. The objective of this work is to analyze the performance of two meta-heuristic algorithms, Bat Algorithm and Genetic Algorithm to the problem of stock prices prediction. The individuals in the population of the algorithms were modeled using 7 technical indicators. The profit at the end of a period is maximized by choosing the right time to buy and sell stocks. To evaluate the proposed methodology, experiments were performed using real historical data (2006-2012) of 92 stocks listed on the stock exchange in Brazil. Cross-validation was applied in the experiments to avoid the overfiting using 3 periods for training and 4 for testing. The results of the algorithms were compared among them and also the performance indicator BuyandHold (B&H).For 91.30% of the stocks, the algorithms obtained profit higher than the B&H, and in 79.35% of them Bat Algorithm had the best performance, while for 11.95% of the stocks Genetic Algorithm was better. The results indicate that it is promising to apply meta-heuristics with the proposed model to the problem of stock prices prediction in the stock exchange.

Page generated in 0.096 seconds