321 |
Prediciendo el cambio de signo en el precio de la plata : modelos de redes ward con algoritmos genéticos y optimización aleatoria, evidencias para el período septiembre 1995-marzo 2006Bueno Bórquez, Renato Alejandro January 2006 (has links)
Tesis para optar al grado de Magíster en Finanzas / El propósito de la presente investigación es estudiar y desarrollar modelos flexibles, versátiles y
eficientes, estadísticamente y económicamente significativos, para proyectar la variación futura del
precio de la Plata. Se consideró a éste activo para su estudio, principalmente por el evento de no existir
evidencias de trabajos predictivos con estas técnicas para este activo, además de la liquidez y
profundidad del mercado, en que éste metal se cotiza. El porqué, de utilizar modelos de redes
neuronales para la predicción, surge básicamente, por estudios de proyección sobre series temporales
previos, cuyos resultados han sido un importante aporte para las Finanzas Modernas.
Otro factor de relevancia que se debe considerar en la definición del modelo de redes neuronales, son
las variables explicativas, de las cuales depende en gran medida el éxito de ésta y otras
investigaciones. Respecto a este ítem, después de un acabado estudio de 14 variables de relevancia
mundial (índices accionarios, bolsas de metales, precios de commodities y monedas), se efectuó
pruebas de análisis técnico (cruce de medias móviles con 5, 10 y 30 rezagos) y econometría básica
(análisis de regresiones – coeficientes de correlación múltiples), donde finalmente se definieron 7
variables y sobre las cuales se desarrollaron los modelos predictivos.
Durante el desarrollo, surge la pregunta de sí es posible mejorar los resultados de porcentaje
predicción de signo de una red neuronal, ante lo cual, considerando la teoría darwiniana sobre la
“evolución de las especies”, se incorporó un Algoritmo Genético.
Para cumplir con el propósito enunciado, se desarrolló un proceso de análisis con series de datos
semanales del precio de la Plata de los últimos 10 años (precio cierre en USD-onza), fijando como
principal objetivo, que a través de metodologías sustentadas en Algoritmos Genéticos y Redes
Neuronales, se pueda anticipar la dinámica que experimenta el precio de la Plata (en términos de
cambio de signo) y comprobar si los resultados obtenidos en ambos modelos, demuestren un
comportamiento estable y sinérgico. Adicionalmente, se comprobará si la fusión de ambos modelos,
logra generar mejoras considerables en el porcentaje de predicción de signo, depurando la información
existente, de tal manera, de asegurar retornos económicamente más atractivos que en los modelos en
particular mencionados anteriores.
Finalmente, el desempeño de cada uno de los métodos a utilizar, será medido por el número de
predicciones correctas (hits) del signo de la variación del precio, aplicando para ello el test de acierto
direccional (DAT) 1 de Pesaran & Timmermann (1992), comprobando de esta forma que las
proyecciones obtenidas por los modelos versus los resultados alcanzados con una estrategia “buy and
hold” 2 (independiente de la significancia estadística), son económicamente superiores o si estos
permiten minimizar las pérdidas.
Respecto al análisis predictivo en otros activos financieros, es conocido el aporte realizado por, Parisi y
Parisi3 a la literatura financiera con el uso de sistemas predictivos no paramétricos tales como las redes
neuronales, lógica difusa y los algoritmos genéticos para proyectar variables financieras y que sirven de
base para conformar portafolios de inversión. Estas técnicas no basan sus capacidades predictivas en
la utilización de supuestos de normalidad en los retornos de los activos financieros, demostrando que es
posible obtener altas capacidades predictivas, estadísticamente significativa y económicamente
rentables, punto que pretendemos demostrar y reafirmar en el presente trabajo.
Con la presencia de estas dinámicas no lineales, se podría dar la posibilidad de explorar este campo
para realizar predicciones más exactas que aquellas otras proporcionadas por un modelo estocástico
lineal y, en concreto, por el modelo referente en la literatura: el paseo aleatorio (random walk).
|
322 |
Polinômios multivariados : fatoração e MDCAllem, Luiz Emílio January 2010 (has links)
Nesta tese de doutorado estudamos polinômios multivariados. Começamos fazendo uma revisão bibliográfica sobre o teorema da irredutibilidade de Hilbert. Abordamos com detalhes as demonstrações da versão clássica feita pelo próprio Hilbert e das versões efetivas feitas por Erich Kaltofen e Shuhong Gao. Desenvolvemos um novo algoritmo para fatoração de polinômios multivariados inteiros usando logaritmo discreto. Nosso método é baseado em novos tipos de reduções de polinômios multivariados para polinômios bivariados, as quais têm como principal característica manter a esparsidade do polinômio. Nosso método mostrou-se eficiente quando usado para fatorar polinômios multivariados que possuem apenas fatores esparsos e quando usado para extrair fatores esparsos de polinômios multivariados que têm fatores esparsos e densos. Terminamos essa tese trabalhando com o máximo divisor comum (mdc) de polinômios. Estudamos critérios geométricos de politopos para determinar coprimalidade entre polinômios multivariados. Desenvolvemos um novo algoritmo que trabalha em tempo polinomial (sobre o número de monômios) para detectar coprimalidade entre polinômios multivariados usando seus politopos de Newton associados. Esse método geométrico tem a vantagem de determinar a coprimalidade entre famílias de polinômios, pois podemos mudar arbitrariamente os coeficientes dos polinômios desde que certos coeficientes permaneçam não nulos. Além disso, os polinômios permanecerão coprimos sobre qualquer corpo. Terminamos mostrando como construir o mdc entre dois polinômios bivariados usando seus polígonos de Newton associados. / In this dissertation we study multivariate polynomials. We begin with a bibliographical review on the Hilbert irreducibility theorem. We cover in detail the demonstrations of the classic version due to Hilbert himself and effective versions due to Erich Kaltofen and Shuhong Gao. We developed a new algorithm for factoring multivariate integral polynomials using discrete logarithm. Our method is based on new types of reductions, from multivariate polynomias to bivariate polynomials, whose main feature is to maintain the sparsity of the polynomial. Our method has proved to be eficient when used for factoring multivariate polynomials that have only sparse factors and when used to extract sparse factors of multivariate polynomials that have sparse and dense factors. We finish this dissertation studying the greatest common divisor (gcd) of polynomials. We study geometric criteria of polytopes to determine coprimality between multivariate polynomials. We developed a new algorithm that works in polynomial time (on the number of monomials) to detect coprimality between multivariate polynomials using their associated Newton polytopes. This geometric method has the advantage of determining the coprimality between families of polynomials, since we can arbitrarily change the polynomial coeficients as long as some coeficients remain nonzero. Moreover, the coprime polynomials shall remain coprime on anyfield. We ended up showing how to build the gcd between two bivariate polynomials using their associated Newton polygons.
|
323 |
Impacto de diferentes algoritmos e geometria de depósitos minerais no planejamento de longo prazoCandido, Mateus Toniolo January 2012 (has links)
O principal objetivo do planejamento mineiro é determinar a distribuição de quantidade e qualidade do minério ao longo de uma sequencia de tempo, ou seja, determinar o minério necessário para tornar o projeto técnica e economicamente viável. Esse sequenciamento é fundamental para o sucesso financeiro de uma atividade de mineração e, atualmente, este sequenciamento ideal pode ser obtido por meio de vários aplicativos computacionais de mineração. Cada um deles têm suas particularidades que geralmente não são levadas em conta. As alterações resultantes de modelos diferentes de cava final podem ter impacto significativo sobre o sucesso da empresa tanto financeira quanto operacionalmente. A maioria dos estudos de planejamento de lavra apresenta a cava final calculada por um único algoritmo escolhido pelo engenheiro de projeto, devido à disponibilidade ou conhecimento em determinado aplicativo computacional. É importante que se tenha em mente que o objetivo do planejamento de lavra a longo prazo é definir os limites de cava final e o projeto de exaustão para um depósito mineral com base em uma função benefício, considerando fundamentalmente as receitas e os custos envolvidos desde a lavra até o processo e comercialização do produto. Além disso, restringe aspectos técnicos e geométricos do projeto, como ângulos de inclinação dos taludes, alturas de bancada, quantidades e teor de minério, bem como sua distribuição espacial, além da procura pelo máximo valor presente líquido, é necessário na tarefa de otimização de cava. Existem muitos algoritmos implementados em diversos programas comerciais para o cálculo da cava final e sequenciamento de longo prazo e, neste sentido, um dos objetivos deste trabalho é verificar a eficácia dos algoritmos que obtiveram maior reconhecimento dentro da indústria mineral, além de verificar se existem diferenças relacionadas com o tipo de mineralização e depósito onde eles são aplicados. A comparação é realizada usando dois programas comerciais e dois algoritmos diferentes para determinar se as diferenças podem ser observadas para tipos de mineralização distintos foi feita a implementação de dois algoritmos em modelos de blocos tridimensionais estimados e analisados para três tipos de depósito, um corpo de minério de cobre, um grande depósito de fosfato ígneo e uma mineralização aurífera, de espessura pequena relativamente à extensão em profundidade, apresentando um mergulho subvertical. / The main objective of mine planning is to determine ore quantity and quality distribution along a time sequence, i.e., scheduling the ore necessary to make the project technically and economic viable. These temporal sequences are fundamental for the financial success of a mine activity and presently this optimal sequence can be obtained through various mining software. Each of them has its particularities which generally are not taken into account. Changes resulting from different final pit models can have significant impact on the success of enterprise both financial and operational. Most studies in mine planning present the final pit calculated by only one algorithm chosen by the author, due to software availability or knowledge. The goal of the long-term mine planning is to define the boundaries of final pit for mine based on a profit function considering selling price discounted from mining and processing costs. Besides, technical constrains and geometrical aspects of the project, such as slope angles, bench heights, ore grade quantities and spatial distribution, looking for maximum net value are also necessary for the pit optimization task. There are many algorithms implemented in various commercial softwares for the ultimate pit calculation and one of the purposes of this work is to check the effectiveness of the algorithms that obtained greater recognition within the mineral industry and if there are differences related to the type of mineralization and deposit where they are applied. The comparison is performed using the two commercial softwares, and two different algorithms to determine if differences can be observed to different mineralization types. The implementation of the two algorithms in three-dimensional block models estimated and analyzed for three types of deposits: a massive copper orebody, a large igneous phosphate and a subvertical gold vein type.
|
324 |
Uma abordagem numérico-experimental para a identificação de dano estrutural utilizando o método Simulated AnnealingFerreira, Franklin de Souza January 2008 (has links)
A detecção de dano estrutural é um assunto muito estudado em virtude do grau de responsabilidade envolvido na manutenção de certas estruturas por diversas décadas, tais como pontes, torres de transmissão de energia, ou mesmo em falhas mecânicas de componentes automotivos, navais, de aviação, etc. A identificação do dano em estruturas por meio de ensaios dinâmicos não destrutivos tem se tornado uma técnica atrativa, devido principalmente a redução de incertezas e queda nos preços dos equipamentos utilizados, tais como acelerômetros, placas de aquisição de sinais, computadores, etc. Simulated Annealing (Recozimento Simulado) é uma técnica baseada em algoritmos heurísticos utilizada para otimização (minimização ou maximização) de problemas de larga escala, sem necessidade de cálculos de gradientes, que contenham diversos ótimos locais, onde é necessário encontrar um ótimo global. No caso de detecção de danos, esta otimização pode ser usada para sintonizar o comportamento dinâmico de um modelo paramétrico com resultados experimentais modais, como por exemplo: freqüências naturais, amortecimento modal, modos, etc. Neste trabalho é avaliado o desempenho do emprego deste método na localização e quantificação de danos em estruturas simples. Alguns dos resultados foram comparados com uma outra técnica heurística de Algoritmos Genéticos. A avaliação das incertezas envolvidas na determinação dos parâmetros experimentais foi realizada de modo a se ter idéia da ordem de exatidão do sistema assim como limitações das previsões feitas por esta metodologia. Esta abordagem é de extrema importância, pois o sistema pode indicar falsos danos em virtude de falta de exatidão nas medições das freqüências naturais da estrutura estudada. Uma abordagem teórica nos casos da viga bi apoiada e engastada livre foi feita através da equação diferencial da viga. Esta abordagem demonstrou regiões onde certas freqüências não são alteradas independentemente da condição de dano. Esta é uma das maiores contribuições deste trabalho. O mesmo estudo foi feito de forma experimental, onde se verificou a confirmação dos lugares sugeridos pelos dois estudos anteriores, ou seja, determinadas freqüências não se alteram quando determinadas regiões da estrutura são danificadas. Concluiu-se que o método de simulated annealing tem eficiência equivalente aos algoritmos genéticos, pois em termos da eficiência em detectar corretamente danos, ele apresentou desempenho semelhante, o que foi comprovado pelas simulações numéricas e ensaios experimentais. As dificuldades de identificação de danos, como danos próximos as condições de contorno e danos menores de 10%, foram sentidos de forma parecida, sendo que para estes casos, o algoritmo não convergiu completamente. Os tempos de processamento em ambos os métodos de otimização foram similares, para todos os casos estudados. / The detection of structural damage has received an increasing interest on both academic research and industry application for several decades, including structures such as bridges, transmission lines towers, or even in automotive mechanical fault detection and naval and aviation components. The damage identification in structures by means of dynamic non-destructive tests became an attractive technique, since there was and increase in the measurement accuracy and cost decrease of devices used to perform this task, like accelerometers, data acquisition boards, computers, etc. Simulated Annealing is a technique that belongs to a class of the so called Heuristic Algorithms used in optimizations (maximizations or minimizations) of large scale problems. This technique does not use gradient evaluations and can be used with functions with several local optima, where it is desired to reach the global optimum. In damage detection, this technique can be used to tune the dynamic behavior of a parametric model with experimental modal results, such as: natural frequencies, modal damping, mode shapes, etc. In this work, the performance of this method in finding and quantificating damage in simple structures is evaluated. Some of the results were compared with another Heuristic technique: the Genetic Algorithm. The importance of uncertainties in the involved experimental parameters was investigated in order to estimate the system accuracy and limitations of the methodology. This approach is important, since the methodology could indicate false damages by virtue of lack of accuracy in the measurements. A theoretical approach for simple beams was accomplished by the differential equation of motion and a simple model for the crack. This study shows points where damage will not affect some frequencies, regardless of their extent. This is one of the main contributions of this work. The same study was carried experimentally, where there was a perfect agreement with the predicted sites for null interference suggested by the two previous studies, i.e., certain frequencies did not change when those sites where damaged. Finally it is concluded that the Simulated Annealing Technique has equivalent efficiency as the genetic algorithm, since the performance in detecting damage was similar, checked by the numerical simulations and experimental tests. The difficulties on damage identification lied in damage close to support conditions and damage about 10%, and for these cases, the algorithms did not converge completely. The processing times on both techniques used were similar, for all the studied cases.
|
325 |
Modelagem do comportamento de colônias de formigas em ambientes dinâmicos e sua aplicação em sistemas de roteamento de pacotesMELO, Elton Bernardo Bandeira de 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:57:24Z (GMT). No. of bitstreams: 2
arquivo3189_1.pdf: 3006402 bytes, checksum: f2eae8d593b69c5c4fb2f7b31b101960 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Companhia Hidro Elétrica do São Francisco / Apresenta-se a modelagem do comportamento de formigas forrageiras em ambientes dinâmicos
a partir de experimentos realizados com formigas reais em laboratório, em um aparato
experimental composto por uma rede de túneis colocado entre o ninho das formigas a fonte
de alimento. Durante os experimentos, há mudanças na topologia da área de forrageio, com
a introdução e remoção de bloqueios de alguns túneis, o que exige a capacidade de adaptação
das colônias para continuarem alimentando seus ninhos de modo eficiente. Neste trabalho é
proposto um novo modelo para o comportamento das formigas, o Modelo FFAC-D (Formigas
Forrageiras em Ambientes Confinados e Dinâmicos) é inspirado em evidências extraídas
de estudos biológicos e mostra-se capaz de reproduzir os dados experimentais, superando o
problema da estagnação evidenciado em modelos anteriores. Na segunda etapa desta dissertação,
busca-se aplicar os mecanismos bem sucedidos do Modelo FFAC-D ao problema do
roteamento em redes de pacotes. É feita uma revisão da literatura sobre algoritmos de roteamento
baseados em formigas, e, em seguida, propõe-se um novo sistema para o roteamento
de pacotes baseado no Modelo FFAC-D, o MARS (Memoryless Ants Routing System). O MARS
é implementado em um simulador de eventos discretos voltado à simulação de redes (NS-2),
e mostra-se eficaz para a solução do problema de roteamento, com desempenho superior ao
AntNet no que diz respeito aos tempos de convergência e ao consumo de largura de banda
(overhead). O MARS aponta ainda vatagens sobre outros algoritmos existentes relacionadas à
segurança, resiliência e qualidade de serviço (QoS)
|
326 |
Desenvolvimento e análise de algorítmos probabilísticos de otimização globalMarques Cavalcanti, André January 2004 (has links)
Made available in DSpace on 2014-06-12T17:35:39Z (GMT). No. of bitstreams: 2
arquivo6983_1.pdf: 1862837 bytes, checksum: e0fcb825b04d3b7f64bcee6a89be5f0c (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2004 / O desenvolvimento de algoritmos de otimização global irrestrita tem sido pesquisado
na tentativa de obter algoritmos gerais que apresentem um bom desempenho em
classes abrangentes de problemas de otimização. Os métodos que utilizam derivadas
apresentam um bom desempenho mas, na grande maioria dos problemas esta informação
não está disponível ou é de grande dificuldade a sua obtenção. Existe uma grande
dificuldade de se estabelecer algoritmos eficientes sem a informação da derivada. Os
métodos de busca direta se apoiam em heurísticas para determinar a direção de busca
com certa eficiência, porém sem garantia de convergência. Este trabalho realiza uma
avaliação do problema da convergência dos algoritmos de busca direta, desenvolve
um modelo geral, estratégias de abordagem e melhorias, analisa e implementa um
algoritmo que é capaz de determinar a direção de busca do ótimo de forma eficiente,
sem o uso de derivadas. O software desenvolvido utiliza nuvens probabilísticas que
fornecem o conhecimento da performance da distribuição de probabilidade da nuvem
de pontos. Essa distribuição através dos seus momentos fornece a direção de aproximação
do ponto de ótimo. Na presente pesquisa o algoritmo melhorado proposto
apresentou uma excelente performance em relação às listas de Benchmark existentes
e aceitas pela comunidade de otimização global. O aspecto mais relevante é a abrangência
de classes de problemas possíveis de resolver com este algoritmo sem perda de
performance em reconhecer a classe de problemas a ele submetido
|
327 |
Uma nova abordagem baseada em enxames de partículas para otimização de muitos objetivosFIGUEIREDO, Elliackin Messias do Nascimento 17 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-14T18:55:09Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-16T19:59:21Z (GMT) No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) / Made available in DSpace on 2018-08-16T19:59:21Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5)
Previous issue date: 2017-02-17 / CNPq / Many-Objective Optimization Problems (MaOPs) são uma classe especial de problemas multiobjetivos que apresentam quatro ou mais objetivos. Algoritmos evolucionários ou de enxame de partículas tradicionais falham ao tentarem resolver MaOPs pois eles se tornam ineficazes ou ineficientes nestes problemas. Em virtude disso, alguns pesquisadores propuseram diferentes estratégias para contornar as dificuldades impostas por MaOPs, sobretudo para Multiobjective Evolutionary Algorithms (MOEAs) tradicionais para esses problemas. Em contrapartida, muito pouco tem sido feito no sentido de adaptar algoritmos de Multiobjective Particle Swarm Optimizations (MOPSOs) para MaOPs. Não obstante, algoritmos baseados em enxames de partículas no geral são reconhecidos pela rápida velocidade de convergência em problemas com um único objetivo e por isso parecem ser também adequados para problemas multiobjetivos e com muitos objetivos. Desta forma, existe a necessidade de se desenvolver MOPSOs para lidar com MaOPs. Sendo assim, o objetivo desta tese foi desenvolver um MOPSO para resolver MaOPs no sentido de promover um maior balanceamento entre convergência para Frente de Pareto e diversidade de soluções nesses problemas. Para isso, o algoritmo proposto nesta tese usa um conjunto de pontos de referência para impor uma pressão de convergência para a Frente de Pareto enquanto permite um maior gerenciamento da diversidade. Além disso, a abordagem proposta usa um arquivo externo em que são armazenadas soluções não-dominadas e do qual são retirados os líderes sociais das partículas de acordo com duas medidas que foram propostas nesta tese, a saber, a medida de convergência e a medida de densidade. O objetivo dessas medidas é promover a convergência para a Frente de Pareto e promover a diversidade ao longo dela simultaneamente. A proposta foi avaliada usando seis problemas da família DTLZ com dois, três, cinco, sete e dez objetivos e usando métricas bem estabelecidas na literatura (distância geracional, distância geracional invertida e hipervolume) para medir a convergência e diversidade do conjunto solução obtido pelo algoritmo; e ele foi comparado com duas abordagens baseadas em enxames (SMPSO e CDAS-SMPSO) e três abordagens evolucionárias (CEGA, MDFA, e NSGA-III) afim de mostrar suas vantagens e pontos de melhorias frente a outros algoritmos bem estabelecidos na literatura. Os resultados mostraram que o algoritmo proposto foi bem sucedido em equilibrar convergência e diversidade nos problemas testados apresentando resultados equivalentes ou superiores ao NSGA-III que é uma das propostas mais bem sucedidas até o momento para lidar com problemas com muitos objetivos. Além disso, o algoritmo proposto foi aplicado em um problema real de projeto de redes ópticas de alta capacidade com o intuito de avaliar sua utilidade prática. / Many-Objective Optimization Problems (MaOPs) are an especial class of multiobjective problems in which four or more objectives are optimized simultaneously. Currently, these problems have attracted attention of the researchers due the two reasons: (i) many real-world applications are naturally many-objective problems and (ii) population-based heuristics presents great difficulties for solving these problems. For example, Paretodominance based algorithms such as Multiobjective Evolutionary Algorithms (MOEAs) and Multiobjective Particle Swarm Optimization (MOPSO) algorithms are ineffective in these problems because almost all solutions in the population become non-dominated solutions, resulting in loss of convergence pressure for the Pareto front. Because of this, researchers have proposed new strategies for dealing with this problems, mainly for MOEAs. However, very little has been done to make the MOPSOs effective in these scenarios. Regardless of this, Particle Swarm Optimization (PSO) algorithms are known by fast speed of convergence in single-objective problems and they seem be suitable for MaOPs. Moreover, to create algorithms that are capable of balancing both convergence and diversity is a research challange. Therefore, there are a necessity to develop PSO-based algorithms for dealing with MaOPs. Thus, this thesis proposes a new algorithm based on PSO whose aim is to promote a better balancing between convergence toward the Pareto front and diversity of solutions. To achieve this aim, the proposed algorithm uses a set of reference points to impose a selection pressure to Pareto front while it allows a better control of the diversity. Furthermore, our algorithm use an external archive where it maintains non-dominated solutions and from which the social leaders are picked in according to two measures proposed for us, namely, the convergence measure and the density measure. The objective of these measures is to promote the convergence toward Pareto Front and to promote the diversity along it simultaneously. To evaluate our algorithm we used three well-known metrics in the literature, namely, generational distance, inverted generational distance, and hypervolume; and six benchmark problems of the DTLZ family with two, three, five, seven and ten objectives. Moreover, the algorithm was compared to two PSObased algorithms (SMPSO and CDAS-SMPSO) and three evolutionary algorithms (MDFA, CEGA and NSGA-III). The results showed that our algorithm was sucessful in balancing the requirements of convergence and diversity in the test problems compared to other algorithms in the literature. Besides, our algorithm was applied in a real-world problem involving the physical topology design of optical network in which it obtained good results.
|
328 |
Estudo da estrutura porosa de empacotamento compacto aleatório de esferas rígidas.SANTANA, D. W. O. 29 September 2017 (has links)
Made available in DSpace on 2018-08-01T21:59:24Z (GMT). No. of bitstreams: 1
tese_11430_Dissertação final Deivid Wilson Oliveira Santos.pdf: 3557089 bytes, checksum: 1e479b0b6461bcfe5a25b3ff9df4d107 (MD5)
Previous issue date: 2017-09-29 / No início, o estudo dos empacotamentos compactos de corpos tinha a simples função de otimizar espaço físico. Os estudos pioneiros obtiveram grandes resultados em empacotamento de corpos com geometrias simples, proporcionado a utilização deste estudo para modelar a nascente estrutura atômica. Os estudos foram avançando até o ponto de serem utilizados para modelar estruturas complexas, como aglomerados de células e materiais heterogêneos porosos, sendo este último foco deste trabalho. Para esse objetivo, construímos empacotamentos compactos aleatórios de esferas rígidas, gerados por algoritmos computacionais comumente reportados na literatura. Nossos estudos caracterizaram do ponto de vista estatístico o meio poroso formado pelas regiões vazias do empacotamento aleatório de esferas. Seus descritores estatísticos, a função de autocorrelação estatística de dois-pontos 𝑆2(𝑟) e distribuição de tamanho de poros foram calculados e analisados. Particular ênfase foi dada ao cálculo da entropia da distribuição de tamanhos de poros e a sua interpretação em termos da proximidade do sistema ao limite de máxima densidade. Por último, fizemos a reconstrução da função de autocorrelação calculada numa rocha natural da formação Lagoa-Salgada, a partir de medidas estatísticas realizadas sobre um empacotamento compacto aleatório de esferas interpenetráveis. Este último ponto estudado é relevante no sentido que o estudo mostrou que é possível reconstruir, mesmo que parcialmente, a estrutura porosa de um material poroso natural. De forma geral, os resultados encontrados neste trabalho reproduziram resultados abordados na literatura sobre a caracterização morfológica de meios heterógenos, além de fornecer novas ideias acerca da possibilidade de utilizar ferramentas estatísticas visando reproduzir a morfologia porosa observada em rochas naturais.
|
329 |
Desenvolvimento e analise de novos algoritmos preditivos para equalização cegaLopes, Renato da Rocha, 1972- 20 June 1997 (has links)
Orientador: João Marcos Travassos Romano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-22T13:16:06Z (GMT). No. of bitstreams: 1
Lopes_RenatodaRocha_M.pdf: 4980271 bytes, checksum: 222408619bc4aa9a9f680cb90da49958 (MD5)
Previous issue date: 1997 / Resumo: Nesta tese serão estudadas algumas técnicas de equalização cega para um canal de comunicações. Serão abordadas principalmente as técnicas que se baseiam na teoria de predição linear e que, por isto, são chamadas técnicas preditivas de equalização cega. Inicialmente, será discutida a necessidade de um equalizador em um sistema de comunicações digitais, bem como as vantagens e desvantagens dos equalizadores cegos quando comparados aos equalizadores tradicionais. Em seguida, serão apresentadas algumas técnicas clássicas de equalização cega. Os princípios das técnicas preditivas de equalização cega serão, então, estudados e serão apresentados algoritmos adaptativos para os equalizadores preditivos. Estes algoritmos se baseiam no método do gradiente (LMS). Após esta apresentação inicial, a técnica preditiva de equalização cega baseada na equalização de magnitude e fase será estudada em maior profundidade. Nesta técnica, um preditor IIR é usado para corrigir as distorções que o canal provoca na magnitude do espectro de freqüência do sinal transmitido, enquanto que um filtro passa-tudo não linear é usado para corrigir as distorções de fase provocadas pela cascata do canal com o preditor IIR. Para esta estrutura, serão apresentados dois novos algoritmos, baseados nas técnicas de mínimos quadrados (RLS, do inglês Recursive Least Squares) e de Gauss-Newton (GN). Será feito em seguida um estudo teórico do equalizador de fase e dos algoritmos adaptativos propostos para esta estrutura. Será provado que os critérios de minimização associados ao equalizador de fase são unimodais e que os algoritmos propostos de fato convergem para este mínimo. Finalmente, simulações demonstrarão o bom desempenho desta técnica preditiva de equalização cega / Abstract: In this work, the blind equalization of a communication channel will be considered. The work will focus on the discussion of blind equalization techniques that are based on linear prediction theory. These are called predictive techniques for blind equalization. Firstly, the need for an equalizer in a communication system will be discussed, as well as the advantages and disadvantages of blind equalizers as opposed to supervised ones. Some traditional blind equalization techniques will be presented. Then, the principIes of predctive blind equalization techniques will be studied, and some adaptive algorithms for predictive equalizers will be presented. These algorithms are based on the steepest descent method (LMS). After this introductory presentation, this work will focus on a predictive technique based on magnitude and phase equalization. In this technique, a linear IIR preditor is used to compensate for the magnitude distortion caused by the channel, and a non-linear all-pass filter is used to compensate for the phase distortion introduced by the cascade of the channel and the predictor. Two new adaptive algorithms for this structure will be presented, one based on the least-squares method (RLS, Recursive Least Squares) and another one based on the Gauss-Newton method (GN). Some theoretical analysis of both the phase equalizer and the algorithms for this structure will then be carried on. It will be shown that the minimization criterion associated with the phase equalizer is unimodal. Furthermore, it will be shown that the proposed algorithms do converge to a point where they equalize the channel. Finnaly, some simulation results will confirm the effectiveness of these algorithms / Mestrado / Mestre em Engenharia Elétrica
|
330 |
Um ambiente para a analise superficial de linguas baseado em automatos finitosCáccamo, Mario José 30 March 1998 (has links)
Orientador: Tomasz Kowaltowski / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-23T12:27:31Z (GMT). No. of bitstreams: 1
Caccamo_MarioJose_M.pdf: 2620384 bytes, checksum: f5050f57d7a4e7f0276200dc83121f1c (MD5)
Previous issue date: 1998 / Resumo: A análise sintática é uma componente fundamental da maioria dos sistemas de processamento automático de línguas. Tradicionalmente, esta tarefa foi implementada com técnicas derivadas do formalismo das Gramáticas Livres de Contexto. A demanda por sistemas eficientes motivou a pesquisa em busca de outras alternativas para a análise sintática. Alguns sistemas de processamento de línguas naturais não precisam de uma análise completa da estrutura profunda das sentenças (árvores de derivação), senão apenas dispor das relações superficiais entre às palavras de um texto. O objetivo de um analisador-superficial é determinar quais são as sentenças de uma língua, fornecendo apenas a informação sobre alguma característica em particular, evitando entrar em detalhes correspondentes à estrutura profunda. Este tipo de sistemas é mais eficientes e pode substituir uma análise sintática completa em várias aplicações. Nesta dissertação propõe-se um ambiente para implementar a análise superficial de línguas. A proposta consiste em representar as sentenças de uma língua usando seqüências de marcas chamadas de padrões sintáticos. Cada marca é uma categoria de palavras (adjetivos, substantivos, advérbios, etc). A hipótese é que o núcleo das sentenças usadas nos textos de uma língua pode ser capturado com um número computacionalmente tratável de padrões sintáticos. Estruturas de dados baseadas em autômatos finitos foram utilizadas para representar de forma compacta grandes vocabulários de palavras. Os padrões sintáticos são cadeias de símbolos comparáveis, em certo sentido, às palavras de um vocabulário e autômatos mostraram-se adequadas para armazená-los. Além disso, os autômatos permitem a implementação eficiente do algoritmo de reconhecimento proposto, e outros mais complexos, como o conselheiro gramatical apresentado nesta dissertação. Um dos problemas de muitas das propostas para a análise sintática de línguas é a falta de um método ou fonte de informação para construir um sistema que possa modelar um exemplo real. Como uma alternativa, propõe-se aqui a coleta de padrões sintáticos a partir de corpos de texto marcados. / Abstract: Syntactic analysis is an important component of most natural language processing systems. Typically parsers were implemented using techniques derived from Context Free Grammars. The increasing need for efficient systems was one of the reasons to search for new approaches to syntactic analysis. Some natural language applications do not need complete parsing of the deep structure of the sentences (derivation trees). In these cases, a representation of the surface relations among words in a text is enough. The goal of a surface parser is to recognize the natural language sentences providing information only about some particular features. It is not concerned with the deep structure of the sentences. This kind of parsers are more efficient and can replace a parser implementing a complete syntactic analysis in different situations. We propose in this dissertation an environment to implement surface parsing of natural languages. In our approach every sentence is represented by a sequence of part-of-speech tags cal\ed syntactic pattern. The hypothesis underlying our work is that the core of the sentences used in natural language texts can be captured with a computationally tractable number of syntactic patterns. Data structures based on finite-state automata have been used in representing1large word vocabularies. Syntactic patterns are strings of symbols that can be compared in some sense with words. We have shown that finite-state automata are adequate to' store syntactic patterns. Furthermore they allow an efficient implementation of the recognizing algorithms, and other more complex ones, as the agreement adviser presented in this work. One of the problems common to many approaches for syntactic parsing is the lack of a method or information source to build a system capable of mastering a real example. As an option, we propose the collection of syntactic patterns from annotated corpora of texts. / Mestrado / Mestre em Ciência da Computação
|
Page generated in 0.021 seconds