• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2822
  • 580
  • 238
  • 101
  • 90
  • 90
  • 88
  • 47
  • 45
  • 45
  • 45
  • 43
  • 14
  • 2
  • 1
  • Tagged with
  • 3703
  • 1108
  • 946
  • 591
  • 587
  • 553
  • 525
  • 495
  • 460
  • 335
  • 308
  • 286
  • 279
  • 261
  • 249
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Prediciendo el cambio de signo en el precio de la plata : modelos de redes ward con algoritmos genéticos y optimización aleatoria, evidencias para el período septiembre 1995-marzo 2006

Bueno Bórquez, Renato Alejandro January 2006 (has links)
Tesis para optar al grado de Magíster en Finanzas / El propósito de la presente investigación es estudiar y desarrollar modelos flexibles, versátiles y eficientes, estadísticamente y económicamente significativos, para proyectar la variación futura del precio de la Plata. Se consideró a éste activo para su estudio, principalmente por el evento de no existir evidencias de trabajos predictivos con estas técnicas para este activo, además de la liquidez y profundidad del mercado, en que éste metal se cotiza. El porqué, de utilizar modelos de redes neuronales para la predicción, surge básicamente, por estudios de proyección sobre series temporales previos, cuyos resultados han sido un importante aporte para las Finanzas Modernas. Otro factor de relevancia que se debe considerar en la definición del modelo de redes neuronales, son las variables explicativas, de las cuales depende en gran medida el éxito de ésta y otras investigaciones. Respecto a este ítem, después de un acabado estudio de 14 variables de relevancia mundial (índices accionarios, bolsas de metales, precios de commodities y monedas), se efectuó pruebas de análisis técnico (cruce de medias móviles con 5, 10 y 30 rezagos) y econometría básica (análisis de regresiones – coeficientes de correlación múltiples), donde finalmente se definieron 7 variables y sobre las cuales se desarrollaron los modelos predictivos. Durante el desarrollo, surge la pregunta de sí es posible mejorar los resultados de porcentaje predicción de signo de una red neuronal, ante lo cual, considerando la teoría darwiniana sobre la “evolución de las especies”, se incorporó un Algoritmo Genético. Para cumplir con el propósito enunciado, se desarrolló un proceso de análisis con series de datos semanales del precio de la Plata de los últimos 10 años (precio cierre en USD-onza), fijando como principal objetivo, que a través de metodologías sustentadas en Algoritmos Genéticos y Redes Neuronales, se pueda anticipar la dinámica que experimenta el precio de la Plata (en términos de cambio de signo) y comprobar si los resultados obtenidos en ambos modelos, demuestren un comportamiento estable y sinérgico. Adicionalmente, se comprobará si la fusión de ambos modelos, logra generar mejoras considerables en el porcentaje de predicción de signo, depurando la información existente, de tal manera, de asegurar retornos económicamente más atractivos que en los modelos en particular mencionados anteriores. Finalmente, el desempeño de cada uno de los métodos a utilizar, será medido por el número de predicciones correctas (hits) del signo de la variación del precio, aplicando para ello el test de acierto direccional (DAT) 1 de Pesaran & Timmermann (1992), comprobando de esta forma que las proyecciones obtenidas por los modelos versus los resultados alcanzados con una estrategia “buy and hold” 2 (independiente de la significancia estadística), son económicamente superiores o si estos permiten minimizar las pérdidas. Respecto al análisis predictivo en otros activos financieros, es conocido el aporte realizado por, Parisi y Parisi3 a la literatura financiera con el uso de sistemas predictivos no paramétricos tales como las redes neuronales, lógica difusa y los algoritmos genéticos para proyectar variables financieras y que sirven de base para conformar portafolios de inversión. Estas técnicas no basan sus capacidades predictivas en la utilización de supuestos de normalidad en los retornos de los activos financieros, demostrando que es posible obtener altas capacidades predictivas, estadísticamente significativa y económicamente rentables, punto que pretendemos demostrar y reafirmar en el presente trabajo. Con la presencia de estas dinámicas no lineales, se podría dar la posibilidad de explorar este campo para realizar predicciones más exactas que aquellas otras proporcionadas por un modelo estocástico lineal y, en concreto, por el modelo referente en la literatura: el paseo aleatorio (random walk).
322

Polinômios multivariados : fatoração e MDC

Allem, Luiz Emílio January 2010 (has links)
Nesta tese de doutorado estudamos polinômios multivariados. Começamos fazendo uma revisão bibliográfica sobre o teorema da irredutibilidade de Hilbert. Abordamos com detalhes as demonstrações da versão clássica feita pelo próprio Hilbert e das versões efetivas feitas por Erich Kaltofen e Shuhong Gao. Desenvolvemos um novo algoritmo para fatoração de polinômios multivariados inteiros usando logaritmo discreto. Nosso método é baseado em novos tipos de reduções de polinômios multivariados para polinômios bivariados, as quais têm como principal característica manter a esparsidade do polinômio. Nosso método mostrou-se eficiente quando usado para fatorar polinômios multivariados que possuem apenas fatores esparsos e quando usado para extrair fatores esparsos de polinômios multivariados que têm fatores esparsos e densos. Terminamos essa tese trabalhando com o máximo divisor comum (mdc) de polinômios. Estudamos critérios geométricos de politopos para determinar coprimalidade entre polinômios multivariados. Desenvolvemos um novo algoritmo que trabalha em tempo polinomial (sobre o número de monômios) para detectar coprimalidade entre polinômios multivariados usando seus politopos de Newton associados. Esse método geométrico tem a vantagem de determinar a coprimalidade entre famílias de polinômios, pois podemos mudar arbitrariamente os coeficientes dos polinômios desde que certos coeficientes permaneçam não nulos. Além disso, os polinômios permanecerão coprimos sobre qualquer corpo. Terminamos mostrando como construir o mdc entre dois polinômios bivariados usando seus polígonos de Newton associados. / In this dissertation we study multivariate polynomials. We begin with a bibliographical review on the Hilbert irreducibility theorem. We cover in detail the demonstrations of the classic version due to Hilbert himself and effective versions due to Erich Kaltofen and Shuhong Gao. We developed a new algorithm for factoring multivariate integral polynomials using discrete logarithm. Our method is based on new types of reductions, from multivariate polynomias to bivariate polynomials, whose main feature is to maintain the sparsity of the polynomial. Our method has proved to be eficient when used for factoring multivariate polynomials that have only sparse factors and when used to extract sparse factors of multivariate polynomials that have sparse and dense factors. We finish this dissertation studying the greatest common divisor (gcd) of polynomials. We study geometric criteria of polytopes to determine coprimality between multivariate polynomials. We developed a new algorithm that works in polynomial time (on the number of monomials) to detect coprimality between multivariate polynomials using their associated Newton polytopes. This geometric method has the advantage of determining the coprimality between families of polynomials, since we can arbitrarily change the polynomial coeficients as long as some coeficients remain nonzero. Moreover, the coprime polynomials shall remain coprime on anyfield. We ended up showing how to build the gcd between two bivariate polynomials using their associated Newton polygons.
323

Impacto de diferentes algoritmos e geometria de depósitos minerais no planejamento de longo prazo

Candido, Mateus Toniolo January 2012 (has links)
O principal objetivo do planejamento mineiro é determinar a distribuição de quantidade e qualidade do minério ao longo de uma sequencia de tempo, ou seja, determinar o minério necessário para tornar o projeto técnica e economicamente viável. Esse sequenciamento é fundamental para o sucesso financeiro de uma atividade de mineração e, atualmente, este sequenciamento ideal pode ser obtido por meio de vários aplicativos computacionais de mineração. Cada um deles têm suas particularidades que geralmente não são levadas em conta. As alterações resultantes de modelos diferentes de cava final podem ter impacto significativo sobre o sucesso da empresa tanto financeira quanto operacionalmente. A maioria dos estudos de planejamento de lavra apresenta a cava final calculada por um único algoritmo escolhido pelo engenheiro de projeto, devido à disponibilidade ou conhecimento em determinado aplicativo computacional. É importante que se tenha em mente que o objetivo do planejamento de lavra a longo prazo é definir os limites de cava final e o projeto de exaustão para um depósito mineral com base em uma função benefício, considerando fundamentalmente as receitas e os custos envolvidos desde a lavra até o processo e comercialização do produto. Além disso, restringe aspectos técnicos e geométricos do projeto, como ângulos de inclinação dos taludes, alturas de bancada, quantidades e teor de minério, bem como sua distribuição espacial, além da procura pelo máximo valor presente líquido, é necessário na tarefa de otimização de cava. Existem muitos algoritmos implementados em diversos programas comerciais para o cálculo da cava final e sequenciamento de longo prazo e, neste sentido, um dos objetivos deste trabalho é verificar a eficácia dos algoritmos que obtiveram maior reconhecimento dentro da indústria mineral, além de verificar se existem diferenças relacionadas com o tipo de mineralização e depósito onde eles são aplicados. A comparação é realizada usando dois programas comerciais e dois algoritmos diferentes para determinar se as diferenças podem ser observadas para tipos de mineralização distintos foi feita a implementação de dois algoritmos em modelos de blocos tridimensionais estimados e analisados para três tipos de depósito, um corpo de minério de cobre, um grande depósito de fosfato ígneo e uma mineralização aurífera, de espessura pequena relativamente à extensão em profundidade, apresentando um mergulho subvertical. / The main objective of mine planning is to determine ore quantity and quality distribution along a time sequence, i.e., scheduling the ore necessary to make the project technically and economic viable. These temporal sequences are fundamental for the financial success of a mine activity and presently this optimal sequence can be obtained through various mining software. Each of them has its particularities which generally are not taken into account. Changes resulting from different final pit models can have significant impact on the success of enterprise both financial and operational. Most studies in mine planning present the final pit calculated by only one algorithm chosen by the author, due to software availability or knowledge. The goal of the long-term mine planning is to define the boundaries of final pit for mine based on a profit function considering selling price discounted from mining and processing costs. Besides, technical constrains and geometrical aspects of the project, such as slope angles, bench heights, ore grade quantities and spatial distribution, looking for maximum net value are also necessary for the pit optimization task. There are many algorithms implemented in various commercial softwares for the ultimate pit calculation and one of the purposes of this work is to check the effectiveness of the algorithms that obtained greater recognition within the mineral industry and if there are differences related to the type of mineralization and deposit where they are applied. The comparison is performed using the two commercial softwares, and two different algorithms to determine if differences can be observed to different mineralization types. The implementation of the two algorithms in three-dimensional block models estimated and analyzed for three types of deposits: a massive copper orebody, a large igneous phosphate and a subvertical gold vein type.
324

Uma abordagem numérico-experimental para a identificação de dano estrutural utilizando o método Simulated Annealing

Ferreira, Franklin de Souza January 2008 (has links)
A detecção de dano estrutural é um assunto muito estudado em virtude do grau de responsabilidade envolvido na manutenção de certas estruturas por diversas décadas, tais como pontes, torres de transmissão de energia, ou mesmo em falhas mecânicas de componentes automotivos, navais, de aviação, etc. A identificação do dano em estruturas por meio de ensaios dinâmicos não destrutivos tem se tornado uma técnica atrativa, devido principalmente a redução de incertezas e queda nos preços dos equipamentos utilizados, tais como acelerômetros, placas de aquisição de sinais, computadores, etc. Simulated Annealing (Recozimento Simulado) é uma técnica baseada em algoritmos heurísticos utilizada para otimização (minimização ou maximização) de problemas de larga escala, sem necessidade de cálculos de gradientes, que contenham diversos ótimos locais, onde é necessário encontrar um ótimo global. No caso de detecção de danos, esta otimização pode ser usada para sintonizar o comportamento dinâmico de um modelo paramétrico com resultados experimentais modais, como por exemplo: freqüências naturais, amortecimento modal, modos, etc. Neste trabalho é avaliado o desempenho do emprego deste método na localização e quantificação de danos em estruturas simples. Alguns dos resultados foram comparados com uma outra técnica heurística de Algoritmos Genéticos. A avaliação das incertezas envolvidas na determinação dos parâmetros experimentais foi realizada de modo a se ter idéia da ordem de exatidão do sistema assim como limitações das previsões feitas por esta metodologia. Esta abordagem é de extrema importância, pois o sistema pode indicar falsos danos em virtude de falta de exatidão nas medições das freqüências naturais da estrutura estudada. Uma abordagem teórica nos casos da viga bi apoiada e engastada livre foi feita através da equação diferencial da viga. Esta abordagem demonstrou regiões onde certas freqüências não são alteradas independentemente da condição de dano. Esta é uma das maiores contribuições deste trabalho. O mesmo estudo foi feito de forma experimental, onde se verificou a confirmação dos lugares sugeridos pelos dois estudos anteriores, ou seja, determinadas freqüências não se alteram quando determinadas regiões da estrutura são danificadas. Concluiu-se que o método de simulated annealing tem eficiência equivalente aos algoritmos genéticos, pois em termos da eficiência em detectar corretamente danos, ele apresentou desempenho semelhante, o que foi comprovado pelas simulações numéricas e ensaios experimentais. As dificuldades de identificação de danos, como danos próximos as condições de contorno e danos menores de 10%, foram sentidos de forma parecida, sendo que para estes casos, o algoritmo não convergiu completamente. Os tempos de processamento em ambos os métodos de otimização foram similares, para todos os casos estudados. / The detection of structural damage has received an increasing interest on both academic research and industry application for several decades, including structures such as bridges, transmission lines towers, or even in automotive mechanical fault detection and naval and aviation components. The damage identification in structures by means of dynamic non-destructive tests became an attractive technique, since there was and increase in the measurement accuracy and cost decrease of devices used to perform this task, like accelerometers, data acquisition boards, computers, etc. Simulated Annealing is a technique that belongs to a class of the so called Heuristic Algorithms used in optimizations (maximizations or minimizations) of large scale problems. This technique does not use gradient evaluations and can be used with functions with several local optima, where it is desired to reach the global optimum. In damage detection, this technique can be used to tune the dynamic behavior of a parametric model with experimental modal results, such as: natural frequencies, modal damping, mode shapes, etc. In this work, the performance of this method in finding and quantificating damage in simple structures is evaluated. Some of the results were compared with another Heuristic technique: the Genetic Algorithm. The importance of uncertainties in the involved experimental parameters was investigated in order to estimate the system accuracy and limitations of the methodology. This approach is important, since the methodology could indicate false damages by virtue of lack of accuracy in the measurements. A theoretical approach for simple beams was accomplished by the differential equation of motion and a simple model for the crack. This study shows points where damage will not affect some frequencies, regardless of their extent. This is one of the main contributions of this work. The same study was carried experimentally, where there was a perfect agreement with the predicted sites for null interference suggested by the two previous studies, i.e., certain frequencies did not change when those sites where damaged. Finally it is concluded that the Simulated Annealing Technique has equivalent efficiency as the genetic algorithm, since the performance in detecting damage was similar, checked by the numerical simulations and experimental tests. The difficulties on damage identification lied in damage close to support conditions and damage about 10%, and for these cases, the algorithms did not converge completely. The processing times on both techniques used were similar, for all the studied cases.
325

Modelagem do comportamento de colônias de formigas em ambientes dinâmicos e sua aplicação em sistemas de roteamento de pacotes

MELO, Elton Bernardo Bandeira de 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:57:24Z (GMT). No. of bitstreams: 2 arquivo3189_1.pdf: 3006402 bytes, checksum: f2eae8d593b69c5c4fb2f7b31b101960 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Companhia Hidro Elétrica do São Francisco / Apresenta-se a modelagem do comportamento de formigas forrageiras em ambientes dinâmicos a partir de experimentos realizados com formigas reais em laboratório, em um aparato experimental composto por uma rede de túneis colocado entre o ninho das formigas a fonte de alimento. Durante os experimentos, há mudanças na topologia da área de forrageio, com a introdução e remoção de bloqueios de alguns túneis, o que exige a capacidade de adaptação das colônias para continuarem alimentando seus ninhos de modo eficiente. Neste trabalho é proposto um novo modelo para o comportamento das formigas, o Modelo FFAC-D (Formigas Forrageiras em Ambientes Confinados e Dinâmicos) é inspirado em evidências extraídas de estudos biológicos e mostra-se capaz de reproduzir os dados experimentais, superando o problema da estagnação evidenciado em modelos anteriores. Na segunda etapa desta dissertação, busca-se aplicar os mecanismos bem sucedidos do Modelo FFAC-D ao problema do roteamento em redes de pacotes. É feita uma revisão da literatura sobre algoritmos de roteamento baseados em formigas, e, em seguida, propõe-se um novo sistema para o roteamento de pacotes baseado no Modelo FFAC-D, o MARS (Memoryless Ants Routing System). O MARS é implementado em um simulador de eventos discretos voltado à simulação de redes (NS-2), e mostra-se eficaz para a solução do problema de roteamento, com desempenho superior ao AntNet no que diz respeito aos tempos de convergência e ao consumo de largura de banda (overhead). O MARS aponta ainda vatagens sobre outros algoritmos existentes relacionadas à segurança, resiliência e qualidade de serviço (QoS)
326

Desenvolvimento e análise de algorítmos probabilísticos de otimização global

Marques Cavalcanti, André January 2004 (has links)
Made available in DSpace on 2014-06-12T17:35:39Z (GMT). No. of bitstreams: 2 arquivo6983_1.pdf: 1862837 bytes, checksum: e0fcb825b04d3b7f64bcee6a89be5f0c (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / O desenvolvimento de algoritmos de otimização global irrestrita tem sido pesquisado na tentativa de obter algoritmos gerais que apresentem um bom desempenho em classes abrangentes de problemas de otimização. Os métodos que utilizam derivadas apresentam um bom desempenho mas, na grande maioria dos problemas esta informação não está disponível ou é de grande dificuldade a sua obtenção. Existe uma grande dificuldade de se estabelecer algoritmos eficientes sem a informação da derivada. Os métodos de busca direta se apoiam em heurísticas para determinar a direção de busca com certa eficiência, porém sem garantia de convergência. Este trabalho realiza uma avaliação do problema da convergência dos algoritmos de busca direta, desenvolve um modelo geral, estratégias de abordagem e melhorias, analisa e implementa um algoritmo que é capaz de determinar a direção de busca do ótimo de forma eficiente, sem o uso de derivadas. O software desenvolvido utiliza nuvens probabilísticas que fornecem o conhecimento da performance da distribuição de probabilidade da nuvem de pontos. Essa distribuição através dos seus momentos fornece a direção de aproximação do ponto de ótimo. Na presente pesquisa o algoritmo melhorado proposto apresentou uma excelente performance em relação às listas de Benchmark existentes e aceitas pela comunidade de otimização global. O aspecto mais relevante é a abrangência de classes de problemas possíveis de resolver com este algoritmo sem perda de performance em reconhecer a classe de problemas a ele submetido
327

Uma nova abordagem baseada em enxames de partículas para otimização de muitos objetivos

FIGUEIREDO, Elliackin Messias do Nascimento 17 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-14T18:55:09Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-16T19:59:21Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) / Made available in DSpace on 2018-08-16T19:59:21Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Elliackin Messias do Nascimento.pdf: 4712819 bytes, checksum: a74e4ee711cd8b7a125b8b4404512853 (MD5) Previous issue date: 2017-02-17 / CNPq / Many-Objective Optimization Problems (MaOPs) são uma classe especial de problemas multiobjetivos que apresentam quatro ou mais objetivos. Algoritmos evolucionários ou de enxame de partículas tradicionais falham ao tentarem resolver MaOPs pois eles se tornam ineficazes ou ineficientes nestes problemas. Em virtude disso, alguns pesquisadores propuseram diferentes estratégias para contornar as dificuldades impostas por MaOPs, sobretudo para Multiobjective Evolutionary Algorithms (MOEAs) tradicionais para esses problemas. Em contrapartida, muito pouco tem sido feito no sentido de adaptar algoritmos de Multiobjective Particle Swarm Optimizations (MOPSOs) para MaOPs. Não obstante, algoritmos baseados em enxames de partículas no geral são reconhecidos pela rápida velocidade de convergência em problemas com um único objetivo e por isso parecem ser também adequados para problemas multiobjetivos e com muitos objetivos. Desta forma, existe a necessidade de se desenvolver MOPSOs para lidar com MaOPs. Sendo assim, o objetivo desta tese foi desenvolver um MOPSO para resolver MaOPs no sentido de promover um maior balanceamento entre convergência para Frente de Pareto e diversidade de soluções nesses problemas. Para isso, o algoritmo proposto nesta tese usa um conjunto de pontos de referência para impor uma pressão de convergência para a Frente de Pareto enquanto permite um maior gerenciamento da diversidade. Além disso, a abordagem proposta usa um arquivo externo em que são armazenadas soluções não-dominadas e do qual são retirados os líderes sociais das partículas de acordo com duas medidas que foram propostas nesta tese, a saber, a medida de convergência e a medida de densidade. O objetivo dessas medidas é promover a convergência para a Frente de Pareto e promover a diversidade ao longo dela simultaneamente. A proposta foi avaliada usando seis problemas da família DTLZ com dois, três, cinco, sete e dez objetivos e usando métricas bem estabelecidas na literatura (distância geracional, distância geracional invertida e hipervolume) para medir a convergência e diversidade do conjunto solução obtido pelo algoritmo; e ele foi comparado com duas abordagens baseadas em enxames (SMPSO e CDAS-SMPSO) e três abordagens evolucionárias (CEGA, MDFA, e NSGA-III) afim de mostrar suas vantagens e pontos de melhorias frente a outros algoritmos bem estabelecidos na literatura. Os resultados mostraram que o algoritmo proposto foi bem sucedido em equilibrar convergência e diversidade nos problemas testados apresentando resultados equivalentes ou superiores ao NSGA-III que é uma das propostas mais bem sucedidas até o momento para lidar com problemas com muitos objetivos. Além disso, o algoritmo proposto foi aplicado em um problema real de projeto de redes ópticas de alta capacidade com o intuito de avaliar sua utilidade prática. / Many-Objective Optimization Problems (MaOPs) are an especial class of multiobjective problems in which four or more objectives are optimized simultaneously. Currently, these problems have attracted attention of the researchers due the two reasons: (i) many real-world applications are naturally many-objective problems and (ii) population-based heuristics presents great difficulties for solving these problems. For example, Paretodominance based algorithms such as Multiobjective Evolutionary Algorithms (MOEAs) and Multiobjective Particle Swarm Optimization (MOPSO) algorithms are ineffective in these problems because almost all solutions in the population become non-dominated solutions, resulting in loss of convergence pressure for the Pareto front. Because of this, researchers have proposed new strategies for dealing with this problems, mainly for MOEAs. However, very little has been done to make the MOPSOs effective in these scenarios. Regardless of this, Particle Swarm Optimization (PSO) algorithms are known by fast speed of convergence in single-objective problems and they seem be suitable for MaOPs. Moreover, to create algorithms that are capable of balancing both convergence and diversity is a research challange. Therefore, there are a necessity to develop PSO-based algorithms for dealing with MaOPs. Thus, this thesis proposes a new algorithm based on PSO whose aim is to promote a better balancing between convergence toward the Pareto front and diversity of solutions. To achieve this aim, the proposed algorithm uses a set of reference points to impose a selection pressure to Pareto front while it allows a better control of the diversity. Furthermore, our algorithm use an external archive where it maintains non-dominated solutions and from which the social leaders are picked in according to two measures proposed for us, namely, the convergence measure and the density measure. The objective of these measures is to promote the convergence toward Pareto Front and to promote the diversity along it simultaneously. To evaluate our algorithm we used three well-known metrics in the literature, namely, generational distance, inverted generational distance, and hypervolume; and six benchmark problems of the DTLZ family with two, three, five, seven and ten objectives. Moreover, the algorithm was compared to two PSObased algorithms (SMPSO and CDAS-SMPSO) and three evolutionary algorithms (MDFA, CEGA and NSGA-III). The results showed that our algorithm was sucessful in balancing the requirements of convergence and diversity in the test problems compared to other algorithms in the literature. Besides, our algorithm was applied in a real-world problem involving the physical topology design of optical network in which it obtained good results.
328

Estudo da estrutura porosa de empacotamento compacto aleatório de esferas rígidas.

SANTANA, D. W. O. 29 September 2017 (has links)
Made available in DSpace on 2018-08-01T21:59:24Z (GMT). No. of bitstreams: 1 tese_11430_Dissertação final Deivid Wilson Oliveira Santos.pdf: 3557089 bytes, checksum: 1e479b0b6461bcfe5a25b3ff9df4d107 (MD5) Previous issue date: 2017-09-29 / No início, o estudo dos empacotamentos compactos de corpos tinha a simples função de otimizar espaço físico. Os estudos pioneiros obtiveram grandes resultados em empacotamento de corpos com geometrias simples, proporcionado a utilização deste estudo para modelar a nascente estrutura atômica. Os estudos foram avançando até o ponto de serem utilizados para modelar estruturas complexas, como aglomerados de células e materiais heterogêneos porosos, sendo este último foco deste trabalho. Para esse objetivo, construímos empacotamentos compactos aleatórios de esferas rígidas, gerados por algoritmos computacionais comumente reportados na literatura. Nossos estudos caracterizaram do ponto de vista estatístico o meio poroso formado pelas regiões vazias do empacotamento aleatório de esferas. Seus descritores estatísticos, a função de autocorrelação estatística de dois-pontos 𝑆2(𝑟) e distribuição de tamanho de poros foram calculados e analisados. Particular ênfase foi dada ao cálculo da entropia da distribuição de tamanhos de poros e a sua interpretação em termos da proximidade do sistema ao limite de máxima densidade. Por último, fizemos a reconstrução da função de autocorrelação calculada numa rocha natural da formação Lagoa-Salgada, a partir de medidas estatísticas realizadas sobre um empacotamento compacto aleatório de esferas interpenetráveis. Este último ponto estudado é relevante no sentido que o estudo mostrou que é possível reconstruir, mesmo que parcialmente, a estrutura porosa de um material poroso natural. De forma geral, os resultados encontrados neste trabalho reproduziram resultados abordados na literatura sobre a caracterização morfológica de meios heterógenos, além de fornecer novas ideias acerca da possibilidade de utilizar ferramentas estatísticas visando reproduzir a morfologia porosa observada em rochas naturais.
329

Desenvolvimento e analise de novos algoritmos preditivos para equalização cega

Lopes, Renato da Rocha, 1972- 20 June 1997 (has links)
Orientador: João Marcos Travassos Romano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-22T13:16:06Z (GMT). No. of bitstreams: 1 Lopes_RenatodaRocha_M.pdf: 4980271 bytes, checksum: 222408619bc4aa9a9f680cb90da49958 (MD5) Previous issue date: 1997 / Resumo: Nesta tese serão estudadas algumas técnicas de equalização cega para um canal de comunicações. Serão abordadas principalmente as técnicas que se baseiam na teoria de predição linear e que, por isto, são chamadas técnicas preditivas de equalização cega. Inicialmente, será discutida a necessidade de um equalizador em um sistema de comunicações digitais, bem como as vantagens e desvantagens dos equalizadores cegos quando comparados aos equalizadores tradicionais. Em seguida, serão apresentadas algumas técnicas clássicas de equalização cega. Os princípios das técnicas preditivas de equalização cega serão, então, estudados e serão apresentados algoritmos adaptativos para os equalizadores preditivos. Estes algoritmos se baseiam no método do gradiente (LMS). Após esta apresentação inicial, a técnica preditiva de equalização cega baseada na equalização de magnitude e fase será estudada em maior profundidade. Nesta técnica, um preditor IIR é usado para corrigir as distorções que o canal provoca na magnitude do espectro de freqüência do sinal transmitido, enquanto que um filtro passa-tudo não linear é usado para corrigir as distorções de fase provocadas pela cascata do canal com o preditor IIR. Para esta estrutura, serão apresentados dois novos algoritmos, baseados nas técnicas de mínimos quadrados (RLS, do inglês Recursive Least Squares) e de Gauss-Newton (GN). Será feito em seguida um estudo teórico do equalizador de fase e dos algoritmos adaptativos propostos para esta estrutura. Será provado que os critérios de minimização associados ao equalizador de fase são unimodais e que os algoritmos propostos de fato convergem para este mínimo. Finalmente, simulações demonstrarão o bom desempenho desta técnica preditiva de equalização cega / Abstract: In this work, the blind equalization of a communication channel will be considered. The work will focus on the discussion of blind equalization techniques that are based on linear prediction theory. These are called predictive techniques for blind equalization. Firstly, the need for an equalizer in a communication system will be discussed, as well as the advantages and disadvantages of blind equalizers as opposed to supervised ones. Some traditional blind equalization techniques will be presented. Then, the principIes of predctive blind equalization techniques will be studied, and some adaptive algorithms for predictive equalizers will be presented. These algorithms are based on the steepest descent method (LMS). After this introductory presentation, this work will focus on a predictive technique based on magnitude and phase equalization. In this technique, a linear IIR preditor is used to compensate for the magnitude distortion caused by the channel, and a non-linear all-pass filter is used to compensate for the phase distortion introduced by the cascade of the channel and the predictor. Two new adaptive algorithms for this structure will be presented, one based on the least-squares method (RLS, Recursive Least Squares) and another one based on the Gauss-Newton method (GN). Some theoretical analysis of both the phase equalizer and the algorithms for this structure will then be carried on. It will be shown that the minimization criterion associated with the phase equalizer is unimodal. Furthermore, it will be shown that the proposed algorithms do converge to a point where they equalize the channel. Finnaly, some simulation results will confirm the effectiveness of these algorithms / Mestrado / Mestre em Engenharia Elétrica
330

Um ambiente para a analise superficial de linguas baseado em automatos finitos

Cáccamo, Mario José 30 March 1998 (has links)
Orientador: Tomasz Kowaltowski / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-23T12:27:31Z (GMT). No. of bitstreams: 1 Caccamo_MarioJose_M.pdf: 2620384 bytes, checksum: f5050f57d7a4e7f0276200dc83121f1c (MD5) Previous issue date: 1998 / Resumo: A análise sintática é uma componente fundamental da maioria dos sistemas de processamento automático de línguas. Tradicionalmente, esta tarefa foi implementada com técnicas derivadas do formalismo das Gramáticas Livres de Contexto. A demanda por sistemas eficientes motivou a pesquisa em busca de outras alternativas para a análise sintática. Alguns sistemas de processamento de línguas naturais não precisam de uma análise completa da estrutura profunda das sentenças (árvores de derivação), senão apenas dispor das relações superficiais entre às palavras de um texto. O objetivo de um analisador-superficial é determinar quais são as sentenças de uma língua, fornecendo apenas a informação sobre alguma característica em particular, evitando entrar em detalhes correspondentes à estrutura profunda. Este tipo de sistemas é mais eficientes e pode substituir uma análise sintática completa em várias aplicações. Nesta dissertação propõe-se um ambiente para implementar a análise superficial de línguas. A proposta consiste em representar as sentenças de uma língua usando seqüências de marcas chamadas de padrões sintáticos. Cada marca é uma categoria de palavras (adjetivos, substantivos, advérbios, etc). A hipótese é que o núcleo das sentenças usadas nos textos de uma língua pode ser capturado com um número computacionalmente tratável de padrões sintáticos. Estruturas de dados baseadas em autômatos finitos foram utilizadas para representar de forma compacta grandes vocabulários de palavras. Os padrões sintáticos são cadeias de símbolos comparáveis, em certo sentido, às palavras de um vocabulário e autômatos mostraram-se adequadas para armazená-los. Além disso, os autômatos permitem a implementação eficiente do algoritmo de reconhecimento proposto, e outros mais complexos, como o conselheiro gramatical apresentado nesta dissertação. Um dos problemas de muitas das propostas para a análise sintática de línguas é a falta de um método ou fonte de informação para construir um sistema que possa modelar um exemplo real. Como uma alternativa, propõe-se aqui a coleta de padrões sintáticos a partir de corpos de texto marcados. / Abstract: Syntactic analysis is an important component of most natural language processing systems. Typically parsers were implemented using techniques derived from Context Free Grammars. The increasing need for efficient systems was one of the reasons to search for new approaches to syntactic analysis. Some natural language applications do not need complete parsing of the deep structure of the sentences (derivation trees). In these cases, a representation of the surface relations among words in a text is enough. The goal of a surface parser is to recognize the natural language sentences providing information only about some particular features. It is not concerned with the deep structure of the sentences. This kind of parsers are more efficient and can replace a parser implementing a complete syntactic analysis in different situations. We propose in this dissertation an environment to implement surface parsing of natural languages. In our approach every sentence is represented by a sequence of part-of-speech tags cal\ed syntactic pattern. The hypothesis underlying our work is that the core of the sentences used in natural language texts can be captured with a computationally tractable number of syntactic patterns. Data structures based on finite-state automata have been used in representing1large word vocabularies. Syntactic patterns are strings of symbols that can be compared in some sense with words. We have shown that finite-state automata are adequate to' store syntactic patterns. Furthermore they allow an efficient implementation of the recognizing algorithms, and other more complex ones, as the agreement adviser presented in this work. One of the problems common to many approaches for syntactic parsing is the lack of a method or information source to build a system capable of mastering a real example. As an option, we propose the collection of syntactic patterns from annotated corpora of texts. / Mestrado / Mestre em Ciência da Computação

Page generated in 0.021 seconds