Spelling suggestions: "subject:"algoritmo A*"" "subject:"lgoritmo A*""
51 |
Otimização estrutural utilizando o algoritmo evolucionário do enxame de partículasCorreia de Oliveira, Leonardo 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T17:36:38Z (GMT). No. of bitstreams: 2
arquivo2276_1.pdf: 2642883 bytes, checksum: 1f303d82998032e2904934b949150f26 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2008 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nas ciências em geral, o termo otimização se refere ao estudo de um conjunto de
técnicas que têm como objetivo a obtenção de um melhor resultado para uma função e
parâmetros (variáveis de projeto) pré-especificados dentro de um conjunto permitido (espaço
de projeto). A otimização em geral é feita através de procedimentos numéricos
computacionais. A maioria desses procedimentos utiliza algoritmos que fazem uso de
gradientes devido principalmente à eficiência computacional dos mesmos no processo de
obtenção de pontos de ótimo. No entanto, nas últimas décadas, algoritmos metaheurísticos
(algoritmos que não requerem cálculos de gradientes no processo de otimização) têm atraído
grande atenção da comunidade científica. Os algoritmos dessa classe geralmente imitam
algum fenômeno da natureza e são comumente chamados de algoritmos evolucionários.
Dentre as alternativas existentes nessa classe de algoritmos, podem ser citados: o
algoritmo genético (genetic algorithm GA), o recozimento simulado (simulated annealing
SA) e o enxame de partículas (particle swarm PS). Embora as técnicas citadas requeiram
mais avaliações de funções para encontrar uma solução ótima, quando comparadas com
algoritmos que utilizam o cálculo de gradientes, os algoritmos baseados em procedimentos
evolucionários apresentam várias vantagens, a saber: facilidade de programação; não
necessitam da garantia de continuidade nas funções envolvidas na definição do problema;
mais adequado na determinação de um ótimo global ou próximo do global; e adequados na
solução de problemas discretos.
Nos últimos três anos, o nosso grupo de pesquisa tem se empenhado na
implementação computacional e uso do algoritmo de otimização do enxame de partículas
(Particle Swarm Optimization - PSO). O algoritmo PSO se desenvolveu de experiências com
algoritmos que modelavam o comportamento de muitas espécies de pássaros. A metodologia
estudada tem fortes raízes em vida artificial e na psicologia social. Neste trabalho, o
procedimento desenvolvido é aplicado a uma diversidade de problemas que têm o intuito de
enfatizar a eficácia e versatilidade da metodologia estudada nos diversos tipos de problemas
existentes, inclusive em problemas práticos da engenharia.Várias versões foram desenvolvidas no ambiente MATLAB, onde o algoritmo PSO
está implementado, tanto para problemas que envolvem uma única função objetivo como para
aqueles que envolvem várias funções (otimização multiobjetivo). As várias opções
disponíveis estão configuradas em um ambiente bastante fácil de entender e de operar.
A utilização de modelos substitutos de baixo custo computacional, porém de precisão
aferida, constitui uma alternativa bastante promissora a ser utilizadas em tais algoritmos,
evitando desta forma uma grande demanda de tempo computacional, característica inerente
das metodologias evolucionárias acopladas a simuladores numéricos. Nesta combinação de
estratégias, o grande número de avaliações de funções requeridas pelo algoritmo
evolucionário não mais se darão através de simulações numéricas do problema real, e sim
através de cálculos rápidos que consideram o uso de modelos aproximados. Neste contexto, a
técnica escolhida foi o método das Bases Reduzidas. Além da opção de modelos substitutos,
uma implementação alternativa utilizando os paradigmas da computação paralela foi realizada
objetivando a eficiência computacional. Para essa implementação, as operações realizadas no
algoritmo PSO, como atualizações no decorrer das iterações e cálculo de funções de
avaliação, foram distribuídas entre as várias unidades de processamento disponíveis.
Ambos os aspectos acima mencionados são de crucial importância, especificamente
para o caso da aplicação dos algoritmos PSO em problemas da engenharia prática. As
aplicações deste trabalho se dirigiram ao uso de funções empíricas multimodais objetivando
mostrar a potencialidade da metodologia em se determinar a solução global, bem como as
funções provenientes da simulação numérica de treliças planas sob várias condições de
solicitação. Foram conduzidas otimizações uni e multiobjetivo considerando a abordagem
PSO, no contexto do uso de modelos reais e substitutos, e também alguns estudos utilizando o
algoritmo na versão da implementação computacional paralela
|
52 |
Análise comparativa dos algoritmos EM e SIMEX nos modelos lineares mistos aplicados ao análise de regressão com erros nas variáveis.Arturo Alejandro Zavala Zavala 16 February 2001 (has links)
O objetivo deste trabalho é apresentar a eficiência dos estimadores quando são usados os algoritmos SIMEX e EM nos modelos de regressão lineares mistos com erros nas variáveis, numa primeira etapa apresentamos o análise do algoritmo SIMEX num modelo de regressão simples com a finalidade de ver seus vantagens, numa segunda etapa apresentamos o modelos de regressão linear misto sem erros nas variáveis com a finalidade de observar seus estimadores, numa terceira etapa consideramos os algoritmos SIMEX e EM num modelo de regressão linear misto com erros nas variáveis, observando os estimadores obtidos e comparando-los com aqueles obtidos no modelo de regressão linear misto sem erros nas variáveis, com a finalidade de ver se os estimadores obtidos com os dois algoritmos são razoáveis, fazendo também uma comparação entre os estimadores obtidos por ambos algoritmos. Os programas foram feitos no pacote OX para a obtenção das estimativas dos algoritmos propostos.
|
53 |
Aplicação do algorítmo genético no mapeamento de genes epistáticos em cruzamentos controlados / Application of genetic algorithm in the genes epistatic map in controlled crossingsPaulo Tadeu Meira e Silva de Oliveira 22 August 2008 (has links)
O mapeamento genético é constituído por procedimentos experimentais e estatísticos que buscam detectar genes associados à etiologia e regulação de doenças, além de estimar os efeitos genéticos e as localizações genômicas correspondentes. Considerando delineamentos experimentais que envolvem cruzamentos controlados de animais ou plantas, diferentes formulações de modelos de regressão podem ser adotados na identificação de QTLs (do inglês, quantitative trait loci), incluindo seus efeitos principais e possíveis efeitos de interação (epistasia). A dificuldade nestes casos de mapeamento é a comparação de modelos que não necessariamente são encaixados e envolvem um espaço de busca de alta dimensão. Para este trabalho, descrevemos um método geral para melhorar a eficiência computacional em mapeamento simultâneo de múltiplos QTLs e de seus efeitos de interação. A literatura tem usado métodos de busca exaustiva ou busca condicional. Propomos o uso do algoritmo genético para pesquisar o espaço multilocos, sendo este mais útil para genomas maiores e mapas densos de marcadores moleculares. Por meio de estudos de simulações mostramos que a busca baseada no algoritmo genético tem eficiência, em geral, mais alta que aquela de um método de busca condicional e que esta eficiência é comparável àquela de uma busca exaustiva. Na formalização do algoritmo genético pesquisamos o comportamento de parâmetros tais como: probabilidade de recombinação, probabilidade de mutação, tamanho amostral, quantidade de gerações, quantidade de soluções e tamanho do genoma, para diferentes funções objetivo: BIC (do inglês, Bayesian Information Criterion), AIC (do inglês, Akaike Information Criterion) e SSE, a soma de quadrados dos resíduos de um modelo ajustado. A aplicação das metodologias propostas é também considerada na análise de um conjunto de dados genotípicos e fenotípicos de ratos provenientes de um delineamento F2. / Genetic mapping is defined in terms of experimental and statistical procedures applied for detection and localization of genes associated to the etiology and regulation of diseases. Considering experimental designs in controlled crossings of animals or plants, different formulations of regression models can be adopted in the identification of QTL\'s (Quantitative Trait Loci) to the inclusion of the main and interaction effects between genes (epistasis). The difficulty in these approaches of gene mapping is the comparison of models that are not necessarily nested and involves a multiloci search space of high dimension. In this work, we describe a general method to improve the computational efficiency in simultaneous mapping of multiples QTL\'s and their interactions effects. The literature has used methods of exhausting search or conditional search. We consider the genetic algorithm to search the multiloci space, looking for epistatics loci distributed on the genome. Compared to the others procedures, the advantage to use such algorithm increases more for set of genes bigger and dense maps of molecular markers. Simulation studies have shown that the search based on the genetic algorithm has efficiency, in general, higher than the conditional search and that its efficiency is comparable to that one of an exhausting search. For formalization of the genetic algorithm we consider different values of the parameters as recombination probability, mutation probability, sample size, number of generations, number of solutions and size of the set of genes. We evaluate different objective functions under the genetic algorithm: BIC, AIC and SSE. In addition, we used the sample phenotypic and genotypic data bank. Briefly, the study examined blood pressure variation before and after a salt loading experiment in an intercross (F2) progeny.
|
54 |
Optimização da operação de uma estação elevatória : minimização do custo da energia respeitando critérios de qualidade da águaAlmeida, Pedro Luís Campos de January 2010 (has links)
Tese de mestrado integrado. Engenharia Civil. Hidráulica. Universidade do Porto. Faculdade de Engenharia. 2010
|
55 |
Desenvolvimento de um algoritmo de estimação de estado com análises de observabilidade e tratamento das medidas críticasSilva, Celso Filipe Moreira da January 2010 (has links)
Tese de mestrado integrado. Engenharia Electrotécnica e de Computadores (Major Energia). Faculdade de Engenharia. Universidade do Porto. 2010
|
56 |
Paralelização em mecânica dos fluídos computacional usando HPFAlves, Luís Manuel January 2000 (has links)
Tese de mestr.. Métodos Computacionais em Ciência e Engenharia. Faculdade de Engenharia. Universidade do Porto. 2000
|
57 |
[en] A STUDY ABOUT THE PERFORMANCE AND THE CONVERGENCE OF GENETIC ALGORITHMS / [pt] UM ESTUDO SOBRE O DESEMPENHO E A CONVERGÊNCIA DE ALGORITMOS GENÉTICOSRODRIGO MORAES LIMA DE ARAUJO COSTA 07 August 2006 (has links)
[pt] Esta dissertação investiga a convergência e o desempenho
de Algoritmos Genéticos: os problemas, soluções e medidas
propostas. O trabalho consiste de cinco partes principais:
uma discussão sobre os fundamentos matemáticos que buscam
explicar o funcionamento de um Algoritmo genético; um
estudo dos principais problemas associados à convergência
e ao desempenho de Algoritmos genéticos; uma análise das
técnicas e algoritmos alternativos para a melhoria da
convergência; um estudo de medidas para estimar o grau de
dificuldade esperado para a convergência de Algoritmos
Genéticos; e estudo de casos.
Os fundamentos matemáticos de Algoritmos Genéticos têm por
base os conceitos de schema e blocos construtores,
desenvolvidos por Holland (apud Goldberb, 1989a). Embora
estes conceitos constituam a teoria fundamental sobre a
qual a convergência se baseia, há, no entanto, questões
importantes sobre o processo através do qual schemata
interagem durante a evolução de um Algoritmo genético
(Forrest et al, 1993b). Este trabalho apresenta uma
discussão sobre os principais questionamentos que têm sido
levantados sobre a validade destes fundamentos. São
discutidas as controvérsias geradas pela necessidade de
uma visão dinâmica dos Algoritmos Genéticos, onde a
amostra da população e os resultados obtidos pela
recombinação sejam considerados. Em especial, as objeções
apontadas pro Thornton (1995) quanto à coerência da
associação dos conceitos de schema e blocos construtores,
a contradição entre os Teoremas schema e Price vista por
Altemberg (1994), e as idéias de adequação do Teorema
Fundamental de Algoritmos Genéticos ao conceito de
variância dentro de uma população.
Os principais problemas de convergência e desempenho de um
Algoritmo Genético foram discutidos: a Decepção e a
Epistasia. É apresentada a idéia de que a Decepção, embora
esteja fortemente ligada à dificuldade de convergência de
Algoritmos Genéticos, não constitui fator suficiente para
que um problema seja considerado difícil para um Algoritmo
genético (GA-hard problems) (Grefenstette, 1993). São
também apresentados os coeficientes de Walsh (Goldberg,
1989b) e demonstrada a sua relação com as idéias de schema
e epistasia, e sua utilização em funções decepcionantes.
São analisadas diversas funções decepcionantes. São
analisadas diversas funções, associadas aos conceitos de
Decepção e Epistasia: as funções fully-deceptive e fully
easy com 6 bits, propostas por Deb e Goldberg (1994); as
funções deceptive but easy e non-deceptive but hard de
Grefenstette (op. Cit.); as funções F2 e F3 de Whitley
(1992), e ainda, as funções NK (apud Harvey, 1993) e Royal
Road (Forrest et al, op. Cit.)
Técnicas alternativas para melhorar a convergência incluem
basicamente algoritmos evolucionários com características
específicas a determinado tipo de problema. São analisados
alguns algoritmos alternativos, como o Messy de Goldberg
et alli (1989), o Estruturado de Dasgupta et al (s.d.), o
aumentado de Grefenstette (ibidem) e os algoritmos
propostos por Paredis (1996b). É ainda discutida e
exemplificada a importância da escolha adequada de
parâmetros e da representação de cromossomas, para que a
convergência seja mais facilmente alcançada.
O estudo de medidas de convergêcia de Algoritmos
Genéticos fornece uma classificação: medidas
probabilísticas e medidas baseadas em landscapes. São
apresentadas também as colocações de Koza (1994) e
Altemberg (op. Cit.) sobre a convergência de Algoritmos
Evolucionários. É dado destaque para medida da dificuldade
esperada para convergência baseada no Coeficiente de
Correlação entre a Aptidão e a Distância (FDC - Fitness
Distance Correlation), como proposto por Jones e Forrest
(1995b).
O estudo de casos consiste da análise do comportamento de
Algoritmos Genéticos pela medida FDC, quando aplicados a
um conjunto de funções matemáticas, incluindo as já citadas, e ainda as funções de teste propostas por De Jong (apud Goldberg, op. cit) e a função decepcionante de Liepins e Vose (apud Deb et al, 1994). Também é realizada uma extensão da medida de dificuldade FDC estudada, buscando adequá-la a uma visão mais dinâmica de Algoritmos Genéticos. Para executar estes testes, o ambiente GENEsYs 1.0, desenvolvido por Thomas Bäck (1992) (a partir de seu precursor Genesis de JOhn Grefenstette (apud Ribeiro et alli, 1994), foi adaptado e extendido. / [en] This wok investigates the convergence and the performance
of Genetic Algorithms: the problems, solutions and
proposed measures. It is divided into five topics: a
discussion on the mathematical foundations that explains
how Genetic Algorithms work: a study of the most important
problems associated to their convergence and performance;
an analysis of techniques and alternative Genetic
Algorithms to achieve better convergence; a study of
measures trying to estimate the level of difficulty for
the convergence of GA s; and case study.
The mathematical foundations are based in conceps of
schema and building blocks, developed by Holland (apud
Goldberg, 1989a). Although they constitute the fundamental
theory about Genetic Algorithms convergence, there has
been a lot of questions about the process in which
schemata interact during the evolution of GA s (Forrest et
al, 1993b). This work presents a discussion on the most
important questions that have been raised about the
validity of these foundations. Specifically the objections
pointed out by Thorton (1995) about the conference of the
association between schema and building blocks; the
contradiction between schema theorem and Price theorem,
mentioned by Altenberg (1994); and the new ideas raised by
the variance of fitness concept.
The most important problems related to the convergence and
performance of GA s are discussed, i.e. the Deception and
the Epistasis. Even though Deception can difficult the
convergence, the former does not constitute a sufficient
factor for the late (Grefenstette, 1993). The Walsh
coefficients (Goldberg, 1989b0 and their relation with
schema are presented, and also their utilization in
deceptive fuctions. Some functions are analised, based on
the concepts of Deception and Epistasis: the 6-bits fully-
deceptive function by Deb et all (1994): the 3-bits fully-
deceptive functions, by Deb et alli (1989); the functions
deceptive but easy and non-deceptive but hard of
Grefenstette (op. cit.) the F2 and F3 functions of Whitley
(1992) as well as the NK functions (apud Harvey, 1993) and
the Royal Road functions (Forrest et al, op. cit.).
The techniques included the alternative GA s, with special
carachteristics. The Messy GA of Goldberg (1989), the
Structured GA of Dasgupta (s.d.), the Augmenated GA of
Grefenstette (ibidem) and GA s fo Paredis (1996b). The
importance of a correct choice of parameters is also
discussed.
The study of measures classifies those Ga´s into two
types: probabilistics and based on landscapes. The
considerations of Koza (1994) and Altenberg (op. cit.) are
also discussed. It is given special enfasis to the FDC (
Fitness Distance Correlacion) measure, proposed by Jones
and Forrest (1995b).
The case study consists of the analysis of the behavior of
GA by the measure FDC, applied to a set of mathematical
functions. The environment used is GENEsYs 1.0, developed
by Thomas Bäck (1992) over the Genesis of Grefenstette.
The GENEsys 1.0 was adapted and expanded to fullfil the
requirements of this work.
|
58 |
Herramienta de resolución de triangulaciones geométricasDíaz Palacios, Javier Ulises January 2018 (has links)
Memoria para optar al título de Ingeniero Civil en Computación / La triangulación de Delaunay es una entidad geométrica con muchas aplicaciones en computación gráfica e ingeniería. Por lo general, su construcción es un problema difícil que a menudo viene acompañado con restricciones geométricas y de calidad. Para facilitar la experimentación de algoritmos relativos al problema de Delaunay, se presenta una herramienta con mejoras en simplicidad, desempeño y robustez frente a otras opciones existentes.
En primer lugar, se ofrece una implementación sólida del algoritmo de Delaunay incremental con intercambio de aristas, el cual es un método conocido que aborda el problema agregando cada punto de la triangulación secuencialmente. Esta implementación maneja las estructuras de datos de forma sencilla (triángulos con punteros a sus vecinos), por lo que es fácil de extender. Además, asegura que las triangulaciones siempre quedan bien definidas, anulando cualquier operación que invalide la triangulación de acuerdo con un criterio de robustez sobre los triángulos.
En segundo lugar, se implementa un algoritmo que adapta las triangulaciones para satisfacer restricciones en las aristas, el cual funciona por medio de una idea sencilla que reusa conceptos del algoritmo de Delaunay incremental. En cada iteración se localizan los triángulos que intersectan la arista que se quiere respetar y se intercambian las diagonales secuencialmente hasta que sea respetada.
Finalmente, el algoritmo Lepp-Centroide desarrollado por la profesora Rivara y coautores permite obtener una triangulación de buena calidad (ángulo mínimo acotado) por medio de la inserción de nuevos puntos. La implementación de esta memoria se comporta como ha sido establecido en estudios teóricos y prácticos previos, lo que significa que se consigue mejorar la calidad de las triangulaciones insertando pocos puntos y con restricciones geométricas menos fuertes.
|
59 |
Refuerzo de puentes de luces medias por conversión en arco atirantado tipo networkValenzuela Saavedra, Matías Andrés 23 March 2012 (has links)
Según estudios estadísticos a nivel mundial, una de las principales causas de fallos en
puentes corresponde a problemas relacionados con la interacción entre estructura e hidráulica
produciendo altos costos humanos y económicos. La mayoría de las patologías se relacionan con
procesos de socavación y erosión en pilas y estribos, específicamente en las cimentaciones de las
pilas, siendo necesario tomar medidas para su refuerzo.
Las dificultades en la inspección y mantenimiento de la infraestructura, junto con la
ineficiencia y elevados costos en la implementación de los refuerzos convencionales (pilotajes,
recrecidos, entre otros) ha motivado al Departamento de Puentes, Ministerio de Obras Públicas
de Chile, el desarrollo de una nueva técnica de refuerzo con el objetivo de eliminar la causa de la
patología: las pilas y sus cimentaciones, focalizándose el estudio en puentes con tipología de
viga continua de varios vanos de hormigón armado.
La metodología propuesta considera el cambio estructural del puente incorporando arcos
superiores atirantados con configuración de péndolas network y vertical encargados de levantar tablero y esfuerzos en el arco. A partir de ello, se verifica el comportamiento del refuerzo en
etapas de construcción y posteriormente en estado de servicio mediante un análisis de las cargas
de tráfico y accidentales (capítulo 5).
Los resultados dan lugar a la sistematización del método de refuerzo alternativo
propuesto, incluyendo la propuesta estructural y tecnológica, la factibilidad del proceso
constructivo y, finalmente, un conjunto de criterios básicos de diseño para este tipo de refuerzos
(capítulo 6).
Finalmente, la validación estructural del método y un primer estudio económico de costes
comparado respecto a otros métodos convencionales de refuerzo, entregan para futuros
ingenieros un conjunto de criterios y recomendaciones básicas para la implementación de esta
técnica.
el tablero del puente original, el cuál, gracias a la aplicación de un pretensado exterior, actúa
como tirante del sistema del arco, contrarrestando los empujes horizontales del mismo en los
arranques. El levantamiento del tablero desde los soportes permite la demolición de éstos,
reduciendo los riesgos relacionados con la interacción de la estructura con el flujo del cauce;
además de reutilizar parte del puente original y entregar un nuevo concepto estético.
Para determinar la factibilidad del método, se pone énfasis en el estudio del método
constructivo a partir del proceso de tesado de las péndolas así como en su comportamiento en
servicio posterior, teniendo en cuenta las solicitaciones sísmicas, de gran importancia en Chile.
El proceso constructivo a plantear debe satisfacer dos requisitos fundamentales: evitar tensiones
excesivas en el tablero para no superar las solicitaciones existentes en el puente original; y
permitir un levantamiento total de la superestructura desde las pilas dañadas.
El tener que mantener unos determinados niveles de tensión en el tablero original supone
una complejidad adicional respecto a lo que sería el diseño y construcción de un puente arco tipo
network totalmente nuevo. Nos encontramos pues ante un problema de optimización (orden y
magnitud de las fuerzas de tesado para levantar el tablero) con fuertes condiciones de contorno
(no superar los niveles máximos de esfuerzos en el tablero original). Frente a la complejidad del
proceso de optimización multiobjetivo del proceso de tesado, se descarta el uso de una
optimización manual (prueba y error), en favor de una metodología que combina el uso
automatizado de programas de elementos finitos y métodos de optimización meta-heurísticos
(algoritmos genéticos). Esta herramienta, desarrollada, calibrada y validada (capítulo 3),
proporciona todo un conjunto de soluciones factibles del proceso constructivo. El algoritmo
desarrollado se utiliza como herramienta para el estudio e implementación de esta metodología
en dos puentes carreteros ubicados en la zona central de Chile, con tipología original de viga
continua y con importantes problemas de socavación: San Luis (60 metros de longitud total
distribuidos en cuatro vanos) y Puangue (72 metros de longitud total distribuidos en cuatro
vanos).
Mediante la aplicación práctica a estos dos puentes carreteros, se desarrolla un estudio
paramétrico en etapa constructiva (capítulo 4), considerando como variables: el tipo de perfil del
arco, la configuración de las péndolas network, entre otros, entregándose la influencia que tiene
cada una de ellas en relación a la capacidad de levantamiento, admisibilidad de tensiones en el / According to statistical studies worldwide, one of the main causes of damages in bridges
correspond to problems related to the interaction between structure and hydraulic provoking high
human and economic costs. Most pathology is related to processes of scour and erosion in piers
and abutments, specifically in the foundations of the piers, being necessary to take strengthening
measures.
The difficulties in inspection and maintenance of infrastructure, and the inefficiency
related to the high costs in the implementation of conventional strengthening methods (pile
driving, screeds, etc.) has prompted the Department of Bridges, Ministry of Public Works of
Chile, the development of a new method of strengthening in order to eliminate the cause of the
pathology: the piers and its foundations, focusing the study on continuous bridges with several
spans and cross-section of built up reinforced concrete beams plus an upper slab.
The proposed methodology considers a structural change of bridge by the incorporation
of upper arches with a network and vertical hangers arrangement, which, through the application
of external prestressing, allows the system to behave as a bow tied, balancing the horizontal
thrusts in its edges. The lifting of the deck from the supports via the vertical hangers allows their
demolition, reducing the risks associated with the interaction of the structure with the river flow
(scour), in addition to reuse the original bridge and deliver a new aesthetic.
To determine the feasibility of the method, the study emphasizes on the construction
method, specially on the process of tensioning of the hangers and their behaviour in service,
considering the seismic loads, relevant in Chile. The construction process proposed must satisfy
two fundamental requirements: to avoid excessive stress on the deck not to exceed the stresses
existing in the original bridge or the maximum material strength and allowing a total lift of the
superstructure from the damaged piers.
Maintain certain level of stress on the original deck is an additional significant
complexity, compared with the design and construction of a new network arch bridge. This
derives on an optimization problem (order and magnitude of tensioning forces to lift the deck)
with strong boundary conditions (not to exceed the maximum internal forces in the original
deck). Given the complexity of multi-objective optimization of the tensioning process, the use of
manual optimization (trial and error) is rejected, for a methodology that combines the use of
automated finite element programs and methods of optimization meta-heuristics (genetic
algorithms). This tool, developed, calibrated and validated (Chapter 3) provides a whole set of
feasible solutions of the construction process. The algorithm developed is used as a tool for the
study and implementation of this methodology on two highway bridges located in central Chile,
with a original typology of continuous beam and important problems of scour: San Luis (60
meters total length in four spans) and Puangue (72 meters total length in four spans).
Through the practical application of these two road bridges, a parametric study of the
constructive stages is developed (Chapter 4), considering as variables: the arch profile, the
network hangers arrangement, among others, giving the influence of each in relation to the
lifting capacity, admissibility of stresses in the deck and internal forces in the arch. From this, the
performance in construction and service stages is studied through an analysis of traffic and
accidental loads (chapter 5). The results, lead to the systematization of the strengthening proposed method, including
structural and technological proposals, the feasibility of the construction process and finally, a
set of basic design criteria for this type of strengthening (Chapter 6).
Finally, the structural validation of the method and a first economic study of costs
compared to other conventional strengthening methods give a set of criteria and
recommendations for the implementation of this technique. / Segons estudis estadístics a nivell mundial, una de les principals causes de fallades en
ponts correspon a problemes relacionats amb la interacció entre estructura i hidràulica produint
alts costos humans i econòmics. La majoria de les patologies es relacionen amb processos
de soscavació i erosió en piles i estreps, específicament en les fonamentacions de les piles, i
caldrà prendre mesures per reforç.
Les dificultats en la inspecció i manteniment de la infraestructura, juntament amb la
ineficiència i elevats costos en la implementació dels reforços convencionals (pilotatges,
recrescuts, entre altres) ha motivat al Departament de Ponts, Ministeri d'Obres Públiques de Xile,
el desenvolupament de una nova tècnica de reforç amb l'objectiu d'eliminar la causa de la
patologia: les piles i els seus fonaments, focalitzant l'estudi en ponts amb tipologia de biga
contínua de diversos trams de formigó armat.
La metodologia proposada considera el canvi estructural del pont incorporant arcs
superiors atirantats amb configuració de pèndoles network i vertical encarregats d'aixecar el
tauler del pont original, el qual, gràcies a l'aplicació d'un pretensat exterior, actua com tirant del
sistema de l'arc, contrarestant les empentes horitzontals de la mateixa en les arrencades.
L'aixecament del tauler des dels supports permet la demolició d'aquests, reduint els riscos
relacionats amb la interacció de l'estructura amb el flux de la llera, a més de reutilitzar part del
pont original i donar un nou concepte estètic.
Per determinar la factibilitat del mètode, es posa èmfasi en l'estudi del mètode constructiu
a partir del procés de tesat de les pèndoles així com en el seu comportament en servei posterior,
tenint en compte les sol·licitacions sísmiques, de gran importància a Xile. El procés constructiu a
plantejar ha de satisfer dos requisits fonamentals: evitar tensions excessives en el tauler per no
superar les sol·licitacions existents en el pont original, i permetre un aixecament total de la
superestructura des de les piles danyades.
El haver de mantenir uns determinats nivells de tensió en el tauler original suposa una
complexitat addicional respecte al que seria el disseny i construcció d'un pont arc tipus network
totalment nou. Ens trobem doncs davant d'un problema d'optimització (ordre i magnitud de les
forces de tesat per aixecar el tauler) amb fortes condicions de contorn (no superar els nivells
màxims d'esforços en el tauler original). Davant la complexitat del procés d'optimització
multiobjectiu del procés de tesat, es descarta l'ús d'una optimització manual (prova i error), a
favor d'una metodologia que combina l'ús automatitzat de programes d'elements finits i mètodes
d'optimització meta-heurístics (algorismes genètics). Aquesta eina, desenvolupada, calibrada i
validada (capítol 3), proporciona tot un conjunt de solucions factibles del procés constructiu. El
algorisme desenvolupat s'utilitza com a eina per a l'estudi i implementació d'aquesta metodologia
en dos ponts carreters ubicats a la zona central de Xile, amb tipologia original de biga contínua i
amb importants problemes de soscavació: Sant Lluís (60 metres de longitud total distribuïts en
quatre obertures) i Puangue (72 metres de longitud total distribuïts en quatre obertures).
Mitjançant l'aplicació pràctica a aquests dos ponts carreters, es desenvolupa un estudi
paramètric en etapa constructiva (capítol 4), considerant com a variables: el tipus de perfil del
arc, la configuració de les pèndoles network, entre altres, lliurant la influència que té cada una
d'elles en relació a la capacitat d'aixecament, admissibilitat de tensions en el tauler i esforços en
l'arc. A partir d'això, es verifica el comportament del reforç en etapes de construcció i posteriorment en estat de servei mitjançant una anàlisi de les càrregues de trànsit i accidentals
(capítol 5).
Els resultats donen lloc a la sistematització del mètode de reforç alternatiu proposat,
inclosa la proposta estructural i tecnològica, la factibilitat del procés constructiu i, finalment, un
conjunt de criteris bàsics de disseny per a aquest tipus de reforços (capítol 6).
Finalment, la validació estructural del mètode i un primer estudi econòmic de costos
comparat respecte a altres mètodes convencionals de reforç, lliuren per a futurs enginyers un
conjunt de criteris i recomanacions bàsiques per a la implementació d'aquesta tècnica.
|
60 |
Un código de árbol para la dinámica de planetesimalesSantamaría, Pablo J. January 2004 (has links) (PDF)
La tesis se divide en cinco capítulos:
El capítulo 1 describe la teoría básica de los integradores simplécticos, las limitaciones que éstos sufren en situaciones de encuentros entre partículas, y como puede construirse un integrador que pueda resolver tales situaciones manteniendo a la vez la propiedad simpléctica.
El capítulo 2 plantea y construye un esquema computacionalmente eficiente para la evaluación de la interacción gravitatoria de un sistema formado por muchos cuerpos que será implementado en el algoritmo híbrido.
El capítulo 3 muestra un procedimiento eficiente para determinar los vecinos próximos y encuentros en base a la estructura presentada en el capítulo 2.
El capítulo 4 describe la determinación de órbitas centrales y encuentros binarios, proporcionando esta última la componente no simpléctica del algoritmo híbrido.
El capítulo 5 muestra los detalles prácticos de la implementación computacional del algoritmo híbrido y analiza el desempeño del mismo en una serie de experimentos numéricos sobre un problema típico de la dinámica de planetesimales.
|
Page generated in 0.0969 seconds