• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 878
  • 59
  • 58
  • 11
  • 1
  • 1
  • 1
  • Tagged with
  • 1016
  • 706
  • 298
  • 242
  • 159
  • 157
  • 150
  • 148
  • 146
  • 141
  • 133
  • 130
  • 112
  • 108
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Otimização estrutural utilizando o algoritmo evolucionário do enxame de partículas

Correia de Oliveira, Leonardo 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T17:36:38Z (GMT). No. of bitstreams: 2 arquivo2276_1.pdf: 2642883 bytes, checksum: 1f303d82998032e2904934b949150f26 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nas ciências em geral, o termo otimização se refere ao estudo de um conjunto de técnicas que têm como objetivo a obtenção de um melhor resultado para uma função e parâmetros (variáveis de projeto) pré-especificados dentro de um conjunto permitido (espaço de projeto). A otimização em geral é feita através de procedimentos numéricos computacionais. A maioria desses procedimentos utiliza algoritmos que fazem uso de gradientes devido principalmente à eficiência computacional dos mesmos no processo de obtenção de pontos de ótimo. No entanto, nas últimas décadas, algoritmos metaheurísticos (algoritmos que não requerem cálculos de gradientes no processo de otimização) têm atraído grande atenção da comunidade científica. Os algoritmos dessa classe geralmente imitam algum fenômeno da natureza e são comumente chamados de algoritmos evolucionários. Dentre as alternativas existentes nessa classe de algoritmos, podem ser citados: o algoritmo genético (genetic algorithm GA), o recozimento simulado (simulated annealing SA) e o enxame de partículas (particle swarm PS). Embora as técnicas citadas requeiram mais avaliações de funções para encontrar uma solução ótima, quando comparadas com algoritmos que utilizam o cálculo de gradientes, os algoritmos baseados em procedimentos evolucionários apresentam várias vantagens, a saber: facilidade de programação; não necessitam da garantia de continuidade nas funções envolvidas na definição do problema; mais adequado na determinação de um ótimo global ou próximo do global; e adequados na solução de problemas discretos. Nos últimos três anos, o nosso grupo de pesquisa tem se empenhado na implementação computacional e uso do algoritmo de otimização do enxame de partículas (Particle Swarm Optimization - PSO). O algoritmo PSO se desenvolveu de experiências com algoritmos que modelavam o comportamento de muitas espécies de pássaros. A metodologia estudada tem fortes raízes em vida artificial e na psicologia social. Neste trabalho, o procedimento desenvolvido é aplicado a uma diversidade de problemas que têm o intuito de enfatizar a eficácia e versatilidade da metodologia estudada nos diversos tipos de problemas existentes, inclusive em problemas práticos da engenharia.Várias versões foram desenvolvidas no ambiente MATLAB, onde o algoritmo PSO está implementado, tanto para problemas que envolvem uma única função objetivo como para aqueles que envolvem várias funções (otimização multiobjetivo). As várias opções disponíveis estão configuradas em um ambiente bastante fácil de entender e de operar. A utilização de modelos substitutos de baixo custo computacional, porém de precisão aferida, constitui uma alternativa bastante promissora a ser utilizadas em tais algoritmos, evitando desta forma uma grande demanda de tempo computacional, característica inerente das metodologias evolucionárias acopladas a simuladores numéricos. Nesta combinação de estratégias, o grande número de avaliações de funções requeridas pelo algoritmo evolucionário não mais se darão através de simulações numéricas do problema real, e sim através de cálculos rápidos que consideram o uso de modelos aproximados. Neste contexto, a técnica escolhida foi o método das Bases Reduzidas. Além da opção de modelos substitutos, uma implementação alternativa utilizando os paradigmas da computação paralela foi realizada objetivando a eficiência computacional. Para essa implementação, as operações realizadas no algoritmo PSO, como atualizações no decorrer das iterações e cálculo de funções de avaliação, foram distribuídas entre as várias unidades de processamento disponíveis. Ambos os aspectos acima mencionados são de crucial importância, especificamente para o caso da aplicação dos algoritmos PSO em problemas da engenharia prática. As aplicações deste trabalho se dirigiram ao uso de funções empíricas multimodais objetivando mostrar a potencialidade da metodologia em se determinar a solução global, bem como as funções provenientes da simulação numérica de treliças planas sob várias condições de solicitação. Foram conduzidas otimizações uni e multiobjetivo considerando a abordagem PSO, no contexto do uso de modelos reais e substitutos, e também alguns estudos utilizando o algoritmo na versão da implementação computacional paralela
52

Análise comparativa dos algoritmos EM e SIMEX nos modelos lineares mistos aplicados ao análise de regressão com erros nas variáveis.

Arturo Alejandro Zavala Zavala 16 February 2001 (has links)
O objetivo deste trabalho é apresentar a eficiência dos estimadores quando são usados os algoritmos SIMEX e EM nos modelos de regressão lineares mistos com erros nas variáveis, numa primeira etapa apresentamos o análise do algoritmo SIMEX num modelo de regressão simples com a finalidade de ver seus vantagens, numa segunda etapa apresentamos o modelos de regressão linear misto sem erros nas variáveis com a finalidade de observar seus estimadores, numa terceira etapa consideramos os algoritmos SIMEX e EM num modelo de regressão linear misto com erros nas variáveis, observando os estimadores obtidos e comparando-los com aqueles obtidos no modelo de regressão linear misto sem erros nas variáveis, com a finalidade de ver se os estimadores obtidos com os dois algoritmos são razoáveis, fazendo também uma comparação entre os estimadores obtidos por ambos algoritmos. Os programas foram feitos no pacote OX para a obtenção das estimativas dos algoritmos propostos.
53

Aplicação do algorítmo genético no mapeamento de genes epistáticos em cruzamentos controlados / Application of genetic algorithm in the genes epistatic map in controlled crossings

Paulo Tadeu Meira e Silva de Oliveira 22 August 2008 (has links)
O mapeamento genético é constituído por procedimentos experimentais e estatísticos que buscam detectar genes associados à etiologia e regulação de doenças, além de estimar os efeitos genéticos e as localizações genômicas correspondentes. Considerando delineamentos experimentais que envolvem cruzamentos controlados de animais ou plantas, diferentes formulações de modelos de regressão podem ser adotados na identificação de QTLs (do inglês, quantitative trait loci), incluindo seus efeitos principais e possíveis efeitos de interação (epistasia). A dificuldade nestes casos de mapeamento é a comparação de modelos que não necessariamente são encaixados e envolvem um espaço de busca de alta dimensão. Para este trabalho, descrevemos um método geral para melhorar a eficiência computacional em mapeamento simultâneo de múltiplos QTLs e de seus efeitos de interação. A literatura tem usado métodos de busca exaustiva ou busca condicional. Propomos o uso do algoritmo genético para pesquisar o espaço multilocos, sendo este mais útil para genomas maiores e mapas densos de marcadores moleculares. Por meio de estudos de simulações mostramos que a busca baseada no algoritmo genético tem eficiência, em geral, mais alta que aquela de um método de busca condicional e que esta eficiência é comparável àquela de uma busca exaustiva. Na formalização do algoritmo genético pesquisamos o comportamento de parâmetros tais como: probabilidade de recombinação, probabilidade de mutação, tamanho amostral, quantidade de gerações, quantidade de soluções e tamanho do genoma, para diferentes funções objetivo: BIC (do inglês, Bayesian Information Criterion), AIC (do inglês, Akaike Information Criterion) e SSE, a soma de quadrados dos resíduos de um modelo ajustado. A aplicação das metodologias propostas é também considerada na análise de um conjunto de dados genotípicos e fenotípicos de ratos provenientes de um delineamento F2. / Genetic mapping is defined in terms of experimental and statistical procedures applied for detection and localization of genes associated to the etiology and regulation of diseases. Considering experimental designs in controlled crossings of animals or plants, different formulations of regression models can be adopted in the identification of QTL\'s (Quantitative Trait Loci) to the inclusion of the main and interaction effects between genes (epistasis). The difficulty in these approaches of gene mapping is the comparison of models that are not necessarily nested and involves a multiloci search space of high dimension. In this work, we describe a general method to improve the computational efficiency in simultaneous mapping of multiples QTL\'s and their interactions effects. The literature has used methods of exhausting search or conditional search. We consider the genetic algorithm to search the multiloci space, looking for epistatics loci distributed on the genome. Compared to the others procedures, the advantage to use such algorithm increases more for set of genes bigger and dense maps of molecular markers. Simulation studies have shown that the search based on the genetic algorithm has efficiency, in general, higher than the conditional search and that its efficiency is comparable to that one of an exhausting search. For formalization of the genetic algorithm we consider different values of the parameters as recombination probability, mutation probability, sample size, number of generations, number of solutions and size of the set of genes. We evaluate different objective functions under the genetic algorithm: BIC, AIC and SSE. In addition, we used the sample phenotypic and genotypic data bank. Briefly, the study examined blood pressure variation before and after a salt loading experiment in an intercross (F2) progeny.
54

Optimização da operação de uma estação elevatória : minimização do custo da energia respeitando critérios de qualidade da água

Almeida, Pedro Luís Campos de January 2010 (has links)
Tese de mestrado integrado. Engenharia Civil. Hidráulica. Universidade do Porto. Faculdade de Engenharia. 2010
55

Desenvolvimento de um algoritmo de estimação de estado com análises de observabilidade e tratamento das medidas críticas

Silva, Celso Filipe Moreira da January 2010 (has links)
Tese de mestrado integrado. Engenharia Electrotécnica e de Computadores (Major Energia). Faculdade de Engenharia. Universidade do Porto. 2010
56

Paralelização em mecânica dos fluídos computacional usando HPF

Alves, Luís Manuel January 2000 (has links)
Tese de mestr.. Métodos Computacionais em Ciência e Engenharia. Faculdade de Engenharia. Universidade do Porto. 2000
57

[en] A STUDY ABOUT THE PERFORMANCE AND THE CONVERGENCE OF GENETIC ALGORITHMS / [pt] UM ESTUDO SOBRE O DESEMPENHO E A CONVERGÊNCIA DE ALGORITMOS GENÉTICOS

RODRIGO MORAES LIMA DE ARAUJO COSTA 07 August 2006 (has links)
[pt] Esta dissertação investiga a convergência e o desempenho de Algoritmos Genéticos: os problemas, soluções e medidas propostas. O trabalho consiste de cinco partes principais: uma discussão sobre os fundamentos matemáticos que buscam explicar o funcionamento de um Algoritmo genético; um estudo dos principais problemas associados à  convergência e ao desempenho de Algoritmos genéticos; uma análise das técnicas e algoritmos alternativos para a melhoria da convergência; um estudo de medidas para estimar o grau de dificuldade esperado para a convergência de Algoritmos Genéticos; e estudo de casos. Os fundamentos matemáticos de Algoritmos Genéticos têm por base os conceitos de schema e blocos construtores, desenvolvidos por Holland (apud Goldberb, 1989a). Embora estes conceitos constituam a teoria fundamental sobre a qual a convergência se baseia, há, no entanto, questões importantes sobre o processo através do qual schemata interagem durante a evolução de um Algoritmo genético (Forrest et al, 1993b). Este trabalho apresenta uma discussão sobre os principais questionamentos que têm sido levantados sobre a validade destes fundamentos. São discutidas as controvérsias geradas pela necessidade de uma visão dinâmica dos Algoritmos Genéticos, onde a amostra da população e os resultados obtidos pela recombinação sejam considerados. Em especial, as objeções apontadas pro Thornton (1995) quanto à  coerência da associação dos conceitos de schema e blocos construtores, a contradição entre os Teoremas schema e Price vista por Altemberg (1994), e as idéias de adequação do Teorema Fundamental de Algoritmos Genéticos ao conceito de variância dentro de uma população. Os principais problemas de convergência e desempenho de um Algoritmo Genético foram discutidos: a Decepção e a Epistasia. É apresentada a idéia de que a Decepção, embora esteja fortemente ligada à  dificuldade de convergência de Algoritmos Genéticos, não constitui fator suficiente para que um problema seja considerado difí­cil para um Algoritmo genético (GA-hard problems) (Grefenstette, 1993). São também apresentados os coeficientes de Walsh (Goldberg, 1989b) e demonstrada a sua relação com as idéias de schema e epistasia, e sua utilização em funções decepcionantes. São analisadas diversas funções decepcionantes. São analisadas diversas funções, associadas aos conceitos de Decepção e Epistasia: as funções fully-deceptive e fully easy com 6 bits, propostas por Deb e Goldberg (1994); as funções deceptive but easy e non-deceptive but hard de Grefenstette (op. Cit.); as funções F2 e F3 de Whitley (1992), e ainda, as funções NK (apud Harvey, 1993) e Royal Road (Forrest et al, op. Cit.) Técnicas alternativas para melhorar a convergência incluem basicamente algoritmos evolucionários com características especí­ficas a determinado tipo de problema. São analisados alguns algoritmos alternativos, como o Messy de Goldberg et alli (1989), o Estruturado de Dasgupta et al (s.d.), o aumentado de Grefenstette (ibidem) e os algoritmos propostos por Paredis (1996b). É ainda discutida e exemplificada a importância da escolha adequada de parâmetros e da representação de cromossomas, para que a convergência seja mais facilmente alcançada. O estudo de medidas de convergêcia de Algoritmos Genéticos fornece uma classificação: medidas probabilísticas e medidas baseadas em landscapes. São apresentadas também as colocações de Koza (1994) e Altemberg (op. Cit.) sobre a convergência de Algoritmos Evolucionários. É dado destaque para medida da dificuldade esperada para convergência baseada no Coeficiente de Correlação entre a Aptidão e a Distância (FDC - Fitness Distance Correlation), como proposto por Jones e Forrest (1995b). O estudo de casos consiste da análise do comportamento de Algoritmos Genéticos pela medida FDC, quando aplicados a um conjunto de funções matemáticas, incluindo as já citadas, e ainda as funções de teste propostas por De Jong (apud Goldberg, op. cit) e a função decepcionante de Liepins e Vose (apud Deb et al, 1994). Também é realizada uma extensão da medida de dificuldade FDC estudada, buscando adequá-la a uma visão mais dinâmica de Algoritmos Genéticos. Para executar estes testes, o ambiente GENEsYs 1.0, desenvolvido por Thomas Bäck (1992) (a partir de seu precursor Genesis de JOhn Grefenstette (apud Ribeiro et alli, 1994), foi adaptado e extendido. / [en] This wok investigates the convergence and the performance of Genetic Algorithms: the problems, solutions and proposed measures. It is divided into five topics: a discussion on the mathematical foundations that explains how Genetic Algorithms work: a study of the most important problems associated to their convergence and performance; an analysis of techniques and alternative Genetic Algorithms to achieve better convergence; a study of measures trying to estimate the level of difficulty for the convergence of GA s; and case study. The mathematical foundations are based in conceps of schema and building blocks, developed by Holland (apud Goldberg, 1989a). Although they constitute the fundamental theory about Genetic Algorithms convergence, there has been a lot of questions about the process in which schemata interact during the evolution of GA s (Forrest et al, 1993b). This work presents a discussion on the most important questions that have been raised about the validity of these foundations. Specifically the objections pointed out by Thorton (1995) about the conference of the association between schema and building blocks; the contradiction between schema theorem and Price theorem, mentioned by Altenberg (1994); and the new ideas raised by the variance of fitness concept. The most important problems related to the convergence and performance of GA s are discussed, i.e. the Deception and the Epistasis. Even though Deception can difficult the convergence, the former does not constitute a sufficient factor for the late (Grefenstette, 1993). The Walsh coefficients (Goldberg, 1989b0 and their relation with schema are presented, and also their utilization in deceptive fuctions. Some functions are analised, based on the concepts of Deception and Epistasis: the 6-bits fully- deceptive function by Deb et all (1994): the 3-bits fully- deceptive functions, by Deb et alli (1989); the functions deceptive but easy and non-deceptive but hard of Grefenstette (op. cit.) the F2 and F3 functions of Whitley (1992) as well as the NK functions (apud Harvey, 1993) and the Royal Road functions (Forrest et al, op. cit.). The techniques included the alternative GA s, with special carachteristics. The Messy GA of Goldberg (1989), the Structured GA of Dasgupta (s.d.), the Augmenated GA of Grefenstette (ibidem) and GA s fo Paredis (1996b). The importance of a correct choice of parameters is also discussed. The study of measures classifies those Ga´s into two types: probabilistics and based on landscapes. The considerations of Koza (1994) and Altenberg (op. cit.) are also discussed. It is given special enfasis to the FDC ( Fitness Distance Correlacion) measure, proposed by Jones and Forrest (1995b). The case study consists of the analysis of the behavior of GA by the measure FDC, applied to a set of mathematical functions. The environment used is GENEsYs 1.0, developed by Thomas Bäck (1992) over the Genesis of Grefenstette. The GENEsys 1.0 was adapted and expanded to fullfil the requirements of this work.
58

Herramienta de resolución de triangulaciones geométricas

Díaz Palacios, Javier Ulises January 2018 (has links)
Memoria para optar al título de Ingeniero Civil en Computación / La triangulación de Delaunay es una entidad geométrica con muchas aplicaciones en computación gráfica e ingeniería. Por lo general, su construcción es un problema difícil que a menudo viene acompañado con restricciones geométricas y de calidad. Para facilitar la experimentación de algoritmos relativos al problema de Delaunay, se presenta una herramienta con mejoras en simplicidad, desempeño y robustez frente a otras opciones existentes. En primer lugar, se ofrece una implementación sólida del algoritmo de Delaunay incremental con intercambio de aristas, el cual es un método conocido que aborda el problema agregando cada punto de la triangulación secuencialmente. Esta implementación maneja las estructuras de datos de forma sencilla (triángulos con punteros a sus vecinos), por lo que es fácil de extender. Además, asegura que las triangulaciones siempre quedan bien definidas, anulando cualquier operación que invalide la triangulación de acuerdo con un criterio de robustez sobre los triángulos. En segundo lugar, se implementa un algoritmo que adapta las triangulaciones para satisfacer restricciones en las aristas, el cual funciona por medio de una idea sencilla que reusa conceptos del algoritmo de Delaunay incremental. En cada iteración se localizan los triángulos que intersectan la arista que se quiere respetar y se intercambian las diagonales secuencialmente hasta que sea respetada. Finalmente, el algoritmo Lepp-Centroide desarrollado por la profesora Rivara y coautores permite obtener una triangulación de buena calidad (ángulo mínimo acotado) por medio de la inserción de nuevos puntos. La implementación de esta memoria se comporta como ha sido establecido en estudios teóricos y prácticos previos, lo que significa que se consigue mejorar la calidad de las triangulaciones insertando pocos puntos y con restricciones geométricas menos fuertes.
59

Refuerzo de puentes de luces medias por conversión en arco atirantado tipo network

Valenzuela Saavedra, Matías Andrés 23 March 2012 (has links)
Según estudios estadísticos a nivel mundial, una de las principales causas de fallos en puentes corresponde a problemas relacionados con la interacción entre estructura e hidráulica produciendo altos costos humanos y económicos. La mayoría de las patologías se relacionan con procesos de socavación y erosión en pilas y estribos, específicamente en las cimentaciones de las pilas, siendo necesario tomar medidas para su refuerzo. Las dificultades en la inspección y mantenimiento de la infraestructura, junto con la ineficiencia y elevados costos en la implementación de los refuerzos convencionales (pilotajes, recrecidos, entre otros) ha motivado al Departamento de Puentes, Ministerio de Obras Públicas de Chile, el desarrollo de una nueva técnica de refuerzo con el objetivo de eliminar la causa de la patología: las pilas y sus cimentaciones, focalizándose el estudio en puentes con tipología de viga continua de varios vanos de hormigón armado. La metodología propuesta considera el cambio estructural del puente incorporando arcos superiores atirantados con configuración de péndolas network y vertical encargados de levantar tablero y esfuerzos en el arco. A partir de ello, se verifica el comportamiento del refuerzo en etapas de construcción y posteriormente en estado de servicio mediante un análisis de las cargas de tráfico y accidentales (capítulo 5). Los resultados dan lugar a la sistematización del método de refuerzo alternativo propuesto, incluyendo la propuesta estructural y tecnológica, la factibilidad del proceso constructivo y, finalmente, un conjunto de criterios básicos de diseño para este tipo de refuerzos (capítulo 6). Finalmente, la validación estructural del método y un primer estudio económico de costes comparado respecto a otros métodos convencionales de refuerzo, entregan para futuros ingenieros un conjunto de criterios y recomendaciones básicas para la implementación de esta técnica. el tablero del puente original, el cuál, gracias a la aplicación de un pretensado exterior, actúa como tirante del sistema del arco, contrarrestando los empujes horizontales del mismo en los arranques. El levantamiento del tablero desde los soportes permite la demolición de éstos, reduciendo los riesgos relacionados con la interacción de la estructura con el flujo del cauce; además de reutilizar parte del puente original y entregar un nuevo concepto estético. Para determinar la factibilidad del método, se pone énfasis en el estudio del método constructivo a partir del proceso de tesado de las péndolas así como en su comportamiento en servicio posterior, teniendo en cuenta las solicitaciones sísmicas, de gran importancia en Chile. El proceso constructivo a plantear debe satisfacer dos requisitos fundamentales: evitar tensiones excesivas en el tablero para no superar las solicitaciones existentes en el puente original; y permitir un levantamiento total de la superestructura desde las pilas dañadas. El tener que mantener unos determinados niveles de tensión en el tablero original supone una complejidad adicional respecto a lo que sería el diseño y construcción de un puente arco tipo network totalmente nuevo. Nos encontramos pues ante un problema de optimización (orden y magnitud de las fuerzas de tesado para levantar el tablero) con fuertes condiciones de contorno (no superar los niveles máximos de esfuerzos en el tablero original). Frente a la complejidad del proceso de optimización multiobjetivo del proceso de tesado, se descarta el uso de una optimización manual (prueba y error), en favor de una metodología que combina el uso automatizado de programas de elementos finitos y métodos de optimización meta-heurísticos (algoritmos genéticos). Esta herramienta, desarrollada, calibrada y validada (capítulo 3), proporciona todo un conjunto de soluciones factibles del proceso constructivo. El algoritmo desarrollado se utiliza como herramienta para el estudio e implementación de esta metodología en dos puentes carreteros ubicados en la zona central de Chile, con tipología original de viga continua y con importantes problemas de socavación: San Luis (60 metros de longitud total distribuidos en cuatro vanos) y Puangue (72 metros de longitud total distribuidos en cuatro vanos). Mediante la aplicación práctica a estos dos puentes carreteros, se desarrolla un estudio paramétrico en etapa constructiva (capítulo 4), considerando como variables: el tipo de perfil del arco, la configuración de las péndolas network, entre otros, entregándose la influencia que tiene cada una de ellas en relación a la capacidad de levantamiento, admisibilidad de tensiones en el / According to statistical studies worldwide, one of the main causes of damages in bridges correspond to problems related to the interaction between structure and hydraulic provoking high human and economic costs. Most pathology is related to processes of scour and erosion in piers and abutments, specifically in the foundations of the piers, being necessary to take strengthening measures. The difficulties in inspection and maintenance of infrastructure, and the inefficiency related to the high costs in the implementation of conventional strengthening methods (pile driving, screeds, etc.) has prompted the Department of Bridges, Ministry of Public Works of Chile, the development of a new method of strengthening in order to eliminate the cause of the pathology: the piers and its foundations, focusing the study on continuous bridges with several spans and cross-section of built up reinforced concrete beams plus an upper slab. The proposed methodology considers a structural change of bridge by the incorporation of upper arches with a network and vertical hangers arrangement, which, through the application of external prestressing, allows the system to behave as a bow tied, balancing the horizontal thrusts in its edges. The lifting of the deck from the supports via the vertical hangers allows their demolition, reducing the risks associated with the interaction of the structure with the river flow (scour), in addition to reuse the original bridge and deliver a new aesthetic. To determine the feasibility of the method, the study emphasizes on the construction method, specially on the process of tensioning of the hangers and their behaviour in service, considering the seismic loads, relevant in Chile. The construction process proposed must satisfy two fundamental requirements: to avoid excessive stress on the deck not to exceed the stresses existing in the original bridge or the maximum material strength and allowing a total lift of the superstructure from the damaged piers. Maintain certain level of stress on the original deck is an additional significant complexity, compared with the design and construction of a new network arch bridge. This derives on an optimization problem (order and magnitude of tensioning forces to lift the deck) with strong boundary conditions (not to exceed the maximum internal forces in the original deck). Given the complexity of multi-objective optimization of the tensioning process, the use of manual optimization (trial and error) is rejected, for a methodology that combines the use of automated finite element programs and methods of optimization meta-heuristics (genetic algorithms). This tool, developed, calibrated and validated (Chapter 3) provides a whole set of feasible solutions of the construction process. The algorithm developed is used as a tool for the study and implementation of this methodology on two highway bridges located in central Chile, with a original typology of continuous beam and important problems of scour: San Luis (60 meters total length in four spans) and Puangue (72 meters total length in four spans). Through the practical application of these two road bridges, a parametric study of the constructive stages is developed (Chapter 4), considering as variables: the arch profile, the network hangers arrangement, among others, giving the influence of each in relation to the lifting capacity, admissibility of stresses in the deck and internal forces in the arch. From this, the performance in construction and service stages is studied through an analysis of traffic and accidental loads (chapter 5). The results, lead to the systematization of the strengthening proposed method, including structural and technological proposals, the feasibility of the construction process and finally, a set of basic design criteria for this type of strengthening (Chapter 6). Finally, the structural validation of the method and a first economic study of costs compared to other conventional strengthening methods give a set of criteria and recommendations for the implementation of this technique. / Segons estudis estadístics a nivell mundial, una de les principals causes de fallades en ponts correspon a problemes relacionats amb la interacció entre estructura i hidràulica produint alts costos humans i econòmics. La majoria de les patologies es relacionen amb processos de soscavació i erosió en piles i estreps, específicament en les fonamentacions de les piles, i caldrà prendre mesures per reforç. Les dificultats en la inspecció i manteniment de la infraestructura, juntament amb la ineficiència i elevats costos en la implementació dels reforços convencionals (pilotatges, recrescuts, entre altres) ha motivat al Departament de Ponts, Ministeri d'Obres Públiques de Xile, el desenvolupament de una nova tècnica de reforç amb l'objectiu d'eliminar la causa de la patologia: les piles i els seus fonaments, focalitzant l'estudi en ponts amb tipologia de biga contínua de diversos trams de formigó armat. La metodologia proposada considera el canvi estructural del pont incorporant arcs superiors atirantats amb configuració de pèndoles network i vertical encarregats d'aixecar el tauler del pont original, el qual, gràcies a l'aplicació d'un pretensat exterior, actua com tirant del sistema de l'arc, contrarestant les empentes horitzontals de la mateixa en les arrencades. L'aixecament del tauler des dels supports permet la demolició d'aquests, reduint els riscos relacionats amb la interacció de l'estructura amb el flux de la llera, a més de reutilitzar part del pont original i donar un nou concepte estètic. Per determinar la factibilitat del mètode, es posa èmfasi en l'estudi del mètode constructiu a partir del procés de tesat de les pèndoles així com en el seu comportament en servei posterior, tenint en compte les sol·licitacions sísmiques, de gran importància a Xile. El procés constructiu a plantejar ha de satisfer dos requisits fonamentals: evitar tensions excessives en el tauler per no superar les sol·licitacions existents en el pont original, i permetre un aixecament total de la superestructura des de les piles danyades. El haver de mantenir uns determinats nivells de tensió en el tauler original suposa una complexitat addicional respecte al que seria el disseny i construcció d'un pont arc tipus network totalment nou. Ens trobem doncs davant d'un problema d'optimització (ordre i magnitud de les forces de tesat per aixecar el tauler) amb fortes condicions de contorn (no superar els nivells màxims d'esforços en el tauler original). Davant la complexitat del procés d'optimització multiobjectiu del procés de tesat, es descarta l'ús d'una optimització manual (prova i error), a favor d'una metodologia que combina l'ús automatitzat de programes d'elements finits i mètodes d'optimització meta-heurístics (algorismes genètics). Aquesta eina, desenvolupada, calibrada i validada (capítol 3), proporciona tot un conjunt de solucions factibles del procés constructiu. El algorisme desenvolupat s'utilitza com a eina per a l'estudi i implementació d'aquesta metodologia en dos ponts carreters ubicats a la zona central de Xile, amb tipologia original de biga contínua i amb importants problemes de soscavació: Sant Lluís (60 metres de longitud total distribuïts en quatre obertures) i Puangue (72 metres de longitud total distribuïts en quatre obertures). Mitjançant l'aplicació pràctica a aquests dos ponts carreters, es desenvolupa un estudi paramètric en etapa constructiva (capítol 4), considerant com a variables: el tipus de perfil del arc, la configuració de les pèndoles network, entre altres, lliurant la influència que té cada una d'elles en relació a la capacitat d'aixecament, admissibilitat de tensions en el tauler i esforços en l'arc. A partir d'això, es verifica el comportament del reforç en etapes de construcció i posteriorment en estat de servei mitjançant una anàlisi de les càrregues de trànsit i accidentals (capítol 5). Els resultats donen lloc a la sistematització del mètode de reforç alternatiu proposat, inclosa la proposta estructural i tecnològica, la factibilitat del procés constructiu i, finalment, un conjunt de criteris bàsics de disseny per a aquest tipus de reforços (capítol 6). Finalment, la validació estructural del mètode i un primer estudi econòmic de costos comparat respecte a altres mètodes convencionals de reforç, lliuren per a futurs enginyers un conjunt de criteris i recomanacions bàsiques per a la implementació d'aquesta tècnica.
60

Un código de árbol para la dinámica de planetesimales

Santamaría, Pablo J. January 2004 (has links) (PDF)
La tesis se divide en cinco capítulos: El capítulo 1 describe la teoría básica de los integradores simplécticos, las limitaciones que éstos sufren en situaciones de encuentros entre partículas, y como puede construirse un integrador que pueda resolver tales situaciones manteniendo a la vez la propiedad simpléctica. El capítulo 2 plantea y construye un esquema computacionalmente eficiente para la evaluación de la interacción gravitatoria de un sistema formado por muchos cuerpos que será implementado en el algoritmo híbrido. El capítulo 3 muestra un procedimiento eficiente para determinar los vecinos próximos y encuentros en base a la estructura presentada en el capítulo 2. El capítulo 4 describe la determinación de órbitas centrales y encuentros binarios, proporcionando esta última la componente no simpléctica del algoritmo híbrido. El capítulo 5 muestra los detalles prácticos de la implementación computacional del algoritmo híbrido y analiza el desempeño del mismo en una serie de experimentos numéricos sobre un problema típico de la dinámica de planetesimales.

Page generated in 0.0502 seconds