• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • 1
  • Tagged with
  • 7
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Paralelización de algoritmos de mallas geométricas en GPU

Muñoz Apablaza, Valentín Leonardo January 2014 (has links)
Ingeniero Civil en Computación / La resolución de diversos problemas en ciencia e ingeniería, requiere el apoyo de soluciones y herramientas computacionales que permitan representar, visualizar y modelar sus objetos de estudio, como superficies, terrenos o células. Una forma de representar estos objetos es mediante el uso de mallas geométricas, sobre las cuales se realizan operaciones y simulaciones para modelar los problemas inherentes a cada disciplina. Uno de los principales problemas asociados a trabajar con mallas geométricas, es el tiempo que demoran en ser procesadas. Con el auge de las tarjetas y procesadores gráficos (GPU), se han investigado nuevas técnicas que permitan usar el poder de computo de estas unidades, para desarrollar e implementar estos algoritmos. Actualmente se cuenta con una librería (llamada Cleap), la cual permite realizar la operación de triangulación de Delaunay en Paralelo usando GPU s de marca Nvidia. A ella, se desea integrar otros algoritmos que trabajen con mallas geométricas, como algoritmos de suavizado y simplificación, además de comparar su rendimiento y calidad con otras implementaciones ya existentes. En este trabajo, se investigó sobre algoritmos de suavizado, triangulación y simplificación de mallas geométricas, y luego se implementaron versiones de los dos primeros, los cuales fueron integrados en Cleap, y se comparó el rendimiento y calidad de sus soluciones. Con respecto al algoritmo de simplificación, solo se llegó hasta la fase de investigación teórica, pero se obtuvo la información y conocimientos necesarios para implementar e integrar una versión de este algoritmo. Los resultados muestran que el uso de la GPU permite reducir considerablemente los tiempos de ejecución, cuando se trabaja con mallas de gran tamaño, en comparación a sus contrapartes secuenciales, y que la calidad de sus resultados es similar o incluso mejor a la de las implementaciones conocidas actualmente. Estos resultados también muestran que no siempre lo que se espera teóricamente, ocurre en la práctica, debido a problemas y fallos que ocurren al realizar cálculos con error asociado, y detalles particulares asociados a una arquitectura o plataforma determinada.
2

Contribuciones al suavizado de color, compresión y registro de nubes de puntos 3D

Navarrete, Javier 20 May 2016 (has links)
No description available.
3

Analysis of main parameters in adaptive ES-MDA history matching. / Análise dos principais parâmetros no ajuste de histórico utilizando ES-MDA adaptativo.

Ranazzi, Paulo Henrique 06 June 2019 (has links)
In reservoir engineering, history matching is the technique that reviews the uncertain parameters of a reservoir simulation model in order to obtain a response according to the observed production data. Reservoir properties have uncertainties due to their indirect acquisition methods, that results in discrepancies between observed data and reservoir simulator response. A history matching method is the Ensemble Smoother with Multiple Data assimilation (ES-MDA), where an ensemble of models is used to quantify the parameters uncertainties. In ES-MDA, the number of iterations must be defined previously the application by the user, being a determinant parameter for a good quality matching. One way to handle this, is by implementing adaptive methodologies when the algorithm keeps iterating until it reaches good matchings. Also, in large-scale reservoir models it is necessary to apply the localization technique, in order to mitigate spurious correlations and high uncertainty reduction of posterior models. The main objective of this dissertation is to evaluate two main parameters of history matching when using an adaptive ES-MDA: localization and ensemble size, verifying the impact of these parameters in the adaptive scheme. The adaptive ES-MDA used in this work defines the number of iterations and the inflation factors automatically and distance-based Kalman gain localization was used to evaluate the localization influence. The parameters influence was analyzed by applying the methodology in the benchmark UNISIM-I-H: a synthetic large-scale reservoir model based on an offshore Brazilian field. The experiments presented considerable reduction of the objective function for all cases, showing the ability of the adaptive methodology of keep iterating until a desirable overcome is obtained. About the parameters evaluated, a relationship between the localization and the required number of iterations to complete the adaptive algorithm was verified, and this influence has not been observed as function of the ensemble size. / Em engenharia de reservatórios, ajuste de histórico é a técnica que revisa os parâmetros incertos de um modelo de simulação de reservatório para obter uma resposta condizente com os dados de produção observados. As propriedades do reservatório possuem incertezas, devido aos métodos indiretos em que foram adquiridas, resultando em discrepâncias entre os dados observados e a resposta do simulador de reservatório. Um método de ajuste de histórico é o Conjunto Suavizado com Múltiplas Aquisições de Dados (sigla em inglês ES-MDA), onde um conjunto de modelos é utilizado para quantificar as incertezas dos parâmetros. No ES-MDA o número de iterações necessita ser definido previamente pelo usuário antes de sua aplicação, sendo um parâmetro determinante para um ajuste de boa qualidade. Uma forma de contornar esta limitação é implementar metodologias adaptativas onde o algoritmo continue as iterações até que alcance bons ajustes. Por outro lado, em modelos de reservatórios de larga-escala é necessário aplicar alguma técnica de localização para evitar correlações espúrias e uma alta redução de incertezas dos modelos a posteriori. O principal objetivo desta dissertação é avaliar dois principais parâmetros do ajuste de histórico quando aplicado um ES-MDA adaptativo: localização e tamanho do conjunto, verificando o impacto destes parâmetros no método adaptativo. O ES-MDA adaptativo utilizado define o número de iterações e os fatores de inflação automaticamente e a localização no ganho de Kalman baseada na distância foi utilizada para avaliar a influência da localização. Assim, a influência dos parâmetros foi analisada aplicando a metodologia no benchmark UNISIM-I-H: um modelo de reservatório sintético de larga escala baseado em um campo offshore brasileiro. Os experimentos apresentaram considerável redução da função objetivo para todos os casos, mostrando a capacidade da metodologia adaptativa de continuar iterando até que resultados aceitáveis fossem obtidos. Sobre os parâmetros avaliados, foi verificado uma relação entre a localização e o número de iterações necessárias, influência esta que não foi observada em função do tamanho do conjunto.
4

[en] COMPARATIVE STUDY OF NUMERICAL METHODS FOR SOLVING THE ELASTICITY EQUATIONS IN TOPOLOGY OPTIMIZATION PROBLEMS / [pt] ESTUDO COMPARATIVO DE MÉTODOS NUMÉRICOS PARA SOLUÇÃO DAS EQUAÇÕES DA ELASTICIDADE EM PROBLEMAS DE OTIMIZAÇÃO TOPOLÓGICA

ANDRÉS JOSÉ RODRÍGUEZ TORRES 07 March 2017 (has links)
[pt] Este trabalho apresenta um estudo comparativo de métodos numéricos para solução das equações da elasticidade em problemas de otimização topológica. Um sistema computacional é desenvolvido em MATLAB para solução de problemas de otimização topológica usando malhas poligonais não estruturadas em domínios bidimensionais arbitrários. Dois métodos numéricos são implementados e comparados com o método dos elementos finitos (FEM) em relação à precisão e à eficiência computacional: o recém proposto Método dos Elementos Virtuais (VEM) e o Método dos Elementos Finitos Suavizados (SFEM). A principal característica que distingue estes métodos do FEM é que as funções de base canônicas não são obtidas de forma explícita. A utilização de projetores locais apropriados permite a extração do componente linear das deformações dos elementos e, por conseguinte, o cálculo da matriz de rigidez se reduz a avaliações de quantidades puramente geométricas. Exemplos numéricos representativos, usando malhas convexas e não convexas, para minimização da flexibilidade são apresentados para ilustrar as potencialidades dos métodos estudados. / [en] This work presents a comparative study of numerical methods for solving the elasticity equations in topology optimization problems. A computational framework is developed in MATLAB for solving topology optimization problems using unstructured polygonal meshes in arbitrary two-dimensional domains. Two numerical methods are implemented and compared with the finite element method (FEM) with respect to accuracy and computational efficiency: the recentlyproposed Virtual Element Method (VEM) and the Smoothed Finite Element Method (SFEM). The key characteristic that distinguish these methods from the FEM is that the canonical basis functions are not computed explicitly. The use of appropriate local projection maps allows the extraction of the linear component of the element deformations and, therefore, the computation of the stiffness matrix is reduced to the evaluation of purely geometric quantities. Representative numerical examples, using convex and non-convex meshes, for compliance minimization are presented to illustrate the capabilities of the methods studied.
5

Mobilidade de capital no Brasil no período de 1970-2007: análise pela abordagem intertemporal da conta corrente

Silva, Júlia Goes da 19 December 2012 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-06-23T19:43:06Z No. of bitstreams: 1 juliagoesdasilva.pdf: 980905 bytes, checksum: df0e8068aa03e5a954830f862e4dc02a (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-13T15:41:31Z (GMT) No. of bitstreams: 1 juliagoesdasilva.pdf: 980905 bytes, checksum: df0e8068aa03e5a954830f862e4dc02a (MD5) / Made available in DSpace on 2016-07-13T15:41:31Z (GMT). No. of bitstreams: 1 juliagoesdasilva.pdf: 980905 bytes, checksum: df0e8068aa03e5a954830f862e4dc02a (MD5) Previous issue date: 2012-12-19 / A discussão teórica em torno da mobilidade do capital pode ser divida em dois pontos de referência: um conduzido pela mensuração da relação entre poupança e investimento domésticos, conforme Feldstein e Horioka (1980); o outro pela análise das variâncias da conta corrente teórica e observada, como propõe Ghosh (1995). Ambos trouxeram importantes contribuições para testar suposições sobre o fluxo de capital entre nações, entretanto, o presente trabalho segue a linha de Ghosh (1995), se preocupando com a análise da conta corrente sob as hipóteses de equilíbrio intertemporal, limitando-se ao caso brasileiro no período de 1970 a 2007. Com o fim de encontrar evidências sobre o grau de mobilidade internacional do capital para o país, e sobre o comportamento suavizador da conta corrente, seguiu-se em boa medida a metodologia utilizada em Huang (2010), que levanta a hipótese da importância de incluir as variáveis taxa real de juros mundial e termos de troca no modelo básico de Ghosh (1995). Utilizando o método de Variável Instrumental, não foi possível estabelecer o grau de mobilidade de capital para o Brasil entre 1970-2007, pois o parâmetro que capta a relação entre produto líquido e conta corrente mostrou-se estatisticamente não diferente de zero. Todavia, a inclusão dos termos de troca e da taxa de juros ao modelo, resultou em melhor ajustamento das estimativas, confirmando a importância dessas para explicar os movimentos da conta corrente. Os resultados obtidos pelo VAR mostraram que a série gerada para a conta corrente teórica não se ajusta à observada. Entretanto, os resultados reafirmam a importância de incluir aquelas variáveis, e conduzem à constatação de excesso de mobilidade do capital entre 1970-2007. Mas, quando se observa a série teórica em subperíodos, de 1970-1989, de 1990-2007 e de 1994-2007, verifica-se que, para o modelo expandido (que inclui as variáveis propostas),o excesso de mobilidade não ocorre após 1994. / The theoretical debate on capital mobility can be divided into two strands in the literature: one based on measuring the saving-investment correlation following Feldstein and Horioka (1980) seminal paper; the other one comparing the variance of the theoretical current account derived from an intertemporal equilibrium model with its actual counterpart, as proposed by Ghosh (1995). In the present work it is analyzed the Brazilian case from 1970 to 2007 following the line of Ghosh (1995) who focuses on the analysis of the current account under the hypothesis of intertemporal equilibrium. In order to find evidence of the degree of international capital mobility, and of the behavior of smoothing current account, it is followed largely the model developed in Huang (2010) who investigated the importance of including world real interest rate and terms of trade in the basic model of Ghosh (1995). Using the method of Instrumental Variable as proposed in Huang (2010) the degree of capital mobility for Brazil between 1970 and 2007 could not be correctly evaluated because the key parameter that measures the degree of capital mobility was not statistically different from zero in all models estimated. However, it is found that the inclusion of terms of trade and interest rate in the estimated models improve the model fit to the actual current account, confirming the importance of these variables to explain its movements. Comparing the variances it is found that the generated theoretical current account does not match the volatility of the observed one leading to the finding of “excess mobility” as defined in Ghosh (1995) in the whole sample. Nevertheless, when we divide the theoretical series in three periods, namely, 1970-1989, 1990-2007 and 1994-2007, a different result emerges for the complete model (comprising all the variables proposed) with the “excess mobility” no longer holding after 1994.
6

Aportaciones al reconocimiento automático de texto manuscrito

Pastor Gadea, Moisés 06 May 2008 (has links)
En esta tesis se estudia el problema de la robustez en los sistemas de reconocimiento automático de texto manuscrito off-line. Los sistemas de reconocimiento automático de texto manuscrito estarán maduros para su uso generalizado, cuando sean capaces de ofrecer a cualquier usuario, sin ningún tipo de preparación o adiestramiento para su utilización, una productividad razonable. Se hace necesario pues, construir sistemas flexibles y robustos en cuanto a la entrada, de tal manera que no se requiera del escritor ningún esfuerzo extra, que no haría si escribiese para ser leído por un humano. La intención del preproceso de la señal es hacer el sistema invariante a fuentes de variabilidad que no ayuden a la clasificación. En la actualidad no hay definida una solución general para conseguir invariabilidad al estilo de escritura, y cada sistema desarrolla la suya ad-hoc. En esta tesis se explorarán diferentes métodos de normalización de la señal de entrada off-line. Para ello se hace un amplio estudio de algoritmos de preproceso, tanto a nivel de toda la imagen: umbralización, reducción del ruido y corrección del desencuadre; como a nivel de texto: slope, slant y normalización del tamaño de los caracteres. Los sistemas dependientes del escritor obtienen mejores tasas de acierto que los independientes del escritor. Por otra parte, los sistemas independientes del escritor tienen más facilidad para reunir muestras de entrenamiento. En esta tesis seestudiará la adaptación de sistemas independientes del escritor para su utilizaciónpor un único escritor, con la intención de que a partir de una pocas muestras producidas por este escritor se mejore la productividad del sistema (para este escritor), o lo que es lo mismo, que éste pueda escribir de manera más relajada sin que el sistema pierda productividad. Los sistemas de reconocimiento de texto manuscrito no están exentos de errores. No sólo interesa saber el número de errores que producirá / Pastor Gadea, M. (2007). Aportaciones al reconocimiento automático de texto manuscrito [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1832 / Palancia
7

Extensiones multivariantes del modelo "Besag, York y Mollié" : Aplicación al estudio de las desigualdades socioeconómicas en la mortalidad

Marí Dell'Olmo, Marc, 1978- 05 December 2012 (has links)
Esta tesis tiene dos objetivos principales. El primero es proponer métodos multivariantes para el estudio de las desigualdades socioeconómicas en la mortalidad en áreas pequeñas. El segundo es estudiar estas desigualdades en la práctica en varias ciudades españolas. En consecuencia, se han realizado cuatro estudios diferentes: dos de ellos más metodológicos y los otros dos más aplicados al estudio de las desigualdades. El primer estudio metodológico propone usar Análisis Factorial Bayesiano para el cálculo de índices de privación. Además, en este estudio se concluye que ignorar la variabilidad en la estimación del índice puede conducir a un sesgo cuando las áreas se agrupan según cuantiles del índice. En el segundo estudio se ha reformulado el modelo SANOVA de modo que es posible introducir una covariable dentro de este modelo. Asimismo, dicha reformulación permite la descomposición de la varianza de los patrones estudiados como suma de varianzas de todas las componentes del modelo. Finalmente, los estudios restantes evidencian la existencia de desigualdades socioeconómicas en la mortalidad total y en la mortalidad por las principales causas específicas en once ciudades españolas. Además, para las enfermedades isquémicas del corazón estas desigualdades parecen aumentar ligeramente en el tiempo. / This thesis has two main objectives. The first is to propose multivariate methods for the study of socioeconomic inequalities in mortality in small areas. The second is to study socioeconomic inequalities in mortality in small areas of several Spanish cities. Four different studies were conducted to attain these objectives: two of them focussed on the methodological aspects and the other two being empirical studies focussed on the study of inequalities. The first methodological study proposes the Bayesian factor analysis to calculate a deprivation index. Additionally, this study concludes that ignoring the uncertainty obtained in the estimation of the index may result in a misclassification bias when the areas are grouped according to quantiles of the index. In the second methodological study the SANOVA model has been reformulated enabling the introduction of a covariate in the model. Also, this reformulation permits the decomposition of the variance of the studied patterns into the sum of variances of all the model components. Finally, the other studies show the existence of socioeconomic inequalities in total mortality and mortality by specific causes in eleven major Spanish cities. In addition, for ischemic heart disease these inequalities appear to increase slightly over time.

Page generated in 0.0625 seconds