Spelling suggestions: "subject:"suavização"" "subject:"suavizar""
1 |
Paralelización de algoritmos de mallas geométricas en GPUMuñoz Apablaza, Valentín Leonardo January 2014 (has links)
Ingeniero Civil en Computación / La resolución de diversos problemas en ciencia e ingeniería, requiere el apoyo de soluciones
y herramientas computacionales que permitan representar, visualizar y modelar sus objetos
de estudio, como superficies, terrenos o células. Una forma de representar estos objetos es
mediante el uso de mallas geométricas, sobre las cuales se realizan operaciones y simulaciones
para modelar los problemas inherentes a cada disciplina.
Uno de los principales problemas asociados a trabajar con mallas geométricas, es el tiempo
que demoran en ser procesadas. Con el auge de las tarjetas y procesadores gráficos (GPU),
se han investigado nuevas técnicas que permitan usar el poder de computo de estas unidades,
para desarrollar e implementar estos algoritmos.
Actualmente se cuenta con una librería (llamada Cleap), la cual permite realizar la operación
de triangulación de Delaunay en Paralelo usando GPU s de marca Nvidia. A ella, se desea
integrar otros algoritmos que trabajen con mallas geométricas, como algoritmos de suavizado
y simplificación, además de comparar su rendimiento y calidad con otras implementaciones
ya existentes.
En este trabajo, se investigó sobre algoritmos de suavizado, triangulación y simplificación
de mallas geométricas, y luego se implementaron versiones de los dos primeros, los cuales
fueron integrados en Cleap, y se comparó el rendimiento y calidad de sus soluciones. Con
respecto al algoritmo de simplificación, solo se llegó hasta la fase de investigación teórica,
pero se obtuvo la información y conocimientos necesarios para implementar e integrar una
versión de este algoritmo.
Los resultados muestran que el uso de la GPU permite reducir considerablemente los
tiempos de ejecución, cuando se trabaja con mallas de gran tamaño, en comparación a sus
contrapartes secuenciales, y que la calidad de sus resultados es similar o incluso mejor a la
de las implementaciones conocidas actualmente. Estos resultados también muestran que no
siempre lo que se espera teóricamente, ocurre en la práctica, debido a problemas y fallos
que ocurren al realizar cálculos con error asociado, y detalles particulares asociados a una
arquitectura o plataforma determinada.
|
2 |
Contribuciones al suavizado de color, compresión y registro de nubes de puntos 3DNavarrete, Javier 20 May 2016 (has links)
No description available.
|
3 |
Analysis of main parameters in adaptive ES-MDA history matching. / Análise dos principais parâmetros no ajuste de histórico utilizando ES-MDA adaptativo.Ranazzi, Paulo Henrique 06 June 2019 (has links)
In reservoir engineering, history matching is the technique that reviews the uncertain parameters of a reservoir simulation model in order to obtain a response according to the observed production data. Reservoir properties have uncertainties due to their indirect acquisition methods, that results in discrepancies between observed data and reservoir simulator response. A history matching method is the Ensemble Smoother with Multiple Data assimilation (ES-MDA), where an ensemble of models is used to quantify the parameters uncertainties. In ES-MDA, the number of iterations must be defined previously the application by the user, being a determinant parameter for a good quality matching. One way to handle this, is by implementing adaptive methodologies when the algorithm keeps iterating until it reaches good matchings. Also, in large-scale reservoir models it is necessary to apply the localization technique, in order to mitigate spurious correlations and high uncertainty reduction of posterior models. The main objective of this dissertation is to evaluate two main parameters of history matching when using an adaptive ES-MDA: localization and ensemble size, verifying the impact of these parameters in the adaptive scheme. The adaptive ES-MDA used in this work defines the number of iterations and the inflation factors automatically and distance-based Kalman gain localization was used to evaluate the localization influence. The parameters influence was analyzed by applying the methodology in the benchmark UNISIM-I-H: a synthetic large-scale reservoir model based on an offshore Brazilian field. The experiments presented considerable reduction of the objective function for all cases, showing the ability of the adaptive methodology of keep iterating until a desirable overcome is obtained. About the parameters evaluated, a relationship between the localization and the required number of iterations to complete the adaptive algorithm was verified, and this influence has not been observed as function of the ensemble size. / Em engenharia de reservatórios, ajuste de histórico é a técnica que revisa os parâmetros incertos de um modelo de simulação de reservatório para obter uma resposta condizente com os dados de produção observados. As propriedades do reservatório possuem incertezas, devido aos métodos indiretos em que foram adquiridas, resultando em discrepâncias entre os dados observados e a resposta do simulador de reservatório. Um método de ajuste de histórico é o Conjunto Suavizado com Múltiplas Aquisições de Dados (sigla em inglês ES-MDA), onde um conjunto de modelos é utilizado para quantificar as incertezas dos parâmetros. No ES-MDA o número de iterações necessita ser definido previamente pelo usuário antes de sua aplicação, sendo um parâmetro determinante para um ajuste de boa qualidade. Uma forma de contornar esta limitação é implementar metodologias adaptativas onde o algoritmo continue as iterações até que alcance bons ajustes. Por outro lado, em modelos de reservatórios de larga-escala é necessário aplicar alguma técnica de localização para evitar correlações espúrias e uma alta redução de incertezas dos modelos a posteriori. O principal objetivo desta dissertação é avaliar dois principais parâmetros do ajuste de histórico quando aplicado um ES-MDA adaptativo: localização e tamanho do conjunto, verificando o impacto destes parâmetros no método adaptativo. O ES-MDA adaptativo utilizado define o número de iterações e os fatores de inflação automaticamente e a localização no ganho de Kalman baseada na distância foi utilizada para avaliar a influência da localização. Assim, a influência dos parâmetros foi analisada aplicando a metodologia no benchmark UNISIM-I-H: um modelo de reservatório sintético de larga escala baseado em um campo offshore brasileiro. Os experimentos apresentaram considerável redução da função objetivo para todos os casos, mostrando a capacidade da metodologia adaptativa de continuar iterando até que resultados aceitáveis fossem obtidos. Sobre os parâmetros avaliados, foi verificado uma relação entre a localização e o número de iterações necessárias, influência esta que não foi observada em função do tamanho do conjunto.
|
4 |
[en] COMPARATIVE STUDY OF NUMERICAL METHODS FOR SOLVING THE ELASTICITY EQUATIONS IN TOPOLOGY OPTIMIZATION PROBLEMS / [pt] ESTUDO COMPARATIVO DE MÉTODOS NUMÉRICOS PARA SOLUÇÃO DAS EQUAÇÕES DA ELASTICIDADE EM PROBLEMAS DE OTIMIZAÇÃO TOPOLÓGICAANDRÉS JOSÉ RODRÍGUEZ TORRES 07 March 2017 (has links)
[pt] Este trabalho apresenta um estudo comparativo de métodos numéricos para solução das equações da elasticidade em problemas de otimização topológica. Um sistema computacional é desenvolvido em MATLAB para solução de problemas de otimização topológica usando malhas poligonais não estruturadas em domínios bidimensionais arbitrários. Dois métodos numéricos são implementados e comparados com o método dos elementos finitos (FEM) em relação à precisão e à eficiência computacional: o recém proposto Método dos Elementos Virtuais (VEM) e o Método dos Elementos Finitos Suavizados (SFEM). A principal característica que distingue estes métodos do FEM é que as funções de base canônicas não são obtidas de forma explícita. A utilização de projetores locais apropriados permite a extração do componente linear das deformações dos elementos e, por conseguinte, o cálculo da matriz de rigidez se reduz a avaliações de quantidades puramente geométricas. Exemplos numéricos representativos, usando malhas convexas e não convexas, para minimização da flexibilidade são apresentados para ilustrar as potencialidades dos métodos estudados. / [en] This work presents a comparative study of numerical methods for solving the elasticity equations in topology optimization problems. A computational framework is developed in MATLAB for solving topology optimization problems using unstructured polygonal meshes in arbitrary two-dimensional domains. Two numerical methods are implemented and compared with the finite element method (FEM) with respect to accuracy and computational efficiency: the recentlyproposed Virtual Element Method (VEM) and the Smoothed Finite Element Method (SFEM). The key characteristic that distinguish these methods from the FEM is that the canonical basis functions are not computed explicitly. The use of appropriate local projection maps allows the extraction of the linear component of the element deformations and, therefore, the computation of the stiffness matrix is reduced to the evaluation of purely geometric quantities. Representative numerical examples, using convex and non-convex meshes, for compliance minimization are presented to illustrate the capabilities of the methods studied.
|
5 |
Mobilidade de capital no Brasil no período de 1970-2007: análise pela abordagem intertemporal da conta correnteSilva, Júlia Goes da 19 December 2012 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-06-23T19:43:06Z
No. of bitstreams: 1
juliagoesdasilva.pdf: 980905 bytes, checksum: df0e8068aa03e5a954830f862e4dc02a (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-13T15:41:31Z (GMT) No. of bitstreams: 1
juliagoesdasilva.pdf: 980905 bytes, checksum: df0e8068aa03e5a954830f862e4dc02a (MD5) / Made available in DSpace on 2016-07-13T15:41:31Z (GMT). No. of bitstreams: 1
juliagoesdasilva.pdf: 980905 bytes, checksum: df0e8068aa03e5a954830f862e4dc02a (MD5)
Previous issue date: 2012-12-19 / A discussão teórica em torno da mobilidade do capital pode ser divida em dois pontos de
referência: um conduzido pela mensuração da relação entre poupança e investimento
domésticos, conforme Feldstein e Horioka (1980); o outro pela análise das variâncias da conta
corrente teórica e observada, como propõe Ghosh (1995). Ambos trouxeram importantes
contribuições para testar suposições sobre o fluxo de capital entre nações, entretanto, o
presente trabalho segue a linha de Ghosh (1995), se preocupando com a análise da conta
corrente sob as hipóteses de equilíbrio intertemporal, limitando-se ao caso brasileiro no
período de 1970 a 2007. Com o fim de encontrar evidências sobre o grau de mobilidade
internacional do capital para o país, e sobre o comportamento suavizador da conta corrente,
seguiu-se em boa medida a metodologia utilizada em Huang (2010), que levanta a hipótese da
importância de incluir as variáveis taxa real de juros mundial e termos de troca no modelo
básico de Ghosh (1995). Utilizando o método de Variável Instrumental, não foi possível
estabelecer o grau de mobilidade de capital para o Brasil entre 1970-2007, pois o parâmetro
que capta a relação entre produto líquido e conta corrente mostrou-se estatisticamente não
diferente de zero. Todavia, a inclusão dos termos de troca e da taxa de juros ao modelo,
resultou em melhor ajustamento das estimativas, confirmando a importância dessas para
explicar os movimentos da conta corrente. Os resultados obtidos pelo VAR mostraram que a
série gerada para a conta corrente teórica não se ajusta à observada. Entretanto, os resultados
reafirmam a importância de incluir aquelas variáveis, e conduzem à constatação de excesso de
mobilidade do capital entre 1970-2007. Mas, quando se observa a série teórica em
subperíodos, de 1970-1989, de 1990-2007 e de 1994-2007, verifica-se que, para o modelo
expandido (que inclui as variáveis propostas),o excesso de mobilidade não ocorre após 1994. / The theoretical debate on capital mobility can be divided into two strands in the literature: one
based on measuring the saving-investment correlation following Feldstein and Horioka (1980)
seminal paper; the other one comparing the variance of the theoretical current account derived
from an intertemporal equilibrium model with its actual counterpart, as proposed by Ghosh
(1995). In the present work it is analyzed the Brazilian case from 1970 to 2007 following the
line of Ghosh (1995) who focuses on the analysis of the current account under the hypothesis
of intertemporal equilibrium. In order to find evidence of the degree of international capital
mobility, and of the behavior of smoothing current account, it is followed largely the model
developed in Huang (2010) who investigated the importance of including world real interest
rate and terms of trade in the basic model of Ghosh (1995). Using the method of Instrumental
Variable as proposed in Huang (2010) the degree of capital mobility for Brazil between 1970
and 2007 could not be correctly evaluated because the key parameter that measures the degree
of capital mobility was not statistically different from zero in all models estimated. However,
it is found that the inclusion of terms of trade and interest rate in the estimated models
improve the model fit to the actual current account, confirming the importance of these
variables to explain its movements. Comparing the variances it is found that the generated
theoretical current account does not match the volatility of the observed one leading to the
finding of “excess mobility” as defined in Ghosh (1995) in the whole sample. Nevertheless,
when we divide the theoretical series in three periods, namely, 1970-1989, 1990-2007 and
1994-2007, a different result emerges for the complete model (comprising all the variables
proposed) with the “excess mobility” no longer holding after 1994.
|
6 |
Aportaciones al reconocimiento automático de texto manuscritoPastor Gadea, Moisés 06 May 2008 (has links)
En esta tesis se estudia el problema de la robustez en los sistemas de
reconocimiento automático de texto manuscrito off-line. Los sistemas de
reconocimiento automático de texto manuscrito estarán maduros para su uso
generalizado, cuando sean capaces de ofrecer a cualquier usuario, sin ningún
tipo de preparación o adiestramiento para su utilización, una productividad
razonable. Se hace necesario pues, construir sistemas flexibles y robustos en
cuanto a la entrada, de tal manera que no se requiera del escritor ningún
esfuerzo extra, que no haría si escribiese para ser leído por un humano.
La intención del preproceso de la señal es hacer el sistema invariante a
fuentes de variabilidad que no ayuden a la clasificación. En la actualidad no
hay definida una solución general para conseguir invariabilidad al estilo de
escritura, y cada sistema desarrolla la suya ad-hoc. En esta tesis se
explorarán diferentes métodos de normalización de la señal de entrada
off-line. Para ello se hace un amplio estudio de algoritmos de preproceso,
tanto a nivel de toda la imagen: umbralización, reducción del ruido y
corrección del desencuadre; como a nivel de texto: slope, slant y
normalización del tamaño de los caracteres.
Los sistemas dependientes del escritor obtienen mejores tasas de acierto
que los independientes del escritor. Por otra parte, los sistemas
independientes del escritor tienen más facilidad para reunir muestras de
entrenamiento. En esta tesis seestudiará la adaptación de sistemas
independientes del escritor para su utilizaciónpor un único escritor, con la
intención de que a partir de una pocas muestras producidas por este escritor
se mejore la productividad del sistema (para este escritor), o lo que es lo
mismo, que éste pueda escribir de manera más relajada sin que el
sistema pierda productividad. Los sistemas de reconocimiento de texto
manuscrito no están exentos de errores. No sólo interesa saber el número de
errores que producirá / Pastor Gadea, M. (2007). Aportaciones al reconocimiento automático de texto manuscrito [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1832
|
7 |
Extensiones multivariantes del modelo "Besag, York y Mollié" : Aplicación al estudio de las desigualdades socioeconómicas en la mortalidadMarí Dell'Olmo, Marc, 1978- 05 December 2012 (has links)
Esta tesis tiene dos objetivos principales. El primero es proponer métodos multivariantes para el estudio de las desigualdades socioeconómicas en la mortalidad en áreas pequeñas. El segundo es estudiar estas desigualdades en la práctica en varias ciudades españolas. En consecuencia, se han realizado cuatro estudios diferentes: dos de ellos más metodológicos y los otros dos más aplicados al estudio de las desigualdades. El primer estudio metodológico propone usar Análisis Factorial Bayesiano para el cálculo de índices de privación. Además, en este estudio se concluye que ignorar la variabilidad en la estimación del índice puede conducir a un sesgo cuando las áreas se agrupan según cuantiles del índice. En el segundo estudio se ha reformulado el modelo SANOVA de modo que es posible introducir una covariable dentro de este modelo. Asimismo, dicha reformulación permite la descomposición de la varianza de los patrones estudiados como suma de varianzas de todas las componentes del modelo. Finalmente, los estudios restantes evidencian la existencia de desigualdades socioeconómicas en la mortalidad total y en la mortalidad por las principales causas específicas en once ciudades españolas. Además, para las enfermedades isquémicas del corazón estas desigualdades parecen aumentar ligeramente en el tiempo. / This thesis has two main objectives. The first is to propose multivariate methods for the study of socioeconomic inequalities in mortality in small areas. The second is to study socioeconomic inequalities in mortality in small areas of several Spanish cities. Four different studies were conducted to attain these objectives: two of them focussed on the methodological aspects and the other two being empirical studies focussed on the study of inequalities. The first methodological study proposes the Bayesian factor analysis to calculate a deprivation index. Additionally, this study concludes that ignoring the uncertainty obtained in the estimation of the index may result in a misclassification bias when the areas are grouped according to quantiles of the index. In the second methodological study the SANOVA model has been reformulated enabling the introduction of a covariate in the model. Also, this reformulation permits the decomposition of the variance of the studied patterns into the sum of variances of all the model components. Finally, the other studies show the existence of socioeconomic inequalities in total mortality and mortality by specific causes in eleven major Spanish cities. In addition, for ischemic heart disease these inequalities appear to increase slightly over time.
|
Page generated in 0.2365 seconds