Spelling suggestions: "subject:"interrelación"" "subject:"interpretación""
11 |
Recarga a los acuíferos españoles mediante balance hidrogeoquímicoAlcalá García, Francisco Javier 06 February 2006 (has links)
Esta tesis doctoral sienta las bases para calcular la recarga por la lluvia a los acuíferos por balance del ión cloruro (CMB), estimando en régimen estacionario y discutiendo su valor distribuido para todo el territorio español. Se aporta un valor de la tasa de recarga por la lluvia al terreno esperable en un lugar. El estudio de las variables del CMB es una contribución principal de este trabajo.La tasa media de deposición total de Cl en el centro peninsular es de 0,2 a 0,5 g·m-2·a-1. Es de 1 a 30 g·m-2·a-1 en la zona costera atlántica y de 1 a 15 g·m-2·a-1 en la mediterránea; en ambos casos con un fuerte gradiente de entre 0,1 y 1 g·m-2·a-1·km-1. Similar aspecto se produce en las áreas insulares. El coeficiente de variación de la tasa de deposición total de Cl aumenta de 0,10-0,20 en las zonas costeras hasta más de 0,40 en el interior peninsular; también aumenta con la cota topográfica. Este comportamiento se reproduce en los territorios insulares. El uso de la relación molar R = Cl/Br y ciertos criterios hidroquímicos de selección de muestras han asegurado que el contenido en Cl del agua de recarga no afectada en su salinidad natural deriva esencialmente del aerosol marino. Éste es de 10 a 50 mg/L en la zona costera atlántica y de 25 a 100 mg/L en la mediterránea. En el interior peninsular se miden contenidos entre 5 y 20 mg/L, e inferiores a 1 mg/L en zonas de cumbres. Los gradientes tentativos son de 0,2 a 1 mg·L-1·km-1 en zonas costeras. La situación en ambos archipiélagos es similar, aunque con contenidos en Cl y gradientes mayores. El coeficiente de variación del contenido en Cl es de 0,05-0,25 en las zonas costeras y de 0,15 a 0,55 en el interior peninsular. En los archipiélagos, el CV varía entre 0,10 y 0,20 en las zonas costeras de todas las islas y entre 0,10 y 0,40 en las islas de menor relieve. El flujo de Cl por la escorrentía directa, AE, oscila entre 2 y 8 g·m-2·a-1 en zonas costeras, y entre 0,02 a 0,05 g·m-2·a-1 en zonas de interior. El CVAE varía entre 0,10 y 0,30 en zonas costeras, y entre 0,40 y 1 en el interior. Los gradientes en la costa varían entre 0,05 y 0,20 g·m-2·a-1·km-1, y son de ~ 0,01 g·m-2·a-1·km-1 en el interior. La situación es similar en ambos archipiélagos.Las variables del CMB son características de un lugar y se han regionalizado espacialmente mediante krigeado ordinario (KO) e inverso de la distancia (ID), utilizando una malla regular de 5113 celdas de 10 km que cubre todo el territorio español. En cada nodo se ha interpolado un valor medio y un valor de coeficiente de variación de cada variable para obtener en ese nodo un valor de recarga media anual y un valor de su variabilidad natural. Los datos de las variables del CMB se han ajustado mediante semivariogramas teóricos de tipo esférico. Los valores medios de las variables se estabilizan entre 88 y 120 km; rango similar al obtenido para otras variables hidrológicas estimadas a la misma escala y para periodos plurianuales. Los coeficientes de variación se estabilizan entre 11 y 70 km. La varianza de estimación del contenido en Cl del agua de recarga es inferior al valor medio estimado en zonas costeras y de interior, y suele ser mayor al valor medio estimado para las otras dos variables en zonas costeras y de interior. Ambos métodos dan un rango de recarga media anual entre 1 y 800 mm·a-1 y estiman de forma similar valores entre 100 y 300 mm·a-1 y superiores. Los valores inferiores a 100 mm·a-1 están mejor estimados por el ID. Los mayores porcentajes de recarga son de ~ 60 % de la lluvia y se producen en zonas calcáreas peninsulares. Los porcentajes más bajos se miden en terrenos detríticos, en zonas semiáridas peninsulares e insulares y en ciertas zonas de interior donde afloran materiales cristalinos. El coeficiente de variación de la recarga oscila para el ID entre 0,15 y 1,7, y para el KO entre 0,2 y 1,7. Se recomienda usar el mapa de recarga media y de su coeficiente de variación obtenido mediante ID.La estimación de la recarga al terreno, sea éste acuífero o no, mediante el CMB usando métodos geoestadísticos de interpolación espacial de datos puede considerarse satisfactoria en la mayor parte del territorio español; es algo inicerta en zonas costeras, de alta variación orográfica o con pocos datos disponibles, y es bastante acertada en zonas con escaso control orográfico, lejos de la costa y con datos iniciales disponibles.
|
12 |
Reconstrucción de imágenes geológicas basadas en la teoría de compressed sensingCalderón Amor, Hernán Alberto January 2014 (has links)
Ingeniero Civil Eléctrico / En el ámbito de interpolación geoestadística, el principal problema para estimar variables regionalizadas es la baja cantidad de datos medidos. Este tipo de problemas están extremadamente indeterminados, es decir, presentan una mayor cantidad de grados de libertad que restricciones, lo que deriva en múltiples soluciones.
Este trabajo aborda el problema de interpolación de perfiles de permeabilidad desde un enfoque de reconstrucción de imágenes. En particular, el trabajo es motivado por el reciente desarrollo de la teoría RIPless de Compressed Sensing, herramienta que ha introducido un nuevo paradigma de adquisición de datos, permitiendo muestrear a tasas muy por debajo de las establecidas por las técnicas convencionales. El enfoque consiste en modelar las estructuras multicanal como imágenes que presentan una descomposición sparse en algún dominio transformado y utilizar esta información para reconstruir la imagen original a partir de un muestreo sub-crítico y no estructurado. Ésta es la principal diferencia con los métodos tradicionales, los cuales utilizan modelos estadísticos como información a priori para el proceso de estimación.
La principal contribución de este trabajo fue la contextualización del problema de interpolación espacial en el marco de Compressed Sensing, generando claras conexiones con los resultados teóricos de esta nueva herramienta. De este análisis, se formuló el problema de selección de base óptima, el cual indicó que bajo el esquema de medición aleatoria de pixeles, la DCT es la base que permite inducir un determinado error de reconstrucción con la menor cantidad de mediciones, superando incluso a las transformadas wavelet.
En la línea de los resultados obtenidos, este enfoque presenta prometedores desempeños, incluso en el régimen sub-crítico del 2% al 4% de datos medidos. En cuanto a los aspectos prácticos de procesamiento, la descomposición en distintos niveles de escala (bloques) para su reconstrucción y posterior promedio, mostró mejorías sustanciales en la estimación de las variables de permeabilidad. También se constató que, dada la naturaleza binaria de las imágenes estudiadas, una etapa de categorización genera importantes mejoras en los desempeños del método.
Finalmente, esta memoria abrió diversas ramas de estudio para trabajos futuros, dentro de los cuales destacan: implementación de otros algoritmos; estudio de técnicas de post-procesamiento más elaboradas; extender el análisis a diferentes estructuras o modelos geológicos; incorporación de información a priori en esquemas de reconstrucción; y uso conjunto de métodos convencionales y regularización sparse.
|
13 |
Estudio del decaimiento T2 de imágenes de Resonancia Magnética y corrección del artefacto de volúmenes parcialesCarrillo Lincopi, Hugo Patricio January 2016 (has links)
Ingeniero Civil Matemático / El presente trabajo muestra un estudio desde los fundamentos de resonancia magnética,
hasta el desarrollo de un problema que puede presentar aplicaciones en estudios en medicina.
Se expone el proceso físico de resonancia magnética y la producción de imágenes en un
lenguaje que pueda ser entendido para lectores que tengan una formación matemática. Luego
se presenta el problema matemático y el modelo de imágenes que se considera, seguido de un
desarrollo de la obtención de la solución a este problema, mostrando el camino que se puede
seguir recorriendo en esa misma línea.
El problema abordado trata de la reconstrucción del parámetro T2 de resonancia magnética,
llamado decaimiento transversal o spin-spin. T2 puede ser entendido como una función
que idealmente es constante por pedazos, donde cada valor es característico de un tejido. Es
decir, T2 es una herramienta para distinguir los tejidos presentes en el cuerpo que se estudia.
Físicamente, T2 caracteriza puntualmente un decaimiento exponencial de una cantidad
llamada densidad de spin. Sin embargo, en imágenes de resonancia magnética, las imágenes
son caracterizadas en pixeles. Hoy en día, la técnica de imágenes de resonancia magnética goza
de tener una gran resolución respecto a otros métodos de imágenes médicas, sin embargo, el
hecho de que la representación sea finita hace que siempre haya limitaciones. Una de aquellas
limitaciones es que dentro de un pixel puede no haber un decaimiento exponencial, debido a
que el pixel está representando un lugar en el espacio donde hay más de un tejido, o también
se arrastra un fenómeno llamado de Gibbs, el cual consiste en la contaminación del valor físico
que debería tener un pixel, debida a los pixeles cercanos. Estos son efectos de un muestreo
finito, el cual es realista, donde además se debe considerar el hecho de que se produce un
ruido aleatorio sobre las mediciones.
En este trabajo se muestra cómo se puede reconstruir el parámetro T2 mediante modelos de
decaimiento de una y dos exponenciales, y cómo el realizar interpolaciones sobre las imágenes
ayuda a reconstruir la geometría de los objetos que se están muestreando. Específicamente, se
desarrollan algoritmos que interpolan (y ajustan) en el espacio de la imagen o bien extrapolan
en el espacio de Fourier, usando splines bicúbicas regularizantes, o bien un rellenado con ceros
en el espacio de Fourier, seguido de una reconstrucción de valores de T2 que provienen de
ajuste de una o dos exponenciales, usando regresiones lineales y el método de Prony, seguido
de un criterio de binarización para decidir qué tejido asignarle a los pixeles refinados.
|
14 |
DESARROLLO E IMPLEMENTACIÓN DE ALGORITMOS PARA CLASIFICAR DATOS LIDAR EN AREAS URBANASSánchez Lopera, José 07 January 2016 (has links)
[EN] Light detection and ranging (LiDAR) is a remote-sensing technique used to obtain three-dimensional (3D) information of the Earth quickly and accurately.
In recent years, LiDAR technology systems have been intensively used in different urban applications such as map updating, communication analysis and virtual city modeling. In all applications mentioned is a prerequisite to detect the different objects in the scene. In this regard, one of the most challenging topics is considered to be automatic object classification due to the large variety of natural and man-made objects.
The increasing demand for a fast, efficient and automatic algorithm to extract three-dimensional urban features was the motive behind this thesis. Specifically, the objective of the research is the development and implementation of efficient algorithms in the field of classification of objects in complex urban areas with minimal dependence on preset thresholds, in order to achieve a greater degree of automation and greater consistency in the results.
The developed algorithms cover all phases of processing and pre-processing of LiDAR data, from the organization of the point cloud in spatial data structures to the neighbourhood definition, filtering and outlier detection and the classification of different entities that make up the scene. Furthermore , the whole pipeline proposed herein is fully automatic and is developed in C++.
The proposed classification process detects four entities: bare earth, bridges, buildings and vegetation with small objects. To identify each class different algorithms have been developed and evaluated on two complex urban areas.
To filter outliers different algorithms have been developed based on analysis of the neighborhood in terms of distribution of altitudes. In this regard, the best results are achieved by using a multiprocess approach with adaptive thresholds, achieving an overall classification accuracy of 99.9%.
Bare earth is classified using a new densification method that combines segmentation techniques and features of other methods such as morphological filters and interpolation-based Methods. The inclusion of additional analysis improves the classification, achieving an average of errors less than 0,5 % for both data test.
The classification of bridges is carried out by detecting edges and directional analysis of the structural continuity. Once again, the best results are achieved by using a multiprocess algorithm with adaptive thresholds.
To differentiate the buildings from vegetation and other small objects is introduced the new concept of angular classification. The more precise classification is obtained by combining the angular classifier with texture analysis techniques, achieving an average errors in building class in the range of 0,40 % and 1,52 %, depending on the application zone.
The experimental results confirm the high accuracy achieved to automatically classify urban objects in complex areas. Furthermore, it is noteworthy that the best results are obtained by multiprocess algorithms with adaptive thresholds or combining algorithms with different approaches. This latter aspect is one of the greatest contributions of the research proposed. / [ES] Light Detection and Ranging (LiDAR) es una técnica fotogramétrica y de teledetección frecuentemente utilizada para obtener con rapidez y precisión densa información 3D de la superficie terrestre.
En los últimos años, la tecnología LiDAR ha sido ampliamente utilizada en diferentes aplicaciones dentro de entornos urbanos tales como la actualización cartográfica, el análisis de comunicaciones y el modelado de ciudades virtuales. En todas las aplicaciones mencionadas resulta necesario detectar las distintas entidades que conforman la escena como paso previo. En este sentido, conseguir una clasificación automática es uno de los aspectos que mayor dificultad presenta debido a la gran variedad de objetos naturales y artificiales.
La creciente demanda de un algoritmo rápido, eficiente y automático para extraer características urbanas en tres dimensiones motivó el desarrollo de la presente tesis. Concretamente, el objetivo de la investigación es el desarrollo e implementación de algoritmos eficientes en el ámbito de la clasificación de entidades en áreas urbanas complejas que posean una dependencia mínima con respecto a los parámetros umbrales preestablecidos, con el fin de conseguir así un mayor grado de automatización y una mayor homogeneidad en los resultados.
Los algoritmos desarrollados abarcan la totalidad de fases propias del tratamiento y pre-procesado de datos LiDAR, desde la organización de la nube de puntos en estructuras espaciales de datos hasta la definición del vecindario, la detección y filtrado de errores groseros y la clasificación de las distintas entidades que componen la escena. Asimismo, toda la metodología propuesta es totalmente automática y se ha implementado en C++.
El proceso de clasificación propuesto detecta un total de cuatro entidades: terreno, puentes, edificios y vegetación junto con pequeños objetos. Para identificar cada clase diferentes algoritmos han sido desarrollados y evaluados sobre dos zonas test urbanas de gran complejidad.
Para filtrar errores groseros se han desarrollado distintos algoritmos basados en el análisis del vecindario en cuanto a distribución de altitudes. En este sentido, el que obtiene mejores resultados utiliza un enfoque multiproceso con parámetros umbrales adaptativos, alcanzando una exactitud global de la clasificación del 99,9%.
El terreno es clasificado mediante un nuevo método de densificación que combina técnicas de segmentación y características propias de otros métodos como filtros morfológicos y filtros basados en interpolación de superficies. La inclusión de análisis adicionales mejora la clasificación, consiguiendo una media de errores para ambas zonas test menor al 0,5 %.
La clasificación de puentes se realiza mediante la localización de bordes y el posterior análisis direccional de la continuidad estructural. De nuevo, los mejores resultados se alcanzan al utilizar un algoritmo multiproceso con parámetros adaptativos.
Para diferenciar los edificios de la vegetación y otros pequeños objetos se introduce el nuevo concepto de clasificador angular. La clasificación más precisa se obtiene al combinar el clasificador angular con técnicas de análisis de texturas, consiguiendo una media de errores en la clase edificio que oscila entre 0,40 % y 1,52 % dependiendo de la zona test.
Los resultados experimentales confirman la alta precisión conseguida en la clasificación automática de entidades en zonas urbanas complejas.. Además, cabe destacar que los resultados más precisos se obtienen al utilizar algoritmos multiproceso que ajustan automáticamente los parámetros umbrales, o bien al combinar algoritmos con enfoques distintos. Siendo este aspecto uno de los mayores aportes de la investigación. / [CA] Light Detection and Ranging (LiDAR) és una tècnica fotogramètrica i de teledetecció freqüentment utilitzada per obtenir amb rapidesa i precisió densa informació 3D de la superfície terrestre.
En els últims anys, la tecnologia LiDAR ha estat àmpliament utilitzada en diferents aplicacions dins d'entorns urbans com ara l'actualització cartogràfica, l'anàlisi de comunicacions i el modelat de ciutats virtuals, En totes les aplicacions esmentades resulta necessari detectar les diferents entitats que conformen l'escena com a pas previ. En aquest sentit, aconseguir una classificació automàtica és un dels aspectes que més dificultat presenta a causa de la gran varietat d'objectes naturals i artificials.
La creixent demanda d'un algoritme ràpid, eficient i automàtic per extraure característiques urbanes en tres dimensions va motivar el desenvolupament d'aquesta tesi. Concretament, l'objectiu de la investigació és el desenvolupament i implementació d'algoritmes eficients en l'àmbit de la classificació d'entitats en àrees urbanes complexes que posseïxen una dependència mínima pel que fa als paràmetres umbrals preestablerts, per tal d'aconseguir així un major grau de automatització i una major homogeneïtat en els resultats.
Els algoritmes desenvolupats comprenen la totalitat de fases pròpies del tractament i pre-processat de dades LiDAR, des de l'organització del núvol de punts en estructures espacials de dades fins a la definició del veïnat, detecció i filtrat d'errors grossers i la classificació de les diferents entitats que componen l'escena. Així mateix, tota la metodologia proposada és totalment automàtica i s'ha desenvolupat en C++.
El procés de classificació proposat detecta un total de quatre entitats: terreny, ponts, edificis i vegetació juntament amb petits objectes. Per identificar cada classe diferents algoritmes han estat desenvolupats i avaluats sobre dues zones test urbanes de gran complexitat.
Per filtrar errors grossers s'han desenvolupat diferents algoritmes basats en l'anàlisi del veïnat quant a distribució d'altituds. En aquest sentit, el que obté millors resultats utilitza un enfocament multiprocés amb paràmetres umbrals adaptatius, aconseguint una exactitud global de la classificació del 99,9%.
El terreny és classificat mitjançant un nou mètode de densificació que combina tècniques de segmentació i característiques pròpies d'altres mètodes com filtres morfològics i filtres basats en interpolació de superfícies. La inclusió d'anàlisis addicionals millora la classificació, aconseguint una mitjana d'errors per a ambdues zones test menor al 0,5 %.
La classificació de ponts es realitza mitjançant la localització de vores i la posterior anàlisi direccional de la continuïtat estructural. De nou, els millors resultats s'aconsegueixen amb la utilització d'un algoritme multiprocés amb paràmetres adaptatius.
Per diferenciar els edificis de la vegetació i altres petits objectes s'introdueix el nou concepte de classificador angular. La classificació més precisa s'obté combinant el classificador angular amb tècniques d'anàlisis de textures, aconseguint una mitjana d'errors a la classe edifici que oscil¿la entre 0,40 % i 1,52 % depenent de la zona test.
Els resultats experimentals confirmen l'alta precisió aconseguida en la classificació automàtica d'entitats en zones urbanes complexes. A més, cal destacar que els resultats més precisos s'obtenen utilitzant algoritmes multiprocés que ajusten automàticament els paràmetres umbrals, o bé combinant algoritmes amb enfocaments diferents. Aquest aspecte es una de les majors aportacions de la investigació. / Sánchez Lopera, J. (2015). DESARROLLO E IMPLEMENTACIÓN DE ALGORITMOS PARA CLASIFICAR DATOS LIDAR EN AREAS URBANAS [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59395
|
15 |
Downscaling estadístico de series climáticas mediantes redes neuronales: reconstrucción en alta resolución de la temperatura diaria para la Comunidad Valenciana. Interpolación espacial y análisis de tendencias (1948-2011)Miró Pérez, Juan Javier 17 January 2014 (has links)
No description available.
|
16 |
Morphing arquitectónico: transformaciones entre las casas usonianas de Frank Lloyd WrightHerrera Velazco, Rodrigo 16 February 2012 (has links)
Esta tesis investiga sobre el proceso de transformación de la forma arquitectónica, analizando una técnica
específica denominada morphing. La técnica del morphing se utiliza en los gráficos por ordenador para la
transformación de la forma entre dos o más objetos dados. Desde un punto de vista técnico, se revisan y
actualizan las metodologías y aplicaciones existentes, sus características específicas y sus incidencias sobre
la arquitectura. Desde un punto de vista práctico, se utilizan una serie de modelos de las casas Usonianas de
Frank Lloyd Wright, con el fin de experimentar la técnica y ver qué utilidades se pueden obtener a partir de su
lógica de diseño. Como resultado de este análisis se obtiene una metodología genérica para el procedimiento
de un morphing arquitectónico. / This thesis investigates the transformation of architectural form, analyzing a specific technique called morphing.
Morphing is a technique used in computer graphics to transform a form between two or more given objects.
From a technical point of view, the existing techniques are reviewed and updated, as well as their specific
characteristics and impact on architecture. From a practical point of view, some models of Usonian houses of
Frank Lloyd Wright are used to experience the technique and see which utilities are available from his design
logic. As a result of this analysis a generic methodology for the process of architectural morphing is obtained.
|
17 |
Stabilized finite element methods for convection-diffusion-reaction, helmholtz and stokes problemsNadukandi, Prashanth 13 May 2011 (has links)
We present three new stabilized finite element (FE) based Petrov-Galerkin methods for the convection-diffusionreaction
(CDR), the Helmholtz and the Stokes problems, respectively. The work embarks upon a priori analysis of a
consistency recovery procedure for some stabilization methods belonging to the Petrov- Galerkin framework. It was
ound that the use of some standard practices (e.g. M-Matrices theory) for the design of essentially non-oscillatory
numerical methods is not appropriate when consistency recovery methods are employed. Hence, with respect to
convective stabilization, such recovery methods are not preferred. Next, we present the design of a high-resolution
Petrov-Galerkin (HRPG) method for the CDR problem. The structure of the method in 1 D is identical to the consistent
approximate upwind (CAU) Petrov-Galerkin method [doi: 10.1016/0045-7825(88)90108-9] except for the definitions of
he stabilization parameters. Such a structure may also be attained via the Finite Calculus (FIC) procedure [doi:
10.1 016/S0045-7825(97)00119-9] by an appropriate definition of the characteristic length. The prefix high-resolution is
used here in the sense popularized by Harten, i.e. second order accuracy for smooth/regular regimes and good
shock-capturing in non-regular re9jmes. The design procedure in 1 D embarks on the problem of circumventing the
Gibbs phenomenon observed in L projections. Next, we study the conditions on the stabilization parameters to
ircumvent the global oscillations due to the convective term. A conjuncture of the two results is made to deal with the
problem at hand that is usually plagued by Gibbs, global and dispersive oscillations in the numerical solution. A multi
dimensional extension of the HRPG method using multi-linear block finite elements is also presented.
Next, we propose a higher-order compact scheme (involving two parameters) on structured meshes for the Helmholtz
equation. Making the parameters equal, we recover the alpha-interpolation of the Galerkin finite element method
(FEM) and the classical central finite difference method. In 1 D this scheme is identical to the alpha-interpolation
method [doi: 10.1 016/0771 -050X(82)90002-X] and in 2D choosing the value 0.5 for both the parameters, we recover
he generalized fourth-order compact Pade approximation [doi: 10.1 006/jcph.1995.1134, doi: 10.1016/S0045-
7825(98)00023-1] (therein using the parameter V = 2). We follow [doi: 10.1 016/0045-7825(95)00890-X] for the
analysis of this scheme and its performance on square meshes is compared with that of the quasi-stabilized FEM [doi:
10.1016/0045-7825(95)00890-X]. Generic expressions for the parameters are given that guarantees a dispersion
accuracy of sixth-order should the parameters be distinct and fourth-order should they be equal. In the later case, an
expression for the parameter is given that minimizes the maximum relative phase error in 2D. A Petrov-Galerkin
ormulation that yields the aforesaid scheme on structured meshes is also presented. Convergence studies of the
error in the L2 norm, the H1 semi-norm and the I ~ Euclidean norm is done and the pollution effect is found to be small. / Presentamos tres nuevos metodos estabilizados de tipo Petrov- Galerkin basado en elementos finitos (FE) para los
problemas de convecci6n-difusi6n- reacci6n (CDR), de Helmholtz y de Stokes, respectivamente. El trabajo comienza
con un analisis a priori de un metodo de recuperaci6n de la consistencia de algunos metodos de estabilizaci6n que
pertenecen al marco de Petrov-Galerkin. Hallamos que el uso de algunas de las practicas estandar (por ejemplo, la
eoria de Matriz-M) para el diserio de metodos numericos esencialmente no oscilatorios no es apropiado cuando
utilizamos los metodos de recu eraci6n de la consistencia. Por 10 tanto, con res ecto a la estabilizaci6n de
conveccion, no preferimos tales metodos de recuperacion . A continuacion, presentamos el diser'io de un metodo de
Petrov-Galerkin de alta-resolucion (HRPG) para el problema CDR. La estructura del metodo en 10 es identico al
metodo CAU [doi: 10.1016/0045-7825(88)90108-9] excepto en la definicion de los parametros de estabilizacion. Esta
estructura tambien se puede obtener a traves de la formulacion del calculo finito (FIC) [doi: 10.1 016/S0045-
7825(97)00119-9] usando una definicion adecuada de la longitud caracteristica. El prefijo de "alta-resolucion" se
utiliza aqui en el sentido popularizado por Harten, es decir, tener una solucion con una precision de segundo orden
en los regimenes suaves y ser esencialmente no oscilatoria en los regimenes no regulares. El diser'io en 10 se
embarca en el problema de eludir el fenomeno de Gibbs observado en las proyecciones de tipo L2. A continuacion,
estudiamos las condiciones de los parametros de estabilizacion para evitar las oscilaciones globales debido al
ermino convectivo. Combinamos los dos resultados (una conjetura) para tratar el problema COR, cuya solucion
numerica sufre de oscilaciones numericas del tipo global, Gibbs y dispersiva. Tambien presentamos una extension
multidimensional del metodo HRPG utilizando los elementos finitos multi-lineales.
fa. continuacion, proponemos un esquema compacto de orden superior (que incluye dos parametros) en mallas
estructuradas para la ecuacion de Helmholtz. Haciendo igual ambos parametros, se recupera la interpolacion lineal
del metodo de elementos finitos (FEM) de tipo Galerkin y el clasico metodo de diferencias finitas centradas. En 10
este esquema es identico al metodo AIM [doi: 10.1 016/0771 -050X(82)90002-X] y en 20 eligiendo el valor de 0,5 para
ambos parametros, se recupera el esquema compacto de cuarto orden de Pade generalizada en [doi:
10.1 006/jcph.1 995.1134, doi: 10.1 016/S0045-7825(98)00023-1] (con el parametro V = 2). Seguimos [doi:
10.1 016/0045-7825(95)00890-X] para el analisis de este esquema y comparamos su rendimiento en las mallas
uniformes con el de "FEM cuasi-estabilizado" (QSFEM) [doi: 10.1016/0045-7825 (95) 00890-X]. Presentamos
expresiones genericas de los para metros que garantiza una precision dispersiva de sexto orden si ambos parametros
son distintos y de cuarto orden en caso de ser iguales. En este ultimo caso, presentamos la expresion del parametro
que minimiza el error maxima de fase relativa en 20. Tambien proponemos una formulacion de tipo Petrov-Galerkin
~ue recupera los esquemas antes mencionados en mallas estructuradas. Presentamos estudios de convergencia del
error en la norma de tipo L2, la semi-norma de tipo H1 y la norma Euclidiana tipo I~ y mostramos que la perdida de
estabilidad del operador de Helmholtz ("pollution effect") es incluso pequer'ia para grandes numeros de onda.
Por ultimo, presentamos una coleccion de metodos FE estabilizado para el problema de Stokes desarrollados a
raves del metodo FIC de primer orden y de segundo orden. Mostramos que varios metodos FE de estabilizacion
existentes y conocidos como el metodo de penalizacion, el metodo de Galerkin de minimos cuadrados (GLS) [doi:
10.1016/0045-7825(86)90025-3], el metodo PGP (estabilizado a traves de la proyeccion del gradiente de presion)
[doi: 10.1 016/S0045-7825(96)01154-1] Y el metodo OSS (estabilizado a traves de las sub-escalas ortogonales) [doi:
10.1016/S0045-7825(00)00254-1] se recuperan del marco general de FIC. Oesarrollamos una nueva familia de
metodos FE, en adelante denominado como PLS (estabilizado a traves del Laplaciano de presion) con las formas no
lineales y consistentes de los parametros de estabilizacion. Una caracteristica distintiva de la familia de los metodos
PLS es que son no lineales y basados en el residuo, es decir, los terminos de estabilizacion dependera de los
residuos discretos del momento y/o las ecuaciones de incompresibilidad. Oiscutimos las ventajas y desventajas de
estas tecnicas de estabilizaci6n y presentamos varios ejemplos de aplicacion
|
18 |
Numerical simulation of shallow water equations and some physical models in image processingHaro Ortega, Glòria 11 July 2005 (has links)
There are two main subjects in this thesis: the first one deals with the numerical simulation of shallow water equations, the other one is the resolution of some problems in image processingThe first part of this dissertation is devoted to the shallow waters. We propose a combined scheme which uses the Marquina's double flux decomposition (extended to the non homogeneous case) when adjacent states are not close and a single decomposition otherwise. This combined scheme satisfies the exact C property. Furthermore, we propose a special treatment of the numerical scheme at dry zones.The second subject is the digital simulation of the Day for Night (or American Night in Europe). The proposed algorithm simulates a night image coming from a day image and considers some aspects of night perception. In order to simulate the loss of visual acuity we introduce a partial differential equation that simulates the spatial summation principle of the photoreceptors in the retina.The gap restoration (inpainting) on surfaces is the object of the third part. For that, we propose some geometrical approaches based on the mean curvature. Then, we also use two interpolation methods: the resolution of the Laplace equation, and an Absolutely Minimizing Lipschitz Extension (AMLE). Finally, we solve the restoration problem of satellite images. The variational problem that we propose manages to do irregular to regular sampling, denoising, deconvolution and zoom at the same time. / Los temas tratados en esta tesis son, por un lado, la simulación numérica de las ecuaciones de aguas someras ("shallow waters") y por otro, la resolución de algunos problemas de procesamiento de imágenes. En la primera parte de la tesis, dedicada a las aguas someras, proponemos un esquema combinado que usa la técnica de doble descomposición de flujos de Marquina (extendida al caso no homogéneo) cuando los dos estados adyacentes no están próximos y una única descomposición en caso contrario. El esquema combinado verifica la propiedad C exacta. Por otro lado, proponemos un tratamiento especial en las zonas secas.El segundo tema tratado es la simulación digital de la Noche Americana ("Day for Night"). El algoritmo propuesto simula una imagen nocturna a partir de una imagen diurna considerando varios aspectos de la percepción visual nocturna. Para simular la pérdida de agudeza visual se propone una ecuación en derivadas parciales que simula el principio de sumación espacial de los fotoreceptores situados en la retina.La restauración de agujeros ("inpainting") en superficies es objeto de la tercera parte. Para ello se proponen varios enfoques geométricos basados en la curvatura media. También se utilizan dos métodos de interpolación: la resolución de la ecuación de Laplace y el método AMLE (Absolutely Minimization Lipschitz Extension).Por último, tratamos la restauración de imágenes satelitales. El método propuesto consigue obtener una colección de muestras regulares a partir de un muestreo irregular, eliminando a la vez el ruido, deconvolucinando la imagen y haciendo un zoom.
|
19 |
Calculo exacto de la matriz exponencial / Calculo exacto de la matriz exponencialAgapito, Rubén 25 September 2017 (has links)
We present several methods that allow the exact computation of the exponential matrix etA. Methods that include computation of eigenvectors or Laplace transform are very well-known, and they are mentioned herefor completeness. We also present other methods, not well-known inthe literature, that do not need the computation of eigenvectors, and are easy to introduce in a classroom, thus providing us with general formulas that can be applied to any matrix. / Presentamos varios métodos que permiten el calculo exacto de la matriz exponencial etA. Los métodos que incluyen el calculo de autovectores y la transformada de Laplace son bien conocidos, y son mencionados aquí por completitud. Se mencionan otros métodos, no tan conocidos en la literatura, que no incluyen el calculo de autovectores, y que proveen de fórmulas genéricas aplicables a cualquier matriz.
|
20 |
Information Needs for Water Resource and Risk Management : Hydro-Meteorological Data Value and Non-Traditional Information / Informationsbehov inom vattenförvaltning och riskhantering : Värdet av hårda hydro-meteorologiska data och mjuk informationGirons Lopez, Marc January 2016 (has links)
Data availability is extremely important for water management. Without data it would not be possible to know how much water is available or how often extreme events are likely to occur. The usually available hydro-meteorological data often have a limited representativeness and are affected by errors and uncertainties. Additionally, their collection is resource-intensive and, thus, many areas of the world are severely under-monitored. Other areas are seeing an unprecedented – yet local – wealth of data in the last decades. Additionally, the spread of new technologies together with the integration of different approaches to water management science and practice have uncovered a large amount of soft information that can potentially complement and expand the possibilities of water management. This thesis presents a series of studies that address data opportunities for water management. Firstly, the hydro-meteorological data needs for correctly estimating key processes for water resource management such as precipitation and discharge were evaluated. Secondly, the use of non-traditional sources of information such as social media and human behaviour to improve the efficiency of flood mitigation actions were explored. The results obtained provide guidelines for determining basic hydro-meteorological data needs. For instance, an upper density of 24 rain gauges per 1000 km2 for spatial precipitation estimation beyond which improvements are negligible was found. Additionally, a larger relative value of discharge data respect to precipitation data for calibrating hydrological models was observed. Regarding non-traditional sources of information, social memory of past flooding events was found to be a relevant factor determining the efficiency of flood early warning systems and therefore their damage mitigation potential. Finally, a new methodology to use social media data for probabilistic estimates of flood extent was put forward and shown to achieve results comparable to traditional approaches. This thesis significantly contributes to integrated water management by improving the understanding of data needs and opportunities of new sources of information thus making water management more efficient and useful for society. / All vattenförvaltning kräver tillgång till data. Data behövs för att kunna fastställa t.ex. hur mycket vatten som finns och sannolikheten för stora översvämningar. De hårda hydro-meteorologiska data som normalt är tillgängliga har inte sällan en begränsad representativitet och påverkas av fel och osäkerheter. Dessutom är datainsamling nästan alltid resurskrävande och därför finns hårda data i begränsad utsträckning, eller inte alls, i stora delar av världen. Samtidigt har man under senaste decennierna fått tillgång till en oöverträffad – men lokal – mängd data i vissa områden. Spridningen av ny teknik har, tillsammans med integreringen av olika vetenskapliga metoder inom vattenförvaltning och praktik, påvisat värdet av mjuk information som potentiellt kan komplettera hårda data och förbättra möjligheterna till en god vattenförvaltning. Denna avhandling presenterar studier som belyser vilka möjligheter vattenförvaltningen har vid olika tillgång på hårda data och mjuk information. Först utvärderades vilka krav som kan ställas på hydro-meteorologiska data för att korrekt kunna beskriva nyckelprocesser som nederbörd och vattenföring vid bestämning av vattenresurser. Därefter utforskades möjligheterna att förbättra översvämningsberäkningar med hjälp av mjuk information från sociala medier och rörande mänskligt beteende. Resultaten gav riktlinjer för att bestämma värdet av hydro-meteorologiska data. Till exempel visades att information om nederbördens rumsliga fördelning inte förbättras nämnvärt vid en mätartäthet över 24 regnmätare per 1000 km2. Det relativa värdet av vattenföring visade sig också vara större än för nederbörd för att kalibrera hydrologiska modeller. Det visade sig att en befolknings minne av tidigare översvämningar påverkar effektiviteten hos tidiga varningssystem för översvämningar och deras möjlighet att begränsa skador. Slutligen har en ny metod föreslagits för att använda sociala medier för sannolikhetsberäkningar av översvämmade områden. Metoden visade sig leda till resultat som var jämförbara med traditionella metoder. Avhandlingens huvudsakliga bidrag till en integrerad vattenförvaltning är att öka förståelsen för vilka data som krävs för olika förvaltningsmål och vilka möjligheter som finns att utnyttja mjuk information för att effektivisera vattenförvaltningen göra den mer användbar för samhället. / La disponibilitat de dades és extremadament important per a la gestió de l’aigua. Sense dades no seria possible conèixer ni la quantitat d'aigua disponible ni la freqüència d’esdeveniments extrems. Les dades hidrometeorològiques normalment disponibles tenen una representativitat limitada, es veuen afectades per errors i incerteses i la seva recol•lecció requereix nombrosos recursos, cosa que produeix que moltes zones del món no estiguin adequadament monitoritzades. Així i tot, en les últimes dècades s’ha generat una quantitat de dades sense precedents però de manera localitzada. A més, la difusió de noves tecnologies, juntament amb la integració de diferents enfocaments han permès utilitzar una gran quantitat de dades “toves” per complementar i ampliar les possibilitats en la gestió de l'aigua. Aquesta tesi presenta estudis que aborden algunes de les oportunitats ofertes per les dades per a millorar la gestió de l'aigua. En primer lloc es va avaluar la quantitat necessària de dades hidrometeorològiques per estimar correctament processos clau per a la gestió dels recursos hídrics. En segon lloc es va explorar l'ús de fonts no tradicionals d'informació per millorar l'eficiència de la mitigació d'inundacions. Per exemple, es va identificar una densitat màxima de 24 pluviòmetres per 1000 km2 per estimar la distribució espacial de precipitació, per sobre de la qual les millores són insignificants. A més, es va observar que les dades d’escorrentia tenen un valor relatiu més gran per al calibratge de models hidrològics que les dades de precipitació. Pel que fa a la informació no tradicional, la memòria social d’anteriors inundacions es va identificar com un factor rellevant per a determinar l'eficiència dels sistemes d'alerta d'inundacions i, per tant, del seu potencial per mitigar danys. Finalment, es va proposar una nova metodologia per utilitzar informació provinent de xarxes socials per a realitzar estimacions probabilístiques d'extensió d’inundacions i es va demostrar el seu potencial per aconseguir resultats comparables als d’enfocaments tradicionals. Aquesta tesi aporta avenços significatius per a la gestió integrada de l'aigua mitjançant la millora de la comprensió de les necessitats de dades i de les oportunitats presentades per noves fonts d'informació. D’aquesta manera contribueix a una gestió de l'aigua més eficient i útil per a la societat. / La disponibilidad de datos es sumamente importante para la gestión del agua. Sin datos no sería posible determinar la cantidad de agua disponible o la frecuencia de eventos extremos. Los datos hidrometeorológicos normalmente disponibles tienen una representatividad limitada, son afectados por errores e incertidumbres y su recolección requiere de abundantes recursos, lo cual causa que muchas zonas del mundo no estén adecuadamente monitorizadas. En contraste, en las últimas décadas se ha generado una cantidad de datos sin precedentes pero de manera localizada. Además, la difusión de nuevas tecnologías, conjuntamente con la integración de distintos enfoques, ha permitido usar una gran cantidad de datos “blandos” para complementar y ampliar las posibilidades en la gestión del agua. Esta tesis presenta estudios que abordan las oportunidades ofrecidas por los datos para mejorar la gestión del agua. En primer lugar se evaluó la cantidad necesaria de datos hidrometeorológicos para estimar correctamente procesos clave para la gestión de recursos hídricos. En segundo lugar se exploró el uso de fuentes no tradicionales de información para mejorar la eficiencia de la mitigación de inundaciones. Por ejemplo, se identificó una densidad máxima de 24 pluviómetros por 1000 km2 para estimar la distribución espacial de precipitación más allá de la cual las mejoras son insignificantes. Además se observó que los datos de escorrentía tienen un mayor valor relativo para la calibración de modelos hidrológicos que el de los datos de precipitación. Respecto a la información no tradicional, la memoria social de inundaciones pasadas fue identificada como un factor relevante para determinar la eficiencia de los sistemas de alerta de inundaciones y, por lo tanto, de su potencial para mitigar daños. Finalmente, se propuso una nueva metodología para usar información proveniente de redes sociales para realizar estimaciones probabilísticas de extensión de inundaciones y se demostró su potencial para conseguir resultados comparables a los de enfoques tradicionales. Esta tesis aporta avances significativos para la gestión integral del agua a través de la mejora de la comprensión de las necesidades de datos y de las oportunidades presentadas por nuevas fuentes de información, contribuyendo a una gestión del agua más eficiente y útil para la sociedad.
|
Page generated in 0.1162 seconds