• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • 41
  • 22
  • 1
  • 1
  • 1
  • Tagged with
  • 132
  • 72
  • 31
  • 26
  • 22
  • 17
  • 14
  • 13
  • 12
  • 12
  • 11
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

On Normal Forms and Splitting of Separatrices in Reversible Systems

Lázaro Ochoa, José Tomás 23 October 2003 (has links)
És difícil dibuixar una frontera, dins la Teoria de Sistemas Dinàmics, entre lleis de conservació i simetries doncs, sovint, les seves característiques es confonen. Un clar exemple d'aquest fenómen el constitueixen els sistemes Hamiltonians i els sistemes reversibles.Breument, un sistema dinàmic es diu temps-reversible (o, per nosaltres, simplement reversible) si és invariant sota l'acció d'un difeomorfisme involutiu a l'espai i una inversió en el sentit del temps. és en aquest marc on cal situar aquesta memòria. Concretament, ens centrem en dos punts molt particulars: la Teoria de Formes Normals i el fenómen del trencament de separatrius, tots dos introduïts per Poincaré a la seva tesi (1890).Respecte al primer d'aquests punts, en aquesta tesi s'introdueix el concepte de Pseudo Forma Normal (breument PNF), inspirat en idees d'en Moser, i que permet transformar, sota certes hipotesis, un sistema analític en un d'equivalent d'aspecte el més simple possible. Aquesta PNF és una generalització de la coneguda Forma Normal de Birkhoff amb la qual coincideix si el sistema considerat és Hamiltonià o reversible. Com a conseqüència, s'obté, en determinats casos, l'equivalència local entre aquests dos tipus de sistemes. Aquesta PNF pot esdevenir una eina útil per estudiar la dinàmica d'un sistema analític a l'entorn d'un equilibri (un punt, una òrbita periòdica o un tor).El segon punt, l'escissió de separatrius, fa referència a l'intersecció transversal de varietats invariants procedent del trencament d'una certa connexió homoclínica a l'afegir al sistema una petita pertorbació. Un dels motius d'interés sobre aquest fenòmen és que és un dels principals causants de comportament estocàstic en sistemes Hamiltonians.Un problema relacionat amb aquest trencament de separatrius és el de mesurar-lo, sigui a partir del càlcul de l'angle amb el que es troben aquestes varietats per primer cop, per l'àrea que tanquen entre elles, etc. El mètode habitualment utilitzat per a estimar-lo és l'anomenat mètode de Poincaré-Melnikov. Malhauradament, si la pertorbació és ràpidament oscil-latòria els termes que proporciona aquest mètode són exponencialment petits en el paràmetre pertorbador, fet que dificulta el seu càlcul. En aquesta tesi s'ha demostrat, tal i com passa en el cas Hamiltonià, que en el cas d'un sistema reversible, respecte a una involució lineal, 2-dimensional i pertorbat de manera ràpidament periòdica i reversible, el mètode de Poincaré-Melnikov és correcte i dóna en primer ordre l'anomenada funció de Melnikov. / It is difficult, in the Theory of Dynamical Systems, to draw a boundary line between conservation laws and symmetries because often their effects on the dynamics are very similar. This is the case of the Hamiltonian and the Reversible systems.Briefly, a dynamical system is called time-reversible (or, simply, reversible) if it is invariant under the action of an involutive spatial diffeomorphism and a reversion in time's arrow. This is the frame where this work must be placed. Precisely, we focus our attention in two particular points: the Theory of Normal Forms and the phenomenon of the splitting of separatrices, both introduced by Poincare in his thesis (1890).Regarding the first one of this topics, we introduce the concept of Pseudo-normal Form (PNF in short). It comes from ideas of Moser and allows to transform, under suitable conditions, an analytic system around an equilibrium in another equivalent one having a quite simple form. This PNF is a generalization of the celebrated Birkhoff Normal Form and both coincide if the system is Hamiltonian or reversible. Consequently, the local equivalence between both types of systems is derived in some cases. This PNF can become a useful tool to study the dynamics of an analytic system in a neighborhood of an equilibrium (a fixed point, a periodic orbit or a torus).The second topic, the splitting of separatrices, is related to the transversal intersection of invariant manifolds derived from the splitting of a given homoclinic connection when some small perturbation is considered. One of the reasons that makes this phenomenon interesting is that it seems to be one of the main causes of the stochastic behavior in Hamiltonian systems.One problem related to this splitting of separatrices becomes to measure it, studying, for instance, some angle the form when they meet for the first time, the area of the first lobe, etc. The standard method to estimate this size is the celebrated Poincaré-Melnikov method. Unfortunately, if the perturbation oscillates rapidly the terms provided by this method are exponentially small in the perturbation parameter, and this fact makes this computation more involved. In this work we prove, like it happens in the Hamiltonian case, that in the case of a 2-dimensional analytic reversible system (reversible with respect to a linear spatial involution) perturbed by a rapidly periodic reversible perturbation, the Poincaré-Melnikov method works and it provides, at first order, the well known Melnikov Function.
82

Fusión de Datos: Imputación y Validación

Juárez Alonso, Carlos Alberto 04 March 2005 (has links)
Las actitudes, el conocimiento y las acciones generalmente se basan en muestras. Algunos basan sus conclusiones en muestras pequeñas y pocas veces toman en cuenta la magnitud de lo que se desconoce. Generalmente se carece de recursos para estudiar más de una parte del problema de interés que pudiera aumentar nuestro conocimiento. Algunas razones para el uso de las técnicas de muestreo son: costo reducido, mayor velocidad, mayor enfoque o perspectiva y mayor exactitud.La fusión de datos surge como una alternativa a la fuente única de datos frente a la necesidad de conseguir el máximo de información posible al menor costo. Tiene como objetivo combinar datos de diferentes fuentes para poder disponer de toda la información en un solo archivo, aunque artificial, con todas las variables de interés. Utiliza lo mejor de la información existente en un archivo para reconstruir la información ausente en otro archivo. Es una estimación estadística de los datos faltantes. Es un medio de limitar la recolección de datos, reconstruyendo la información faltante. No es un problema de análisis estadístico con datos faltantes en el cual se consideran los mecanismos que conducen a la ausencia de datos. En el caso de la fusión de datos, se presentan bloques completos de datos ausentes, en general, muestras independientes.La revisión bibliográfica ha permitido analizar el problema del análisis de datos faltantes como una aproximación al tema de la fusión de datos, considerando que la fusión de datos es un caso particular. En este caso, se está hablando de bloques de datos faltantes y en muchas ocasiones, datos faltantes por diseño.El objetivo de la fusión de datos es por lo tanto, el obtener un solo archivo que pueda ser analizado posteriormente con herramientas de minería de datos. La idea es estimar los valores de las variables no informadas (valores faltantes) a partir de un bloque de variables informadas correlacionadas con el bloque de variables a reconstituir (variables comunes). Es importante hacer notar que no se esta generando nueva información.Parte de este trabajo se dedica a la definición y aproximación del concepto fusión de datos. Se presentan algunos enfoques para el tratamiento de los datos ausentes. Se han revisado, de manera no exhaustiva, algunas técnicas relacionadas con el tema y se muestran aplicaciones de la fusión de datos relacionadas con otras herramientas.Son muchas las técnicas que existen para tratar la reconstrucción de los datos faltantes. En este trabajo, el enfoque se ha hecho sobre la técnica de imputación Hot deck. Con esta técnica se sustituyen valores individuales extraídos de unidades observadas similares. Se basa en el reemplazo de la información faltante en el conjunto de individuos no informados (con datos faltantes) que se llaman receptores, utilizando la información de los individuos informados más parecidos, llamados donantes. Es una práctica común que involucra esquemas elaborados para la selección de las unidades similares para la imputación. Se estudian algunos procedimientos no paramétricos de discriminación para efectuar la búsqueda de los individuos más cercanos (parecidos). Existen distintos algoritmos diseñados para esto. Se ha hecho una revisión de algunos de estos métodos de búsqueda. Este trabajo se basa en el algoritmo de Fukunaga/Narendra. Se muestran los componentes del sistema. Se presentan los fundamentos y las bases que se han seguido para el desarrollo y la implantación del mismo. Se han establecido algunas propuestas no paramétricas para la medición de la calidad de la fusión.La experimentación y prueba de las distintas propuesta se ha hecho dividida en dos partes. En una se ha hecho una selección aleatoria de los individuos para formar un conjunto de donantes y un conjunto de receptores. En la segunda parte, la selección se ha hecho a partir de una característica específica en una variable. Para esto se emplea un archivo sintético creado a partir de un conjunto de datos privados de financiación para el otorgamiento de créditos al consumo. Este archivo general consta de 6692 individuos. El aspecto práctico de este trabajo, ha sido el desarrollo de un sistema de fusión de datos.Aunque mucho está escrito sobre la imputación Hot deck, siempre habrá espacio para proponer nuevos métodos. Evaluar la calidad de la fusión seguirá siendo tema de interés. Queda claro que la fusión de datos satisface la necesidad de muchos de proporcionar una sola fuente de datos completa a los usuarios finales. Sin embargo, se debe tener cuidado al hacer uso de esta información (son estimaciones, no valores reales observados). / Very often, attitudes, knowledge and actions, are base on samples. Some base their conclusions on small samples and are less likely to be aware of the extent of what is unknown. There is frequently a lack of resources to study more than a part of the problem of interest which could increase our knowledge of it. Some reasons for the use of sample techniques are: reduced cost, greater speed, greater scope o perspective and greater accuracy. Data fusion emerges as an alternative to single source data, faced to the need of acquiring the more information as possible at the lower cost. Its objective is to combine data from different sources in order to have the whole information on a single file, though artificial, but with all the variables of interest. It makes use of the best of the current information contained on one file to rebuild the missing information on another file. It's a statistical estimation of the missing data. It is a mean to restrict the gathering of data, rebuilding the missing information. It is not a problem of statistical analysis with missing data, on which, the process that leads to the absence of data are considered. In the case of data fusion, complete blocks of missing data appear, generally, independent samples.The bibliography has allowed analyzing the subject of missing data as an approach to the subject of data fusion, considering that data fusion is a particular case of it. In this case, missing data and sometimes missing by design is what it is all about.Therefore, the objective of data fusion is to get a single file which can be analyzed further with data mining tools. The idea is to estimate the values of the variables with missing data upon a block of variables with the whole information correlated with the variables to be rebuilt. It is important to mention that new information is not being generated. A part of this work is dedicated to the definition and rapprochement to the concept of data fusion. Some ways of treating the problem of missing data are presented. Some techniques related to the subject have been reviewed in a non exhaustive way and some data fusion applications related with other tools is shown.There are many techniques for treating the rebuilding of missing data. This work is focused on the hot deck technique.With this technique, individual units, took from similar observed units are replaced. It is based on the replacement of the missing information in the set of units with missing information called receivers, using the information of units more likely to them called donors. It is a common practice that involves complex outlines for the selection of the similar unit to be used for the imputation.Some non parametric discrimination procedures have been studied to perform the search of the nearest units (the most resembling). There are different algorithms for this purpose. A review of some of these search methods has been made. This work is based on the Fukunaga/Narendra algorithm. The components of the system are shown as well as the foundations and bases followed for the development and implementation. Some non parametric proposals have been made for measuring the quality of the fusion.The experimentation and tests of the system has been made in two parts. In one part, a random selection of the units that makes the set of donors and the set of receivers has been made. In the second part, the selection has been made upon a specific characteristic on a variable. For this purpose, a synthetic file created upon a set of private financing data for the grant of consumer goods credits is used. This general file contains 6692 units.The practical aspect of this work has been the development of a data fusion system. Although many have been written about hot deck imputation, there is always room for new proposals. Evaluating the quality of the fusion is still a subject of interest. It is clear that data fusion fulfill the need of many to provide the final user with a complete single source of data. However, care must be taken with the use of this information (they are estimations, not actual observed values).
83

Sobre l'ordenació de les arrels reals de les derivades de polinomis a coeficients reals.

Rubió Massegú, Josep 10 February 2005 (has links)
Alguns problemes clàssics sobre teoria analítica de polinomis estan relacionats amb un problema més general: determinar com estan ordenades les arrels reals d'un polinomi a coeficients reals i les arrels reals de totes les seves derivades. Si ens restringim a l'ordenació entre arrels de derivades consecutives d'un polinomi, aquest problema pot formular-se de la següent manera. Sigui n un nombre natural no nul. Per a cada j=0,1,.,n-1 considerem variables indeterminades xj,1,xj,2,...,xj,m(j), que anomenarem variables de derivació j, i que considerarem lligades per les desigualtats xj,1<xj,2<···<xj,m(j). Definir un ordre entre variables de derivacions consecutives significa especificar, per a dues variables qualssevol de derivacions consecutives, diguem xj,k i xj+1,s, una de les tres ordenacions següents: (i) xj,k<xj+1,s, (ii) xj,k=xj+1,s, o (iii) xj,k>xj+1,s. Llavors, el problema consisteix en determinar per a quines ordenacions entre variables de derivacions consecutives existeix un polinomi P(x), de grau n, de manera que si les arrels reals de cada derivada P(j), 0&#8804;j&#8804;n-1, són els nombres yj,1<yj,2<···<yj,r(j), aleshores r(j)=m(j) i entre arrels de derivades consecutives es verifiquen els lligams proposats. És a dir, si (i) xj,k<xj+1,s, (ii) xj,k=xj+1,s, o (iii) xj,k>xj+1,s, aleshores s'ha de complir (a) yj,k<yj+1,s, (b) yj,k=yj+1,s, o (c) yj,k>yj+1,s respectivament. Si tal polinomi existeix aleshores es diu que l'ordenació proposada és representable per un polinomi. El teorema de Rolle imposa restriccions a l'ordenació de les variables en el cas que aquesta ordenació sigui representable per polinomis. Concretament, si xj,k<xj,k' són dues variables de derivació j, aleshores ha d'existir una variable de derivació j+1, xj+1,s, tal que xj,k<xj+1,s<xj,k'. No obstant, les restriccions imposades pel teorema de Rolle no són suficients per a que una ordenació de les variables sigui representable per un polinomi.En aquest sentit, ens proposem assolir els tres objectius següents:(1) Caracteritzar les ordenacions entre variables de derivacions consecutives que són representables per polinomis.(2) Classificar els polinomis en base a l'ordenació de les arrels de derivades consecutives i trobar certs nombres d'interès relacionats amb aquesta classificació, com per exemple el nombre de classes en que queden classificats els polinomis de grau n i el nombre de classes obertes de grau n (classes estables per pertorbacions).(3) Estudiar què succeeix quan es consideren ordenacions que inclouen lligams entre variables de derivacions no consecutives.L'objectiu (1) s'ha assolit establint que les ordenacions entre variables de derivacions consecutives representables per polinomis coincideixen amb les ordenacions que satisfan les restriccions imposades per un resultat que generalitza el teorema de Rolle. Essencialment, s'ha obtingut el recíproc del teorema que diu que entre cada dues arrels reals consecutives d'un polinomi hi ha un nombre senar d'arrels de la derivada comptant multiplicitats.L'objectiu (2) s'ha assolit classificant els polinomis segons l'ordenació que presenten les arrels de les seves derivades consecutives. Els nombres d'interès relacionats amb aquesta classificació s'han obtingut a partir de fórmules recurrents.L'objectiu (3) s'ha assolit determinant els nombres n per als quals la mencionada generalització del teorema de Rolle és suficient per a que una ordenació de les variables que inclogui lligams entre variables de derivacions no consecutives sigui representable per un polinomi. / Some classical problems in analytic theory of polynomials are related to a more general one that consists in determining how the real roots of a real polynomial and the roots of all its derivatives are ordered.If we restrict our attention to the ordering amongst the roots of consecutive derivatives of a polynomial, this problem can be stated as follows: Let n be a nonzero natural number. For each j=0,1,.,n-1 we consider some indeterminate variables xj,1,xj,2,...,xj,m(j), called variables of derivative j, which will be linked by the inequalities xj,1<xj,2<···<xj,m(j). To define an order amongst variables of consecutive derivatives means to specify, for any two variables of consecutive derivatives, say xj,k and xj+1,s, one of the following three relations: (i) xj,k<xj+1,s, (ii) xj,k=xj+1,s, or (iii) xj,k>xj+1,s. Then, the problem consists in determining for which of those orderings amongst variables of consecutive derivatives there exists a polynomial of degree n, say P(x), so that if the real roots of each derivative P(j), 0&#8804;j&#8804;n-1, are the numbers yj,1<yj,2<···<yj,r(j), then r(j)=m(j) and between roots of consecutive derivatives the suggested connections hold. That is, if (i) xj,k<xj+1,s, (ii) xj,k=xj+1,s, or (iii) xj,k>xj+1,s, then (a) yj,k<yj+1,s, (b) yj,k=yj+1,s, or (c) yj,k>yj+1,s must hold respectively. If such a polynomial exists, then we say that the suggested ordering is represented by a polynomial.Rolle's theorem sets up restrictions to the ordering of the variables in the case when this ordering is represented by polynomials. More precisely, if xj,k<xj,k+1 are two consecutive variables of the same derivative j, then there must exist a variable of derivative j+1, namely xj+1,s, such that xj,k<xj+1,s<xj,k+1. However, the restrictions imposed by Rolle's theorem are not sufficient to ensure that an ordering of the variables is represented by a polynomial.In this sense, we intend to achieve the following goals:(1) To characterize the orderings amongst variables of consecutive derivatives that are represented by polynomials.(2) To classify the polynomials according to the ordering of the roots of consecutive derivatives and to find certain numbers of interest related to this classification, such as the number of classes of equivalence in which polynomials of degree n are classified and the number of classes of equivalence which are open as subsets of the space of polynomials of degree at most n.(3) To study what happens when we consider orderings that include connections between variables of non-consecutive derivatives.Goal (1) has been achieved by showing that the orderings amongst variables of consecutive derivatives that are represented by polynomials coincide with the orderings that satisfy the restrictions imposed by a result which generalizes Rolle's theorem. Essentially, we have obtained the inverse of the theorem that states that between every two consecutive real roots of a polynomial, there is an odd number of roots of its derivative counting their multiplicities.Goal (2) has been attained by classifying the polynomials according to the ordering of the roots of their consecutive derivatives. The numbers of interest related to this classification have been obtained by means of recurrent formulae.Goal (3) has been attained by determining all numbers n for which Rolle's theorem generalization, mentioned above, is sufficient to ensure that an ordering of the variables that include connections between variables of non-consecutive derivatives, be represented by a polynomial.
84

Métodos iterativos eficientes para problemas de convección-difusión transitorios

Sandoval Solís, María Luisa 10 June 2006 (has links)
Diversos procesos naturales e industriales de interés medioambiental se modelan a través de la ecuación de convección-difusión-reacción transitoria. Dos aplicaciones tecnológicas que han motivado esta tesis son el funcionamiento de filtros de carbón activo y la dispersión de contaminantes en la atmósfera. Para que la modelización numérica de estos problemas sea eficaz es indispensable contar con un solver lineal eficiente para resolver los sistemas de ecuaciones obtenidos al discretizar la ecuación en derivadas parciales, mediante elementos finitos.Por ello, el objetivo de esta tesis es resolver de forma eficiente los grandes sistemas de ecuaciones, simétricos definidos positivos (SDP), tipo sparse asociados a los problemas de convección-difusión transitorios. Con este fin se estudian los precondicionadores tanto explícitos como implícitos, así como los métodos de descomposición de dominios (DD). La tesis se estructura en tres partes. En la primera se elabora un análisis computacional detallado del comportamiento de dos familias de factorizaciones incompletas de Cholesky (FIC): de memoria prescrita y de umbral. Estas técnicas se utilizan para precondicionar el método iterativo de gradientes conjugados (PCG). En la segunda parte se construye una inversa aproximada sparse simétrica (SSPAI) basada en la minimización en la norma de Frobenius. El precondicionador explícito se diseña para resolver en paralelo grandes sistemas de ecuaciones sparse, SDP, tridiagonales por bloques con múltiples lados derechos. Finalmente, se desarrolla el método multiplicativo de Schwarz (MSM) en dominios activos, es decir, DD solapados con la innovación de activar y desactivar dominios. Se estudia el comportamiento de esta estrategia al resolver los subproblemas mediante: (1) el método directo de Cholesky y (2) PCG + FIC de umbral.De los resultados numéricos presentados se concluye que es preferible utilizar el método directo de Cholesky para sistemas con menos de 30,000 variables. Para sistemas mayores y hasta 80,000 incógnitas se sugiere emplear una FIC de umbral. Y para sistemas aún más grandes, el MSM en dominios activos + PCG + FIC de umbral propuesto es el más eficiente usando un solo procesador. Por su parte, la SSPAI presentada podría superar a las FIC de umbral si se trabaja en paralelo. / Many natural and industrial processes of environmental interest are modeled through the transient convection-diffusion-reaction equation. Two technological applications that have motivated this thesis are the operation of activated-carbon filters and the dispersion of pollutants in the atmosphere. In order to ensure the effectiveness of numerical modeling of these problems it is necessary to have an efficient linear solver to solve the systems obtained when discretizing the partial differential equation by means of the finite element method.For that reason, the goal of this thesis is to solve in an efficient way the large sparse symmetric positive definite (SPD) systems of linear equations associated to the transient convection-diffusion problems. With this purpose, we have studied the explicit and implicit preconditioners, as well as domain decomposition (DD) methods.The thesis is structured in three parts. In the first one we have elaborated a detailed analysis of the numerical performance of two families of incomplete Cholesky factorizations (ICF): drop tolerance and prescribed-memory strategies. These techniques are used to precondition conjugate gradient iterations (PCG). In the second part a symmetric sparse approximate inverse (SSPAI) based on the minimization of the Frobenius norm is built. The explicit preconditioner is designed to solve in parallel large block tridiagonal SPD systems with multiple right hand sides.Finally, the multiplicative Schwarz method (MSM) in active domains is developed, which consists of overlapped domain decomposition with the innovation to activate and to deactivate domains. The behavior of this strategy is studied when solving the subproblems by means of: (1) the Cholesky direct solver and (2) PCG + drop-tolerance ICF. According to our numerical experiments we conclude that it is preferable to use the Cholesky direct solver for systems with less than 30,000 variables. For larger systems and up to 80,000 equations we suggest to use a drop tolerance ICF. And for even lager systems, the proposed MSM in active domains is the most efficient when using a single processor. On the other hand, the presented SSPAI could overcome the drop-tolerance ICF if one works in parallel.
85

Elementos estabilizados de bajo orden en mecánica de sólidos

Valverde Guzmán, Quino Martín 09 December 2002 (has links)
Se proponen nuevos elementos finitos para problemas en mecánica de sólidos en el marco de una formulación estabilizada novedosa en este ámbito. Esta formulación se basa en el método de las sub-escalas, y particularmente en el concepto de sub-escalas ortogonales OSGS (orthogonal sub-grid scales method) .Los elementos propuestos son elementos triangulares y tetraédricos para aplicaciones generales en deformaciones infinitesimales y en grandes deformaciones, tienen interpolaciones de desplazamientos y presión lineales y continuas, son aptos para aplicaciones generales y están exentos de problemas de bloqueo y de inestabilidad en aplicaciones cercanas al límite de incompresibilidad en mecánica de sólidos, tanto en elasticidad como en plasticidad J2.El método de estabilización desarrollado modifica la formulación mixta del problema de incompresibilidad, de manera que se logran eludir las restricciones que la condición de Babuska-Brezzi establece sobre las interpolaciones para garantizar comportamiento estable. Como se sabe, de acuerdo a ésta quedan descartados los elementos de la formulación mixta estándar con interpolaciones del mismo orden.La idea fundamental es concebir la solución exacta como compuesta por dos partes, una parte resoluble más otra parte que no es captada por la aproximación de elementos finitos, ésta es una componente de la solución en la denominada la sub-escala. La clave es buscar esta componente, complementaria a la parte resoluble, en el espacio ortogonal al espacio de elementos finitos. De acuerdo con esto, la componente en la sub-escala se puede considerar como función de la proyección del residuo sobre el espacio ortogonal al espacio de elementos finitos. Una expresión numéricamente calculable de esta proyección se obtiene si se considera en forma débil la diferencia entre el residuo y su proyección sobre el espacio de elementos finitos. La mejora de la solución se logra al quedar representado el efecto de la sub-escala mediante un término adicional o de estabilización en la ecuación del sistema.Los elementos propuestos son consistentes, tienen comportamiento estable y flexibilidad mejorada con respecto a elementos mixtos comparables tales como el Q1/P0 y otros elementos estabilizados por métodos, tales como el GLS. Se propone en el trabajo una aproximación al cálculo del parámetro de estabilización en problemas de elasto-plasticidad. La implementación de la formulación es particularmente apropiada para problemas no-lineales, tanto desde el punto de vista del material como del geométrico.
86

Análisis matemático del equilibrio en estructuras de membrana con bordes rígidos y cables. Pasarelas: forma y pretensado

Viglialoro, Giuseppe 14 March 2007 (has links)
Las membranas son estructuras (sin rigidez a flexión) que conforman una superficie en el espacio, con espesor mínimo. Se aproximan a una superficie geométrica y trabajan sólo mediante esfuerzos de membrana (de tracción) y tangentes a la superficie.La tesis se centra en el análisis matemático de las membranas portantes (abiertas y con bordes), con miras a extender sus aplicaciones en el campo de la ingeniería civil, concretamente a las pasarelas de peatones. Esto implica esfuerzos mayores, no sólo por los efectos de las cargas de uso de tales estructuras, sino porque requieren mayor pretensado para mantener la rigidez.La tesis se centra en el análisis matemático de membranas a tracción en la fase de pretensado, en la que, como resultado de aplicar el pretensado a una forma potencial o virtual de la membrana, correspondiente a esfuerzos nulos, se llega ya a una forma real. El problema de introducir y mantener el pretensado está relacionado con los bordes de la membrana, definidos por curvas en el espacio. Los mismos pueden tener curvatura o no tenerla (elementos rectos). Si los elementos de borde son rectos, para equilibrar el pretensado de la membrana, deben tener rigidez a flexión.Entre los elementos de borde curvos, revisten notable importancia los cables a tracción, elementos sin rigidez a flexión cuya disposición permite distribuir los esfuerzos de tracción en toda la membrana.Se aprecia, así, que ha de buscarse cierto equilibrio entre forma y pretensado tanto en el interior de la membrana como en su borde.Matemáticamente, el planteamiento más general, y más complejo, corresponde al caso en que los elementos de borde son cables a tracción. Lo dicho lleva a dos problemas de contorno.El primero consiste en encontrar, una vez fijada la forma de membrana, los esfuerzos de pretensado que verifiquen el equilibrio (planteamiento directo) y el segundo en encontrar, una vez fijados los esfuerzos de tracción, la forma de la membrana que verifique el equilibrio (planteamiento dual).Ambos problemas se complican sensiblemente en el caso en que el borde esté compuesto por cables a tracción.El resultado principal del problema directo es que, en cualquier caso (esto es, independientemente de que el borde sea rígido o no), se obtiene un problema diferencial hiperbólico con condición de contorno de tipo Dirichlet.Si a esto se le añade que, en el caso en que se consideren cables de borde éstos coinciden con las curvas características, el problema directo está en general mal definido.El resultado principal del problema dual es que, en cualquier caso (esto es, independientemente de que el borde sea rígido o no) se obtiene un problema diferencial elíptico con condición de contorno de tipo Dirichlet, esto es un problema diferencial en general bien definido.Siempre que no se consideren cables, el problema dual devuelve una única forma de membrana por cada distribución de esfuerzos de tracción (problema elíptico con condición de Dirichlet). Al revés, el problema dual completo (con cables) tiene una formulación "no clásica" visto que, a largo del cable, su incógnita ha de verificar contemporáneamente dos condiciones: una de tipo Dirichlet y otra (no estándar) sobre las derivadas segundas de la forma de membrana.En la tesis se describe un método numérico para el cálculo de la solución. Éste se basa en la definición de un "vector residual" que, al ser "minimizado", devuelve el valor nodal de la membrana a lo largo del cable. / Membranes are structures (without bending stiffness) identified with space surfaces with minimal thickness. They are approximated by geometrical surfaces and its stress tensor is defined by tension vectors in the tangent plane.The PhD thesis is based on the mathematical analysis of membrane structures (opened and with boundaries) with the idea of applying them in Civil Engineering, more precisely to a new technology such as bridgefoots. It implies taking in account greater tensions, not only due to the loads that structures are subjected to, but because the same structures need more prestressed to preserve rigidity.The report is based on mathematical analysis of tension membranes in the prestressed phase. In this phase, starting from a virtual shape for the membrane, with all tensions zeros, you obtain, due to the application of the prestressed, a real form.The problem in introducing and preserving the prestressed is related to the boundaries of the membrane, defined by regular space curves. The boundaries can be curved or not (straight elements). If boundary elements are straight, to verify the equilibrium with the prestressed of membrane, they must have bending stiffness.On the other hand, cables are very important curved boundary elements. They have no bending stiffness (work in tension, do not resist to compression) and its shape and placement is such that they can administer tensions all over the membrane.In this way you can notice that is important looking for an equilibrium between shape and prestressed both in the interior of membrane and on its boundaries.Mathematically the general approach, which is more difficult, concerns the case in which boundary elements are cables.What has been said leads to two boundary problems. The first one consists in finding, given the shape of the membrane, its prestressed stress tensor that verifies the equilibrium (direct approach). The second one concerns in finding, given the prestressed stress tensor of the membrane, its shape that verifies the equilibrium (dual approach).If a boundary with tension cables is considered both problems make more difficult.The principal result about the direct problem is that, in any case (that is, regardless of the kind of boundary used), a hyperbolic differential problem with Dirichlet boundary conditions is obtained.Moreover if you consider that, in case that cables boundary elements are taken in account they are characteristic curves for the differential equation, the direct problem is generally ill posed.The principal result about the dual problem is that, in any case (that is, regardless of the kind of boundary used), an elliptical differential problem with Dirichlet boundary conditions is obtained; it means considering a problem generally well posed.To be more precise, if no cable is taken in account on membrane boundary, dual problem always returns an unique shape of membrane for each given tensions stress tensor (elliptical Dirichlet problem).On the other hand the general dual problem (with cables) has a "no classical" formulation. In fact along the cable the unknown of the problem has contemporaneously to verify two conditions: one Dirichlet condition and other one (not standard) on the second derivatives of the membrane shape.In the report a numerical method of resolution is presented. It consists on defining a "residual vector" that, once minimized, returns the nodal values of the membrane along the cables.
87

Contribucions als agorismes de punt interior en mètodes iteratius per a sistemes d'equacions usant regularitzacions quadràtiques

Cuesta Andrea, Jordi 29 September 2009 (has links)
Els mètodes de punt interior per a programació lineal proporcionen algorismes de complexitat polinòmica, que els fa ser molt eficients en l’optimització a gran escala. Aquests algorismes utilitzen el mètode de Newton per a convertir les equacions d’òptim del problema, que són no lineals, en un sistema d’equacions lineals, que solen resoldre’s aplicant factorizacions de matrius esparses. En aquells casos particulars en els quals el problema té una estructura especial, com ara en els problemes d’optimització en xarxes multiarticle, es pot aprofitar per millorar l’eficiència de l’algorisme. Aquests problemes de xarxes pertanyen a la família més general de problemes primals bloc-angulars. El punt de partida d’aquesta tesi va ser un fet empíric: l’observació del millor comportament computacional d’un algorisme especialitzat de punt inferior per a problemes bloc-angulars quan en la funció objectiu figurem termes quadràtics. Aquest algorisme utilitza factoritzacions de matrius per resoldre la part de les equacions associades a la zarza i el mètode del gradient conjugat precondicional per resoldre les equacions asociadse a les restriccions d’acoblament. Llavors l’objectiu original va ser buscar alguna forma d’aproximar un problema lineal per un quadràtic de manera que s’explotés el fet experimental observat sense perjudicar la convergència del problema. Posteriorment el plantejament inicial es va amplificar amb el nou objectiu de demostrar la convergència del mètode, entre altres resultats teòrics. El marc teòric usat per poder formular matemàticament aquesta idea ha estat la regularització de la funció de barrera logarítmica associada al problema d’optimització, entenent com a tal la transformació de la funció de barrera original per una altra que inclou un terme quadràtic variable de pertorbació, que disminueix progressivament conforme l’algorisme s’atansa a l’òptim. Aqueste terme quadràtic converteix el problema lineal original en un de quadràtic, de forma que en les primeres iteracions aprofitem el comportament empíric abans esmentat i, a mesura que progressa l’algorisme, el terme quadràtic esdevé negligible, i el problema amb regularització quadràtica s’atansa al problema lineal original. La barrera regularitzada resulta ser auto-concordant, assegurant així la convergència del mètode de punt interior.
88

Aplicació de tècniques cromatogràfiques a la determinació d'alteradors endocrins en aigües

Brossa Piñero, Lidia 15 December 2004 (has links)
L'objectiu d'aquesta tesis és el desenvolupament de mètodes analítics per a la determinació i control d'un grup d'alteradores endocrins en mostres aquoses mediambientals. Els mètodes desenvolupats es basen por una banda en la utilització de la cromatografia de gasos amb l'espectrometria de masses (GC-MS) amb diferents tècniques d'extracció, com són l'extracció en fase sòlida (SPE) i una tècnica de recent aparició, l'extracció amb barres magnètiques agitadores (SBSE). Aquests mètodes utilitzen tècniques d'injecció de grans volums (LVI) recentment desenvolupats per introduir l'extracte al sistema cromatogràfic. La SPE s'ha acoblat en línia a la GC utilitzant la interfase on-column i el vaporitzador a temperatura programada, aconseguint mètodes amb un elevat grau d'automatització i millor sensibilitat. La SBSE, s'ha utilitzat amb desorció líquida, en lloc de la desorció tèrmica àmpliament utilitzada en combinació amb la GC, per estudiar l'aplicabilitat de les tècniques de LVI en cas de no disposar d'un desorbidor tèrmic. Per una altra banda, amb l'objectiu d'ampliar el número de compostos estudiats, s'han desenvolupat mètodes basats en la cromatografia de líquids d'alta resolució (HPLC) utilitzant la SPE com a tècnica de preconcentració. S'ha utilitzat el detector UV-Visible, obtenint un mètode ràpid i de fàcil aplicació en els laboratoris com a mètode de control pel grup de compostos estudiats en mostres aquoses mediambientals, i la MS utilitzant la interfase d'electroesprai. Amb alguns dels mètodes desenvolupats s'han portat a terme estudis de monitorització de diferents grups d'alteradors endocrins en aigües mediambientals procedents de riu i mar i en aigües d'entrada i sortida d'estacions de depuradores. Aquestes mostres han estat recollides en la zona de Tarragona, on fins l'actualitat no existien estudis de control d'aquests contaminants. / The scope of this thesis is to develop analytical methods to determine endocrine disruptors and to control their presence in environmental water samples. Some methods are based on gas chromatography-mass spectrometry (GC-MS) using several extraction techniques such as solid-phase extraction (SPE) and the novel technique, stir-bar sorptive extraction (SBSE). These methods have been developed by using large volume injection (LVI) techniques to introduce the extract into the GC system. The SPE has been coupled to GC using the on-column interface and a programmable temperature vaporizer (PTV), to increase both automation and sensibility. SBSE with liquid desorption has been used, instead of thermal desorption (the most used in combination with GC) to study its applicability with LVI.Methods based on high-performance liquid chromatography (HPLC) combined with SPE as a preconcentration technique, have been developed to increase the number of analytes studied. In these methods UV detector has been used to obtain a rapid method that can be easily applied as a control method in the routine laboratories. MS with electrospray interface has also been used. Some of the developed methods have been used to monitor several groups of endocrine disruptors in environmental water samples from river, sea and influent and effluent sewage treatment plants. These samples have been collected in Tarragona, where no studies related to the control of these compounds have been done.
89

Olive oil characterization using excitation-emission fluorescence spectroscopy and three-way methods of analysis

Guimet Vila, Francesca 18 November 2005 (has links)
Els olis d'oliva contenen espècies fluorescents, com la vitamina E, les clorofil·les i productes d'oxidació formats degut a la seva degradació. Això fa que es pugui obtenir informació sobre la composició dels olis a partir de mesures de fluorescència. Aquesta informació es pot obtenir a partir de mesures directes, sense necessitat de realitzar cap etapa prèvia de dilució o addició de reactius. Això suposa grans avantatges respecte a altres tècniques que requereixen aquestes etapes, com les cromatogràfiques, ja que no es generen residus addicionals i es redueix el temps d'anàlisi. Tot i això les possibilitats de la fluorescència en l'anàlisi d'olis no estan molt estudiades i aquesta tècnica normalment no s'utilitza en els laboratoris de control de qualitat d'olis. L'actual instrumentació permet enregistrar un conjunt d'espectres de fluorescència a diferents longituds d'ona d'excitació en una única mesura. D'aquesta manera s'obté el que s'anomena matriu d'excitació-emissió de fluorescència. Matemàticament les matrius de fluorescència són matrius de números i s'anomenen dades de segon ordre. Els mètodes quimiomètrics que s'apliquen a les dades de segon ordre reben el nom de mètodes de tres vies, perquè les dades estan disposades en una estructura tridimensional. L'objectiu d'aquesta tesi ha estat caracteritzar olis d'oliva a partir de l'espectroscòpia de fluorescència d'excitació-emissió (EFEE) i de mètodes de tres vies.La primera part de la tesi inclou l'aplicació de mètodes d'anàlisi exploratòria de tres vies a un conjunt d'olis comercials (verges, purs i de sansa d'oliva). Concretament es van aplicar els mètodes anàlisi de components principals sobre la matriu desplegada (unfold-PCA), anàlisi paral·lela de factors (PARAFAC) i anàlisi d'agrupacions jerarquitzada (HCA). Aquests mètodes van permetre diferenciar entre els tipus d'olis en funció de les seves matrius de fluorescència. PARAFAC té l'avantatge que permet extreure els espectres subjacents de les principals famílies de compostos fluorescents.A continuació es va utilitzar un segon conjunt d'olis per a relacionar les seves matrius de fluorescència amb dos paràmetres de qualitat: l'índex de peròxids i K270. L'estudi es va fer comparant dos mètodes quimiomètrics: PARAFAC combinat amb regressió lineal múltiple i regressió per mínims quadrats parcials multi-via (N-PLS). N-PLS va proporcionar ajustos millors i errors de predicció més baixos. També es va veure que l'EFEE permet detectar olis verges degradats.La darrera part de la tesi conté l'aplicació de diversos mètodes de classificació de tres vies per a detectar adulteracions i discriminar olis en funció dels seu origen i tipus. En primer lloc es va estudiar la detecció d'adulteracions d'oli d'oliva verge extra amb olis de sansa (al 5%). Es van aplicar els estadístics Hotelling T2 i Q i els mètodes anàlisi discriminant lineal de Fisher (Fisher's LDA) i N-PLS discriminant. N-PLS discriminant va discriminar entre olis verges i adulterats amb un 100% de classificació correcta. A continuació es mostra que les diferències d'estabilitat entre els olis de les dues subregions de la denominació d'origen protegida "Siurana" es poden detectar a partir de les seves matrius de fluorescència. El mètode unfold-PLS discriminant va permetre discriminar entre els olis de les regions Camp de Tarragona i Montsant amb classificacions superiors al 90%.Finalment, es va aplicar l'algorisme factorització de matrius no negativa (NMF) a les matrius de fluorescència de tres conjunts d'olis diferents. En aquest estudi es mostra que aquest mètode és capaç de descompondre les matrius de fluorescència dels olis en parts positives que es poden relacionar amb algunes espècies fluorescents dels olis. També es van estudiar les possibilitats de NMF combinat amb Fisher's LDA per a classificar olis. Es van obtenir classificacions entre 90-100%. / Olive oil contains fluorescent species, such as vitamin E, chlorophylls and oxidation products produced due to degradation. For this reason, fluorescence measurements can be used to obtain information about oil composition. This information can be obtained from direct measurements without needing any prior step of dilution of addition of reagents. This has great advantages with respect other techniques that require these steps, such as chromatographic, because no additional residues are generated and time of analysis is reduced. However the possibilities of fluorescence applied to olive oil analysis are not well studied and this technique is not normally used by the laboratories of olive oil quality control. The current instrumentation allows recording a set of fluorescence spectra at several excitation wavelengths in one measure. As a result, a fluorescence excitation-emission matrix is obtained. Mathematically, fluorescence matrices are matrices of numbers and are called second-order data. Chemometric methods applied to second-order data are called three-way methods, because the data are arranged in a three-dimensional structure. The objective of this thesis has been to characterize olive oils on the basis of excitation-emission fluorescence spectroscopy (EEFS) and three-way methods.The first part of the thesis includes the application of three-way exploratory methods of analysis to a set of commercial oils (virgin, pure and olive-pomace). The methods applied were unfold principal component analysis (unfold-PCA), parallel factor analysis (PARAFAC) and hierarchical cluster analysis (HCA). These methods enabled to distinguish between the oil types on the basis of their fluorescence matrices. PARAFAC has the advantage of providing the underlying spectra of the main families of fluorescent compounds.Next a second set of oils was considered for relating their fluorescence matrices with two quality parameters: peroxide value and K270. The study involved comparing two chemometric methods: PARAFAC combined with multiple lineal regression and multi-way partial least squares regression (N-PLS). N-PLS provided the best fits and the lowest prediction errors. It was also observed that EEFS can detect degraded virgin oils.The last part of the thesis contains the application of several three-way classification methods for detecting adulterations and discriminating between oils on the basis of their origin and type. Firstly, we studied the detection of extra virgin olive oil adulterations with olive-pomace oils (at 5% level). We applied Hotelling T2 and Q statistics and the methods Fisher's linear discriminant analysis and discriminant N-PLS. Discriminant N-PLS differentiated between virgin and adulterated oils with a 100% of correct classification. Next, it is shown that the different stability of the oils from the two subregions of the protected denomination of origin "Siurana" can be detected from their fluorescence matrices. The method discriminant unfold-PLS enabled to discriminate between the oils from the regions "Camp de Tarragona" and "Montsant" with classifications above 90%.Finally, we applied the algorithm non-negative matrix factorization (NMF) to the fluorescence matrices of three sets of olive oils. In this study it is shown that this method is able to decompose the fluorescence matrices of oils into positive parts that can be related with some fluorescence species of oils. We also studied the possibilities of NMF combined with Fisher's LDA for olive oil classification. We obtained classifications between 90-100%.
90

Encapsulating lipid structures: preparation and application in biosensors, nanoparticles synthesis and controlled release

Genç, Rükan 14 March 2011 (has links)
L’auto-assemblatge de molècules en nano- i micro-estructures és una àrea de gran interès, sent els lípids particularment atractius en la formació de diverses estructures incloent els liposomes. Hi ha un gran número de mètodes reportats en la literatura per a la preparació de liposomes, però els inconvenients que limiten l’ús generalitzat dels liposomes són; els passos de preparació que requereixen de molt de temps donant lloc a poblacions heterogènies de liposomes de mida incontrolable, l’ús de solvents orgànics i la necessitat de passos per a reduir la mida dels liposomes. Per tant; l’objectiu d’aquest doctorat és la optimització d’un mètode ultra-ràpid per a la preparació de liposomes en un sol pas i lliure de dissolvents orgànics. Anomenat “Curvature tuned preparation method” ha estat implementat en diverses formulacions lipídiques per a la formació de liposomes i d’altres superestructures de lípids. Aquestes estructures s’han emprat en diverses aplicacions, com ara en nanoreactors i plantilles per a la síntesis a mida de nanopartícules d’or, liposomes per encapsular enzims com a potenciadors de senyal en el desenvolupament de immunosensors i finalment, com a vehicles per l’alliberament controlat de fàrmacs. / The self-assembly of molecules into nano- or microstructures is an area of intense interest, with lipids being particularly attractive in the formation several structures including liposomes. There are numerous methods reported for the preparation of liposomes, however, time-consuming preparative steps resulting in heterogeneous liposome populations of incontrollable size, the use of organic solvents and the need of further size-reducing steps are the drawbacks limiting wide-spread use of liposomes. Therefore; the main concern of this PhD thesis is optimization of a one-step, organic solvent-free, ultra rapid method for the preparation of liposomes. So called “Curvature tuned preparation method” was later implemented in several lipid formulations which resulted in liposomes and other lipid superstructures. Those structures were further used in several applications, such as nanoreactors and templates for tailored synthesis of gold nanoparticles, enzyme encapsulating liposomes as signal enhancers in immunosensor development, and finally as carriers for controlled release of drugs

Page generated in 0.0208 seconds