71 |
Modelos de deconvolución ciega fraccionaria. Aplicaciones a la restauración de obras pictóricas.Romero Sánchez, Pantaleón David 30 March 2009 (has links)
No description available.
|
72 |
Técnicas de interpolación weno y su aplicación al procesamiento de imágenesBelda García, Ana María 01 March 2010 (has links)
Un problema común en la teoría de aproximación es la reconstrucción de una función a partir de
un conjunto de valores discretos de datos que dan información sobre la función misma. Esta
información por lo general viene dada como valores puntuales o medias en celda de la función
sobre un conjunto finito de puntos o celdas, respectivamente. La función es aproximada por un
interpolante, es decir, por otra función cuyos valores puntuales o medias en celda coinciden con
los de la función original.
Este interpolante puede ser construido por interpolación lineal. En este caso la exactitud de la
aproximación cerca de una singularidad está limitada y depende del orden de la singularidad, de
modo que si construimos el polinomio interpolador basándonos en un stencil que cruza la
singularidad obtendremos una aproximación insatisfactoria. Esto significa que aumentar el grado
del polinomio producirá regiones más grandes de mala aproximación alrededor de las
singularidades.
Para aumentar la exactitud la solución es escoger los puntos de forma que el stencil quede dentro
de la parte suave de la función, siempre que esto sea posible. Esta es la idea que hay detrás de la
técnica de interpolación ENO (Esencialmente No Oscilatoria), introducida por Harten et al., que es
un procedimiento no lineal con el que la región de poca exactitud queda reducida al intervalo que
contiene la singularidad, siempre y cuando las singularidades estén suficientemente bien
separadas.
Liu et al. introdujeron una mejora sobre la técnica ENO, llamada weighted ENO (ENO
ponderado), que consiste en reconstruir un polinomio que interpola los valores puntuales de la
solución de una ley de conservación hiperbólica a partir de las medias en celda de la solución
débil. En la interpolación WENO se asignan a cada celda todos los stencils que la contienen, y el
polinomio interpolador se calcula como combinación lineal convexa de todos los polinomios
correspondientes a estos stencils. La clave es asignar los pesos más convenientes a la
combinación. Estos pesos deben ser elegidos de forma que en la combinación los polinomios
interpoladores en los stencils que cruzan una singularidad tengan una contribución casi nula. En
las regiones suaves se utiliza la información proporcionada por todas las celdas contenidas en los
stencils del proceso de selección ENO, y el resultado es un mayor orden de exactitud.
En este trabajo se ha integrado la técnica WENO en el entorno de multirresolución de Harten, y se
ha adaptado a los contextos de medias en celda y valores puntuales. En ambos casos se
proponen nuevas medidas para la suavidad de una función. Además, en el contexto de valores
puntuales se propone una modificación en la definición de los pesos WENO, que mejora el orden
de la aproximación en presencia de singularidades. En la definición de los pesos WENO se
introduce un ε positivo para evitar que el denominador se anule y se suele tomar ε constante. En
esta tesis se propone tomar ε=h2, lo que permite demostrar que si la función es suave en al menos
r+1 puntos y tiene una discontinuidad dentro del stencil de 2r puntos, entonces obtenemos al
menos una aproximación de orden r+1, es decir, como mínimo obtenemos el mismo orden que el
interpolante ENO, y en las zonas suaves de la función el orden de la aproximación es óptimo
incluso en presencia de puntos críticos en los que se anulen las dos primeras derivadas.
Las técnicas de interpolación WENO se comparan, mediante diferentes experimentos numéricos,
con las técnicas de interpolación lineal, ENO y ENO-SR, para poder concluir qué método
proporciona la mayor exactitud en cada caso. / A common problem in approximation theory is to reconstruct a function from a discrete set of data
which gives information on the function itself. This information will usually come in the form of
point-values or cell-averages of the function, which is then approximated by an interpolant, that is,
another function whose values at a given set of points or cell-averages are equal to those of the
original one.
This interpolant can be built through linear interpolation, but in this case the accuracy of the
approximation in the presence of a singularity is limited by the order of the singularity, so that any
stencil crossing it will result in a poor approximation. In order to improve the accuracy of the
approximation we need to choose stencils that avoid crossing singularities, whenever this is
possible. That is the idea behind the ENO (essentially non-oscillatory) technique, introduced by
Harten et al.
WENO (weighted ENO) was introduced by Liu et al. as an improvement upon ENO. The idea is to
assign to each subinterval all the stencils containing it, and construct the interpolating polynomial
as a linear convex combination of the corresponding polynomials. In this way we use all the
information provided by the nodes contained in the candidate stencils in the ENO selection
process, and this should give a higher order of accuracy in smooth regions of the function. The key
point is the assignment of weights to the convex combination.
In this work we have incorporated WENO to Harten's multiresolution framework, and adapted it to
the context of cell-averages and point-values. Moreover, for point-values we propose a
modification in the definition of the weights, producing a higher order of accuracy in the presence
of singularities. We also compare the WENO technique with other interpolation techniques through
numerical experimentation.
|
73 |
La enseñanza de la resolución algebraica de problemas en el entorno de la hoja de cálculoArnau Vera, David 23 June 2010 (has links)
Nuestra investigación pretendía dar respuesta a: 1) ¿Cuáles son las actuaciones de los
estudiantes cuando resuelven problemas en la hoja de cálculo después de haber sido
instruidos en la resolución algebraica de problemas en dicho entorno? 2) ¿Cómo influye la
enseñanza de la resolución algebraica de problemas en la hoja de cálculo en la competencia
de los estudiantes cuando resuelven problemas verbales con lápiz y papel y, en especial,
mediante el método cartesiano?
Sobre el armazón de los Modelos Teóricos Locales construimos un marco teórico y
metodológico que tenía por intención: A) Describir las características de la hoja de cálculo
prestando especial atención a la sintaxis y la semántica de su lenguaje para poder compararlo
con el lenguaje del álgebra. B) Determinar qué se considera una resolución algebraica
competente en la hoja de cálculo (en adelante, MHC) y establecer similitudes y diferencias
con la resolución mediante el método cartesiano (en adelante, MC). C) Diseñar una secuencia
de enseñanza sobre la resolución algebraica de problemas verbales en la hoja de cálculo. D)
Establecer un método que nos permitiera determinar lo próxima que una resolución se hallaba
de la que realizaría un sujeto competente.
La población de nuestro estudio experimental estaba formada por un grupo natural de 24
estudiantes de segundo curso de ESO.
Para dar respuesta a la primera pregunta de investigación, analizamos la actuación de cinco
parejas de estudiantes resolviendo seis problemas típicamente algebraicos tras haber sido
instruidos en la resolución de problemas mediante el MHC. Las actuaciones observadas se
puede pueden agrupar en: la tendencia a evitar el uso del MHC y en las dificultades y errores
a la hora de usarlo.
Dentro de la tendencia a evitar el uso del MHC podemos distinguir: 1) El uso de cantidades
variables en lugar de cantidades determinadas que se manifiesta en el uso de lo que hemos
llamado líneas de vida (donde se sustituye la operación con la cantidad desconocida tiempo
transcurrido por el cálculo de la edad el año siguiente de manera recursiva) cuando se
resuelven los problemas de edades y en la modelización de un posible proceso que une la
situación descrita en el enunciado con otra situación hipotética en la que todas las cantidades
son conocidas o se pueden calcular a partir de éstas. 2) El recurso a la aritmética. 3) El
recurso al MC de manera verbal.
Entre el catálogo de dificultades y errores al usar el MHC destacamos: la dificultad para
operar con lo desconocido; la dificultad para invertir las relaciones obtenidas tras la lectura
analítica; la falta de atención a las restricciones del problema para centrarse en la verificación
de la ecuación; la tendencia a seguir calculando hasta "cerrar los cálculos" y la necesidad de
que la igualdad se construya sobre dos expresiones de una cantidad conocida.
Para dar respuesta a la segunda pregunta de investigación, comparamos las actuaciones de los
estudiantes al resolver dos cuestionarios formados por ocho problemas isomorfos típicamente
algebraicos: uno administrado previamente a la instrucción y el otro, al acabarla. El análisis
de los resultados nos lleva a concluir que tras la enseñanza del MHC se incrementa el número
de lecturas algebraicas, pero disminuye el uso del lenguaje del álgebra, produciéndose un
aumento significativo del uso de valores provisionales para las cantidades desconocidas.
También se observa que disminuye significativamente la competencia de los estudiantes al
afrontar de manera algebraica problemas de la subfamilia edades, pero que aumenta en el
resto de problemas; lo que parece plausible atribuir a las estrategias espontáneas, correctas o
incorrectas, que usan los estudiantes en la hoja de cálculo cuando resuelven los problemas de
edades. / Our research aimed to give an answer to: 1) Which are the student performances when trying
to solve word problems on the spreadsheet after having been instructed in an algebraic
problem solving method we call Spreadsheet Method (SM)? 2) How teaching SM has
influence on student competence when they solve problems on paper and pencil, and,
especially when they use the Cartesian Method (CM)?
Our experimental study population consisted of a natural group of twenty-four secondary
students (13-14 years old).
The observed performances when trying to solve a problem on the spreadsheet are classified
either according to the tendency to avoid using the SM or according to the difficulties and
mistakes when using it.
Regarding the tendency to avoid using the SM we can distinguish: 1) Using variable
quantities instead of determined quantities. 2) Resorting to an arithmetical solving procedure.
3) Resorting to CM in a verbal way.
Regarding the difficulties and mistakes we can distinguish: difficulties dealing with the
unknown; difficulties reversing the connections obtained after an analytical reading; lack of
attention to the problem restrictions in order to focus on the equation verification; the
tendency to go on calculating until “closing the calculation”, and the need to build the
equation using two expressions of a known quantity.
Analysis findings lead us to conclude that after teaching SM, when students solve word
problems using paper and pencil, the number of algebraic readings increases, but the use of
algebraic language decreases, and a significant rise in the use of provisional values for the
unknown quantities occurs. It is also worthwhile to notice that the student competence to face
age problems in an algebraic way decreases significantly, but this algebraic competence
increases when dealing with problems from other problem types.
|
74 |
Correspondencias de carácteres de grupos finitosCentella Barrio, Pablo 07 September 2010 (has links)
Uno de los problemas fundamentales de la Teoría de Caracteres es la Conjetura de McKay. La Conjetura de McKay afirma que si G un grupo finito, p un primo, y P un p-subgrupo de Sylow de G, entonces existe una biyección entre el conjunto $Irr_{p'}(G)$ de los caracteres complejos irreducibles de G de grado no divisible por p y el conjunto $Irr_{p'}(N)$, donde N es el normalizador de P en G.
En general, no se conocen correspondencias canónicas entre estos dos conjuntos, incluso cuando G es resoluble.
Sin embargo, bajo ciertas condiciones, sí se han encontrado correspondencias canónicas. En concreto, se han encontrado correspondencias canónicas entre estos dos conjuntos bajo las siguientes hipótesis:
(1) G es resoluble y |G:N| es impar (M. Isaacs, 1973).
(2) G es p-resoluble y N=P (G. Navarro, 2003).
(3) G es resoluble y |N| es impar (A. Turull, 2008).
Nuestros dos principales teoremas de la tesis son extender los casos (2) y (3) bajo hipótesis más generales; en concreto, cuando G es p-resoluble (sin exigir que N sea igual a P), y cuando G resoluble (sin exigir ninguna condición adicional sobre |G:N| o |N|).
Sea $\Phi_{1_{G^0}}$ el carácter proyectivo indescomponible principal de G (respecto del primo p). Denotamos por $Irr_{p'}(\Phi_{1_{G^0}})$ al conjunto de constituyentes irreducibles del carácter proyectivo indescomponible principal de G de grado no divisible por p. Demostramos que el siguiente teorema es cierto.
TEOREMA A
Sea G un grupo finito p-resoluble, P un p-subgrupo de Sylow de G, y N el normalizador de P en G. Entonces, existe una biyección canónica $\Gamma$ de $Irr_{p'}(\Phi_{1_{G^0}})$ a $Irr_{p'}(\Phi_{1_{N^0}})$, tal que si $\chi$ es un carácter en $Irr_{p'}(\Phi_{1_{G^0}})$, entonces $\Gamma(\chi)$ es el único constituyente irreducible de la restricción de $\chi$ a N que tiene grado no divisible por p
Esta nueva biyección $\Gamma$ coincide exactamente con la biyección de Navarro cuando N=P, y cumple una serie de propiedades.
Consideramos ahora el conjunto $IBr_{2'}(G)$ de caracteres de p-Brauer irreducibles de G de grado impar. Demostramos el siguiente resultado:
TEOREMA D
Sea G un grupo finito resoluble, P un p-subgrupo de Sylow de G, y N el normalizador de P en G. Entonces existe una biyección canónica entre $IBr_{2'}(G)$ y $IBr_{2'}(N)$.
Esta biyección también cumple una serie de propiedades (que no enunciaremos aquí). / One of the fundamental problems in Character Theory is the McKay Conjecture. The McKay Conjecture asserts that if G is a finite group, p is a prime and P is a Sylow p-subgroup of G, then there exists a bijection between the set $Irr_{p'}(G)$ of the irreducible complex characters of G of degree not divisible by p and the set $Irr_{p'}(N)$, where N is the normalizer of P in G.
In general, no canonical correspondences between these two sets are known, even when G is solvable.
However, under certain conditions, canonical correspondences have been found. Specifically, canonical correspondences between these two sets have been found under the following hypotheses:
(1) G is solvable and |G:N| is odd (M. Isaacs, 1973).
(2) G is p-solvable and N=P (G. Navarro, 2003).
(3) G is solvable and |N| is odd (A. Turull, 2008).
The two main theorems of this thesis manage to extend the cases (2) and (3) under more general hypotheses; specifically, when G is p-solvable (without requiring N to be equal to P), and when G is solvable (with no additional hypotheses on |G:N| or |N|).
|
75 |
Learning multiresolution: Transformaciones Multiescala derivadas de la teoría estadística de aprendizaje y aplicacionesYáñez Avendaño, Dionisio F. 15 December 2010 (has links)
Signal and image processing has become an essential and ubiquitous
part of contemporary scienti¯c and technological activity, and the signals
and images that need to be processed appear in most sectors of modern
life. Signal processing is used in telecommunications, in the transmission
of satellite images, and in medical imaging like echography, tomography,
and nuclear magnetic resonance. Also it used in applications in Physics,
Mechanics and other important issues that nowadays we know and that we
will know in the future.
Multiscale representations of signals into wavelets bases have been suc-
cessfully used in applications such as compression and denoising. In these
applications, one essentially takes advantage of the sparsity of the repre-
sentation of the image.
Harten designed a general multiscale framework only based in interpola-
tion techniques. What is the Harten's idea? Firstly, he considered that given
a set of discrete values in a resolution level k, fk, these values are the dis-
cretization of a continuous functions depending on their 'nature'. Therefore
he de¯ned the discretization operator Dk. In order to re¯ne the resolution
of a set of discrete data Harten de¯ned the reconstruction operator, Rk to
make up the original continuos function and with these two functions he
de¯ned two operators that connect consecutive resolution levels:
Dk¡1
k = Dk¡1Rk;
Pk
k¡1 = DkRk¡1:
In this thesis we propose new reconstruction operators Rk.
In the ¯rst part of the thesis we present a non linear Hermite interpolant
which preserves the monotonicity. We use non-linear methods like ENO [B.
Engquist et al., J. Comput. Phys., 71 (1987), pp. 231{303] and WENO [F.
Arµandiga, A. Belda, P. Mulet, Jour. Scien. Comp., 43 (2010), pp. 158{182]
to aproximate the derivarives.
In multiresolution of Harten we have the \consistence condition": if we
decimate Pk
k¡1fk¡1 we have to obtain the original data fk¡1, i. e.
Dk¡1
k Pk
k¡1fk¡1 = fk¡1:
Since most of the prediction operators that we obtain in this thesis do
not satisfy this property we present a new strategy (AY) which will let
us to use non-consistent prediction operators in a way that conserves its
properties.
We use approximation based on kernel methods [C. Loader, Springer,
(1999)] to design new recontruction oparators.
These consist on approximating a value, f(xk°
) by ^z(xk°
) where:
^z(x) = argm¶³n
z(x)2K
Xn
j=1
K¸(xk°
; xk¡1
j )L(fk¡1
j ; z(xk¡1
j )):
K is a class of functions where we minimize the functional; ¸ is the
bandwidth, we only consider the values contained in the interval [xk°
¡
¸; xk°
+ ¸]; K¸(xk°
; xk¡1
j ) is the kernel which assigns a weight to the each
value in the level k ¡ 1; and L(x; y) is a loss function which measures the
distance between the approximation and the real values, fk¡1.
This method generalizes the interpolation methods introducing some ad-
vantages. In an approximation problem using kernel methods there are
some variables. We study the possibilities and the advantages and disad-
vantages depending on these variables.
Finally, we observe that in multiresolution context we know the original
signal. Therefore, why don't we use this information to obtain a prediction
operator? We answer this question using Statistical Learning Theory (see
e.g. [T. Hastie, R. Tibshirani, J. Friedman, Springer, (2001)]) as follow:
Given the values in the level k ffk
j gj2Mk we solve
^ Pk
k¡1 = argm¶³n
g2K
X
j2Mk
L(fk
j ; g(Sr;s((Dk¡1
k fk)j)));
where K is a class of functions and Sr;s((Dk¡1
k fk)j) are the function values
in the level k ¡ 1 chosen to approximate each value in the level k.
We adapt the classical de¯nitions of the Harten multiresolution to this
new type of multiresolution and we design a prediction operator adapted
to the edges of the image obtaining high compression rate.
We analyze the theoretical properties for the two new methods, we com-
pare them with traditional methods and we show their results. / El tratamiento de se~nales digitales se ha convertido en los ¶ultimos a~nos en
una de las tareas m¶as interesantes y de mayor recorrido para la investigaci¶on
matem¶atica. Hay aplicaciones directas en el campo de la Inform¶atica, redes
de comunicaci¶on, tratamientos m¶edicos, tratamientos de recuperaci¶on de
obras de arte, de fotograf¶³as. Aplicaciones en F¶³sica, Mec¶anica, desarrollos
en pel¶³culas animadas y otras muchas que se conocen y que se conocer¶an a
lo largo del tiempo.
El tratamiento de se~nales podemos decir que comienza en la ¶epoca de
Fourier (1807), su aplicaci¶on en funciones 2¼-peri¶odicas y su transformada
para se~nales discretas es utilizada a¶un hoy con ¶exito para la compresi¶on y
eliminaci¶on de ruido. Sin embargo la transformada de Fourier est¶a deslo-
calizada en tiempo frecuencia (tan s¶olo nos ofrece la frecuencia) lo que
provoc¶o en los a~nos 80 el desarrollo de las primeras bases wavelets. Estas
bases tienen una localizaci¶on tiempo frecuencia y gracias a los ¯ltros que
podemos obtener de ellas se pueden utilizar en el tratamiento de se~nales.
Los esquemas de subdivisi¶on interpolatorios son reglas que nos permiten
re¯nar un conjunto de datos interpolando los valores intermedios a los
puntos dados utilizando combinaciones lineales de los valores vecinos.
Estas dos ideas junto a la resoluci¶on de ecuaciones en derivadas parciales
es lo que indujo a Harten a elaborar un marco general de multiresoluci¶on [A.
Harten, J. Appl. Numer. Math., 12 (1993), pp. 153{192] que permite por
medio de dos operadores fundamentales: decimaci¶on, Dk¡1
k y predicci¶on,
Pk
k¡1 establecer una conexi¶on entre dos niveles de resoluci¶on. La idea de
Harten es sencilla pero a su vez est¶a cargada de grandes posibilidades pues
generaliza las bases wavelets permitiendo la introducci¶on de elementos no
lineales en sus operadores.
>En qu¶e consiste la idea de Harten? En primer lugar, se dio cuenta de
que si tenemos un conjunto de valores discretos en un determinado nivel
de resoluci¶on k, fk, ¶estos poseen una naturaleza, es decir, proced¶³an de una cierta funci¶on continua f y hab¶³an sido discretizados dependiendo de
la naturaleza de los datos, as¶³ pues gener¶o un operador discretizaci¶on Dk.
Por otra parte si deseamos tener mayor resoluci¶on, es decir determinar m¶as
puntos, necesitamos reconstruir primero esa se~nal continua que \perdimos"
en la decimaci¶on por medio de un operador que llam¶o reconstrucci¶on, Rk
y con estos operadores de¯ni¶o los ya mencionados, as¶³:
Dk¡1
k = Dk¡1Rk;
Pk
k¡1 = DkRk¡1:
Es en el operador Rk donde se introduce toda la teor¶³a interpolatoria
(ver p. ej. [A. Harten, SIAM J. Numer. Anal., 71 (1996), pp. 231{303]) y
donde podemos utilizar interpolaci¶on no lineal como los m¶etodos presenta-
dos en el contexto de soluci¶on de ecuaciones diferenciales para capturar las
discontinuidades, m¶etodos ENO (ver p. ej. [B. Engquist et al. J. Comput.
Phys., 71 (1987), pp. 231{303]) y WENO (ver p. ej. [F. Arµandiga, A. Belda,
P. Mulet, Jour. Scien. Comp., 43 (2010), pp. 158{182]).
Harten impone una serie de condiciones a estos operadores, la primera
de ellas es que el operador Dk¡1
k sea lineal y sobreyectivo, para ello pro-
pone las distintas potencias de la funci¶on de Haar !0(x) = Â[0;1]. En la
literatura sobre multiresoluci¶on podemos encontrar otros operadores de-
cimaci¶on no splines. Nosotros no trabajaremos en este sentido, ¯jaremos
varios operadores decimaci¶on y trabajaremos con ellos. La segunda es que
estos operadores cumplan una condici¶on de consistencia: si tenemos una
se~nal fk¡1 y mejoramos su resoluci¶on, es decir, predecimos estos datos
Pk
k¡1fk¡1 y despu¶es decimamos esta predicci¶on entonces recuperaremos
los datos iniciales, i. e.
Dk¡1
k Pk
k¡1fk¡1 = fk¡1:
Sin embargo en algunas aplicaciones (como compresi¶on de im¶agenes di-
gitales) no necesitamos esta propiedad, en esta memoria se presenta una
alternativa para trabajar con operadores no consistentes que ofrece buenos
resultados y que conserva las propiedades. Por tanto omitimos esta segunda
propiedad que Harten se~nal¶o en su marco general.
En esta memoria introducimos otra alternativa al operador reconstrucci¶on.
En lugar de utilizar elementos ¶unicamente interpolatorios usamos aproxi-
maci¶on por medio de m¶etodos de n¶ucleo [C. Loader, Springer, (1999)].
Consisten en aproximar a un cierto valor dependiendo de la cercan¶³a (o
lejan¶³a) de los valores de su entorno. Este m¶etodo generaliza los m¶etodos
interpolatorios introduciendo posibles ventajas al poder utilizar gran can-
tidad de puntos sin subir el grado del polinomio interpolador. Son muchas las variables que componen un problema de aproximaci¶on por m¶etodos de
n¶ucleo. En esta memoria estudiamos algunas posibilidades y las ventajas y
desventajas que suscitan.
Nos planteamos la siguiente pregunta: conociendo la se~nal original, >por
qu¶e no utilizar esta informaci¶on para generar un operador predictor m¶as
adaptativo? Respondemos a ¶esta utilizando t¶ecnicas estad¶³sticas de apren-
dizaje (ver p.ej. [T. Hastie, R. Tibshirani, J. Friedman, Springer, (2001)])
y generamos predictores que se adaptan a los contornos de la imagen y al
nivel de resoluci¶on que tenemos. Este tipo de multiresoluci¶on nos induce a
rede¯nir algunos conceptos que aparecen en el contexto de multiresoluci¶on
y que debemos redise~nar para este tipo espec¶³¯co de multiresoluci¶on.
Para ambas v¶³as, tanto para multiresoluci¶on utilizando m¶etodos de n¶ucleo
como para multiresoluci¶on de aprendizaje analizamos las distintas propieda-
des que tienen, las comparamos con los m¶etodos cl¶asicos y mostramos sus
resultados.
Esta memoria presenta de manera sencilla dos operadores predicci¶on de
multiresoluci¶on distintos que abren las puertas a otro gran n¶umero de apli-
caciones. Durante la realizaci¶on de estos m¶etodos han surgido diversos pro-
blemas. El desarrollo de esta tesis es la soluci¶on a dichos problemas.
|
76 |
Triangular Bézier surfaces generation methods using P.D.E’s, functional minimization and masksArnal Pons, Ana María 09 February 2007 (has links)
La tesi doctoral titulada "Mètodes per a generar superfícies de Bézier triangulars utilitzant EDPs, minimització de funcionals i màscares," és un complet treball en què s'aborda el següent problema: com generar superfícies de Bézier triangulars que tinguen per frontera un conjunt de corbes donades.
La tesi presenta diferents mètodes, amb gran varietat d'exemples, que permeten generar aquestes superfícies. Aquests mètodes han estat obtinguts a partir de diverses tècniques:
- Equacions en derivades parcials.
- Problemes variacionals.
- Generació de xarxes de control mitjançant màscares.
- Representacions de Weierstrass per superfices de Bézier minimals.
Aquestes superfícies són àmpliament utilitzades en les branques del disseny gràfic assistit per ordinador, l'enginyeria industrial i la informàtica gràfica.
|
77 |
Eigenvalue varieties of abelian trees of groups and link-manifoldsMalabre, François 20 July 2015 (has links)
L’A-polinomi d’un nus en S3 és un poliomi de dues variables obtingut projectant la
varietat de SL2C-caràcters de l’exterior del nus sobre la varietat de caràcters del grup perifèric.
Distingeix el nus trivial i detecta alguns pendents a la vora de superfícies essencials
dels exteriors de nus.
El concepte de A-polinomi va ser generalitzat a les 3-varietats amb vores tòriques no
connexes; una 3-varietat M amb n tors de vora produeix un sub-espai algebraic E(M) de
C2n anomenat varietat de valors propis de M. Té dimensió maximal n i E(M) també
detecta sistemes de pendents a les vores de superfícies essencials en M.
La varietat de valors propis de M sempre conté una part Ered(M), de dimensió maximal,
produïda pels caràcters reductibles. Si M és hiperbòlica, E(M) conté una altra
component de dimensió maximal; saber quines altres 3-varietats compleixen això encara
és una pregunta oberta.
En aquesta tesi, estudiem aquest assumpte per dues famílies de 3-varietats amb vores
tòriques i, amb dues tècniques diferents, aportem una resposta positiva en ambdós casos.
Primerament, estudiem els enllaços Brunnians en S3, enllaços per els quals tot subenllaç
estricte és trivial. Algunes propietats d’aquests enllaços i llur estabilitat sota alguns
ompliments de Dehn permet mostrar que, si M és l’exterior d’un enllaç Brunnià no trivial
i diferent de l’enllaç de Hopf, E(M) conté una component de dimensió maximal diferent
de Ered(M). Aquest resultat s’obté generalitzant la tècnica prèviament utilitzada per els
nusos en S3 fent servir el teorema de Kronheimer-Mrowka.
Per altre banda, considerem una família de varietats-enllaç, varietats obtingudes com
exteriors d’enllaços en esferes d’homologia entera. Les varietats-enllaç tenen sistemes
perifèrics estàndards de meridans i longituds i són estables per splicing, l’enganxament de
dues varietats-enllaç al llarg de tors perifèrics, identificant el meridià de cada costat amb la
longitud oposada. El splicing indueix una noció de descomposició tòrica per les varietatsenllaç
i anomenem grafejades les varietats-enllaç que admeten una descomposició tòrica
per la qual totes les peces són fibrades de Seifert. Mostrem que, excloent els casos trivials,
totes les varietats-enllaç grafejades produeixen una altre component de dimensió maximal
en les seves varietats de valors propis.
Per aquesta segona demostració, presentem una nova generalització de la varietat de
valors propis, que també té en compte tors interns, i que presentem en el context més general
d’arbres abelians de grups. Un arbre de grup és abelià quan tots els grups de arestes
són commutatius; en aquest cas, definim la varietat de valors propis d’un arbre abelià de
grup, una varietat algebraica compatible amb dues operacions naturales sobre els arbres: la
fusió i la contracció. Això permet estudiar la varietat de valors propis d’una varietat-enllaç
mitjançant les varietats de valors propis de les seves descomposicions tòriques. Combinant resultats generals sobre varietats de valors propis d’arbres abelians de grup i les descripcions
combinatòries de les varietats-enllaç grafejades, construïm components de dimensió
maximal en les seves varietats de valors propis. / Le A-polynôme d’un noeud dans S3 est un polynôme à deux variables obtenu en projetant
la variété des SL2C-caractères de l’extérieur du noeud sur la variété de caractères du
groupe périphérique. Il distingue le noeud trivial et détecte certaines pentes aux bords de
surfaces essentielles des extérieurs de noeud.
La notion de A-polynôme a été généralisée aux 3-variétés à bord torique non connexe ;
une 3-variétéM bordée par n tores produit un sous-espace algebrique E(M) de C2n appelé
variété des valeurs propres deM. Sa dimension est inférieure ou égale à n et E(M) détecte
également des systèmes de pentes aux bords de surfaces essentielles dans M.
La variété des valeurs propres de M contient toujours un sous-ensemble Ered(M) produit
par les caractères réductibles, et de dimension maximale. Si M est hyperbolique,
E(M) contient une autre composante de dimension maximale ; pour quelles autres 3-
variétes est-ce le cas reste une question ouverte.
Dans cette thèse, nous étudions cette question pour deux familles de 3-variétés à bords
toriques et, via deux techniques distinctes, apportons une réponse positive dans ces deux
cas.
Dans un premier temps, nous étudions les entrelacs Brunniens dans S3, entrelacs pour
lesquels tout sous-entrelacs strict est trivial. Certaines propriétés de ces entrelacs, et leur
stabilité par certains remplissages de Dehn nous permettent de prouver que, siM est l’extérieur
d’un entrelacs Brunnien non trivial et différent de l’entrelacs de Hopf, E(M) contient
une composante de dimension maximale différente de Ered(M). Ce résultat est obtenu en
généralisant la technique préalablement utilisée pour les noeuds dans S3 grâce au théorème
de Kronheimer-Mrowka.
D’autre part, nous considérons une famille de variétés-entrelacs, variétés obtenues
comme extérieurs d’entrelacs dans des sphères d’homologie entière. Les variétés-entrelacs
possèdent des systèmes périphériques standard de méridiens et longitudes et sont stables
par splicing, le recollement de deux variétés-entrelacs le long de tores périphériques en
identifiant le méridien de chaque coté avec la longitude opposée. Ceci induit une notion de
décomposition torique de variété-entrelacs et une telle variété est dite graphée si elle admet
une décomposition torique où toutes les pièces sont fibrées de Seifert. Nous montrons
que, mis-à-part les cas triviaux, toutes les variétés-entrelacs graphées produisent une autre
composante de dimension maximale dans leur variétés des valeurs propres.
Pour cette seconde preuve, nous présentons une nouvelle généralisation de la variété
des valeurs propres, qui prend également en compte les tores intérieurs, que nous introduisons
dans le contexte plus général des arbres abéliens de groupes. Un arbre de groupe
est appelé abélien si tous les groupes d’arête sont commutatifs ; dans ce cas, nous définissions
la variété des valeurs propres d’un arbre abélien de groupe, une variété algébrique compatible avec deux opérations naturelles sur les arbres : la fusion et la contraction. Ceci
permet d’étudier la variété des valeurs propres d’une variété-entrelacs à travers les variétés
des valeurs propres de ses décompositions toriques. En combinant des résultats généraux
sur les variétés des valeurs propres d’arbres abéliens de groupe et les descriptions combinatoires
des variétés-entrelacs graphées, nous contruisons des composantes de dimension
maximale dans leur variétés des valeur propres. / The A-polynomial of a knot in S3 is a two variable polynomial obtained by projecting
the SL2C-character variety of the knot-group to the character variety of its peripheral subgroup.
It distinguishes the unknot and detects some boundary slopes of essential surfaces
in knot exteriors.
The notion of A-polynomial has been generalized to 3-manifolds with non-connected
toric boundaries; ifM is a 3-manifold bounded by n tori, this produces an algebraic subset
E(M) of C2n called the eigenvalue variety of M. It has dimension at most n and still
detects systems of boundary slopes of surfaces in M.
The eigenvalue variety of M always contains a part Ered(M) arising from reducible
characters and with maximal dimension. If M is hyperbolic, E(M) contains another topdimensional
component; for which 3-manifolds is this true remains an open question.
In this thesis, this matter is studied for two families of 3-manifolds with toric boundaries
and, via two very different technics, we provide a positive answer for both cases.
On the one hand, we study Brunnian links in S3, links in the standard 3-sphere for
which any strict sublink is trivial. Using special properties of these links and stability
under certain Dehn fillings we prove that, if M is the exterior of a Brunnian link different
from the trivial link or the Hopf link, then E(M) admits a top-dimensional component
different from Ered(M). This is achieved generalizing the technic applied to knots in S3,
using Kronheimer-Mrowka theorem.
On the other hand, we consider a family of link-manifolds, exteriors of links in integerhomology
spheres. Link-manifolds are equipped with standard peripheral systems of
meridians and longitudes and are stable under splicing, gluing two link-manifolds along
respective boundary components, identifying the meridian of each side to the longitude of
the other. This yields a well-defined notion of torus decomposition and a link-manifold
is called a graph link-manifold if there exists such a decomposition for which each piece
is Seifert-fibred. Discarding trivial cases, we prove that all graph link-manifolds produce another top-dimensional component in their eigenvalue variety.
For this second proof, we propose a further generalization of the eigenvalue variety that
also takes into account internal tori and this is introduced in the broader context of abelian
trees of groups. A tree of group is called abelian if all its edge groups are commutative; in
that case, we define the eigenvalue variety of an abelian tree of groups, an algebraic variety
compatible with two natural operations on trees: merging and contraction. This enables to
study the eigenvalue variety of a link-manifold through the eigenvalue varieties of its torus
splittings. Combining general results on eigenvalue varieties of abelian trees of groups
with combinatorial descriptions of graph link-manifolds, we construct top-dimensional
components in their eigenvalue varieties.
|
78 |
Enumeració d'òrbites de n-conjunts d'espais projectius sota l'acció del grup linealMartí i Miras, Ricard 19 June 2006 (has links)
No description available.
|
79 |
Development and applications of the Finite Point Method to compressible aerodynamics problemsOrtega, E. (Enrique) 12 May 2014 (has links)
This work deals with the development and application of the Finite Point Method (FPM) to compressible aerodynamics problems. The research focuses mainly on investigating the capabilities of the meshless technique to address practical problems, one of the most outstanding issues in meshless methods.
The FPM spatial approximation is studied firstly, with emphasis on aspects of the methodology that can be improved to increase its robustness and accuracy. Suitable ranges for setting the relevant approximation parameters and the performance likely to be attained in practice are determined. An automatic procedure to adjust the approximation parameters is also proposed to simplify the application of the method, reducing problem- and user-dependence without affecting the flexibility of the meshless technique.
The discretization of the flow equations is carried out following wellestablished approaches, but drawing on the meshless character of the
methodology. In order to meet the requirements of practical applications, the procedures are designed and implemented placing emphasis on robustness and efficiency (a simplification of the basic FPM technique is proposed to this end). The flow solver is based on an upwind spatial discretization of the convective fluxes (using the approximate Riemann solver of Roe) and an explicit time integration scheme. Two additional artificial diffusion schemes are also proposed to suit those cases of study in which computational cost is a major concern. The performance of the flow solver is evaluated in order to determine the potential of the meshless approach. The accuracy, computational cost and parallel scalability of the method are studied in comparison with a conventional FEM-based technique.
Finally, practical applications and extensions of the flow solution scheme are presented. The examples provided are intended not only to show the
capabilities of the FPM, but also to exploit meshless advantages. Automatic hadaptive procedures, moving domain and fluid-structure interaction problems, as well as a preliminary approach to solve high-Reynolds viscous flows, are a sample of the topics explored.
All in all, the results obtained are satisfactorily accurate and competitive in terms of computational cost (if compared with a similar mesh-based
implementation). This indicates that meshless advantages can be exploited with efficiency and constitutes a good starting point towards more challenging applications. / En este trabajo se aborda el desarrollo del Método de Puntos Finitos (MPF) y su aplicación a problemas de aerodinámica de flujos compresibles. El objetivo principal es investigar el potencial de la técnica sin malla para la solución de problemas prácticos, lo cual constituye una de las limitaciones más importantes de los métodos sin malla.
En primer lugar se estudia la aproximación espacial en el MPF, haciendo hincapié en aquéllos aspectos que pueden ser mejorados para incrementar la robustez y exactitud de la metodología. Se determinan rangos adecuados para el ajuste de los parámetros de la aproximación y su comportamiento en situaciones prácticas. Se propone además un procedimiento de ajuste automático de estos parámetros a fin de simplificar la aplicación del método y reducir la dependencia de factores como el tipo de problema y la intervención del usuario, sin afectar la flexibilidad de la técnica sin malla.
A continuación se aborda el esquema de solución de las ecuaciones del flujo. La discretización de las mismas se lleva a cabo siguiendo métodos estándar, pero aprovechando las características de la técnica sin malla. Con el objetivo de abordar problemas prácticos, se pone énfasis en la robustez y eficiencia de la implementación numérica (se propone además una simplificación del procedimiento de solución). El comportamiento del esquema se estudia en detalle para evaluar su potencial y se analiza su exactitud, coste computacional y escalabilidad, todo ello en comparación con un método convencional basado en Elementos Finitos.
Finalmente se presentan distintas aplicaciones y extensiones de la metodología desarrollada. Los ejemplos numéricos pretenden demostrar las
capacidades del método y también aprovechar las ventajas de la metodología sin malla en áreas en que la misma puede ser de especial interés. Los problemas tratados incluyen, entre otras características, el refinamiento automático de la discretización, la presencia de fronteras móviles e
interacción fluido-estructura, como así también una aplicación preliminar a flujos compresibles de alto número de Reynolds. Los resultados obtenidos muestran una exactitud satisfactoria. Además, en comparación con una técnica similar basada en Elementos Finitos, demuestran ser competitivos en términos del coste computacional. Esto indica que las ventajas de la metodología sin malla pueden ser explotadas con eficiencia, lo cual constituye un buen punto de partida para el desarrollo de ulteriores aplicaciones.
|
80 |
Column-generation and interior point methods applied to the long-term electric power-planning problemPagès Bernaus, Adela 18 December 2006 (has links)
Aquesta tesi s'adreça al problema de planificació de la generació elèctrica a llarg termini per a una companyia específica (SGC) que participa en un mercat liberalitzat organitzat en un pool. Els objectius de la tesi són: modelitzar aquest problema, i desenvolupar i implementar tècniques apropiades i eficients que el resolguin. Un planificació òptima a llarg termini és important, per exemple, per a la confecció de pressupostos, o per a la gestió de compres/consum de combustibles. Una altra aplicació és la de guiar la planificació a curt termini perquè aquesta tingui en compte decisions preses sota una òptica de llarg termini. La nostra proposta per a fer la planificació de la generació és optimitzar la generació esperada de cada unitat (o la unió de diverses unitats de característiques semblants) del pool per a cada interval en que dividim el llarg termini. El model bàsic per la planificació de la generació a llarg termini (LTGP) maximitza el benefici de totes les unitats del pool. La constricció més important és la satisfacció de la demanda, ja que el sistema està sempre balancejat. Utilitzem la formulació de Bloom i Gallant, la qual modela la càrrega a través d'una monòtona de càrrega per cada interval i requereix un número exponencial de constriccions lineals de desigualtat, anomenades LMCs. Altres constriccions (lineals) incloses en el model són: garantia de potència, límits en la disponibilitat de combustibles, emissions màximes de CO2 o una quota de mercat mínima per a la SGC. Una extensió d'aquest model és la planificació conjunta de l'assignació de manteniments de les unitats tèrmiques d'una SGC amb la planificació de la generació. El model conjunt és un problema quadràtic amb variables binàries i contínues. Per resoldre aquest model es proposa un parell d'heurístiques i s'ha implementat un prototipus de branch and bound en AMPL.Aquesta tesi també proposa una manera per coordinar el model LTGP proposat amb una planificació a curt termini. Es desenvolupa un model de curt que inclou els resultats de llarg termini. Donat que el model de planificació a llarg termini s'ha de resoldre sovint (principalment per passar informació acurada al model de curt), les tècniques emprades per a resoldre'l han de donar resultats fiables en un espai de temps curt. Les tècniques aplicades han estat:· Donat que les constriccions de recobriment i les fites de no negativitat defineixen un políedre convex els vèrtexs del qual són fàcils de trobar el model es transforma i les variables esdevenen els coeficients convexos que defineixen un punt. Aquest nou problema es resolt amb l'algoritme de Murtagh i Saunders, que és un procediment òptim. Aquest algoritme s'aplica sota un esquema de generació de columnes donat que el número de vèrtexs del políedre és comparable al número de constriccions. L'avantatge d'aquest mètode és que els vèrtexs es van generant a mesura que es necessiten.· L'aplicació de mètodes directes és computacionalment costós donat el número exponencial de LMCs. De totes maneres, a l'òptim només un conjunt reduït de constriccions de recobriment seran actives. Hem desenvolupat una heurística, anomenada heurística GP, la qual genera un subconjunt de constriccions, entre les quals hi ha les LMCs que són actives a l'òptim. L'heurística resol una seqüència de problemes quadràtics, els quals incrementen el número de LMCs considerades a cada iteració. Els problemes es resolen amb mètodes de punt interior que s'inicialitzen amb tècniques de warm start per tal d'accelerar la convergència cap a la nova solució. Aquest procediment resulta ser molt més eficient que el de generació de columnes. La modelització i els casos de prova estan basats en dades d'un sistema de pool pur i de mercat com ha estat a Espanya fins el juliol de 2006. / This thesis presents an approach to the long-term planning of power generation for a company (SGC) participating in a liberalized market organized as a pool. The goal of this thesis is two-fold: to model the problem and to develop and implement appropriate and efficient techniques for solving it.The optimization of the long-term generation planning is important for budgeting and planning fuel acquisitions, and to give a frame where to fit short-term generation planning.Our proposal for planning long-term generation is to optimize the expected generation of each unit (or the merger of several units of the same type) in the power pool over each interval into which the long-term horizon is split.The basic model for long-term generation planning (LTGP) maximizes the profit for all the units participating in the pool. The most important constraint is matching demand, since the market always clears. The Bloom and Gallant formulation is used, which models the load with a load-duration curve for each interval and requires an exponential number of linear inequality constraints, called herein LMCs. Other (linear) constraints included in the model are: minimum generation time, limits on the availability of fuel, maximum CO2 emission limits or the market share of the SGC. This thesis also proposes the way in which coordination between the LTGP model developed and a short-term plan should be considered and provides a model for short-term electrical power planning adapted to the LTGP proposed and which includes the long-term results.Another decision that needs to be taken from a long-term point of view is the joint scheduling of thermal unit maintenances with the generation planning of a particular SGC. The results of a prototype of a Branch and Bound implemented in AMPL are included in this thesis.Long-term planning needs to be considered before short-term planning and whenever the real situation deviates from the forecasted parameters, so the techniques implemented must be efficient so as to provide reliable solutions in a short time. Two methods for handling the LMCs are proposed and compared:● A decomposition technique exploits the fact that the LMCs plus the non-negativity bounds define a convex polyhedron for each interval whose vertices are easy to find. Thus, the problem is transformed and the variables become the coefficients of a convex combination of the vertices. The transformed problem is quadratic with linear constraints, making it suitable to be solved with the Murtagh & Saunders algorithm, which gives an optimal solution. A column-generation approach is used because the number of vertices of the polyhedron is comparable to the number of LMCs. The advantage of this method is that it does not require previous computation of all of the vertices, but rather computes them as the algorithm iterates.● The application of direct methods is computationally difficult because of the exponential number of inequality LMCs. However, only a reduced subset of LMCs will be active at the optimizer. A heuristic, named GP heuristic, has been devised which is able to find a reduced set of LMCs including those that are active at the optimizer. It solves a sequence of quadratic problems in which the set of LMCs considered is enlarged at each iteration. The quadratic problems are solved with an interior point method, and warm starts are employed to accelerate the solution of the successively enlarged quadratic problems. This procedure is more efficient than the column generation one.The modeling and tests of this thesis are based on the pure pool system and market data from the Spanish system up to July 2006.
|
Page generated in 2.9136 seconds