• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 3
  • Tagged with
  • 10
  • 10
  • 6
  • 3
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

On partially saturated formations of finite groups.

Calvo López, Clara 03 October 2007 (has links)
This thesis deals with finite groups. More precisely, it studies formations,which are classes of groups closed under taking homomorphic images andsubdirect products. The concept of X-local formation, where X is a classof simple groups, generalises the concepts of local formation and Baer-localformation. It was introduced by F¨orster with the aim of generalising thewell-known theorems of Gasch¨utz-Lubeseder-Schmid and Baer. The first onestates that a formation is saturated if and only if it is local. The second onecharacterises Baer-local formations as the solubly saturated ones. F¨orsterintroduced a Frattini-like subgroup associated with the class X and whichallowed him to introduce the concept of X-saturation. In the first chapterof the thesis a new Frattini-like subgroup is defined. This subgroup allowsus to give a more natural generalisation of the above-mentioned theorems.Moreover, X-local formations are characterised as the classes of groups withgeneralised central chief factors. In the second chapter the relation betweenthis family of formations and the one of !-saturated formations, where ! isa set of primes, is studied. The third chapter is devoted to analyse someproblems on the product of two formations. A classical result states that theproduct of two saturated formations is a saturated formation. This resultis not true in general for solubly saturated formations. We give conditionson two X-saturated formations to ensure that the product is an X-saturatedformation. As a corollary we obtain a result for products of Baer-localformations. The starting point of chapter four is a question posed by Skibain the Kourovka Notebook dealing Baer-local formations generated by agroup. We study a more general question by using the concept of X-localformation. Moreover, we give a complete description of the factorisations ofan X-local formation generated by a group. / La tesis se enmarca dentro de la teor´ýa de grupos finitos. M´as concretamente,se centra en el estudio de las formaciones de grupos, que son lasclases de grupos cerradas para cocientes y para productos subdirectos. Elconcepto de formaci´on X-local, donde X es una clase de grupos simples,generaliza los conceptos de formaci´on local y formaci´on de Baer. Fue introducidopor F¨orster con la idea de generalizar los conocidos teoremas deGasch¨utz-Lubeseder-Schmid y de Baer. El primero de ellos afirma que unaformaci´on es saturada si, y s´olo si, es local. El segundo caracteriza las formacionesBaer-locales como las resolublemente saturadas. Para ello F¨orsterintrodujo un subgrupo de tipo Frattini asociado a la clase X del cual surgeel concepto de X-saturaci´on. En el primer cap´ýtulo de la tesis se define unnuevo subgrupo mediante el que se consigue una generalizaci´on m´as satisfactoriade los teoremas mencionados. Tambi´en se caracterizan las formacionesX-locales como las clases de grupos con factores principales generalizados.En el segundo cap´ýtulo se estudia la relaci´on entre esta familia de formacionesy la de las formaciones w-saturadas, donde w es un conjunto de n´umerosprimos. En la tesis tambi´en se abordan problemas relativos al producto dedos formaciones. Un resultado cl´asico de teor´ýa de clases de grupos afirmaque el producto de dos formaciones saturadas es una formaci´on saturada.Este resultado no es cierto en general para formaciones resolublemente saturadas.En el cap´ýtulo tercero se presentan condiciones necesarias y suficientespara que el producto de dos formaciones X-saturadas sea una formaci´on Xsaturada.Como consecuencia, cuando X es la clase de los grupos simplesabelianos, obtenemos un resultado para productos de formaciones resolublementesaturadas. El punto de partida del cap´ýtulo cuarto es una preguntade Skiba que aparece en la edici´on de 1992 del Kourovka Notebook sobreformaciones Baer-locales generadas por un grupo. Nosotros abordamos unacuesti´on m´as general usando formaciones X-locales. Adem´as, damos una descripci´on completa de las factorizaciones de una formaci´on X-local generadapor un grupo.
2

Álgebras de funciones analíticas acotadas. Interpolación

Miralles Montolío, Alejandro 26 June 2008 (has links)
Este trabajo resume, de forma parcial, la investigaci¶on realizada durantemi periodo predoctoral. Esta investigaci¶on pertenece, de forma general,a la teor¶³a de ¶algebras de Banach conmutativas y ¶algebras uniformes y,en particular, se desarrolla principalmente en el ¶ambito de las ¶algebras defunciones anal¶³ticas acotadas en dominios de espacios de Banach ¯nito ein¯nito dimensionales.Las l¶³neas centrales de este trabajo son las siguientes:² Sucesiones de Interpolaci¶on para ¶Algebras Uniformes² Operadores de Composici¶on² Propiedades Topol¶ogicas de ¶Algebras de Funciones Anal¶³ticasLa investigaci¶on realizada sobre sucesiones de interpolaci¶on para ¶algebrasuniformes se puede dividir en dos partes: una gen¶erica en la que se propor-cionan algunos resultados de car¶acter general sobre sucesiones de interpo-laci¶on para ¶algebras uniformes, y una parte m¶as espec¶³¯ca, en que se tratansucesiones de interpolaci¶on para algunas ¶algebras de funciones anal¶³ticasacotadas. Estos puntos se tratan en los Cap¶³tulos 2 y 3. El estudio de oper-adores de composici¶on, principalmente sobre H1(BE), centra el contenidodel Cap¶³tulo 4. En este cap¶³tulo estudiaremos una descripci¶on del espectrode estos operadores y los llamados operadores de composici¶on de Radon-Nikod¶ym. Para ello, se har¶a uso de algunos resultados de interpolaci¶on delcap¶³tulo anterior. Con respecto a la tercera l¶³nea que hemos citado, estu-diaremos los llamados operadores de tipo Hankel en el cap¶³tulo 5. ¶Estosnos permitir¶an tratar el concepto de ¶algebra tight y las ¶algebras de Bour-gain de un subespacio de C(K), que est¶an estrechamente relacionadas conla propiedad de Dunford-Pettis. / The lines studied in this thesis are the following:² Interpolating Sequences for Uniform Algebras² Composition Operators² Topological Properties in Algebras of Analytic FunctionsAfter the preliminaries, the second chapter is devoted to the study ofinterpolating sequences on uniform algebras A. We ¯rst deal with the con-nection between interpolating sequences and linear interpolating sequences.Next, we deal with dual uniform algebras A = X¤. In this context, weprove ¯rst that c0¡linear interpolating sequences are linear interpolatingand then, we show that c0¡interpolating sequences are, indeed, c0¡linearinterpolating, obtaining that c0¡interpolating sequences (xn) ½ MA Xbecome linear interpolating. Finally, we provide a di®erent approach toprove that c0¡interpolating sequences are not c0¡linear interpolating viacomposition operators.We continue with the study of interpolating sequences for the algebrasof analytic functions H1(BE) and A1(BE) in the third chapter. The studyof interpolating sequences for H1 arises from the results of L. Carleson, W.K. Hayman and D. J. Newman. When we deal with general Banach spaces,we prove that the Hayman-Newman condition for the sequence of norms issu±cient for a sequence (xn) ½ BE¤¤ to be interpolating for H1(BE) if Eis any ¯nite or in¯nite dimensional Banach space. This is a consequence ofa stronger result :The Carleson condition for the sequence (kxnk) ½ D is su±cient for(xn) to be interpolating for H1(BE).Actually, the result holds for sequences in BE¤¤ thanks to the Davie-Gamelin extension.When we deal with A = A1(BE), the existence of interpolating se-quences for A was proved by J. Globevnik for a wide class of in¯nite-dimensional Banach spaces. We complete this study by proving the ex-istence of interpolating sequences for A1(BE) for any in¯nite-dimensionalBanach space E, characterizing the separability of A1(BE) in terms of the¯nite dimension of E.Finally, we study the metrizability of bounded subsets of MA when wedeal with A = Au(BE).In chapter 4 we deal with composition operators on H1(BE). First westudy the spectra of these operators. L. Zheng described the spectrumof some composition operators on H1. Her results where extended toH1(BE), E any complex Banach space, by P. Galindo, T. Gamelin andM. LindstrÄom for the power compact case. In this work, the authors alsodeal with the non power compact case for Hilbert spaces. Inspired by themand using some interpolating results, we provide a general theorem whichdescribes the spectrum of H1(BE) for general Banach spaces. In partic-ular, we prove that conditions on this theorem are satis¯ed by the n¡foldproduct space Cn, completing the description of ¾(CÁ) in this case, whichwas an open question.Next, we study the class of Radon-Nikod¶ym composition operators fromH1(BE) to H1(BF ). We characterize these operators in terms of the As-plund property.Chapter 5 deals with properties related to Hankel-type operators. Theconcept of tight algebra is related to these operators and was introducedby B. Cole and T. Gamelin. They proved that A(Dn) is not tight on itsspectrum for n ¸ 2. We present a new approach to this result extendingit to algebras Au(BE) for Banach spaces E = C £ F endowed with thesupremum norm.In addition, we show that H1(BE) is never tight on its spectrum re-gardless the Banach space E.Hankel-type operators are also closely related to the Dunford-Pettis prop-erty through the so-called Bourgain algebras introduced by J. A. Cima andR. M. Timoney. We prove that the Bourgain algebras of A(Dn) as a sub-space of C( ¹D n) are themselves.
3

Análisis de los problemas ternarios de probabilidad condicional de enunciado verbal y de sus procesos de resolución.

Lonjedo Vicent, Mª Ángeles 05 November 2007 (has links)
En este trabajo se presenta una investigación, en el mundo de la resolución deproblemas, de los problemas escolares de probabilidad que en ella se definen comoproblemas ternarios de probabilidad condicional.Las preguntas que inicialmente se plantean y se quieren resolver con lainvestigación, tienen que ver con los problemas: ¿cómo son los problemas ternariosde probabilidad condicional de enunciado verbal (PTPCEV) en cuanto a la estructurade cantidades y relaciones entre éstas?; ¿cómo pueden ser clasificados?; y con laenseñanza: ¿puede adelantarse su enseñanza a la secundaria obligatoria? En casoafirmativo, ¿qué tipología de problemas de probabilidad condicional pueden serresueltos en las secuencias didácticas?, ¿qué características deberán tener estosproblemas?Estas preguntas responden a tres objetivos generales de este trabajo:1. Estudiar los problemas ternarios de probabilidad condicional de enunciadoverbal2. Estudiar la resolución de una clase de estos problemas3. Proponer un proceso de enseñanza de los problemas de probabilidadcondicionalEn la investigación desarrollada se estudian los problemas ternarios de probabilidadcondicional de enunciado verbal teniendo en cuenta dos de los mundos posibles enlos que estos estudios pueden realizarse: el mundo de las matemáticas, es decir laestructura formal de los PTPCEV, y el mundo de las matemáticas escolares, en el quela información nos la proporciona los currículos oficiales y los libros de texto.Un resultado del estudio inicial sobre los problemas ternarios de probabilidadcondicional de enunciado verbal permite mostrar una clasificación de éstosatendiendo a tres características definidas para ellos: Niveles, Categorías y Tipos.Esta clasificación tiene en cuenta los datos y la pregunta del problema. Atendiendo aestas tres características los problemas se han clasificado en tres niveles y dentro decada nivel en tres categorías y tres tipos.El producto de la clasificación en Niveles, Categorías y Tipos, permite como se haceen esta, seleccionar una determinada tipología de problemas con el fin de poderabordar el estudio de los modos de resolver por los estudiantes. También se dacuenta del uso que pueden darse a esos componentes de clasificación para elanálisis de textos escolares, tanto si se piensa en la investigación sobre la resoluciónde esos problemas como para la su enseñanza.En el proceso de resolución de los problemas de probabilidad condicional, existendiferentes factores que influyen en las conductas de los estudiantes a la hora deestablecer una correcta correlación entre los datos y los sucesos. En estainvestigación nos ocupamos de identificar esos factores y determinar qué influenciatienen en el proceso de resolución del problema, desarrollando para ello un sistemade análisis de las respuestas de los estudiantes.Se analiza la resolución de problemas ternarios escolares de probabilidad condicionalde enunciado verbal por estudiantes de Secundaria Obligatoria, Bachillerato yFacultad de Matemáticas. En este análisis se describen procesos de resolución,modos de resolución y estrategias de resolución de los problemas, identificandodificultades y describiendo y clasificando errores.Finalmente, fruto de este análisis mostramos la influencia, tanto en el éxito como enel proceso de resolución de estos problemas, de los factores que hemos identificado.Estos factores tienen que ver con la naturaleza de las cantidades presentes en elenunciado del problema, con la expresión gramatical con la que se expresa lacondicionalidad en el texto del problema, con la utilización de términos que producenambigüedad sobre la probabilidad condicional en el texto del problema y con elorden en la expresión de los datos en el texto del problema. / This word introduces a research, within the world of problem solving, onproblems of probability in school education, defined as ternary problems ofconditional probability.The three general goals of this work are:1- To study word ternary problems of conditional probability.2- To study students' resolutions of one type of these problems.3- To propose a learning process of the conditional probability via problemsolving.In the developed research, we study the word ternary problems of conditionalprobability taking into account both of the possible worlds in which thesestudies could be carried out: maths Mathematics world, that is to say the formalstructure of the PTPCEV, and the school world, where information is providedby official curricula and textbooks.A result of the initial study on the word ternary problems of conditionalprobability shows their classification regarding three of their features: Levels,Categories and Types. This classification takes into account the data and thequestion of the problem.This classification allows selecting a specific typology of problems for thestudents to be capable of solving them. At the same time, it shows the use ofthese classifying components for the analysis of textbooks, both for researchingmatters as well as for educational purpose.During the process of solving problems of conditional probability, there areseveral issues that influence the way students correlate properly the data andthe events. In this research, we want to identify these factors and state whatinfluence they have in the process of solving a problem, developing for that ananalysis system for the students' answers.It is studied the resolution of word ternary problems of conditional probabilityby students of different school levels. In this research we describe solvingmethods, ways and strategies of solving those problems, identifying obstaclesand describing and classifying mistakes.Finally, as a result of this analysis we show the influence, both in the success aswell as in the process of resolution of these problems, of these factors that wehave identified. These factors are related to the nature of the quantities presentin the text of problem, to the grammar expression with which it is stated thecondition, to the use of terms that make us students confused about theconditional probability in the problem text and to the order in which the data isexpressed.
4

Study of homogeneous DÀtri spaces, of the Jacobi operator on g.o. spaces and the locally homogeneous connections on 2-dimensional manifolds with the help of Mathematica.

Arias Marco, Teresa 04 June 2007 (has links)
Nowadays, the concept of homogeneity is one of the fundamental notions in geometry although its meaning must be always specified for the concrete situations. In this thesis, we consider the homogeneity of Riemannian manifolds and the homogeneity of manifolds equipped with affine connections. The first kind of homogeneity means that, for every smooth Riemannian manifold (M, g), its group of isometries I(M) is acting transitively on M. Part I of this thesis fits into this philosophy. Afterwards in Part II, we treat the homogeneity concept of affine connections. This homogeneity means that, for every two points of a manifold, there is an affine diffeomorphism which sends one point into another. In particular, we consider a local version of the homogeneity, that is, we accept that the affine diffeomorphisms are given only locally, i.e., from a neighborhood onto a neighborhood. More specifically, we devote the first Chapter of Part I to make a brief overview of some special kinds of homogeneous Riemannian manifolds which will be of special relevance in Part I and to show how the software MATHEMATICA© becomes useful. For that, we prove that "the three-parameter families of flag manifolds constructed by N. R. Wallach in "Compact homogeneous Riemannian manifols with strictly positive curvature, Ann. of Math. 96 (1972), p. 276-293" are D'Atri spaces if and only if they are naturally reductive spaces. Thus, we improve the previous results given by D'Atri, Nickerson and by Arias-Marco, Naveira.Moreover, in Chapter 2 we obtain the complete 4-dimensional classification of homogeneous spaces of type A. This allows us to prove correctly that every 4-dimensional homogeneous D'Atri space is naturally reductive. Therefore, we correct, complete and improve the results presented by Podestà, Spiro, Bueken and Vanhecke. Chapter 3 is devoted to prove that the curvature operator has constant osculating rank over g.o. spaces. It is mean that a real number 'r' exists such that under some assumptions, the higher order derivatives of the curvature operator from 1 to r are linear independent and from 1 to r + 1 are linear dependent. As a consequence, we also present a method valid on every g.o. space to solve the Jacobi equation. This method extends the method given by Naveira and Tarrío for naturally reductive spaces. In particular, we prove that the Jacobi operator on Kaplan's example (the first known g.o. space that it is not naturally reductive) has constant osculating rank 4. Moreover, we solve the Jacobi equation along a geodesic on Kaplan's example using the new method and the well-known method used by Chavel, Ziller and Berndt,Tricerri, Vanhecke. Therefore, we are able to present the main differences between both methods.In Part II, we classify (locally) all locally homogeneous affine connections with arbitrary torsion on two-dimensional manifolds. Therefore, we generalize the result given by Opozda for torsion-less case. Moreover, from our computations we obtain interesting consequences as the relation between the classifications given for the torsion less-case by Kowalski, Opozda and Vlá ek. In addition, we obtain interesting consequences about flat connections with torsion.In general, the study of these problems sometimes requires a big number of straightforward symbolic computations. In such cases, it is a quite difficult task and a lot of time consuming, try to make correctly this kind of computations by hand. Thus, we try to organize our computations in (possibly) most systematic way so that the whole procedure is not excessively long. Also, because these topics are an ideal subject for a computer-aided research, we are using the software MATHEMATICA©, throughout this work. But we put stress on the full transparency of this procedure. / En esta tesis, se consideran dos tipos bien diferenciados de homogeneidad: la de las variedades riemannianas y la de las variedades afines. El primer tipo de homogeneidad se define como aquel que tiene la propiedad de que el grupo de isometrías actúa transitivamente sobre la variedad. La Parte I, recoge todos los resultados que hemos obtenido en esta dirección. Sin embargo, en la Parte II se presentan los resultados obtenidos sobre conexiones afines homogéneas. Una conexión afín se dice homogénea si para cada par de puntos de la variedad existe un difeomorfismo afín que envía un punto en otro. En este caso, se considera una versión local de homogeneidad. Más específicamente, la Parte I de esta tesis está dedicada a probar que "las familias 3-paramétricas de variedades bandera construidas por Wallach son espacios de D'Atri si y sólo si son espacios naturalmente reductivos". Más aún, en el segundo Capítulo, se obtiene la clasificación completa de los espacios homogéneos de tipo A cuatro dimensionales que permite probar correctamente que todo espacio de D'Atri homogéneo de dimensión cuatro es naturalmente reductivo.Finalmente, en el tercer Capítulo se prueba que en cualquier g.o. espacio el operador curvatura tiene rango osculador constante y, como consecuencia, se presenta un método para resolver la ecuación de Jacobi sobre cualquier g.o. espacio. La Parte II se destina a clasificar (localmente) todas las conexiones afines localmente homogéneas con torsión arbitraria sobre variedades 2-dimensionales. Para finalizar el cuarto Capítulo, se prueban algunos resultados interesantes sobre conexiones llanas con torsión.En general, el estudio de estos problemas requiere a veces, un gran número de cálculos simbólicos aunque sencillos. En dichas ocasiones, realizarlos correctamente a mano es una tarea ardua que requiere mucho tiempo. Por ello, se intenta organizar todos estos cálculos de la manera más sistemática posible de forma que el procedimiento no resulte excesivamente largo. Este tipo de investigación es ideal para utilizar la ayuda del ordenador; así, cuando resulta conveniente, utilizamos la ayuda del software MATHEMATICA para desarrollar con total transparencia el método de resolución que más se adecua a cada uno de los problemas a resolver.
5

High Resolution Schemes for Conservation Laws With Source Terms.

Martínez i Gavara, Anna 24 October 2008 (has links)
This memoir is devoted to the study of the numerical treatment ofsource terms in hyperbolic conservation laws and systems. In particular,we study two types of situations that are particularly delicate fromthe point of view of their numerical approximation: The case of balancelaws, with the shallow water system as the main example, and the case ofhyperbolic equations with stiff source terms.In this work, we concentrate on the theoretical foundations of highresolutiontotal variation diminishing (TVD) schemes for homogeneousscalar conservation laws, firmly established. We analyze the propertiesof a second order, flux-limited version of the Lax-Wendroff scheme whichavoids oscillations around discontinuities, while preserving steady states.When applied to homogeneous conservation laws, TVD schemes preventan increase in the total variation of the numerical solution, hence guaranteeingthe absence of numerically generated oscillations. They are successfullyimplemented in the form of flux-limiters or slope limiters forscalar conservation laws and systems. Our technique is based on a fluxlimiting procedure applied only to those terms related to the physicalflow derivative/Jacobian. We also extend the technique developed by Chiavassaand Donat to hyperbolic conservation laws with source terms andapply the multilevel technique to the shallow water system.With respect to the numerical treatment of stiff source terms, we takethe simple model problem considered by LeVeque and Yee. We studythe properties of the numerical solution obtained with different numericaltechniques. We are able to identify the delay factor, which is responsiblefor the anomalous speed of propagation of the numerical solutionon coarse grids. The delay is due to the introduction of non equilibrium values through numerical dissipation, and can only be controlledby adequately reducing the spatial resolution of the simulation.Explicit schemes suffer from the same numerical pathology, even after reducingthe time step so that the stability requirements imposed by thefastest scales are satisfied. We study the behavior of Implicit-Explicit(IMEX) numerical techniques, as a tool to obtain high resolution simulationsthat incorporate the stiff source term in an implicit, systematic,manner.
6

Modelos de deconvolución ciega fraccionaria. Aplicaciones a la restauración de obras pictóricas.

Romero Sánchez, Pantaleón David 30 March 2009 (has links)
No description available.
7

Técnicas de interpolación weno y su aplicación al procesamiento de imágenes

Belda García, Ana María 01 March 2010 (has links)
Un problema común en la teoría de aproximación es la reconstrucción de una función a partir de un conjunto de valores discretos de datos que dan información sobre la función misma. Esta información por lo general viene dada como valores puntuales o medias en celda de la función sobre un conjunto finito de puntos o celdas, respectivamente. La función es aproximada por un interpolante, es decir, por otra función cuyos valores puntuales o medias en celda coinciden con los de la función original. Este interpolante puede ser construido por interpolación lineal. En este caso la exactitud de la aproximación cerca de una singularidad está limitada y depende del orden de la singularidad, de modo que si construimos el polinomio interpolador basándonos en un stencil que cruza la singularidad obtendremos una aproximación insatisfactoria. Esto significa que aumentar el grado del polinomio producirá regiones más grandes de mala aproximación alrededor de las singularidades. Para aumentar la exactitud la solución es escoger los puntos de forma que el stencil quede dentro de la parte suave de la función, siempre que esto sea posible. Esta es la idea que hay detrás de la técnica de interpolación ENO (Esencialmente No Oscilatoria), introducida por Harten et al., que es un procedimiento no lineal con el que la región de poca exactitud queda reducida al intervalo que contiene la singularidad, siempre y cuando las singularidades estén suficientemente bien separadas. Liu et al. introdujeron una mejora sobre la técnica ENO, llamada weighted ENO (ENO ponderado), que consiste en reconstruir un polinomio que interpola los valores puntuales de la solución de una ley de conservación hiperbólica a partir de las medias en celda de la solución débil. En la interpolación WENO se asignan a cada celda todos los stencils que la contienen, y el polinomio interpolador se calcula como combinación lineal convexa de todos los polinomios correspondientes a estos stencils. La clave es asignar los pesos más convenientes a la combinación. Estos pesos deben ser elegidos de forma que en la combinación los polinomios interpoladores en los stencils que cruzan una singularidad tengan una contribución casi nula. En las regiones suaves se utiliza la información proporcionada por todas las celdas contenidas en los stencils del proceso de selección ENO, y el resultado es un mayor orden de exactitud. En este trabajo se ha integrado la técnica WENO en el entorno de multirresolución de Harten, y se ha adaptado a los contextos de medias en celda y valores puntuales. En ambos casos se proponen nuevas medidas para la suavidad de una función. Además, en el contexto de valores puntuales se propone una modificación en la definición de los pesos WENO, que mejora el orden de la aproximación en presencia de singularidades. En la definición de los pesos WENO se introduce un ε positivo para evitar que el denominador se anule y se suele tomar ε constante. En esta tesis se propone tomar ε=h2, lo que permite demostrar que si la función es suave en al menos r+1 puntos y tiene una discontinuidad dentro del stencil de 2r puntos, entonces obtenemos al menos una aproximación de orden r+1, es decir, como mínimo obtenemos el mismo orden que el interpolante ENO, y en las zonas suaves de la función el orden de la aproximación es óptimo incluso en presencia de puntos críticos en los que se anulen las dos primeras derivadas. Las técnicas de interpolación WENO se comparan, mediante diferentes experimentos numéricos, con las técnicas de interpolación lineal, ENO y ENO-SR, para poder concluir qué método proporciona la mayor exactitud en cada caso. / A common problem in approximation theory is to reconstruct a function from a discrete set of data which gives information on the function itself. This information will usually come in the form of point-values or cell-averages of the function, which is then approximated by an interpolant, that is, another function whose values at a given set of points or cell-averages are equal to those of the original one. This interpolant can be built through linear interpolation, but in this case the accuracy of the approximation in the presence of a singularity is limited by the order of the singularity, so that any stencil crossing it will result in a poor approximation. In order to improve the accuracy of the approximation we need to choose stencils that avoid crossing singularities, whenever this is possible. That is the idea behind the ENO (essentially non-oscillatory) technique, introduced by Harten et al. WENO (weighted ENO) was introduced by Liu et al. as an improvement upon ENO. The idea is to assign to each subinterval all the stencils containing it, and construct the interpolating polynomial as a linear convex combination of the corresponding polynomials. In this way we use all the information provided by the nodes contained in the candidate stencils in the ENO selection process, and this should give a higher order of accuracy in smooth regions of the function. The key point is the assignment of weights to the convex combination. In this work we have incorporated WENO to Harten's multiresolution framework, and adapted it to the context of cell-averages and point-values. Moreover, for point-values we propose a modification in the definition of the weights, producing a higher order of accuracy in the presence of singularities. We also compare the WENO technique with other interpolation techniques through numerical experimentation.
8

La enseñanza de la resolución algebraica de problemas en el entorno de la hoja de cálculo

Arnau Vera, David 23 June 2010 (has links)
Nuestra investigación pretendía dar respuesta a: 1) ¿Cuáles son las actuaciones de los estudiantes cuando resuelven problemas en la hoja de cálculo después de haber sido instruidos en la resolución algebraica de problemas en dicho entorno? 2) ¿Cómo influye la enseñanza de la resolución algebraica de problemas en la hoja de cálculo en la competencia de los estudiantes cuando resuelven problemas verbales con lápiz y papel y, en especial, mediante el método cartesiano? Sobre el armazón de los Modelos Teóricos Locales construimos un marco teórico y metodológico que tenía por intención: A) Describir las características de la hoja de cálculo prestando especial atención a la sintaxis y la semántica de su lenguaje para poder compararlo con el lenguaje del álgebra. B) Determinar qué se considera una resolución algebraica competente en la hoja de cálculo (en adelante, MHC) y establecer similitudes y diferencias con la resolución mediante el método cartesiano (en adelante, MC). C) Diseñar una secuencia de enseñanza sobre la resolución algebraica de problemas verbales en la hoja de cálculo. D) Establecer un método que nos permitiera determinar lo próxima que una resolución se hallaba de la que realizaría un sujeto competente. La población de nuestro estudio experimental estaba formada por un grupo natural de 24 estudiantes de segundo curso de ESO. Para dar respuesta a la primera pregunta de investigación, analizamos la actuación de cinco parejas de estudiantes resolviendo seis problemas típicamente algebraicos tras haber sido instruidos en la resolución de problemas mediante el MHC. Las actuaciones observadas se puede pueden agrupar en: la tendencia a evitar el uso del MHC y en las dificultades y errores a la hora de usarlo. Dentro de la tendencia a evitar el uso del MHC podemos distinguir: 1) El uso de cantidades variables en lugar de cantidades determinadas que se manifiesta en el uso de lo que hemos llamado líneas de vida (donde se sustituye la operación con la cantidad desconocida tiempo transcurrido por el cálculo de la edad el año siguiente de manera recursiva) cuando se resuelven los problemas de edades y en la modelización de un posible proceso que une la situación descrita en el enunciado con otra situación hipotética en la que todas las cantidades son conocidas o se pueden calcular a partir de éstas. 2) El recurso a la aritmética. 3) El recurso al MC de manera verbal. Entre el catálogo de dificultades y errores al usar el MHC destacamos: la dificultad para operar con lo desconocido; la dificultad para invertir las relaciones obtenidas tras la lectura analítica; la falta de atención a las restricciones del problema para centrarse en la verificación de la ecuación; la tendencia a seguir calculando hasta "cerrar los cálculos" y la necesidad de que la igualdad se construya sobre dos expresiones de una cantidad conocida. Para dar respuesta a la segunda pregunta de investigación, comparamos las actuaciones de los estudiantes al resolver dos cuestionarios formados por ocho problemas isomorfos típicamente algebraicos: uno administrado previamente a la instrucción y el otro, al acabarla. El análisis de los resultados nos lleva a concluir que tras la enseñanza del MHC se incrementa el número de lecturas algebraicas, pero disminuye el uso del lenguaje del álgebra, produciéndose un aumento significativo del uso de valores provisionales para las cantidades desconocidas. También se observa que disminuye significativamente la competencia de los estudiantes al afrontar de manera algebraica problemas de la subfamilia edades, pero que aumenta en el resto de problemas; lo que parece plausible atribuir a las estrategias espontáneas, correctas o incorrectas, que usan los estudiantes en la hoja de cálculo cuando resuelven los problemas de edades. / Our research aimed to give an answer to: 1) Which are the student performances when trying to solve word problems on the spreadsheet after having been instructed in an algebraic problem solving method we call Spreadsheet Method (SM)? 2) How teaching SM has influence on student competence when they solve problems on paper and pencil, and, especially when they use the Cartesian Method (CM)? Our experimental study population consisted of a natural group of twenty-four secondary students (13-14 years old). The observed performances when trying to solve a problem on the spreadsheet are classified either according to the tendency to avoid using the SM or according to the difficulties and mistakes when using it. Regarding the tendency to avoid using the SM we can distinguish: 1) Using variable quantities instead of determined quantities. 2) Resorting to an arithmetical solving procedure. 3) Resorting to CM in a verbal way. Regarding the difficulties and mistakes we can distinguish: difficulties dealing with the unknown; difficulties reversing the connections obtained after an analytical reading; lack of attention to the problem restrictions in order to focus on the equation verification; the tendency to go on calculating until “closing the calculation”, and the need to build the equation using two expressions of a known quantity. Analysis findings lead us to conclude that after teaching SM, when students solve word problems using paper and pencil, the number of algebraic readings increases, but the use of algebraic language decreases, and a significant rise in the use of provisional values for the unknown quantities occurs. It is also worthwhile to notice that the student competence to face age problems in an algebraic way decreases significantly, but this algebraic competence increases when dealing with problems from other problem types.
9

Correspondencias de carácteres de grupos finitos

Centella Barrio, Pablo 07 September 2010 (has links)
Uno de los problemas fundamentales de la Teoría de Caracteres es la Conjetura de McKay. La Conjetura de McKay afirma que si G un grupo finito, p un primo, y P un p-subgrupo de Sylow de G, entonces existe una biyección entre el conjunto $Irr_{p'}(G)$ de los caracteres complejos irreducibles de G de grado no divisible por p y el conjunto $Irr_{p'}(N)$, donde N es el normalizador de P en G. En general, no se conocen correspondencias canónicas entre estos dos conjuntos, incluso cuando G es resoluble. Sin embargo, bajo ciertas condiciones, sí se han encontrado correspondencias canónicas. En concreto, se han encontrado correspondencias canónicas entre estos dos conjuntos bajo las siguientes hipótesis: (1) G es resoluble y |G:N| es impar (M. Isaacs, 1973). (2) G es p-resoluble y N=P (G. Navarro, 2003). (3) G es resoluble y |N| es impar (A. Turull, 2008). Nuestros dos principales teoremas de la tesis son extender los casos (2) y (3) bajo hipótesis más generales; en concreto, cuando G es p-resoluble (sin exigir que N sea igual a P), y cuando G resoluble (sin exigir ninguna condición adicional sobre |G:N| o |N|). Sea $\Phi_{1_{G^0}}$ el carácter proyectivo indescomponible principal de G (respecto del primo p). Denotamos por $Irr_{p'}(\Phi_{1_{G^0}})$ al conjunto de constituyentes irreducibles del carácter proyectivo indescomponible principal de G de grado no divisible por p. Demostramos que el siguiente teorema es cierto. TEOREMA A Sea G un grupo finito p-resoluble, P un p-subgrupo de Sylow de G, y N el normalizador de P en G. Entonces, existe una biyección canónica $\Gamma$ de $Irr_{p'}(\Phi_{1_{G^0}})$ a $Irr_{p'}(\Phi_{1_{N^0}})$, tal que si $\chi$ es un carácter en $Irr_{p'}(\Phi_{1_{G^0}})$, entonces $\Gamma(\chi)$ es el único constituyente irreducible de la restricción de $\chi$ a N que tiene grado no divisible por p Esta nueva biyección $\Gamma$ coincide exactamente con la biyección de Navarro cuando N=P, y cumple una serie de propiedades. Consideramos ahora el conjunto $IBr_{2'}(G)$ de caracteres de p-Brauer irreducibles de G de grado impar. Demostramos el siguiente resultado: TEOREMA D Sea G un grupo finito resoluble, P un p-subgrupo de Sylow de G, y N el normalizador de P en G. Entonces existe una biyección canónica entre $IBr_{2'}(G)$ y $IBr_{2'}(N)$. Esta biyección también cumple una serie de propiedades (que no enunciaremos aquí). / One of the fundamental problems in Character Theory is the McKay Conjecture. The McKay Conjecture asserts that if G is a finite group, p is a prime and P is a Sylow p-subgroup of G, then there exists a bijection between the set $Irr_{p'}(G)$ of the irreducible complex characters of G of degree not divisible by p and the set $Irr_{p'}(N)$, where N is the normalizer of P in G. In general, no canonical correspondences between these two sets are known, even when G is solvable. However, under certain conditions, canonical correspondences have been found. Specifically, canonical correspondences between these two sets have been found under the following hypotheses: (1) G is solvable and |G:N| is odd (M. Isaacs, 1973). (2) G is p-solvable and N=P (G. Navarro, 2003). (3) G is solvable and |N| is odd (A. Turull, 2008). The two main theorems of this thesis manage to extend the cases (2) and (3) under more general hypotheses; specifically, when G is p-solvable (without requiring N to be equal to P), and when G is solvable (with no additional hypotheses on |G:N| or |N|).
10

Learning multiresolution: Transformaciones Multiescala derivadas de la teoría estadística de aprendizaje y aplicaciones

Yáñez Avendaño, Dionisio F. 15 December 2010 (has links)
Signal and image processing has become an essential and ubiquitous part of contemporary scienti¯c and technological activity, and the signals and images that need to be processed appear in most sectors of modern life. Signal processing is used in telecommunications, in the transmission of satellite images, and in medical imaging like echography, tomography, and nuclear magnetic resonance. Also it used in applications in Physics, Mechanics and other important issues that nowadays we know and that we will know in the future. Multiscale representations of signals into wavelets bases have been suc- cessfully used in applications such as compression and denoising. In these applications, one essentially takes advantage of the sparsity of the repre- sentation of the image. Harten designed a general multiscale framework only based in interpola- tion techniques. What is the Harten's idea? Firstly, he considered that given a set of discrete values in a resolution level k, fk, these values are the dis- cretization of a continuous functions depending on their 'nature'. Therefore he de¯ned the discretization operator Dk. In order to re¯ne the resolution of a set of discrete data Harten de¯ned the reconstruction operator, Rk to make up the original continuos function and with these two functions he de¯ned two operators that connect consecutive resolution levels: Dk¡1 k = Dk¡1Rk; Pk k¡1 = DkRk¡1: In this thesis we propose new reconstruction operators Rk. In the ¯rst part of the thesis we present a non linear Hermite interpolant which preserves the monotonicity. We use non-linear methods like ENO [B. Engquist et al., J. Comput. Phys., 71 (1987), pp. 231{303] and WENO [F. Arµandiga, A. Belda, P. Mulet, Jour. Scien. Comp., 43 (2010), pp. 158{182] to aproximate the derivarives. In multiresolution of Harten we have the \consistence condition": if we decimate Pk k¡1fk¡1 we have to obtain the original data fk¡1, i. e. Dk¡1 k Pk k¡1fk¡1 = fk¡1: Since most of the prediction operators that we obtain in this thesis do not satisfy this property we present a new strategy (AY) which will let us to use non-consistent prediction operators in a way that conserves its properties. We use approximation based on kernel methods [C. Loader, Springer, (1999)] to design new recontruction oparators. These consist on approximating a value, f(xk° ) by ^z(xk° ) where: ^z(x) = argm¶³n z(x)2K Xn j=1 K¸(xk° ; xk¡1 j )L(fk¡1 j ; z(xk¡1 j )): K is a class of functions where we minimize the functional; ¸ is the bandwidth, we only consider the values contained in the interval [xk° ¡ ¸; xk° + ¸]; K¸(xk° ; xk¡1 j ) is the kernel which assigns a weight to the each value in the level k ¡ 1; and L(x; y) is a loss function which measures the distance between the approximation and the real values, fk¡1. This method generalizes the interpolation methods introducing some ad- vantages. In an approximation problem using kernel methods there are some variables. We study the possibilities and the advantages and disad- vantages depending on these variables. Finally, we observe that in multiresolution context we know the original signal. Therefore, why don't we use this information to obtain a prediction operator? We answer this question using Statistical Learning Theory (see e.g. [T. Hastie, R. Tibshirani, J. Friedman, Springer, (2001)]) as follow: Given the values in the level k ffk j gj2Mk we solve ^ Pk k¡1 = argm¶³n g2K X j2Mk L(fk j ; g(Sr;s((Dk¡1 k fk)j))); where K is a class of functions and Sr;s((Dk¡1 k fk)j) are the function values in the level k ¡ 1 chosen to approximate each value in the level k. We adapt the classical de¯nitions of the Harten multiresolution to this new type of multiresolution and we design a prediction operator adapted to the edges of the image obtaining high compression rate. We analyze the theoretical properties for the two new methods, we com- pare them with traditional methods and we show their results. / El tratamiento de se~nales digitales se ha convertido en los ¶ultimos a~nos en una de las tareas m¶as interesantes y de mayor recorrido para la investigaci¶on matem¶atica. Hay aplicaciones directas en el campo de la Inform¶atica, redes de comunicaci¶on, tratamientos m¶edicos, tratamientos de recuperaci¶on de obras de arte, de fotograf¶³as. Aplicaciones en F¶³sica, Mec¶anica, desarrollos en pel¶³culas animadas y otras muchas que se conocen y que se conocer¶an a lo largo del tiempo. El tratamiento de se~nales podemos decir que comienza en la ¶epoca de Fourier (1807), su aplicaci¶on en funciones 2¼-peri¶odicas y su transformada para se~nales discretas es utilizada a¶un hoy con ¶exito para la compresi¶on y eliminaci¶on de ruido. Sin embargo la transformada de Fourier est¶a deslo- calizada en tiempo frecuencia (tan s¶olo nos ofrece la frecuencia) lo que provoc¶o en los a~nos 80 el desarrollo de las primeras bases wavelets. Estas bases tienen una localizaci¶on tiempo frecuencia y gracias a los ¯ltros que podemos obtener de ellas se pueden utilizar en el tratamiento de se~nales. Los esquemas de subdivisi¶on interpolatorios son reglas que nos permiten re¯nar un conjunto de datos interpolando los valores intermedios a los puntos dados utilizando combinaciones lineales de los valores vecinos. Estas dos ideas junto a la resoluci¶on de ecuaciones en derivadas parciales es lo que indujo a Harten a elaborar un marco general de multiresoluci¶on [A. Harten, J. Appl. Numer. Math., 12 (1993), pp. 153{192] que permite por medio de dos operadores fundamentales: decimaci¶on, Dk¡1 k y predicci¶on, Pk k¡1 establecer una conexi¶on entre dos niveles de resoluci¶on. La idea de Harten es sencilla pero a su vez est¶a cargada de grandes posibilidades pues generaliza las bases wavelets permitiendo la introducci¶on de elementos no lineales en sus operadores. >En qu¶e consiste la idea de Harten? En primer lugar, se dio cuenta de que si tenemos un conjunto de valores discretos en un determinado nivel de resoluci¶on k, fk, ¶estos poseen una naturaleza, es decir, proced¶³an de una cierta funci¶on continua f y hab¶³an sido discretizados dependiendo de la naturaleza de los datos, as¶³ pues gener¶o un operador discretizaci¶on Dk. Por otra parte si deseamos tener mayor resoluci¶on, es decir determinar m¶as puntos, necesitamos reconstruir primero esa se~nal continua que \perdimos" en la decimaci¶on por medio de un operador que llam¶o reconstrucci¶on, Rk y con estos operadores de¯ni¶o los ya mencionados, as¶³: Dk¡1 k = Dk¡1Rk; Pk k¡1 = DkRk¡1: Es en el operador Rk donde se introduce toda la teor¶³a interpolatoria (ver p. ej. [A. Harten, SIAM J. Numer. Anal., 71 (1996), pp. 231{303]) y donde podemos utilizar interpolaci¶on no lineal como los m¶etodos presenta- dos en el contexto de soluci¶on de ecuaciones diferenciales para capturar las discontinuidades, m¶etodos ENO (ver p. ej. [B. Engquist et al. J. Comput. Phys., 71 (1987), pp. 231{303]) y WENO (ver p. ej. [F. Arµandiga, A. Belda, P. Mulet, Jour. Scien. Comp., 43 (2010), pp. 158{182]). Harten impone una serie de condiciones a estos operadores, la primera de ellas es que el operador Dk¡1 k sea lineal y sobreyectivo, para ello pro- pone las distintas potencias de la funci¶on de Haar !0(x) = Â[0;1]. En la literatura sobre multiresoluci¶on podemos encontrar otros operadores de- cimaci¶on no splines. Nosotros no trabajaremos en este sentido, ¯jaremos varios operadores decimaci¶on y trabajaremos con ellos. La segunda es que estos operadores cumplan una condici¶on de consistencia: si tenemos una se~nal fk¡1 y mejoramos su resoluci¶on, es decir, predecimos estos datos Pk k¡1fk¡1 y despu¶es decimamos esta predicci¶on entonces recuperaremos los datos iniciales, i. e. Dk¡1 k Pk k¡1fk¡1 = fk¡1: Sin embargo en algunas aplicaciones (como compresi¶on de im¶agenes di- gitales) no necesitamos esta propiedad, en esta memoria se presenta una alternativa para trabajar con operadores no consistentes que ofrece buenos resultados y que conserva las propiedades. Por tanto omitimos esta segunda propiedad que Harten se~nal¶o en su marco general. En esta memoria introducimos otra alternativa al operador reconstrucci¶on. En lugar de utilizar elementos ¶unicamente interpolatorios usamos aproxi- maci¶on por medio de m¶etodos de n¶ucleo [C. Loader, Springer, (1999)]. Consisten en aproximar a un cierto valor dependiendo de la cercan¶³a (o lejan¶³a) de los valores de su entorno. Este m¶etodo generaliza los m¶etodos interpolatorios introduciendo posibles ventajas al poder utilizar gran can- tidad de puntos sin subir el grado del polinomio interpolador. Son muchas las variables que componen un problema de aproximaci¶on por m¶etodos de n¶ucleo. En esta memoria estudiamos algunas posibilidades y las ventajas y desventajas que suscitan. Nos planteamos la siguiente pregunta: conociendo la se~nal original, >por qu¶e no utilizar esta informaci¶on para generar un operador predictor m¶as adaptativo? Respondemos a ¶esta utilizando t¶ecnicas estad¶³sticas de apren- dizaje (ver p.ej. [T. Hastie, R. Tibshirani, J. Friedman, Springer, (2001)]) y generamos predictores que se adaptan a los contornos de la imagen y al nivel de resoluci¶on que tenemos. Este tipo de multiresoluci¶on nos induce a rede¯nir algunos conceptos que aparecen en el contexto de multiresoluci¶on y que debemos redise~nar para este tipo espec¶³¯co de multiresoluci¶on. Para ambas v¶³as, tanto para multiresoluci¶on utilizando m¶etodos de n¶ucleo como para multiresoluci¶on de aprendizaje analizamos las distintas propieda- des que tienen, las comparamos con los m¶etodos cl¶asicos y mostramos sus resultados. Esta memoria presenta de manera sencilla dos operadores predicci¶on de multiresoluci¶on distintos que abren las puertas a otro gran n¶umero de apli- caciones. Durante la realizaci¶on de estos m¶etodos han surgido diversos pro- blemas. El desarrollo de esta tesis es la soluci¶on a dichos problemas.

Page generated in 0.0849 seconds