• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 783
  • 623
  • 555
  • 15
  • 15
  • 3
  • Tagged with
  • 1979
  • 1805
  • 1800
  • 1768
  • 266
  • 255
  • 185
  • 181
  • 177
  • 175
  • 163
  • 152
  • 150
  • 141
  • 127
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Existencia, perturbación y anulación de soluciones periódicas en un sistema de ecuaciones diferenciales en el espacio

Rodríguez Contreras, Jorge 05 September 2003 (has links)
No description available.
62

Decomposition techniques for computational limit analysis

Rabiei, Nima 27 October 2014 (has links)
Limit analysis is relevant in many practical engineering areas such as the design of mechanical structure or the analysis of soil mechanics. The theory of limit analysis assumes a rigid, perfectly-plastic material to model the collapse of a solid that is subjected to a static load distribution. Within this context, the problem of limit analysis is to consider a continuum that is subjected to a fixed force distribution consisting of both volume and surfaces loads. Then the objective is to obtain the maximum multiple of this force distribution that causes the collapse of the body. This multiple is usually called collapse multiplier. This collapse multiplier can be obtained analytically by solving an infinite dimensional nonlinear optimisation problem. Thus the computation of the multiplier requires two steps, the first step is to discretise its corresponding analytical problem by the introduction of finite dimensional spaces and the second step is to solve a nonlinear optimisation problem, which represents the major difficulty and challenge in the numerical solution process. Solving this optimisation problem, which may become very large and computationally expensive in three dimensional problems, is the second important step. Recent techniques have allowed scientists to determine upper and lower bounds of the load factor under which the structure will collapse. Despite the attractiveness of these results, their application to practical examples is still hampered by the size of the resulting optimisation process. Thus a remedy to this is the use of decomposition methods and to parallelise the corresponding optimisation problem. The aim of this work is to present a decomposition technique which can reduce the memory requirements and computational cost of this type of problems. For this purpose, we exploit the important feature of the underlying optimisation problem: the objective function contains one scaler variable. The main contributes of the thesis are, rewriting the constraints of the problem as the intersection of appropriate sets, and proposing efficient algorithmic strategies to iteratively solve the decomposition algorithm. / El análisis en estados límite es una herramienta relente en muchas aplicaciones de la ingeniería como por ejemplo en el análisis de estructuras o en mecánica del suelo. La teoría de estados límite asume un material rígido con plasticidad perfecta para modelar la capacidad portante y los mecanismos de derrumbe de un sólido sometido a una distribución de cargas estáticas. En este contexto, el problema en estados límite considera el continuo sometido a una distribución de cargas, tanto volumétricas como de superficie, y tiene como objetivo hallar el máximo multiplicador de la carga que provoca el derrumbe del cuerpo. Este valor se conoce como el máximo factor de carga, y puede ser calculado resolviendo un problema de optimización no lineal de dimensión infinita. Desde el punto de vista computacional, se requieren pues dos pasos: la discretización del problema analítico mediante el uso de espacios de dimensión finita, y la resolución del problema de optimización resultante. Este último paso representa uno de los mayores retos en el proceso del cálculo del factor de carga. El problema de optimización mencionado puede ser de gran tamaño y con un alto coste computacional, sobretodo en el análisis límite tridimensional. Técnicas recientes han permitido a investigadores e ingenieros determinar cotas superiores e inferiores del factor de carga. A pesar del atractivo de estos resultados, su aplicación práctica en ejemplos realistas está todavía obstaculizada por el tamaño del problema de optimización resultante. Posibles remedios a este obstáculo son el diseño de técnicas de descomposición y la paralelizarían del problema de optimización. El objetivo de este trabajo es presentar una técnica de descomposición que pueda reducir los requerimientos y el coste computacional de este tipo de problemas. Con este propósito, se explotan una propiedad importante del problema de optimización: la función objetivo contiene una único escalar (el factor de carga). La contribución principal de la tesis es el replanteamiento del problema de optimización como la intersección de dos conjuntos, y la propuesta de un algoritmo eficiente para su resolución iterativa.
63

Medidas de diferencia y clasificación automática no paramétrica de datos composicionales

Martín Fernández, Josep Antoni 23 March 2001 (has links)
Es muy frecuente encontrar datos de tipo composicional en disciplinas tan dispares como son, entre otras, las ciencias de la tierra, la medicina, y la economía. También es frecuente en estos ámbitos el uso de técnicas de clasificación no paramétrica para la detección de agrupaciones naturales en los datos. Sin embargo, una búsqueda bibliográfica bastante exhaustiva y la presentación de resultados preliminares sobre el tema en congresos de ámbito internacional han permitido constatar la inexistencia de un cuerpo teórico y metodológico apropiado que permita desarrollar pautas y recomendaciones a seguir en el momento de realizar una clasificación no paramétrica de datos composicionales. Por estos motivos se ha elegido como tema de tesis la adaptación y desarrollo de métodos de agrupación adecuados a datos de naturaleza composicional, es decir, datos tales que el valor de cada una de sus componentes expresa una proporción respecto de un total. El título de la misma, "Medidas de diferencia y clasificación automática no paramétrica de datos composicionales", recoge no sólo este propósito, sino que añade la expresión "medidas de diferencia" con el propósito de reflejar el peso específico importante que tiene el estudio de este tipo de medida en el desarrollo del trabajo. La expresión "no paramétrica'' se refiere a que en la misma no se considerarán técnicas de clasificación que presuponen la existencia de un modelo de distribución de probabilidad para las observaciones objeto de la agrupación. La memoria de la tesis se inicia con un capítulo introductorio donde se presentan los elementos básicos de las técnicas de clasificación automática no paramétrica. Se pone especial énfasis en aquellos elementos susceptibles de ser adaptados para su aplicación en clasificaciones de datos composicionales. En el segundo capítulo se aborda el análisis de los conceptos más importantes en torno a los datos composicionales. En este capítulo, los esfuerzos se han concentrado principalmente en estudiar las medidas de diferencia entre datos composicionales junto con las medidas de tendencia central y de dispersión. Con ello se dispone de las herramientas necesarias para proceder al desarrollo de una metodología apropiada para la clasificación no paramétrica de datos composicionales, consistente en incorporar los elementos anteriores a las técnicas habituales y adaptarlas en la medida de lo necesario. El tercer capítulo se dedica exclusivamente a proponer nuevas medidas de diferencia entre datos composicionales basadas en las medidas de divergencia entre distribuciones de probabilidad. En el cuarto capítulo se incorporan las peculiaridades de los datos composicionales a las técnicas de clasificación y se exponen las pautas a seguir en el uso práctico de estas técnicas. El capítulo se completa con la aplicación de la metodología expuesta a un caso práctico. En el quinto capítulo de esta tesis se aborda el denominado problema de los ceros. Se analizan los inconvenientes de los métodos usuales de substitución y se propone una nueva fórmula de substitución de los ceros por redondeo. El capítulo finaliza con el estudio de un caso práctico. En el epílogo de esta memoria se presentan las conclusiones del trabajo de investigación y se indican la líneas futuras de trabajo. En los apéndices finales de esta memoria se recogen los conjuntos de datos utilizados en los casos prácticos que se han desarrollado en la presente tesis. Esta memoria se completa con la lista de las referencias bibliográficas más relevantes que se han consultado para llevar a cabo este trabajo de investigación. / On March 23, 2001 Josep Antoni Martín-Fernández from the Dept. of Computer Sciences and Applied Mathematics of the University of Girona (Catalonia-Spain), presented his PhD thesis, entitled "Measures of difference and non-parametric cluster analysis for compositional data" at the Technical University of Barcelona. A short resumee follows:Compositional data are by definition proportions of some whole. Thus, their natural sample space is the open simplex and interest lies in the relative behaviour of the components. Basic operations defined on the simplex induce a vector space structure, which justifies the developement of its algebraic-geometric structure: scalar product, norm, and distance. At the same time, hierarchic methods of classification require to establish in advance some or all of the following measures: difference, central tendency and dispersion, in accordance with the nature of the data. J. A. Martín-Fernández studies the requirements for these measures when the data are compositional in type and presents specific measures to be used with the most usual non-parametric methods of cluster analysis. As a part of his thesis he also introduced the centering operation, which has been shown to be a powerful tool to visualize compositional data sets. Furthermore, he defines a new dissimilarity based on measures of divergence between multinomial probability distributions, which is compatible with the nature of compositional data. Finally, J. A. Martín-Fernández presents in his thesis a new method to attack the "Achilles heel" of any statistical analysis of compositional data: the presence of zero values, based on a multiplicative approach which respects the essential properties of this type of data.
64

Models de distribució sobre el símplex

Mateu Figueras, Glòria 10 October 2003 (has links)
Les dades composicionals són vectors les components dels quals representen proporcions respecte d'un total, i per tant estan sotmesos a la restricció que la suma de les seves components és una constant. L'espai natural per a vectors amb D components és el símplex SD. En l'àmbit de la modelització, ens trobem amb una gran dificultat: no coneixem prou classes de distribucions que permetin modelitzar adequadament la majoria dels conjunts de dades composicionals. En els anys 80, Aitchison proposa una metodologia per treballar amb dades composicionals que hem anomenat metodologia MOVE, ja que es basa en transformacions. En el tema específic de la modelització, Aitchison utilitza la transformació logquocient additiva per projectar les composicions a l'espai real i posteriorment les modelitza amb una distribució normal. D'aquesta manera introdueix la distribució normal logística additiva. Tot i les bones propietats algebraiques que presenta aquesta distribució ens trobem amb dues dificultats: el model normal no pot modelitzar alguns conjunts de dades transformades, especialment quan presenten una certa asimetria. Per altra banda, aquesta família de distribucions no és tancada respecte de l'amalgama (o suma) de components. El 1996 Azzalini i Dalla-Valle introdueixen la distribució normal asimètrica a RD. Es tracta d'una generalització del model normal amb un paràmetre de forma que regula la asimetria de la distribució. Utilitzant la teoria de les transformacions i la distribució normal asimètrica, hem definit una nova distribució que hem anomenat normal asimètrica logística additiva. Aquesta és especialment indicada per modelitzar conjunts de dades composicionals amb un biaix moderat, i consegüentment ens aporta la solució a una de les dificultats de la distribució normal logística additiva. Estudiant amb més detall aquest nou model, hem comprovat que presenta unes bones propietats algebraiques. Per altra banda i mitjançant simulacions, hem pogut il·lustrar l'efecte que tenen els paràmetres de la distribució normal logística additiva inicial en la distribució de l'amalgama i hem pogut comprovar que, en certs casos, el model normal asimètric proporciona un bon ajust per al logquocient de l'amalgama. Una eina útil en la modelització de vectors aleatoris són els tests de bondat d'ajust. Malauradament, no és gens freqüent trobar a la literatura tests de bondat d'ajust aplicables a la distribució normal asimètrica. Així doncs, hem desenvolupat uns tests per aquesta distribució i hem realitzat un estudi de potència utilitzant diverses distribucions alternatives. La metodologia que hem escollit és la de D'Agostino i Stephens que consisteix en mesurar la diferència entre la funció de distribució empírica (calculada mitjançant la mostra) i la funció de distribució teòrica (la normal asimètrica). L'estructura d'espai euclidià del símplex ens ha suggerit una nova metodologia que hem anomenat STAY ja que no es basa en les transformacions. Sabem que és equivalent utilitzar les operacions pròpies de SD que aplicar les operacions de l'espai real a les coordenades de les composicions respecte d'una base ortonormal. Sobre aquestes coordenades hem definit el model normal i el model normal asimètric a SD i hem realitzat un estudi comparatiu amb els models normal logístic additiu i normal asimètric logístic additiu. Si bé en determinades situacions aquesta nova metodologia dóna resultats totalment equivalents als obtinguts amb la tècnica de les transformacions, en altres aporta canvis importants. Per exemple, ha permès expressar directament sobre el símplex conceptes bàsics de l'estadística clàssica, com el concepte d'esperança o de variància. Donat que no existeixen treballs previs en aquesta direcció, proposem un exemple il·lustratiu en el cas univariant. Sobre les coordenades respecte d'una base unitària, hem definit el model normal a R+ i hem realitzat una comparació amb el model lognormal obtingut mitjançant la transformació logarítmica. / Compositional data are vectors whose components represent proportions of some whole and this is the reason why they are subject to the unit-sum constraint of its components. Therefore, a suitable sample space for compositional data is the unit simplex SD. The modelling of compositional data has a great problem: the lack of enough flexible models. In the eighties Aitchison developed a methodology to work with compositional data that we have called MOVE methodology. It is based on the transformation of compositional data from SD to the real space and the transformed data is modelled by a multivariate normal distribution. The additive logratio transformation gives rice to the additive logistic normal model which exhibits rich properties. Unfortunately, sometimes a multivariate normal model cannot properly fit the transformed data set, especially when it presents some skewness. Also the additive logistic normal family is not closed under amalgamation of components. In 1996 Azzalini and Dalla Valle introduced the skew normal distribution: a family of distributions on the real space, including the multivariate normal distribution, but with an extra parameter which allows the density to have some skewness. Emulating Aitchison, we have combined the logistic normal approach with the skew-normal distribution to define a new class of distributions on the simplex: the additive logistic skew-normal class. We apply it to model compositional data sets when the transformed data presents some skewness. We have proved that this class of distributions has good algebraic properties. We have also studied the adequacy of the logistic skew-normal distribution to model amalgamations of additive logistic normal vectors. Simulation studies show that in some cases our distribution can provide a reasonable fit. A useful tool in the study of the modelisation of vectors is the test of goodness-of-fit. Unfortunately we don't find in the literature tests of goodness-of-fit for the skew-normal distribution. Thus, we have developed these kinds of tests and we have completed the work with a power study. We have chosen the R.B. D'Agostino and M.A. Stephens methodology that consists in computing the difference between the empirical distribution function (computed from the sample) and the theoretic distribution function (skew-normal). Parallel studies have recently developed the metric space structure of SD. This has suggested us a new methodology to work with compositional data sets that we have called STAY approach because it is not based on transformations. The theory of algebra tells us that any D dimensional real vector space with an inner product has an orthonormal basis to which the coefficients behave like usual elements in RD. Our suggestion is to apply to these coefficients all the standard methods and results available for real random vectors. Thus, on the coefficients with respect to an orthonormal basis we have defined the normal model in SD and the skew-normal model in SD and we have compared them with the additive logistic normal and the additive logistic skew-normal model respectively. From a probabilistic point of view, the laws on SD defined using the STAY methodology are identical to the laws defined using the MOVE methodology. But the STAY methodology has provided some important changes. For example, it has allowed us to express directly over the simplex some basic concepts like the expected value or the variance of a random composition. As we have not found in the literature previous work in this direction, we have started this study with an illustrative example. Over the coefficients with respect to a unitary basis we have defined the normal model in the positive real line and we have compared it with the lognormal model, defined with the logarithmic transformation.
65

Complexity and modeling power of insertion-deletion systems

Krassovitskiy, Alexander 02 September 2011 (has links)
El objetivo central de la tesis es el estudio de los sistemas de inserción y borrado y su capacidad computacional. Más concretamente, estudiamos algunos modelos de generación de lenguaje que usan operaciones de reescritura de dos cadenas. También consideramos una variante distribuida de los sistemas de inserción y borrado en el sentido de que las reglas se separan entre un número finito de nodos de un grafo. Estos sistemas se denominan sistemas controlados mediante grafo, y aparecen en muchas áreas de la Informática, jugando un papel muy importante en los lenguajes formales, la lingüística y la bio-informática. Estudiamos la decidibilidad/ universalidad de nuestros modelos mediante la variación de los parámetros de tamaño del vector. Concretamente, damos respuesta a la cuestión más importante concerniente a la expresividad de la capacidad computacional: si nuestro modelo es equivalente a una máquina de Turing o no. Abordamos sistemáticamente las cuestiones sobre los tamaños mínimos de los sistemas con y sin control de grafo. / The central object of the thesis are insertion-deletion systems and their computational power. More specifically, we study language generating models that use two string rewriting operations: contextual insertion and contextual deletion, and their extensions. We also consider a distributed variant of insertion-deletion systems in the sense that rules are separated among a finite number of nodes of a graph. Such systems are refereed as graph-controlled systems. These systems appear in many areas of Computer Science and they play an important role in formal languages, linguistics, and bio-informatics. We vary the parameters of the vector of size of insertion-deletion systems and we study decidability/universality of obtained models. More precisely, we answer the most important questions regarding the expressiveness of the computational model: whether our model is Turing equivalent or not. We systematically approach the questions about the minimal sizes of the insertiondeletion systems with and without the graph-control.
66

On partially saturated formations of finite groups.

Calvo López, Clara 03 October 2007 (has links)
This thesis deals with finite groups. More precisely, it studies formations,which are classes of groups closed under taking homomorphic images andsubdirect products. The concept of X-local formation, where X is a classof simple groups, generalises the concepts of local formation and Baer-localformation. It was introduced by F¨orster with the aim of generalising thewell-known theorems of Gasch¨utz-Lubeseder-Schmid and Baer. The first onestates that a formation is saturated if and only if it is local. The second onecharacterises Baer-local formations as the solubly saturated ones. F¨orsterintroduced a Frattini-like subgroup associated with the class X and whichallowed him to introduce the concept of X-saturation. In the first chapterof the thesis a new Frattini-like subgroup is defined. This subgroup allowsus to give a more natural generalisation of the above-mentioned theorems.Moreover, X-local formations are characterised as the classes of groups withgeneralised central chief factors. In the second chapter the relation betweenthis family of formations and the one of !-saturated formations, where ! isa set of primes, is studied. The third chapter is devoted to analyse someproblems on the product of two formations. A classical result states that theproduct of two saturated formations is a saturated formation. This resultis not true in general for solubly saturated formations. We give conditionson two X-saturated formations to ensure that the product is an X-saturatedformation. As a corollary we obtain a result for products of Baer-localformations. The starting point of chapter four is a question posed by Skibain the Kourovka Notebook dealing Baer-local formations generated by agroup. We study a more general question by using the concept of X-localformation. Moreover, we give a complete description of the factorisations ofan X-local formation generated by a group. / La tesis se enmarca dentro de la teor´ýa de grupos finitos. M´as concretamente,se centra en el estudio de las formaciones de grupos, que son lasclases de grupos cerradas para cocientes y para productos subdirectos. Elconcepto de formaci´on X-local, donde X es una clase de grupos simples,generaliza los conceptos de formaci´on local y formaci´on de Baer. Fue introducidopor F¨orster con la idea de generalizar los conocidos teoremas deGasch¨utz-Lubeseder-Schmid y de Baer. El primero de ellos afirma que unaformaci´on es saturada si, y s´olo si, es local. El segundo caracteriza las formacionesBaer-locales como las resolublemente saturadas. Para ello F¨orsterintrodujo un subgrupo de tipo Frattini asociado a la clase X del cual surgeel concepto de X-saturaci´on. En el primer cap´ýtulo de la tesis se define unnuevo subgrupo mediante el que se consigue una generalizaci´on m´as satisfactoriade los teoremas mencionados. Tambi´en se caracterizan las formacionesX-locales como las clases de grupos con factores principales generalizados.En el segundo cap´ýtulo se estudia la relaci´on entre esta familia de formacionesy la de las formaciones w-saturadas, donde w es un conjunto de n´umerosprimos. En la tesis tambi´en se abordan problemas relativos al producto dedos formaciones. Un resultado cl´asico de teor´ýa de clases de grupos afirmaque el producto de dos formaciones saturadas es una formaci´on saturada.Este resultado no es cierto en general para formaciones resolublemente saturadas.En el cap´ýtulo tercero se presentan condiciones necesarias y suficientespara que el producto de dos formaciones X-saturadas sea una formaci´on Xsaturada.Como consecuencia, cuando X es la clase de los grupos simplesabelianos, obtenemos un resultado para productos de formaciones resolublementesaturadas. El punto de partida del cap´ýtulo cuarto es una preguntade Skiba que aparece en la edici´on de 1992 del Kourovka Notebook sobreformaciones Baer-locales generadas por un grupo. Nosotros abordamos unacuesti´on m´as general usando formaciones X-locales. Adem´as, damos una descripci´on completa de las factorizaciones de una formaci´on X-local generadapor un grupo.
67

Álgebras de funciones analíticas acotadas. Interpolación

Miralles Montolío, Alejandro 26 June 2008 (has links)
Este trabajo resume, de forma parcial, la investigaci¶on realizada durantemi periodo predoctoral. Esta investigaci¶on pertenece, de forma general,a la teor¶³a de ¶algebras de Banach conmutativas y ¶algebras uniformes y,en particular, se desarrolla principalmente en el ¶ambito de las ¶algebras defunciones anal¶³ticas acotadas en dominios de espacios de Banach ¯nito ein¯nito dimensionales.Las l¶³neas centrales de este trabajo son las siguientes:² Sucesiones de Interpolaci¶on para ¶Algebras Uniformes² Operadores de Composici¶on² Propiedades Topol¶ogicas de ¶Algebras de Funciones Anal¶³ticasLa investigaci¶on realizada sobre sucesiones de interpolaci¶on para ¶algebrasuniformes se puede dividir en dos partes: una gen¶erica en la que se propor-cionan algunos resultados de car¶acter general sobre sucesiones de interpo-laci¶on para ¶algebras uniformes, y una parte m¶as espec¶³¯ca, en que se tratansucesiones de interpolaci¶on para algunas ¶algebras de funciones anal¶³ticasacotadas. Estos puntos se tratan en los Cap¶³tulos 2 y 3. El estudio de oper-adores de composici¶on, principalmente sobre H1(BE), centra el contenidodel Cap¶³tulo 4. En este cap¶³tulo estudiaremos una descripci¶on del espectrode estos operadores y los llamados operadores de composici¶on de Radon-Nikod¶ym. Para ello, se har¶a uso de algunos resultados de interpolaci¶on delcap¶³tulo anterior. Con respecto a la tercera l¶³nea que hemos citado, estu-diaremos los llamados operadores de tipo Hankel en el cap¶³tulo 5. ¶Estosnos permitir¶an tratar el concepto de ¶algebra tight y las ¶algebras de Bour-gain de un subespacio de C(K), que est¶an estrechamente relacionadas conla propiedad de Dunford-Pettis. / The lines studied in this thesis are the following:² Interpolating Sequences for Uniform Algebras² Composition Operators² Topological Properties in Algebras of Analytic FunctionsAfter the preliminaries, the second chapter is devoted to the study ofinterpolating sequences on uniform algebras A. We ¯rst deal with the con-nection between interpolating sequences and linear interpolating sequences.Next, we deal with dual uniform algebras A = X¤. In this context, weprove ¯rst that c0¡linear interpolating sequences are linear interpolatingand then, we show that c0¡interpolating sequences are, indeed, c0¡linearinterpolating, obtaining that c0¡interpolating sequences (xn) ½ MA Xbecome linear interpolating. Finally, we provide a di®erent approach toprove that c0¡interpolating sequences are not c0¡linear interpolating viacomposition operators.We continue with the study of interpolating sequences for the algebrasof analytic functions H1(BE) and A1(BE) in the third chapter. The studyof interpolating sequences for H1 arises from the results of L. Carleson, W.K. Hayman and D. J. Newman. When we deal with general Banach spaces,we prove that the Hayman-Newman condition for the sequence of norms issu±cient for a sequence (xn) ½ BE¤¤ to be interpolating for H1(BE) if Eis any ¯nite or in¯nite dimensional Banach space. This is a consequence ofa stronger result :The Carleson condition for the sequence (kxnk) ½ D is su±cient for(xn) to be interpolating for H1(BE).Actually, the result holds for sequences in BE¤¤ thanks to the Davie-Gamelin extension.When we deal with A = A1(BE), the existence of interpolating se-quences for A was proved by J. Globevnik for a wide class of in¯nite-dimensional Banach spaces. We complete this study by proving the ex-istence of interpolating sequences for A1(BE) for any in¯nite-dimensionalBanach space E, characterizing the separability of A1(BE) in terms of the¯nite dimension of E.Finally, we study the metrizability of bounded subsets of MA when wedeal with A = Au(BE).In chapter 4 we deal with composition operators on H1(BE). First westudy the spectra of these operators. L. Zheng described the spectrumof some composition operators on H1. Her results where extended toH1(BE), E any complex Banach space, by P. Galindo, T. Gamelin andM. LindstrÄom for the power compact case. In this work, the authors alsodeal with the non power compact case for Hilbert spaces. Inspired by themand using some interpolating results, we provide a general theorem whichdescribes the spectrum of H1(BE) for general Banach spaces. In partic-ular, we prove that conditions on this theorem are satis¯ed by the n¡foldproduct space Cn, completing the description of ¾(CÁ) in this case, whichwas an open question.Next, we study the class of Radon-Nikod¶ym composition operators fromH1(BE) to H1(BF ). We characterize these operators in terms of the As-plund property.Chapter 5 deals with properties related to Hankel-type operators. Theconcept of tight algebra is related to these operators and was introducedby B. Cole and T. Gamelin. They proved that A(Dn) is not tight on itsspectrum for n ¸ 2. We present a new approach to this result extendingit to algebras Au(BE) for Banach spaces E = C £ F endowed with thesupremum norm.In addition, we show that H1(BE) is never tight on its spectrum re-gardless the Banach space E.Hankel-type operators are also closely related to the Dunford-Pettis prop-erty through the so-called Bourgain algebras introduced by J. A. Cima andR. M. Timoney. We prove that the Bourgain algebras of A(Dn) as a sub-space of C( ¹D n) are themselves.
68

Análisis de los problemas ternarios de probabilidad condicional de enunciado verbal y de sus procesos de resolución.

Lonjedo Vicent, Mª Ángeles 05 November 2007 (has links)
En este trabajo se presenta una investigación, en el mundo de la resolución deproblemas, de los problemas escolares de probabilidad que en ella se definen comoproblemas ternarios de probabilidad condicional.Las preguntas que inicialmente se plantean y se quieren resolver con lainvestigación, tienen que ver con los problemas: ¿cómo son los problemas ternariosde probabilidad condicional de enunciado verbal (PTPCEV) en cuanto a la estructurade cantidades y relaciones entre éstas?; ¿cómo pueden ser clasificados?; y con laenseñanza: ¿puede adelantarse su enseñanza a la secundaria obligatoria? En casoafirmativo, ¿qué tipología de problemas de probabilidad condicional pueden serresueltos en las secuencias didácticas?, ¿qué características deberán tener estosproblemas?Estas preguntas responden a tres objetivos generales de este trabajo:1. Estudiar los problemas ternarios de probabilidad condicional de enunciadoverbal2. Estudiar la resolución de una clase de estos problemas3. Proponer un proceso de enseñanza de los problemas de probabilidadcondicionalEn la investigación desarrollada se estudian los problemas ternarios de probabilidadcondicional de enunciado verbal teniendo en cuenta dos de los mundos posibles enlos que estos estudios pueden realizarse: el mundo de las matemáticas, es decir laestructura formal de los PTPCEV, y el mundo de las matemáticas escolares, en el quela información nos la proporciona los currículos oficiales y los libros de texto.Un resultado del estudio inicial sobre los problemas ternarios de probabilidadcondicional de enunciado verbal permite mostrar una clasificación de éstosatendiendo a tres características definidas para ellos: Niveles, Categorías y Tipos.Esta clasificación tiene en cuenta los datos y la pregunta del problema. Atendiendo aestas tres características los problemas se han clasificado en tres niveles y dentro decada nivel en tres categorías y tres tipos.El producto de la clasificación en Niveles, Categorías y Tipos, permite como se haceen esta, seleccionar una determinada tipología de problemas con el fin de poderabordar el estudio de los modos de resolver por los estudiantes. También se dacuenta del uso que pueden darse a esos componentes de clasificación para elanálisis de textos escolares, tanto si se piensa en la investigación sobre la resoluciónde esos problemas como para la su enseñanza.En el proceso de resolución de los problemas de probabilidad condicional, existendiferentes factores que influyen en las conductas de los estudiantes a la hora deestablecer una correcta correlación entre los datos y los sucesos. En estainvestigación nos ocupamos de identificar esos factores y determinar qué influenciatienen en el proceso de resolución del problema, desarrollando para ello un sistemade análisis de las respuestas de los estudiantes.Se analiza la resolución de problemas ternarios escolares de probabilidad condicionalde enunciado verbal por estudiantes de Secundaria Obligatoria, Bachillerato yFacultad de Matemáticas. En este análisis se describen procesos de resolución,modos de resolución y estrategias de resolución de los problemas, identificandodificultades y describiendo y clasificando errores.Finalmente, fruto de este análisis mostramos la influencia, tanto en el éxito como enel proceso de resolución de estos problemas, de los factores que hemos identificado.Estos factores tienen que ver con la naturaleza de las cantidades presentes en elenunciado del problema, con la expresión gramatical con la que se expresa lacondicionalidad en el texto del problema, con la utilización de términos que producenambigüedad sobre la probabilidad condicional en el texto del problema y con elorden en la expresión de los datos en el texto del problema. / This word introduces a research, within the world of problem solving, onproblems of probability in school education, defined as ternary problems ofconditional probability.The three general goals of this work are:1- To study word ternary problems of conditional probability.2- To study students' resolutions of one type of these problems.3- To propose a learning process of the conditional probability via problemsolving.In the developed research, we study the word ternary problems of conditionalprobability taking into account both of the possible worlds in which thesestudies could be carried out: maths Mathematics world, that is to say the formalstructure of the PTPCEV, and the school world, where information is providedby official curricula and textbooks.A result of the initial study on the word ternary problems of conditionalprobability shows their classification regarding three of their features: Levels,Categories and Types. This classification takes into account the data and thequestion of the problem.This classification allows selecting a specific typology of problems for thestudents to be capable of solving them. At the same time, it shows the use ofthese classifying components for the analysis of textbooks, both for researchingmatters as well as for educational purpose.During the process of solving problems of conditional probability, there areseveral issues that influence the way students correlate properly the data andthe events. In this research, we want to identify these factors and state whatinfluence they have in the process of solving a problem, developing for that ananalysis system for the students' answers.It is studied the resolution of word ternary problems of conditional probabilityby students of different school levels. In this research we describe solvingmethods, ways and strategies of solving those problems, identifying obstaclesand describing and classifying mistakes.Finally, as a result of this analysis we show the influence, both in the success aswell as in the process of resolution of these problems, of these factors that wehave identified. These factors are related to the nature of the quantities presentin the text of problem, to the grammar expression with which it is stated thecondition, to the use of terms that make us students confused about theconditional probability in the problem text and to the order in which the data isexpressed.
69

Study of homogeneous DÀtri spaces, of the Jacobi operator on g.o. spaces and the locally homogeneous connections on 2-dimensional manifolds with the help of Mathematica.

Arias Marco, Teresa 04 June 2007 (has links)
Nowadays, the concept of homogeneity is one of the fundamental notions in geometry although its meaning must be always specified for the concrete situations. In this thesis, we consider the homogeneity of Riemannian manifolds and the homogeneity of manifolds equipped with affine connections. The first kind of homogeneity means that, for every smooth Riemannian manifold (M, g), its group of isometries I(M) is acting transitively on M. Part I of this thesis fits into this philosophy. Afterwards in Part II, we treat the homogeneity concept of affine connections. This homogeneity means that, for every two points of a manifold, there is an affine diffeomorphism which sends one point into another. In particular, we consider a local version of the homogeneity, that is, we accept that the affine diffeomorphisms are given only locally, i.e., from a neighborhood onto a neighborhood. More specifically, we devote the first Chapter of Part I to make a brief overview of some special kinds of homogeneous Riemannian manifolds which will be of special relevance in Part I and to show how the software MATHEMATICA© becomes useful. For that, we prove that "the three-parameter families of flag manifolds constructed by N. R. Wallach in "Compact homogeneous Riemannian manifols with strictly positive curvature, Ann. of Math. 96 (1972), p. 276-293" are D'Atri spaces if and only if they are naturally reductive spaces. Thus, we improve the previous results given by D'Atri, Nickerson and by Arias-Marco, Naveira.Moreover, in Chapter 2 we obtain the complete 4-dimensional classification of homogeneous spaces of type A. This allows us to prove correctly that every 4-dimensional homogeneous D'Atri space is naturally reductive. Therefore, we correct, complete and improve the results presented by Podestà, Spiro, Bueken and Vanhecke. Chapter 3 is devoted to prove that the curvature operator has constant osculating rank over g.o. spaces. It is mean that a real number 'r' exists such that under some assumptions, the higher order derivatives of the curvature operator from 1 to r are linear independent and from 1 to r + 1 are linear dependent. As a consequence, we also present a method valid on every g.o. space to solve the Jacobi equation. This method extends the method given by Naveira and Tarrío for naturally reductive spaces. In particular, we prove that the Jacobi operator on Kaplan's example (the first known g.o. space that it is not naturally reductive) has constant osculating rank 4. Moreover, we solve the Jacobi equation along a geodesic on Kaplan's example using the new method and the well-known method used by Chavel, Ziller and Berndt,Tricerri, Vanhecke. Therefore, we are able to present the main differences between both methods.In Part II, we classify (locally) all locally homogeneous affine connections with arbitrary torsion on two-dimensional manifolds. Therefore, we generalize the result given by Opozda for torsion-less case. Moreover, from our computations we obtain interesting consequences as the relation between the classifications given for the torsion less-case by Kowalski, Opozda and Vlá ek. In addition, we obtain interesting consequences about flat connections with torsion.In general, the study of these problems sometimes requires a big number of straightforward symbolic computations. In such cases, it is a quite difficult task and a lot of time consuming, try to make correctly this kind of computations by hand. Thus, we try to organize our computations in (possibly) most systematic way so that the whole procedure is not excessively long. Also, because these topics are an ideal subject for a computer-aided research, we are using the software MATHEMATICA©, throughout this work. But we put stress on the full transparency of this procedure. / En esta tesis, se consideran dos tipos bien diferenciados de homogeneidad: la de las variedades riemannianas y la de las variedades afines. El primer tipo de homogeneidad se define como aquel que tiene la propiedad de que el grupo de isometrías actúa transitivamente sobre la variedad. La Parte I, recoge todos los resultados que hemos obtenido en esta dirección. Sin embargo, en la Parte II se presentan los resultados obtenidos sobre conexiones afines homogéneas. Una conexión afín se dice homogénea si para cada par de puntos de la variedad existe un difeomorfismo afín que envía un punto en otro. En este caso, se considera una versión local de homogeneidad. Más específicamente, la Parte I de esta tesis está dedicada a probar que "las familias 3-paramétricas de variedades bandera construidas por Wallach son espacios de D'Atri si y sólo si son espacios naturalmente reductivos". Más aún, en el segundo Capítulo, se obtiene la clasificación completa de los espacios homogéneos de tipo A cuatro dimensionales que permite probar correctamente que todo espacio de D'Atri homogéneo de dimensión cuatro es naturalmente reductivo.Finalmente, en el tercer Capítulo se prueba que en cualquier g.o. espacio el operador curvatura tiene rango osculador constante y, como consecuencia, se presenta un método para resolver la ecuación de Jacobi sobre cualquier g.o. espacio. La Parte II se destina a clasificar (localmente) todas las conexiones afines localmente homogéneas con torsión arbitraria sobre variedades 2-dimensionales. Para finalizar el cuarto Capítulo, se prueban algunos resultados interesantes sobre conexiones llanas con torsión.En general, el estudio de estos problemas requiere a veces, un gran número de cálculos simbólicos aunque sencillos. En dichas ocasiones, realizarlos correctamente a mano es una tarea ardua que requiere mucho tiempo. Por ello, se intenta organizar todos estos cálculos de la manera más sistemática posible de forma que el procedimiento no resulte excesivamente largo. Este tipo de investigación es ideal para utilizar la ayuda del ordenador; así, cuando resulta conveniente, utilizamos la ayuda del software MATHEMATICA para desarrollar con total transparencia el método de resolución que más se adecua a cada uno de los problemas a resolver.
70

High Resolution Schemes for Conservation Laws With Source Terms.

Martínez i Gavara, Anna 24 October 2008 (has links)
This memoir is devoted to the study of the numerical treatment ofsource terms in hyperbolic conservation laws and systems. In particular,we study two types of situations that are particularly delicate fromthe point of view of their numerical approximation: The case of balancelaws, with the shallow water system as the main example, and the case ofhyperbolic equations with stiff source terms.In this work, we concentrate on the theoretical foundations of highresolutiontotal variation diminishing (TVD) schemes for homogeneousscalar conservation laws, firmly established. We analyze the propertiesof a second order, flux-limited version of the Lax-Wendroff scheme whichavoids oscillations around discontinuities, while preserving steady states.When applied to homogeneous conservation laws, TVD schemes preventan increase in the total variation of the numerical solution, hence guaranteeingthe absence of numerically generated oscillations. They are successfullyimplemented in the form of flux-limiters or slope limiters forscalar conservation laws and systems. Our technique is based on a fluxlimiting procedure applied only to those terms related to the physicalflow derivative/Jacobian. We also extend the technique developed by Chiavassaand Donat to hyperbolic conservation laws with source terms andapply the multilevel technique to the shallow water system.With respect to the numerical treatment of stiff source terms, we takethe simple model problem considered by LeVeque and Yee. We studythe properties of the numerical solution obtained with different numericaltechniques. We are able to identify the delay factor, which is responsiblefor the anomalous speed of propagation of the numerical solutionon coarse grids. The delay is due to the introduction of non equilibrium values through numerical dissipation, and can only be controlledby adequately reducing the spatial resolution of the simulation.Explicit schemes suffer from the same numerical pathology, even after reducingthe time step so that the stability requirements imposed by thefastest scales are satisfied. We study the behavior of Implicit-Explicit(IMEX) numerical techniques, as a tool to obtain high resolution simulationsthat incorporate the stiff source term in an implicit, systematic,manner.

Page generated in 0.074 seconds