• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 147
  • 40
  • 29
  • Tagged with
  • 216
  • 216
  • 75
  • 65
  • 46
  • 44
  • 44
  • 34
  • 18
  • 17
  • 16
  • 13
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Discurso sobre la teoria general del movimiento en las máquinas : desarrollado por D. Lauro Clariana en el ejercicio del doctorado correspondiente a la sección de Ciencias exactas

Clariana Ricart, Lauro, 1842-1916 01 January 1873 (has links)
Reproducció digital de l'original manuscrit, en fulls solts, dipositat a l'Arxiu Històric d'aquesta Universitat / Lauro Clariana Ricart (Barcelona, 1842-1916) fue un matemático e ingeniero industrial español. Obtuvo en 1873 la cátedra de matemáticas del Instituto de Tarragona. Ese mismo año se graduó de doctor en Ciencias Exactas. Fue nombrado en 1881 catedrático numerario de Cálculo Infinitesimal de la Universidad de Barcelona. De 1902 a 1907 desempeñó interinamente la cátedra de Cálculo Integral y Mecánica Racional de la Escuela de Ingenieros Industriales de esta ciudad, y desde 1909 desempeñó la de Cálculo Infinitesimal, de cuya nueva asignatura fue el iniciador. Perteneció a la Real Academia de Ciencias y Artes de Barcelona y a la de Ciencias Exactas, Físicas y Naturales de Madrid. Colaboró en diversas revistas científicas. En la Academia de Barcelona dio conferencias sobra matemáticas superiores referentes a Funciones elípticas. Ha figurado dignamente en los congresos de París, Bruselas, Múnich y Friburgo, en los que presentó numerosos trabajos sobre distintas materias. (Fuente: Wikipedia.org)
92

Evolutionary Bags of Space-Time Features for Human Analysis

Ponce López, Víctor 02 June 2016 (has links)
The representation (or feature) learning has been an emerging concept in the last years, since it collects a set of techniques that are present in any theoretical or practical methodology referring to artificial intelligence. In computer vision, a very common representation has adopted the form of the well-known Bag of Visual Words. This representation appears implicitly in most approaches where images are described, and is also present in a huge number of areas and domains: image content retrieval, pedestrian detection, human-computer interaction, surveillance, e-health, and social computing, amongst others. The early stages of this dissertation provide an approach for learning visual representations inside evolutionary algorithms, which consists of evolving weighting schemes to improve the BoVW representations for the task of recognizing categories of videos and images. Thus, we demonstrate the applicability of the most common weighting schemes, which are often used in text mining but are less frequently found in computer vision tasks. Beyond learning these visual representations, we provide an approach based on fusion strategies for learning spatiotemporal representations, from multimodal data obtained by depth sensors. Besides, we specially aim at the evolutionary and dynamic modelling, where the temporal factor is present in the nature of the data, such as video sequences of gestures and actions. Indeed, we explore the effects of probabilistic modelling for those approaches based on dynamic programming, so as to handle the temporal deformation and variance amongst video sequences of different categories. Finally, we integrate dynamic programming and generative models into an evolutionary computation framework, with the aim of learning Bags of SubGestures (BoSG) representations and hence to improve the generalization capability of standard gesture recognition approaches. The results obtained in the experimentation demonstrate, first, that evolutionary algorithms are useful for improving the representation of BoVW approaches in several datasets for recognizing categories in still images and video sequences. On the other hand, our experimentation reveals that both, the use of dynamic programming and generative models to align video sequences, and the representations obtained from applying fusion strategies in multimodal data, entail an enhancement on the performance when recognizing some gesture categories. Furthermore, the combination of evolutionary algorithms with models based on dynamic programming and generative approaches results, when aiming at the classification of video categories on large video datasets, in a considerable improvement over standard gesture and action recognition approaches. Finally, we demonstrate the applications of these representations in several domains for human analysis: classification of images where humans may be present, action and gesture recognition for general applications, and in particular for conversational settings within the field of restorative justice. / L’aprenentatge de la representació (o de característiques) ha estat un concepte emergent en els darrers anys, ja que recopila un conjunt de tècniques que són presents en qualsevol metodologia teòrica o pràctica referent a la intel·ligència artifcial. En la visió per computador, una representació molt comuna ha adoptat la forma de la ben coneguda Bossa de Paraules Visuals (BdPV). Aquesta representació apareix implícitament en la majoria d’aproximacions per descriure imatges, i és també present en un enorme nombre d’àrees i dominis: recuperació de contingut en imatges, detecció de vianants, interacció humà-ordinador, vigilància, e-salut, i la computació social, entre d’altres. Les fases inicials d’aquesta dissertació proporcionen una aproximació per aprendre representacions visuals dins d’algorismes evolutius, que consisteix en evolucionar esquemes de pesat per millorar les representacions BdPV en la tasca de reconèixer les categories de vídeos i imatges. Per tant, demostrem l’aplicabilitat dels esquemes de pesat més comuns, que s’usen sovint en la mineria de textos però es troben amb menys freqüència en tasques de visió per computador. Més enllà d’aprendre representacions visuals, proporcionem una aproximació basada en estratègies de fusió per a l’aprenentatge de representacions espai- temporals, a partir de dades multi-modals obtingudes per sensors de profunditat. A més, el nostre objectiu és especialment el modelatge evolutiu i dinàmic, on el factor temporal és present en la naturalesa de les dades, com les seqüències de gestos i accions. De fet, explorem els efectes del modelatge probabilístic per aquelles aproximacions basades en programació dinàmica per a gestionar la deformació temporal i variància entre seqüències de vídeo de categories diferents. Finalment, integrem la programació dinàmica i els models generatius en un marc de computació evolutiva, amb l’objectiu d’aprendre representacions en Bosses de SubGestos i, per tant, millorar la capacitat de generalització de les aproximacions estàndards pel reconeixement de gestos. Els resultats obtinguts en l’experimentació demostra, en primer lloc, que els algorismes evolutius són útils per millorar la representació d’aproximacions BdPV en diverses bases de dades pel reconeixement de categories en imatges fxes i seqüències de vídeo. Per altra banda, la nostra experimentació revela que, tant l’ús de la programació dinàmica i els models generatius per alinear seqüències de vídeos, com les representacions obtingudes d’aplicar estratègies de fusió en dades multi-modals, comporten una millora en el rendiment a l’hora de reconèixer algunes categories de gestos. A més a més, la combinació d’algorismes evolutius amb models basats en programació dinàmica i aproximacions generatives resulten, a l’hora de classifcar categories de vídeos de bases de dades grans, en una millora considerable sobre les aproximacions estàndards de reconeixement de gestos i accions. Finalment, demostrem les aplicacions d’aquestes representacions en varis dominis per a l’anàlisi humà: classifcació d’imatges on els humans poden ser-hi presents, el reconeixement d’accions i gestos per aplicacions en general, i en particular per entorns conversacionals dins del camp de la justícia restaurativa. / El aprendizaje de la representación (o de características) ha sido un concepto emergente en los últimos años, ya que recopila un conjunto de técnicas que están presentes en cualquier metodología teórica o práctica referente a la inteligencia artificial. En la visión por computador, una representación muy comuna ha adoptado la forma de la bien conocida Bolsa de Palabras Visuales (BdPV). Esta representación aparece implícitamente en la mayoría de aproximaciones para describir imágenes, y está también presente en un enorme número de áreas y dominios: recuperación de contenido en imágenes, detección de peatones, interacción humano-ordenador, vigilancia, e-salud, y la computación social, entre otras. Las fases iniciales de esta disertación proporcionan una aproximación para aprender representaciones visuales dentro de algoritmos evolutivos, que consisten en evolucionar esquemas de pesado para mejorar las representaciones BdPV en la tarea de reconocer las categorías de vídeos e imágenes. Por lo tanto, demostramos la aplicabilidad de los esquemas de pesado más comunes, que se utilizan a menudo en la minería de textos pero se encuentran con menos frecuencia en tareas de visión por computador. Más allá de aprender representaciones visuales, proporcionamos una aproximación basada en estrategias de fusión para el aprendizaje de representaciones espacio-temporales, a partir de datos multimodales obtenidos por sensores de profundidad. También, nuestro objetivo es especialmente el modelado evolutivo y dinámico, donde el factor temporal está presente en la naturaleza de los datos, como las secuencias de gestos y acciones. De hecho, exploramos los efectos del modelado probabilístico para aquellas aproximaciones basadas en programación dinámica para gestionar la deformación temporal y varianza entre secuencias de vídeo de categorías diferentes. Finalmente, integramos la programación dinámica y los modelos generativos en un marco de computación evolutiva, con el objetivo de aprender representaciones en Bolsas de SubGestos, y por lo tanto mejorar la capacidad de generalización de las aproximaciones estándares para el reconocimiento de gestos. Los resultados obtenidos en la experimentación demuestra, en primer lugar, que los algoritmos evolutivos son útiles para mejorar la representación de aproximaciones BdPV en diversas bases de datos para el reconocimiento de categorías en imágenes fijas y secuencias de vídeo. Por otra parte, nuestra experimentación revela que, tanto el uso de la programación dinámica y los modelos generativos para alinear secuencias de vídeos, como las representaciones obtenidas de aplicar estrategias de fusión en datos multimodales, conllevan una mejora en el rendimiento a la hora de reconocer algunas categorías de gestos. Además, la combinación de algoritmos evolutivos con modelos basados en programación dinámica y aproximaciones generativas resultan, a la hora de clasificar categorías de vídeos de bases de datos grandes, en una mejora considerable sobre las aproximaciones estándares de reconocimiento de gestos y acciones. Finalmente, demostramos las aplicaciones de estas representaciones en varios dominios para el análisis humano: clasificación de imágenes donde los humanos pueden estar presentes, el reconocimiento de acciones y gestos para aplicaciones en general, y en particular para entornos conversacionales dentro del campo de la justicia restaurativa.
93

Context-aware quality of life telemonitoring for a novel healthcare paradigm

Miralles Barrachina, Felip 22 April 2016 (has links)
Our healthcare systems are facing sustainability challenges caused by a demographic shift with ageing, chronicity and disability growing in our society. A novel healthcare paradigm should be founded on 4P medicine: Preventive, Predictive, Personalized, and Participatory medicine needs new methodologies and tools enabled by Information and Communication Technologies (ICTs). One of the key technology enablers for 4P medicine is telemonitoring, i.e. ICTs to monitor the health status of a patient from a distance, which may trigger 4P decision making. A new generation of telemonitoring tools allow prescription and follow-up around the main chronic care strategies, namely, therapeutic adherence and healthy habits promotion. A broader and more ambitious challenge is Quality of Life (QoL) telemonitoring based on the knowledge of context. We are proposing a formal methodology to provide Context-aware QoL assessment, categorizing data inputs, defining outputs, and exploring data fusion techniques. A Telemonitoring and Home Support System (TMHSS) which implements that methodology has been designed, developed and integrated to the BackHome system for a particular Use Case, i.e. severely disabled people using Brain Computer Interfaces (BCI) as an assistive technology (AT) at home. We have applied User Centred Design throughout all development stages of a multi-functional BCI, in order to move BCIs from the lab towards independent home use. The BackHome system has achieved five key innovations: (i) an architecture able to meet the requirements of BCI multifunctionality and remote home support; (ii) a light, autonomous, comfortable and reliable BCI equipment; (iii) an easy-to-use software to control multiple purpose applications; (iv) a TMHSS for BCI independent home use; and (v) a Therapist station to manage and monitor BCI-based remote services. We have evaluated the BackHome system with end-users at home, also taking the therapists' and non-expert caregivers' perspective into account. The results show good acceptance, usability levels, user satisfaction and levels of control, which demonstrate that BCI can already be considered as an alternative AT. We used the TMHSS of BackHome to recognize activities and habits of users based on the analysis of sensors' data, in order to detect for example whether the user is at home or away or whether has received a visit at home or not. Similarly, and consequently from the previous analysis, results show good accuracies in assessing items of QoL such as Mobility, Sleep, or Mood, based on measures and fusion of detected activities from the user. The assessment of the overall wellbeing of an individual with a multidimensional perspective through processing of data gathered from environmental and personal sensors in a broad and non-intrusive way, will become of great interest to healthcare professionals, policy makers and also for citizens which are called to co-produce and lead the new paradigm of care. / Els nostres sistemes de salut estan veient qüestionada la seva sostenibilitat arran del canvi demogràfic d'una societat en la qual augmenta la prevalença de cronicitat i discapacitat. El nou model de salut es basa en la Medicina 4P. Una tecnologia clau per a la Medicina 4P és el telemonitoratge, és a dir, les TIC per conèixer l'estat de salut d'un pacient a distància i prendre decisions 4P. Un repte ambiciós és el telemonitoratge de la Qualitat de Vida (QoL) basat en el coneixement del context. Proposem una metodologia formal per avaluar la QoL mitjançant la categorització de dades d'entrada i sortida i tècniques de fusió de dades. Hem dissenyat i desenvolupat un Sistema de Telemonitoratge i Suport Domiciliari (TMHSS) que implementa aquesta metodologia, integrat al sistema BackHome per un Cas d'Ús concret, el de persones amb discapacitats severes que utilitzen Interfícies Cervell Ordinador (BCI) com a Tecnologia Assistencial (AT) en entorns reals. Hem aplicat Disseny Centrat en l'Usuari amb la finalitat de traslladar els BCIs des del laboratori fins a l'ús domèstic independent. El sistema BackHome ha assolit cinc innovacions fonamentals: (i) una arquitectura que satisfà els requisits d'un BCI multifuncional i amb suport remot; (ii) un dispositiu de BCI lleuger, autònom, còmode i fiable; (iii) un programari fàcil d'utilitzar per a manegar diverses aplicacions d'autonomia física i social; (iv) Un TMHSS per fer efectiu l'ús independent dels BCIs a la llar; i (v) una estació clínica per a la gestió remota de serveis terapèutics. Hem avaluat el sistema BackHome amb usuaris finals a casa seva, aprenent de la perspectiva de terapeutes i cuidadors no experts amb resultats que mostren bona acceptació i nivells d'usabilitat, satisfacció de l'usuari i nivells de control que demostren que el BCI pugui ja considerar-se una AT alternativa. Hem emprat el TMHSS de BackHome per reconèixer activitats i hàbits dels usuaris a partir de l'anàlisi de dades de sensors, per detectar per exemple si l'usuari està a casa o fora, o si ha rebut una visita. També hem avaluat a continuació amb bona precisió elements de la Qualitat de Vida, com ara mobilitat, son, o estat d'ànim, a partir de les activitats de l'usuari prèviament detectades.
94

Random zero sets of analytic functions and traces of functions in Fock spaces

Buckley, Jeremiah 06 June 2013 (has links)
Interpolating and sampling sequences in spaces of functions are classical subjects in complex and harmonic analysis. A sequence of points is said to be interpolating if, given any collection of values, we can find a function from the space which takes these values on the points of the sequence, and a sequence of points is said to be sampling if it is possible to recover a function from the space knowing the values of the function on the sequence. In Fock spaces these sequences have been characterised in terms of a Beurling type density, that is, interpolating sequences are those sequences whose density is less than a certain critical value, and sampling sequences are those sequences whose density is greater than the same critical value. A critical sequence, that is a sequence whose density is exactly the critical value, is almost an interpolating sequence and almost a sampling sequence. In this thesis we have charaterised completely the trace of functions in these Fock spaces on critical sequences in terms of the discrete Beurling-Ahlfors transform. We also study random point processes in the complex plane and in the unit disc. These random point processes are the zero sets of analytic functions. These functions can be constructed through random linear combinations of elements of a basis for a space of functions. The distribution of the zero set of the function formed by taking a basis for the classical Bargmann-Fock space is well known, and depends on a translation-invariance inherent to the space. We have generalised these ideas to inhomogeneous Fock spaces, where no such invariance exists. In particular we see that the expected number of points is related to a certain measure associated to the space. We also study asymptotic normality and a ‘hole theorem’, that calculates the probability that there are no points in a disc of radius r. We study analogous processes in the unit disc, and on the real line. We calculate the variance of the process in the disc, and we prove a ‘hole theorem’ for large values of the ‘intensity’ of the process. In the real line we study the probability of a large gap for a process that is invariant under translations. / Las sucesiones de interpolación y de muestreo en espacios de funciones son temas clásicos en el análisis complejo y armónico. Se dice que una sucesión de puntos es de interpolación si dada una colección de valores podemos hallar una función del espacio que toma estos valores en los puntos de la sucesión y se dice que una sucesión de puntos es de muestreo si se puede recuperar una función cuando se sabe los valores de la función en dicha sucesión. En los espacios de Fock estas sucesiones han sido caracterizadas en términos de una densidad de tipo Beurling, es decir, las sucesiones de interpolación son las que tienen densidad menor que un cierto valor crítico, y las de muestreo son las que tienen densidad mayor que el mismo valor crítico. En esta tesis hemos caracterizado completamente la traza de funciones en estos espacios de Fock sobre sucesiones que tiene densidad igual al valor crítico en términos de la transformada de Beurling-Ahlfors discreta. También estudiamos procesos de puntos aleatorios en el plano complejo y en el disco unidad. Estos procesos de puntos aleatorios son los conjuntos de ceros de funciones analíticas. Se pueden construir dichas funciones mediante sumas aleatorias de funciones que forman una base de un espacio de funciones. La distribución del conjunto de ceros cuando se toma una base del espacio clásico de Bargmann-Fock es bien conocida, y depende de una invariancia por translaciones inherente al espacio. Hemos generalizado estas ideas a espacios de Fock no homogéneos, donde no existe ninguna invariancia. En particular, veamos que la esperanza del número de puntos está relacionada con una medida asociado al espacio. También estudiamos la normalidad asintótica y un ‘teorema del agujero’, que calcula la probabilidad asintótica de que no haya ceros en un disco de radio r. Estudiamos procesos análogos en el disco unidad, y en la recta. Calculamos la variancia de dicho proceso en el disco, y demostramos otro ‘teorema del agujero’, para grandes valores de la ‘intensidad’ del proceso. En la recta estudiamos la probabilidad de un hueco para un proceso que es invariante por translaciones.
95

Optimal Sobolev Embeddings in Spaces with Mixed Norm

Clavero, Nadia F. 20 March 2015 (has links)
Este proyecto hace referencia a estimaciones, en espacios funcionales, que relacionan la norma de una función y la de sus derivadas. Concretamente, nuestro principal objetivo es estudiar las estimaciones clásicas de las inclusiones de Sobolev, probadas por Gagliardo y Nirenberg, para derivadas de orden superior y espacios más generales. En particular, estamos interesados en describir el dominio y el rango óptimos para estas inclusiones entre los espacios invariantes por reordenamiento (r.i.) y espacios de normas mixtas. / This thesis project concerns estimates, in function spaces, that relate the norm of a function and that of its derivatives. Speci.cally, our main purpose is to study the classical Sobolev-type inequalities due to Gagliardo and Nirenberg for higher order derivatives and more general spaces. In particular, we concentrate on seeking the optimal domains and the optimal ranges for these embeddings between rearrangement-invariant spaces (r.i.) and mixed norm spaces.
96

Optimización en estudios de Monte Carlo en Estadística: Aplicaciones al Contraste de Hipótesis

Vegas Lozano, Esteban 13 September 1996 (has links)
El principal resultado es la presentación de una técnica de optimización en estudios de Monte Carlo en Estadística. Se obtiene un estimador de la esperanza de una variable dicotómica (Y), que tiene una varianza menor que el estimador habitual, la frecuencia relativa. Este estimador optimizado se basa en el conocimiento de otra variable dicotómica (de control), C, correlacionada con Y y de esperanza conocida, E(C). La aplicación de esta técnica es sencilla de implementar. En simulación de Monte Carlo en es relativamente frecuente disponer de tales variables de control. Así, por ejemplo, en estudios de simulación de la potencia de un nuevo test no paramétrico se puede utilizar en ocasiones un test paramétrico comparable, de potencia conocida.Se demuestra que este estimador es insesgado y se obtiene la expresión de su varianza. Se estudiaron varios estimadores de esta varianza, escogiendo a uno de ellos como el más adecuado. Además, se estudia el tanto por ciento de reducción de la varianza del nuevo estimador en comparación con el estimador habitual (frecuencia relativa). Se observan unos valores entre un 40% a un 90% según se incremente el valor de la correlación entre la variable de control (C) y la variable de estudio (Y).Para validar los resultados teóricos anteriores e ilustrar la técnica propuesta se realizaron dos estudios de simulación. El primero sirve para obtener una estimación de la potencia de un nuevo test. Mientras que el segundo es un estudio de simulación general sin ninguna finalidad concreta.Se propuso un nuevo test para resolver el problema de Behrens-Fisher, basado en la distancia de Hao, al cual se le aplica la anterior técnica para conocer su potencia y robustez. Se obtiene una potencia y robustez óptimas.Por último, se exponen dos casos reales, dentro del entorno médico-biológico, donde surge el problema de Behrens-Fisher. En ambos estudios, se realiza un análisis crítico ya que las verdaderas probabilidades de error son distintas de las supuestas debido a ignorar probables diferencias entre varianzas. / The main purpose is the presentation of an optimization technique in Monte-Carlo studies in statistics and subsequent study of some statistical properties of the estimator associated with this technique. An estimator of the expectation of a dichotomous variable, Y, with variance less than the most obvious unbiased estimator, relative frequency, is obtained. This new estimator is based on the availability of another dichotomous variable (control), C, correlated with Y and expectation, E(C), which is known. The availability of this control variable is relatively common in Monte-Carlo simulations. So, for example, simulation studies of the power of a new nonparametric test may sometimes use a comparable parametric test, with known power.Moreover, a new test for the Behrens-Fisher problem, based on geodesic distance criteria, is proposed. The power and robustness of this test are estimated through Monte-Carlo simulation using the previous optimization technique.
97

Polígonos de Newton de orden superior y aplicaciones aritméticas

Montes, Jesús 01 September 1999 (has links)
La teoría algebraica de números tiene sus inicios en los trabajos de Kummer sobre la ecuación de Fermat. En los anillos ciclotómicos deja de ser cierto el teorema fundamental de la aritmética: los elementos descomponen en producto de elementos "primos", pero no de manera única. Kummer, en una intuición genial, apuntó que esta dificultad podía salvarse considerando la existencia de números ideales que permitirían recuperar la unicidad en la descomposición en producto de números ideales primos. Estas ideas las culminó Dedekind en 1878 fundando la teoría de ideales tal como la conocemos hoy en día. Los anillos de enteros de los cuerpos de números son dominios de Dedekind, es decir, todo ideal descompone de manera única en producto de ideales primos. No obstante, la teoría de Dedekind no es efectiva. Cuando nos enfrentamos a un problema concreto, como por ejemplo resolver una ecuación diofántica, que exige considerar un cuerpo de números “K”, de anillo de enteros “O”, necesitamos resolver en general dos cuestiones fundamentales: (a) Determinar el tipo de descomposición pO = p(e1/) …… p(e/g) de los primos racionales en “K”. (b) Determinar generadores de los ideales P(1). Usualmente querremos computar estos datos a partir de una ecuación definidora del cuerpo K. Este aspecto efectivo lo cubre parcialmente Dedekind, usando ideas de Kummer, permitiendo resolver las dos cuestiones para todos los primos “p” excepto un número finito. El siguiente paso, extraordinariamente importante tanto desde un punto de vista conceptual como de la efectividad, lo da Rensel, con la introducción de los cuerpos p-ádicos. Esta idea revolucionaria permite "descomponer" los problemas aritméticos globales en una suma de problemas locales, donde se focaliza la atención en los fenómenos que afectan a un primo concreto ”p”. Esta filosofía da como resultado práctico que el problema de la efectividad puede resolverse mediante técnicas locales que comportan esencialmente la factorización de polinomios en cuerpos p-ádicos (que se traduce en la práctica en factorizar módulo una potencia suficientemente alta de p) y la determinación de bases de enteros de órdenes locales. Utilizando distintas variantes de estas ideas se han obtenido diversos algoritmos para hallar la descomposición en producto de ideales primos. Destaquemos los de Pohst-Zassenhaus, Boffgen-Reichert y Buchmann-Lenstra. El objetivo principal de la memoria es el de desarrollar un nuevo algoritmo, basado en la técnica del polígono de Newton. El polígono de Newton se utilizó en el siglo pasado para estudiar las singularidades de curvas planas. En 1907 Bauer reconvirtió la técnica para su aplicación a cuestiones aritméticas; sus propuestas fueron extensamente ampliadas por Ore, quien en una serie de artículos en los años 20, introduce un concepto más general de polígono, el q)(X)-polígono, que permite tratar el caso en que los factores irreducibles de F(X) no son necesariamente lineales. En la terminología clásica, la aplicación estricta del polígono (Bauer-Ore) es conocida como la "segunda aproximación", mientras que la información extra que obtiene Ore de cada lado se bautizó como la "tercera aproximación" (el teorema de Kummer-Dedekind) era la "primera aproximación". Esas aproximaciones han sido mejoradas y generalizadas por distintos autores; por ejemplo, Ore puso en un contexto más general la segunda aproximación inicial de Bauer, ó Montes-Nart refinaron la tercera aproximación. Ahora bien, los autores clásicos ya eran conscientes de que por mucho que se refinaran esas aproximaciones, siempre quedarían polinomios para los cuales todavía no se obtiene la respuesta definitiva. También intuían que debería ser posible introducir aproximaciones de más alto nivel que permitieran resolver la cuestión para cualquier polinomio en un proceso iterativo finito. Ésa es precisamente la cuestión que resolvemos en la memoria con nuestros polígonos de orden superior. Pasamos a describir brevemente el contenido de los distintos capítulos de la memoria. En el capítulo 1 se exponen los principales resultados de Ore sobre el polígono de Newton trasladados al contexto de cuerpos locales. Se distinguen cuatro fases distintas, cada una culminando con un resultado clave que denominamos respectivamente teorema del producto (de carácter instrumental), del polígono (segunda aproximación), del polinomio asociado (tercera aproximación) y del índice. El conjunto de estas fases constituye lo que llamamos el nivel 1 ó orden 1. Cada fase marca los distintos obstáculos que será necesario superar en cada nivel con los polígonos de orden superior. Este es el objetivo del segundo capítulo, que constituye el núcleo principal de la memoria. Dentro del segundo capítulo merecen mención especial las definiciones del polígono y del polinomio asociado en orden r. La definición correcta de "polígono a otro nivel" requiere considerar extensiones adecuadas de la valoración p-ádica al anillo de polinomios, marcadas por datos proporcionados por el polígono de orden anterior. Valoraciones de este tipo fueron introducidas por MacLane también con el propósito de obtener un algoritmo para determinar la descomposición de los primos en cuerpos de números; no obstante, sus métodos no son efectivos. La definición del polinomio asociado en orden r es el obstáculo cuya superación presentó mayores dificultades. En el fondo su construcción se reduce a encontrar "buenos" representantes de ciertas clases residuales módulo las valoraciones que acabamos de mencionar; ahora bien, la elección correcta (es decir, que funcione) de esos representantes pasa por un delicado trabajo con fracciones racionales. Finalmente, el teorema del índice es el resultado clave en el control de la finitud del proceso iterativo. En el tercer capítulo se describe un proceso de obtención de "representantes optimales" , que permiten recoger toda la información posible que se puede obtener a un nivel determinado antes de verse obligado a pasar al nivel superior. Con esta técnica se obtiene una implementación mucho más ágil del algoritmo que la que se obtendría con una aplicación ciega de los resultados del capítulo 2. En el cuarto capítulo se usan las técnicas del capítulo 2 para determinar de manera no algorítmica el discriminante absoluto y el tipo de descomposición de los primos en un cuerpo cuártico arbitrario.
98

The Primitive Function of an Exact Symplectomorphism. Variational principles, Converse KAM Theory and the problems of determination and interpolation

Haro, Àlex 02 October 1998 (has links)
We have divided this thesis in four parts:a) PART I: Exact symplectic geometry (introduction of the problems). This part contains the basic tools of symplectic geometry and outlines the four subjects that we have study along the thesis: the determination problem, the interpolation problem, the variational problem and the breakdown problem.b) PART II: On the standard symplectic manifold (analytical part). We recall the necessary tools to work on R(d) x R(d). That is we perform a coordinate treatment of the results. First of all we relate different kinds of generating functions to the primitive function and later we solve formally the determination problem. Then we introduce different variational principles: for fixed points, periodic orbits and orbital segments. Their invariance under certain kind of transformations of phase space is proved, and we interpret physically such results. Finally we give the basic properties of invariant exact Lagrangian graphs obtaining at last that if our graph is minimizing then its orbits are minimizing.c) PART III: On the cotangent bundle (geometrical part). The first three chapters are similar to the three previous ones with the difference that we do an intrinsic treatment of the results by considering any cotangent bundle. The fourth chapter in this part deals with the solution of the interpolation problem given in analytic set up. d) PART IV: Converse KAM theory (numerical part). The last part deals with the applications to converse Kolmogorv-Arnold-Moser (KAM) theory. First of all we give a small list of different examples that we shall study later. Then we generalize converse KAM theory and we related it to the Lipschitz theory by Birkhoff and Herman. Then we perform our variational Greene method and apply it to different examples. Also we study numerically the Aubry-Mather sets in higher dimensions. After this we apply our methods to the rotational standard map that is a symplectic skew product. Then we give some ideas about the geometrical obstructions for existence of invariant tori showing them with a simple example. We also find some known Birkhoff normal forms using our methods. Finally we explain briefly how our theory can be used for arbitrary Lagrangian foliations. / La present memòria es troba dividida en quatre parts ben diferenciades. La primera conté les eines bàsiques de la geometria simplèctica i planteja els quatre problemes que tractarem al llarg de la memòria: el problema de determinació, el problema d'interpolació, el problema variacional i el problema del trencament de tors invariants. La segona part tracta sobre la varietat simpléctica estàndard, i vindria a ser la part analítica. Aquí hem treballat a R(d) x R(d), és a dir hem fet un tractament coordenat dels resultats. Primer relacionem les funcions generatrius amb la funció primitiva i després resolem formalment el problema de determinación. Tot seguit tractem diferents principis variacionals per als punts fixos per a les òrbites periòdiques i per als segments orbitals. La seva invariància respecte a certs tipus de transformacions de l'espai de fase és demostrada donant una interpretació física. Finalment donem les propietats bàsiques dels grafs Lagrangians invariants, especialment aquella que diu que les òrbites sobre un graf minimitzant són minimitzants.La tercera part abraça el tema del fibrat cotangent, la part geométrica de l'obra. Els tres primers capítols segueixen més o menys la línia dels tres precedents amb la diferéncia fonamental que aquí considerem qualsevol fibrat cotangent. Fem llavors un tractament intrínsec. El quart capítol d'aquesta part està dedicat a resoldre el problema d'interpolació en el cas analític.La quarta i darrera part (que vindria a ser la secció numèrica de la tesi), tracta de les aplicacions a la teoria Kolmogorv, Arnold i Moser (KAM) inversa o del trencament dels tors invariants. Primer donem una llista d'exemples que utilitzarem més endavant. Després generalitzem la teoria KAM inversa i la relacionem amb la teoria Lipschitziana de Birkhoff i Herman. Llavors implementem el nostre criteri de Greene variacional i l'apliquem a diferents exemples. També estudiem els equivalents dels conjunts d'Aubry-Mather en dimensió alta (bé = 4). Després apliquem aquesta metodologia a l'aplicació estàndard rotacional (3D), indicant abans la teoria necessària. Llavors donem algunes idees de com generalitzar els criteris obstruccionals a dimensions altes hi ho mostrem amb un petit exemple. Finalment retrobem algunes formes normals de Birkhoff utilitzant la nostra metodologia basada en la funcióprimitiva i expliquem una mica com es podria considerar la nostra teoria tenint en compte foliacions Lagrangianes arbitràries.
99

Representacions de Galois i corbes el.líptiques

Lario i Loyo, Joan-Carles 17 September 1991 (has links)
El 1987, J.-P. Serre publica la seva conjectura (3.2.4?) sobre representacions de Galois modulars. Com a conseqüència es tindrien, entre d'altres, la conjectura de Shimura-Taniyama-Weil, el darrer teorema de Fermat, ...En aquesta tesi es demostra la conjectura (3.2.4?) per a les representacions associades als punts de p-torsió de les corbes el.líptiques modulars amb reducció additiva potencialment ordinària en p>7.Previament s'establexien uns criteris generals per a la verificació de la conjectura. / En 1987, J.-P. Serre publica su conjetura (3.2.4?) sobre representaciones de Galois modulares. Consecuencia de ella se tendrían: la conjetura de Shimura-Taniyama-Weil, el último teorema de Fermat,...En esta tesis se demuestra la conjetura (3.2.4?) para las representaciones asociadas a los puntos de p-torsión de las curvas elípticas modulares con reducción aditiva potencialmente ordinaria en p>7.Previamente, se establecen unos criterios generales para la verificación de la conjetura.
100

Mesures i probabilitats en estructures ordenades

Congost Iglesias, Maria Assumpta 01 January 1981 (has links)
En una primera part s'estudien els conjunts de mesures que prenen valors en un grup reticualt, per a les quals la T-aditivitat es defineix a partir de l'estructura ordenada. L'estudi realitzat a partir de les propietats reticulars i de convergència en ordre condueix a l'obtenció dels anàlegs dels teromes clàssics de descomposició: el de Jordan, el de Yoshida-Hewih i el de Lebesgue. En una segona part es construeix una integral en relació a una mesura d'aquest tipus, valorada en la part positiva d'un anell reticulat T-condicionalment complet per a funcions que prenen valors en el mateix anell. / En una primera parte son estudiados los conjuntos de medidas que toman valores en un grupo reticulado para las que la T-aditividad se define a partir de la estructura ordenada. El estudio realizado a partir de las propiedades reticulares y de convergencia en orden conduce a la obtención de los análogos de los teoremas clásicos de descomposición: el de Jordan, el de Yosida-Hewih y el de Lebesgue. En una segunda parte se construye una integral respecto a una medida de este tipo, valorada en la parte positiva de un anillo reticulado T-condicionalmente completo para funciones que toman valores en el mismo anillo.

Page generated in 0.0631 seconds