• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

On Personal Storage Systems: Architecture and Design Considerations

Gracia Tinedo, Raúl 17 July 2015 (has links)
Actualment, els usuaris necessiten grans quantitats d’espai d’emmagatzematge remot per guardar la seva informació personal. En aquesta dissertació, estudiarem dues arquitectures emergents de sistemes d’emmagatzematge d’informació personal: els Núvols Personals (centralitzats) i els sistemes d’emmagatzematge social (descentralitzats). A la Part I d'aquesta tesi, contribuïm desvelant l’operació interna d’un Núvol Personal d’escala global, anomenat UbuntuOne (U1), incloent-hi la seva arquitectura, el seu servei de metadades i les interaccions d’emmagatzematge de dades. A més, proporcionem una anàlisi de la part de servidor d’U1 on estudiem la càrrega del sistema, el comportament dels usuaris i el rendiment del seu servei de metadades. També suggerim tota una sèrie de millores potencials al sistema que poden beneficiar sistemes similars. D'altra banda, en aquesta tesi també contribuïm mesurant i analitzant la qualitat de servei (p.e., velocitat, variabilitat) de les transferències sobre les REST APIs oferides pels Núvols Personals. A més, durant aquest estudi, ens hem adonat que aquestes interfícies poden ser objecte d’abús quan són utilitzades sobre els comptes gratuïts que normalment ofereixen aquests serveis. Això ha motivat l’estudi d’aquesta vulnerabilitat, així com de potencials contramesures. A la Part II d'aquesta dissertació, la nostra primera contribució és analitzar la qualitat de servei que els sistemes d’emmagatzematge social poden proporcionar en termes de disponibilitat de dades, velocitat de transferència i balanceig de la càrrega. El nostre interès principal és entendre com fenòmens intrínsecs, com les dinàmiques de connexió dels usuaris o l’estructura de la xarxa social, limiten el rendiment d’aquests sistemes. També proposem nous mecanismes de manegament de dades per millorar aquestes limitacions. Finalment, dissenyem una arquitectura híbrida que combina recursos del Núvol i dels usuaris. Aquesta arquitectura té com a objectiu millorar la qualitat de servei del sistema i deixa als usuaris decidir la quantitat de recursos utilitzats del Núvol, o en altres paraules, és una decisió entre control de les seves dades i rendiment. / Los usuarios cada vez necesitan espacios mayores de almacenamiento en línea para guardar su información personal. Este reto motiva a los investigadores a diseñar y evaluar nuevas infraestructuras de almacenamiento de datos personales. En esta tesis, nos centramos en dos arquitecturas emergentes de almacenamiento de datos personales: las Nubes Personales (centralización) y los sistemas de almacenamiento social (descentralización). Creemos que, pese a su creciente popularidad, estos sistemas requieren de un mayor estudio científico. En la Parte I de esta disertación, examinamos aspectos referentes a la operación interna y el rendimiento de varias Nubes Personales. Concretamente, nuestra primera contribución es desvelar la operación interna e infraestructura de una Nube Personal de gran escala (UbuntuOne, U1). Además, proporcionamos un estudio de la actividad interna de U1 que incluye la carga diaria soportada, el comportamiento de los usuarios y el rendimiento de su sistema de metadatos. También sugerimos mejoras sobre U1 que pueden ser de utilidad en sistemas similares. Por otra parte, en esta tesis medimos y caracterizamos el rendimiento del servicio de REST APIs ofrecido por varias Nubes Personales (velocidad de transferencia, variabilidad, etc.). También demostramos que la combinación de REST APIs sobre cuentas gratuitas de usuario puede dar lugar a abusos por parte de usuarios malintencionados. Esto nos motiva a proponer mecanismos para limitar el impacto de esta vulnerabilidad. En la Parte II de esta tesis, estudiamos la calidad de servicio que pueden ofrecer los sistemas de almacenamiento social en términos de disponibilidad de datos, balanceo de carga y tiempos de transferencia. Nuestro interés principal es entender la manera en que fenómenos intrínsecos, como las dinámicas de conexión de los usuarios o la estructura de su red social, limitan el rendimiento de estos sistemas. También proponemos nuevos mecanismos de gestión de datos para mejorar esas limitaciones. Finalmente, diseñamos y evaluamos una arquitectura híbrida para mejorar la calidad de servicio de los sistemas de almacenamiento social que combina recursos de usuarios y de la Nube. Esta arquitectura permite al usuario decidir su equilibrio entre control de sus datos y rendimiento. / Increasingly, end-users demand larger amounts of online storage space to store their personal information. This challenge motivates researchers to devise novel personal storage infrastructures. In this thesis, we focus on two popular personal storage architectures: Personal Clouds (centralized) and social storage systems (decentralized). In our view, despite their growing popularity among users and researchers, there still remain some critical aspects to address regarding these systems. In the Part I of this dissertation, we examine various aspects of the internal operation and performance of various Personal Clouds. Concretely, we first contribute by unveiling the internal structure of a global-scale Personal Cloud, namely UbuntuOne (U1). Moreover, we provide a back-end analysis of U1 that includes the study of the storage workload, the user behavior and the performance of the U1 metadata store. We also suggest improvements to U1 (storage optimizations, user behavior detection and security) that can also benefit similar systems. From an external viewpoint, we actively measure various Personal Clouds through their REST APIs for characterizing their QoS, such as transfer speed, variability and failure rate. We also demonstrate that combining open APIs and free accounts may lead to abuse by malicious parties, which motivates us to propose countermeasures to limit the impact of abusive applications in this scenario. In the Part II of this thesis, we study the storage QoS of social storage systems in terms of data availability, load balancing and transfer times. Our main interest is to understand the way intrinsic phenomena, such as the dynamics of users and the structure of their social relationships, limit the storage QoS of these systems, as well as to research novel mechanisms to ameliorate these limitations. Finally, we design and evaluate a hybrid architecture to enhance the QoS achieved by a social storage system that combines user resources and cloud storage to let users infer the right balance between user control and QoS.
182

Extending procrustes analysis : building multi-view 2-D models from 3-D human shape samples

Pérez Sala, Xavier 29 April 2015 (has links)
This dissertation formalizes the construction of multi-view 2D shape models from 3D data. We propose several extensions of the well-known Procrustes Analysis (PA) algorithm that allow modeling rigid and non-rigid transformations in an efficient manner. The proposed strategies are successfully tested on faces and human bodies datasets. In human perception applications one can set physical restrictions, such as defining faces and human skeletons as sets of anatomical landmarks or articulated bodies. However, the high variation of facial expressions and human postures from different viewpoints makes problems like face tracking or human pose estimation extremely challenging. The common approach to handle large viewpoint variations is training the models with several labeled images from different viewpoints. However, this approach has several important drawbacks: (1) it is not clear how much it is necessary to enhance the dataset with images from different viewpoints in order to build unbiased 2D models; (2) extending the training set without this evaluation would unnecessarily increase memory and computation requirements to train the models; and (3) obtaining new labeled images from different viewpoints can be a difficult task because of the expensive labeling cost; finally, (4) a non-uniform coverage of the different viewpoints of a person leads to biased 2D models. In this dissertation we propose successive extensions of PA to address these issues. First of all, we introduce Projected Procrustes Analysis (PPA) as a formalization for building multi-view 2D rigid models from 3D datasets. PPA rotates and projects every 3D training shape and builds a multi-view 2D model from this enhanced training set. We also introduce common parameterizations of rotations, as well as mechanisms to uniformly sample the rotation space. We show that uniformly distributed rotations generate unbiased 2D models, while non-uniform rotations lead to models representing some viewpoints better than others. Although PPA has been successful in building multi-view 2D models, it requires an enhanced dataset that increases the computational requirements in space and time. In order to address these PA and PPA drawbacks, we propose Continuous Procrustes Analysis (CPA). CPA extends PPA within a functional analysis framework and constructs multi-view 2D rigid models in an efficient way through integrating all possible rotations in a given domain. We show that CPA models are inherently unbiased because of their integral formulation. However, CPA is not able to capture non-rigid deformations from the dataset. Next, in order to efficiently compute multi-view 2D deformable models from 3D data, we introduce Subspace Procrustes Analysis (SPA). By adding a subspace in the PA formulation, SPA is able to model non-rigid deformations, as well as rigid 3D transformations of the training set. We developed a discrete (DSPA) and continuous (CSPA) formulation to provide a better understanding of the problem, where DSPA samples and CSPA integrates the 3D rotation space. Finally, we illustrate the benefits of our multi-view 2D deformable models in the task of human pose estimation. We first reformulate the problem as feature selection by subspace matching, and propose an efficient approach for this task. Our method is much more efficient than the state-of-the-art feature selection by subspace matching approaches, and it is able to handle larger number of outliers. Next, we show that our multi-view 2D deformable models, combined with the subspace matching method, outperform state-of-the-art methods of human pose estimation. Our approach is more accurate in the joint positions and limb lengths because we use unbiased 2D models trained on 3D Motion Capture datasets. Our models are not biased to any particular point of view and they can successfully reconstruct different non-rigid deformations and viewpoints. Moreover, they are efficient in both learning and test times. / En esta tesis se formaliza la construcción de modelos multivista 2D a partir de datos 3D, a través de varias extensiones del conocido método Procrustes Analysis (PA). Las extensiones propuestas permiten modelar transformaciones rígidas y no rígidas eficientemente, y se han puesto a prueba en bases de datos de caras y cuerpos humanos. Las aplicaciones donde se perciben humanos permiten establecer restricciones físicas, tales como definir caras y esqueletos como conjuntos de puntos anatómicos. Sin embargo, la gran variación que sufren las expresiones faciales y las posturas humanas desde distintos puntos de vista convierten problemas como el seguimiento de caras o la estimación de la postura humana en retos extremadamente complejos. El planteamiento habitual para gestionar grandes variaciones de punto de vista consiste en entrenar los modelos con imágenes etiquetadas tomadas con distintas orientaciones. Sin embargo, este enfoque sufre importantes inconvenientes: (1) no queda claro cuántas imágenes adicionales con distintas orientaciones son necesarias con tal de construir modelos 2D no sesgados por ningún punto de vista; (2) extender el conjunto de datos de entrenamiento sin esta evaluación incrementaría innecesariamente el coste computacional en tiempo y en memoria; (3) obtener nuevas imágenes etiquetadas con distintas orientaciones puede tratarse de una tarea compleja debido al elevado coste del etiquetado manual; finalmente, (4) no cubrir uniformemente los distintos puntos de vista de una persona conduce a modelos sesgados. En esta tesis se proponen sucesivas extensiones de PA para hacer frente a estos problemas. Primero, proponemos Projected Procrustes Analysis (PPA) para formalizar la construcción de modelos rígidos multivista 2D a partir de conjuntos de datos 3D. PPA rota y proyecta cada objeto 3D y construye un modelo 2D a partir de este conjunto de datos enriquecido. También mostramos como rotaciones uniformemente distribuidas generan modelos 2D no sesgados, mientras rotaciones no uniformes conducen a modelos que representan algunos puntos de vista mejor que otros. Aunque PPA construye modelos multivista 2D, necesita un conjunto de entrenamiento enriquecido que incrementa los requisitos computacionales. Para solventar este problema de PA y PPA, proponemos Continuous Procrustes Analysis (CPA). CPA extiende PPA en un marco de análisis funcional y construye modelos rígidos multivista 2D de un modo eficiente, integrando todas las posibles rotaciones en un dominio dado. Mostramos como los modelos generados con CPA son inherentemente no sesgados debido a la formulación integral. Sin embargo, CPA no captura las deformaciones no rígidas de los datos. En consecuencia, proponemos Subspace Procrustes Analysis (SPA) con el objetivo de construir modelos deformables multivista 2D de un modo eficiente a partir de datos 3D. Añadiendo un subespacio a la formulación de PA, SPA es capaz de modelar deformaciones no rígidas, así como transformaciones 3D de los datos. Desarrollamos una formulación discreta (DSPA) y otra continua (CSPA), donde DSPA muestrea y CSPA integra el espacio de rotaciones 3D. Finalmente, ilustramos las ventajas de nuestros modelos deformables multivista 2D en la tarea de estimar la postura humana. Primero reformulamos el problema como una selección de características por subespacio coincidente y proponemos un método para resolver esta tarea eficientemente. Después, mostramos como nuestros modelos multivista 2D, combinados con la selección de características por subespacio coincidente, mejoran el estado del arte de estimación de la pose humana. Nuestro método es más preciso en la posición de las articulaciones y la longitud de las extremidades por el uso de modelos multivista 2D entrenados en bases de datos de captura de movimiento 3D. Nuestros modelos no están sesgados por punto de vista y pueden reconstruir deformaciones rígidas y no rígidas. Además, estos modelos son eficientes tanto en su construcción como en su uso
183

Language learning with correction queries

Tirnauca, Cristina 09 January 2009 (has links)
In the field of grammatical inference, the goal of any learning algorithm is to identify a target concept from a given class by having access to a specific type of information. The main learning settings are Gold's model of learning in the limit and Angluin's query learning. This dissertation is primarily concerned with the second approach.We thoroughly investigate a recently introduced, linguistic motivated, type of query called Correction Query (CQ). We consider three possible definitions, and for each of them we give necessary and sufficient conditions for a language class to be learnable with these types of queries. Furthermore, we compare the model of learning with CQs with other well-known Gold-style and query learning models when no efficiency constraints are imposed. Results are also obtained for the restricted version of the model of learning with CQs in polynomial time. Additionally, we discuss the learnability of deterministic finite automata (DFAs) with correction and equivalence queries. We design several learning algorithms and we present a comparison between our algorithms and the standard algorithm for learning DFAs with membership and equivalence queries. These results are furthermore extended from string languages to tree languages. / Dentro del ámbito de la inferencia gramatical, el objetivo de cualquier algoritmo de aprendizaje consiste en identificar un concepto de una clase dada, teniendo acceso a un tipo específico de información. Los dos modelos de aprendizaje principales son: el modelo de aprendizaje en el límite propuesto por Gold y el modelo de aprendizaje a partir de preguntas de Angluin. Esta tesis se centra fundamentalmente en el segundo tipo de aprendizaje. En esta tesis doctoral investigamos a fondo un tipo de preguntas introducidas recientemente, por motivos lingüísticos, denominada PREGUNTA DE CORRECCIÓN. Nosotros consideramos tres posibles definiciones, y para cada uno de ellos presentamos condiciones necesarias y suficientes para que una clase de lenguajes sea identificable con estos tipos de preguntas. Además, comparamos estos tres modelos de aprendizaje a partir de preguntas de corrección con otros modelos de aprendizaje, en el caso general (sin ninguna restricción de tiempo) y también imponiendo que los algoritmos sean polinómicos.Además, investigamos el aprendizaje de autómata finitos deterministas (AFD) con preguntas de corrección y equivalencia. Diseñamos varios algoritmos de aprendizaje y presentamos una comparación entre nuestros algoritmos y el algoritmo estándar de aprendizaje a partir de preguntas de pertenencia y equivalencia. Estos resultados son, además, extendidos para los lenguajes de árboles.
184

Análisis del uso universitario de plataformas de gestión del aprendizaje. Estudio de caso en la Universitat de València.

Moreno Clari, Paloma 28 April 2009 (has links)
El presente trabajo pretende analizar la evolución de la utilización de un LMS en sus dos primeros años, su etapa de implantación, y sus herramientas más representativas; la influencia que la plataforma ha supuesto en la innovación educativa de la Universitat y en los índices de calidad. Con ello se establecerán futuros mecanismos de evaluación susceptibles de ser utilizados por los servicios de planificación de la Universitat, marcando los aspectos de innovación o del LMS sobre los que incidir para mejorar la calidad educativa. Igualmente, se propondrán modificaciones e incorporaciones que, aprovechando las características de código abierto, adaptabilidad y extensibilidad, deben hacerse sobre la plataforma tecnológica tras los resultados obtenidos. Finalmente, se presentan las metodologías y herramientas para la generalización y automatización del proceso de evaluación de los elementos de una plataforma.El análisis empírico, tras obtener el informe favorable de los órganos con responsabilidad en Protección de Datos, se centra en tres grupos de medidas de resultados para cada uno de los 18 centros que conforman la Universitat de València. Los tres grupos de medidas se refieren, por un lado al uso del Aula Virtual en genérico y de cada una de sus herramientas o módulos. Por otro lado se confrontan con el conjunto los planes de innovación educativa de los centros, y se particulariza en aquellas medidas con mayor proyección. En tercer lugar, se analiza el comportamiento en el conjunto de centros, de los índices de financiación ligada a objetivos para la Universitat de València. Una vez realizado el estudio de estos tres conjuntos de variables descriptivamente y también agrupados por campus, se elaboran medidas complejas de resumen, que contemplen la información útil no solapada de las diferentes variables de cada grupo, aquéllas con mejor comportamiento en términos psicométricos. Seguidamente, se explora el análisis de relación entre variables de los diferentes grupos, pretendiendo obtener información útil sobre cómo se relacionan los tres ejes motores del acercamiento a la convergencia hacia el EEES, con la mejora de los procesos de enseñanza-aprendizaje y conseguir así un modelo que permita generalizar el procedimiento seguido al evaluar la plataforma de la Universitat de València a universidades en procesos de implantación semejantes. Se presenta el diseño de la investigación, los análisis que la componen, y se definen todas las variables contempladas en los análisis que se presentan en los resultados; y se expone la metodología empleada para la informatización, y automatización del proceso.Los resultados recogen los descriptivos de utilización del LMS, objeto del estudio de caso, y la generación de indicadores complejos de resumen de las áreas de interés. Igualmente se recogen los resultados del estudio de asociación entre bloques y la búsqueda de ecuaciones predictivas de las variables de interés. Se compara de forma resumida los resultados de uso de Aula Virtual y los de la plataforma de la Universidad Galileo de Guatemala. La Universidad Galileo tiene unas dimensiones semejantes a la UV, y los resultados son comparables al utilizar ambas, como plataforma virtual, una personalización de la misma tecnología: .LRN.Además se ha automatizado el proceso de estudio para un programa de análisis estadístico particular, en este caso aquél para el que tiene licencia la Universitat de València, spss. De este modo, los análisis podrán realizarse de manera automática y se presentarán al usuario los resultados. Se expondrá igualmente la parte de tales análisis automatizados. Finalmente se exponen las conclusiones generales, aportaciones, y líneas futuras de trabajo, entre las que destaca completar el resto de la automatización y desarrollo informático planteándose las bases para ello. / The advent of the Internet has opened a scope for research in new methods and tools that may facilitate the teaching and learning processes. This has, in turn, led to the development of learning platforms to support teaching and learning activities. The market penetration of these has been such that nowadays most universities provide their academic community with some form of a learning management system (LMS).Although a lot of effort has been put into deploying these platforms, the usage statistics that they generally provide are not generally processed to optimize their use within a specific context or institution (or confronted with quality or innovation indexes to produce useful feedback information). This study proposes a methodology for data analysis. Also, it is applied to the particular case of the University of Valencia (Spain). Besides, it is described a computer implementation that facilitates the application of this methodology to any other existing LMS which provides usage statistics.
185

Referència de tensió compensada en temperatura i de resposta adaptativa a la variació de la tensió d'alimentació per a interfícies de sensors capacitius en sistemes de conversió freqüencial

Aragonés Ortiz, Raúl 26 September 2012 (has links)
Les tècniques d'adquisició de senyal a nivell freqüencial ofereixen unes prestacions que són especialment adequades en la construcció de sistemes per a l’adquisició de senyal i pre-procés (ROICs) de dades en sistemes basats en sensors. En particular, en la construcció de sistemes amb sensors sense condicionament i en sensors capacitius, les tècniques d'adquisició de senyal basades en convertidors de capacitat a freqüència (CtoF) i de freqüència a codi binari (Fto#) presenten un millor rendiment en temps real i unes millors característiques electròniques en comparació amb els tradicionals convertidors analògic-digitals. Per les característiques que presenten els senyals freqüencials, aquestes tècniques estan especialment indicades en aplicacions que treballen en ambients sorollosos, donat que permeten gaudir d’un rang d’entrada més elevat, proporcionant una multiplexació fàcil en sistemes d'adquisició multicanal, alhora que mantenen excel·lents precisions, consums reduïts i baixos costos de disseny. El treball Referència de tensió compensada en temperatura i de resposta adaptativa a la variació de la tensió d’alimentació per a interfícies de sensors capacitius en sistemes de conversió freqüencial introdueix millores en l’aplicació de tècniques clàssiques Fto# i presenta el disseny d’un circuit CtoF que millora les prestacions dels circuits d’adquisició de senyal de característiques similars presentats en la literatura. El circuit CtoF està compost per la unió d’un oscil·lador de relaxació més un circuit de referència en voltatge o bandgap: - L’oscil·lador de relaxació de baix consum està dissenyat per treballar en aplicacions de baixa freqüència (fins a uns pocs MHz) i mostra un bon marge de soroll de fase (-103,3 dBc/Hz a 612KHz), amb una baixa dependència a les variacions de la tensió d’alimentació. - El circuit bandgap dissenyat millora les prestacions de bandgaps similars presentats en la literatura. Té un consum d'energia baix (26μA), un bon PSRR (-49dB a 10MHz) i una molt baixa dependència a variacions de la temperatura (només 16 ppm/ºC). El disseny particular d’aquest bandgap mostra una dependència amb la tensió d’alimentació específicament calculada per a ser acoblat a l’oscil·lador de relaxació. - La unió del bandgap i de l’oscil·lador de relaxació conformen el CtoF final. Respecte a l’aïllament del CtoF les variacions de la tensió d’alimentació, cal notar que una variació del 20% de VDD, provoca una variació de només el 0,67% en la freqüència de sortida, mostrant el millor resultat de la literatura. El circuit CtoF s’ha integrat en un ROIC. La verificació final del circuit mostra que les millores introduïdes (en relació a resultats presentats en la literatura) en quan a rang de capacitats d'entrada, compensació de la temperatura, consum d'energia i PSRR, es deuen en gran mesura a l’acoblament del nou circuit de referència en voltatge amb l’oscil·lador de relaxació. / The characteristics provided by frequency signal acquisition techniques are particularly suitable for read-out integrated circuits (ROICs) in sensor-based systems. In particular, in the construction of systems with not conditioned sensors and capacitive sensors, signal acquisition techniques based on capacitance-to-frequency converters (CtoF) and frequency-to-code converters (Fto#) show better real-time performance and better electronic characteristics when compared to traditional analog-digital converters techniques. These techniques present good frequency signal features: high input ranges, can built multiplexed multichannel acquisition systems, have excellent precision, low consumption and low cost design. It is for this that they are specially adequate to work in noisy environments. This work entitled Reference voltage and temperature compensated with adaptive response to power supply changes for capacitive sensors interfaces in frequency conversion systems introduces improvements in the application of classical Fto# techniques and presents the design of a CtoF circuit that improves the signal acquisition circuits performances shown by similar works presented in the literature. The CtoF design consists of two circuits: a relaxation oscillator circuit and a bandgap reference voltage: • The low power relaxation oscillator is designed to work in low frequency applications (up to a few MHz) and shows a good phase noise margin (-103.3 dBc / Hz at 612KHz), with a low dependence on power supply variations. • The designed bandgap circuit improves the performance of similar bandgaps presented in the literature. It has a low power consumption (26μA), good PSRR (-49dB at 10 MHz) and a low dependence on temperature variations (only 16 ppm/°C). The design of this particular bandgap allows compensating the power supply dependence of the low power relaxation oscillator. • The union of the bandgap circuit and the relaxation oscillator makes the final CtoF. Regarding the dependence of CtoF to power supply variations, it is stated that a variation of 20% of VDD causes a variation of only 0.67% in the output frequency, showing the best result in the literature. The CtoF circuit has been integrated into a ROIC. The final verification of the circuit shows that the improvements (in comparison to results presented in the literature) in input range, temperature compensation, PSRR and power consumption are due to the coupling of the new bandgap with the relaxation oscillator.
186

Parallel algorithms for computational fluid dynamics on unstructured meshes

Borrell Pol, Ricard 31 October 2012 (has links)
La simulació numèrica directa (DNS) de fluxos complexes és actualment una utopia per la majoria d'aplicacions industrials ja que els requeriments computacionals son massa elevats. Donat un flux, la diferència entre els recursos computacionals necessaris i els disponibles és cobreix mitjançant la modelització/simplificació d'alguns termes de les equacions originals que regeixen el seu comportament. El creixement continuat dels recursos computacionals disponibles, principalment en forma de super-ordinadors, contribueix a reduir la part del flux que és necessari aproximar. De totes maneres, obtenir la eficiència esperada dels nous super-ordinadors no és una tasca senzilla i, per aquest motiu, part de la recerca en el camp de la Mecànica de Fluids Computacional es centra en aquest objectiu. En aquest sentit, algunes contribucions s'han presentat en el marc d'aquesta tesis. El primer objectiu va ser el desenvolupament d'un codi de CFD de propòsit general i paral·lel, basat en la metodologia de volums finits en malles no estructurades, per resoldre problemes de multi-física. Aquest codi, anomenat TermoFluids (TF), té un disseny orientat a objectes i pensat per ser usat de forma altament eficient en els super-ordinadors actuals. Amb el temps, ha esdevingut pel grup una eina fonamental en projectes tant de recerca bàsica com d'interès industrial. En el context d'aquesta tesis, el treball s'ha focalitzat en el desenvolupament de dos de les llibreries més bàsiques de TermoFluids: i) La Basics Objects Library (BOL), que es una plataforma de software sobre la qual estan programades la resta de llibreries del codi, i que conté els mètodes algebraics i geomètrics fonamentals per la implementació paral·lela dels algoritmes de discretització, ii) la Linear Solvers Library (LSL), que conté un gran nombre de mètodes per resoldre els sistemes d'equacions lineals derivats de les discretitzacions. El primer capítol d'aquesta tesi conté les principals idees subjacents al disseny i la implementació de la BOL i la LSL, juntament amb alguns exemples i algunes aplicacions industrials. En els capítols posteriors hi ha una explicació detallada de solvers específics per algunes aplicacions concretes. En el segon capítol, es presenta un solver paral·lel i directe per la resolució de l'equació de Poisson per casos en els quals una de les direccions del domini té condicions d'homogeneïtat. En la simulació de fluxos incompressibles, l'equació de Poisson es resol almenys una vegada en cada pas de temps, convertint-se en una de les parts més costoses i difícils de paral·lelitzar del codi. El mètode que proposem és una combinació d'una descomposició directa de Schur (DDS) i una diagonalització de Fourier. La darrera descompon el sistema original en un conjunt de sub-sistemes 2D independents que es resolen mitjançant l'algorisme DDS. Atès que no s'imposen restriccions a les direccions no periòdiques del domini, aquest mètode és aplicable a la resolució de problemes discretitzats mitjançat l'extrusió de malles 2D no estructurades. L'escalabilitat d'aquest mètode ha estat provada amb èxit amb un màxim de 8192 CPU per malles de fins a ~10⁹ volums de control. En el darrer capitol capítol, es presenta un mètode de resolució per l'equació de Transport de Boltzmann (BTE). La estratègia emprada es basa en el mètode d'Ordenades Discretes i pot ser aplicat en discretitzacions no estructurades. El flux per a cada ordenada angular es resol amb un mètode de substitució equivalent a la resolució d'un sistema lineal triangular. La naturalesa seqüencial d'aquest procés fa de la paral·lelització de l'algoritme el principal repte. Diversos algorismes de substitució han estat analitzats, esdevenint una de les heurístiques proposades la millor opció en totes les situacions analitzades, amb excel·lents resultats. Els testos d'eficiència paral·lela s'han realitzat usant fins a 2560 CPU. / Direct Numerical Simulation (DNS) of complex flows is currently an utopia for most of industrial applications because computational requirements are too high. For a given flow, the gap between the required and the available computing resources is covered by modeling/simplifying of some terms of the original equations. On the other hand, the continuous growth of the computing power of modern supercomputers contributes to reduce this gap, reducing hence the unresolved physics that need to be attempted with approximated models. This growth, widely relies on parallel computing technologies. However, getting the expected performance from new complex computing systems is becoming more and more difficult, and therefore part of the CFD research is focused on this goal. Regarding to it, some contributions are presented in this thesis. The first objective was to contribute to the development of a general purpose multi-physics CFD code. referred to as TermoFluids (TF). TF is programmed following the object oriented paradigm and designed to run in modern parallel computing systems. It is also intensively involved in many different projects ranging from basic research to industry applications. Besides, one of the strengths of TF is its good parallel performance demonstrated in several supercomputers. In the context of this thesis, the work was focused on the development of two of the most basic libraries that compose TF: I) the Basic Objects Library (BOL), which is a parallel unstructured CFD application programming interface, on the top of which the rest of libraries that compose TF are written, ii) the Linear Solvers Library (LSL) containing many different algorithms to solve the linear systems arising from the discretization of the equations. The first chapter of this thesis contains the main ideas underlying the design and the implementation of the BOL and LSL libraries, together with some examples and some industrial applications. A detailed description of some application-specific linear solvers included in the LSL is carried out in the following chapters. In the second chapter, a parallel direct Poisson solver restricted to problems with one uniform periodic direction is presented. The Poisson equation is solved, at least, once per time-step when modeling incompressible flows, becoming one of the most time consuming and difficult to parallelize parts of the code. The solver here proposed is a combination of a direct Schur-complement based decomposition (DSD) and a Fourier diagonalization. The latter decomposes the original system into a set of mutually independent 2D sub-systems which are solved by means of the DSD algorithm. Since no restrictions are imposed in the non-periodic directions, the overall algorithm is well-suited for solving problems discretized on extruded 2D unstructured meshes. The scalability of the solver has been successfully tested using up to 8192 CPU cores for meshes with up to 10 9 grid points. In the last chapter, a solver for the Boltzmann Transport Equation (BTE) is presented. It can be used to solve radiation phenomena interacting with flows. The solver is based on the Discrete Ordinates Method and can be applied to unstructured discretizations. The flux for each angular ordinate is swept across the computational grid, within a source iteration loop that accounts for the coupling between the different ordinates. The sequential nature of the sweep process makes the parallelization of the overall algorithm the most challenging aspect. Several parallel sweep algorithms, which represent different options of interleaving communications and calculations, are analyzed. One of the heuristics proposed consistently stands out as the best option in all the situations analyzed. With this algorithm, good scalability results have been achieved regarding both weak and strong speedup tests with up to 2560 CPUs.
187

Visualization of Affect in Faces based on Context Appraisal

Arellano Tavara, Diana Di Lorenza 04 May 2012 (has links)
Virtual Characters are more than avatars capable of expressing emotions and interact with the users. Virtual Characters should be seen as a very reliable representation of a human being, capable of expressing all the possible affective traits after the appraisal and evaluation of what is happening around and inside them. They should feel and express what they are feeling; they should convince you they are “real”. To achieve this level of believability several researchers have proposed different computational and affective models, as well as graphical techniques to simulate expressions, gestures, behavior or voice. All this state of art has provided us with sufficient data and information to see what else needs to be done. As a result, we propose a contextual and affective framework that allows the generation of the context that surrounds the character as well as the simulation of its psychological characteristics like preferences, standards, personality, or admiration for other agents. Moreover, the framework proposes novel and implementation independent techniques for the visualization of emotions and mood. Through experimentation we come up with a set of head-position/eye-gaze configurations that are perceived as certain personality traits, we validate the generation of expressions for moods, and assessed the feasibility of the context generation through movie scenes, which translated into our system, triggered the same emotions and elicit the same facial expressions as in the movie. This research is a step forward in the creation of more believable virtual characters, by pointing out other elements that should be considered when creating characters that can be used in affective HCI applications, storytelling, or virtual worlds for entertainment (e.g. Videogames) or for therapies (e.g. in therapies with autistic children). / Hablar de personajes virtuales implica hablar de mucho más que avatares capaces de expresar emociones e interactuar con los usuarios. Los personajes virtuales deberían ser vistos como una representación fidedigna de los seres humanos, capaces de expresar un amplio rango de rasgos afectivos después de haber analizado y evaluado qué ocurre fuera y dentro de ellos. Deben sentir y expresar lo que sienten de tal forma que logren convencer que son reales. Para alcanzar este nivel de credibilidad gran cantidad de investigadores han propuesto diferentes modelos afectivos y computacionales, así como técnicas en gráficos para simular expresiones, gestos, comportamientos y voz. Todo este trabajo previo nos ha permitido obtener suficientes datos para analizar qué más se puede hacer en esta área. Como resultado, proponemos una metodología que permite la generación automática del contexto que rodea al personaje, así como la simulación de sus características psicológicas como preferencias, estándares, personalidad, o admiración por otros agentes. Más aún, se presentan novedosos algoritmos independientes de la implementación para la visualización de emociones y humor. Mediante experimentos y test que miden el grado de percepción en los usuarios asociamos un conjunto de configuraciones “orientación de la cabeza/dirección de la mirada” a rasgos de personalidad, y validamos el método para generar expresiones de humor. También evaluamos la habilidad de la generación de contexto usando escenas de películas, obteniendo el mismo set de emociones y expresiones faciales que en dichas películas. Finalmente, cabe destacar que este trabajo de investigación es un paso hacia adelante en la creación de personajes más creíbles, ya que indica qué elementos deberían tomarse en cuenta al momento de crear personajes virtuales que puedan ser usados en aplicaciones Interacción persona-ordenador, cuentacuentos, o mundos virtuales destinados al entretenimiento (videojuegos) o fines médicos (terapias con niños autistas)
188

Machine learning methods for the analysis of liquid chromatography-mass spectrometry datasets in metabolomics

Fernández Albert, Francesc 30 October 2014 (has links)
Tesi per compendi de publicacions / Liquid Chromatography-Mass Spectrometry (LC/MS) instruments are widely used in Metabolomics. To analyse their output, it is necessary to use computational tools and algorithms to extract meaningful biological information. The main goal of this thesis is to provide with new computational methods and tools to process and analyse LC/MS datasets in a metabolomic context. A total of 4 tools and methods were developed in the context of this thesis. First, it was developed a new method to correct possible non-linear drift effects in the retention time of the LC/MS data in Metabolomics, and it was coded as an R package called HCor. This method takes advantage of the retention time drift correlation found in typical LC/MS data, in which there are chromatographic regions in which their retention time drift is consistently different than other regions. Our method makes the hypothesis that this correlation structure is monotonous in the retention time and fits a non-linear model to remove the unwanted drift from the dataset. This method was found to perform especially well on datasets suffering from large drift effects when compared to other state-of-the art algorithms. Second, it was implemented and developed a new method to solve known issues of peak intensity drifts in metabolomics datasets. This method is based on a two-step approach in which are corrected possible intensity drift effects by modelling the drift and then the data is normalised using the median of the resulting dataset. The drift was modelled using a Common Principal Components Analysis decomposition on the Quality Control classes and taking one, two or three Common Principal Components to model the drift space. This method was compared to four other drift correction and normalisation methods. The two-step method was shown to perform a better intensity drift removal than all the other methods. All the tested methods including the two-step method were coded as an R package called intCor and it is publicly available. Third, a new processing step in the LC/MS data analysis workflow was proposed. In general, when LC/MS instruments are used in a metabolomic context, a metabolite may give a set of peaks as an output. However, the general approach is to consider each peak as a variable in the machine learning algorithms and statistical tests despite the important correlation structure found between those peaks coming from the same source metabolite. It was developed an strategy called peak aggregation techniques, that allow to extract a measure for each metabolite considering the intensity values of the peaks coming from this metabolite across the samples in study. If the peak aggregation techniques are applied on each metabolite, the result is a transformed dataset in which the variables are no longer the peaks but the metabolites. 4 different peak aggregation techniques were defined and, running a repeated random sub-sampling cross-validation stage, it was shown that the predictive power of the data was improved when the peak aggregation techniques were used regardless of the technique used. Fourth, a computational tool to perform end-to-end analysis called MAIT was developed and coded under the R environment. The MAIT package is highly modular and programmable which ease replacing existing modules for user-created modules and allow the users to perform their personalised LC/MS data analysis workflows. By default, MAIT takes the raw output files from an LC/MS instrument as an input and, by applying a set of functions, gives a metabolite identification table as a result. It also gives a set of figures and tables to allow for a detailed analysis of the metabolomic data. MAIT even accepts external peak data as an input. Therefore, the user can insert peak table obtained by any other available tool and MAIT can still perform all its other capabilities on this dataset like a classification or mining the Human Metabolome Dataset which is included in the package.
189

Decomposition techniques for computational limit analysis

Rabiei, Nima 27 October 2014 (has links)
Limit analysis is relevant in many practical engineering areas such as the design of mechanical structure or the analysis of soil mechanics. The theory of limit analysis assumes a rigid, perfectly-plastic material to model the collapse of a solid that is subjected to a static load distribution. Within this context, the problem of limit analysis is to consider a continuum that is subjected to a fixed force distribution consisting of both volume and surfaces loads. Then the objective is to obtain the maximum multiple of this force distribution that causes the collapse of the body. This multiple is usually called collapse multiplier. This collapse multiplier can be obtained analytically by solving an infinite dimensional nonlinear optimisation problem. Thus the computation of the multiplier requires two steps, the first step is to discretise its corresponding analytical problem by the introduction of finite dimensional spaces and the second step is to solve a nonlinear optimisation problem, which represents the major difficulty and challenge in the numerical solution process. Solving this optimisation problem, which may become very large and computationally expensive in three dimensional problems, is the second important step. Recent techniques have allowed scientists to determine upper and lower bounds of the load factor under which the structure will collapse. Despite the attractiveness of these results, their application to practical examples is still hampered by the size of the resulting optimisation process. Thus a remedy to this is the use of decomposition methods and to parallelise the corresponding optimisation problem. The aim of this work is to present a decomposition technique which can reduce the memory requirements and computational cost of this type of problems. For this purpose, we exploit the important feature of the underlying optimisation problem: the objective function contains one scaler variable. The main contributes of the thesis are, rewriting the constraints of the problem as the intersection of appropriate sets, and proposing efficient algorithmic strategies to iteratively solve the decomposition algorithm. / El análisis en estados límite es una herramienta relente en muchas aplicaciones de la ingeniería como por ejemplo en el análisis de estructuras o en mecánica del suelo. La teoría de estados límite asume un material rígido con plasticidad perfecta para modelar la capacidad portante y los mecanismos de derrumbe de un sólido sometido a una distribución de cargas estáticas. En este contexto, el problema en estados límite considera el continuo sometido a una distribución de cargas, tanto volumétricas como de superficie, y tiene como objetivo hallar el máximo multiplicador de la carga que provoca el derrumbe del cuerpo. Este valor se conoce como el máximo factor de carga, y puede ser calculado resolviendo un problema de optimización no lineal de dimensión infinita. Desde el punto de vista computacional, se requieren pues dos pasos: la discretización del problema analítico mediante el uso de espacios de dimensión finita, y la resolución del problema de optimización resultante. Este último paso representa uno de los mayores retos en el proceso del cálculo del factor de carga. El problema de optimización mencionado puede ser de gran tamaño y con un alto coste computacional, sobretodo en el análisis límite tridimensional. Técnicas recientes han permitido a investigadores e ingenieros determinar cotas superiores e inferiores del factor de carga. A pesar del atractivo de estos resultados, su aplicación práctica en ejemplos realistas está todavía obstaculizada por el tamaño del problema de optimización resultante. Posibles remedios a este obstáculo son el diseño de técnicas de descomposición y la paralelizarían del problema de optimización. El objetivo de este trabajo es presentar una técnica de descomposición que pueda reducir los requerimientos y el coste computacional de este tipo de problemas. Con este propósito, se explotan una propiedad importante del problema de optimización: la función objetivo contiene una único escalar (el factor de carga). La contribución principal de la tesis es el replanteamiento del problema de optimización como la intersección de dos conjuntos, y la propuesta de un algoritmo eficiente para su resolución iterativa.
190

Complexity and modeling power of insertion-deletion systems

Krassovitskiy, Alexander 02 September 2011 (has links)
El objetivo central de la tesis es el estudio de los sistemas de inserción y borrado y su capacidad computacional. Más concretamente, estudiamos algunos modelos de generación de lenguaje que usan operaciones de reescritura de dos cadenas. También consideramos una variante distribuida de los sistemas de inserción y borrado en el sentido de que las reglas se separan entre un número finito de nodos de un grafo. Estos sistemas se denominan sistemas controlados mediante grafo, y aparecen en muchas áreas de la Informática, jugando un papel muy importante en los lenguajes formales, la lingüística y la bio-informática. Estudiamos la decidibilidad/ universalidad de nuestros modelos mediante la variación de los parámetros de tamaño del vector. Concretamente, damos respuesta a la cuestión más importante concerniente a la expresividad de la capacidad computacional: si nuestro modelo es equivalente a una máquina de Turing o no. Abordamos sistemáticamente las cuestiones sobre los tamaños mínimos de los sistemas con y sin control de grafo. / The central object of the thesis are insertion-deletion systems and their computational power. More specifically, we study language generating models that use two string rewriting operations: contextual insertion and contextual deletion, and their extensions. We also consider a distributed variant of insertion-deletion systems in the sense that rules are separated among a finite number of nodes of a graph. Such systems are refereed as graph-controlled systems. These systems appear in many areas of Computer Science and they play an important role in formal languages, linguistics, and bio-informatics. We vary the parameters of the vector of size of insertion-deletion systems and we study decidability/universality of obtained models. More precisely, we answer the most important questions regarding the expressiveness of the computational model: whether our model is Turing equivalent or not. We systematically approach the questions about the minimal sizes of the insertiondeletion systems with and without the graph-control.

Page generated in 0.0885 seconds