• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Estudio teórico y evidencia empírica de la aplicación de la metodología Living Lab en el diseño de sistemas eHealth

Alatriste Martínez, Yadira 04 February 2016 (has links)
In the European Union and some other countries, the Living Labs are innovation areas with diverse elements that foster innovative spaces with the final users. Also, the combination of public and private associations involved: companies, researchers, authorities and citizens work in a joint manner to improve the quality of life of the people, all of this within a real context. From this point of view, this work explores the application of the Living Lab methodology in the design of eHealth systems with the purpose of the users to have a meaningful experience through the use of the system in the treatment of their rehabilitation therapy of spasticity or dysphagia. The meaningful experience of users is achieved with the inclusion of usability principles and perceived utility. The research encompasses a theoretical study which analyses the topics of the domain of Living Labs and a compilation of different ad-­-hoc methodologies.The theoretical study shows that there are few contributions relating eHealth systems set through the Living Lab methodology. The methodological proposal from Ståhlbröst & Holst (2013) to present theTRH LAB system which is a methodology developed to suppor t the par ticipation of the user with a Living Lab approach. In it, the users have influence in future IT solutions with a formative approach.The results obtained in the validation show that the system is usable, useful and it is also adaptable to new health fields.The four focus groups integrated for the study were located in Cataluña and Mexico City. / En la Unión Europea y otros países los Living Labs son entornos de innovación, donde existen diversos elementos que favorecen varios espacios de innovación en conjunto con los usuarios finales. Además la combinación de asociaciones públicas y privadas en las que se encuentran involucradas: empresas, investigadores, autoridades y ciudadanos trabajan de manera adyacente para de mejorar la calidad de vida de las personas, todo ello dentro de un contexto real. Desde ésta perspectiva, este trabajo explora la aplicación de la metodología Living Lab en el diseño de sistemas eHealth con el fin de que los usuarios tengan una experiencia significativa mediante el uso del sistema en el tratamiento de su terapia de rehabilitación de espasticidad ó disfagia. La experiencia significativa de los usuarios es lograda con la inclusión de principios de usabilidad y de utilidad percibida. La investigación engloba un estudio teórico que analiza los temas del mapa de dominio de los Living Labs, además de una compilación de diversas metodologías ad hoc. El estudio teórico denota que son pocas las contribuciones que existen en cuanto a sistemas eHealth planteados mediante una metodología Living Lab. Se retoma la propuesta metodológica hecha por Ståhlbröst & Holst (2013) para plantear el sistemaTRH LAB,es una metodología desarrollada para apoyar la participación del usuario con un enfoque Living Lab, en ella los usuarios tienen influencia en las futuras soluciones de TI con un enfoque formativo. Los resultados obtenidos en la validación demuestran que el sistema es usable, útil y de igual forma tiene la facilidad de adaptación en nuevos entornos de salud. Los cuatro focus groups integrados para el estudio fueron situados en Cataluña y en la Ciudad de México.
162

Code-Centric Domain Isolation : a hardware/software co-design for efficient program isolation

Vilanova García, Lluís 14 January 2016 (has links)
Current software systems contain a multitude of software components: from simple libraries to complex plugins and services. System security and resiliency depends on being able to isolate individual components onto separate domains. Conventional systems impose large performance and programmability overheads when isolating components. Importantly, when performance and isolation are at stake, performance often takes precedence at the expense of security and reliability. These performance and programmability overheads are rooted at the co-evolution of conventional architectures and OSs, which expose isolation in terms of a loose "virtual CPU" model. Operating Systems (OSs) expose isolation domains to users in the form of processes. The OS kernel is isolated from user code by running at a separate privileged level. At the same time, user processes are isolated from each other through the utilization of different page tables. The OS kernel then multiplexes processes across the available physical resources, providing processes the illusion of having a machine for their exclusive use. Given this virtual CPU model, processes interact through interfaces designed for distributed systems, making their programming and performance poorer. The architectural foundations used for building processes impose performance overheads in the excess of 10× and 1000× compared to a function call (for privilege level and page table switches, respectively). Even more, not all overheads can be attributed to the hardware itself, but to the inherent overheads imposed by current OS designs; the OS kernel must mediate cross-process communications through expensive Inter-Process Communication (IPC) operations, which deviate from the traditional synchronous function call semantics. Threads are bound to their creating process, and invoking functionality across processes requires costly OS kernel mediation and application developer involvement to synchronize and exchange information through IPC channels. This thesis proposes a hardware and software co-design that eliminate the overheads of process isolation, while providing a path for gradual adoption for more aggressive optimizations. That is, it allows processes to efficiently call into functions residing on other isolation domains (e.g., processes) without breaking the synchronous function call semantics. On the hardware side, this thesis proposes the CODOMs protection architecture. It provides memory and privilege protection across software components in a way that is at the same time very efficient and very flexible. This hardware substrate is then used to propose DomOS, a set of changes to the OS at the runtime and kernel layers to allow threads to efficiently and securely cross process boundaries using regular function calls. That is, a thread in one process is allowed to call into a function residing in another process without involving the OS in the critical communication path. This is achieved by mapping processes into a shared address space and eliminating IPC overheads through a combination of new hardware primitives and compile-time and run-time optimizations. IPC in DomOS is up to 24× times faster than Linux pipes, and up to 14× times faster than IPC in L4 Fiasco.OC. When applied to a multi-tier web server, DomOS performs up to 2.18× better than an unmodified Linux system, and 1.32× on average. On all configurations, DomOS provides more than 85% of the ideal system efficiency. / Els sistemes software d'avui en dia contenen una multitud de components software: des de simples llibreries fins a plugins o serveis complexos. La seguretat i fiabilitat d'aquests sistemes depèn de ser capaç d'aïllar cadascun d'aquests components en un domini a part. L'aïllament en els sistemes convencionals imposa grans costos tant en el rendiment com en la programabilitat del sistema. És més, tots els sistemes solen donar prioritat al rendiment sobre qualsevol altre consideració, degradant la seguretat i fiabilitat del sistema. Aquests costos en rendiment i programabilitat són deguts a la co-evolució de les arquitectures i Sistemes Operatius (SOs) convencionals, que exposen l'aïllament en termes d'un model de "CPUs virtuals". Els SOs encarnen aquest model a través dels processos que proprcionen. El SO s'aïlla del codi d'usuari a través d'un nivell de privilegi separat. Al mateix temps, els processos d'usuari estan aïllats els uns dels altres al utilitzar taules de pàgines separades. El nucli del SO multiplexa aquests processos entre els diferents recursos físics del sistema, proporcionant-los la il·lusió d'estar executant-se en una màquina per al seu ús exclusiu. Donat aquest model, els processos interactuen a través d'interfícies que han estat dissenyades per a sistemes distribuïts, empitjorant-ne la programabilitat i rendiment. Els elements de l'arquitectura que s'utilitzen per a construïr processos imposen costos en el rendiment que superen el 10x i 1000x en comparació amb una simple crida a funció (en el cas de nivells de privilegi i canvis de taula de pàgina, respectivament). És més, part d'aquests costos no vénen donats per l'arquitectura, sinó pels costos inherents al disseny dels SOs actuals. El nucli del SO actua com a mitjancer en la comunicació entre processos a través de primitives conegudes com a IPC. El IPC no és només costós en termes de rendiment, sinó que a més a més es desvia de les semàntiques tradicionals de crida síncrona de funcions. Tot "thread" està lligat al procés que el crea, i la invocació de funcionalitat entre processos requereix de la costosa mediació del SO i de la participació del programador a l'hora de sincronitzar "threads" i intercanviar informacio a través dels canals d'IPC. Aquesta tesi proposa un co-disseny del programari i del maquinari que elimina els costos de l'aïllament basat en processos, alhora que proporciona un camí per a l'adopció gradual d'optimitzacions més agressives. És a dir, permet que qualsevol procés faci una simple crida a una funció que està en un altre domini d'aïllament (com ara un altre procés) sense trencar la la semàntica de les crides síncrones a funció. Aquesta tesi proposa l'arquitectura de protecció CODOMs, que proporciona protecció de memòria i privilegis entre components de programari d'una forma que és, alhora, eficient i flexible. Aquest substrat del maquinari és aleshores utilitzat per proposar DomOS, un conjunt de canvis al SO al nivell del "runtime" i del nucli que permeten a qualsevol "thread" fer crides a funció de forma eficient i segura a codi que resideix en d'altres processos. És a dir, que el "thread" d'un procés pot cridar una funció d'un altre procés sense haver de passar pel SO en el seu camí crític. Això s'aconsegueix a través de mapejar tots els processos en un espai d'adreces compartit i d'eliminar tots els costos d'IPC a través d'una combinació de noves primitives en el maquinari i d'optimitzacions en temps de compilació i en temps d'execució. El IPC a DomOS és fins a 24x més ràpid que les pipes a Linux, i fins a 14x més ràpid que el IPC al SO L4 Fiasco.OC. Si s'aplica el sistema a un servidor web multi-capa, DomOS és fins a 2.18x més ràpid que un sistema Linux no modificat, i 1.32x més ràpid de mitjana. En totes les configuracions, DomOS proporciona més del 85% de la eficiència d'un sistema ideal.
163

Proceso de cambio : formalización y valorización con análisis costo-eficiencia en fase inicial para la mejora del proceso de software

Yangüez Cervantes, Nilda 22 January 2016 (has links)
The thesis is located in two (2) key areas of knowledge: The Software Process Improvement (SPI Software Process Improvement) and Process Change (PDC) at Process Software (PDS) r.Aethods of .Analysis and Cost-Efficiency (ACE), both in the light of the theory and practice of software engineering, project management, information systems and some social science disciplines such as Finance and Economy. The thesis focuses on an initial phase of PdC PdS Process Software, at mean, one in which the decision to proceed or not, bring changes in the way of producing software is taken. The stage work of this thesis are SMEs Software. To carry out this research an epistemological, ontological and pragmatic qualitative research approach was used. To perform a work methodology, we grounded theory with content analysis was used depth interviews was applied to different stakeholders with different levels of participation in PdC the PDS. The results were compared and validated with a Case Study of a real company. Finally, the thesis provides a methodological support that integrates organizational models, BO methods of financial analysis for the evaluation of the proposal, BD methods of economic analysis for the assessment of the proposal and guidelines for use. Additionally, and most importantly, ACE models to assess intangible added values, from the economic viewpoint. This thesis can be continuity if the study is expanded to other geographical areas and using mixed methods to extend the results to strengthen the methodological support. / Esta tesis se ubica en dos (2) áreas claves del conocimiento: La Mejora al Proceso de Software (SPI, Software Process lmprovement) como Proceso de Cambio (PdC) al Proceso deSoftware (PdS) y los Métodos de Análisis Costo-Eficiencia (ACE), ambas a la luz de la teoría y práctica de la Ingeniería del Software, la Dirección de Proyectos, los Sistemas de Información y algunas disciplinas de las ciencias sociales como las Finanzas y la Economía. La tesis se enfoca en una fase inicial del PdC al Proceso de Software PdS, es decir, aquella en la que se toma la decisión de llevar a cabo o no, cambios en la forma de producir software. El escenario de trabajo de esta tesis son las PyME de Software. Para llevar adelante esta investigación se utilizó un enfoque epistemológico, ontológico y pragmático de la investigación cualitativa. Para llevar a cabo una metodología de trabajo se utilizó la Teoría Fundamentada con Análisis de Contenido. Se aplicó la entrevsta a profundidad a diferentes interesados con distintos niveles de participación en los PdC al PdS. Los resultados fueron contrastados y validados con un estudio de caso de una empresa real. Finalmente, la tesis aporta un Soporte Metodológico que integra modelos organizacionales, BD con métodos de análsis financiero para la evaluación de la propuesta, BD con métodos de análisis económico para la valoración de la propuesta, y las guías para el uso. Adicionalmente y lo más importante, los modelos de ACE para valorar intangibles-valores añadidos , desde el punto de \Asta económico. Esta tesis puede llevar una continuidad si se expande el estudio a otras áreas geográficas y utilizando métods mixtos que amplíen los resultados para fortalecer el Soporte Metodológico.
164

On some interactive mesh deformations

Cerveró Abelló, M. Àngels (Maria Àngels) 29 January 2016 (has links)
Techniques devoted to deform 3D models are an important research field in Computer Graphics. They can be used in differentstages: the modelling phase, the animation process and also during some special simulations. Additionally, some applications may require the manipulation of 3D models under certain restrictions to preserve the volume of the modified object. Hence, thepresent PhD Dissertation explores new algorithms to perform flexible, robust and efficient 3D deformations. Apart from this, it also researches on a new methodology to restrict these deformations so that the volume of the manipulated model remains constant. Some of the most used methods to achieve smooth deformations are those included in the Cage-Based Deformation paradigm. Cage-based deformations enclose the model to be deformed in a coarse polyhedron, the cage. Then, they usually rely on Generalized Barycentric Coordinates to relate the model with the vertices, and other geometric elements, of this cage, which are the control points or the deformation handles. Finally, every time that one of these handles is dragged, the model is deformed accordingly. Although this paradigm is simple, elegant and performs efficient deformations, some cage-free space deformation techniques have recently appeared. They increase the flexibility of the deformation handles, which do not need to be connected, and define powerful tools that make the deformation process more versatile and intuitive. In this context, the Dissertation introduces new Generalized Barycentric Coordinate systems specially designed to be used in a cage-free environment. Any user who wants to use the presented schemes only needs to locate a set of control points in the vicinity of the model that he or she wants to deform. These handles can be placed wherever he or she considers mode suitable and the only requirement is that the model has to be enclosed in their convex hull. Up to now, there are few techniques to produce volume-preserving space deformations. However, in recent years there has been a growing interest in performing constrained deformations due to their more realistic and physically plausible results. Our contribution to this research line consists in a deformation framework that preserves the volume of the 3D models by means of its gradient and a control surface to restrict the movement of the handles. Moreover, the proposed methodology is not restricted to the cage-based schemes, but it can also be used in a cage-free environment. Finally, our research can be specially useful for spatial deformations of biological and medical models. This kind of models represent real organs and tissues, which are often soft and lack an internal rigid structure. In addition, they are elastic and incompressible. Any application designed to deal with this group of models and to train or assist doctors must be flexible, robust, efficient and user-friendly. The combination of the proposed cage-free systems with the presented volume-preserving deformation framework satisfies / Les deformacions de models 3D s'utilitzen en diverses etapes de la generació de continguts digitals: durant la fase de modelatge, durant el procés d'animació i en alguns tipus de simulacions. A més a més, hi ha aplicacions que necessiten que la manipulació dels models 3D es faci tenint en compte certes restriccions que permeten la conservació del volum de l'objecte modificat. Tot plegat fa que les tècniques de deformació 3D siguin un camp d'estudi molt important dins del món dels Gràfics. Per aquesta raó, aquesta Tesi Doctoral estudia nous algorismes que permetin realitzar deformacions 3D de manera flexible, robusta i eficient i que, a més a més, permetin conservar el volum dels objectes modificats. Un dels paradigmes més utilitzats per tal de realitzar deformacions suaus és el conegut amb el nom de Deformacions Basades en un Poliedre Englobant. Aquesta família de mètodes embolcalla el model que es vol deformar, normalment representat com una malla de triangles, dins d'un poliedre simple, amb poques cares. Un cop fet això, estableix un sistema de Coordenades Baricèntriques Generalitzades per tal de definir els vèrtexs del model a partir dels vèrtexs del poliedre englobant, els quals s'anomenen punts de control o controls de la deformació. D'aquesta manera, cada cop que s'arrossega o es modifica un d'aquests punts de control, el model que es troba dins del poliedre englobant es deforma segons el sistema de coordenades que s'ha definit. Tot i que aquest paradigma és simple, elegant i eficient, des de fa ja uns anys han començat a aparèixer noves tècniques que no necessiten el poliedre englobant per tal de realitzar la deformació. El seu principal objectiu és augmentar la flexibilitat dels controls de la deformació i definir eines que facin que el procés de deformació sigui més versàtil i intuïtiu. Tenint en compte aquest factor, aquesta Tesi també estudia sistemes de Coordenades Baricèntriques Generalitzades dissenyats per realitzar deformacions sense la necessitat de definir el poliedre englobant. D'aquesta manera, qualsevol usuari que vulgui utilitzar els mètodes que es presenten en aquesta Dissertació només s'ha d'encarregar de definir un conjunt de punts de control al voltant del model que vol deformar, podent-los posar allí on consideri més oportú segons la deformació que vulgui obtenir. L'únic requeriment necessari és que el model ha de quedar dins de l'envolupant convexa d'aquests punts de control. Actualment existeixen pocs mètodes que realitzin deformacions 3D amb preservació del volum. No obstant això, d'un temps ençà ha augmentat l'interès per realitzar deformacions subjectes a certes restriccions que fan que el resultat sigui més realista i físicament versemblant. La contribució d'aquesta Tesi dins d'aquesta línia de recerca consisteix en un sistema de deformació que preserva el volum dels objectes 3D gràcies a còmput del seu gradient i a una superfície de control que restringeix el moviment dels punts de control. Aquest mètode es pot aplicar tant als sistemes de deformació que necessiten un poliedre englobant com als que no el necessiten. Finalment, i ja per acabar, la recerca realitzada pot ser especialment útil per tal de realitzar deformacions de models mèdics i biològics. Aquests tipus de models poden representar òrgans i teixits reals, els quals, normalment, són tous, mancats d'una estructura rígida interna, elàstics i incompressibles. Qualsevol aplicació dissenyada per treballar amb aquest tipus de models i per entrenar i donar assistència a usuaris mèdics hauria de ser flexible, robusta, eficient i fàcil d'utilitzar. La combinació dels mètodes de deformació proposats conjuntament amb el sistema de preservació de volum satisfà totes aquestes condicions. Per aquesta raó es creu que les contribucions realitzades poden esdevenir eines importants per produir deformacions mèdiques.
165

Robust interactive simulation of deformable solids with detailed geometry using corotational FEM

Civit Flores, Óscar 01 February 2016 (has links)
This thesis focuses on the interactive simulation of highly detailed deformable solids modelled with the Corotational Finite Element Method. Starting from continuum mechanics we derive the discrete equations of motion and present a simulation scheme with support for user-in-the-loop interaction, geometric constraints and contact treatment. The interplay between accuracy and computational cost is discussed in depth, and practical approximations are analyzed with an emphasis on robustness and efficiency, as required by interactive simulation. The first part of the thesis focuses on deformable material discretization using the Finite Element Method with simplex elements and a corotational linear constitutive model, and presents our contributions to the solution of widely reported robustness problems in case of large stretch deformations and finite element degeneration. First,we introduce a stress differential approximation for quasi-implicit corotational linear FEM that improves its results for large deformations and closely matches the fullyimplicit solution with minor computational overhead. Next, we address the problem ofrobustness and realism in simulations involving element degeneration, and show that existing methods have previously unreported flaws that seriously threaten robustness and physical plausibility in interactive applications. We propose a new continuous-time approach, degeneration-aware polar decomposition, that avoids such flaws and yields robust degeneration recovery. In the second part we focus on geometry representation and contact determination for deformable solids with highly detailed surfaces. Given a high resolution closed surface mesh we automatically build a coarse embedding tetrahedralization and a partitioned representation of the collision geometry in a preprocess. During simulation, our proposed contact determination algorithm finds all intersecting pairs of deformed triangles using a memory-efficient barycentric bounding volume hierarchy, connects them into potentially disjoint intersection curves and performs a topological flood process on the exact intersection surfaces to discover a minimal set of contact points. A novel contact normal definition is used to find contact point correspondences suitable for contact treatment. / Aquesta tesi tracta sobre la simulació interactiva de sòlids deformables amb superfícies detallades, modelats amb el Mètode dels Elements Finits (FEM) Corotacionals. A partir de la mecànica del continuu derivem les equacions del moviment discretes i presentem un esquema de simulació amb suport per a interacció d'usuari, restriccions geomètriques i tractament de contactes. Aprofundim en la interrelació entre precisió i cost de computació, i analitzem aproximacions pràctiques fent èmfasi en la robustesa i l'eficiència necessàries per a la simulació interactiva. La primera part de la tesi es centra en la discretització del material deformable mitjançant el Mètode dels Elements Finits amb elements de tipus s'implex i un model constituent basat en elasticitat linial corotacional, i presenta les nostres contribucions a la solució de problemes de robustesa àmpliament coneguts que apareixen en cas de sobreelongament i degeneració dels elements finits. Primer introduïm una aproximació dels diferencials d'estress per a FEM linial corotacional amb integració quasi-implícita que en millora els resultats per a deformacions grans i s'apropa a la solució implícita amb un baix cost computacional. A continuació tractem el problema de la robustesa i el realisme en simulacions que inclouen degeneració d'elements finits, i mostrem que els mètodes existents presenten inconvenients que posen en perill la robustesa plausibilitat de la simulació en aplicacions interactives. Proposem un enfocament nou basat en temps continuu, la descomposició polar amb coneixement de degeneració, que evita els inconvenients esmentats i permet corregir la degeneració de forma robusta. A la segona part de la tesi ens centrem en la representació de geometria i la determinació de contactes per a sòlids deformables amb superfícies detallades. A partir d'una malla de superfície tancada construím una tetraedralització englobant de forma automàtica en un preprocés, i particionem la geometria de colisió. Proposem un algorisme de detecció de contactes que troba tots els parells de triangles deformats que intersecten mitjançant una jerarquia de volums englobants en coordenades baricèntriques, els connecta en corbes d'intersecció potencialment disjuntes i realitza un procés d'inundació topològica sobre les superfícies d'intersecció exactes per tal de descobrir un conjunt mínim de punts de contacte. Usem una definició nova de la normal de contacte per tal de calcular correspondències entre punts de contacte útils per al seu tractament.
166

A semantic description model for the development and evaluation of personalized learning environments based on distributed systems

Gutiérrez Carreón, Gustavo Alfonso 19 January 2016 (has links)
L'objectiu d'aquesta tesi doctoral és implementar i avaluar Entorns Virtuals d'Aprenentatge (EVA) distribuïts amb el suport de models semàntics per a la descripció de serveis d'aprenentatge i la seva incorporació dins en escenaris d'aprenentatge basats en tecnologies Grid i de Còmput al Núvol. Aquests EVA distribuïts compten amb funcionalitats que permeten la col·laboració i personalització per part dels estudiants, així com demanen un intercanvi coordinat i flexible dels recursos de la xarxa, els quals són recol·lectats de forma dinàmica per individus i institucions, per als quals s'estableixen mecanismes que permeten el correcte intercanvi de la informació i un control estricte dels recursos a compartir. Els serveis d'aprenentatge són components fonamentals dels EVA distribuïts, representant funcionalitats que poden ser fàcilment reutilitzats sense conèixer els detalls de la forma en què s'han implementat. / El objetivo de esta tesis doctoral es implementar y evaluar Entornos Virtuales de Aprendizaje (EVA) distribuidos con el soporte de modelos semánticos para la descripción de servicios de aprendizaje y su incorporación dentro en escenarios de aprendizaje basados en tecnologías Grid y de Cómputo en la Nube. Estos EVA distribuidos cuentan con funcionalidades que permiten la colaboración y personalización por parte de los estudiantes, así como demandan un intercambio coordinado y flexible de los recursos de la red, los cuales son recolectados de forma dinámica por individuos e instituciones, para los cuales se establecen mecanismos que permiten el correcto intercambio de la información y un control estricto de los recursos a compartir. Los servicios de aprendizaje son componentes fundamentales de los EVA distribuidos, representando funcionalidades que pueden ser fácilmente reutilizados sin conocer los detalles de la forma en que se han implementado. / The objective of this doctoral thesis is to implement and evaluate distributed Virtual Learning Environments (VLEs) supported with semantic models for the description of learning services and their incorporation within learning scenarios based on Grid and Cloud technologies, with features that allow students' personalization and collaboration. These distributed VLEs demand a flexible and coordinated form of sharing network resources, which are dynamically collected by individuals and institutions, and establishing mechanisms for the correct exchange of information and a strict control of the resources to share. Learning services are fundamental components of distributed VLEs representing functions that can be easily reused without knowing the details of how services have been implemented.
167

A computational approach to studying interdependence in string quartet performance

Papiotis, Panagiotis, 1985- 01 February 2016 (has links)
This dissertation proposes a computational data-driven methodology to measure music ensemble interdependence - the degree to which musicians interact and influence each other’s actions in order to achieve a shared goal - using a string quartet ensemble as a case study. Combining elements from multiple disciplines, this methodology involves the acquisition of multimodal performance data under experimental conditions, the extraction of numerical features that describe the performance in terms of distinct musical dimensions (intonation, dynamics, timbre, timing), the computational estimation of interdependence for each performance dimension individually, and the assessment of the capability of listeners to perceive interdependence. Our results show that it is possible to detect interdependence in string quartet performance in different performance dimensions, as well as to compare its relative amount across different recordings and relate the results to the underlying goal of the score. The experimental data have been published online as an open research dataset. / Esta disertación propone una metodología computacional basada en datos para medir la interdependencia entre los intérpretes de un conjunto musical - el grado en que los musicos interactuán e influyen sus acciones para conseguir un objetivo común - utilizando un cuarteto de cuerda como caso de estudio. Esta metodología implica la adquisición de datos multimodales de interpretaciones bajo condiciones experimentales, la extracción de descriptores numéricos que describen la interpretación en términos de distintas dimensiones musicales (entonación, dinámica, timbre, tempo), la estimación computacional de la interdependencia de cada dimensión individualmente y la evaluación de la capacidad de oyentes para percibir la interdependencia. Nuestros resultados muestran que es posible detectar la interdependencia en distintas dimensiones de interpretación, así como comparar su peso relativo a través de distintas grabaciones y relacionar los resultados con el objetivo fundamental de la partitura. Los datos experimentales han sido publicados online en forma de base de datos abierta para la investigación.
168

Modeling performance degradation in OpenMP memory bound applications on multicore multisocket systems

Allande Álvarez, César 18 December 2015 (has links)
L'evolució dels processadors multicore ha canviat completament l'evolució dels actuals sistemes de HPC. Les arquitectures multicore han estat dissenyades principalment per evitar tres barreres de disseny: el paral·lelisme a escala d'instrucció, el consum energètic i la contenció a memòria. La darrera és deguda a la creixent diferència de velocitat entre el processador i la memòria. Les prestacions de les aplicacions intensives a memòria executades en entorns multicore multisocket estan directament relacionades a la utilització dels recursos compartits a la jerarquia de memòria. La utilització dels recursos compartits pot portar a una degradació de les prestacions significativa. L'exploració de diferents configuracions d'afinitat de threads permet la selecció de configuracions que poden arribar a equilibrar la millora de prestacions obtinguda deguda a l'increment del paral·lelisme amb la degradació deguda a la contenció a memòria. Les principals contribucions d'aquesta tesi és la definició d'una metodologia pel desenvolupament d'estratègies de sintonització en entorns multicore multisocket que ha proporcionat la definició de dos models de rendiment per aplicacions intensives a memòria. El primer model de rendiment, basat en una caracterització en temps d'execució, estima el temps d'execució per diferents configuracions de número i distribució de threads en entorns multicore multisocket. Per aquesta finalitat, el model requereix una caracterització exhaustiva en temps d'execució en un únic processador amb l'objectiu de determinar la contenció a memòria. El segon model de rendiment, basat en la pre-caracterització de l'aplicació, estima el temps d'execució i l'impacte de la contenció a memòria per execucions concurrents basat en el perfil del memory footprint extret de traces de la mateixa aplicació executada amb petites càrregues de treball. / La evolución de los procesadores multicore ha cambiado completamente la evolución de los actuales sistemas de HPC. Las arquitecturas multicore han sido diseñadas principalmente para evitar tres barreras de diseño, el paralelismo a nivel de instrucción, el consumo energético y la contención de memoria. La última debido a la creciente diferencia de velocidad entre el procesador y la memoria. El rendimiento de aplicaciones intensivas en memoria ejecutadas en entornos multicore multisocket está relacionado directamente a la utilización de los recursos compartidos en la jerarquía de memoria. La utilización de recursos compartidos puede llevar a una degradación de rendimiento significativa. La exploración de diferentes configuraciones de afinidad de threads permite la selección de configuraciones que pueden llegar a equilibrar la mejora de rendimiento obtenido por el incremento de paralelismo con la degradación debida a la contención de memoria. La principales contribuciones de esta tesis es la definición de una metodología para el desarrollo de estrategias de sintonización en entornos multicore multisocket que ha proporcionado la definición de dos modelos de rendimiento para aplicaciones intensivas en memoria.El primer modelo de rendimiento, basado en una caracterización en tiempo de ejecución, estima el tiempo de ejecución para diferentes configuraciones de numero y distribución de threads para entornos multicore multisocket. Para ello, el modelo requiere de una caracterización exhaustiva en tiempo de ejecución sobre un solo procesador con el objetivo de determinar la contención de memoria. El segundo modelo de rendimiento, basado en la pre-caracterización de la aplicación, estima en tiempo de ejecución el impacto de la contención de memoria para ejecuciones concurrentes basado en un perfil del memory footprint extraído de trazas de la aplicación ejecutada con pequeñas cargas de trabajo. / The evolution of multicore processors has completely changed the evolution of current HPC systems. The multicore architectures were mainly designed to avoid three design walls, instruction level parallelism, power wall, and finally the memory wall. The last because of the increasingly gap between processor and memory speeds. Performance of memory intensive applications executed on multi-core multi-socket environments is closely related to the utilization of shared resources in the memory hierarchy. The shared resources utilization can lead to a significant performance degradation. The exploration of different thread affinity configurations allows the selection of a proper configuration that balances the performance improvement obtained by increasing parallelism with the performance degradation due to memory contention. The main contributions of this thesis is the definition of a methodology for developing dynamic tuning strategies in multicore multisocket environment which has provided the definition of two performance models for memory intensive applications. The first performance model, based on runtime characterization, estimates the execution time for different configurations of threads and thread distributions in a multicore multisocket system. To do that, the model requires a runtime characterization from the exhaustive execution on a single socket to determine the memory contention. The second performance model, based on pre-characterization of the application, estimates at runtime the impact of the memory contention for concurrent executions based on profiling the memory footprint from traces of the application using small workloads.
169

Tecnología y estética. Los motion graphics como exponente de la imagen interfaz

Ràfols Cabrisses, Rafael 25 February 2016 (has links)
El objeto de estudio de esta tesis son los motion graphics (MG), el género audiovisual nacido con la tecnología audiovisual digital y que es resultado de la introducción de la cultura gráfica en la imagen en movimiento. Es un formato que incorpora desde expresiones netamente artísticas hasta aquellas que con carácter funcional constituyen el diseño audiovisual. Sus formatos más característicos son: los títulos de crédito de las películas, la publicidad, los videoclips, la imagen de los canales televisivos, las cabeceras de los programas televisivos, así como otras expresiones de la cultura audiovisual. Para llevar a cabo dicho estudio se utiliza la teoría de la interfaz creada por Josep M. Català y desarrollada en sus obras “La imagen compleja” (2005) y “La imagen interfaz” (2010). El estudio sirve para demostrar la validez de tan reciente teoría de la imagen al poner de manifiesto su eficacia para estudiar dicha fenomenología, algo que no había sido posible conseguir satisfactoriamente con las teorías existentes con anterioridad. El análisis se lleva a cabo desmenuzando dicha teoría en los conceptos más significativos para el estudio de esta particular fenomenología: la imagen compleja, el espacio virtual, la imagen fragmentada, el espacio-tiempo, la metáfora, la retórica y la relación entre imagen y pensamiento. La exposición progresiva de dichos conceptos permite que se vaya trenzando una relación entre ellos a medida que avanza. Se utilizan diferentes ejemplos de MG a través de los cuales se demuestran la validez de dichos conceptos, llevándose con ello a término una inédita aproximación a dicha fenomenología. Esta exposición es a su vez demostración de la interdisciplinariedad metodológica utilizada, al relacionar estrechamente imagen y lenguaje, entendidos ambos en colaboración mutua, asumiéndose el discurso como parte del mismo objeto. Se estudia a través de que tecnologías del audiovisual digital utilizadas para la creación de los MG, cómo se materializa el nuevo modelo mental antropológico en el que se encuentra la imagen según dicha teoría. Para llevarlo a término se analiza a fondo su software más característico: la composición digital, comparándolo con los de 3D y edición. La indefinición conceptual que caracteriza dicho software, a diferencia de lo que ocurre con los otros dos, ha llevado a esta investigación a conceptualizarlo a partir de la teoría interfaz. Se indaga el origen de estas tecnologías para conocer su significado profundo, lo que lleva a remontarse a los inicios del cine y más concretamente al nacimiento de los efectos especiales, surgidos como necesidad de ir más allá de la imagen única que ofrecía la cámara de cine. La tecnología más característica de la composición de imágenes en movimiento fue la llamada impresora óptica, que nacida a finales de los años veinte alcanzó su plenitud con posterioridad a la II Guerra Mundial. Con la llegada de la tecnología digital surgió la composición digital que, absorbiendo los conceptos de la tecnología precedente, se constituyó en la herramienta fundamental de los efectos visuales –junto con el 3D– y significó el nacimiento propiamente dicho de los MG. Las vanguardias cinematográficas que acompañaron tanto al cine como al video, llevaron a término una importante labor de experimentación con dichas tecnologías y demostraron que poseían capacidades para ir más allá de la forma narrativa que la industria del cine había institucionalizado. Los MG surgieron como una interpretación de la tecnología de los efectos visuales, expresión significativa de la relación entre arte y tecnología. / The study object of this thesis are motion graphics (MG), the audiovisual genre born from digital audiovisual technology and is a result of the introduction of graphic culture in motion pictures. It is a format that incorporates from purely artistic expressions to those with functional character are called audio-visual design. Its most characteristic forms are: film titles, commercials, video clips, network branding, the opening of television programs, along with other expressions of audio-visual culture. To carry out the study this thesis takes the interface theory created by Josep M. Català and developed in his works “La imagen compleja” (2005) and “La imagen interfaz” (2010). The study serves to demonstrate the validity of such recent theory of image by highlighting its effectiveness in study this phenomenology, something that had not been possible to achieve satisfactorily with previously existing theories. The analysis is carried out by thoroughly analysing the most significant concepts of this theory for the study of this particular phenomenology: complex image, virtual space, fragmented image, space-time, metaphor, rhetoric and the relationship between image and thought. The progressive exposure of these concepts allows for a relationship to be formed between them as it goes. Different examples of MG are used through which the validity of these concepts are demonstrated, taking with it an unprecedented approach to this phenomenology. Furthermore, this explanation is at the same time a demonstration of the interdisciplinary methodology used, the image and language closely related, understood both in mutual collaboration, assuming the discourse as part of the same object. It is studied through which digital audiovisual technologies used for the creation of MG, how the new anthropological mental model, in which the image finds, is materialized according to this theory. In order to carry it out, its most characteristic software –the digital composition, is studied in depth, comparing it with 3D and editing software. The conceptual vagueness which characterizes such software, unlike what happens with the other two, has led this research to conceptualize it from the interface theory. The origin of these technologies is investigated in order to know its deep meaning, leading to go back to the beginnings of the cinema and, more specifically, to the birth of the special effects, which arising as a need to go beyond the single image featuring the film camera. The most characteristic technology of the composition of moving images was the so-called optical printer, born at the end of the 1920s reached its peak after World War II. Digital compositing emerged with the arrival of digital technology, absorbing the previous technology concepts, became the essential tool of the visual effects –along with 3D– and meant the birth itself of MG. The avant-garde film that go hand in hand with both film and video, carried out an important experimental work with these technologies and demonstrated that they had abilities to go further the narrative form institutionalised by film industry. MG emerged as an interpretation of visual effects technology, a significant expression of the relationship between art and technology.
170

Viewpoint invariant features and robust monocular Camera pose estimation

Ferraz Colomina, Luis 01 February 2016 (has links)
La pose de la càmera respecte a una escena del món real determina la projecció perspectiva de l'escena sobre el pla imatge. L'anàlisi de les deformacions entre parelles d'imatges degudes a la perspectiva i la pose de la càmera han portat a molts investigadors en Visió per Computador a tractar amb problemes com, la capacitat per detectar i buscar coincidències de les mateixes característiques locals a diferents imatges o recuperar per cada imatge la pose original de la càmera. La diferencia entre els dos problemes recau en la localitat de la informació que es mostra a la imatge, mentre en el cas de les característiques es busca la invariància local, per al cas de la pose de la càmera es busquen fonts d'informació més global, com ara conjunts de característiques locals. La detecció de característiques locals és una peça clau per un ampli rang d'aplicacions de Visió per Computador donat que permet buscar coincidències i localitzar regions específiques de la imatge. A la primera part d'aquest treball la invariància de les característiques és abordada proposant algoritmes per millorar la robustesa a les pertorbacions de la imatge, canvis de perspectiva i poder de discriminació des de dos punts de vista: (i) detecció precisa de cantonades i taques a les imatges evitant redundàncies mitjançant el seu moviment a través de diferents escales, i (ii) aprenentatge de descriptors robustos. Concretament, proposem tres detectors invariants a escala on un d'ells detecta cantonades i taques simultàniament amb un increment de la càrrega computacional insignificant. També proposem un detector invariant afí de taques. Sobre descriptors, proposem aprendre'ls mitjançant xarxes neurals de convolució i grans conjunts de regions d'imatges anotades sota diferents condicions. Malgrat que és un tema investigat durant dècades, l'estimació de la pose de la càmera encara és un repte. L'objectiu dels algorismes de Perspective-n-Point (PnP) és estimar la localització i orientació d'una càmera calibrada a partir de n correspondències 3D-a-2D conegudes entre un prèviament conegut model 3D d'una escena real i característiques 2D obtingudes d'una única imatge. A la segona part d'aquesta tesi l'estimació de la pose de la càmera és adreçada amb nous mètodes de PnP, els quals redueixen dràsticament el cost computacional permetent aplicacions en temps real independentment del nombre de correspondències. A més, proporcionem un mecanisme integrat de rebuig de correspondències incorrectes amb una càrrega computacional insignificant i un nou mètode per incrementar la precisió que modela l'error de reprojecció de cada correspondència. A escenaris complexos i grans, amb potser centenars de milers de característiques, és difícil i computacionalment car trobar correspondències correctes. En aquest cas, proposem un mètode robust i precís per estimar la pose de la càmera. El nostre mètode s'aprofita de classificadors d'alt nivell, que estimen la pose de la càmera de manera poc precisa, per tal de restringir les correspondències a ser utilitzades pels nostres precisos algorismes de PnP. / Camera pose with respect to a real world scene determines the perspective projection of the scene on the image plane. The analysis of the deformations between pairs of images due to perspective and camera pose have led many Computer Vision researchers to deal with problems such as, the ability to detect and match the same local features in different images or recovering for each image its original camera pose. The difference between both problems lie in the locality of the image information, while for local features we look for local invariance, for camera pose we look for more global information sources, like sets of local features. Local feature detection is a cornerstone of a wide range of Computer Vision applications since it allows to match and localize specific image regions. In the first part of this work local invariance of features is tackled proposing algorithms to improve the robustness to image perturbations, perspective changes and discriminative power from two points of view: (i) accurate detection of non-redundant corner and blob image structures based on their movement along different scales, and (ii) learning robust descriptors. Concretely, we propose three scale invariant detectors, detecting one of them corners and blobs simultaneously with a negligible computational overhead. We also propose one blob affine invariant detector. In terms of descriptors, we propose to learn them using Convolutional Neural Networks and large datasets of annotated image regions under different image conditions. Despite being a topic researched for decades camera pose estimation is still an open challenge. The goal of the Perspective-n-Point (PnP) problem is to estimate the location and orientation of a calibrated camera from n known 3D-to-2D point correspondences between a previously known 3D model of a real scene and 2D features obtained from a single image. In the second part of this thesis camera pose estimation is addressed with novel PnP approaches, which reduces drastically the computational cost allowing real-time applications independently of the number of correspondences. In addition, we provide an integrated outlier rejection mechanism with a negligible computational overhead and a novel method to increase the accuracy by modelling the reprojection error of each correspondence. Finally in the case of complex and huge scenarios, with maybe hundreds of thousands of features, is difficult and computationally expensive to be able to find correct 3D-to-2D correspondences. In this case, a robust and accurate top-down approach for camera pose estimation is proposed. Our approach takes advantage of high-level classifiers, which estimates a rough camera pose, in order to constrain the 3D-to-2D correspondences to be used by our accurate and robust to outliers PnP method.

Page generated in 0.1352 seconds