• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 52
  • 18
  • 4
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 272
  • 153
  • 153
  • 79
  • 73
  • 73
  • 51
  • 50
  • 42
  • 32
  • 30
  • 27
  • 25
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

FAST : a fault detection and identification software tool

Duatis Juárez, Jordi 05 February 2016 (has links)
The aim of this work is to improve the reliability and safety of complex critical control systems by contributing to the systematic application of fault diagnosis. In order to ease the utilization of fault detection and isolation (FDI) tools in the industry, a systematic approach is required to allow the process engineers to analyze a system from this perspective. In this way, it should be possible to analyze this system to find if it provides the required fault diagnosis and redundancy according to the process criticality. In addition, it should be possible to evaluate what-if scenarios by slightly modifying the process (f.i. adding sensors or changing their placement) and evaluating the impact in terms of the fault diagnosis and redundancy possibilities. Hence, this work proposes an approach to analyze a process from the FDI perspective and for this purpose provides the tool FAST which covers from the analysis and design phase until the final FDI supervisor implementation in a real process. To synthesize the process information, a very simple format has been defined based on XML. This format provides the needed information to systematically perform the Structural Analysis of that process. Any process can be analyzed, the only restriction is that the models of the process components need to be available in the FAST tool. The processes are described in FAST in terms of process variables, components and relations and the tool performs the structural analysis of the process obtaining: (i) the structural matrix, (ii) the perfect matching, (iii) the analytical redundancy relations (if any) and (iv) the fault signature matrix. To aid in the analysis process, FAST can operate stand alone in simulation mode allowing the process engineer to evaluate the faults, its detectability and implement changes in the process components and topology to improve the diagnosis and redundancy capabilities. On the other hand, FAST can operate on-line connected to the process plant through an OPC interface. The OPC interface enables the possibility to connect to almost any process which features a SCADA system for supervisory control. When running in on-line mode, the process is monitored by a software agent known as the Supervisor Agent. FAST has also the capability of implementing distributed FDI using its multi-agent architecture. The tool is able to partition complex industrial processes into subsystems, identify which process variables need to be shared by each subsystem and instantiate a Supervision Agent for each of the partitioned subsystems. The Supervision Agents once instantiated will start diagnosing their local components and handle the requests to provide the variable values which FAST has identified as shared with other agents to support the distributed FDI process. / Per tal de facilitar la utilització d'eines per la detecció i identificació de fallades (FDI) en la indústria, es requereix un enfocament sistemàtic per permetre als enginyers de processos analitzar un sistema des d'aquesta perspectiva. D'aquesta forma, hauria de ser possible analitzar aquest sistema per determinar si proporciona el diagnosi de fallades i la redundància d'acord amb la seva criticitat. A més, hauria de ser possible avaluar escenaris de casos modificant lleugerament el procés (per exemple afegint sensors o canviant la seva localització) i avaluant l'impacte en quant a les possibilitats de diagnosi de fallades i redundància. Per tant, aquest projecte proposa un enfocament per analitzar un procés des de la perspectiva FDI i per tal d'implementar-ho proporciona l'eina FAST la qual cobreix des de la fase d'anàlisi i disseny fins a la implementació final d'un supervisor FDI en un procés real. Per sintetitzar la informació del procés s'ha definit un format simple basat en XML. Aquest format proporciona la informació necessària per realitzar de forma sistemàtica l'Anàlisi Estructural del procés. Qualsevol procés pot ser analitzat, només hi ha la restricció de que els models dels components han d'estar disponibles en l'eina FAST. Els processos es descriuen en termes de variables de procés, components i relacions i l'eina realitza l'anàlisi estructural obtenint: (i) la matriu estructural, (ii) el Perfect Matching, (iii) les relacions de redundància analítica, si n'hi ha, i (iv) la matriu signatura de fallades. Per ajudar durant el procés d'anàlisi, FAST pot operar aïlladament en mode de simulació permetent a l'enginyer de procés avaluar fallades, la seva detectabilitat i implementar canvis en els components del procés i la topologia per tal de millorar les capacitats de diagnosi i redundància. Per altra banda, FAST pot operar en línia connectat al procés de la planta per mitjà d'una interfície OPC. La interfície OPC permet la possibilitat de connectar gairebé a qualsevol procés que inclogui un sistema SCADA per la seva supervisió. Quan funciona en mode en línia, el procés està monitoritzat per un agent software anomenat l'Agent Supervisor. Addicionalment, FAST té la capacitat d'implementar FDI de forma distribuïda utilitzant la seva arquitectura multi-agent. L'eina permet dividir sistemes industrials complexes en subsistemes, identificar quines variables de procés han de ser compartides per cada subsistema i generar una instància d'Agent Supervisor per cadascun dels subsistemes identificats. Els Agents Supervisor un cop activats, començaran diagnosticant els components locals i despatxant les peticions de valors per les variables que FAST ha identificat com compartides amb altres agents, per tal d'implementar el procés FDI de forma distribuïda.
22

Specialization and reconfiguration of lightweight mobile processors for data-parallel applications

Duric, Milovan 26 January 2016 (has links)
The worldwide utilization of mobile devices makes the segment of low power mobile processors leading in the entire computer industry. Customers demand low-cost, high-performance and energy-efficient mobile devices, which execute sophisticated mobile applications such as multimedia and 3D games. State-of-the-art mobile devices already utilize chip multiprocessors (CMP) with dedicated accelerators that exploit data-level parallelism (DLP) in these applications. Such heterogeneous system design enable the mobile processors to deliver the desired performance and efficiency. The heterogeneity however increases the processors complexity and manufacturing cost when adding extra special-purpose hardware for the accelerators. In this thesis, we propose new hardware techniques that leverage the available resources of a mobile CMP to achieve cost-effective acceleration of DLP workloads. Our techniques are inspired by classic vector architectures and the latest reconfigurable architectures, which both achieve high power efficiency when running DLP workloads. The high requirement of additional resources for these two architectures limits their applicability beyond high-performance computers. To achieve their advantages in mobile devices, we propose techniques that: 1) specialize the lightweight mobile cores for classic vector execution of DLP workloads; 2) dynamically tune the number of cores for the specialized execution; and 3) reconfigure a bulk of the existing general purpose execution resources into a compute hardware accelerator. Specialization enables one or more cores to process configurable large vector operands with new special purpose vector instructions. Reconfiguration goes one step further and allow the compute hardware in mobile cores to dynamically implement the entire functionality of diverse compute algorithms. The proposed specialization and reconfiguration techniques are applicable to a diverse range of general purpose processors available in mobile devices nowadays. However, we chose to implement and evaluate them on a lightweight processor based on the Explicit Data Graph Execution architecture, which we find promising for the research of low-power processors. The implemented techniques improve the mobile processor performance and the efficiency on its existing general purpose resources. The processor with enabled specialization/reconfiguration techniques efficiently exploits DLP without the extra cost of special-purpose accelerators. / La utilización de dispositivos móviles a nivel mundial hace que el segmento de procesadores móviles de bajo consumo lidere la industria de computación. Los clientes piden dispositivos móviles de bajo coste, alto rendimiento y bajo consumo, que ejecuten aplicaciones móviles sofisticadas, tales como multimedia y juegos 3D.Los dispositivos móviles más avanzados utilizan chips con multiprocesadores (CMP) con aceleradores dedicados que explotan el paralelismo a nivel de datos (DLP) en estas aplicaciones. Tal diseño de sistemas heterogéneos permite a los procesadores móviles ofrecer el rendimiento y la eficiencia deseada. La heterogeneidad sin embargo aumenta la complejidad y el coste de fabricación de los procesadores al agregar hardware de propósito específico adicional para implementar los aceleradores. En esta tesis se proponen nuevas técnicas de hardware que aprovechan los recursos disponibles en un CMP móvil para lograr una aceleración con bajo coste de las aplicaciones con DLP. Nuestras técnicas están inspiradas por los procesadores vectoriales clásicos y por las recientes arquitecturas reconfigurables, pues ambas logran alta eficiencia en potencia al ejecutar cargas de trabajo DLP. Pero la alta exigencia de recursos adicionales que estas dos arquitecturas necesitan, limita sus aplicabilidad más allá de las computadoras de alto rendimiento. Para lograr sus ventajas en dispositivos móviles, en esta tesis se proponen técnicas que: 1) especializan núcleos móviles ligeros para la ejecución vectorial clásica de cargas de trabajo DLP; 2) ajustan dinámicamente el número de núcleos de ejecución especializada; y 3) reconfiguran en bloque los recursos existentes de ejecución de propósito general en un acelerador hardware de computación. La especialización permite a uno o más núcleos procesar cantidades configurables de operandos vectoriales largos con nuevas instrucciones vectoriales. La reconfiguración da un paso más y permite que el hardware de cómputo en los núcleos móviles ejecute dinámicamente toda la funcionalidad de diversos algoritmos informáticos. Las técnicas de especialización y reconfiguración propuestas son aplicables a diversos procesadores de propósito general disponibles en los dispositivos móviles de hoy en día. Sin embargo, en esta tesis se ha optado por implementarlas y evaluarlas en un procesador ligero basado en la arquitectura "Explicit Data Graph Execution", que encontramos prometedora para la investigación de procesadores de baja potencia. Las técnicas aplicadas mejoraran el rendimiento del procesador móvil y la eficiencia energética de sus recursos para propósito general ya existentes. El procesador con técnicas de especialización/reconfiguración habilitadas explota eficientemente el DLP sin el coste adicional de los aceleradores de propósito especial.
23

Generation of intense few-cycle phase-stable electric fields: from the mid-IR to soft X-rays

Silva, Francisco José Maia da 29 February 2016 (has links)
Devising new tools that expand our capabilities to sense and manipulate the world enables much of the scientific and technological progress around us. For example, light is increasingly more important as a tool for humanity. Not all light is equal, however - the light that we normally interact on a daily basis (e.g. the sun), despite its serene and directional appearance, exists in a state of ever changing disorder. What one would perceive as a smooth beam of white light is actually an ever changing pattern of colours. However, As the scale over which the colour changes is spatially too small and temporarily too rapid to be resolved by the human eye we perceive it as a smooth white beam. This lack of a clear spatio-temporal structure in naturally occurring light - coherence - limits what can be done with it. If one were to overlap all the frequencies in a temporally coherent beam of light, one could generate an extremely short and powerful pulse. For example, by compressing in time all the colours in sunlight one would generate a light pulse with just a few femtoseconds duration. If such pulse would have a very modest energy (e.g., a Joule), it would have a peak power approaching the PetaWatt - several orders of magnitude more than the total energy production on earth at a given time. When focused on a minuscule spot, the electric field oscillations of this wave would have amplitudes greatly surpassing the electric fields that bind electrons to atoms, or even atoms together in molecules. This implies that by focusing these pulses into matter one can destroy chemical bonds, free the electrons from the influence of the atom's nucleus and even further accelerate these particles away from the interaction region. It follows that with the correct electric field shape, one could control and manipulate matter in new and interesting ways.In this thesis we have dedicated ourselves to the creation and characterisation of intense, few-cycle pulsed sources of light, using several different approaches. In this thesis a light source with more than 3 octaves (450-4500 nm) has been developed through filamentation of intense mid-IR pulses in solids. This source has high repetition rate (100 kHz), high spectral density and absolute carrier-envelope phase stability. Additionally, numerical simulations suggest that the nonlinear propagation dynamics induce self-compression, possibly leading to single-cycle pulses. The scaling of strong field processes such as electron acceleration highly depends on the period or wavelength of the driving electrical field. This has implications for High harmonic generation (HHG) - the longer the wavelength of this field, the higher the energy of the generated photons. In this thesis we have built a high energy pulsed parametric light source at 2100 nm, a wavelength that enables one to generate soft-x-ray photons with energies exceeding 300 eV through phase-matched HHG ¿ and further demonstrated HHG cutoff extension up to 190 eV in Argon, when compared to HHG from 800 nm pulses.When doing HHG, in order to restrict the soft-X-ray emission to a single isolated attosecond pulse one needs to employ a gating technique. In this thesis we have extended the attosecond lighthouse technique up to the Water window (284-543 eV) which is of fundamental interest to study biological processes with unprecendent spatio-temporal resolution and elemental specificity. The routine generation and characterisation of pulses in the single-cycle regime has historically been a challenge. As such sources invariably require extreme nonlinear spectral broadening, the optimisation of the output pulse has always been a limitation. In this thesis we extend the dispersion-scan technique to the single-cycle regime and demonstrate its use as a straightforward way to compress, characterise and phase-stabilise 3.2 fs pulses with >50 GW peak power. We illustrate the steps done to optimise this source to reach the single-cycle regime. / Concebir nuevas herramientas que expandan nuestras capacidades para medir y manipular el mundo habilita gran parte del progreso cientifico y tecnologico que nos rodea. Por ejemplo, la luz es cada vez más importante como herramienta para la humanidad. Sin embargo, no toda la luz es igual - la luz con la cual normalmente interactuamos a diario (por ejemplo, la luz del sol), a pesar de su aspecto sereno y direccional, existe en un estado de constante cambio y disorden. Lo que se podria percibir como un rayo homogeneo de luz blanca es en realidad un patron en constante cambio de color e forma. Sin embargo, como la escala de los cambios de color es espacialmente demasiado pequeña y temporalmente demasiado rapida para ser resuelta por el ojo humano lo percibimos como un rayo blanco homogeneo. Esta falta de una estructura espacio-temporal en la luz natural - coherencia - limita lo que se puede hacer con ella. Si uno superpone todas las frecuencias en un rayo temporalmente coherente de luz, uno genera un pulso de luz extremadamente corto y potente. Por ejemplo, mediante la superposicio¿n en el tiempo de todos los colores en la luz del sol se generaria un pulso de luz con una duracion de pocos femtosegundos. Si tal pulso tiene una energia muy modesta (por ejemplo, un Julio), tendria una potencia de pico alrededor del Petawatt - ordenes de magnitud mas grande que la produccio¿n de energia en la Tierra en un determinado momento. Cuando enfocadas en un punto minusculo, las oscilaciones del campo electrico de esta onda tendran amplitudes superando los campos electricos que unen los electrones a los atomos, o incluso los atomos unos a los otros en moleculas. Esto implica que enfocando estos pulsos en la materia uno puede destruir enlaces quimicos, liberar los electrones de la influencia del nucleo del atomo y acelerar estas particulas. En consecuencia, con la forma de campo electrico correcta, se podria controlar y manipular la materia en formas nuevas e interesantes. En esta tesis nos hemos dedicado a la creacion y caracterizacion de fuentes de pulsos de luz intensos de pocos ciclos, utilizando diversas tecnicas. En esta tesis una fuente de luz con mas de 3 octavas (450-4500 nm) ha sido desarrollada a traves de filamentacion en solidos de impulsos mid-IR intensos. Esta fuente tiene una alta tasa de repeticion (100 kHz), alta densidad espectral y estabilidad de fase. Ademas, simulaciones numericas sugieren que la dinamica de propagacion no lineal induce auto-compresion temporal. El escalamiento de los procesos de campo fuerte, como la aceleracion de electrones, depende en gran medida de la longitud de onda del campo electrico interveniente. Esto tiene grandes implicaciones para la generacion de harmonicos altos (HHG) - mas larga sea la longitud de onda del campo, mayor es la energia de los fotones generados. En esta tesis hemos construido una fuente de luz de alta energia a 2100nm, una longitud de onda que nos permite generar fotones con energi¿as superiores a 300 eV a traves de HHG con phase-matching - y ademas demostrado extension de corte HHG hasta 190 eV en argon, en comparacion con HHG a partir de pulsos a 800 nm. Al hacer HHG, para limitar la emision de rayos-X blandos a un solo pulso de attosegundos aislado, uno necesita emplear una tecnica de gating. En esta tesis hemos extendido la te¿cnica del faro de attosegundos hasta la ventana de la agua (284-543 eV) lo cual posee interes fundamental para estudiar procesos biologicos con resolucio¿n espacio-temporal y especificidad elemental. Como esas fuentes invariablemente requieren un ensanchamiento espectral no lineal extremo, la optimizacion del pulso siempre presenta un problema. En esta tesis hemos extendido la tecnica de dispersion-scan, hasta el regimen de un solo ciclo optico y demostramos su uso como una forma de comprimir, caracterizar y estabilizar la fase de pulsos de 3.2 fs.
24

Incidencia del lugar en la obra de Arne Jacobsen (1950–1964)

Martín Carbonell, Pol 04 February 2016 (has links)
Taking in consideration the inclusion and adaptation of the new modern American post-war models, the aim is to distinguish the aspects and conditions of place, among other conditions, which derived in the formal decisions taken by Arne Jacobsen in the end result of four of his representative works: The Jespersen & Søn office building, the Royal SAS Hotel, Rødovre's City Hall complex, and Landskrona's Sports Hall. The study's period scope ranges from 1945 when Arne Jacobsen returns from his exile to Sweden after WWll (and after Asplund's death in 1940), until his partnership with team member Otto Weitling in 1964. During his stay in war neutral Sweden, Jacobsen will become acquainted with the American architectural production that will poise a strong influence upon his return. The study's methodology will begin by analyzing the urban history of every site to understand the situation Jacobsen faced when tackling it. Following this analysis we will follow the development of the project guided by the architect's own documents, studying the different options considered and the criteria employed to choose among them. Some of Arne Jacobsen's most representative projects from this period are revisited to further comprehend the conception of their shape and its unavoidable relationship with the surroundings. 1. Jespersen & Søn Office Building: Through Jacobsen's study to shape the corner with the adjacent lot, he manages to solve the project and establish its final shape, responding to the visual relationship as the street's finale which the architect will prioritize as the project's departure point. 2. Royal SAS Hotel: Considering the precedent of Gordon Bunshaft's Lever House,it gets pointed out how the project formally relates and deals with architect lb Lunding's previous urban project, where the surroundings of national monument Frihedsst0tten and the square before the Central Station are arranged. From the relation between both projects, common criteria arise demonstrating Jacobsen's attention toward a complex and interesting urban site within the city. 3. Rødovre’s City Hall: This building belongs to a local government complex which, in turn, relates to a large scale urban plan which Jacobsen himself had previously designed when collaborating with the Carlsro project. The city hall complex is encompassed in a "green" corridor which supports the expansion of this new city. Taking Saarinen's building for General Motors as a precedent, this study displays certain criteria which affect the formal configuration of the complex and the building itself, as well as the significance of the visual relationships established through the new city hall square. 4. Landskrona's Sports Hall: Following Rødovre’s city hall experience of building and square pairing, Jacobsen, through a square and a pavilion, is able to redefine and arrange the access point to a sports complex he also draws the master plan's for. This project is related to the old garden serving this purpose. The square before the pavilion establishes a common ground relating the building to the existing stadium and the remaining sports premises / A partir de la incorporación y adecuación de los nuevos referentes modernos americanos de la posguerra, se trata de discernir los aspectos y condicionantes del lugar, entre otros condicionantes, que hicieron tomar unas u otras decisiones formales en el resultado final de cuatro obras emblemáticas de Arne Jacobsen: Las Oficinas Jespersen & Søn, el Hotel Royal SAS, el conjunto del Ayuntamiento de Rødovre y el Pabellón Deportivo de Landskrona. El ámbito de estudio se centra desde el momento en que Ame Jacobsen vuelve de su exilio a Suecia durante la Segunda Guerra Mundial, y después de la muerte de Asplund en 1940, hasta su asociación en 1964 con su colaborador Otto Weitling. Durante su estancia en la neutral Suecia, Jacobsen entrará en contacto con la producción arquitectónica americana que tanto le influirá a su retomo. Metodológicamente, se analiza la historia urbana pertinente a cada emplazamiento para entender qué situación se encuentra Jacobsen a la hora de abordar el solar. A partir de aquí, a través de la documentación original del arquitecto, se hace un seguimiento del desarrollo del proyecto, estudiando las diferentes opciones que se plantea y los criterios que le hacen escoger o descartar una opción u otra. Se realiza una relectura complementaria de algunos de los proyectos de Arne Jacobsen más emblemáticos de este periodo, que explica la concepción de su forma y su inevitable relación con el emplazamiento. 1. Oficinas Jespersen & Søn : Mediante un estudio realizado por Jacobsen para configurar la esquina conformada con el solar vecino, consigue resolver el proyecto y establecer su forma final, pudiendo dar respuesta a la relación visual de final de calle que el arquitecto prioriza como punto de partida. 2. Hotel Royal SAS: Partiendo del referente de la Lever House de Gordon Bunshaft, se muestra cómo el proyecto se relaciona y atiende formalmente a un proyecto urbano anterior del arquitecto lb Lunding, en el que se ordena el entorno a un monumento de importancia nacional, el Frihedsst0tten, y la plaza frente a la Estación Central. A partir de la relación entre ambos proyectos, afloran criterios comunes que evidencian la atención de Jacobsen respecto a un lugar urbanísticamente complejo e interesante de la ciudad. 3. Ayuntamiento de Rødovre: Este edificio forma parte de un conjunto municipal que, a su vez, se relaciona con una ordenación a gran escala que el propio Jacobsen había realizado anteriormente en su colaboración en el proyecto de Carlsro. El complejo municipal se inscribe en un corredor "verde" que vertebra el crecimiento de esta nueva ciudad. Partiendo del referente del edificio de Saarinen para la sede de la General Motors, desde este punto de vista se muestran algunos de los criterios que afectan la configuración formal del conjunto y del propio edificio, y la importancia de las relaciones visuales establecidas mediante la nueva plaza municipal. 4. Pabellón Deportivo de Landskrona: A partir del binomio plaza-edificio, encontrado en la experiencia del Ayuntamiento de Rødovre, Jacobsen, mediante una plaza y el pabellón, es capaz de recrear y ordenar un lugar de entrada a un recinto deportivo que él mismo ordena. Se relaciona este proyecto con el antiguo jardín que realizaba esta función. La plaza frente al pabellón establece un lugar común que relaciona al edificio con el estadio existente y el resto del complejo deportivo.
25

A dynamic adaptive framework for improving case-based reasoning system performance

Orduña, Fernando 05 February 2016 (has links)
An optimal performance of a Case-Based Reasoning (CBR) system means, the CBR system must be efficient both in time and in size, and must be optimally competent. The efficiency in time is closely related to an efficient and optimal retrieval process over the Case Base of the CBR system. Efficiency in size means that the Case Library (CL) size should be minimal. Therefore, the efficiency in size is closely related to optimal case learning policies, optimal meta-case learning policies, optimal case forgetting policies, etc. On the other hand, the optimal competence of a CBR system means that the number of problems that the CBR system can satisfactorily solve must be maximum. To improve or optimize all three dimensions in a CBR system at the same time is a difficult challenge because they are interrelated, and it becomes even more difficult when the CBR system is applied to a dynamic or continuous domain (data stream). In this thesis, a Dynamic Adaptive Case Library framework (DACL) is proposed to improve the CBR system performance coping especially with reducing the retrieval time, increasing the CBR system competence, and maintaining and adapting the CL to be efficient in size, especially in continuous domains. DACL learns cases and organizes them into dynamic cluster structures. The DACL is able to adapt itself to a dynamic environment, where new clusters, meta-cases or prototype of cases, and associated indexing structures (discriminant trees, k-d trees, etc.) can be formed, updated, or even removed. DACL offers a possible solution to the management of the large amount of data generated in an unsupervised continuous domain (data stream). In addition, we propose the use of a Multiple Case Library (MCL), which is a static version of a DACL, with the same structure but being defined statically to be used in supervised domains. The thesis work proposes some techniques for improving the indexation and the retrieval task. The most important indexing method is the NIAR k-d tree algorithm, which improves the retrieval time and competence, compared against the baseline approach (a flat CL) and against the well-known techniques based on using standard k-d tree strategies. The proposed Partial Matching Exploration (PME) technique explores a hierarchical case library with a tree indexing-structure aiming at not losing the most similar cases to a query case. This technique allows not only exploring the best matching path, but also several alternative partial matching paths to be explored. The results show an improvement in competence and time of retrieving of similar cases. Through the experimentation tests done, with a set of well-known benchmark supervised databases. The dynamic building of prototypes in DACL has been tested in an unsupervised domain (environmental domain) where the air pollution is evaluated. The core task of building prototypes in a DACL is the implementation of a stochastic method for the learning of new cases and management of prototypes. Finally, the whole dynamic framework, integrating all the main proposed approaches of the research work, has been tested in simulated unsupervised domains with several well-known databases in an incremental way, as data streams are processed in real life. The conclusions outlined that from the experimental results, it can be stated that the dynamic adaptive framework proposed (DACL/MCL), jointly with the contributed indexing strategies and exploration techniques, and with the proposed stochastic case learning policies, and meta-case learning policies, improves the performance of standard CBR systems both in supervised domains (MCL) and in unsupervised continuous domains (DACL). / El rendimiento óptimo de un sistema de razonamiento basado en casos (CBR) significa que el sistema CBR debe ser eficiente tanto en tiempo como en tamaño, y debe ser competente de manera óptima. La eficiencia temporal está estrechamente relacionada con que el proceso de recuperación sobre la Base de Casos del sistema CBR sea eficiente y óptimo. La eficiencia en tamaño significa que el tamaño de la Base de Casos (CL) debe ser mínimo. Por lo tanto, la eficiencia en tamaño está estrechamente relacionada con las políticas óptimas de aprendizaje de casos y meta-casos, y las políticas óptimas de olvido de casos, etc. Por otro lado, la competencia óptima de un sistema CBR significa que el número de problemas que el sistema puede resolver de forma satisfactoria debe ser máximo. Mejorar u optimizar las tres dimensiones de un sistema CBR al mismo tiempo es un reto difícil, ya que están relacionadas entre sí, y se vuelve aún más difícil cuando se aplica el sistema de CBR a un dominio dinámico o continuo (flujo de datos). En esta tesis se propone el Dynamic Adaptive Case Library framework (DACL) para mejorar el rendimiento del sistema CBR especialmente con la reducción del tiempo de recuperación, aumentando la competencia del sistema CBR, manteniendo y adaptando la CL para ser eficiente en tamaño, especialmente en dominios continuos. DACL aprende casos y los organiza en estructuras dinámicas de clusters. DACL es capaz de adaptarse a entornos dinámicos, donde los nuevos clusters, meta-casos o prototipos de los casos, y las estructuras asociadas de indexación (árboles discriminantes, árboles k-d, etc.) se pueden formar, actualizarse, o incluso ser eliminados. DACL ofrece una posible solución para la gestión de la gran cantidad de datos generados en un dominio continuo no supervisado (flujo de datos). Además, se propone el uso de la Multiple Case Library (MCL), que es una versión estática de una DACL, con la misma estructura pero siendo definida estáticamente para ser utilizada en dominios supervisados. El trabajo de tesis propone algunas técnicas para mejorar los procesos de indexación y de recuperación. El método de indexación más importante es el algoritmo NIAR k-d tree, que mejora el tiempo de recuperación y la competencia, comparado con una CL plana y con las técnicas basadas en el uso de estrategias de árboles k-d estándar. Partial Matching Exploration (PME) technique, la técnica propuesta, explora una base de casos jerárquica con una indexación de estructura de árbol con el objetivo de no perder los casos más similares a un caso de consulta. Esta técnica no sólo permite explorar el mejor camino coincidente, sino también varios caminos parciales alternativos coincidentes. Los resultados, a través de la experimentación realizada con bases de datos supervisadas conocidas, muestran una mejora de la competencia y del tiempo de recuperación de casos similares. Además la construcción dinámica de prototipos en DACL ha sido probada en un dominio no supervisado (dominio ambiental), donde se evalúa la contaminación del aire. La tarea central de la construcción de prototipos en DACL es la implementación de un método estocástico para el aprendizaje de nuevos casos y la gestión de prototipos. Por último, todo el sistema, integrando todos los métodos propuestos en este trabajo de investigación, se ha evaluado en dominios no supervisados simulados con varias bases de datos de una manera gradual, como se procesan los flujos de datos en la vida real. Las conclusiones, a partir de los resultados experimentales, muestran que el sistema de adaptación dinámica propuesto (DACL / MCL), junto con las estrategias de indexación y de exploración, y con las políticas de aprendizaje de casos estocásticos y de meta-casos propuestas, mejora el rendimiento de los sistemas estándar de CBR tanto en dominios supervisados (MCL) como en dominios continuos no supervisados (DACL).
26

Memory architectures for exaflop computing systems

Pavlović, Milan 05 February 2016 (has links)
Most computing systems are heavily dependent on their main memories, as their primary storage, or as an intermediate cache for slower storage systems (HDDs). The capacity of memory systems, as well as their performance, have a direct impact on overall computing capabilities of the system, and are also major contributors to its initial and operating costs. Dynamic Random Access Memory (DRAM) technology has been dominating the main memory landscape since its beginnings in 1970s until today. However, due to DRAM's inherent limitations, its steady rate of development has saturated over the past decade, creating a disparity between CPU and main memory performance, known as the memory wall. Modern parallel architectures, such as High-Performance Computing (HPC) clusters and manycore solutions, create even more stress on their memory systems. It is not trivial to estimate memory requirements that these systems will have in the future, and if DRAM technology would be able to meet them, or we would need to look for a novel memory solution. This thesis attempts to give insight in the most important technological challenges that future memory systems need to address, in order to meet the ever growing requirements of users and their applications, in manycore and HPC context. We try to describe the limitations of DRAM, as the dominant technology in today's main memory systems, that may impede performance or increase cost of future systems. We discuss some of the emerging memory technologies, and by comparing them with DRAM, we try to estimate their potential usage in future memory systems. The thesis evaluates the requirements of manycore scientific applications, in terms of memory bandwidth and footprint, and estimates how these requirements may change in the future. With this evaulation in mind, we propose a hybrid memory solution that employs DRAM and PCM, as well as several page placement and page migration policies, to bridge the gap between fast and small DRAM and larger but slower non-volatile memory. As the aforementioned evaluations required custom software solutions, we present tools we produced over the course of this PhD, which continue to be used in Heterogeneous Computer Architectures group in Barcelona Supercomputing Center. First, Limpio - a LIghtweight MPI instrumentatiOn framework, that provides an interface for low-overhead instrumentation and profiling of MPI applications with user-defined routines. Second, MemTraceMPI, a Valgrind tool, used to produce memory access traces of MPI applications, with several innovative concepts included (filter-cache, iteration tracing, compressed trace files). / La mayoría de los sistemas de computación dependen en gran medida de sus principales recuerdos, como su almacenamiento primario, o como un caché intermedio para sistemas de almacenamiento más lentos (discos duros). La capacidad de los sistemas de memoria, así como su rendimiento, tienen un impacto directo en las capacidades globales de computación del sistema, y también son los principales contribuyentes a sus costos iniciales y de operación. Tecnología Dynamic Random Access memoria (DRAM) ha estado dominando el principal paisaje de memoria desde sus inicios en 1970 hasta la actualidad. Sin embargo, debido a las limitaciones inherentes de DRAM, su tasa constante de desarrollo ha saturado durante la última década, creando una disparidad entre la CPU y el rendimiento de la memoria principal, conocido como el muro de la memoria. Arquitecturas modernas paralelas, como la computación (HPC) de alto rendimiento y soluciones manycore, crear aún más presión sobre sus sistemas de memoria. No es trivial para estimar los requisitos de memoria que estos sistemas tendrán en el futuro, y si la tecnología DRAM sería capaz de cumplir con ellas, o que tendría que buscar una solución de memoria novela. En esta tesis se intenta dar una idea de los más importantes retos tecnológicos que los sistemas de memoria futuras deben abordar, con el fin de satisfacer las necesidades cada vez mayores de los usuarios y sus aplicaciones, en Manycore y HPC contexto. Intentamos describir las limitaciones de memoria DRAM, como la tecnología dominante en los sistemas de memoria principal de hoy en día, que pueden impedir el rendimiento o el aumento de los costos de los sistemas futuros. Se discuten algunas de las tecnologías de memoria emergentes, y comparándolos con DRAM, tratamos de estimar su uso potencial en sistemas de memoria futuras. La tesis evalúa los requisitos de las aplicaciones científicas manycore, en términos de ancho de banda de memoria y huella, y estima cómo estos requisitos pueden cambiar en el futuro. Con esta evaulation en mente, proponemos una solución de memoria híbrida que emplea DRAM y PCM, así como varias políticas de colocación de la página y la página de la migración, para cerrar la brecha entre la DRAM rápido y pequeño y más grande pero la memoria más lenta no volátil. Como las evaluaciones mencionadas necesarias soluciones de software personalizadas, se presentan las herramientas que hemos producido en el transcurso de esta tesis doctoral, que se siguen utilizando en el grupo heterogéneo de computadoras Arquitecturas en Barcelona Supercomputing Center. En primer lugar, Limpio - un marco MPI Instrumentación ligero, que proporciona una interfaz para la instrumentación de baja sobrecarga y perfilado de aplicaciones MPI con rutinas definidas por el usuario. En segundo lugar, MemTraceMPI, una herramienta Valgrind, utilizado para producir los rastros de acceso a memoria de aplicaciones MPI, con varios conceptos innovadores incluido (filtro-cache, trazado iteración, archivos de seguimiento comprimido).
27

La casa a quatre vents a La Bonanova (1945-1970) : una arquitectura residencial d'habitatge urbà en la forma de la ciutat de Barcelona (Sarrià-Sant Gervasi)

Aballanet, Albert 01 February 2016 (has links)
The case study is about modern residences built in Barcelona, detached urban housing building, that we named them CASES URBANES A QUATRE VENTS. lts architecture characterizes and differentiates a form of urban living, testimony of the activity program of the wealthy family home in Barcelona and the spirit at a precise moment in local history,between 1945 and 1970. These homes accommodate about a dozen familias and the concierge is in charge of common areas. There alike isolated small prisms, separated from the street and other buildings by a private gardens emerging with an order of four overlapping typical floors above the ground floor and crowned by a penthouse. They are located in a district named La Bonanova, formed as a homogeneous piece of the city of Barcelona, by the by law of 1947 which promoted the transformation of the building type of the existing suburb-garden single holiday houses. Chapter 1. Cases urbanas a quatre vents, DEFINITION, the logical definition of the building type is formulated. Section 1.2, LOCATION, it describes La Bonanova placed between the old municipalities of the region call Pla de Barcelona, which are integrated into the set of the city turned into suburban garden single seasonal vacation housing, built in the late nineteenth century and become permanent residences since late 1935. Section 1.3 TRADITION, finds the relationship between detached housing buildings built in the city of Barcelona, in the inner city (old city) between the centurias XVII and the XIX and in the "Eixample" (expand city) and its urban housing of XIX and XX centurias. Also with the trends introduced by GATPCAC group in residential buildings developed in the new urban fragments of growth of the city around the year 1930. The Section 1.4 TYPE, defines the group of houses and common program Casa a quatre vents arising in the area of Bonanova between 1945 and 1970, presented some new features of modemity. Section 1.5 HOME, discusses inside the housing,the functional program, distribution resolution, the functions of domestic work, the profusion of parts with specialized functions and circuits and access function. Section 1.6 DETACHED HOUSING BUILDING: fact sheets, presentation of a selection of 30 records of houses studied, with data and graphic documentation. The second part of the thesis, Chapter 2, links, the case study related to issues such as the order of Barcelona's urban open space, the urbanization of the Paseo de la Bonanova between the neighboring municipalities of Sarriá and Sant Gervasi, a history of the single family garden housing, with the novelty element of the terrace, and the representation of the new phenomenon of Casa a quatre vents, and other aspects of this complex new way of home. A table showing 98 uniform modal homes in the area of Bonanova, in order to allow the observation of that specific house in study, and the deduction of the typical object layout after having it presented, logically in chapter one. This work therefore is framed within the context, studying residence and modern housing forms from the city of Barcelona. / El caso de estudio son unas residencies modernas edificadas en Barcelona, que nombramos CASAS URBANAS A CUATRO VIENTOS. Su arquitectura caracteriza y diferencia una forma de vivienda urbana testimonio del programa de actividades del hogar familiar acomodado barcelonés y del espíritu de la época en un momento preciso de la historia local, entre los años de 1945 y de 1970. Estas casas alojan alrededor de una docena de familias y al conserje al cargo del equipo común. Son pequeños prismas exentos, aislados de la calle y de otras construcciones por el jardín privado, emergentes con un orden de cuatro pisos típicos superpuestos sobre la planta baja y coronados con ático. Están situadas en el barrio La Bonanova, conformado como fragmento homogéneo de la ciudad de Barcelona, por la ordenanza municipal del año 1947 que promueve en un antiguo suburbio-jardín de casas unifamiliares de recreo, la transformación del tipo edificatorio. En el Capítulo 1. Casas urbanas a cuatro vientos, una definición, se formula la definición lógica del tipo edificatorio. El apartado 1.2 Lugar, describe el barrio de La Bonanova situado entre los antiguos municipios comarcanos del Pla de Barcelona, que son integrados al conjunto de la ciudad convertidos en suburbios jardín donde se construyen cases-torre de recreo estacional a finales del siglo XIX y que se convierten en residencias permanentes ya a finales del año de 1935. El apartado 1.3 Tradición, pone en relación las casas a cuatro vientos con la producción de vivienda de la ciudad de Barcelona, tanto de la ciudad interior en los siglos XVII i XIX como del ensanche y su casa urbana de los siglos XIX i XX También con las tendencias que introducen las intervenciones del grupo GATPCAC en los edificios de viviendas que se desarrollan en los nuevos fragmentos urbanos de crecimiento de la ciudad entorno a los años de 1930. El apartado 1.4 Tipo, define la agrupación de viviendas y el programa común de la Casa a Cuatro Vientos que surge en la zona de la Bonanova entre los años de 1945 y 1970, presentado unos nuevos rasgos de modernidad. El apartado 1.5 Llar, analiza el interior de las viviendas, el programa funcional, la resolución distributiva, las funciones del trabajo doméstico, la profusión de piezas con función especializada y de circuitos de práctica y acceso. El apartado 1.6 Casas a cuatro vientos: fichas, presenta una selección de 30 fichas de casas estudiadas, con datos y documentación gráfica. La segunda parte de la tesis, el Capítulo 2, relaciona el caso de estudio con cuestiones como el orden abierto del espacio urbano barcelonés, el proceso de urbanización del paseo de la Bonanova entre los municipios comarcanos de Sarria y de Sant Gervasi,el antecedente de la casa-torre jardín, la novedad del elemento de la terraza, la novedad de la representación del fenómeno de la casa a cuatro vientos, y con otros aspectos de la nueva manera de esta casa compleja. Se presenta una Tabla Clasificatoria con expresión uniforme de 98 modelos de casas de la zona de la Bonanova, a los efectos de permitir la observación de aquello específico de las casas en estudio y la deducción gráfica del objeto típico después de haberlo enunciado lógicamente en la primera parte. Este trabajo pues, se enmarca en el contexto de estudio sobre la residencia y la vivienda moderna en la forma de la ciudad de Barcelona. / El cas d'estudi són unes residències modernes edificades a Barcelona, ​​que anomenem CASES URBANES A QUATRE VENTS. La seva arquitectura caracteritza i diferencia una forma d'habitatge urbà testimoni del programa d'activitats de la llar familiar acomodat barceloní i de l'esperit de l'època en un moment precís de la història local, entre els anys de 1945 i de 1970. Aquestes cases s'allotgen al voltant d'una dotzena de famílies i al conserge al càrrec de l'equip comú. Són petits prismes exempts, aïllats del carrer i d'altres construccions pel jardí privat, emergents amb un ordre de quatre pisos típics superposats sobre la planta baixa i coronats amb àtic. Estan situades al barri La Bonanova, conformat com a fragment homogeni de la ciutat de Barcelona, ​​per l'ordenança municipal de l'any 1947 que promou en un antic suburbi-jardí de cases unifamiliars d'esbarjo, la transformació del tipus edificatori. En el capítol 1. Cases urbanes a quatre vents, una definició, es formula la definició lògica del tipus edificatori. L'apartat 1.2 Lloc, descriu el barri de la Bonanova situat entre els antics municipis comarcans del Pla de Barcelona, ​​que són integrats al conjunt de la ciutat convertits en suburbis jardí on es construeixen cases-torre d'esbarjo estacional a la fi del segle XIX i que es converteixen en residències permanents ja a finals de l'any de 1935. l'apartat 1.3 Tradició, posa en relació les cases a quatre vents amb la producció d'habitatge de la ciutat de Barcelona, ​​tant de la ciutat interior en els segles XVII i XIX com del eixample i la seva casa urbana dels segles XIX i XX També amb les tendències que introdueixen les intervencions del grup GATPCAC en els edificis d'habitatges que es desenvolupen en els nous fragments urbans de creixement de la ciutat al voltant dels anys de 1930. l'apartat 1.4 tipus, defineix l'agrupació d'habitatges i el programa comú de la Casa a Quatre Vents que sorgeix a la zona de la Bonanova entre els anys de 1945 i 1970, presentat uns nous trets de modernitat. L'apartat 1.5 Llar, analitza l'interior dels habitatges, el programa funcional, la resolució distributiva, les funcions del treball domèstic, la profusió de peces amb funció especialitzada i de circuits de pràctica i accés. L'apartat 1.6 Cases a quatre vents: fitxes, presenta una selecció de 30 fitxes de cases estudiades, amb dades i documentació gràfica. La segona part de la tesi, el capítol 2, relaciona el cas d'estudi amb qüestions com l'ordre obert de l'espai urbà barceloní, el procés d'urbanització del passeig de la Bonanova entre els municipis comarcans de Sarria i de Sant Gervasi, l'antecedent de la casa-torre jardí, la novetat de l'element de la terrassa, la novetat de la representació del fenomen de la casa a quatre vents, i amb altres aspectes de la nova manera d'aquesta casa complexa. Es presenta una Taula Classificatòria amb expressió uniforme de 98 models de cases de la zona de la Bonanova, a l'efecte de permetre l'observació d'allò específic de les cases en estudi i la deducció gràfica de l'objecte típic després d'haver-ho enunciat lògicament en la primera part. Aquest treball doncs, s'emmarca en el context d'estudi sobre la residència i l'habitatge modern en la forma de la ciutat de Barcelona.
28

Identifying and combating cyber-threats in the field of online banking

Aguilà Vilà, Jordi 18 February 2016 (has links)
This thesis has been carried out in the industrial environment external to the University, as an industrial PhD. The results of this PhD have been tested, validated, and implemented in the production environment of Caixabank and have been used as models for others who have followed the same ideas. The most burning threats against banks throughout the Internet environment are based on software tools developed by criminal groups, applications running on web environment either on the computer of the victim (Malware) or on their mobile device itself through downloading rogue applications (fake app's with Malware APP). Method of the thesis has been used is an approximation of qualitative exploratory research on the problem, the answer to this problem and the use of preventive methods to this problem like used authentication systems. This method is based on samples, events, surveys, laboratory tests, experiments, proof of concept; ultimately actual data that has been able to deduce the thesis proposal, using both laboratory research and grounded theory methods of data pilot experiments conducted in real environments. I've been researching the various aspects related to e-crime following a line of research focusing on intrinsically related topics: - The methods, means and systems of attack: Malware, Malware families of banker Trojans, Malware cases of use, Zeus as case of use. - The fixed platforms, mobile applications and as a means for malware attacks. - forensic methods to analyze the malware and infrastructure attacks. - Continuous improvement of methods of authentication of customers and users as a first line of defense anti- malware. - Using biometrics as innovative factor authentication.The line investigating Malware and attack systems intrinsically is closed related to authentication methods and systems to infect customer (executables, APP's, etc.), because the main purpose of malware is precisely steal data entered in the "logon "authentication system, to operate and thus, fraudulently, steal money from online banking customers. Experiments in the Malware allowed establishing a new method of decryption establishing guidelines to combat its effects describing his fraudulent scheme and operation infection. I propose a general methodology to break the encryption communications malware (keystream), extracting the system used to encrypt such communications and a general approach of the Keystream technique. We show that this methodology can be used to respond to the threat of Zeus and finally provide lessons learned highlighting some general principles of Malware (in general) and in particular proposing Zeus Cronus, an IDS that specifically seeks the Zeus malware, testing it experimentally in a network production and providing an effective skills to combat the Malware are discussed. The thesis is a research interrelated progressive evolution between malware infection systems and authentication methods, reflected in the research work cumulatively, showing an evolution of research output and looking for a progressive improvement of methods authentication and recommendations for prevention and preventing infections, a review of the main app stores for mobile financial services and a proposal to these stores. The most common methods eIDAMS (authentication methods and electronic identification) implemented in Europe and its robustness are analyzed. An analysis of adequacy is presented in terms of efficiency, usability, costs, types of operations and segments including possibilities of use as authentication method with biometrics as innovation. / Este trabajo de tesis se ha realizado en el entorno industrial externo a la Universidad como un PhD industrial Los resultados de este PhD han sido testeados, validados, e implementados en el entorno de producción de Caixabank y han sido utilizados como modelos por otras que han seguido las mismas ideas. Las amenazas más candentes contra los bancos en todo el entorno Internet, se basan en herramientas software desarrolladas por los grupos delincuentes, aplicaciones que se ejecutan tanto en entornos web ya sea en el propio ordenador de la víctima (Malware) o en sus dispositivos móviles mediante la descarga de falsas aplicaciones (APP falsa con Malware). Como método se ha utilizado una aproximación de investigación exploratoria cualitativa sobre el problema, la respuesta a este problema y el uso de métodos preventivos a este problema a través de la autenticación. Este método se ha basado en muestras, hechos, encuestas, pruebas de laboratorio, experimentos, pruebas de concepto; en definitiva datos reales de los que se ha podido deducir la tesis propuesta, utilizando tanto investigación de laboratorio como métodos de teoría fundamentada en datos de experimentos pilotos realizados en entornos reales. He estado investigando los diversos aspectos relacionados con e-crime siguiendo una línea de investigación focalizada en temas intrínsecamente relacionadas: - Los métodos, medios y sistemas de ataque: Malware, familias de Malware de troyanos bancarios, casos de usos de Malware, Zeus como caso de uso. - Las plataformas fijas, los móviles y sus aplicaciones como medio para realizar los ataques de Malware. - Métodos forenses para analizar el Malware y su infraestructura de ataque. - Mejora continuada de los métodos de autenticación de los clientes y usuarios como primera barrera de defensa anti- malware. - Uso de la biometría como factor de autenticación innovador. La línea investiga el Malware y sus sistemas de ataque intrínsecamente relacionada con los métodos de autenticación y los sistemas para infectar al cliente (ejecutables, APP's, etc.) porque el objetivo principal del malware es robar precisamente los datos que se introducen en el "logon" del sistema de autenticación para operar de forma fraudulenta y sustraer así el dinero de los clientes de banca electrónica. Los experimentos realizados en el Malware permitieron establecer un método novedoso de descifrado que estableció pautas para combatir sus efectos fraudulentos describiendo su esquema de infección y funcionamiento Propongo una metodología general para romper el cifrado de comunicaciones del malware (keystream) extrayendo el sistema utilizado para cifrar dichas comunicaciones y una generalización de la técnica de Keystream. Se demuestra que esta metodología puede usarse para responder a la amenaza de Zeus y finalmente proveemos lecciones aprendidas resaltando algunos principios generales del Malware (en general) y Zeus en particular proponiendo Cronus, un IDS que persigue específicamente el Malware Zeus, probándolo experimentalmente en una red de producción y se discuten sus habilidades y efectividad. En la tesis hay una evolución investigativa progresiva interrelacionada entre el Malware, sistemas de infección y los métodos de autenticación, que se refleja en los trabajos de investigación de manera acumulativa, mostrando una evolución del output de investigación y buscando una mejora progresiva de los métodos de autenticación y de la prevención y recomendaciones para evitar las infecciones, una revisión de las principales tiendas de Apps para servicios financieros para móviles y una propuesta para estas tiendas. Se analizan los métodos más comunes eIDAMS (Métodos de Autenticación e Identificación electrónica) implementados en Europa y su robustez y presentamos un análisis de adecuación en función de eficiencia, usabilidad, costes, tipos de operación y segmentos incluyendo un análisis de posibilidades con métodos biométricos como innovación.
29

Estudio teórico y evidencia empírica de la aplicación de la metodología Living Lab en el diseño de sistemas eHealth

Alatriste Martínez, Yadira 04 February 2016 (has links)
In the European Union and some other countries, the Living Labs are innovation areas with diverse elements that foster innovative spaces with the final users. Also, the combination of public and private associations involved: companies, researchers, authorities and citizens work in a joint manner to improve the quality of life of the people, all of this within a real context. From this point of view, this work explores the application of the Living Lab methodology in the design of eHealth systems with the purpose of the users to have a meaningful experience through the use of the system in the treatment of their rehabilitation therapy of spasticity or dysphagia. The meaningful experience of users is achieved with the inclusion of usability principles and perceived utility. The research encompasses a theoretical study which analyses the topics of the domain of Living Labs and a compilation of different ad-­-hoc methodologies.The theoretical study shows that there are few contributions relating eHealth systems set through the Living Lab methodology. The methodological proposal from Ståhlbröst & Holst (2013) to present theTRH LAB system which is a methodology developed to suppor t the par ticipation of the user with a Living Lab approach. In it, the users have influence in future IT solutions with a formative approach.The results obtained in the validation show that the system is usable, useful and it is also adaptable to new health fields.The four focus groups integrated for the study were located in Cataluña and Mexico City. / En la Unión Europea y otros países los Living Labs son entornos de innovación, donde existen diversos elementos que favorecen varios espacios de innovación en conjunto con los usuarios finales. Además la combinación de asociaciones públicas y privadas en las que se encuentran involucradas: empresas, investigadores, autoridades y ciudadanos trabajan de manera adyacente para de mejorar la calidad de vida de las personas, todo ello dentro de un contexto real. Desde ésta perspectiva, este trabajo explora la aplicación de la metodología Living Lab en el diseño de sistemas eHealth con el fin de que los usuarios tengan una experiencia significativa mediante el uso del sistema en el tratamiento de su terapia de rehabilitación de espasticidad ó disfagia. La experiencia significativa de los usuarios es lograda con la inclusión de principios de usabilidad y de utilidad percibida. La investigación engloba un estudio teórico que analiza los temas del mapa de dominio de los Living Labs, además de una compilación de diversas metodologías ad hoc. El estudio teórico denota que son pocas las contribuciones que existen en cuanto a sistemas eHealth planteados mediante una metodología Living Lab. Se retoma la propuesta metodológica hecha por Ståhlbröst & Holst (2013) para plantear el sistemaTRH LAB,es una metodología desarrollada para apoyar la participación del usuario con un enfoque Living Lab, en ella los usuarios tienen influencia en las futuras soluciones de TI con un enfoque formativo. Los resultados obtenidos en la validación demuestran que el sistema es usable, útil y de igual forma tiene la facilidad de adaptación en nuevos entornos de salud. Los cuatro focus groups integrados para el estudio fueron situados en Cataluña y en la Ciudad de México.
30

El hotel de mar de J. A. Coderch

Alfós Bernad, Joan Ramon 03 February 2016 (has links)
This thesis approaches the study of seaside hotels as imagined by Jose Antonio Coderch at the beginning of mass tourism in Spain, when small, traditional, family-run hotels scattered along the coastline were transformed into large, tourist hotel chains. These chained-brand hotels popped up exponentially after the implementation of a financial stabilization plan in 1959, remodelling the Mediterranean landscape, and theywere socially rejected, including the only hotel Coderch ever built: Hotel de Mar. The architect said "I always thought this hotel was not worlhy [...], it's my worst work", showing his dissatisfaction. However, this hotel is one of his best-known works, an essential reference in hotel architecture literature. Hotel de Mar shows his evolution as an architect, from previous unknown projects in Sitges to his most successful work, Torre Valentina. When analyzing his projects, based on rethinking previous works by himself or by other architects, we realize that Coderch repeatedly shows some concerns, which are reflected in his architectural proposals and are sketched in his hotel conception. The existing literature about Torre Valentina and Hotel de Mar deal with these two works separately, as independent projects, whereas this thesis is based on the idea that both works are fruit of the same hotel conception, following Coderch's ideals but adapted to the owner's dream hotel (as it is the case of Hotel Buadas, later on renamed Hotel de Mar). Both projects were developed in the same period of time (from 1956 to 1962), on the same landscape (the Catalan coast and the Balearic coast), for the same target clients (first-class hotels) and under the same laws (an incipient, lax tourist and urban legislation). Therefore, Coderch's proposals respond to the same problems -the only differences between the two projects are the plot of land and the owner's requirements .Coderch's iconic step-like buildings featuring setbacks become a malleable calligraphy seen in his subsequent works .His hotel designs rewal a recurring concern to treat guests as individuals and hosts as a collectivity. These concerns are present in his seaside hotels ,which differ from the classic tourist hotels like Hilton lnternational hotels built during the 1950s -consumer goods made in America which colonised the Caribbean, the Mediterranean shores and even the published literature to the point that they became a reference for developers during Spanish developmentalism under Franco's dictatorship. With the aim of highlighting Coderch's unique models, his hotel buildings are chronologically analysed and compared with other hotels built by different architects, including Gio Ponti Bernard Rudofsky, Josep Lluis Sert, Alejandro de la Sota, Richard Neutra, Georges Candilis, Luis Gutiérrez Soto and Fernando Higueras. Coderch's works are compared to hotels with different locations and different construction years, which present a different approach to Coderch's concerns. Torre Valentina and Hotel de Mar became model buildings for would-be architects who later on built hotels during the "sun and sand" tourism boom. This thesis aims at sketching the concept of seaside hotels as designed by Coderch. / La tesis aborda el estudio del modelo de hotel de mar imaginado por Jose Antonio Coderch a inicios del turismo de masas en España, un período de transición entre los pequeños y tradicionales alojamientos familiares que salpican la costa y los grandes hoteles turísticos de sociedades mercantiles que la transformaron. Estos alojamientos de nueva planta,que crecieron exponencialmente con el Plan Nacional de Estabilización de 1959, construyeron el paisaje mediterráneo, lo cual generó un rechazo social similar al que produjo en Coderch su único hotel construido, "siempre he considerado que el Hotel de Mar no valía nada.[...] para mí es la peor obra". Buscando las razones de su insatisfacción frente a una de sus obras más divulgadas, un referente ineludible en publicaciones de arquitectura hotelera, vemos que el Hotel de Mar es el último eslabón de un proceso que se inicia con sus desconocidos proyectos hoteleros de Sitges y continúa con su obra más exitosa, Torre Valentina. El análisis de los proyectos del proceso basado en su praxis de reelaboración de obras anteriores -populares o propias-, muestra una serie de preocupaciones repetidas que subyacen tras sus propuestas, invariables que bosquejan su concepto de hotel. A diferencia de las publicaciones existentes sobre Torre Valentina y el Hotel de Mar, donde los proyectos se estudian aisladamente, la tesis entiende estas obras como la materialización de un concepto de hotel, variaciones que transitan desde la definición del ideal de Coderch hasta la construcción del hotel imaginado por la propiedad, el Hotel Buadas (posteriormente denominado Hotel de Mar). El proceso que se desarrolla en un mismo marco temporal (de 1956 a 1962), físico (la costa catalana y balear), social (hoteles de primera categoría dirigidos a una elite), y normativo (la incipiente y laxa legislación turística y urbanística prácticamente no varía), facilita la aproximación al modelo pues sus propuestas responden a un mismo problema, cuyo hecho diferencial será el solar y las particularidades de la propiedad. Tras las icónicas formas escalonadas que caracterizan sus hoteles, retranqueos aparecidos durante el proceso que se convierten en la caligrafía dúctil que marcará sus obras posteriores, existen preocupaciones recurrentes dirigidas al huésped como individuo y al anfitrión como colectivo. Estas inquietudes moldean el hotel de mar y lo distancian del paradigma de hotel turístico, los hoteles que Hilton Internacional construye en la década de los cincuenta, un producto de consumo de la industria americana que colonizó el Caribe, el Mediterráneo y las publicaciones especializadas, convirtiéndose en un modelo referencial de los promotores turísticos del desarrollismo franquista. A fin de establecer la especificidad del modelo se han analizado cronológicamente sus hoteles por capítulos y se han comparado con hoteles de arquitectos tan dispares como Gio Ponti y Bernard Rudofsky, Josep Lluis Sert, Alejandro de la Sota, Richard Neutra, Georges Candilis, Luis Gutiérrez Soto y Fernando Higueras, hoteles situados en entornos y tiempos diversos escogidos por su enfoque diferencial a los problemas planteados por Coderch. Torre Valentina y el Hotel de Mar han devenido proyectos referenciales para las generaciones posteriores de arquitectos que construyeron los hoteles del boom turístico español de sol y playa. Dibujar el concepto de hotel de mar que traslucen las formas de sus alojamientos turísticos será el objeto de la tesis.

Page generated in 0.0195 seconds